domenica, Luglio 6, 2025
GIANO NEWS
  • Home
  • EDITORIALI
  • TECNOLOGIA
  • ENERGIA
  • TRASPORTI
  • DIFESA
  • SCENARI
  • SANITÀ
  • ECONOMIA
  • CITTADINI E MINORI
  • LEGALITÀ
  • AVVISO AI NAVIGANTI
  • RIFLESSIONI
Nessun risultato
Visualizza tutti i risultati
GIANO NEWS
Nessun risultato
Visualizza tutti i risultati
Home SCENARI

ATTIVITÀ DI INFLUENZA E DISINFORMAZIONE DELLA CINA

Bruno Buorizzi di Bruno Buorizzi
17/05/2025
in SCENARI
ATTIVITÀ DI INFLUENZA E DISINFORMAZIONE DELLA CINA
662
Visualizzazioni
Condividi su FacebookCondividi su Linkedin
0:00 / 0:00
TE LO LEGGO IO

Negli ultimi anni, le operazioni di manipolazione informativa condotte da attori statali sono diventate sempre più sofisticate. Tra i paesi più attivi in questo ambito si distingue la Cina che ha sviluppato una strategia articolata di influenza digitale basata sulla combinazione di propaganda, reti di account non autentici, intelligenza artificiale e sfruttamento mirato delle piattaforme social. Una delle definizioni operative oggi più utilizzate per descrivere tali dinamiche è quella di Foreign Information Manipulation and Interference, o FIMI. Questa denominazione identifica un campo di azione nella disinformazione mirata più articolato delle più famose “fake news”. Essa include un ventaglio più ampio di attività che non necessariamente comportano la diffusione di informazioni false. Infatti, molte delle azioni FIMI, che gli specialisti Osint Cina studiano, si fondano su contenuti parzialmente veri o del tutto autentici. Il vero pericolo delle FIMI è il metodo con cui vengono diffuse: la creazione di comportamenti non autentici coordinati, l’uso sistematico di bot e profili falsi, e la capacità di raggiungere porzioni significative di pubblico senza apparire come operazioni orchestrate. Anche banali affermazioni come “sostengo questo politico” diventano strumenti di manipolazione quando vengono diffuse da reti artificiali progettate per creare l’illusione di consenso popolare.

Un esempio che è stato osservato riguarda la promozione della compagnia cinese BYD: un’ondata coordinata di migliaia di account falsi che lodano la qualità del marchio diventa un segnale di allarme, anche in assenza totale di notizie false. L’obiettivo non è chiaramente la disinformazione, quanto la distorsione del discorso pubblico.

Tra le reti più strutturate identificate negli ultimi anni vi è quella nota come “Spamouflage”. Essa si compone di migliaia di account apparentemente ordinari, spesso con foto profilo rubate a piccoli influencer cinesi, in particolare donne. Alcuni di questi account sono creati ex novo, ma molti altri sono recuperati da profili reali abbandonati, in alcuni casi risalenti a più di dieci anni fa. È frequente trovare profili con migliaia di follower, apparentemente credibili, che all’improvviso iniziano a condividere messaggi legati alla narrativa del governo cinese. Gli account agiscono in modo coordinato: alcuni fungono da “seeder”, cioè lanciano i contenuti iniziali, mentre altri fungono da “amplifier”, rilanciando e amplificando la portata del messaggio. Una delle evidenze sulla matrice è ad esempio il fatto che l’attività si concentra nelle ore lavorative della Cina, con una pausa regolare sempre nelle ore pranzo locali e altresì la tipologia di contenuti pubblicati che include citazioni generiche o immagini generiche, seguite da messaggi più mirati.

Inoltre, ci sono evidenze di collegamenti tra la rete Spamouflage e “circuiti esterni” al controllo diretto dello Stato. In alcuni casi, infatti, è stato accertato che gli operatori Spamouflage si sono avvalsi di servizi commerciali già attivi nel mondo delle criptovalute e del Web3, acquistando interazioni artificiali come retweet, like e follower da reti spam preesistenti, allargando lo spettro delle azioni a strumenti già disponibili sul mercato nero digitale per amplificare la visibilità dei propri contenuti in una strategia di fondo che si basa sull’accumulo costante di contenuti, uno spreading più ampio possibile e una capacità di adattamento rapido ai cambiamenti degli algoritmi e delle piattaforme. Ma le conseguenze di campagne di Spamouflage sono ancora più pervasive. Durante le elezioni americane, ad esempio, sono stati osservati account che si fingevano cittadini statunitensi, sostenitori del partito repubblicano, con riferimenti identitari nella biografia come bandiere, slogan patriottici e hashtag conservatori. Questi profili, apparentemente slegati dalla Cina, rilanciavano contenuti polarizzanti su tematiche sensibili. In alcuni casi, errori grossolani — come la pubblicazione simultanea di contenuti in lingua cinese — hanno permesso agli analisti specializzati in OSINT Cina di identificare i profili all’interno della rete Spamouflage.

Un buon esempio è quello dell’account “Edward D. Mayer”, che ha ottenuto milioni di visualizzazioni pubblicando video di risse e aggressioni di strada. L’algoritmo delle piattaforme premia questo tipo di contenuti per la loro carica sensazionalistica, ma ciò che distingue l’operazione è che all’interno della stessa timeline venivano poi inseriti post propagandistici, capaci così di beneficiare della visibilità guadagnata con i video virali. Questa tecnica mostra una comprensione profonda dei meccanismi algoritmici dei social media e un’efficace capacità di sfruttarli. Oltre che in X (ex Twitter), Spamouflage ha insidiarsi in piattaforme emergenti come Threads e Bluesky. Threads, in particolare, ha grande popolarità a Taiwan, dove è stato osservato un uso mirato da parte della propaganda cinese. I contenuti in questo caso sono più sfumati: messaggi politici adattati al contesto locale, toni concilianti, strategie meno dirette. Questo approccio si allontana dal classico spam massivo e mostra una volontà di influenzare l’opinione pubblica con maggiore raffinatezza.

Bluesky è invece un ambiente tecnico favorevole alla creazione di bot automatizzati, anche se per il momento il numero di utenti è ancora limitato.

Un ulteriore elemento distintivo delle operazioni di influenza cinese riguarda l’uso della lingua, nelle sue peculiarità. Nelle operazioni rivolte a Taiwan si può osservare l’uso improprio dei caratteri cinesi tradizionali, lingua ufficiale taiwanese, al posto di quelli semplificati invece usati in Cina. Molti contenuti sembrano generati in cinese semplificato e poi convertiti automaticamente, con errori visibili per un lettore esperto.

Questo tipo di dettaglio diventa un prezioso indicatore per rilevare l’origine del contenuto. Un problema rilevante riguarda anche la moderazione delle piattaforme. In generale, l’eliminazione di account sospetti è poco reattiva, salvo casi in cui vi sia pressione pubblica o attenzione mediatica. Alcuni account vengono eliminati solo dopo la pubblicazione di articoli che ne documentano l’attività. In altri casi, reti spam legate alla compravendita di retweet o like vengono rimosse più rapidamente, ma ciò sembra più legato alla lotta contro lo spam commerciale che a un’efficace azione contro le campagne di disinformazione politica.

Misurare l’impatto reale delle operazioni di influenza è complesso. Un concetto utile è quello di “breakout scale”, che misura il grado con cui un contenuto riesce a uscire dalla bolla degli account falsi per raggiungere utenti reali.

Questo avviene quando nei commenti appaiono reazioni autentiche, anche critiche, che dimostrano che il contenuto è stato esposto a una platea più ampia. La vera minaccia è rappresentata proprio da questo passaggio: quando la disinformazione smette di essere confinata in circuiti artificiali e comincia a contaminare il discorso pubblico.

Investigare su queste campagne richiede metodi flessibili e una concreta creatività, soprattutto quando si tratta di nuove piattaforme come Threads, ancora poco conosciute e prive di strumenti ufficiali avanzati per la ricerca.

L’analisi dei comportamenti degli account permette di distinguere tra attività autentiche e comportamenti orchestrati. Gli account Spamouflage tradizionali sono spesso riconoscibili per la ripetitività dei contenuti, il coinvolgimento di temi sensibili come Hong Kong o Xinjiang, e la mancanza di interazioni genuine. Gli account in stile Mega-flage (Mega + camouflage),  al contrario, sono progettati per essere più mimetici. Il loro orientamento politico simulato li rende difficilmente distinguibili da utenti reali. Tuttavia, la rete di amplificatori che li rilancia spesso rivela l’origine comune: account legati al mondo cripto o a campagne precedenti, già noti per l’amplificazione di messaggi pro-RPC.

Durante le elezioni statunitensi, ad esempio, è emersa una strategia apparentemente contraddittoria: alcuni account attaccavano la comunità LGBTQ+, in linea con la narrativa tradizionale anti-occidentale della propaganda cinese; altri, invece, criticavano i politici conservatori per le stesse posizioni, cercando di seminare confusione e spaccature interne. In Europa, sebbene il volume di attività rilevato sia stato inferiore, è probabile che strategie simili siano già state sperimentate, con focus localizzati in base alle elezioni o al contesto geopolitico. Altri esempi sono quelli di influencer taiwanesi o cinesi che condividono contenuti filo-RPC per guadagnare visibilità. L’algoritmo favorisce i contenuti che seguono certe idee politiche, per questo molti utenti pubblicano messaggi a favore del governo, spesso solo per vendere prodotti o ottenere più follower. Su TikTok, ad esempio, sono stati trovati profili con volti creati dall’intelligenza artificiale (che sembrano donne russe, ucraine o occidentali) che iniziano con messaggi di propaganda e poi passano a pubblicizzare vitamine o integratori, mescolando affari e politica.

L’intelligenza artificiale sta assumendo un ruolo sempre più centrale nelle operazioni FIMI. È utile suddividere le applicazioni osservate dagli analisti Osint in quattro categorie. La prima è quella dell’IA usata per ingannare, ad esempio tramite video deepfake, ma per ora non ci sono prove concrete che la RPC abbia impiegato tali tecniche su larga scala. La seconda categoria riguarda l’uso dell’IA per veicolare idee in forma visiva: immagini generate artificialmente ma chiaramente provocatorie, simili a vignette digitali, che lanciano messaggi ideologici forti. La terza, molto più diffusa, è l’uso dell’IA come assistente tecnico: strumenti di traduzione automatica, sintesi vocale e generazione testuale vengono utilizzati per trasformare contenuti cinesi in formati compatibili con i social occidentali, mantenendo un’alta qualità linguistica.

La quarta funzione, la più preoccupante, è l’automazione totale. Sebbene non ancora attiva su vasta scala, ci sono segnali che la Cina stia testando sistemi in grado di generare migliaia di contenuti autonomi tramite IA, creando eserciti di bot capaci di produrre, rilanciare e discutere contenuti in modo del tutto autonomo. In un report pubblicato nel 2024, è stato segnalato che alcuni attori cinesi avevano già utilizzato ChatGPT per generare messaggi ostili contro dissidenti specifici.

Una volta perfezionato questo tipo di architettura, sarà molto difficile per le piattaforme social o per i ricercatori individuare e bloccare in modo efficace le campagne.

A ciò si aggiunge la possibilità concreta che le operazioni di influenza vengano rafforzate con strumenti informatici propri del comparto cyber, come la compromissione di siti legittimi o la creazione di portali falsi dall’aspetto professionale. Anche l’espansione delle piattaforme digitali cinesi, da TikTok a Red Note, rappresenta un ulteriore canale attraverso cui possono essere veicolati contenuti propagandistici in modo nativo, senza la necessità di falsificare identità o utilizzare account infiltrati.

Chi desidera operare professionalmente in questo settore deve possedere una combinazione di competenze analitiche, tecniche e culturali. Molti analisti provengono da studi in scienze politiche o relazioni internazionali, ma oggi è sempre più importante conoscere strumenti di analisi dati e metodi investigativi OSINT. Studiando pubblicazioni di centri di ricerca specializzati, familiarizzando con strumenti agili  come le estensioni browser per l’archiviazione delle informazioni pubbliche, conseguendo certificazioni specifiche in questo ambito dell’open source intelligence e aggiungendo un costante allenamento sul “campo” è possibile specializzarsi in questo particolare campo.

Le FIMI non sono una minaccia astratta. Sono in atto, si evolvono rapidamente e si adattano agli strumenti che le contrastano. Comprenderne le dinamiche, riconoscere i segnali e diffondere consapevolezza pubblica è oggi una delle principali sfide per chi si occupa di sicurezza dell’informazione e difesa delle democrazie.

Condividi21Condividi4
Bruno Buorizzi

Bruno Buorizzi

POTREBBE INTERESSARTI

TRUMP GIOCA A POKER, PUTIN A SCACCHI, XI JINPING A GO E NOI CI FACCIAMO UN SOLITARIO – LA BATTAGLIA DELLE TERRE RARE

di Luca Anedda
02/07/2025
0
TRUMP GIOCA A POKER, PUTIN A SCACCHI, XI JINPING A GO E NOI CI FACCIAMO UN SOLITARIO – LA BATTAGLIA DELLE TERRE RARE

È già la seconda volta che una delegazione americana e cinese si incontrano per parlare di tariffe, e delle attuali limitazioni sulle esportazioni ed importazioni tra i due...

Leggi tuttoDetails

COSA C’È DIETRO L’ATTACCO ALL’IRAN?

di Luca Anedda
16/06/2025
0
COSA C’È DIETRO L’ATTACCO ALL’IRAN?

Nel 2003 il Generale Wesley Clark, ex Comandante supremo della Nato in Europa, affermò con un certo sorprendente candore, che due anni prima (2001, dopo l’attacco alle torri...

Leggi tuttoDetails

CHIODO SCACCIA CHIODO

di Giuseppe Bodi
15/06/2025
0
CHIODO SCACCIA CHIODO

L’attuale situazione internazionale è sempre più grave e le tremende notizie prendono il posto di altre notizie altrettanto tremende ma che scivolano in secondo piano, o in un...

Leggi tuttoDetails

LA NECESSITÀ DI ALLEATI DI CIVILTÀ IN EUROPA

di Andrea Aparo von Flüe
02/06/2025
0
LA NECESSITÀ DI ALLEATI DI CIVILTÀ IN EUROPA

Quanto segue è la traduzione letterale della farneticazione pubblicata il 27 maggio 2025 da tale Samuel D. Samson, Senior Advisor per l'Ufficio per la democrazia, i diritti umani...

Leggi tuttoDetails
Prossimo post
LE ELEZIONI IN ROMANIA E L’OMBRA DELLA SFIGA LEGHISTA

LE ELEZIONI IN ROMANIA E L’OMBRA DELLA SFIGA LEGHISTA

ARTICOLI CORRELATI

LA NERA QUESTIONE DEL DELTA DEL NIGER

LA NERA QUESTIONE DEL DELTA DEL NIGER

27/10/2023
ELON MUSK E L’ITALIANA GIORGIA MELONI FORMANO UN LEGAME TRANSATLANTICO

M.ELON.I…

22/09/2024
LA PACE NON E’ DI DESTRA NE’ DI SINISTRA

LA PACE NON E’ DI DESTRA NE’ DI SINISTRA

15/03/2025
OSPEDALE PROIBITO AI PAPI

OSPEDALE PROIBITO AI PAPI

19/02/2025
BEVI ROSMUNDA NEL CRANIO DI TUO PADRE

BEVI ROSMUNDA NEL CRANIO DI TUO PADRE

03/09/2022

L’ALTALENA IN BORSA DI ATLANTIA: CHI SAPEVA E CI HA GUADAGNATO?

16/07/2020

PRIVACY

  • Informativa Privacy
  • Informativa cookie

TAG

Accenture ACN AGID ai alessio butti anorc anorc professioni butti chatGpt contenuti Cospito diversità doglover FACEWATCH Franco Roberti Frattasi google governo inclusione intelligenza artificiale massi migranti nadia gullo Paolo zangrillo Piantedosi putin razza robot servizi segreti SOUTHERN CO-OP spie whatsapp xiaomi zangrillo

© 2022 GIANO.news

Nessun risultato
Visualizza tutti i risultati
  • HOME
  • EDITORIALI
  • TECNOLOGIA
  • ENERGIA
  • TRASPORTI
  • DIFESA
  • SCENARI
  • SANITÀ
  • ECONOMIA
  • CITTADINI E MINORI
  • LEGALITÀ
  • AVVISO AI NAVIGANTI
  • RIFLESSIONI

© 2022 GIANO.news