Negli ultimi anni, le operazioni di manipolazione informativa condotte da attori statali sono diventate sempre più sofisticate. Tra i paesi più attivi in questo ambito si distingue la Cina che ha sviluppato una strategia articolata di influenza digitale basata sulla combinazione di propaganda, reti di account non autentici, intelligenza artificiale e sfruttamento mirato delle piattaforme social. Una delle definizioni operative oggi più utilizzate per descrivere tali dinamiche è quella di Foreign Information Manipulation and Interference, o FIMI. Questa denominazione identifica un campo di azione nella disinformazione mirata più articolato delle più famose “fake news”. Essa include un ventaglio più ampio di attività che non necessariamente comportano la diffusione di informazioni false. Infatti, molte delle azioni FIMI, che gli specialisti Osint Cina studiano, si fondano su contenuti parzialmente veri o del tutto autentici. Il vero pericolo delle FIMI è il metodo con cui vengono diffuse: la creazione di comportamenti non autentici coordinati, l’uso sistematico di bot e profili falsi, e la capacità di raggiungere porzioni significative di pubblico senza apparire come operazioni orchestrate. Anche banali affermazioni come “sostengo questo politico” diventano strumenti di manipolazione quando vengono diffuse da reti artificiali progettate per creare l’illusione di consenso popolare.
Un esempio che è stato osservato riguarda la promozione della compagnia cinese BYD: un’ondata coordinata di migliaia di account falsi che lodano la qualità del marchio diventa un segnale di allarme, anche in assenza totale di notizie false. L’obiettivo non è chiaramente la disinformazione, quanto la distorsione del discorso pubblico.
Tra le reti più strutturate identificate negli ultimi anni vi è quella nota come “Spamouflage”. Essa si compone di migliaia di account apparentemente ordinari, spesso con foto profilo rubate a piccoli influencer cinesi, in particolare donne. Alcuni di questi account sono creati ex novo, ma molti altri sono recuperati da profili reali abbandonati, in alcuni casi risalenti a più di dieci anni fa. È frequente trovare profili con migliaia di follower, apparentemente credibili, che all’improvviso iniziano a condividere messaggi legati alla narrativa del governo cinese. Gli account agiscono in modo coordinato: alcuni fungono da “seeder”, cioè lanciano i contenuti iniziali, mentre altri fungono da “amplifier”, rilanciando e amplificando la portata del messaggio. Una delle evidenze sulla matrice è ad esempio il fatto che l’attività si concentra nelle ore lavorative della Cina, con una pausa regolare sempre nelle ore pranzo locali e altresì la tipologia di contenuti pubblicati che include citazioni generiche o immagini generiche, seguite da messaggi più mirati.
Inoltre, ci sono evidenze di collegamenti tra la rete Spamouflage e “circuiti esterni” al controllo diretto dello Stato. In alcuni casi, infatti, è stato accertato che gli operatori Spamouflage si sono avvalsi di servizi commerciali già attivi nel mondo delle criptovalute e del Web3, acquistando interazioni artificiali come retweet, like e follower da reti spam preesistenti, allargando lo spettro delle azioni a strumenti già disponibili sul mercato nero digitale per amplificare la visibilità dei propri contenuti in una strategia di fondo che si basa sull’accumulo costante di contenuti, uno spreading più ampio possibile e una capacità di adattamento rapido ai cambiamenti degli algoritmi e delle piattaforme. Ma le conseguenze di campagne di Spamouflage sono ancora più pervasive. Durante le elezioni americane, ad esempio, sono stati osservati account che si fingevano cittadini statunitensi, sostenitori del partito repubblicano, con riferimenti identitari nella biografia come bandiere, slogan patriottici e hashtag conservatori. Questi profili, apparentemente slegati dalla Cina, rilanciavano contenuti polarizzanti su tematiche sensibili. In alcuni casi, errori grossolani — come la pubblicazione simultanea di contenuti in lingua cinese — hanno permesso agli analisti specializzati in OSINT Cina di identificare i profili all’interno della rete Spamouflage.
Un buon esempio è quello dell’account “Edward D. Mayer”, che ha ottenuto milioni di visualizzazioni pubblicando video di risse e aggressioni di strada. L’algoritmo delle piattaforme premia questo tipo di contenuti per la loro carica sensazionalistica, ma ciò che distingue l’operazione è che all’interno della stessa timeline venivano poi inseriti post propagandistici, capaci così di beneficiare della visibilità guadagnata con i video virali. Questa tecnica mostra una comprensione profonda dei meccanismi algoritmici dei social media e un’efficace capacità di sfruttarli. Oltre che in X (ex Twitter), Spamouflage ha insidiarsi in piattaforme emergenti come Threads e Bluesky. Threads, in particolare, ha grande popolarità a Taiwan, dove è stato osservato un uso mirato da parte della propaganda cinese. I contenuti in questo caso sono più sfumati: messaggi politici adattati al contesto locale, toni concilianti, strategie meno dirette. Questo approccio si allontana dal classico spam massivo e mostra una volontà di influenzare l’opinione pubblica con maggiore raffinatezza.
Bluesky è invece un ambiente tecnico favorevole alla creazione di bot automatizzati, anche se per il momento il numero di utenti è ancora limitato.
Un ulteriore elemento distintivo delle operazioni di influenza cinese riguarda l’uso della lingua, nelle sue peculiarità. Nelle operazioni rivolte a Taiwan si può osservare l’uso improprio dei caratteri cinesi tradizionali, lingua ufficiale taiwanese, al posto di quelli semplificati invece usati in Cina. Molti contenuti sembrano generati in cinese semplificato e poi convertiti automaticamente, con errori visibili per un lettore esperto.
Questo tipo di dettaglio diventa un prezioso indicatore per rilevare l’origine del contenuto. Un problema rilevante riguarda anche la moderazione delle piattaforme. In generale, l’eliminazione di account sospetti è poco reattiva, salvo casi in cui vi sia pressione pubblica o attenzione mediatica. Alcuni account vengono eliminati solo dopo la pubblicazione di articoli che ne documentano l’attività. In altri casi, reti spam legate alla compravendita di retweet o like vengono rimosse più rapidamente, ma ciò sembra più legato alla lotta contro lo spam commerciale che a un’efficace azione contro le campagne di disinformazione politica.
Misurare l’impatto reale delle operazioni di influenza è complesso. Un concetto utile è quello di “breakout scale”, che misura il grado con cui un contenuto riesce a uscire dalla bolla degli account falsi per raggiungere utenti reali.
Questo avviene quando nei commenti appaiono reazioni autentiche, anche critiche, che dimostrano che il contenuto è stato esposto a una platea più ampia. La vera minaccia è rappresentata proprio da questo passaggio: quando la disinformazione smette di essere confinata in circuiti artificiali e comincia a contaminare il discorso pubblico.
Investigare su queste campagne richiede metodi flessibili e una concreta creatività, soprattutto quando si tratta di nuove piattaforme come Threads, ancora poco conosciute e prive di strumenti ufficiali avanzati per la ricerca.
L’analisi dei comportamenti degli account permette di distinguere tra attività autentiche e comportamenti orchestrati. Gli account Spamouflage tradizionali sono spesso riconoscibili per la ripetitività dei contenuti, il coinvolgimento di temi sensibili come Hong Kong o Xinjiang, e la mancanza di interazioni genuine. Gli account in stile Mega-flage (Mega + camouflage), al contrario, sono progettati per essere più mimetici. Il loro orientamento politico simulato li rende difficilmente distinguibili da utenti reali. Tuttavia, la rete di amplificatori che li rilancia spesso rivela l’origine comune: account legati al mondo cripto o a campagne precedenti, già noti per l’amplificazione di messaggi pro-RPC.
Durante le elezioni statunitensi, ad esempio, è emersa una strategia apparentemente contraddittoria: alcuni account attaccavano la comunità LGBTQ+, in linea con la narrativa tradizionale anti-occidentale della propaganda cinese; altri, invece, criticavano i politici conservatori per le stesse posizioni, cercando di seminare confusione e spaccature interne. In Europa, sebbene il volume di attività rilevato sia stato inferiore, è probabile che strategie simili siano già state sperimentate, con focus localizzati in base alle elezioni o al contesto geopolitico. Altri esempi sono quelli di influencer taiwanesi o cinesi che condividono contenuti filo-RPC per guadagnare visibilità. L’algoritmo favorisce i contenuti che seguono certe idee politiche, per questo molti utenti pubblicano messaggi a favore del governo, spesso solo per vendere prodotti o ottenere più follower. Su TikTok, ad esempio, sono stati trovati profili con volti creati dall’intelligenza artificiale (che sembrano donne russe, ucraine o occidentali) che iniziano con messaggi di propaganda e poi passano a pubblicizzare vitamine o integratori, mescolando affari e politica.
L’intelligenza artificiale sta assumendo un ruolo sempre più centrale nelle operazioni FIMI. È utile suddividere le applicazioni osservate dagli analisti Osint in quattro categorie. La prima è quella dell’IA usata per ingannare, ad esempio tramite video deepfake, ma per ora non ci sono prove concrete che la RPC abbia impiegato tali tecniche su larga scala. La seconda categoria riguarda l’uso dell’IA per veicolare idee in forma visiva: immagini generate artificialmente ma chiaramente provocatorie, simili a vignette digitali, che lanciano messaggi ideologici forti. La terza, molto più diffusa, è l’uso dell’IA come assistente tecnico: strumenti di traduzione automatica, sintesi vocale e generazione testuale vengono utilizzati per trasformare contenuti cinesi in formati compatibili con i social occidentali, mantenendo un’alta qualità linguistica.
La quarta funzione, la più preoccupante, è l’automazione totale. Sebbene non ancora attiva su vasta scala, ci sono segnali che la Cina stia testando sistemi in grado di generare migliaia di contenuti autonomi tramite IA, creando eserciti di bot capaci di produrre, rilanciare e discutere contenuti in modo del tutto autonomo. In un report pubblicato nel 2024, è stato segnalato che alcuni attori cinesi avevano già utilizzato ChatGPT per generare messaggi ostili contro dissidenti specifici.
Una volta perfezionato questo tipo di architettura, sarà molto difficile per le piattaforme social o per i ricercatori individuare e bloccare in modo efficace le campagne.
A ciò si aggiunge la possibilità concreta che le operazioni di influenza vengano rafforzate con strumenti informatici propri del comparto cyber, come la compromissione di siti legittimi o la creazione di portali falsi dall’aspetto professionale. Anche l’espansione delle piattaforme digitali cinesi, da TikTok a Red Note, rappresenta un ulteriore canale attraverso cui possono essere veicolati contenuti propagandistici in modo nativo, senza la necessità di falsificare identità o utilizzare account infiltrati.
Chi desidera operare professionalmente in questo settore deve possedere una combinazione di competenze analitiche, tecniche e culturali. Molti analisti provengono da studi in scienze politiche o relazioni internazionali, ma oggi è sempre più importante conoscere strumenti di analisi dati e metodi investigativi OSINT. Studiando pubblicazioni di centri di ricerca specializzati, familiarizzando con strumenti agili come le estensioni browser per l’archiviazione delle informazioni pubbliche, conseguendo certificazioni specifiche in questo ambito dell’open source intelligence e aggiungendo un costante allenamento sul “campo” è possibile specializzarsi in questo particolare campo.
Le FIMI non sono una minaccia astratta. Sono in atto, si evolvono rapidamente e si adattano agli strumenti che le contrastano. Comprenderne le dinamiche, riconoscere i segnali e diffondere consapevolezza pubblica è oggi una delle principali sfide per chi si occupa di sicurezza dell’informazione e difesa delle democrazie.