La Guerra dell’Informazione in Europa: Il nuovo report UE su interferenze e manipolazione

Questo articolo è disponibile anche in: La Guerra dell’Informazione in Europa: Il nuovo report UE su interferenze e manipolazioneEnglish

Negli ultimi anni, la manipolazione informativa ha assunto una forma sempre più strutturata. Dietro l’apparenza di spontaneità si nasconde una macchina globale, sofisticata, progettata per alterare percezioni ed indebolire democrazie. A segnalarlo è il terzo rapporto sulle minacce FIMI – Foreign Information Manipulation and Interference del Servizio europeo per l’azione esterna (EEAS), l’organo diplomatico dell’Unione Europea incaricato della politica estera e di sicurezza comune. Il documento fotografa un ecosistema globale di manipolazione informativa orchestrato in gran parte da Cina e Russia, che solo nel 2024 ha colpito più di 90 paesi. Non si tratta di episodi isolati, ma di operazioni coordinate che sfruttano reti sofisticate e amplificazione dei contenuti.

Le operazioni FIMI descrivono un insieme di comportamenti perlopiù non illegali ma altamente dannosi. Sono azioni manipolative condotte in modo intenzionale da attori statali o non statali, spesso attraverso intermediari attivi anche fuori dai confini nazionali. L’obiettivo non è solo disinformare, ma mettere in discussione valori democratici, processi decisionali e istituzioni politiche.

Nel 2024, il sistema di monitoraggio dell’Unione Europea ha identificato 500 incidenti legati a operazioni di manipolazione informativa. Le campagne hanno coinvolto oltre 38.000 canali di diffusione, dai social media ai siti web. Altri dati rilevanti riguardano la piattaforma di Elon Musk, X, che è stata la più utilizzata per questo tipo di campagne: irca l’88% dell’attività e 73% dei canali usati erano account falsi o bot. Mentre l’uso di AI è stato rilevato in 41 casi, sopratuttutto relativi a contenuti audio e video. 

Russia e Cina sono i due attori più attivi, anche se operano con stili diversi. La Russia punta sulla quantità: produce e rilancia contenuti in modo massiccio, spesso aggressivo e su centinaia di canali. La strategia consiste nel saturare lo spazio informativo e creare confusione. La Cina adotta un approccio più sottile: le sue campagne sono integrate dentro un ecosistema più istituzionale, meno rumoroso ma più stabile. Usa organi ufficiali, contenuti editoriali, ma anche canali opachi e account coordinati. Entrambi si muovono su infrastrutture ibride, che mescolano media di Stato, profili falsi, siti-clone e canali allineati. I bersagli ricorrenti sono l’Ucraina, l’Unione Europea, la Nato, la Moldavia. Spesso nel mirino ci sono anche giornalisti, leader politici, testate indipendenti. In entrambi i casi, il risultato è una frammentazione del discorso pubblico, dove la confusione diventa strategia.

Le operazioni FIMI non si basano su un singolo contenuto falso, ma funzionano come un sistema coordinato. Usano strumenti come deepfake, video decontestualizzati, siti che imitano testate giornalistica. Tra i casi più rilevanti, Doppelgänger, una rete che replica graficamente portali di informazione europei per diffondere contenuti filo-russi, e Portal Kombat, che diffonde video manipolati per attaccare i media ucraini. Molti contenuti FIMI non sono necessariamente falsi, ma sono isolati dal contesto o accostati ad altri elementi in modo fuorviante. Il risultato è una disinformazione che non punta a costruire una verità alternativa, ma a erodere la fiducia nell’informazione stessa.

Le campagni non si limitano alle istituzioni: colpiscono anche figure pubbliche. Leader europei come come Ursula von der Leyen, Joseph Borrell e Kaja Kallas sono stati bersaglio di attacchi che spaziano dalle insinuazioni personali alle distorsioni di dichiarazioni pubbliche  Anche i media indipendenti vengono sistematicamente presi di mira con operazioni di impersonificazione: testate come la BBC, Le Parisien e Der Spiegel sono state imitate nel logo, nello stile grafico e nell’identità editoriale. L’obiettivo non è solo diffondere falsità, ma minare la fiducia, alimentare il sospetto e ridurre lo spazio del dibattito razionale. La manipolazione informativa non impone una verità alternativa: distrugge il terreno comune su cui basare il confronto democratico. «Quello che osserviamo oggi è un sistema di propaganda multilivello, in particolare da parte della Russia, che combina canali ufficiali come RT, Sputnik e TASS, media affiliati e reti coperte come Doppelgänger, False Façade e Portal Kombat», spiega Federica Urzo, del centro di ricerca Luiss Data Lab che coordina l’Italian Digital Media Observatory (IDMO). «Il focus è chiaramente sulla destabilizzazione dell’Ucraina e dei Paesi dell’Unione Europea, con interferenze dirette anche in paesi come Moldova, Romania e Georgia. Basti pensare che solo nel 2025 sono previsti 1,18 miliardi di euro di investimenti nei media statali russi. La propaganda ha obiettivi interni (come sostenere il regime di Putin e giustificare la guerra) ed esterni (screditare l’Ucraina e l’Occidente).». Secondo Urzo, la strategia russa non si limita alla sfera digitale: «Un’altra dinamica che stiamo osservando è la combinazione tra diplomazia e disinformazione: le ambasciate, i forum internazionali, ma anche centri culturali e università vengono utilizzati per conferire una parvenza di legittimità a queste narrazioni manipolative».

Accanto a Mosca, anche Pechino sta ampliando le sue operazioni FIMI, con obiettivi e metodi complementari   «La Cina conduce operazioni mirate in aree strategiche come Taiwan, Stati Uniti, Sud-Est Asiatico e Africa», osserva ancora Urzo. «Utilizza media statali come CGTN, Global Times e China Daily, ma anche operazioni più opache come Paperwall. L’uso di influencer, campagne di PR e contenuti co-prodotti serve a mascherare la fonte governativa e a diffondere messaggi filo-cinesi. L’obiettivo è duplice: migliorare l’immagine internazionale della Cina e delegittimare i sistemi democratici».

Seppure le due potenze operino con logiche e priorità distinte, l’analisi evidenzia un allineamento crescente. «Stiamo assistendo a un’amplificazione reciproca tra i rispettivi media statali, soprattutto su tematiche anti-occidentali e soprattutto anti-europee e NATO», conclude Urzo. «Anche se le loro azioni non siano ancora pienamente coordinate, l’effetto sull’ecosistema informativo globale è già significativo». Vale la pena in questo contesto introdurre il concetto del Coordinated inauthentic behavior (CIB) spiegatoci dai ricercatori del Luiss Data Lab. Le campagne di disinformazione spesso pubblicano quantità schiaccianti di contenuti con lo stesso o simile messaggio da diversi account non autentici, creati sia da programmi automatizzati noti come bot sia da gruppi di disinformazione professionale noti come troll farm. Vedendo costantemente ripetuta la stessa narrazione, il pubblico la percepirà come un messaggio popolare e diffuso e sarà più incline a crederci. Nello specifico, “il cosiddetto comportamento coordinato non autentico” è una tattica di comunicazione manipolativa che utilizza una combinazione di account autentici, falsi e duplicati sui social media per operare come una rete avversaria (AN) su più piattaforme social. “Dunque rappresentano una minaccia concreta alla libertà di espressione e alla democrazia, poiché riescono ad alterare la percezione collettiva della realtà, generare polarizzazione e persino influenzare processi decisionali o elettorali. Sono cioè campagne preorganizzate, accuratamente pianificate, che si distinguono per una straordinaria coerenza nei messaggi e nei comportamenti degli account coinvolti, tanto da simulare un consenso diffuso e spontaneo. Ciò che le rende ancora più insidiose è il loro carattere segreto: i veri promotori rimangono nell’ombra, rendendo queste operazioni difficili da individuare e contrastare”. L’Unione Europea ha invece sviluppato negli anni una risposta articolata, che unisce monitoraggio tecnico, strumenti diplomatici e sanzioni mirate. A dicembre 2024, per la prima volta, il Consiglio dell’UE ha adottato misure restrittive contro soggetti coinvolti in operazioni di manipolazione informativa.  Il punto però non è solo individuare chi diffonde un contenuto, ma comprendere il funzionamento delle reti che permettono la diffusione su larga scala. Più che difendersi da singoli episodi, si tratta di riconoscere le dinamiche, osservarle e interpretarle. La manipolazione dell’informazione non è più un’eccezione, ma è una modalità di influenza con cui fare i conti.

Per mappare con maggiore precisione questi fenomeni, il rapporto introduce per la FIMI Exposure Matrix, un modello che classifica i canali in base al loro grado di connessione con gli attori della minaccia. 

La Guerra dell’Informazione in Europa: Il nuovo report UE su interferenze e manipolazione

Le operazioni FIMI non si muovono su canali isolati, ma all’interno di un’architettura digitale articolata, dove ogni nodo ha un ruolo nella diffusione e nella legittimazione del messaggio. Alcuni canali agiscono in modo coordinato, altri rilanciano contenuti per affinità ideologica o interesse strategico. La Exposure Matrix offre una mappa dinamica di un ecosistema fluido utile per orientarsi in una guerra dell’informazione sempre più difficile da tracciare.

A cura di Maria Helena Rodriguez

Altre news