L’industrializzazione del falso: quando la propaganda diventa fabbrica e la guerra entra nella testa

Il rapporto del Center for Countering Disinformation analizza l’uso crescente di video generati con intelligenza artificiale da parte della Federazione Russa per screditare le Forze di Difesa dell’Ucraina.

Non è più solo una guerra di trincee, droni e artiglieria. È una guerra di nervi, fiducia e percezioni. E oggi, come documenta un rapporto del Centro ucraino per il contrasto alla disinformazione (CPD), il fronte più conteso è quello cognitivo: lo spazio mentale in cui cittadini e militari decidono a chi credere, chi seguire, cosa temere.

Il dossier ricostruisce con precisione il salto di qualità della propaganda digitale russa: dai primi deepfake “artigianali” e facilmente smascherabili a un sistema industriale, cross-platform, costruito per inquinare l’infosfera più che convincere il pubblico. Non più persuasione diretta, ma “contaminazione”: l’idea che, sommersi dal dubbio, gli utenti finiscano per non fidarsi più di nulla.

Il CPD descrive un’evoluzione in tre fasi, che somiglia a una curva di apprendimento militare. Il primo esperimento risale al marzo 2022: un falso video del presidente Volodymyr Zelenskyy che invita alla resa. Un tentativo fallito, smentito rapidamente e riconosciuto come poco credibile: qualità bassa, indizi evidenti di manipolazione, efficacia quasi nulla.

Il secondo salto arriva nel novembre 2023. Stavolta il bersaglio è il comandante in capo Valerii Zaluzhnyi: un deepfake più sofisticato, costruito per spingere soldati e cittadini alla disobbedienza. Ma la vera novità strategica non è solo la qualità tecnica: è la risposta “a strati”. Quando Kyiv smentisce il video, il giorno dopo appare un secondo deepfake di Zaluzhnyi che “smentisce la smentita”. È la meta-manipolazione: non attaccare solo un fatto, ma attaccare il meccanismo stesso della verifica, insinuando che persino il debunking sia manipolazione.

Nel 2025, secondo il rapporto, avviene la svolta definitiva. I deepfake diventano parte di una strategia di saturazione: non importa più che un singolo contenuto venga creduto da milioni di persone; basta che decine, centinaia di falsi rendano la verifica un compito infinito, stancante, emotivamente costoso. È la “fatica della verità” come arma.

Il CPD distingue due metodi principali.

Il primo è il deepfake “tradizionale”: un attore reale recita la parte del soldato o del funzionario, poi la tecnologia sostituisce il volto e altera l’audio. È un sistema che mantiene un vantaggio: la naturalezza del corpo e della gestualità, ancora difficili da generare perfettamente. Ma lascia tracce: labiale non sincronizzato, contorni del volto instabili, incoerenze di luce e ombra.

Il secondo è più moderno e scalabile: video interamente sintetici, generati da AI senza girato reale. Qui la forza è industriale: rapidità, replicabilità, produzione potenzialmente illimitata, assenza di rischi legati ad attori e set. Ma anche questo sistema ha firme ricorrenti: uniformi sempre “troppo pulite”, dettagli d’equipaggiamento improbabili, elementi ripetuti (toppe identiche, stessi volti, stessa estetica). Come in una fabbrica, il prodotto cambia poco: ed è proprio questa serialità che può tradire la mano dell’algoritmo.

La parte più inquietante non è solo la produzione, ma la distribuzione. Il CPD descrive una filiera in tre passaggi.

1) Seeding (inoculazione): si parte da account anonimi, spesso su TikTok, costruiti con estetica militare e una “baseline” di credibilità. Pubblicano pochi video, quanto basta per sembrare organici, poi iniettano il contenuto manipolato.

2) Amplificazione cross-platform: quando il video ha raccolto engagement, migra su Telegram, X e Facebook. Qui accade il passaggio decisivo: non viene solo ripostato, viene “interpretato”. Un testo accompagna il video e lo spinge oltre, trasformando una generica lamentela in “ammutinamento”, una frase ambigua in “rifiuto di combattere”, un frame emotivo in accusa politica.

3) Legittimazione: infine intervengono reti più strutturate e riconoscibili della propaganda russa. Il contenuto entra in ecosistemi consolidati e assume la forma di “notizia” — non più video anonimo, ma fatto apparentemente confermato. Il falso, così, si veste di ufficialità.

Il risultato è un sistema compartimentato e resiliente: anche se la sorgente viene chiusa, le copie restano, il messaggio continua a circolare e può essere rilanciato altrove.

Il CPD ricostruisce tre operazioni esemplari del 2025.

La prima, a luglio, è una campagna presentata come “testamento” di un soldato: parte da TikTok e in meno di un giorno arriva a canali Telegram molto seguiti, fino a siti e reti più strutturate. Il Centro individua segnali tecnici (mimica innaturale, ammiccamento anomalo, labiale incoerente) e ottiene il blocco dell’account.

La seconda, a novembre, ruota attorno a Pokrovsk: un frame strategico (“siete accerchiati, arrendetevi”) amplificato su più canali. Qui gli indizi non sono solo nel singolo video, ma nel pattern dell’account: ripetizioni, uniformi sempre pulite, dettagli d’equipaggiamento improbabili. Anche in questo caso l’account viene rimosso.

La terza operazione è la più rivelatrice: un video di un presunto mobilitato di 23 anni non viene lanciato solo per pubblico russofono, ma amplificato in lingua tedesca, poi replicato da profili internazionali. È la prova di un targeting differenziato: cambiano lingua, piattaforme e vettori, ma resta l’obiettivo — erodere consenso e sostegno esterno all’Ucraina.

Il cuore dell’analisi è dottrinale. La propaganda classica funziona se convince. La guerra cognitiva funziona anche se non convince del tutto: le basta confondere. La strategia della contaminazione mira a demolire la fiducia nelle fonti, a far saltare la distinzione tra prova e voce, tra notizia e rumor.

L’effetto, secondo il CPD, è multiplo: demoralizzare i militari, logorare il morale civile, produrre un’impressione di caos interno e screditare leadership politica e militare — soprattutto agli occhi del pubblico internazionale. In altre parole: colpire la coesione sociale, non solo le truppe.

Il rapporto mostra un dato incoraggiante: la cooperazione con le piattaforme (in particolare TikTok) permette di intervenire rapidamente e neutralizzare gli account sorgente. Ma c’è un limite strutturale: il blocco arriva spesso quando il contenuto ha già attraversato la filiera ed è stato copiato altrove. Chiudere l’origine non spegne l’incendio.

Per questo la sfida non è solo tecnologica. È organizzativa e culturale: capacità di monitorare, verificare, comunicare smentite in modo credibile e tempestivo; coordinamento tra piattaforme; alfabetizzazione mediatica del pubblico. Perché, nella guerra dell’informazione industrializzata, il bersaglio finale non è la tua opinione su un singolo.  

Altre news