Il rapporto del Center for Countering Disinformation analizza l’uso crescente di video generati con intelligenza artificiale da parte della Federazione Russa per screditare le Forze di Difesa dell’Ucraina.
Non è più solo una guerra di trincee, droni e artiglieria. È una guerra di nervi, fiducia e percezioni. E oggi, come documenta un rapporto del Centro ucraino per il contrasto alla disinformazione (CPD), il fronte più conteso è quello cognitivo: lo spazio mentale in cui cittadini e militari decidono a chi credere, chi seguire, cosa temere.
Il dossier ricostruisce con precisione il salto di qualità della propaganda digitale russa: dai primi deepfake “artigianali” e facilmente smascherabili a un sistema industriale, cross-platform, costruito per inquinare l’infosfera più che convincere il pubblico. Non più persuasione diretta, ma “contaminazione”: l’idea che, sommersi dal dubbio, gli utenti finiscano per non fidarsi più di nulla.
Il CPD descrive un’evoluzione in tre fasi, che somiglia a una curva di apprendimento militare. Il primo esperimento risale al marzo 2022: un falso video del presidente Volodymyr Zelenskyy che invita alla resa. Un tentativo fallito, smentito rapidamente e riconosciuto come poco credibile: qualità bassa, indizi evidenti di manipolazione, efficacia quasi nulla.
Il secondo salto arriva nel novembre 2023. Stavolta il bersaglio è il comandante in capo Valerii Zaluzhnyi: un deepfake più sofisticato, costruito per spingere soldati e cittadini alla disobbedienza. Ma la vera novità strategica non è solo la qualità tecnica: è la risposta “a strati”. Quando Kyiv smentisce il video, il giorno dopo appare un secondo deepfake di Zaluzhnyi che “smentisce la smentita”. È la meta-manipolazione: non attaccare solo un fatto, ma attaccare il meccanismo stesso della verifica, insinuando che persino il debunking sia manipolazione.
Nel 2025, secondo il rapporto, avviene la svolta definitiva. I deepfake diventano parte di una strategia di saturazione: non importa più che un singolo contenuto venga creduto da milioni di persone; basta che decine, centinaia di falsi rendano la verifica un compito infinito, stancante, emotivamente costoso. È la “fatica della verità” come arma.
Il CPD distingue due metodi principali.
Il primo è il deepfake “tradizionale”: un attore reale recita la parte del soldato o del funzionario, poi la tecnologia sostituisce il volto e altera l’audio. È un sistema che mantiene un vantaggio: la naturalezza del corpo e della gestualità, ancora difficili da generare perfettamente. Ma lascia tracce: labiale non sincronizzato, contorni del volto instabili, incoerenze di luce e ombra.
Il secondo è più moderno e scalabile: video interamente sintetici, generati da AI senza girato reale. Qui la forza è industriale: rapidità, replicabilità, produzione potenzialmente illimitata, assenza di rischi legati ad attori e set. Ma anche questo sistema ha firme ricorrenti: uniformi sempre “troppo pulite”, dettagli d’equipaggiamento improbabili, elementi ripetuti (toppe identiche, stessi volti, stessa estetica). Come in una fabbrica, il prodotto cambia poco: ed è proprio questa serialità che può tradire la mano dell’algoritmo.
La parte più inquietante non è solo la produzione, ma la distribuzione. Il CPD descrive una filiera in tre passaggi.
1) Seeding (inoculazione): si parte da account anonimi, spesso su TikTok, costruiti con estetica militare e una “baseline” di credibilità. Pubblicano pochi video, quanto basta per sembrare organici, poi iniettano il contenuto manipolato.
2) Amplificazione cross-platform: quando il video ha raccolto engagement, migra su Telegram, X e Facebook. Qui accade il passaggio decisivo: non viene solo ripostato, viene “interpretato”. Un testo accompagna il video e lo spinge oltre, trasformando una generica lamentela in “ammutinamento”, una frase ambigua in “rifiuto di combattere”, un frame emotivo in accusa politica.
3) Legittimazione: infine intervengono reti più strutturate e riconoscibili della propaganda russa. Il contenuto entra in ecosistemi consolidati e assume la forma di “notizia” — non più video anonimo, ma fatto apparentemente confermato. Il falso, così, si veste di ufficialità.
Il risultato è un sistema compartimentato e resiliente: anche se la sorgente viene chiusa, le copie restano, il messaggio continua a circolare e può essere rilanciato altrove.
Il CPD ricostruisce tre operazioni esemplari del 2025.
La prima, a luglio, è una campagna presentata come “testamento” di un soldato: parte da TikTok e in meno di un giorno arriva a canali Telegram molto seguiti, fino a siti e reti più strutturate. Il Centro individua segnali tecnici (mimica innaturale, ammiccamento anomalo, labiale incoerente) e ottiene il blocco dell’account.
La seconda, a novembre, ruota attorno a Pokrovsk: un frame strategico (“siete accerchiati, arrendetevi”) amplificato su più canali. Qui gli indizi non sono solo nel singolo video, ma nel pattern dell’account: ripetizioni, uniformi sempre pulite, dettagli d’equipaggiamento improbabili. Anche in questo caso l’account viene rimosso.
La terza operazione è la più rivelatrice: un video di un presunto mobilitato di 23 anni non viene lanciato solo per pubblico russofono, ma amplificato in lingua tedesca, poi replicato da profili internazionali. È la prova di un targeting differenziato: cambiano lingua, piattaforme e vettori, ma resta l’obiettivo — erodere consenso e sostegno esterno all’Ucraina.
Il cuore dell’analisi è dottrinale. La propaganda classica funziona se convince. La guerra cognitiva funziona anche se non convince del tutto: le basta confondere. La strategia della contaminazione mira a demolire la fiducia nelle fonti, a far saltare la distinzione tra prova e voce, tra notizia e rumor.
L’effetto, secondo il CPD, è multiplo: demoralizzare i militari, logorare il morale civile, produrre un’impressione di caos interno e screditare leadership politica e militare — soprattutto agli occhi del pubblico internazionale. In altre parole: colpire la coesione sociale, non solo le truppe.
Il rapporto mostra un dato incoraggiante: la cooperazione con le piattaforme (in particolare TikTok) permette di intervenire rapidamente e neutralizzare gli account sorgente. Ma c’è un limite strutturale: il blocco arriva spesso quando il contenuto ha già attraversato la filiera ed è stato copiato altrove. Chiudere l’origine non spegne l’incendio.
Per questo la sfida non è solo tecnologica. È organizzativa e culturale: capacità di monitorare, verificare, comunicare smentite in modo credibile e tempestivo; coordinamento tra piattaforme; alfabetizzazione mediatica del pubblico. Perché, nella guerra dell’informazione industrializzata, il bersaglio finale non è la tua opinione su un singolo.


