{"id":192202,"date":"2026-01-13T16:26:45","date_gmt":"2026-01-13T15:26:45","guid":{"rendered":"https:\/\/www.idmo.it\/?p=192202"},"modified":"2026-03-24T12:05:33","modified_gmt":"2026-03-24T11:05:33","slug":"lindustrializzazione-del-falso-quando-la-propaganda-diventa-fabbrica-e-la-guerra-entra-nella-testa","status":"publish","type":"post","link":"https:\/\/www.idmo.it\/en\/2026\/01\/13\/lindustrializzazione-del-falso-quando-la-propaganda-diventa-fabbrica-e-la-guerra-entra-nella-testa\/","title":{"rendered":"L\u2019industrializzazione del falso: quando la propaganda diventa fabbrica e la guerra entra nella testa"},"content":{"rendered":"\n<p><strong>Il rapporto del&nbsp;<em>Center for Countering Disinformation<\/em>&nbsp;analizza l\u2019uso crescente di video generati con intelligenza artificiale da parte della Federazione Russa per screditare le Forze di Difesa dell\u2019Ucraina.<\/strong><\/p>\n\n\n\n<p>Non \u00e8 pi\u00f9 solo una guerra di trincee, droni e artiglieria. \u00c8 una guerra di nervi, fiducia e percezioni. E oggi, come documenta un rapporto del Centro ucraino per il contrasto alla disinformazione (CPD), il fronte pi\u00f9 conteso \u00e8 quello cognitivo: lo spazio mentale in cui cittadini e militari decidono a chi credere, chi seguire, cosa temere.<\/p>\n\n\n\n<p>Il dossier ricostruisce con precisione il salto di qualit\u00e0 della propaganda digitale russa: dai primi deepfake \u201cartigianali\u201d e facilmente smascherabili a un sistema industriale, cross-platform, costruito per inquinare l\u2019infosfera pi\u00f9 che convincere il pubblico. Non pi\u00f9 persuasione diretta, ma \u201ccontaminazione\u201d: l\u2019idea che, sommersi dal dubbio, gli utenti finiscano per non fidarsi pi\u00f9 di nulla.<\/p>\n\n\n\n<p>Il CPD descrive un\u2019evoluzione in tre fasi, che somiglia a una curva di apprendimento militare. Il primo esperimento risale al marzo 2022: un falso video del presidente Volodymyr Zelenskyy che invita alla resa. Un tentativo fallito, smentito rapidamente e riconosciuto come poco credibile: qualit\u00e0 bassa, indizi evidenti di manipolazione, efficacia quasi nulla.<\/p>\n\n\n\n<p>Il secondo salto arriva nel novembre 2023. Stavolta il bersaglio \u00e8 il comandante in capo Valerii Zaluzhnyi: un deepfake pi\u00f9 sofisticato, costruito per spingere soldati e cittadini alla disobbedienza. Ma la vera novit\u00e0 strategica non \u00e8 solo la qualit\u00e0 tecnica: \u00e8 la risposta \u201ca strati\u201d. Quando Kyiv smentisce il video, il giorno dopo appare un secondo deepfake di Zaluzhnyi che \u201csmentisce la smentita\u201d. \u00c8 la meta-manipolazione: non attaccare solo un fatto, ma attaccare il meccanismo stesso della verifica, insinuando che persino il debunking sia manipolazione.<\/p>\n\n\n\n<p>Nel 2025, secondo il rapporto, avviene la svolta definitiva. I deepfake diventano parte di una strategia di saturazione: non importa pi\u00f9 che un singolo contenuto venga creduto da milioni di persone; basta che decine, centinaia di falsi rendano la verifica un compito infinito, stancante, emotivamente costoso. \u00c8 la \u201cfatica della verit\u00e0\u201d come arma.<\/p>\n\n\n\n<p>Il CPD distingue due metodi principali.<\/p>\n\n\n\n<p>Il primo \u00e8 il deepfake \u201ctradizionale\u201d: un attore reale recita la parte del soldato o del funzionario, poi la tecnologia sostituisce il volto e altera l\u2019audio. \u00c8 un sistema che mantiene un vantaggio: la naturalezza del corpo e della gestualit\u00e0, ancora difficili da generare perfettamente. Ma lascia tracce: labiale non sincronizzato, contorni del volto instabili, incoerenze di luce e ombra.<\/p>\n\n\n\n<p>Il secondo \u00e8 pi\u00f9 moderno e scalabile: video interamente sintetici, generati da AI senza girato reale. Qui la forza \u00e8 industriale: rapidit\u00e0, replicabilit\u00e0, produzione potenzialmente illimitata, assenza di rischi legati ad attori e set. Ma anche questo sistema ha firme ricorrenti: uniformi sempre \u201ctroppo pulite\u201d, dettagli d\u2019equipaggiamento improbabili, elementi ripetuti (toppe identiche, stessi volti, stessa estetica). Come in una fabbrica, il prodotto cambia poco: ed \u00e8 proprio questa serialit\u00e0 che pu\u00f2 tradire la mano dell\u2019algoritmo.<\/p>\n\n\n\n<p>La parte pi\u00f9 inquietante non \u00e8 solo la produzione, ma la distribuzione. Il CPD descrive una filiera in tre passaggi.<\/p>\n\n\n\n<p><strong>1) Seeding (inoculazione):<\/strong>&nbsp;si parte da account anonimi, spesso su TikTok, costruiti con estetica militare e una \u201cbaseline\u201d di credibilit\u00e0. Pubblicano pochi video, quanto basta per sembrare organici, poi iniettano il contenuto manipolato.<\/p>\n\n\n\n<p><strong>2) Amplificazione cross-platform:<\/strong>&nbsp;quando il video ha raccolto engagement, migra su Telegram, X e Facebook. Qui accade il passaggio decisivo: non viene solo ripostato, viene \u201cinterpretato\u201d. Un testo accompagna il video e lo spinge oltre, trasformando una generica lamentela in \u201cammutinamento\u201d, una frase ambigua in \u201crifiuto di combattere\u201d, un frame emotivo in accusa politica.<\/p>\n\n\n\n<p><strong>3) Legittimazione:<\/strong>&nbsp;infine intervengono reti pi\u00f9 strutturate e riconoscibili della propaganda russa. Il contenuto entra in ecosistemi consolidati e assume la forma di \u201cnotizia\u201d \u2014 non pi\u00f9 video anonimo, ma fatto apparentemente confermato. Il falso, cos\u00ec, si veste di ufficialit\u00e0.<\/p>\n\n\n\n<p>Il risultato \u00e8 un sistema compartimentato e resiliente: anche se la sorgente viene chiusa, le copie restano, il messaggio continua a circolare e pu\u00f2 essere rilanciato altrove.<\/p>\n\n\n\n<p>Il CPD ricostruisce tre operazioni esemplari del 2025.<\/p>\n\n\n\n<p>La prima, a luglio, \u00e8 una campagna presentata come \u201ctestamento\u201d di un soldato: parte da TikTok e in meno di un giorno arriva a canali Telegram molto seguiti, fino a siti e reti pi\u00f9 strutturate. Il Centro individua segnali tecnici (mimica innaturale, ammiccamento anomalo, labiale incoerente) e ottiene il blocco dell\u2019account.<\/p>\n\n\n\n<p>La seconda, a novembre, ruota attorno a Pokrovsk: un frame strategico (\u201csiete accerchiati, arrendetevi\u201d) amplificato su pi\u00f9 canali. Qui gli indizi non sono solo nel singolo video, ma nel pattern dell\u2019account: ripetizioni, uniformi sempre pulite, dettagli d\u2019equipaggiamento improbabili. Anche in questo caso l\u2019account viene rimosso.<\/p>\n\n\n\n<p>La terza operazione \u00e8 la pi\u00f9 rivelatrice: un video di un presunto mobilitato di 23 anni non viene lanciato solo per pubblico russofono, ma amplificato in lingua tedesca, poi replicato da profili internazionali. \u00c8 la prova di un targeting differenziato: cambiano lingua, piattaforme e vettori, ma resta l\u2019obiettivo \u2014 erodere consenso e sostegno esterno all\u2019Ucraina.<\/p>\n\n\n\n<p>Il cuore dell\u2019analisi \u00e8 dottrinale. La propaganda classica funziona se convince. La guerra cognitiva funziona anche se non convince del tutto: le basta confondere. La strategia della contaminazione mira a demolire la fiducia nelle fonti, a far saltare la distinzione tra prova e voce, tra notizia e rumor.<\/p>\n\n\n\n<p>L\u2019effetto, secondo il CPD, \u00e8 multiplo: demoralizzare i militari, logorare il morale civile, produrre un\u2019impressione di caos interno e screditare leadership politica e militare \u2014 soprattutto agli occhi del pubblico internazionale. In altre parole: colpire la coesione sociale, non solo le truppe.<\/p>\n\n\n\n<p>Il rapporto mostra un dato incoraggiante: la cooperazione con le piattaforme (in particolare TikTok) permette di intervenire rapidamente e neutralizzare gli account sorgente. Ma c\u2019\u00e8 un limite strutturale: il blocco arriva spesso quando il contenuto ha gi\u00e0 attraversato la filiera ed \u00e8 stato copiato altrove. Chiudere l\u2019origine non spegne l\u2019incendio.<\/p>\n\n\n\n<p>Per questo la sfida non \u00e8 solo tecnologica. \u00c8 organizzativa e culturale: capacit\u00e0 di monitorare, verificare, comunicare smentite in modo credibile e tempestivo; coordinamento tra piattaforme; alfabetizzazione mediatica del pubblico. Perch\u00e9, nella guerra dell\u2019informazione industrializzata, il bersaglio finale non \u00e8 la tua opinione su un singolo. &nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il rapporto del&nbsp;Center for Countering Disinformation&nbsp;analizza l\u2019uso crescente di video generati con intelligenza artificiale da parte della Federazione Russa per screditare le Forze di Difesa dell\u2019Ucraina. Non \u00e8 pi\u00f9 solo una guerra di trincee, droni e artiglieria. \u00c8 una guerra di nervi, fiducia e percezioni. E oggi, come documenta un rapporto del Centro ucraino per [&hellip;]<\/p>\n","protected":false},"author":132,"featured_media":192203,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2616],"tags":[],"class_list":["post-192202","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-approfondimenti"],"acf":{"share_this_post_to_edmo_website":true,"type_of_post":"investigation","options_for_news_post":{"":""},"options_for_event_post":{"event_start_date":null,"event_end_date":null,"event_location":"","event_programme":""},"options_for_report_post":{"post_author":"","report_type":false,"report_pdf_link":""},"options_for_investigation_post":{"post_author":"Center for Countering Disinformation"},"affiliation":"IDMO"},"_links":{"self":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192202","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/comments?post=192202"}],"version-history":[{"count":2,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192202\/revisions"}],"predecessor-version":[{"id":192539,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192202\/revisions\/192539"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media\/192203"}],"wp:attachment":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media?parent=192202"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/categories?post=192202"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/tags?post=192202"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}