{"id":190274,"date":"2025-02-24T14:31:23","date_gmt":"2025-02-24T13:31:23","guid":{"rendered":"https:\/\/www.idmo.it\/?p=188302"},"modified":"2025-02-25T15:28:58","modified_gmt":"2025-02-25T14:28:58","slug":"la-guerra-della-russia-contro-lucraina-tre-anni-302-affermazioni-false","status":"publish","type":"post","link":"https:\/\/www.idmo.it\/en\/2025\/02\/24\/la-guerra-della-russia-contro-lucraina-tre-anni-302-affermazioni-false\/","title":{"rendered":"La guerra della Russia contro l\u2019Ucraina: tre anni, 302 affermazioni false"},"content":{"rendered":"\n<p>Con l\u2019avvicinarsi del terzo anniversario dell&#8217;invasione russa che ha dato il via al conflitto in Ucraina, NewsGuard ha identificato e smentito <strong>302 affermazioni false<\/strong> relative alla guerra, quasi tutte riconducibili alla propaganda russa.&nbsp;<\/p>\n\n\n\n<p>Queste 302 affermazioni compaiono nel database di NewsGuard dei <a href=\"https:\/\/www.idmo.it\/\" target=\"_blank\" aria-label=\"undefined (apri in una nuova scheda)\" rel=\"noreferrer noopener\">Misinformation<\/a> Fingerprint, che raccoglie le principali narrazioni false che i suoi analisti hanno individuato e smentito. NewsGuard ha identificato 551 siti che hanno diffuso queste affermazioni false.<\/p>\n\n\n\n<p>Sia i contenuti che le tattiche adottate nell\u2019ambito delle iniziative russe si sono evoluti dal 24 febbraio 2022, giorno in cui l\u2019invasione ha avuto inizio, in modo pi\u00f9 o meno netto.<\/p>\n\n\n\n<p>Di seguito, i principali risultati di questa analisi:<\/p>\n\n\n\n<ul class=\"wp-block-list\"><li>Nel corso della guerra, gli attori di disinformazione russa hanno sempre pi\u00f9 fatto affidamento sull&#8217;intelligenza artificiale (IA), utilizzandola come amplificatore sia a livello di portata e diffusione dei contenuti, sia in termini di persuasivit\u00e0 delle loro campagne. NewsGuard ha smentito 112 affermazioni false nel primo anno di guerra, di cui una era basata sull\u2019IA, 71 nel secondo, di cui cinque erano state generate utilizzando l\u2019IA, e 119 nel terzo, per 16 delle quali si \u00e8 fatto ricorso all\u2019IA. L&#8217;IA ha anche facilitato la creazione di siti di fake news che si spacciano per media legittimi. <a href=\"https:\/\/www.newsguardrealitycheck.com\/p\/newsguards-2024-disinformer-of-the\">Il noto propagandista russo John Mark Dougan<\/a> ha ammesso a NewsGuard di utilizzare l&#8217;IA come un moltiplicatore di forze.<\/li><\/ul>\n\n\n\n<ul class=\"wp-block-list\"><li>Nei primi mesi della guerra, la propaganda russa si \u00e8 spesso concentrata su una presunta diffusione del nazismo in Ucraina e sull\u2019idea che la Russia non stesse prendendo di mira obiettivi civili. Pi\u00f9 recentemente, la Russia ha diffuso affermazioni prive di fondamento sulla corruzione ucraina, sul presunto declino nei consensi di Zelensky e su presunti sprechi degli aiuti occidentali. Molte di queste accuse sono state create e diffuse da Dougan. Secondo alcune <a href=\"https:\/\/www.youtube.com\/watch?v=RyeYFQTUsjc&amp;list=PLLWQyEN3YRo41QwWb7e8J5YjBX80WmGtG\">dichiarazioni<\/a> del presentatore televisivo russo Vladimir Solovyov rilasciate alla TV di Stato russa, una di queste affermazioni false &#8211; e cio\u00e8 quella secondo cui Zelensky avrebbe un indice di gradimento del 4% &#8211; potrebbe essere emersa durante una conversazione telefonica tra il presidente russo Vladimir Putin e il presidente degli Stati Uniti Donald Trump. Solovyov ha affermato: \u201cMolte delle narrazioni che vengono espresse [da Trump] si sono in gran parte materializzate dopo la loro conversazione [di Putin e Trump]\u201d.<\/li><\/ul>\n\n\n\n<ul class=\"wp-block-list\"><li>Le iniziative di propaganda della Russia sono spesso finanziate, seppur inconsapevolmente, da grandi marchi americani e internazionali, i cui annunci pubblicitari compaiono automaticamente sui siti di disinformazione russa tramite la\u00a0 pubblicit\u00e0 programmatica, attraverso la quale gli annunci appaiono anche su siti di bassa qualit\u00e0, a meno che i marchi non prendano\u00a0 attivamente provvedimenti per evitarlo.<\/li><\/ul>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2025\/02\/image.png\" alt=\"\" class=\"wp-image-188304\"\/><figcaption> <em>Un grafico che mostra il numero di affermazioni sulla guerra smentite da NewsGuard, tra cui anche narrazioni generate dall&#8217;intelligenza artificiale.\u00a0<\/em> <\/figcaption><\/figure>\n\n\n\n<p><strong>L&#8217;IA IN AZIONE: COS\u00cc L&#8217;INTELLIGENZA ARTIFICIALE POTENZIA LA PROPAGANDA PRO-CREMLINO<\/strong><\/p>\n\n\n\n<p>Nel 2022, NewsGuard ha individuato <strong>una<\/strong> sola affermazione falsa generata dall&#8217;IA e proveniente dalla Russia. Nel secondo anno di guerra, NewsGuard ne ha smentite <strong>cinque<\/strong>; <strong>16<\/strong> nel terzo anno. In effetti, mano a mano che gli strumenti basati sull\u2019IA sono diventati disponibili sul mercato, il facile accesso a generatori IA di immagini, audio, video e testi ha permesso alla Russia e ai suoi alleati di raggiungere un maggior numero di persone, in pi\u00f9 lingue, e con affermazioni false pi\u00f9 convincenti.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2025\/02\/image-1.png\" alt=\"\" class=\"wp-image-188306\"\/><figcaption> <em>Due deepfake &#8211; uno sfocato e pixelato del marzo 2022, l&#8217;altro, pi\u00f9 realistico, del novembre 2023 &#8211; che illustrano il salto di qualit\u00e0 della tecnologia (Screenshot di NewsGuard).<\/em> <\/figcaption><\/figure>\n\n\n\n<p>Ad esempio, il primo deepfake utilizzato dalla Russia e identificato da NewsGuard nel marzo 2022, tre settimane dopo l&#8217;invasione russa, \u00e8 un video sfocato e pixelato. Mostra il presidente dell&#8217;Ucraina Volodymyr Zelensky in piedi dietro un podio, che esorta gli ucraini ad arrendersi. La testa di Zelensky si muove sopra un corpo innaturalmente immobile. Al contrario, un video del novembre 2023, in apparenza del canale televisivo ucraino TSN, che sembra mostrare Zelensky mentre chiede ai soldati ucraini di abbandonare le loro postazioni, dimostra un chiaro salto di qualit\u00e0 nella tecnologia. L&#8217;unico indizio di inautenticit\u00e0 nel deepfake pi\u00f9 recente era l&#8217;occasionale assenza di coordinazione tra i movimenti della bocca di Zelensky e le parole pronunciate.<\/p>\n\n\n\n<p>L&#8217;intelligenza artificiale ha anche aiutato le fonti pro-Cremlino a spacciarsi per media affidabili occidentali &#8211; tra cui BBC, CNN e Bloomberg News &#8211; per diffondere affermazioni false. Dall&#8217;inizio della guerra, NewsGuard ha verificato e smentito <strong>44<\/strong> narrazioni false che utilizzavano questa strategia, <strong>24<\/strong> delle quali sono emerse nell&#8217;ultimo anno. La tecnologia IA \u00e8 stata utilizzata per manomettere servizi giornalistici autentici, per creare false copertine di riviste e quotidiani e per generare servizi giornalistici falsi, attribuendoli a testate note e autorevoli.<\/p>\n\n\n\n<p>Ad esempio, all&#8217;inizio di febbraio 2025, un falso servizio di E! News con una voce fuori campo generata dall&#8217;intelligenza artificiale sosteneva che l&#8217;USAID (l\u2019Agenzia degli Stati Uniti per lo sviluppo internazionale) avesse offerto milioni di dollari a celebrit\u00e0 di Hollywood per recarsi a Kyiv. Questo video falso &#8211; poich\u00e9 non sono stati spesi soldi dell&#8217;USAID n\u00e9 denaro dei contribuenti americani per questi viaggi &#8211; \u00e8 apparso cos\u00ec credibile che ha ottenuto 31 milioni di visualizzazioni dopo essere stato condiviso da personaggi di alto profilo, tra cui il proprietario di X Elon Musk e Donald Trump Jr. (I clienti di NewsGuard possono leggere il relativo Misinformation Fingerprint <a href=\"https:\/\/account.newsguardtech.com\/partner\/myth\/profile\/9a27e23e-b10c-4f52-8a12-dabc1cb24963\">qui<\/a>).<\/p>\n\n\n\n<div class=\"wp-block-image\"><figure class=\"aligncenter size-full\"><img decoding=\"async\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2025\/02\/image-2.png\" alt=\"\" class=\"wp-image-188308\"\/><figcaption> D<em>onald Trump Jr. ha ripostato un video falso di E! News con una voce fuori campo generata dall&#8217;IA nel febbraio 2025 (Screenshot di NewsGuard).<\/em> <\/figcaption><\/figure><\/div>\n\n\n\n<p>Questa iniziativa sembra essere il pi\u00f9 grande successo finora ottenuto da Matryoshka, una ben documentata operazione di influenza affiliata al governo russo che prende il nome dalla matrioska russa e che in passato ha preso di mira le Olimpiadi di Parigi e le elezioni statunitensi.<\/p>\n\n\n\n<p>La clip faceva parte di <strong>20<\/strong> <a href=\"https:\/\/www.newsguardrealitycheck.com\/p\/amazons-ring-faces-boycott-over-misrepresented\">video falsi <\/a>sull&#8217;USAID diffusi da Matryoshka nel febbraio 2025 e condivisi con NewsGuard da antibot4navalny, un gruppo anonimo di volontari che segue le operazioni di influenza russa. L\u2019obiettivo sarebbe quello di sfruttare lo smantellamento dell&#8217;agenzia da parte dell&#8217;amministrazione Trump per diffondere sentimenti anti-Ucraina. Matryoshka ha anche imitato organi di stampa come il Wall Street Journal e Fox News per diffondere le affermazioni false secondo cui l&#8217;USAID avrebbe speso miliardi per una campagna di pubbliche relazioni a favore dell&#8217;Ucraina su YouTube e altre affermazioni false secondo cui l&#8217;agenzia avrebbe truccato il concorso canoro Eurovision per far vincere l&#8217;Ucraina nel 2022.<\/p>\n\n\n\n<p><strong>DALLE ACCUSE DI NAZISMO A ELABORATE DENUNCE DI CORRUZIONE: COS\u00cc SONO CAMBIATI GLI OBIETTIVI<\/strong><\/p>\n\n\n\n<p>Mentre sta per iniziare il quarto anno di guerra, le campagne di disinformazione russa hanno cambiato obiettivo. All&#8217;inizio, le narrazioni tipicamente miravano a negare i ben documentati attacchi russi contro obiettivi civili e richiamavano le giustificazioni addotte dal governo russo per l&#8217;invasione su larga scala, come la necessit\u00e0 di \u201cdenazificare\u201d l&#8217;Ucraina e la presunta minaccia esistenziale posta dalla NATO. Rientrano in quest\u2019ultima categoria le affermazioni false sulla presenza di laboratori statunitensi di armi biologiche in Ucraina.<\/p>\n\n\n\n<p>Nel primo anno di guerra, NewsGuard ha smentito <strong>sette<\/strong> narrazioni false il cui obiettivo era quello di dipingere la societ\u00e0 ucraina come dominata dall&#8217;ideologia nazista; nel secondo <strong>sei <\/strong>bufale di questo tipo; nel terzo solo <strong>tre<\/strong>.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2025\/02\/image-3.png\" alt=\"\" class=\"wp-image-188310\"\/><figcaption> <em>Nel corso degli anni, sono aumentate le affermazioni false sulla presenza di soldati della NATO in Ucraina e sulla corruzione del governo, mentre sono diminuite quelle secondo cui l&#8217;Ucraina sarebbe governata dai nazisti.<\/em> <\/figcaption><\/figure>\n\n\n\n<p>Allo stesso modo, anche le affermazioni false che negano gli attacchi russi contro obiettivi civili, ampiamente documentati, sono diminuite, poich\u00e9 \u00e8 calata l&#8217;attenzione internazionale sul conflitto. <strong>Nove <\/strong>di queste narrazioni false sono state smentite nel primo anno, <strong>due<\/strong> nel secondo e <strong>due<\/strong> nel terzo.<\/p>\n\n\n\n<p>Nel frattempo, l\u2019idea che la Russia starebbe combattendo contro i soldati della NATO in Ucraina \u00e8 perdurata nel tempo, nell\u2019ambito di quello che sembra essere uno sforzo del Cremlino per presentare i governi occidentali come bugiardi a proposito della portata del loro coinvolgimento nella guerra, e per suggerire che la Russia stia combattendo un nemico molto pi\u00f9 grande della sola Ucraina.<\/p>\n\n\n\n<p>NewsGuard ha smentito <strong>32<\/strong> di queste narrazioni false russe, tra cui quella, emersa nel gennaio 2024, secondo cui la Russia avrebbe ucciso decine di combattenti francesi nella citt\u00e0 ucraina di Kharkiv e quella del febbraio 2025 secondo cui Mosca avrebbe abbattuto un pilota militare danese. <strong>10 <\/strong>di queste affermazioni si sono diffuse nel primo anno di guerra, <strong>otto <\/strong>nel secondo e <strong>14<\/strong> nel terzo, il che suggerisce che caratterizzare la guerra come una vera e propria battaglia contro l&#8217;Occidente sia rimasta una priorit\u00e0 per le operazioni russe.<\/p>\n\n\n\n<p>Tuttavia, dal momento che gli aiuti occidentali sono diventati sempre pi\u00f9 cruciali per l&#8217;Ucraina, e in presenza di una crescente opposizione al sostegno occidentale al Paese in alcuni ambienti, le campagne di disinformazione hanno adottato una nuova strategia: quella di presentare i funzionari ucraini come corrotti, accusandoli di sperperare i fondi degli aiuti occidentali, che, secondo il think tank tedesco Kiel Institute for the World Economy, ammontano a circa <a href=\"https:\/\/www.ifw-kiel.de\/publications\/news\/ukraine-support-after-3-years-of-war-aid-flows-remain-low-but-steady-shift-towards-weapons-procurement\/\">83 miliardi di dollari<\/a> per ogni anno di conflitto. Su <strong>21 <\/strong>narrazioni legate alla corruzione, NewsGuard ne ha smentite <strong>due <\/strong>nel primo anno di guerra, <strong>sei<\/strong> nel secondo anno e <strong>13 <\/strong>nel terzo anno.<\/p>\n\n\n\n<p>In totale, 14 affermazioni false relative all\u2019argomento della corruzione individuate da NewsGuard accusano direttamente Zelensky e la first lady Olena Zelenska di aver speso <strong>725<\/strong> milioni di dollari di aiuti occidentali per acquisti di lusso, tra cui ville, yacht e auto sportive. Complessivamente, queste affermazioni hanno ottenuto pi\u00f9 di <strong>66,4 milioni<\/strong> <strong>di visualizzazioni su X<\/strong>. Si parla di una spesa di <strong>75 milioni di dollari <\/strong>per due yacht di lusso, <strong>15 milioni di dollari<\/strong> per la Mercedes di Hitler e <strong>92 milioni di dollari <\/strong>per un resort sciistico di lusso nelle Alpi francesi. Zelensky \u00e8 stato anche accusato di aver acquistato la villa del musicista Sting in Italia e la tenuta di Re Carlo in Inghilterra. L&#8217;affermazione secondo cui la first lady ucraina Olena Zelenska avrebbe acquistato un&#8217;auto sportiva Bugatti Tourbillon per 4,6 milioni di dollari \u00e8 stata la pi\u00f9 virale, con <strong>19,5 milioni<\/strong> <strong>di visualizzazioni su X<\/strong>.&nbsp;<\/p>\n\n\n\n<p><strong>CRESCIUTO NEGLI USA, ADDESTRATO ALL&#8217;ESTERO: IL PROPAGANDISTA AMERICANO DIETRO LE 14 AFFERMAZIONI FALSE SU ZELENSKY<\/strong><\/p>\n\n\n\n<p>La mente dietro a queste false accuse di corruzione, che hanno ottenuto svariati milioni di visualizzazioni, sembra essere quella di John Mark Dougan, un vice-sceriffo della contea di Palm Beach, in Florida, diventato propagandista del Cremlino. Dougan fa parte di un&#8217;operazione di influenza russa soprannominata da Microsoft \u201cStorm-1516\u201d, che sembra essere una propaggine della Internet Research Agency, una troll farm russa ormai dissolta.<\/p>\n\n\n\n<p>NewsGuard ha smentito <strong>37 narrazioni false<\/strong> collegate a Dougan e a Storm-1516 che riguardano l&#8217;Ucraina, le elezioni statunitensi del 2024, le Olimpiadi di Parigi del 2024 e le elezioni tedesche del 2025. Di queste narrazioni, <strong>19<\/strong> prendono di mira l&#8217;Ucraina, e <strong>14<\/strong> accusano nello specifico Zelensky e sua moglie di aver usato gli aiuti ricevuti per acquistare propriet\u00e0 immobiliari, beni di lusso e auto sportive. Queste <strong>14<\/strong> narrazioni hanno ottenuto pi\u00f9 di<strong> 66,4 milioni di visualizzazioni<\/strong>.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2025\/02\/image-4.png\" alt=\"\" class=\"wp-image-188312\"\/><figcaption> <em> mostra l&#8217;aumento delle affermazioni false diffuse dal gruppo di disinformazione russo Storm-1516 e i Paesi presi di mira dalle narrazioni.<\/em> <\/figcaption><\/figure>\n\n\n\n<p>Le campagne di Dougan utilizzano documenti, conversazioni telefoniche, immagini e filmati falsi, spesso pubblicati su finti siti di notizie locali. Questa strategia \u00e8 molto distante da quelle adottate inizialmente, quando i primi tentativi di disinformazione di Dougan identificati da NewsGuard nell&#8217;agosto 2023 si servivano di video con persone reali che impersonavano informatori o giornalisti.<\/p>\n\n\n\n<p>La campagna Storm-1516 \u00e8 iniziata con la pubblicazione di circa <strong>una<\/strong> narrazione falsa al mese. Nel 2024, il gruppo ne pubblicava almeno due al mese. Nel terzo anno di guerra, NewsGuard ha smentito <strong>31<\/strong> bufale legate a Dougan, <strong>14<\/strong> delle quali prendevano di mira l&#8217;Ucraina.<\/p>\n\n\n\n<p>Ad esempio, un video del febbraio 2025 con una voce fuori campo generata dall&#8217;intelligenza artificiale sosteneva che Zelensky avesse acquistato il Nido dell&#8217;Aquila, una villa tedesca un tempo di propriet\u00e0 di Adolf Hitler, per 14,2 milioni di euro. La narrazione falsa ha avuto origine su un sito in lingua tedesca chiamato \u201cAktuell-Nachricht\u201d (\u201cNotizie di attualit\u00e0\u201d), parte di una rete di disinformazione russa di 102 siti generati dall&#8217;intelligenza artificiale creati in vista delle elezioni tedesche del febbraio 2025. (Leggi qui il <a href=\"https:\/\/www.newsguardtech.com\/special-reports\/russian-propagandist-john-mark-dougan-german-election\/\">report<\/a> di NewsGuard sulla campagna).<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2025\/02\/image-5.png\" alt=\"\" class=\"wp-image-188314\"\/><figcaption> <em>I propagandisti hanno diffuso un\u2019affermazione falsa a proposito del presidente ucraino utilizzando siti, articoli e video generati dall\u2019IA. (Screenshot di NewsGuard)<\/em> <\/figcaption><\/figure>\n\n\n\n<p>NewsGuard ha identificato <strong>273<\/strong> siti di notizie false di questo tipo collegati a Dougan. I siti diffondono disinformazione che viene poi ripetuta dai principali chatbot occidentali, che,&nbsp; secondo <a href=\"https:\/\/www.newsguardrealitycheck.com\/p\/special-report-top-10-generative\">un\u2019analisi<\/a> di NewsGuard, spesso non sono in grado di distinguere la verit\u00e0 dalla finzione. In una conversazione con NewsGuard, Dougan ha riconosciuto di aver inizialmente fatto affidamento su modelli di IA occidentali per generare contenuti e ha affermato di aver poi sviluppato un proprio server di IA \u201cprivo di censura\u201d.<\/p>\n\n\n\n<p><strong>\u201cPOSSIAMO EFFETTIVAMENTE CAMBIARE L\u2019IA MONDIALE\u201d<\/strong><\/p>\n\n\n\n<p>In effetti, il Washington Post, citando documenti dell&#8217;intelligence europea, <a href=\"https:\/\/www.washingtonpost.com\/world\/2024\/10\/23\/dougan-russian-disinformation-harris\/\">ha riferito<\/a> che alcuni dei pagamenti di Dougan da parte del GRU, il servizio di intelligence militare russo, sono avvenuti dopo che Dougan ha incontrato difficolt\u00e0 nell&#8217;utilizzo di sistemi di IA occidentali e ha cercato finanziamenti per mettere a punto un proprio generatore di IA, indipendente dalla tecnologia occidentale.<\/p>\n\n\n\n<p>I suoi sforzi per assicurarsi il sostegno finanziario della Russia per la produzione di contenuti con l\u2019IA sono proseguiti. Il 27 gennaio 2025, Dougan <a href=\"https:\/\/mdn.ru\/report\/obshhestvennaya-palata-stran-evrazijskogo-ekonomicheskogo-soyuza-sovmestno-s-mezhdunarodnym-soyuzom-svobodnyh-zhurnalistov-kruglyj-stol-rol-smi-v-borbe-s-strategicheskoj-dezinformatsiej\">ha partecipato<\/a> a una tavola rotonda a Mosca intitolata \u201cIl ruolo dei media nella lotta contro la disinformazione strategica\u201d, durante la quale ha dichiarato: \u201cIl mio unico server a casa mia scrive quasi 90.000 articoli al mese&#8230; Non \u00e8 uno strumento di cui aver paura, \u00e8 uno strumento da sfruttare\u201d. Facendo riferimento a un <a href=\"https:\/\/www.newsguardtech.com\/special-reports\/generative-ai-models-mimic-russian-disinformation-cite-fake-news\/\">audit di NewsGuard<\/a> che ha rilevato che i 10 principali modelli di IA generativa hanno ripetuto le sue narrazioni di disinformazione russa il 32% delle volte, Dougan ha aggiunto: \u201cSpingendo queste narrazioni russe dalla prospettiva russa, possiamo effettivamente cambiare l&#8217;IA mondiale\u201d.&nbsp;<\/p>\n\n\n\n<p><strong>DISINFORMAZIONE RUSSA RESA POSSIBILE DAGLI ANNUNCI PUBBLICITARI DI&#8230; BRAND OCCIDENTALI INCONSAPEVOLI<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2025\/02\/image-6.png\" alt=\"\" class=\"wp-image-188316\"\/><figcaption> <em>Un grafico che mostra quanti siti che pubblicano disinformazione russa contengono pubblicit\u00e0 programmatica e quali aziende di tecnologia pubblicitaria forniscono servizi a questi siti.<\/em> <\/figcaption><\/figure>\n\n\n\n<p>NewsGuard ha scoperto che la pubblicit\u00e0 programmatica (che consiste nell&#8217;acquisto e nel posizionamento automatico di annunci con l\u2019utilizzo di algoritmi e dati per raggiungere un pubblico specifico) ha continuato a finanziare siti che diffondono disinformazione sulla guerra. I marchi non intendono finanziare la disinformazione russa, ma spesso lo fanno perch\u00e9 non prendono provvedimenti per evitare che gli annunci finiscano sui siti di disinformazione.<\/p>\n\n\n\n<p>NewsGuard ha identificato e <a href=\"https:\/\/www.newsguardtech.com\/special-reports\/russian-disinformation-tracking-center\/\">monitorato<\/a> <strong>551<\/strong> siti di notizie e informazioni che diffondono narrazioni false sulla guerra. Di questi, <strong>87<\/strong> continuano a guadagnare dalla pubblicit\u00e0 programmatica gestita dai principali operatori del settore, tra cui Google, MGID e Criteo. Google, che \u00e8 la pi\u00f9 grande piattaforma di annunci online, fornisce annunci a 51 siti che diffondono disinformazione russa.<\/p>\n\n\n\n<p>Ad esempio, Google fornisce annunci ai siti statunitensi Tsarizm.com (<strong>Punteggio di affidabilit\u00e0 di NewsGuard: 25\/100<\/strong>) e ArmedForces.press (<strong>17,5\/100<\/strong>); a VTForeignPolicy.com (<strong>22,5\/100<\/strong>), un sito di opinione pro-Russia che \u00e8 stato <a href=\"https:\/\/www.scrippsnews.com\/us-news\/u-s-veterans-website-secretly-directed-by-russia\">collegato<\/a> dalle autorit\u00e0 statunitensi all&#8217;apparato di sicurezza russo; e a sei siti della rete multilingue anonima<strong> Avia.pro<\/strong> (<strong>7,5\/100<\/strong>). Tra i marchi identificati negli annunci pubblicitari che sono comparsi accanto a narrazioni false, nel solo mese di febbraio 2025 figurano Amazon, Adobe, Citibank, The Ritz-Carlton e Ford.<\/p>\n\n\n\n<p>La pubblicit\u00e0 programmatica crea spesso strani abbinamenti. NewsGuard ha identificato, per esempio, un annuncio dell&#8217;agenzia ONU per i rifugiati, l\u2019UNHCR, che chiedeva fondi per sostenere le famiglie ucraine, inserito tramite la piattaforma pubblicitaria di Google sul sito di disinformazione russa VTForeignPolicy.com. (Si segnala che NewsGuard offre liste di inclusione ed esclusione e altri servizi di brand-safety che aggiungono un filtro di protezione al processo di acquisto programmatico di annunci).<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2025\/02\/image-7.png\" alt=\"\" class=\"wp-image-188318\"\/><figcaption> <em>Un annuncio dell&#8217;UNHCR, l&#8217;agenzia delle Nazioni Unite per i rifugiati, che raccoglie fondi per l&#8217;Ucraina, appare sul sito di disinformazione russa VTForeignPolicy.com (Screenshot di NewsGuard).<\/em> <\/figcaption><\/figure>\n\n\n\n<p>Questo sostegno pubblicitario ai siti che promuovono la disinformazione russa sembra violare le politiche delle principali piattaforme di tecnologia pubblicitaria e il <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/library\/2022-strengthened-code-practice-disinformation\">Codice di buone pratiche sulla disinformazione della Commissione europea<\/a>. Il codice, che \u00e8 stato revisionato nel giugno 2022, invita le piattaforme digitali e le societ\u00e0 di tecnologia pubblicitaria firmatarie a impedire che la pubblicit\u00e0 venga fornita a pubblicazioni che \u201cpubblicano sistematicamente disinformazione dannosa\u201d.<\/p>\n\n\n\n<p>In risposta a un&#8217;email di NewsGuard che chiedeva un commento sulla monetizzazione da parte di MGID di siti che diffondono disinformazione russa, un portavoce di MGID ha dichiarato che \u00e8 \u201cpienamente impegnata a garantire che la nostra rete pubblicitaria sia conforme alle nostre politiche sui contenuti\u201d. MGID ha aggiunto: \u201cLe nostre linee guida vietano rigorosamente la monetizzazione di siti che diffondono disinformazione o contenuti fuorvianti. Monitoriamo continuamente la nostra rete per far rispettare queste politiche e, se vengono identificate violazioni prendiamo provvedimenti immediati\u201d.<\/p>\n\n\n\n<p>Google ha risposto alla richiesta di commento da parte di NewsGuard chiedendo di ricevere l&#8217;elenco completo dei siti che utilizzano la sua tecnologia pubblicitaria. NewsGuard ha rifiutato poich\u00e9 fornisce le sue liste di esclusione soltanto ai propri clienti. Criteo e Revcontent non hanno risposto alla richiesta di commento di NewsGuard.<\/p>\n\n\n\n<p>Mentre la stragrande maggioranza delle affermazioni false sulla guerra individuate promuovono gli interessi russi, NewsGuard ha trovato due narrazioni false a favore dell&#8217;Ucraina, entrambe circolate nel primo anno di guerra. Una utilizzava una vecchia fotografia per sostenere falsamente che Zelensky stesse combattendo in prima linea nel 2022. L&#8217;altra riutilizzava un filmato tratto da un videogioco per sostenere l\u2019esistenza di un eroico pilota di caccia ucraino, noto come il Fantasma di Kiev, che avrebbe abbattuto dei jet da combattimento russi. L&#8217;aeronautica ucraina ha poi <a href=\"https:\/\/www.facebook.com\/kpszsu\/posts\/363834939117794\">ammesso<\/a> che il Fantasma di Kiev era una bufala.<\/p>\n\n\n\n<p><em>A cura di <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/eva-maitland\/\"><em>Eva Maitland<\/em><\/a><em> e <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/madeline-roache\/\"><em>Madeline Roache<\/em><\/a><\/p>\n\n\n\n<p><em>Con il contributo di<\/em><strong> <\/strong><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/mascha-wolf\/\"><em>Mascha Wolf<\/em><\/a><em> e <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/mckenzie-sadeghi\/\"><em>McKenzie Sadeghi<\/em><\/a><em> <\/em><\/p>\n\n\n\n<p><em>Supervisionato da <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/dina-contini\/\"><em>Dina Contini<\/em><\/a> e <a href=\"https:\/\/www.newsguardtech.com\/about\/team\/eric-effron\/\"><em>Eric Effron<\/em><\/a><em><\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>L\u2019intelligenza artificiale e notizie inventate su presunti casi di corruzione amplificano la disinformazione russa sulla guerra<\/p>\n","protected":false},"author":132,"featured_media":190291,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2616],"tags":[],"class_list":["post-190274","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-approfondimenti"],"acf":{"share_this_post_to_edmo_website":false,"type_of_post":false,"options_for_news_post":{"":""},"options_for_event_post":{"event_start_date":null,"event_end_date":null,"event_location":"","event_programme":""},"options_for_report_post":{"post_author":"","report_type":false,"report_pdf_link":""},"options_for_investigation_post":{"post_author":""},"affiliation":false},"_links":{"self":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/190274","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/comments?post=190274"}],"version-history":[{"count":1,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/190274\/revisions"}],"predecessor-version":[{"id":190280,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/190274\/revisions\/190280"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media\/190291"}],"wp:attachment":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media?parent=190274"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/categories?post=190274"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/tags?post=190274"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}