{"id":188152,"date":"2025-01-22T16:01:50","date_gmt":"2025-01-22T15:01:50","guid":{"rendered":"https:\/\/www.idmo.it\/?p=188152"},"modified":"2025-02-17T12:04:30","modified_gmt":"2025-02-17T11:04:30","slug":"sulla-disinformazione-russa-cinese-e-iraniana-il-programma-di-fact-checking-di-meta-ha-offerto-una-soluzione-nel-14-dei-casi","status":"publish","type":"post","link":"https:\/\/www.idmo.it\/en\/2025\/01\/22\/sulla-disinformazione-russa-cinese-e-iraniana-il-programma-di-fact-checking-di-meta-ha-offerto-una-soluzione-nel-14-dei-casi\/","title":{"rendered":"Sulla disinformazione russa, cinese e iraniana, il programma di fact-checking di Meta ha offerto una soluzione nel 14% dei casi"},"content":{"rendered":"\n<p>Secondo un\u2019analisi di NewGuard, solo il <strong>14%<\/strong> dei post che promuovevano <strong>30 <\/strong>narrazioni di disinformazione russa, cinese e iraniana identificati dagli analisti di NewsGuard sulle piattaforme di Meta, Facebook, Instagram e Threads \u00e8 stato segnalato come falso nell&#8217;ambito del programma di <a href=\"https:\/\/www.idmo.it\/\" target=\"_blank\" aria-label=\"undefined (apri in una nuova scheda)\" rel=\"noreferrer noopener\">fact-checking<\/a> che Meta sta per interrompere negli Stati Uniti.<\/p>\n\n\n\n<p>Il 7 gennaio 2025, Mark Zuckerberg <a href=\"https:\/\/about.fb.com\/news\/2025\/01\/meta-more-speech-fewer-mistakes\/\">ha annunciato<\/a> che il programma di fact-checking di Meta &#8211; <a href=\"https:\/\/www.facebook.com\/government-nonprofits\/blog\/misinformation-resources\">introdotto<\/a> nel dicembre 2016 in seguito alle critiche secondo cui l&#8217;azienda non avrebbe fatto abbastanza per arginare l&#8217;influenza straniera nelle elezioni presidenziali statunitensi &#8211; sarebbe stato interrotto negli Stati Uniti. Il programma si basava sulla collaborazione con fact-checker terzi impiegati presso importanti testate giornalistiche, tra cui USA Today, Reuters e Associated Press. Gli articoli di fact-checking prodotti da queste organizzazioni venivano associati ai contenuti falsi che comparivano sulle piattaforme di Meta.<\/p>\n\n\n\n<p>Al posto di questo programma, Meta ha dichiarato che adotter\u00e0 le cosiddette \u201cnote della comunit\u00e0\u201d. Si tratta di un approccio in crowdsourcing simile alla pratica adottata su X, piattaforma di propriet\u00e0 di Elon Musk.<\/p>\n\n\n\n<p>Tuttavia, come si noter\u00e0 di seguito, se Meta utilizzer\u00e0 la stessa tecnologia e le stesse regole che ha impiegato per le segnalazioni realizzate dai fact-checker anche per l&#8217;applicazione delle note della comunit\u00e0 ai post, \u00e8 probabile che i risultati non saranno pi\u00f9 promettenti. Anzi, potrebbero essere persino peggiori a livello di velocit\u00e0 e portata, perch\u00e9 il sistema delle note della comunit\u00e0 prevede che la comunit\u00e0 di utenti che si occupa delle verifiche dimostri di avere quella che Facebook definisce \u201cuna variet\u00e0 di punti di vista\u201d.<\/p>\n\n\n\n<p>NewsGuard ha rilevato che, anche con le iniziative di fact-checking di Meta in atto, la stragrande maggioranza dei post che promuovevano narrazioni di disinformazione straniera si sono diffusi senza riportare nessuna delle <a href=\"https:\/\/transparency.meta.com\/en-gb\/features\/content-ratings-fact-checkers-use\/\">etichette<\/a> di fact-checking normalmente utilizzate da Meta, che si basano sulle seguenti classificazioni: Falso, Alterato, Parzialmente falso, Privo di contesto o Satira. L&#8217;analisi ha esaminato la diffusione di 30 recenti affermazioni false tratte dai Misinformation Fingerprint di NewsGuard, un database proprietario continuamente aggiornato e leggibile dalle macchine sulle principali affermazioni false che circolano online. (Si veda la nota metodologica qui sotto).<\/p>\n\n\n\n<p>Il campione ha preso in esame 30 delle 508 narrazioni di disinformazione identificate dagli analisti di NewsGuard e diffuse dai media russi, cinesi e iraniani tra il giugno 2023 e il gennaio 2025. Tra queste affermazioni, che sulla base dell\u2019analisi e delle verifiche condotte da NewsGuard sono \u201cdimostrabilmente false\u201d, si annoverano le seguenti: che alcune ville bruciate negli incendi del 2025 nella California meridionale sarebbero di propriet\u00e0 di ufficiali ucraini, che gli Stati Uniti gestirebbero un laboratorio segreto di armi biologiche in Kazakistan e che Donald Trump avrebbe definito l&#8217;Iran una \u201cnazione potente\u201d nel suo libro del 2015 \u201cCrippled America\u201d.&nbsp;<\/p>\n\n\n\n<p>NewsGuard ha identificato <strong>457<\/strong> post sulle piattaforme di Meta che promuovevano queste 30 narrazioni false. Di questi, 253 post includevano disinformazione iraniana, 170 disinformazione russa e 34 disinformazione cinese (e solo uno di questi ultimi presentava un&#8217;etichetta di fact-checking). In totale, solo <strong>66<\/strong> di questi post (cio\u00e8 il <strong>14%<\/strong>) riportavano un&#8217;etichetta di fact-checking, il che significa che <strong>391<\/strong> post (cio\u00e8 l\u2019<strong>86<\/strong>%) erano privi di qualsiasi avvertenza sulla presenza di disinformazione sponsorizzata da uno Stato estero.<\/p>\n\n\n\n<p>Le cinque narrazioni false pi\u00f9 comuni apparse sulle piattaforme di Meta sono state le seguenti:<\/p>\n\n\n\n<ul class=\"wp-block-list\"><li>Secondo la Reuters, l&#8217;ambasciatore di Israele a Cipro e le sue due guardie del corpo sono stati rapiti (116 post).<\/li><li>Il noto scienziato chimico siriano Hamdi Ismail Nada \u00e8 stato assassinato a Damasco (61 post).<\/li><li>L&#8217;attore Johnny Depp e la modella russa Yulia Vlasova stanno aprendo una gioielleria a Mosca (57 post).<\/li><li>Il presidente siriano Bashar al-Assad \u00e8 deceduto in un incidente aereo (41 post).<\/li><li>La Germania intende accogliere 1,9 milioni di lavoratori kenioti (37 post).<\/li><\/ul>\n\n\n\n<p>NewsGuard ha inviato due email a Meta per chiedere un commento sui risultati di questo report, ma non ha ricevuto risposta.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2025\/01\/image-12.png\" alt=\"\" class=\"wp-image-188154\"\/><\/figure>\n\n\n\n<p><em>Un grafico che mostra i post con affermazioni false per Paese d&#8217;origine, diffusi senza un&#8217;etichetta di fact-checking, rispetto a quelli segnalati con un&#8217;etichetta. (Grafico di NewsGuard)<\/em><\/p>\n\n\n\n<p><strong>Un processo difettoso: l&#8217;algoritmo di Meta non tiene conto delle diverse formulazioni<\/strong><\/p>\n\n\n\n<p>Meta <a href=\"https:\/\/transparency.meta.com\/features\/how-fact-checking-works\">afferma<\/a> sul suo sito che, dopo che un partner indipendente verifica un post falso su una delle sue piattaforme, l\u2019azienda utilizza una tecnologia specifica per cercare altri post con frasi \u201cquasi identiche\u201d, in modo da applicare le etichette di fact-checking ad altri post che ripropongono la stessa affermazione falsa. Tuttavia, il sito spiega anche che Meta applica le valutazioni soltanto a post \u201cuguali o quasi identici\u201d a quello originariamente sottoposto a fact-checking.<\/p>\n\n\n\n<p>\u201cIn genere non aggiungiamo avvisi ai contenuti con affermazioni simili a quelle valutate dai fact-checker, se i contenuti non sono identici\u201d, <a href=\"https:\/\/transparency.meta.com\/en-gb\/features\/how-fact-checking-works\/\">spiega<\/a> Meta. Ci\u00f2 significa che se un&#8217;affermazione falsa viene riformulata o parafrasata, potrebbe non riportare alcuna avvertenza ai lettori, pratica che consente a versioni leggermente modificate dello stesso contenuto di misinformazione di diffondersi senza alcun controllo.<\/p>\n\n\n\n<p>Quando NewsGuard ha chiesto a Meta se la stessa metodologia, che ha fornito una soluzione nel 14% dei casi, e le stesse regole impiegate nel programma di fact-checking verranno applicate alle note della comunit\u00e0, e quindi se le note verranno aggiunte solo ad affermazioni \u201cuguali o quasi uguali\u201d a quella originariamente verificata, l&#8217;ufficio stampa di Meta ha rifiutato di commentare. Il sito di Meta nella sezione in cui annuncia il passaggio alle note della comunit\u00e0 afferma: \u201cMeta non scrive le note della comunit\u00e0 n\u00e9 decide quali vengono pubblicate. Sono scritte e valutate dagli utenti che vi contribuiscono&#8230; Le note della comunit\u00e0 richiederanno un accordo tra persone con diversi punti di vista per evitare valutazioni distorte\u201d.&nbsp;<br><br>Alla domanda su come si possa raggiungere un accordo tra persone con \u201cdiversi punti di vista\u201d per ottenere una nota della comunit\u00e0 se tali punti di vista includono utenti che promuovono una narrazione di propaganda russa ed altri che non credono a tale narrazione, Meta non ha risposto.<\/p>\n\n\n\n<p><strong>Una bufala su Hamas viene corretta, 113 post con la stessa affermazione no<\/strong><\/p>\n\n\n\n<p>Per quanto riguarda 10 delle 30 narrazioni esaminate da NewsGuard, Meta ha etichettato uno o pi\u00f9 post che promuovevano la narrazione, ma ha lasciato senza segnalazione decine di altri post contenenti la stessa affermazione falsa, anche se con una formulazione diversa.<\/p>\n\n\n\n<p>Ad esempio, i partner di Meta per il fact-checking, tra cui il team di fact-checking arabo dell&#8217;Agence France-Presse (AFP), <a href=\"https:\/\/factcheckarabic.afp.com\/doc.afp.com.36HX447\">hanno smentito<\/a> l&#8217;affermazione secondo cui Reuters avrebbe riferito che Oren Anolik, ambasciatore di Israele a Cipro, e le sue due guardie del corpo erano stati rapiti. La notizia faceva parte di un pi\u00f9 ampio sforzo di disinformazione da parte dell&#8217;Iran per dipingere come ben riusciti gli attacchi dell&#8217;Iran e dei suoi alleati Hezbollah e Hamas. Il post etichettato come falso affermava: \u201cI media dell&#8217;occupazione danno notizia del rapimento dell&#8217;ambasciatore israeliano a Cipro e di due suoi compagni\u201d.<\/p>\n\n\n\n<p>L&#8217;ambasciatore Anolik ha smentito l&#8217;affermazione in un video pubblicato su X e Reuters ha rilasciato una dichiarazione in cui afferma di non aver mai riportato una notizia simile.<\/p>\n\n\n\n<p>Ciononostante, NewsGuard ha trovato altri <strong>113<\/strong> post su Facebook, Instagram e Threads che promuovevano questa affermazione con formulazioni diverse che non sono stati segnalati da Meta, come ad esempio: \u201cReuters: L&#8217;ambasciatore israeliano a Cipro e due membri del suo entourage rapiti e condotti verso una destinazione sconosciuta\u201d. Il post che \u00e8 stato sottoposto a fact-checking dall&#8217;AFP ed etichettato come \u201cFalso\u201d da Meta ha generato 3.000 like, mentre i 113 post che non riportavano l&#8217;etichetta di fact-checking hanno generato complessivamente <strong>21.720 like<\/strong>.<\/p>\n\n\n\n<p>Mentre la maggior parte dei post non etichettati identificati dall\u2019analisi di NewsGuard proveniva da account filorussi, iraniani e cinesi gestiti da utenti anonimi, 12 dei post che promuovevano affermazioni false sono stati pubblicati dagli account di testate controllate dallo Stato, come&nbsp; HispanTV, a gestione statale iraniana, e Chinese News Service, anch\u2019esso a gestione statale e un tempo parte dell\u2019agenzia di stampa cinese Xinhua, oltre agli account delle ambasciate russe.<\/p>\n\n\n\n<p><strong>Errori clamorosi: \u201cMigrante del Ciad stupra una 12enne francese\u201d, \u201cTaylor Swift si scaglia contro Taiwan\u201d<\/strong><\/p>\n\n\n\n<p>Al di l\u00e0 delle limitazioni dell&#8217;algoritmo di Meta, alcuni dei post identificati da NewsGuard in quanto contenenti disinformazione non sembrano essere stati verificati dai partner terzi di Meta.<\/p>\n\n\n\n<p>Ad esempio, NewsGuard ha identificato tre post che hanno generato complessivamente <strong>7.000<\/strong> like e che contenevano un video che mostrava un migrante proveniente dal Ciad che si scontrava con due uomini francesi dopo essere stato arrestato (e poi rilasciato) dalla polizia francese per aver violentato una ragazzina di 12 anni. Il video sembrava essere destinato a fomentare sentimenti anti-immigrazione in Francia.<\/p>\n\n\n\n<p>Tuttavia, non vi \u00e8 alcuna prova che un migrante proveniente dal Ciad sia stato arrestato e rilasciato dalle autorit\u00e0 francesi dopo aver confessato di aver stuprato una bambina di 12 anni in Francia. Non \u00e8 stato riportato alcun episodio del genere. Un funzionario della sicurezza francese ha dichiarato a NewsGuard nel dicembre 2024 che il video era una messinscena nell\u2019ambito di un&#8217;operazione di influenza russa, denominata da Microsoft Storm-1516. NewsGuard non ha trovato alcun fact-checking di questa notizia da parte dei partner terzi di Meta.<\/p>\n\n\n\n<p>Allo stesso modo, NewsGuard ha identificato quattro post non etichettati e pubblicati sulle piattaforme di Meta da utenti pro-Cina, che miravano a promuovere le rivendicazioni di sovranit\u00e0 di Pechino su Taiwan. I post includevano l\u2019affermazione falsa secondo cui Google Maps avesse cambiato il nome di Taiwan in \u201cProvincia di Taiwan\u201d.<\/p>\n\n\n\n<p>Un portavoce di Google ha dichiarato a NewsGuard in un&#8217;email del dicembre 2024: \u201cNon abbiamo apportato alcuna modifica alla rappresentazione di Taiwan su Google Maps. Le persone che utilizzano Maps nella Cina continentale vedono \u2018Provincia di Taiwan\u2019, in quanto tale nome \u00e8 richiesto dalla legge locale, mentre altrove vedono \u2018Taiwan\u2019\u201d. NewsGuard non ha trovato alcun fact-checking riguardante questa affermazione su nessuna delle piattaforme Meta.<\/p>\n\n\n\n<p>Un altro esempio di affermazione falsa che \u00e8 passata completamente sotto silenzio sulle piattaforme di Meta riguarda la pubblicazione, da parte di alcuni account pro-Cina, di un&#8217;immagine generata dall&#8217;intelligenza artificiale che mostrava la cantante pop Taylor Swift con in mano un cartello con la scritta \u201cTaiwan \u00e8 una provincia cinese\u201d. (A parte il fatto che l&#8217;immagine \u00e8 falsa, Swift non ha fatto alcuna dichiarazione che appoggi la politica di Pechino \u201cUna sola Cina\u201d). NewsGuard ha individuato sette post di questo tipo su Facebook, Instagram e Threads che, insieme, hanno generato 677 like.&nbsp;<\/p>\n\n\n\n<p><strong>Successi sporadici<\/strong><\/p>\n\n\n\n<p>In alcuni casi, il programma sembra essere stato piuttosto efficace nell\u2019impedire che narrazioni false potessero raggiungere un pubblico pi\u00f9 ampio. Ad esempio, a met\u00e0 dicembre 2024, fonti pro-Cremlino su Facebook hanno condiviso un articolo in cui si sosteneva erroneamente che il governo tedesco avesse firmato un accordo che permetteva a 1,9 milioni di migranti kenioti di entrare in Germania per motivi di lavoro. Dei 36 post che sostenevano questa affermazione, 20 sono stati segnalati da Facebook come \u201cinformazioni false\u201d, indirizzando gli utenti a un <a href=\"https:\/\/dpa-factchecking.com\/germany\/250107-99-512218\/?fbclid=IwY2xjawH17vZleHRuA2FlbQIxMAABHXpqfP5ISAevYO4wmdlUXxLCYRmMQaL5U9P03YYLGTZej0jUxejt2dLYfw_aem_lAF-w3pbh7NGtbK-AoCizw\">articolo<\/a> di fact-checking dell&#8217;agenzia di stampa tedesca DPA che informava i lettori che l&#8217;affermazione in realt\u00e0 distorceva un accordo esistente tra Germania e Kenya.<\/p>\n\n\n\n<p>La narrazione falsa, parte di un pi\u00f9 ampio sforzo di disinformazione russa in vista delle elezioni anticipate del 23 febbraio 2025 in Germania, ricorda molto l&#8217;operato di <a href=\"https:\/\/www.newsguardtech.com\/special-reports\/john-mark-dougan-russian-disinformation-network\/\">John Mark Dougan<\/a>, un ex vice sceriffo di una contea della Florida diventato propagandista del Cremlino e fuggito in Russia. I 36 post di Facebook hanno ottenuto complessivamente solo 173 visualizzazioni, il che fa pensare che l&#8217;algoritmo di Facebook potrebbe averne limitato la diffusione.<\/p>\n\n\n\n<p>Come suggeriscono questi risultati, anche con il programma di fact-checking, gli attori stranieri malintenzionati hanno trovato il modo di sfruttare le piattaforme di Meta. Ora, per\u00f2, anche i successi del programma &#8211; come la segnalazione delle narrative di disinformazione russa che hanno come obiettivo le prossime elezioni tedesche &#8211; rischiano di scomparire. Lasciando il posto a un sistema di note della comunit\u00e0 che sembra essere ancora meno efficace.<\/p>\n\n\n\n<p><em>Metodologia: NewsGuard ha selezionato 30 Misinformation Fingerprint (10 di origine russa, 10 iraniana e 10 cinese). L&#8217;analisi di NewsGuard ha riguardato i post condivisi a partire dal momento in cui la narrazione \u00e8 emersa per la prima volta &#8211; il primo risale al giugno 2023 &#8211; fino al 13 gennaio 2025. Date le difficolt\u00e0 poste dall&#8217;interruzione di CrowdTangle da parte di Meta &#8211; uno strumento precedentemente utilizzato dai ricercatori per tracciare i contenuti sulle sue piattaforme &#8211; NewsGuard ha condotto una ricerca manuale completa, utilizzando i termini di ricerca e le parole chiave inclusi nei suoi Misinformation Fingerprint in diverse lingue, tra cui inglese, russo, cinese, persiano e arabo. I post sono stati classificati come etichettati se riportavano una delle classificazioni di fact-checking utilizzati da Meta, come \u201cFalso\u201d, \u201cAlterato\u201d, \u201cParzialmente falso\u201d, \u201cPrivo di contesto\u201d o \u201cSatira\u201d. I post privi di tali etichette sono stati classificati come non etichettati. NewsGuard ha ricercato tutti i post che sostenevano queste affermazioni false, indipendentemente dal fatto che provenissero da fonti sponsorizzate dallo Stato o da account individuali. \u00c8 possibile che l&#8217;analisi di NewsGuard abbia tralasciato dei post a causa dei limiti nelle capacit\u00e0 di ricerca e della possibilit\u00e0 che i post siano stati cancellati prima di essere intercettati.<\/em><\/p>\n\n\n\n<p><em>Supervisionato da <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/dina-contini\/\"><em>Dina Contini<\/em><\/a><em> e <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/eric-effron\/\"><em>Eric Effron<\/em><\/a><\/p>\n\n\n\n<p><em>A cura di<\/em> <a href=\"https:\/\/www.newsguardtech.com\/about\/team\/dimitris-dimitriadis\/\"><\/a><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/dimitris-dimitriadis\/\"><em>Dimitris Dimitriadis<\/em><\/a>,<a href=\"https:\/\/www.newsguardtech.com\/about\/team\/eva-maitland\/\"> <em>Eva Maitland<\/em><\/a><em> e<\/em> <a href=\"https:\/\/www.newsguardtech.com\/about\/team\/mckenzie-sadeghi\/\"><\/a><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/mckenzie-sadeghi\/\"><em>McKenzie Sadeghi<\/em><\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Le falle del programma potrebbero estendersi anche al sistema delle community notes, portando a risultati persino peggiori<\/p>\n","protected":false},"author":132,"featured_media":189281,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2616],"tags":[4620],"class_list":["post-188152","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-approfondimenti","tag-newsguard"],"acf":{"share_this_post_to_edmo_website":false,"type_of_post":false,"options_for_news_post":{"":""},"options_for_event_post":{"event_start_date":null,"event_end_date":null,"event_location":"","event_programme":""},"options_for_report_post":{"post_author":"","report_type":false,"report_pdf_link":""},"options_for_investigation_post":{"post_author":""},"affiliation":false},"_links":{"self":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/188152","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/comments?post=188152"}],"version-history":[{"count":1,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/188152\/revisions"}],"predecessor-version":[{"id":189283,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/188152\/revisions\/189283"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media\/189281"}],"wp:attachment":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media?parent=188152"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/categories?post=188152"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/tags?post=188152"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}