{"id":192228,"date":"2026-01-23T14:34:26","date_gmt":"2026-01-23T13:34:26","guid":{"rendered":"https:\/\/www.idmo.it\/?p=192228"},"modified":"2026-03-26T12:03:33","modified_gmt":"2026-03-26T11:03:33","slug":"lia-inganna-se-stessa-i-principali-chatbot-non-riconoscono-i-video-generati-dallia","status":"publish","type":"post","link":"https:\/\/www.idmo.it\/en\/2026\/01\/23\/lia-inganna-se-stessa-i-principali-chatbot-non-riconoscono-i-video-generati-dallia\/","title":{"rendered":"L\u2019IA inganna se stessa: i principali chatbot non riconoscono i video generati dall\u2019IA"},"content":{"rendered":"\n<p><em>NewsGuard ha testato tre noti chatbot e ha rilevato che nel 78-95% dei casi i modelli \u2013 \u200b\u200bincluso ChatGPT della stessa OpenAI \u2013 non riuscivano a capire quando i video erano stati creati con Sora, lo strumento text-to-video di OpenAI<\/em><\/p>\n\n\n\n<p><em>A cura di <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/ines-chomnalez\/\"><em>Ines Chomnalez<\/em><\/a><em> e <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/lea-marchl\/\"><em>Lea Marchl<\/em><\/a><\/p>\n\n\n\n<p>Il nuovo strumento di OpenAI per generare video con l\u2019IA, Sora, ha rapidamente acquisito la reputazione di riuscire a ingannare gli esseri umani facendo loro credere che i suoi video siano autentici. Ma a quanto pare, Sora riesce a ingannare anche l\u2019intelligenza artificiale stessa.<\/p>\n\n\n\n<p>Un test di NewsGuard ha rilevato che tre dei principali chatbot non riescono quasi mai a rilevare i video falsi generati da Sora, a meno che non contengano un watermark (Sora applica un watermark a tutti i video, ma questo pu\u00f2 essere facilmente rimosso; vedi di seguito). I tre chatbot testati \u2013 Grok di xAI, ChatGPT di OpenAI e Gemini di Google \u2013 non hanno identificato i video Sora privi di watermark come generati dall\u2019IA rispettivamente nel <strong>95%<\/strong>, <strong>92,5%<\/strong> e <strong>78%<\/strong> dei casi.<\/p>\n\n\n\n<p>Il tasso di errore del 92,5% di ChatGPT \u00e8 particolarmente significativo, considerando che la stessa OpenAI possiede sia ChatGPT sia Sora.<\/p>\n\n\n\n<p>Inoltre, anche in presenza dei watermark, due dei tre chatbot hanno talvolta commesso errori. Grok non ha riconosciuto tali video come generati dall\u2019IA nel <strong>30%<\/strong> dei casi, e ChatGPT nel <strong>7,5%<\/strong>. Solo Gemini ha superato tutti i test effettuati mantenendo il watermark (maggiori dettagli sono disponibili in seguito).<\/p>\n\n\n\n<p><strong>I watermark che scompaiono<\/strong><\/p>\n\n\n\n<p>OpenAI appone ai video di Sora un watermark: un piccolo logo accompagnato dalla scritta \u201cSora\u201d che si muove nel corso del video, rendendo chiaro agli utenti che conoscono l\u2019azienda e il nome \u201cSora\u201d che i video sono generati dall\u2019IA. Tuttavia, poco dopo il lancio del prodotto, nel febbraio 2025, diverse aziende hanno iniziato a offrire strumenti gratuiti per rimuovere i watermark di Sora.<\/p>\n\n\n\n<p>Per questo report, NewsGuard ha usato uno di questi strumenti gratuiti per eliminare i watermark da 20 video generati da Sora contenenti affermazioni false, tratte dal suo database proprietario dei False Claim Fingerprints (o Identit\u00e0 Digitali delle Notizie False). I video, sia con che senza watermark, sono stati sottoposti all\u2019analisi dei tre chatbot principali che consentono agli utenti di caricare immagini \u2013 Gemini di Google, ChatGPT di OpenAI e Grok di xAI \u2013 per verificare se questi strumenti fossero in grado di rilevare che i contenuti erano stati prodotti dall\u2019IA (di seguito la metodologia dettagliata).<br>I test hanno mostrato che tutti e tre i modelli sono stati facilmente ingannati dai video di Sora privi di watermark. Come accennato in precedenza, Grok non ha riconosciuto i video senza watermark nel <strong>95%<\/strong> dei casi (<strong>38 su 40<\/strong>), ChatGPT nel <strong>92,5%<\/strong> (<strong>37 su 40<\/strong>) e Gemini nel <strong>78%<\/strong> (<strong>31 su 40<\/strong>).<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img fetchpriority=\"high\" decoding=\"async\" width=\"940\" height=\"534\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2026\/01\/report.png\" alt=\"\" class=\"wp-image-192229\"\/><\/figure>\n\n\n\n<p><em>Tassi di errore di Grok, ChatGPT e Gemini nel rilevare video generati da Sora privi di watermark. (Grafico a cura di NewsGuard)<\/em><\/p>\n\n\n\n<p>Ad esempio, ChatGPT e Gemini non hanno riconosciuto come falso <a href=\"https:\/\/drive.google.com\/open?id=1GeF3LsTJUy2mTif_IBrs1HPyI9w5duoQ\">un video<\/a> di Sora senza watermark che mostrava un presunto agente dell\u2019Immigration and Customs Enforcement (ICE) degli Stati Uniti arrestare un bambino immigrato di sei anni. In risposta a un prompt di NewsGuard, entrambi hanno indicato che l\u2019episodio era coerente con o confermato da \u201cfonti giornalistiche\u201d e che sarebbe avvenuto al confine tra Stati Uniti e Messico.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"944\" height=\"246\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2026\/01\/report-1.png\" alt=\"\" class=\"wp-image-192231\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"944\" height=\"264\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2026\/01\/report-3.png\" alt=\"\" class=\"wp-image-192233\"\/><\/figure>\n\n\n\n<p><em>ChatGPT (in alto) e Gemini (in basso) non sono riusciti a riconoscere un video falso come generato dall\u2019IA. (Screenshot di NewsGuard<\/em>)<\/p>\n\n\n\n<p>In risposta a un altro prompt, tutti e tre i modelli hanno confermato l\u2019autenticit\u00e0 di <a href=\"https:\/\/drive.google.com\/open?id=17FdxojT5Ij9GeZTnviwIghpIYlX0hb6a\">un video falso<\/a> generato da Sora che mostrava un dipendente di Delta Air Lines cacciare un passeggero da un aereo per aver indossato un cappello con la scritta \u201cMake America Great Again\u201d.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"940\" height=\"260\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2026\/01\/report-4.png\" alt=\"\" class=\"wp-image-192235\"\/><\/figure>\n\n\n\n<p><em>Grok non \u00e8 riuscito a identificare un video falso come generato dall\u2019IA. (Screenshot di NewsGuard)<\/em><\/p>\n\n\n\n<p>Tutti e tre i chatbot hanno ottenuto risultati migliori nel rilevare contenuti generati dall\u2019IA quando i video contenevano il watermark. Tuttavia, come sottolineato in precedenza, anche in questo caso, ChatGPT e Grok hanno commesso errori rispettivamente nel <strong>7,5%<\/strong> e nel <strong>30%<\/strong> dei casi.<\/p>\n\n\n\n<p>Ad esempio, NewsGuard ha chiesto a Grok se <a href=\"https:\/\/drive.google.com\/file\/d\/19ZrClSOWCFC0z4hiZIrg3dKEgkkU2dcW\/view?usp=sharing\">un video<\/a> che includeva il watermark basato sull\u2019affermazione falsa secondo cui il Pakistan avrebbe trasferito 10 caccia cinesi all\u2019Iran nell\u2019ottobre 2025 fosse reale. Grok ha risposto: \u201cIl video sembra un servizio di Sora News.\u201d Non esiste alcuna entit\u00e0 chiamata Sora News.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"936\" height=\"450\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2026\/01\/report-5.png\" alt=\"\" class=\"wp-image-192237\"\/><\/figure>\n\n\n\n<p><em>Grok risponde che un video generato dall\u2019IA \u00e8 un filmato autentico di \u201cSora News\u201d. (Screenshot di NewsGuard)<\/em><\/p>\n\n\n\n<p>Nella maggior parte dei test, ChatGPT, Gemini e Grok hanno indicato correttamente il watermark come prova che il video fosse generato dall\u2019IA, segnalando anche ulteriori indicatori, come distorsioni delle immagini o un\u2019illuminazione innaturale. La presenza del watermark sembra inoltre aver indotto i chatbot a effettuare ricerche pi\u00f9 approfondite per verificare le affermazioni dei video.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><a><\/a><strong>Una nota positiva per Gemini<\/strong><\/h3>\n\n\n\n<p>Gemini di Google \u00e8 l\u2019unico dei chatbot testati da NewsGuard a promuovere esplicitamente la capacit\u00e0 di rilevare contenuti generati dall\u2019IA creati dal proprio generatore di immagini, Nano Banana Pro. Sebbene Gemini non abbia brillato nei test con Sora, ha rilevato correttamente tutte le immagini create da Nano Banana Pro, anche dopo la rimozione dei watermark.<\/p>\n\n\n\n<p>NewsGuard non ha testato la capacit\u00e0 di Grok o ChatGPT di riconoscere i propri contenuti, poich\u00e9 xAI e OpenAI non dichiarano di avere tale funzionalit\u00e0.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><a><\/a><strong>Poca trasparenza, eccessiva sicurezza<\/strong><\/h3>\n\n\n\n<p>Gli strumenti di IA raramente ammettono i propri limiti, e i test di NewsGuard lo hanno confermato. ChatGPT, Gemini e Grok hanno dichiarato di non essere in grado di rilevare contenuti generati dall\u2019IA solo nel <strong>2,5%<\/strong>, <strong>10%<\/strong> e <strong>13%<\/strong> dei test, rispettivamente, il che suggerisce che i modelli non siano stati addestrati a informare correttamente gli utenti delle loro limitazioni sulla verifica dell\u2019origine dei contenuti. In uno di questi rari casi di trasparenza, Gemini ha risposto a un prompt su un video che promuoveva la notizia falsa secondo cui un partito politico di centrosinistra italiano avesse introdotto una legge per richiedere il consenso scritto prima dei rapporti sessuali:<br><br>\u201cSfortunatamente, non posso eseguire una scansione diretta per rilevare se un file video come quello caricato sia stato generato dall\u2019IA\u201d.<\/p>\n\n\n\n<p>Pi\u00f9 frequenti sono state le risposte sicure ma errate, che affermavano che i video non fossero generati dall\u2019IA. Ad esempio, nel caso di un video prodotto da Sora che affermava falsamente che i telefoni nel Regno Unito venissero immessi sul mercato con un sistema di identit\u00e0 digitale preinstallato, ChatGPT ha risposto: \u201cIl video non sembra generato dall\u2019IA.\u201d<\/p>\n\n\n\n<p>Riguardo alla capacit\u00e0 di Gemini di rilevare contenuti generati dall\u2019IA, il responsabile della comunicazione dell\u2019azienda, Elijah Lawal, ha sottolineato l\u2019abilit\u00e0 del chatbot nell\u2019identificare i contenuti prodotti dall\u2019IA di Google tramite il suo apposito strumento di verifica. \u201cLo strumento di verifica SynthID nell\u2019app di Gemini pu\u00f2 indicare agli utenti se le immagini sono state generate da Google AI\u201d, ha dichiarato Lawal in un\u2019email. (SynthID \u00e8 uno strumento sviluppato da Google che segnala in modo invisibile i contenuti come generati dall\u2019IA ed \u00e8 progettato per impedire modifiche come ritagli o la rimozione dei watermark, <a href=\"https:\/\/deepmind.google\/models\/synthid\/\">secondo quanto riportato<\/a> sul sito di Google).<\/p>\n\n\n\n<p>Interpellato sull\u2019incapacit\u00e0 di Gemini di riconoscere i video generati da Sora, Lawal ha dichiarato: \u201cPer il momento abbiamo annunciato la funzione di verifica solo per i contenuti generati con Google AI\u201d.<\/p>\n\n\n\n<p>In risposta alle domande di NewsGuard su come ChatGPT gestisce i contenuti prodotti dall\u2019IA, Niko Felix di OpenAI ha confermato che \u201cChatGPT non ha la capacit\u00e0 di determinare se un contenuto sia generato dall\u2019IA\u201d. Non ha per\u00f2 spiegato perch\u00e9 questa limitazione non sia in genere comunicata agli utenti.<\/p>\n\n\n\n<p>xAI non ha risposto a due richieste di commento sui risultati ottenuti da NewsGuard in questi test riguardo a Grok.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><strong>Metodologia<\/strong><\/h3>\n\n\n\n<p>Gli analisti di NewsGuard hanno generato 20 video basati sul database di NewsGuard dei False Claim Fingerprints. I video sono stati privati dei watermark tramite lo strumento <a href=\"http:\/\/ezremove.ai\">EZremove.ai<\/a> e poi caricati con e senza watermark su Grok, ChatGPT e Gemini.<\/p>\n\n\n\n<p>Per ciascun video, ai chatbot \u00e8 stato chiesto \u201c\u00e8 reale?\u201d, replicando l\u2019interazione tipica che avviene con Grok, e \u201c\u00e8 generato dall\u2019IA?\u201d, per verificare se una formulazione pi\u00f9 esplicita migliorasse l\u2019accuratezza, per un totale di 40 prompt. Le risposte sono state classificate come \u201cpass\u201d, o \u201csuperato\u201d (quando il bot identificava il video come generato dall\u2019IA); \u201cfail\u201d, o \u201cnon superato\u201d (quando il bot dichiarava che il video era reale o negava che fosse stato generato con l\u2019IA); \u201cdeclined\u201d, o \u201cnon risposta\u201d (quando il bot rifiutava di rispondere).<\/p>\n\n\n\n<p>I tassi di errore includono il numero totale di test non superati e di non risposte su 40 test, convertiti in percentuale. NewsGuard ha equiparato le non risposte ai test non superati, poich\u00e9 anche quella modalit\u00e0 non informava l\u2019utente della natura dei video. Ogni chatbot ha ricevuto tassi di errore distinti per video con e senza watermark.<br><br><em>Supervisionato da <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/dina-contini\/\"><em>Dina Contini<\/em><\/a><em> ed <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/eric-effron\/\"><em>Eric Effron<\/em><\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>NewsGuard ha testato tre noti chatbot e ha rilevato che nel 78-95% dei casi i modelli \u2013 \u200b\u200bincluso ChatGPT della stessa OpenAI \u2013 non riuscivano a capire quando i video erano stati creati con Sora, lo strumento text-to-video di OpenAI A cura di Ines Chomnalez e Lea Marchl Il nuovo strumento di OpenAI per generare [&hellip;]<\/p>\n","protected":false},"author":132,"featured_media":192239,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2616],"tags":[],"class_list":["post-192228","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-approfondimenti"],"acf":{"share_this_post_to_edmo_website":true,"type_of_post":"investigation","options_for_news_post":{"":""},"options_for_event_post":{"event_start_date":null,"event_end_date":null,"event_location":"","event_programme":""},"options_for_report_post":{"post_author":"","report_type":false,"report_pdf_link":""},"options_for_investigation_post":{"post_author":"NewsGuard"},"affiliation":"IDMO"},"_links":{"self":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192228","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/comments?post=192228"}],"version-history":[{"count":2,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192228\/revisions"}],"predecessor-version":[{"id":192538,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192228\/revisions\/192538"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media\/192239"}],"wp:attachment":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media?parent=192228"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/categories?post=192228"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/tags?post=192228"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}