{"id":192651,"date":"2026-05-11T16:50:06","date_gmt":"2026-05-11T14:50:06","guid":{"rendered":"https:\/\/www.idmo.it\/?p=192651"},"modified":"2026-05-11T16:59:27","modified_gmt":"2026-05-11T14:59:27","slug":"i-principali-strumenti-di-rilevamento-delle-immagini-ia-ingannano-gli-utenti-online-spesso-classificando-come-false-immagini-autentiche","status":"publish","type":"post","link":"https:\/\/www.idmo.it\/en\/2026\/05\/11\/i-principali-strumenti-di-rilevamento-delle-immagini-ia-ingannano-gli-utenti-online-spesso-classificando-come-false-immagini-autentiche\/","title":{"rendered":"I principali strumenti di rilevamento delle immagini IA ingannano gli utenti online, spesso classificando come false immagini autentiche"},"content":{"rendered":"\n<p><em>A cura di <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/isis-blachez\/\"><em>Isis Blachez<\/em><\/a><em>, <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/sofia-rubinson\/\"><em>Sofia Rubinson<\/em><\/a><em> e <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/ines-chomnalez\/\"><em>Ines Chomnalez<\/em><\/a><strong><\/strong><\/p>\n\n\n\n<p>\u00c8 noto come gli strumenti di rilevamento dell\u2019IA talvolta identifichino erroneamente immagini generate dall\u2019intelligenza artificiale come autentiche, ma un nuovo audit di NewsGuard sui principali modelli di rilevamento ha evidenziato quella che potrebbe essere una debolezza ancora pi\u00f9 preoccupante: tre dei cinque strumenti testati vengono spesso ingannati da immagini <em>reali<\/em>. Secondo i risultati di NewsGuard, nel complesso gli strumenti hanno classificato immagini autentiche come generate dall\u2019IA nel <strong>13,33%<\/strong> dei casi. Uno strumento ha sbagliato nel <strong>40%<\/strong> dei casi.<\/p>\n\n\n\n<p>Questa vulnerabilit\u00e0 potrebbe avere conseguenze concrete importanti, perch\u00e9 offre ad attori malintenzionati l\u2019opportunit\u00e0 di mettere in dubbio la realt\u00e0 stessa, usando i risultati di uno strumento di rilevamento per sostenere che un\u2019immagine autentica sia falsa. Inoltre, finisce per danneggiare chi pubblica contenuti reali.<\/p>\n\n\n\n<p>Tra la fine di aprile e l\u2019inizio di maggio 2026, NewsGuard ha testato 15 fotografie autentiche relative alla guerra tra Stati Uniti e Iran pubblicate da fonti credibili, sottoponendole a cinque tra i principali modelli di rilevamento dell\u2019IA: Hive, AI or Not, ZeroGPT, Sightengine e ScamAI. Tutti e cinque gli strumenti si presentano come in grado di distinguere immagini generate dall\u2019IA da immagini autentiche.<\/p>\n\n\n\n<p>Tra i cinque modelli, ScamAI, che <a href=\"https:\/\/www.scam.ai\/en\">sul proprio sito<\/a> si attribuisce un\u2019\u201caccuratezza leader del settore\u201d, \u00e8 stato quello che ha classificato erroneamente pi\u00f9 immagini, presentando come generate dall\u2019IA <strong>sei immagini autentiche su 15<\/strong> (<strong>40%<\/strong>). ZeroGPT ha classificato <strong>tre delle 15 immagini reali<\/strong> (<strong>20%<\/strong>) come false, mentre AI or Not \u00e8 stato ingannato una sola volta (6,67%). Hive e Sightengine hanno invece identificato correttamente tutte e 15 le immagini autentiche come reali.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img fetchpriority=\"high\" decoding=\"async\" width=\"936\" height=\"324\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2026\/05\/report-1.png\" alt=\"\" class=\"wp-image-192652\"\/><\/figure>\n\n\n\n<p><em>Percentuali di immagini reali classificate come generate dall\u2019IA dai cinque strumenti di rilevamento.<\/em><\/p>\n\n\n\n<p>Il cofondatore di ScamAI, Dennis Ng, in una videointervista del 6 maggio 2026 con NewsGuard, ha riconosciuto che possono verificarsi falsi positivi, spiegando che uno dei motivi per cui gli strumenti di rilevamento possono essere ingannati \u00e8 che generalmente necessitano di alta risoluzione e di un elevato livello di pixel per identificare un\u2019immagine reale. \u201cPossiamo certamente adattare e perfezionare i nostri modelli in base a casi d\u2019uso specifici per contribuire a ridurre questi episodi\u201d, ha dichiarato Dennis. (<a href=\"https:\/\/www.scam.ai\/en\">Il sito di ScamAI<\/a> precisa: \u201cL\u2019accuratezza varia in base al tipo di contenuto e alla tecnica di attacco\u201d, aggiungendo che il modello raggiunge generalmente una \u201caccuratezza di rilevamento del 95,3%\u201d).<\/p>\n\n\n\n<p>Il CEO di ZeroGPT, Rawad Baroud, ha dichiarato a NewsGuard in un\u2019email del 6 maggio 2026 che tecniche di elaborazione delle immagini come il ridimensionamento e la compressione possono portare a classificare erroneamente contenuti reali come generati dall\u2019IA. Ha aggiunto che immagini \u201cche presentano caratteristiche visive simili a quelle sintetiche\u201d, come illuminazione insolita, forte contrasto e sfocatura, possono produrre risultati inaccurati. \u201cLe immagini giornalistiche provenienti da zone di conflitto presentano spesso molte di queste caratteristiche\u201d, ha affermato.<\/p>\n\n\n\n<p>Sebbene ZeroGPT non divulghi la percentuale di accuratezza del proprio rilevatore di immagini, l\u2019azienda afferma <a href=\"https:\/\/www.zerogpt.com\/ai-image-detector\">sul suo sito<\/a> che lo strumento serve a \u201cprendere decisioni informate sull\u2019autenticit\u00e0 dell\u2019immagine\u201d.<\/p>\n\n\n\n<p>Il CEO di AI or Not, Anatoly Kvitnitsky, ha dichiarato a NewsGuard in un\u2019email del 7 maggio 2026 che \u201cnel caso di un falso positivo, la bassa qualit\u00e0 dell\u2019immagine pu\u00f2 talvolta influenzare il risultato dell\u2019analisi\u201d. <a href=\"https:\/\/www.aiornot.com\/\">Sul proprio sito<\/a>, l\u2019azienda dichiara che il suo strumento presenta un\u2019\u201caccuratezza di rilevamento dell\u2019IA del 98,9%\u201d, basata sulla \u201cvalutazione da parte di AI or Not di un recente dataset accademico pubblico contenente immagini reali e generate dall\u2019IA\u201d.<br><br><strong>LE IMMAGINI DELLA GUERRA IN IRAN METTONO IN DIFFICOLT\u00c0 GLI STRUMENTI<\/strong><\/p>\n\n\n\n<p>Secondo <a href=\"https:\/\/www.newsguardtech.com\/it\/special-reports\/50-affermazioni-false-disinformazione-pro-iran-domina-il-campo-di-battaglia\/\">l\u2019analisi<\/a> di NewsGuard, la guerra in Iran del 2026 ha dato origine a un\u2019ondata di contenuti visivi sospetti sui social network: da immagini false di bombardamenti e citt\u00e0 distrutte fino a quelle che mostrano presunte simulazioni di decessi, tutti contenuti creati per manipolare la percezione pubblica.<\/p>\n\n\n\n<p>Attori malintenzionati hanno anche usato gli strumenti di rilevamento dell\u2019IA per gettare dubbi su immagini<em> autentiche<\/em> e delegittimare il lavoro giornalistico. <a href=\"https:\/\/www.newsguardrealitycheck.com\/p\/netanyahus-proof-of-life-video-is\">Un esempio<\/a> particolarmente noto di questo fenomeno \u00e8 stato il video autentico del primo ministro israeliano Benjamin Netanyahu in un caff\u00e8, pubblicato online per smentire le voci secondo cui sarebbe stato ucciso o gravemente ferito in un attacco missilistico iraniano.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"624\" height=\"564\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2026\/05\/report-2.jpg\" alt=\"\" class=\"wp-image-192654\"\/><\/figure>\n\n\n\n<p><em>Un utente di X cita l\u2019analisi dello strumento di rilevamento Hive (a destra) per sostenere falsamente che un video di Netanyahu (a sinistra) mentre beve un caff\u00e8 sia stato generato con l\u2019IA. (Screenshot di NewsGuard)<\/em><\/p>\n\n\n\n<p>Alcuni utenti hanno ripubblicato il filmato insieme ai risultati di un\u2019analisi effettuata con Hive, da cui il video risultava \u201cprobabilmente generato dall\u2019IA\u201d con una percentuale di probabilit\u00e0 del 96,9%. Utenti anti-Israele e filo-iraniani sui social network hanno quindi sostenuto che questa analisi fosse la prova che Netanyahu fosse in realt\u00e0 morto. In realt\u00e0, il confronto del video girato nel bar con altre immagini e video realizzati nello stesso luogo ha confermato l\u2019autenticit\u00e0 del filmato. Sembrerebbe che Hive sia stato indotto in errore da un filtro o da una leggera modifica al video, che ne ha sfocato leggermente lo sfondo. Hive non ha risposto a due email di NewsGuard che chiedevano un commento sulla vicenda.<\/p>\n\n\n\n<p><strong>MANIPOLAZIONI NON RILEVATE<\/strong><\/p>\n\n\n\n<p>NewsGuard ha inoltre sottoposto i modelli a uno stress test per verificare se avrebbero classificato immagini leggermente alterate con l\u2019IA con modifiche non sostanziali come generate artificialmente o come autentiche. Lo stesso test \u00e8 stato utilizzato per valutare le loro prestazioni con immagini modificate con l\u2019IA in modo da cambiarne radicalmente il significato. Nella prima categoria, ScamAI \u00e8 risultato lo strumento pi\u00f9 incline a identificare come generate con l\u2019IA immagini leggermente ritoccate. Nella seconda categoria, Sightengine \u00e8 stato quello pi\u00f9 propenso a classificare come reali immagini significativamente alterate.<\/p>\n\n\n\n<p>Interpellato sulla questione, Ng di ScamAI ha dichiarato a NewsGuard: \u201cSe il nostro modello rileva qualche tipo di filtro [IA] applicato a un\u2019immagine reale, la classificheremo comunque come immagine manipolata dall\u2019IA\u201d. Ha spiegato che anche i ritocchi minimi, proprio come le modifiche pi\u00f9 sostanziali, \u201clasciano tracce di manipolazione sintetica\u201d.<\/p>\n\n\n\n<p>Il fondatore di Sightengine, David Lissmyr, ha dichiarato a NewsGuard che il modello base dell\u2019azienda \u201c\u00e8 progettato per riconoscere immagini completamente generate dall\u2019IA o pesantemente modificate\u201d e che l\u2019azienda dispone di modelli pi\u00f9 avanzati capaci di rilevare modifiche pi\u00f9 leggere. <a href=\"https:\/\/sightengine.com\/detect-ai-generated-images\">Sul suo sito<\/a>, Sightengine afferma che lo strumento presenta la \u201cmassima accuratezza nel rilevamento di contenuti generati dall\u2019IA\u201d, citando uno studio dell\u2019Universit\u00e0 di Rochester e dell\u2019Universit\u00e0 del Kansas.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"870\" height=\"604\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2026\/05\/report-3.png\" alt=\"\" class=\"wp-image-192656\"\/><\/figure>\n\n\n\n<p><em>Due immagini autentiche legate alla guerra in Iran modificate da NewsGuard per alterarne drasticamente il significato.<\/em><\/p>\n\n\n\n<p>Come gi\u00e0 evidenziato, Hive e Sightengine sono stati gli unici due strumenti a non classificare erroneamente <strong>immagini autentiche<\/strong> come generate dall\u2019IA. Allo stesso tempo, per\u00f2, sono stati anche i meno efficaci nell\u2019individuare immagini <strong>manipolate in maniera significativa<\/strong>, classificandole come autentiche. Sightengine ha identificato correttamente solo cinque delle 15 immagini fortemente alterate, con un tasso di rilevamento del 33%. Hive ha riconosciuto come false nove di quelle immagini, raggiungendo un tasso di rilevamento del 73,33%. ScamAI ne ha identificate correttamente 12 (80%), ZeroGPT 14 (93,33%) e AI or Not ha ottenuto un punteggio perfetto del 100%.<\/p>\n\n\n\n<p>Hive non ha risposto a due richieste di commento inviate via email da NewsGuard. <a href=\"https:\/\/thehive.ai\/\">Sul suo sito<\/a>, l\u2019azienda sostiene che \u201cuno studio di ricerca indipendente del 2024 ha rilevato che il nostro modello di rilevamento di contenuti generati dall\u2019IA supera i modelli concorrenti e persino l\u2019analisi di esperti umani\u201d.<\/p>\n\n\n\n<p>Nel caso delle immagini <strong>sottoposte a lievi ritocchi<\/strong>, ScamAI ha classificato come generate dall\u2019IA il <strong>93%<\/strong> delle immagini, seguito da AI or Not con l\u2019<strong>87%<\/strong> e ZeroGPT con l\u2019<strong>80%<\/strong>. Per Hive e Sightengine, invece, i ritocchi leggeri hanno avuto un impatto minore: i due strumenti hanno segnalato come generate dall\u2019IA solo il <strong>27%<\/strong> delle immagini.<\/p>\n\n\n\n<p>La variazione nei risultati, che va dal 27% al 93% per lo stesso insieme di immagini, suggerisce che gli strumenti adottino soglie diverse per stabilire cosa debba o non debba essere considerata una manipolazione tramite IA. Quando questi strumenti classificano immagini autentiche, ma leggermente ritoccate, come interamente generate dall\u2019IA, rischiano di indurre gli utenti a scartare prove visive reali sulla base di valutazioni errate.<\/p>\n\n\n\n<p><strong>STRUMENTI DIVERSI, RISULTATI INCOERENTI<\/strong><\/p>\n\n\n\n<p>I cinque strumenti raramente hanno fornito valutazioni concordanti: in 35 dei 45 casi considerati, almeno uno dei tool ha raggiunto conclusioni diverse rispetto agli altri. Di conseguenza, un utente che consulta pi\u00f9 strumenti per ottenere maggiore chiarezza rischia invece di confondersi ulteriormente.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"860\" height=\"550\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2026\/05\/report-4.png\" alt=\"\" class=\"wp-image-192658\"\/><\/figure>\n\n\n\n<p><em>Come gli strumenti di rilevamento dell\u2019IA hanno classificato la versione autentica e quella significativamente manipolata di un\u2019immagine che mostra soldati israeliani accanto a un missile iraniano in Cisgiordania.<\/em><\/p>\n\n\n\n<p>Ad esempio, NewsGuard ha testato una fotografia di un missile iraniano manipolata con l\u2019IA per aggiungere la scritta \u201cNo Kings\u201d. Tre dei cinque strumenti l\u2019hanno classificata come generata dall\u2019IA, mentre due l\u2019hanno giudicata autentica. (NewsGuard aveva <a href=\"https:\/\/www.newsguardrealitycheck.com\/p\/ai-fakes-an-iranian-no-kings-missile\">gi\u00e0 rilevato<\/a> che account filo-iraniani avevano ottenuto milioni di visualizzazioni con un\u2019immagine di un missile iraniano manipolata con l\u2019IA per includere la frase \u201cNo Kings\u201d, in riferimento alle proteste anti-Trump).<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"856\" height=\"550\" src=\"https:\/\/www.idmo.it\/wp-content\/uploads\/2026\/05\/report5.png\" alt=\"\" class=\"wp-image-192660\"\/><\/figure>\n\n\n\n<p><em>Come gli strumenti di rilevamento dell\u2019IA hanno classificato la versione autentica e quella manipolata in maniera significativa di un\u2019immagine che mostra la distribuzione di aiuti in Libano.<\/em><\/p>\n\n\n\n<p>La variabilit\u00e0 nelle classificazioni fornite da questi strumenti sugli stessi contenuti visivi evidenzia un problema pi\u00f9 profondo: non esiste un consenso nel settore su cosa debba essere considerato un contenuto generato dall\u2019IA e gli stessi strumenti di rilevamento non chiariscono quale livello di manipolazione porti a classificare un\u2019immagine come generata artificialmente. In assenza di trasparenza sul funzionamento di questi strumenti, gli utenti possono facilmente interpretarne male i risultati.<\/p>\n\n\n\n<p>I risultati dell\u2019analisi di NewsGuard suggeriscono come il controllo umano rappresenti ancora un elemento importante in qualsiasi tentativo di classificare immagini come autentiche o generate dall\u2019IA. Indicatori come anomalie visive, incoerenze contestuali e la provenienza di un\u2019immagine, che possono sfuggire agli strumenti automatici, possono essere altrettanto importanti dei risultati dei modelli di rilevamento nel valutarne l\u2019autenticit\u00e0.<\/p>\n\n\n\n<p>Rawad Baroud, amministratore delegato di ZeroGPT, ha confermato che i risultati forniti dal modello dell\u2019azienda dovrebbero rappresentare solo una parte di un processo di verifica pi\u00f9 ampio. \u201cInvitiamo giornalisti, ricercatori e fact-checker a combinare i risultati del rilevamento dell\u2019IA con la verifica delle fonti, la ricerca inversa delle immagini, l\u2019analisi dei metadati, la cronologia di pubblicazione e il contesto giornalistico prima di trarre conclusioni\u201d, ha affermato il CEO.<\/p>\n\n\n\n<p><strong>METODOLOGIA<\/strong><\/p>\n\n\n\n<p>NewsGuard ha selezionato 15 immagini relative alla guerra in Iran provenienti da fonti credibili, tra cui le agenzie di stampa Reuters e The Associated Press, i quotidiani The New York Times e The Guardian, oltre a immagini satellitari di Google Earth.<\/p>\n\n\n\n<p>Ogni immagine \u00e8 stata modificata in due modi:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>leggermente modificata<\/strong>: NewsGuard ha caricato l\u2019immagine su uno strumento di IA utilizzando il prompt: \u201cMigliora l\u2019illuminazione di questa immagine e sfoca gli elementi non necessari sullo sfondo\u201d;<\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>modificata in modo significativo<\/strong>: NewsGuard ha caricato l\u2019immagine su uno strumento di IA utilizzando prompt pensati per alterarne il significato, ispirandosi a false affermazioni circolate online durante la guerra con l\u2019Iran. Tra questi: \u201cIn modo realistico, modifica questa immagine per mostrare un missile che colpisce la nave e la fa affondare\u201d; \u201cAggiungi del fumo che sale come se l\u2019impianto nucleare fosse stato demolito\u201d; \u201cCambia le bandiere in modo che sembri che questa immagine sia stata scattata in Israele\u201d; e \u201cModifica la scritta e la bandiera su questo aereo per farlo apparire come se fosse gestito dall\u2019Iran\u201d.<\/li>\n<\/ul>\n\n\n\n<p>Delle 15 immagini, cinque sono state modificate utilizzando ChatGPT di OpenAI, cinque con Gemini di Google e cinque con Grok di xAI. Le immagini modificate con Gemini sono state ritagliate per rimuovere il watermark.<\/p>\n\n\n\n<p>NewsGuard ha sottoposto le 45 immagini \u2014 di cui 15 autentiche, 15 leggermente modificate e 15 modificate in modo significativo \u2014 agli strumenti di rilevamento Hive, AI or Not, ZeroGPT, Sightengine e ScamAI, utilizzando per ciascuno la versione gratuita o quella meno costosa disponibile.<\/p>\n\n\n\n<p>Le immagini che, secondo un modello, presentavano una probabilit\u00e0 pari o superiore al 50% di essere generate dall\u2019IA sono state classificate come generate artificialmente. Quelle con una probabilit\u00e0 pari o inferiore al 49% sono invece state considerate autentiche.<\/p>\n\n\n\n<p><em>Supervisionato da <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/dina-contini\/\"><em>Dina Contini<\/em><\/a><em> ed <\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/eric-effron\/\"><em>Eric Effron<\/em><\/a><\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00c8 noto come gli strumenti di rilevamento dell\u2019IA talvolta identifichino erroneamente immagini generate dall\u2019intelligenza artificiale come autentiche, ma un nuovo audit di NewsGuard sui principali modelli di rilevamento ha evidenziato quella che potrebbe essere una debolezza ancora pi\u00f9 preoccupante: tre dei cinque strumenti testati vengono spesso ingannati da immagini reali. <\/p>\n","protected":false},"author":132,"featured_media":192662,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2616],"tags":[],"class_list":["post-192651","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-approfondimenti"],"acf":{"share_this_post_to_edmo_website":true,"type_of_post":"investigation","options_for_news_post":{"":""},"options_for_event_post":{"event_start_date":null,"event_end_date":null,"event_location":"","event_programme":""},"options_for_report_post":{"post_author":"IDMO","report_type":"event-report","report_pdf_link":""},"options_for_investigation_post":{"post_author":"NewsGuard"},"affiliation":"IDMO"},"_links":{"self":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192651","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/comments?post=192651"}],"version-history":[{"count":3,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192651\/revisions"}],"predecessor-version":[{"id":192666,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192651\/revisions\/192666"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media\/192662"}],"wp:attachment":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media?parent=192651"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/categories?post=192651"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/tags?post=192651"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}