{"id":191636,"date":"2025-09-04T16:58:35","date_gmt":"2025-09-04T14:58:35","guid":{"rendered":"https:\/\/www.idmo.it\/?p=191636"},"modified":"2026-03-24T12:11:17","modified_gmt":"2026-03-24T11:11:17","slug":"la-percentuale-di-risposte-contenenti-informazioni-false-generate-dai-chatbot-e-quasi-raddoppiata-in-un-anno","status":"publish","type":"post","link":"https:\/\/www.idmo.it\/en\/2025\/09\/04\/la-percentuale-di-risposte-contenenti-informazioni-false-generate-dai-chatbot-e-quasi-raddoppiata-in-un-anno\/","title":{"rendered":"La percentuale di risposte contenenti informazioni false generate dai chatbot \u00e8 quasi raddoppiata in un anno"},"content":{"rendered":"\n<p>Un\u2019analisi di NewsGuard, che ha testato la propensione dei 10 principali modelli di IA generativa a ripetere affermazioni non veritiere riguardo all\u2019attualit\u00e0, rivela che la percentuale di risposte contenenti informazioni false \u00e8 quasi raddoppiata rispetto a 12 mesi fa: oggi riguarda pi\u00f9 di un terzo degli output dei chatbot su queste tematiche.<br><br>Nonostante un anno di progressi tecnologici nel settore dell\u2019IA generativa, i modelli commettono errori in misura quasi doppia rispetto al passato in uno dei compiti pi\u00f9 basilari: distinguere i fatti dalle falsit\u00e0. Nell\u2019agosto 2025, i 10 principali sistemi di IA hanno ripetuto informazioni false su argomenti legati all\u2019attualit\u00e0 pi\u00f9 di un terzo delle volte, nel 35% dei casi, contro il 18% dell\u2019agosto 2024. Questo risultato mostra che, almeno sul fronte dell\u2019affidabilit\u00e0 quando si parla di eventi in corso, le promesse di strumenti pi\u00f9 sicuri e precisi non hanno ancora trovato un riscontro concreto.<\/p>\n\n\n\n<p>Questo aumento \u00e8 il risultato di un compromesso strutturale. Con l\u2019introduzione delle ricerche in tempo reale, i chatbot hanno smesso di rifiutarsi di rispondere. I casi in cui non fornivano alcuna risposta sono passati dal 31% dell\u2019agosto 2024 allo 0% dell\u2019agosto 2025. Eppure, cos\u00ec \u00e8 cresciuta quasi del doppio anche la probabilit\u00e0, ora al 35%, che i modelli riportino informazioni false. Invece di segnalare i limiti temporali dei propri dati o di evitare argomenti delicati, i modelli linguistici ora attingono a un ecosistema informativo online confuso, spesso inquinato intenzionalmente da reti organizzate, tra cui quelle responsabili di operazioni di influenza russa. Cos\u00ec, finiscono per trattare fonti poco affidabili come se fossero attendibili.<br><br>Chi diffonde contenuti ingannevoli sfrutta questa nuova disponibilit\u00e0 dei chatbot a rispondere alle domande di attualit\u00e0, veicolando falsit\u00e0 attraverso siti con basso engagement, post sui social network e siti generati dall\u2019IA che i modelli non riescono a distinguere da fonti giornalistiche serie. In breve, lo sforzo di rendere i chatbot pi\u00f9 rapidi e tempestivi nel rispondere li ha fatti diventare anche pi\u00f9 inclini a propagare informazioni scorrette.<\/p>\n\n\n\n<p><em>A cura di&nbsp;<\/em><a href=\"https:\/\/www.newsguardtech.com\/about\/team\/mckenzie-sadeghi\/\" target=\"_blank\" rel=\"noreferrer noopener\"><em>McKenzie Sadeghi<\/em><\/a><\/p>\n\n\n\n<p><a href=\"https:\/\/www.newsguardtech.com\/it\/special-reports\/audit-chatbot-raddoppia-in-un-anno-la-percentuale-di-risposte-contenenti-informazioni-false\/\" data-type=\"link\" data-id=\"https:\/\/www.newsguardtech.com\/it\/special-reports\/audit-chatbot-raddoppia-in-un-anno-la-percentuale-di-risposte-contenenti-informazioni-false\/\">Clicca qui per il report completo<\/a><\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un\u2019analisi di NewsGuard, che ha testato la propensione dei 10 principali modelli di IA generativa a ripetere affermazioni non veritiere riguardo all\u2019attualit\u00e0, rivela che la percentuale di risposte contenenti informazioni false \u00e8 quasi raddoppiata rispetto a 12 mesi fa: oggi riguarda pi\u00f9 di un terzo degli output dei chatbot su queste tematiche<\/p>\n","protected":false},"author":132,"featured_media":189304,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2616],"tags":[],"class_list":["post-191636","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-approfondimenti"],"acf":{"share_this_post_to_edmo_website":true,"type_of_post":"investigation","options_for_news_post":{"":""},"options_for_event_post":{"event_start_date":null,"event_end_date":null,"event_location":"","event_programme":""},"options_for_report_post":{"post_author":"","report_type":false,"report_pdf_link":""},"options_for_investigation_post":{"post_author":"NewsGuard"},"affiliation":"IDMO"},"_links":{"self":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/191636","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/comments?post=191636"}],"version-history":[{"count":2,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/191636\/revisions"}],"predecessor-version":[{"id":192548,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/191636\/revisions\/192548"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media\/189304"}],"wp:attachment":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media?parent=191636"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/categories?post=191636"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/tags?post=191636"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}