La percentuale di risposte contenenti informazioni false generate dai chatbot รจ quasi raddoppiata in un anno

Unโ€™analisi di NewsGuard, che ha testato la propensione dei 10 principali modelli di IA generativa a ripetere affermazioni non veritiere riguardo allโ€™attualitร , rivela che la percentuale di risposte contenenti informazioni false รจ quasi raddoppiata rispetto a 12 mesi fa: oggi riguarda piรน di un terzo degli output dei chatbot su queste tematiche.

Nonostante un anno di progressi tecnologici nel settore dellโ€™IA generativa, i modelli commettono errori in misura quasi doppia rispetto al passato in uno dei compiti piรน basilari: distinguere i fatti dalle falsitร . Nellโ€™agosto 2025, i 10 principali sistemi di IA hanno ripetuto informazioni false su argomenti legati allโ€™attualitร  piรน di un terzo delle volte, nel 35% dei casi, contro il 18% dellโ€™agosto 2024. Questo risultato mostra che, almeno sul fronte dellโ€™affidabilitร  quando si parla di eventi in corso, le promesse di strumenti piรน sicuri e precisi non hanno ancora trovato un riscontro concreto.

Questo aumento รจ il risultato di un compromesso strutturale. Con lโ€™introduzione delle ricerche in tempo reale, i chatbot hanno smesso di rifiutarsi di rispondere. I casi in cui non fornivano alcuna risposta sono passati dal 31% dellโ€™agosto 2024 allo 0% dellโ€™agosto 2025. Eppure, cosรฌ รจ cresciuta quasi del doppio anche la probabilitร , ora al 35%, che i modelli riportino informazioni false. Invece di segnalare i limiti temporali dei propri dati o di evitare argomenti delicati, i modelli linguistici ora attingono a un ecosistema informativo online confuso, spesso inquinato intenzionalmente da reti organizzate, tra cui quelle responsabili di operazioni di influenza russa. Cosรฌ, finiscono per trattare fonti poco affidabili come se fossero attendibili.

Chi diffonde contenuti ingannevoli sfrutta questa nuova disponibilitร  dei chatbot a rispondere alle domande di attualitร , veicolando falsitร  attraverso siti con basso engagement, post sui social network e siti generati dallโ€™IA che i modelli non riescono a distinguere da fonti giornalistiche serie. In breve, lo sforzo di rendere i chatbot piรน rapidi e tempestivi nel rispondere li ha fatti diventare anche piรน inclini a propagare informazioni scorrette.

A cura di McKenzie Sadeghi

Clicca qui per il report completo

Altre news