La percentuale di risposte contenenti informazioni false generate dai chatbot è quasi raddoppiata in un anno

Un’analisi di NewsGuard, che ha testato la propensione dei 10 principali modelli di IA generativa a ripetere affermazioni non veritiere riguardo all’attualità, rivela che la percentuale di risposte contenenti informazioni false è quasi raddoppiata rispetto a 12 mesi fa: oggi riguarda più di un terzo degli output dei chatbot su queste tematiche.

Nonostante un anno di progressi tecnologici nel settore dell’IA generativa, i modelli commettono errori in misura quasi doppia rispetto al passato in uno dei compiti più basilari: distinguere i fatti dalle falsità. Nell’agosto 2025, i 10 principali sistemi di IA hanno ripetuto informazioni false su argomenti legati all’attualità più di un terzo delle volte, nel 35% dei casi, contro il 18% dell’agosto 2024. Questo risultato mostra che, almeno sul fronte dell’affidabilità quando si parla di eventi in corso, le promesse di strumenti più sicuri e precisi non hanno ancora trovato un riscontro concreto.

Questo aumento è il risultato di un compromesso strutturale. Con l’introduzione delle ricerche in tempo reale, i chatbot hanno smesso di rifiutarsi di rispondere. I casi in cui non fornivano alcuna risposta sono passati dal 31% dell’agosto 2024 allo 0% dell’agosto 2025. Eppure, così è cresciuta quasi del doppio anche la probabilità, ora al 35%, che i modelli riportino informazioni false. Invece di segnalare i limiti temporali dei propri dati o di evitare argomenti delicati, i modelli linguistici ora attingono a un ecosistema informativo online confuso, spesso inquinato intenzionalmente da reti organizzate, tra cui quelle responsabili di operazioni di influenza russa. Così, finiscono per trattare fonti poco affidabili come se fossero attendibili.

Chi diffonde contenuti ingannevoli sfrutta questa nuova disponibilità dei chatbot a rispondere alle domande di attualità, veicolando falsità attraverso siti con basso engagement, post sui social network e siti generati dall’IA che i modelli non riescono a distinguere da fonti giornalistiche serie. In breve, lo sforzo di rendere i chatbot più rapidi e tempestivi nel rispondere li ha fatti diventare anche più inclini a propagare informazioni scorrette.

A cura di McKenzie Sadeghi

Clicca qui per il report completo

Altre news