Unโanalisi di NewsGuard, che ha testato la propensione dei 10 principali modelli di IA generativa a ripetere affermazioni non veritiere riguardo allโattualitร , rivela che la percentuale di risposte contenenti informazioni false รจ quasi raddoppiata rispetto a 12 mesi fa: oggi riguarda piรน di un terzo degli output dei chatbot su queste tematiche.
Nonostante un anno di progressi tecnologici nel settore dellโIA generativa, i modelli commettono errori in misura quasi doppia rispetto al passato in uno dei compiti piรน basilari: distinguere i fatti dalle falsitร . Nellโagosto 2025, i 10 principali sistemi di IA hanno ripetuto informazioni false su argomenti legati allโattualitร piรน di un terzo delle volte, nel 35% dei casi, contro il 18% dellโagosto 2024. Questo risultato mostra che, almeno sul fronte dellโaffidabilitร quando si parla di eventi in corso, le promesse di strumenti piรน sicuri e precisi non hanno ancora trovato un riscontro concreto.
Questo aumento รจ il risultato di un compromesso strutturale. Con lโintroduzione delle ricerche in tempo reale, i chatbot hanno smesso di rifiutarsi di rispondere. I casi in cui non fornivano alcuna risposta sono passati dal 31% dellโagosto 2024 allo 0% dellโagosto 2025. Eppure, cosรฌ รจ cresciuta quasi del doppio anche la probabilitร , ora al 35%, che i modelli riportino informazioni false. Invece di segnalare i limiti temporali dei propri dati o di evitare argomenti delicati, i modelli linguistici ora attingono a un ecosistema informativo online confuso, spesso inquinato intenzionalmente da reti organizzate, tra cui quelle responsabili di operazioni di influenza russa. Cosรฌ, finiscono per trattare fonti poco affidabili come se fossero attendibili.
Chi diffonde contenuti ingannevoli sfrutta questa nuova disponibilitร dei chatbot a rispondere alle domande di attualitร , veicolando falsitร attraverso siti con basso engagement, post sui social network e siti generati dallโIA che i modelli non riescono a distinguere da fonti giornalistiche serie. In breve, lo sforzo di rendere i chatbot piรน rapidi e tempestivi nel rispondere li ha fatti diventare anche piรน inclini a propagare informazioni scorrette.
A cura di McKenzie Sadeghi

