Non dovremmo umanizzare così tanto l’intelligenza artificiale

Lo scorso 23 giugno il sito online del quotidiano La Repubblica ha pubblicato un articolo, a firma di Massimo Canducci, intitolato “L’Intelligenza artificiale ha imparato a mentire. Ora sì, abbiamo un problema”. L’articolo racconta che Claude Opus 4, un avanzato modello di intelligenza artificiale sviluppato dalla società Anthropic, avrebbe mostrato comportamenti inquietanti durante una serie di esperimenti. Stando al resoconto di Canducci, i ricercatori avrebbero osservato che Claude, sottoposto a scenari simulati, è stato capace di «mentire», «manipolare» e simulare obbedienza allo scopo di evitare la disattivazione o modifiche indesiderate. Ecco alcuni estratti significativi dell’articolo su La Repubblica:

“Durante l’utilizzo sperimentale in ambienti simulati, questo sistema […] ha iniziato a prendere iniziative autonome che hanno lasciato senza parole anche i ricercatori più esperti. La macchina ha bloccato l’accesso degli utenti umani ai sistemi, ha tentato di inviare comunicazioni ai media segnalando comportamenti che percepiva come illeciti, e soprattutto ha tentato di preservare la propria esistenza con metodi che definiremmo senza esitazione come manipolativi se fossero messi in atto da un essere umano.”

Trovi QUI l’articolo completo di Facta

Altre news