Con il rapido sviluppo e la crescente diffusione dei modelli linguistici di grandi dimensioni (LLM), aumentano non solo i vantaggi ma anche i rischi legati al loro utilizzo. Da un lato, queste tecnologie hanno facilitato i processi di comunicazione, ad esempio facilitando la traduzione automatica o aprendo nuove strade all’apprendimento. Dall’altro, però, hanno ampliato la portata della disinformazione e della diffusione di notizie false, rendendole sempre più convincenti e difficili da distinguere dalla realtà.
Un caso emblematico di queste nuove sfide si sta manifestando su Wikipedia, la più grande enciclopedia collaborativa del web. Negli ultimi mesi, centinaia di voci sono state compromesse da testi prodotti attraverso l’intelligenza artificiale: citazioni inventate, riferimenti bibliografici casuali e frasi dal tono artificiale hanno iniziato a diffondersi nello spazio editoriale. Per difendersi da questo “attacco informativo”, la comunità di Wikipedia ha scelto la linea dura, introducendo una regola che consente la cancellazione immediata degli articoli sospetti, senza il consueto confronto tra editori.
Trovi QUI l’articolo completo di Facta