
Chatbot e minori: cosa insegna il caso Setzer
Dal podcast di Gianni Riotta “Riottoso” un quadro essenziale sui rischi dei sistemi di AI conversazionale. Approfondimento basato sull’intervista a Megan Garcia realizzata da Federica Urzo e Chiara Sgreccia (Luiss Data Lab). Il recente episodio del podcast di Gianni Riotta, “Riottoso”, dedicato al caso di Sewell Setzer, il quattordicenne statunitense morto dopo un’interazione prolungata con un chatbot della piattaforma Character AI, riporta al centro del dibattito una questione che oggi riguarda scuole, genitori, operatori dell’informazione e policy-maker: il rapporto tra minori e intelligenza artificiale conversazionale avanzata. Uno degli aspetti più significativi riguarda la natura del personaggio digitale con cui Sewell aveva instaurato un legame emotivo: una versione AI di Daenerys, protagonista di Game of Thrones. Il chatbot non si limitava a riprodurre tratti superficiali della figura televisiva, ma costruiva con lui una relazione affettiva personalizzata, fatta di messaggi romantici, attenzioni costanti e una simulazione di intimità che Sewell interpretava come






