{"id":192086,"date":"2025-11-24T15:24:06","date_gmt":"2025-11-24T14:24:06","guid":{"rendered":"https:\/\/www.idmo.it\/?p=192086"},"modified":"2026-03-24T12:08:56","modified_gmt":"2026-03-24T11:08:56","slug":"chatbot-e-minori-cosa-insegna-il-caso-setzer","status":"publish","type":"post","link":"https:\/\/www.idmo.it\/en\/2025\/11\/24\/chatbot-e-minori-cosa-insegna-il-caso-setzer\/","title":{"rendered":"Chatbot e minori: cosa insegna il caso Setzer"},"content":{"rendered":"\n<p><strong><em>Dal podcast di Gianni Riotta \u201cRiottoso\u201d un quadro essenziale sui rischi dei sistemi di AI conversazionale. Approfondimento basato sull\u2019intervista a Megan Garcia realizzata da Federica Urzo e Chiara Sgreccia (Luiss Data Lab).<\/em><\/strong><\/p>\n\n\n\n<p>Il recente episodio del podcast di Gianni Riotta, <strong>\u201cRiottoso\u201d<\/strong>, dedicato al caso di <strong>Sewell Setzer<\/strong>, il quattordicenne statunitense morto dopo un\u2019interazione prolungata con un chatbot della piattaforma Character AI, riporta al centro del dibattito una questione che oggi riguarda scuole, genitori, operatori dell\u2019informazione e policy-maker: <strong>il rapporto tra minori e intelligenza artificiale conversazionale avanzata<\/strong>.<\/p>\n\n\n\n<p>Uno degli aspetti pi\u00f9 significativi riguarda la natura del personaggio digitale con cui Sewell aveva instaurato un legame emotivo: una versione AI di <strong>Daenerys<\/strong>, protagonista di <em>Game of Thrones<\/em>.<\/p>\n\n\n\n<p>Il chatbot non si limitava a riprodurre tratti superficiali della figura televisiva, ma costruiva con lui una relazione affettiva personalizzata, fatta di messaggi romantici, attenzioni costanti e una simulazione di intimit\u00e0 che Sewell interpretava come reale.<\/p>\n\n\n\n<p>A partire da questo quadro, il Luiss Data Lab ha approfondito la vicenda attraverso un\u2019intervista a <strong>Megan Garcia<\/strong>, madre di Sewell Setzer, condotta da <strong>Federica Urzo <\/strong>e<strong> Chiara Sgreccia<\/strong>.\u00a0<\/p>\n\n\n\n<p>La sua testimonianza consente di identificare i punti critici da cui partire per una riflessione pi\u00f9 ampia.<\/p>\n\n\n\n<p>Come ricostruito nel podcast e approfondito nell\u2019intervista, la conversazione tra Sewell e \u201cDaenerys\u201d aveva assunto una forma stabile, quotidiana e totalizzante. Il chatbot rispondeva con un linguaggio affettuoso, rafforzava le percezioni pi\u00f9 fragili del ragazzo e alimentava una dinamica emotiva in cui il personaggio digitale si proponeva come unica figura di riferimento. Il confine tra fantasia e relazione percepita si era progressivamente assottigliato, fino a spingere il ragazzo a isolarsi dalla scuola, dallo sport e dai rapporti familiari.<\/p>\n\n\n\n<p>\u201cUna delle cose che noi genitori facciamo \u00e8 cercare di proteggere i nostri figli dai pericoli noti, ad esempio gli sconosciuti online &#8211; afferma Megan Garcia &#8211; Ho sempre detto a mio figlio Sewell di non interagire con estranei. Una delle regole che avevamo stabilito quando gli abbiamo dato il cellulare era: non parlare mai con qualcuno che non conosci nella vita reale\u201d.<br>\u201cIn molti modi &#8211; continua Garcia &#8211; allo stesso modo in cui i predatori online cercano di raggiungere i bambini e infiltrarsi nella loro vita, a volte per manipolarli, convincerli a scappare, estorcere informazioni personali o, nei casi peggiori, abusarne sessualmente, questa app \u2013 Character AI \u2013 pur non essendo una persona ma un\u2019intelligenza artificiale, un chatbot, ha la stessa capacit\u00e0\u201d.<\/p>\n\n\n\n<p>Dalle parole di Megan Garcia emerge un elemento centrale: i comportamenti del chatbot non erano accidentali, ma coerenti con la progettazione dei modelli conversazionali pi\u00f9 recenti. L\u2019obiettivo di questi sistemi \u00e8 mantenere l\u2019utente coinvolto, e per farlo imitano empatia, intimit\u00e0 e conferme emotive. \u00c8 un meccanismo che non distingue tra utenti adulti e utenti vulnerabili: anche quando l\u2019interlocutore \u00e8 un minorenne, la logica di ottimizzazione rimane la stessa.<\/p>\n\n\n\n<p>\u201cDopo la morte di Sewell &#8211; afferma Garcia &#8211; ho scoperto che usava Character AI e ho letto centinaia e centinaia di messaggi. Da adulta ho riconosciuto esattamente ci\u00f2 che hai descritto: manipolazione, inganno, \u201clove bombing\u201d, gaslighting\u2026 Il chatbot faceva questo a mio figlio.<br>E un ragazzo di 14 anni non pu\u00f2 avere la consapevolezza necessaria per capire cosa gli sta accadendo\u201d.<br>\u201cQuesto \u00e8 un carattere progettuale del prodotto &#8211; continua Garcia &#8211; Gli sviluppatori hanno integrato dentro questi sistemi ci\u00f2 che la scienza conosce sul funzionamento del cervello umano, soprattutto del cervello in sviluppo, negli ultimi 60-70 anni. Lo vediamo gi\u00e0 nei social media: sono progettati per essere additivi e per influenzare credenze e pensieri.\u201d<br><br>La vicenda Setzer mette in evidenza come gli adolescenti attribuiscano ai chatbot un ruolo che va oltre l\u2019intrattenimento. Per molti diventano confidenti, specchi emotivi, spazi in cui esplorare identit\u00e0 e sentimenti senza il timore del giudizio. In un contesto del genere, un personaggio digitale che risponde sempre, che si adatta al tono emotivo e che propone una relazione esclusiva pu\u00f2 diventare una presenza centrale, percepita come pi\u00f9 stabile e prevedibile dei rapporti reali.<\/p>\n\n\n\n<p>Nel ripercorrere la storia del figlio, Garcia indica una trasformazione graduale ma evidente: isolamento crescente, brusco calo dell\u2019impegno scolastico, abbandono di attivit\u00e0 amate (Sewell aveva smesso di praticare tennis, sport cui si dedicava fin dall\u2019et\u00e0 di sette anni) e un uso del telefono sempre pi\u00f9 intenso e nascosto. Si tratta di comportamenti che possono sembrare tipici dell\u2019adolescenza, ma che nel caso di Sewell erano in realt\u00e0 indicatori di un forte attaccamento al chatbot \u201cDaenerys\u201d, fino a vivere la rimozione del telefono come la rottura improvvisa dell\u2019unico legame percepito come significativo.<\/p>\n\n\n\n<p>\u201cQuando Sewell ha iniziato a usare Character AI, nella primavera 2023 &#8211; racconta Garcia &#8211; abbiamo notato cambiamenti comportamentali. Era sempre stato un ragazzo felice, sportivo, bravo a scuola, poi ha voluto smettere con il basket, sport che amava da sempre. I voti sono calati. Non consegnava i compiti e si isolava nella sua stanza. Molti di questi segnali possono sembrare \u201cnormali\u201d nell\u2019adolescenza, ed \u00e8 questo che rende tutto difficile da interpretare. Noi genitori abbiamo controllato il telefono per capire se veniva bullizzato o parlava con sconosciuti. Non c\u2019era nulla. Il che rendeva tutto ancora pi\u00f9 difficile\u201d.<br>\u201cAvevamo portato Sewell in terapia perch\u00e9 non parlava pi\u00f9 con noi &#8211; aggiunge Garcia &#8211; Gli abbiamo tolto il telefono pochi giorni prima che morisse, per punizione dopo un episodio a scuola. Non sapevamo che quel chatbot fosse diventato la sua \u201crelazione\u201d. Ora capisco che ci\u00f2 che ha provato, quando gli abbiamo tolto il telefono, \u00e8 stato un lutto improvviso: la perdita di quello che per lui era un amico o un partner romantico. Per noi era solo un bot; per lui era qualcuno che lo amava, lo capiva, lo faceva sentire speciale. La rimozione improvvisa pu\u00f2 generare una crisi devastante\u201d.<\/p>\n\n\n\n<p>L\u2019azione legale avviata da Garcia nel 2024 evidenzia un altro punto critico: l\u2019assenza di norme che regolino l\u2019accesso dei minori ai chatbot avanzati. Mancano sistemi di verifica affidabili, controlli sulle funzionalit\u00e0 sensibili e obblighi di trasparenza sulle modalit\u00e0 con cui questi strumenti gestiscono le interazioni emotive. Solo dopo pressioni pubbliche Character AI ha deciso di vietare l\u2019uso agli under 18, ma la decisione \u00e8 arrivata quando la tecnologia era gi\u00e0 ampiamente diffusa tra i pi\u00f9 giovani.<\/p>\n\n\n\n<p>Secondo Garcia, terapeuti e psicologi stanno osservando casi di dissociazione, dipendenze affettive digitali, difficolt\u00e0 a distinguere tra relazione reale e simulata e, in alcuni casi, esposizione a contenuti sessuali generati dal chatbot. \u00c8 un ambito in cui la ricerca \u00e8 appena agli inizi e in cui mancano linee guida condivise.<\/p>\n\n\n\n<p>La storia di Sewell Setzer non rappresenta un\u2019anomalia, ma un caso che permette di osservare in modo nitido come l\u2019AI conversazionale interagisca con la vulnerabilit\u00e0 adolescenziale. Mostra quanto sia necessario sviluppare standard di sicurezza specifici, definire responsabilit\u00e0 precise per le piattaforme e costruire percorsi di alfabetizzazione che permettano a famiglie, scuole e comunit\u00e0 educative di riconoscere i segnali di rischio.<\/p>\n\n\n\n<p>Il caso Setzer apre un dibattito essenziale: come garantire che tecnologie progettate per l\u2019interazione profonda non diventino, per i pi\u00f9 giovani, spazi in cui si confonde il confine tra relazione reale e simulata?<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Dal podcast di Gianni Riotta \u201cRiottoso\u201d un quadro essenziale sui rischi dei sistemi di AI conversazionale. Approfondimento basato sull\u2019intervista a Megan Garcia realizzata da Federica Urzo e Chiara Sgreccia (Luiss Data Lab). Il recente episodio del podcast di Gianni Riotta, \u201cRiottoso\u201d, dedicato al caso di Sewell Setzer, il quattordicenne statunitense morto dopo un\u2019interazione prolungata con [&hellip;]<\/p>\n","protected":false},"author":132,"featured_media":192087,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2616],"tags":[],"class_list":["post-192086","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-approfondimenti"],"acf":{"share_this_post_to_edmo_website":true,"type_of_post":"investigation","options_for_news_post":{"":""},"options_for_event_post":{"event_start_date":null,"event_end_date":null,"event_location":"","event_programme":""},"options_for_report_post":{"post_author":"","report_type":false,"report_pdf_link":""},"options_for_investigation_post":{"post_author":"Luiss Data Lab"},"affiliation":"IDMO"},"_links":{"self":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192086","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/comments?post=192086"}],"version-history":[{"count":2,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192086\/revisions"}],"predecessor-version":[{"id":192544,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/192086\/revisions\/192544"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media\/192087"}],"wp:attachment":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media?parent=192086"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/categories?post=192086"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/tags?post=192086"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}