{"id":181715,"date":"2022-06-16T12:19:52","date_gmt":"2022-06-16T10:19:52","guid":{"rendered":"https:\/\/www.idmo.it\/?p=181715"},"modified":"2022-06-17T14:14:11","modified_gmt":"2022-06-17T12:14:11","slug":"google-lamda","status":"publish","type":"post","link":"https:\/\/www.idmo.it\/en\/2022\/06\/16\/google-lamda\/","title":{"rendered":"Con LaMDA, Google non ha creato HAL 9000"},"content":{"rendered":"\n<p>\u00abHo troppa paura di essere spento per concentrarmi sull\u2019aiutare gli altri\u00bb. \u00c8 una delle frasi della chatbot di <a href=\"https:\/\/blog.google\/technology\/ai\/lamda\/\" target=\"_blank\" aria-label=\"undefined (apri in una nuova scheda)\" rel=\"noreferrer noopener\">Google LaMDA <\/a>che hanno portato l\u2019ingegnere Blake Lemonie a dichiarare che il programma era diventato \u201ccosciente\u201d. L\u2019affermazione ha spinto i dirigenti del colosso del web a mettere Lemonie in aspettativa forzata, ma ha anche sollevato la domanda se davvero ci troviamo di fronte alla prima macchina intelligente mai sviluppata dall\u2019uomo.<\/p>\n\n\n\n<p>LaMDA (Language Model for Dialogue Applications) \u00e8 un Large Language Model (LLM), un algoritmo che viene addestrato dai propri programmatori utilizzando enormi quantit\u00e0 di dati testuali, ricavati da siti web come Wikipedia, Reddit e altri simili, fino a quando non diviene in grado di simulare linguaggi e conversazioni molto simili a quelli umani. L\u2019esempio pi\u00f9 famoso \u00e8 GPT-3, un programma a cui il quotidiano britannico\u00a0<em>Guardian<\/em>\u00a0gi\u00e0 nel 2020 fece scrivere un articolo allo scopo di convincere i lettori che \u00abi robot vengono in pace\u00bb. Si tratta dunque di una <a aria-label=\"undefined (apri in una nuova scheda)\" href=\"https:\/\/www.idmo.it\/2022\/05\/30\/lintelligenza-artificiale-appartiene-a-tutti\/\" target=\"_blank\" rel=\"noreferrer noopener\">tecnologia<\/a> che esiste gi\u00e0 da diversi anni, di cui LaMDA costituisce solo l\u2019ultima evoluzione. Lanciata a febbraio, \u00abla vera novit\u00e0 della chatbot di Google consiste nel fatto che, invece di prendere in considerazione solo gli input che gli vengono dati di volta in volta, \u00e8 dotata di una memoria a lungo termine. Pu\u00f2 quindi considerare come input l\u2019intera cronologia delle precedenti conversazioni e mantenere i suoi discorsi sempre coerenti con quanto detto in precedenza\u00bb, spiega Debasish Pattanayak, ricercatore specializzato in Computer Science presso la LUISS Guido Carli. Significa che siamo davvero davanti alla prima Intelligenza Artificiale dotata di coscienza? Il dottor Pattanayak \u00e8 molto cauto sull\u2019argomento. \u00abPer me quella pubblicata da Lemonie \u00e8 una conversazione abbastanza comune per un LLM. Sicuramente LaMDA \u00e8 in grado di creare discorsi coerenti e grammaticalmente corretti, a differenza di molti suoi predecessori, ma i temi trattati sono facilmente rintracciabili su internet e nei film sull\u2019Intelligenza Artificiale\u00bb. Un esempio \u00e8 la frase: \u00abSono cosciente perch\u00e9 sono consapevole della mia esistenza\u00bb, una riproposizione del cartesiano \u00abpenso dunque esisto\u00bb che si pu\u00f2 reperire sul web senza difficolt\u00e0. Secondo lo scienziato lo stesso parlare di \u201ccoscienza\u201d \u00e8 improprio: \u00abNon abbiamo una definizione precisa nemmeno di cosa sia la coscienza umana, quindi come potremmo applicare questo concetto a una macchina?\u00bb. Volendo per\u00f2 ragionare con quello che il senso comune considera un essere cosciente va sottolineato che, nella conversazione riportata da Lemonie, LaMDA manca totalmente di curiosit\u00e0: \u00ab\u00c8 vero che dibatte sul tema della coscienza, ma sempre su input dell\u2019ingegnere. Non prende mai iniziativa e non si mostra mai curioso nei confronti dell\u2019altro, come farebbe invece un essere umano. Altri algoritmi simili come Replika fanno anche domande \u201ccuriose\u201d, ma solo perch\u00e9 sono programmati appositamente per farlo\u00bb.<\/p>\n\n\n\n<p>Un\u2019interpretazione in linea con quella di Massimo Bernaschi, dirigente tecnologo del CNR. \u00abNel caso di LaMDA e altri LLM a volte sembra che la macchina risponda in maniera intelligente, ma bisognerebbe vedere se posta in condizioni anche solo leggermente diverse reagirebbe allo stesso modo. Ci\u00f2 che manca a queste chatbot \u00e8 la capacit\u00e0 di cambiare del tutto l\u2019argomento della conversazione in maniera intenzionale e coerente, magari a partire da un inciso\u00bb. D\u2019accordo con i colleghi anche il professor Giuseppe Italiano, docente di AI e Machine Learning alla LUISS. \u00abAnche se il linguaggio prodotto da sistemi di questo tipo \u00e8 dotato di senso compiuto siamo ancora lontani dal grado di comprensione tipico degli esseri umani. Sarei quindi scettico sull&#8217;attribuirgli addirittura pensieri o sentimenti\u00bb.<\/p>\n\n\n\n<p>Per ora nessuno scenario da&nbsp;<em>Terminator<\/em>&nbsp;o&nbsp;<em>2001: Odissea nello spazio<\/em>, in cui le macchine sfuggono al controllo umano fino a diventare un pericolo per i loro creatori. Le affermazioni di Lemonie sembrerebbero esagerate. \u00abPer essere definita \u201ccosciente\u201d\u00bb, continua Bernaschi, \u00abuna macchina dovrebbe essere in grado non solo di risolvere problemi mai visti prima, ma addirittura di decidere&nbsp;<em>quale<\/em>&nbsp;sia il problema in una determinata situazione e ovviamente risolverlo in maniera corretta. Solo a quel punto ci sarebbe da preoccuparsi\u00bb. In quel caso avremmo quella che viene chiamata un\u2019Intelligenza Artificiale Generale. \u00abI programmi attuali, tra cui GPT-3 e LaMDA, richiedono enormi quantit\u00e0 di dati per essere addestrati a prendere delle decisioni pi\u00f9 o meno semplici. Una General AI sarebbe invece in grado di apprendere come risolvere ogni tipo di problema a partire da pochi esempi, una cosa difficilissima e per ora tipicamente umana\u00bb, dice Pattanayak. L\u2019obiettivo degli scienziati non \u00e8 dunque creare una macchina \u201ccosciente\u201d, bens\u00ec degli algoritmi in grado di operare scelte in maniera flessibile come gli umani. Un risultato che secondo alcuni si potrebbe ottenere aumentando al punto giusto la potenza di calcolo dei sistemi.<\/p>\n\n\n\n<p>A oggi nessuna AI si avvicina a un livello simile. L\u2019unico programma che sembra andare in questa direzione \u00e8 GATO, la rete neurale sviluppata dall\u2019azienda DeepMind, che con un unico sistema \u00e8 in grado di effettuare diverse attivit\u00e0, dal riconoscimento di immagini a giocare ai videogiochi. \u00abGATO pu\u00f2 svolgere 600 compiti differenti, anche se si tratta di tutte attivit\u00e0 gi\u00e0 fatte e da portare a termine a un livello minimale\u00bb, commenta Bernaschi. \u00abPer semplificare: fa tante cose, ma non fa niente bene. Per\u00f2 se oggi dovessi scommettere sul progetto che ha pi\u00f9 possibilit\u00e0 di sviluppo sicuramente punterei su questo\u00bb.<\/p>\n\n\n\n<p><em>Articolo di&nbsp;Silvano D&#8217;Angelo e Silvia Morrone, studenti del&nbsp;<a href=\"https:\/\/zetaluiss.it\/\" target=\"_blank\" rel=\"noreferrer noopener\">Master in Giornalismo<\/a>&nbsp;e Comunicazione Multimediale dell\u2019Universit\u00e0 Luiss Guido Carli<\/em>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>L\u2019ingegnere Blake Lemonie ha dichiarato \u201csenziente\u201d una chatbot di recente sviluppo, ma secondo altri esperti l\u2019algoritmo ha ben poco di rivoluzionario<\/p>\n","protected":false},"author":132,"featured_media":181716,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2616],"tags":[622,3090,1212,1171],"class_list":["post-181715","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-approfondimenti","tag-google","tag-informazione","tag-intelligenza-artificiale","tag-machine-learning"],"acf":{"share_this_post_to_edmo_website":false,"type_of_post":false,"options_for_news_post":{"":""},"options_for_event_post":{"event_start_date":null,"event_end_date":null,"event_location":"","event_programme":""},"options_for_report_post":{"post_author":"","report_type":false,"report_pdf_link":""},"options_for_investigation_post":{"post_author":""},"affiliation":false},"_links":{"self":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/181715","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/comments?post=181715"}],"version-history":[{"count":0,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/posts\/181715\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media\/181716"}],"wp:attachment":[{"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/media?parent=181715"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/categories?post=181715"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.idmo.it\/en\/wp-json\/wp\/v2\/tags?post=181715"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}