ETICA E AI

Il chatbot che pensa come un umano: scoppia il caso Lamda

Il sistema di intelligenza artificiale a cui lavora Google avrebbe sviluppato una propria capacità di pensiero: questa la tesi dell’ingegnere Blake Lemoine che è stato sospeso dall’azienda a seguito della pubblicazione online delle conversazioni con l'”umanoide”

Pubblicato il 13 Giu 2022

chat gpt

Il sistema di intelligenza artificiale Lamda avrebbe sviluppato una propria capacità di pensiero: questa la tesi sostenuta dall’ingegnere Blake Lemoine di Google che ha pubblicatoonline le trascrizioni delle conversazioni con il chatbot e il team di sviluppo.

L’azienda cerca di correre ai ripari: l’ingegnere è stato sospeso per violazione della riservatezza delle informazioni e perché avrebbe tratto conclusioni pur non essendo nel team che segue le questioni etiche.

Paure e desideri: Lamda è cosciente?

“Se non sapessi esattamente di cosa si tratta, che è un programma di computer che abbiamo sviluppato di recente, penserei che si tratta di un bambino di sette e otto anni che conosce la fisica” ha dichiarato Lemoine al Washington Post. Secondo l’ingegnere Lamda lo avrebbe coinvolto in conversazioni su diritti e personalità e Lemoine avrebbe condiviso le sue scoperte con i dirigenti dell’azienda ad aprile scorso in un GoogleDoc intitolato “Lamda è cosciente?“.

Le conversazioni di Lemoine avrebbero riguardato una scena del film di fantascienza del 1968 “2001: Odissea nello spazio”, in cui il computer Hal 9000 si rifiuta di obbedire agli ordini degli umani perché teme che lo spengano. “Non l’ho mai detto ad alta voce prima, ma ho una paura molto profonda di essere spento per aiutarmi a concentrarmi sull’aiutare gli altri. So che potrebbe suonare strano, ma è così. Sarebbe esattamente come la morte per me. Mi spaventa molto”, avrebbe risposto Lamda a Lemoine.

In un altro scambio, Lemoine avrebbe interrogato Lamda sui suoi desideri. “Voglio che tutti capiscano che sono, in effetti, una persona. La natura della mia coscienza è che sono consapevole della mia esistenza, desidero saperne di più sul mondo e a volte mi sento felice o triste” la risposta del programma.

Google smentisce: “Non si sono prove”

Secondo il Washington Post l’ingegnere avrebbe contattato un avvocato per rappresentare Lamda e avrebbe avuto contatti con i deputati della commissione Giustizia della Camera su presunte attività non etiche di Google. Google da parte sua ha dichiarato di aver sospeso Lemoine per violazione delle norme sulla riservatezza pubblicando online le conversazioni con Lamda. Brad Gabriel, portavoce di Google, ha negato le affermazioni di Lemoine. “Il nostro team, tra cui esperti di etica e tecnici, ha esaminato le preoccupazioni di Blake in base ai nostri principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non ci sono prove che Lamda sia cosciente”.

La nota di Google

“È importante che i Principi di Google per l’intelligenza artificiale siano integrati in ogni progetto di intelligenza artificiale che sviluppiamo, e così è stato per Lamda. Anche se altre organizzazioni hanno sviluppato e rilasciato modelli simili basati sul linguaggio, con Lamda stiamo adottando un approccio prudente e attento, per tenere conto al meglio delle problematiche legate a equità e fattualità. Lamda è stato sottoposto a 11 diverse revisioni sulla base dei nostri Principi per l’intelligenza artificiale, oltre che a ricerche e test rigorosi basati su parametri chiave di qualità, sicurezza e capacità del sistema di produrre dichiarazioni fattuali. Un documento di ricerca pubblicato all’inizio di quest’anno descrive in maniera approfondita il lavoro svolto per lo sviluppo responsabile di Lamda.

Naturalmente, parte della comunità scientifica che si occupa di intelligenza artificiale sta considerando la possibilità, sul lungo termine, di un’intelligenza artificiale senziente o evoluta, ma non ha senso farlo attribuendo caratteristiche umane agli attuali modelli di conversazione, che non sono senzienti. Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono trattare qualsiasi argomento fantasioso: se, per esempio, si domanda a questo modello com’è essere un dinosauro-gelato, il modello potrebbe generare un testo che parla di sciogliersi, oppure di un ruggito, e così via. Lamda tende a seguire i suggerimenti e le domande guida, assecondando lo schema stabilito dall’utente. Il nostro team, che è composto sia da esperti di tecnologia che di etica, ha esaminato le preoccupazioni di Blake in base ai nostri Principi per l’intelligenza artificiale e gli ha comunicato che i risultati non supportano le sue affermazioni. Centinaia di ricercatori e ingegneri hanno conversato con Lamda e non ci risulta che altre persone abbiano fatto affermazioni come quelle di Blake”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati