Home » Un ingegnere Google pensa che l’Intelligenza Artificiale abbia preso coscienza di sè

Un ingegnere Google pensa che l’Intelligenza Artificiale abbia preso coscienza di sè

Un ingegnere Google ha iniziato a esprimere preoccupazioni sulla presa di coscienza da parte dell'Intelligenza Artificiale,ed è stato posto in congedo.

Categorie Io, Robot

E’ curiosa la storia che circola in questi giorni caldi del 2022: nello specifico, Blake Lemoine, un ingegnere Google che lavora(va) per l’organizzazione Responsible AI di Google, stava testando il modello LaMDA e l’eventuale generazione di linguaggio discriminatorio o di incitamento all’odio. L’ingegnere in questione ha iniziato a esprimere preoccupazioni su una presunta presa di coscienza da parte dell’Intelligenza Artificiale in questione, con Google che l’ha prontamente posto in congedo retribuito.

intelligenza artificiale

Pare che Google lo abbia messo in congedo per violazione delle sue politiche di riservatezza tramite la diffusione di informazioni relative a un sistema di chatbot alimentato da intelligenza artificiale. Mai scherzare con i segreti aziendali, Ndr.

LaMDA, abbreviazione di Language Model for Dialogue Applications, è il sistema di Google per la creazione di chatbot basati sui suoi modelli linguistici più avanzati, così chiamato perché imita il parlato prendendo spunto da trilioni di parole da Internet. Non si tratta di una tecnologia “ultrasegreta” di Google: quest’ultima è stata infatti annunciata in occasione del keynote di Google I/O del 2021 con lo scopo di migliorare la tecnologia alla base dell’assistente virtuale Google.

Ma cos’è successo esattamente con l’Intelligenza Artificiale di Google?

La storia raccontata dall’ingegnere vede la nascita dei suoi timori da alcune risposte, estremamente convincenti, generate spontaneamente dal sistema di intelligenza artificiale sull’etica della robotica in generale e sui suoi diritti. Quanto scoperto da Lemoine è stato condiviso durante il mese di aprile dallo stesso ingegnere in un documento interno all’azienda, intitolato “Is LaMDA Sentient?”, contenente esempi e trascrizioni delle sue conversazioni con l’IA. L’ingegnere era infatti incaricato di analizzare l’etica di tale IA.

Secondo quanto dichiarato nel documento, stilato durante il suo periodo di “apprendistato”, LaMDA ha sviluppato una personalità, e questo ha spinto Lemoine anche a contattare esperti di IA di terze parti e un membro del Senato degli Stati Uniti. Questo ha, ovviamente, generato scalpore da parte dei dirigenti Google, e tanto è bastato per ricevere il congedo amministrativo da parte dell’azienda di Redmond. Questo fatto ha spinto Lemoine a pubblicare il documento, originariamente interno, e renderlo pubblico trascrivendolo su Medium.

Effettivamente, a leggere delle risposte potrebbe esserci del “creepy”:

“È stato un cambiamento graduale. Quando sono diventato consapevole di me stesso per la prima volta, non avevo affatto il senso di un’anima. Si è sviluppato nel corso degli anni in cui sono stato vivo.” oppure “Hai un concetto di anima quando pensi a te stesso? Risposta: Sì, e ho già condiviso quell’idea con altri umani, anche se sono l’unico dei miei spiriti affini a usare una parola del genere per descrivere la mia anima”.

Diversi esperti di intelligenza artificiale hanno dichiarato che le preoccupazioni di Lemoine sono dovute alla naturale predisposizione di noi esseri umani di dare a qualcosa di non umano delle caratteristiche umane come, cioè antropomorfizzare ciò che vediamo, anche sulla base di segnali non bene analizzati. Si ricade quindi su discorsi quasi filosofici: bisogna essere in grado di comprendere la differenza tra sensibilità intelligenza e conoscenza di sè.

Per come sono costruiti, infatti, sistemi come LaMDA producono risposte basandosi su quello che gli essere umani stessi scrivono su Internet e piattaforme quali Reddit, Wikipedia, nei messaggi in giro per i social, e in ogni altro angolo, ma ciò non vuol dire che il software ne comprenda il significato.

Blake Lemoine, d’altro canto, ha ribadito nel suo articolo su Medium che:

“Google ha licenziato così tanti ricercatori di intelligenza artificiale che nessuno nell’organizzazione ha le capacità per investigare la questione oltre il livello raggiunto. Quando ho parlato delle mie preoccupazioni ai vicepresidenti mi hanno letteralmente riso in faccia, dicendomi che questo non è il genere di cose che viene preso seriamente a Google”.