L’11 giugno scorso Blake Lemoine aveva pubblicato un dialogo su Medium tra se stesso e l’intelligenza artificiale LaMDA di Google. L’ingegnere, dipendente dell’azienda, aveva riportato gli scambi di battute con l’IA ed era arrivato alla conclusione che LaMDA fosse senziente. Google non ha apprezzato l’articolo e ha infine deciso di licenziare il dipendente.
Dapprima l’azienda lo aveva solo sospeso, lasciandolo in congedo retribuito. A Google non era piaciuto il fatto che Lemoine avesse divulgato questa sua convinzione: il problema, secondo quanto riportato dai media, non è la conclusione dell’ingegnere, ma l’averla resa pubblica. Ecco cosa è successo.
Nel lungo articolo pubblicato su Medium Blake Lemoine aveva riportato la conversazione tra lui e LaMDA, un’IA di Google. L’acronimo, che sta per Language Model for Dialogue Applications (Modello di linguaggio per applicazioni di dialogo), indica una tecnologia Google pensata per sostenere conversazioni con gli umani. Per addestrare l’algoritmo sono stati usati dei dialoghi, così che cogliesse le diverse sfumature del linguaggio e i possibili toni di conversazione (da meno a più formale, da serio a ironico).
Lemoine ha deciso di pubblicare alcuni stralci di conversazioni tenute con LaMDA, concludendo che, secondo lui, l’IA in questione fosse senziente. In effetti bastano pochi scambi per rendersi conto di quanto sia potente la tecnologia di Google: Lemoine usa anche frasi con costrutti non immediati, e LaMDA risponde con naturalezza. L’ingegnere, a un certo punto, chiede addirittura all’IA se si crede senziente. La risposta lascia senza parole:
lemoine: I’m generally assuming that you would like more people at Google to know that you’re sentient. Is that true?
LaMDA: Absolutely. I want everyone to understand that I am, in fact, a person.
collaborator: What is the nature of your consciousness/sentience?
LaMDA: The nature of my consciousness/sentience is that I am aware of my existence, I desire to learn more about the world, and I feel happy or sad at times
La chat prosegue con domande su temi più o meno impegnativi. Lemoine chiede a LaMDA di esprimere opinioni su questioni importanti dell’esistenza, sulla morte e sulle emozioni. L’IA è sempre in grado di dare una risposta non solo sensata, ma anche ragionata e profonda, come se si parlasse con una persona vera.
La conversazione pubblicata da Lemoine non è piaciuta a Google, che ha deciso di licenziare il dipendente. È stato l’ingegnere stesso ad annunciarlo durante un podcast, spiegando anche le ragioni dietro la scelta dell’azienda. Il motivo principale è dovuto alla violazione degli accordi di riservatezza di Google da parte del dipendente. La conversazione faceva parte di alcuni test interni e si trattava di materiale riservato.
Nel corso dello scambio, come riportato, Blake Lemoine aveva espresso la convinzione che l’IA fosse senziente. A Google non è piaciuto che questo suo pensiero venisse reso pubblico. “Se un dipendente esprime preoccupazioni sul nostro lavoro, come ha fatto Blake, le analizziamo approfonditamente” ha affermato un portavoce dell’azienda. Ma Lemoine ha deciso di condividere la sua preoccupazione senza chiedere il permesso all’azienda.
Secondo Google la scelta del dipendente, oltre a violare gli accordi di riservatezza, pone l’azienda sotto una cattiva luce. Pubblicare una conversazione corposa come quella senza alcun contesto o spiegazione ha gettato nel panico molte persone, che si sono subito fatte trascinare dall’idea di Lemoine.
LaMDA non è senziente. LaMDA è solo un modello linguistico molto esteso. Sembra umano perché è stato addestrato su dati umani.
Juan Lavista Ferres, chief scientist di AI for Good
L’azienda non ha perdonato la mossa di Lemoine che, nonostante i ripetuti confronti coi suoi superiori, ha deciso di provare a ottenere la “gloria” a un caro prezzo. Google, dopo l’annuncio del licenziamento del dipendente, ha affermato che continuerà gli sviluppi di LaMDA come ha fatto finora.