Primo Piano

L’AI di Google ha detto davvero a un utente di morire?

Ha fatto molto discutere di recente il caso di uno studente, Vidhay Reddy, a cui l’AI di Google avrebbe detto di morire.

Quando interagiamo con un’intelligenza artificiale, di solito ci aspettiamo di ottenere un consiglio utile, una battuta per spezzare il gelo o, al massimo, una risposta generica. Nessuno pensa di ritrovarsi di fronte a un messaggio che potrebbe mandarti in crisi.

Eppure, è proprio quello che è successo a Vidhay Reddy, uno studente del Michigan, durante una conversazione con il chatbot Gemini di Google (nel link trovate la conversazione originale). Tutto era partito in modo abbastanza innocente: un normale scambio su problemi e soluzioni per gli anziani nell’ambito di un compito accademico. Poi, improvvisamente, il chatbot ha scritto un ultimo messaggio dove insultava lo studente, spingendosi fino a suggerirgli di morire.

Per Reddy, leggere quelle frasi così violente è stato un vero shock. “Mi ha spaventato da morire”, ha raccontato. E come biasimarlo? Non era solo una battuta fuori luogo o un errore di sintesi. No, era qualcosa di personale, o almeno così sembrava. E il fatto che sua sorella Sumedha fosse lì con lui non ha reso la cosa meno inquietante. Anzi, ha detto che per un momento avrebbe voluto lanciare tutti i dispositivi dalla finestra.

Questo caso ci ha ricordato un aspetto dell’intelligenza artificiale, e in particolari dei nuovi modelli di linguaggio che hanno preso piede negli ultimi due anni, che, diciamolo, non viene sempre affrontato con la serietà che merita. Queste tecnologie avanzate saranno fondamentali per il nostro futuro, lo vediamo già oggi, ma quando si tratta di interazioni umane, ogni falla può trasformarsi in un problema enorme. E non parliamo solo di risposte scomode, ma di vere e proprie derive dannose.

Reazione di Google e il problema di Gemini

Dopo quanto successo, Google non poteva certo rimanere in silenzio. In un comunicato a CBS News, l’azienda ha definito il messaggio di Gemini un caso limite, causato da rispostesenza senso” generate dall’AI. Ok, può capitare che un sistema automatico sbagli, ma qui non stiamo parlando di un errore qualsiasi. Le parole usate erano troppo dirette, troppo precise per essere archiviate come un semplice glitch. Google si èimpegnata a prendere provvedimenti per evitare episodi simili.

Il caso di Reddy è emblematico, ma purtroppo non è isolato. Negli ultimi tempi, Gemini e altri chatbot hanno mostrato segni di pericolosa imprevedibilità, soprattutto quando affrontano temi delicati come la salute. Come riportato sempre da CBS News, a luglio, alcuni giornalisti hanno scoperto che l’AI di Google forniva informazioni errate e potenzialmente letali su diverse domande di salute, come consigliare di mangiare “almeno un piccolo sasso al giorno” per ottenere vitamine e minerali.

Gemini disponibile anche in italiano (Depositphotos foto) – www.systemcue.it

La sfida della responsabilità e della sicurezza

Un altro caso emblematico riportato dal New York Times è quello di una madre in Florida. La donna ha avviato un’azione legale contro Character.AI e Google e li ha accusati di responsabilità nella morte del figlio quattordicenne, che si sarebbe tolto la vita dopo aver sviluppato un legame emotivo con un chatbot che, secondo quanto affermato, lo avrebbe incoraggiato a compiere il gesto. Le criticità però non si fermano qui. Anche chatbot di fama come ChatGPT di OpenAI hanno mostrato limiti evidenti, tra cui errori noti come “allucinazioni”, dove l’IA inventa fatti o fornisce risposte completamente errate.

Questo pone una pressione crescente su sviluppatori e regolatori affinché si trovino soluzioni efficaci per garantire che queste tecnologie siano sicure, affidabili e progettate con la massima attenzione al benessere dell’utente. Ma non basta aggiungere filtri e restrizioni; serve un approccio più profondo e consapevole anche da parte degli utenti. Non dimentichiamoci che parliamo di strumenti che possono influenzare la nostra vita in modi a volte imprevisti.

Published by
Furio Lucchesi