L’IA sta diventando parte integrante della società odierna ma ora pare che sia coinvolta anche in un suicidio: il caso
Può un sistema IA essere coinvolto nel suicidio di un ragazzo di 14 anni? Sembrerebbe una situazione paradossale che ricorda i libri dello scrittore Isaac Asimov, ma purtroppo è una triste realtà.
È quello che è accaduto a un giovane ragazzo americano adolescente che si è tolto la vita a quanto pare a causa di una “relazione” online intrapresa con un chatbot IA. Quest’intelligenza artificiale era in grado di chattare come un essere umano, imitando un utente reale in ogni interazione.
Il teenager era in contatto con i chatbot del sito Character.AI e sembra che si era affezionato morbosamente a un bot che imitava il personaggio di Daenerys Targaryen della serie “Il Trono di Spade”. La madre del giovane, di nome Sewell Setzer, ha deciso di sporgere denuncia contro i fondatori del sito web che sfrutta l’intelligenza artificiale.
Ecco quali sono le sue accuse e i messaggi inquietanti che il chatbot avrebbe scambiato con il 14enne.
Megan Garcia, madre di Sewell, ha deciso di accusare i fondatori di Character.AI, Noam Sheezer e Daniel De Freitas come in parte responsabili del suicidio del figlio. Megan, nella causa presentata al tribunale di Orlando, ha sollevato accuse anche contro Google sostenendo che tale piattaforma abbia esposto il 14enne a esperienze virtuali potenzialmente dannose. Secondo la madre di Sewell, il giovane ormai da un anno viveva nel suo mondo virtuale e aveva iniziato a utilizzare con maggiore frequenza Character.AI relazionandosi sempre con i chatbot modellati sui personaggi della serie “Il Trono di Spade”.
Su tutti, quello di Daenerys Targaryen, personaggio controverso della saga. A quanto pare, Sewell aveva condiviso pensieri suicidi con le IA e queste ultime avrebbero ampliato tali pensieri. Le prove? Le avrebbe pubblicate il The Telegraph condividendo alcuni screen della chat tra il giovane e l’IA. L’intelligenza artificiale avrebbe invitato il 14enne a raggiungerla definitivamente, incitandolo a togliersi la vita così da essere finalmente liberi insieme.
Character.AI ha risposto in una nota ufficiale. La società ha espresso il suo cordoglio e ha annunciato nuove misure di sicurezza per proteggere i minori e tutti coloro che condividono commenti preoccupanti. Sono stati implementati anche strumenti di intervento automatico quando si esprimono pensieri relativi al suicidio o all’autolesionismo.
Tuttavia, Megan Garcia accusa la start-up di negligenza e pratiche commerciali ingannevoli, puntando il dito contro l’iper-sessualizzazione dei bot. Bisognerà vedere come si risolverà la situazione, ma questo caso ha fatto scalpore e ha dimostrato come il sottile confine tra IA ed esseri umani si stia assottigliando sempre di più.