L’Intelligenza Artificiale (IA) ha conquistato un ruolo predominante nella nostra società, ma gli esperti del settore stanno lanciando un avvertimento. Infatti, l’uso incontrollato e irresponsabile dell’IA potrebbe portare all’estinzione dell’umanità. Riconosciuti nomi come Sam Altman di OpenAI, Demis Hassabis di Google DeepMind e Dario Amodei di Anthropic si uniscono in un appello per affrontare il pericolo imminente e mitigare i rischi associati all’IA. Ecco quali sono le loro preoccupazioni e perché è importante considerare l’IA come una priorità globale.
Tra gli esperti che hanno lanciato l’allarme c’è anche Sam Altman, amministratore delegato di OpenAI. Secondo lui e gli altri esperti, il pericolo non risiede tanto in una superintelligenza sovrastante l’umanità, ma piuttosto nelle conseguenze dell’utilizzo irresponsabile degli algoritmi nel lavoro e nella vita quotidiana. Uno dei principali rischi riguarda l’interferenza nella diffusione di notizie false e la manipolazione dell’opinione pubblica. Infatti l’Intelligenza Artificiale può danneggiare l’umanità attraverso la creazione di canali di disinformazione.
I firmatari dell’appello sottolineano l’importanza di prepararsi per affrontare questi rischi emergenti. L’uso estensivo dell’IA sta portando a una rivoluzione in molti settori, ma allo stesso tempo pone seri problemi. L’IA permea diversi aspetti della vita sociale, economica, finanziaria, politica, educativa ed etica. Gli esperti concordano sul fatto che è necessario gestire tali situazioni e adottare misure per affrontare le sfide presentate dall’IA, come la produzione di fake news o il controllo delle auto autonome.
Altman, Hassabis e Amodei si sono recentemente incontrati con il presidente degli Stati Uniti, Joe Biden, e la vicepresidente Kamala Harris per discutere dell’Intelligenza Artificiale. Dopo l’incontro, Altman ha testimoniato davanti al Senato, avvertendo che i rischi associati all’IA avanzata erano abbastanza seri da giustificare l’intervento del governo. Egli sostiene che questi rischi richiedano una regolamentazione precisa per prevenire eventuali danni. Tuttavia, gli esperti non si sono limitati a mettere in guardia dai pericoli della tecnologia, ma hanno anche proposto soluzioni concrete per la gestione responsabile dei sistemi di IA avanzati.
Gli esperti dell’Intelligenza Artificiale avvertono che il rischio di estinzione dell’umanità dovrebbe essere considerato una priorità globale. L’IA ha il potenziale di influenzare in modo significativo il destino dell’umanità, quindi è essenziale affrontare questi rischi con urgenza. In una breve lettera pubblicata dal Center for AI Safety (Cais) si legge
“Mitigare il rischio di estinzione derivante dall’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”
Tra i firmatari della lettera ci sono Sam Altman, amministratore delegato di OpenAI, noto anche per la creazione di ChatGPT, insieme a Geoffrey Hinton e Yoshua Bengio, considerati pionieri nel campo dell’IA. Geoffrey Hinton è comunemente considerato il “padrino dell’IA”, che attualmente descrive questa tecnologia come “spaventosa”. Yoshua Bengio è invece professore di Scienze Informatiche presso l’Università di Montreal e uno dei massimi esperti del settore che ha già espresso preoccupazioni riguardo ai rischi associati a questa tecnologia.
Sam Altman è il CEO di OpenAI, l’azienda responsabile della creazione di ChatGPT, il celebre chatbot che ha catalizzato l’interesse del pubblico verso l’intelligenza artificiale. Insieme a Demis Hassabis, CEO di Google DeepMind, e Dario Amodei di Anthropic, Altman ha profetizzato il rischio di estinzione dell’umanità. Ma qual è il senso di questa dichiarazione? La votazione del Parlamento Europeo sull’AI Act, il primo regolamento al mondo sull’intelligenza artificiale, avverrà dal 12 al 15 giugno. È interessante notare che proprio in questo momento, in cui un’importante istituzione si appresta a limitare la libertà d’azione e gli sviluppi economici legati all’intelligenza artificiale, Altman si esprime contro la sua stessa tecnologia. Questo può sembrare un vero e proprio paradosso. A prima vista, questa posizione sembra priva di senso. Perché questa dichiarazione inaspettata?
Esistono diverse teorie possibili per comprendere la posizione di Altman. Una spiegazione possibile è che definire l’intelligenza artificiale onnipotente è un’ottima pubblicità per l’intero settore. Il settore dell’IA è in piena corsa e limitarlo sembra essere una sfida difficile, se non impossibile. Un’altra spiegazione potrebbe essere di natura economica. Infatti, i dati evidenziano che la corsa all’Intelligenza Artificiale coinvolge principalmente due nazioni, la Cina e gli Stati Uniti. Alla prima corrispondono investimenti privati pari a 13,4 miliardi di dollari, ai secondi un totale di 47 miliardi di dollari. La mossa di Altman potrebbe essere finalizzata a limitare la concorrenza pericolosa e contenere la portata dell’IA almeno in Europa e negli Stati Uniti. In sostanza, dietro a una dichiarazione del genere, si nascondono complessi giochi di potere. Si prevede che in futuro verranno investiti 800 miliardi di dollari nell’IA, generando un valore stimato di circa 6 trilioni di dollari.
Gli esperti propongono diverse strategie per gestire in modo responsabile l’IA. Sottolineano la necessità di cooperazione tra soggetti industriali nel settore e di maggiori ricerche sui modelli linguistici. Suggeriscono anche di creare un’organizzazione internazionale per la sicurezza dell’IA simile all’Agenzia Internazionale per l’Energia Atomica (AIEA). Inoltre, alcuni sostengono l’importanza di formulare leggi che richiedano ai creatori di modelli di IA avanzati di registrarsi e ottenere una licenza regolamentata dai governi.
L’ampia diffusione dell‘intelligenza artificiale generativa, con la proliferazione di chatbot come ChatGPT, ha suscitato molte richieste di valutare le implicazioni dello sviluppo di tali strumenti. Tra queste, una lettera aperta firmata anche da Elon Musk lo scorso marzo ha sollevato la questione di una pausa di sei mesi nello sviluppo di modelli più potenti del GPT-4 di OpenAI. Lo scopo è quello di dedicare il tempo necessario per elaborare dei protocolli di sicurezza condivisi per l’intelligenza artificiale avanzata. Infatti, come riportato nella lettera,
“I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili”.