Omini verdi e Intelligenza Artificiale

Astronaut and small robot facing a strange egg-shaped object and aliens at the spacewalk on a desert planet - 3d rendering

Sono passati solo pochi giorni da quando Elon Musk, intervistato a Roma da Nicola Porro, ha espresso le proprie opinioni sull’Intelligenza artificiale. Magari non ci credete, ma contestualmente ha registrato il proprio chatbot (TruhnGPT) e si è dichiarato preoccupato perché una intelligenza estranea (IA), dopo più di 150.000 anni, pare possa superare l’intelligenza umana (IU). L’acronimo IU (Intelligenza Umana) l’ho appena creato io e non rientra negli standard ufficiali. Per il vero, Musk ha espresso idee rassicuranti, ma anche preoccupazioni, incertezze e… paure sul futuro dell’Homo Sapiens Sapiens. Del resto non è stato lui uno dei firmatari della richiesta rivolta ai governanti mondiali di regolamentare gli sviluppi futuri della IA? Cosa poi ci possa accedere se SpaceX (anche questa è di Musk con Tesla, Neuralink e X AI) saprà portarci su Marte ad incontrare omini verdi con una IM >>> IA >>> IU non è facile da prevedere.

Unione Europea e Intelligenza artificiale

Sulla scorta del documento che i gestori ed i detentori di sistemi IA stanno per presentare al governo USA, anche la UE si sta muovendo verso la regolamentazione sul futuro dell’Intelligenza Artificiale: il Parlamento UE ha concluso i lavori anzitutto definendo esattamente cosa si debba intendere per IA e poi ha elencato, per ordine di gravità, i danni (fisici e mentali) potenzialmente derivabili.

Precisazioni e GPT generativa

Intelligenza Artificiale

Questo scritto non è un saggio sull’Intelligenza Artificiale, un tentativo malriuscito di contestare le paure sul futuro del binomio IA/ IU e neppure un abbozzo di Congettura di tipo metafisico (o quasi). Esso è solo la raccolta di alcune questioncelle (per dirla alla De Luca) che ne Musk, ne il materiale reperibile in rete, ne gli esperti informatici hanno adeguatamente considerato.

Punto Primo: oggi le GPT vanno alla grande. Sanno fare di tutto, in particolare, sanno interloquire e discutere con gli umani. Per la precisione, le GPT (Generative Pre-trained Transformer) sono programmi che si basano su di una memoria tanto vasta da fare invidia a tutti gli Archivi linguistici italiani, su di un noiosissimo addestramento (da parte di una IU), su una velocità  di elaborazione ultra relativistica e su di una serie di regole ortografiche e sintattiche.

La stanza cinese

L’esperimento della stanza cinese, noto anche come il “paradosso della stanza cinese”, è un argomento di dibattito filosofico che riguarda la capacità dei computer di comprendere e generare linguaggio. È stato proposto per la prima volta dal filosofo John Searle nel 1980. L’esperimento immagina una situazione in cui una persona è chiusa all’interno di una stanza e riceve delle istruzioni in una lingua che non comprende, ad esempio il cinese. La persona ha a disposizione un insieme di regole che le permettono di elaborare le domande in cinese che le vengono poste e di fornire delle risposte adeguate, senza capire il significato delle parole o delle frasi.

Searle argomenta che anche se l’individuo può eseguire correttamente le istruzioni e comunicare in modo convincente in cinese, non ha una reale comprensione del linguaggio cinese. In altre parole, l’esperimento della stanza cinese mette in discussione l’idea che una macchina o un programma informatico possa realmente comprendere il linguaggio come un essere umano. Questo argomento ha importanti implicazioni per la filosofia della mente, l’intelligenza artificiale e la comprensione della natura del pensiero e della coscienza umana. Mentre alcuni sostengono che una macchina potrebbe teoricamente comprendere il linguaggio attraverso complessi algoritmi e programmi, altri ritengono che la comprensione linguistica richieda una forma di coscienza che le macchine non possono raggiungere.

È mai possibile che nessuno, durante tante interviste, talkshow (o anche telegiornali) abbia tirato fuori la storia della Stanza Cinese? John Rogers Searle è un filosofo statunitense che ha un bel po’ di buon senso (mia opinione) e una opinione del tutto opposta a quella di Alan Turing e Alonzo Church (Congettura Church Turing):

Se un problema è umanamente calcolabile, allora esisterà una macchina di Turing in grado di risolverlo.

Non descriverò approfonditamente, in questa sede, l’esperimento mentale della Stanza Cinese ma che un’Intelligenza Artificiale generativa sia in grado di intrattenere una IU su argomenti pre definiti senza che sia IA che IU abbiano capito qualcosa dell’argomento trattato è la dimostrazione del Teorema (Congettura? Ipotesi? Idea?) di Searle.

Cosa ha dimostrato Searle? Che una ortografia + una sintassi perfette non generano la relativa semantica; insomma avendo una archivio vastissimo di frasi precostituite (su di predefinito argomento), un sistema che  relazioni  una domanda a tutte le possibili risposte ed una sintassi che indichi la risposta dotata di tutii i requisiti sintattici, otteniamo una Chatbot funzionanate, senza che nessuno abbia capito una mazza dell’argomento trattato. Ma questo è solo il Punto uno della mia contestazione (quasi contestazione).

Punto due: la GPT possiede un vastissimo archivio e una grammatica ed una sintassi perfette; ma chi gliele ha messe? Una IU naturalmente! E non venitemi a dire che la GPT generativa, sulla base di tale patrimonio di dati, è in grado di creare lei stessa un argomento con cui conversare. Probabilmente è vero, ma ha capito qualcosa dell’argomento che ha creato? Qui ritorniamo alla Stanza Cinese dove tra Dire a Capire (ciò che si è detto) ci passa un bel po.

Iot, Wot e Feedback

Intelligenza Artificiale

Mi auguro arrivi un giorno in cui solo la Accademia della Crusca possa autorizzare l’uso di acronimi, abbreviazioni, neologismi, ecc. La IA è già in modo di intervenire sulle cose modificandole senza consenso esplicito di IU anche sul nome (Iot, Wot, Chatbot, Feedback). Elon Musk lo sa bene: Tesla a guida autonoma lo conferma.

Nel 1962, Polimi: esame di Controlli automatici (dove ho conquistato uno dei pochi 110); dimostrazione del Teorema di Bode sulla stabilità di feedback positivi. Viste le date possiamo dire “Nihil sub sole novum”.

Punto 3: infatti proviamo a dover inserire nell’enorme archivio di un Chatbot GPT ricorsivo, il concetto di “entusiasmo” in tutte le versione semanticamente correlate e corrette; i termini “fiducia, allegria, soddisfazione, futuro, riso, …” ci possono anche stare, ma “baratro”?

Il sistema per validare se “baratro” va bene è quello di inserirlo in una frase che parla di “entusiasmo” e verificare se tale frase, così modificata” è semanticamente migliorata o meno. Bene, un Feedback positivo (che evidenzia o smentisce la correlazione) può essere intrinsecamente instabile (Bode) quindi non può essere una garanzia assoluta; meglio rivolgere la domanda ad una (o più) IU

Intelligenza Artificiale nel futuro prossimo

Nessuna paura che la IA possa superare la IU, neppure in un futuro quasi – prossimo. Nessuna paura che un ET (omino verde) con una Intelligenza IEt >>> IA >>> IU possa eliminare la Specie Sapiens (e a maggior ragione quella Sapiens sapiens). Per ora siamo ancora l’unica specie vivente dotata di IU (anche  stiamo perdendo neuroni ad una velocità preoccupante).