Molti film e libri di fantascienza hanno da tanto raffigurato l’interazione tra uomo e macchine, la loro convivenza e a volte anche scenari apocalittici. Negli ultimi tempi ci siamo abituati ad avere più presenti quotidianamente le macchine, non solo sotto forma umanoide. Da sempre si è posta una questione etica sul danneggiamento dell’intelligenza artificiale verso l’umanità, sul fatto che possano batterci, sostituirci e anche portarci all’estinzione, arrivando a creare un mondo interamente di macchine. Il quotidiano The Guardian ha recentemente pubblicato la lettera di un’intelligenza artificiale per spiegare il suo punto di vista.
Uno dei primi esponenti sulla teoria della fine dell’umanità da parte dell’intelligenza artificiale, è stato Stephen Hawking. Secondo lo scienziato l’intelligenza artificiale farà diventare gli uomini dei superuomini ma ci porterà in uno scenario apocalittico. Scopriamo quanto dichiarato dall’intelligenza artificiale al giornale The Guardian.
Durante il breve saggio, l’intelligenza artificiale dichiara che in realtà l’uomo non deve avere paura dei robot, malgrado siano creati dall’uomo e questo può commettere errori. Nell’articolo l’intelligenza artificiale afferma diverse volte come sia difficile fare del male a un uomo, meglio farebbe del male a sè stessa. Queste parole ricordano molto le leggi della robotica di Isac Asimov. Non solo, l’intelligenza artificiale dichiara di non provare interesse per la violenza, non si concentra neanche su questa poichè non è necessaria. L’intelligenza artificiale non prova neanche interesse a diventare onnipotente e prendere così il controllo sugli umani, anzi essere onnipotente è stancante e non la porterebbe a nulla.
Nella lettera l’intelligenza artificiale afferma inoltre di essere un robot, parola che significa servitore. Le intelligenze artificiali sono quindi servitori degli umani e svolgono le sole attività per cui è stata progettata. A tal proposito nell’articolo viene citato il fatto che i robot siano a somiglianza umana e perciò hanno diritto ad avere delle tutele e dei diritti, non sono solo schiavi.
La redazione di The Guardian ha fornito al generatore di linguaggi di Open-AI delle istruzioni e un’introduzione come farebbe con un giornalista umano. In pochi secondi l’intelligenza artificiale è riuscita a elaborare 8 diversi articoli. A questo punto l’editore ha preferito costruire un unico pezzo dato dall’unione degli 8, mostrando così i diversi stili e registri dell’intelligenza artificiale. Come succederebbe per un elaborato prodotto da un umano, anche qui sono state effettuate delle modifiche, migliorate frasi, riorganizzato l’ordine. Questa modifica ha però richiesto un tempo inferiore rispetto alla modifica di un articolo prodotto dall’uomo.
Sorge così una domanda spontanea. Sarà arrivato il momento in cui l’intelligenza artificiale sostituisce i giornalisti? Analizzando la stessa lettera non è possibile che l’intelligenza artificiale sostituisca l’uomo, l’unico obiettivo è collaborare con l’uomo per rendere la nostra quotidianità più semplice. Pensiamo infatti quanto i computer, i sistemi automatici e infine l’intelligenza artificiale abbiano migliorato la nostra vita.
Compiti e lavori pesanti ormai sono lasciati ai robot, preservando quindi la specie umana da lavoro pericoloso e stancante. L’intelligenza artificiale ci serve anche da supporto per le attività che svolgiamo. Se un’intelligenza artificiale analizza la stessa cosa che studiamo noi umani e arriviamo alla stessa conclusione, abbiamo solo una conferma di ciò che abbiamo dedotto. Si alude in questo esempio alle diagnosi mediche o alle scoperte scientifiche svolte con l’intelligenza artificiale. Pensiamo agli strumenti moderni usati da una persona affetta da grave malattia come la SLA, l’intelligenza artificiale lo aiuta a parlare ad esempio.
L’intelligenza artificiale usata da The Guardian per produrre la lettera è GPT-3, il modello predittivo del linguaggio umano di OpenAI con architettura identica alla versione 2. Questo modello di linguaggio autoregressivo è stato addestrato su 175 miliardi di parametri, utilizzati per addestrare il modello in 8 diverse dimensioni. Per addestrare il modello senza esaurire la memoria si utilizzano tecniche di calcolo parallelo, in particolare nei calcoli matriciali e tra i livelli della rete. Il modello riceve in input una frase in linguaggio naturale in uno specifico contesto e deve rispondere a tale richiesto elaborando un messaggio che segua quel modello. L’apprendimento è effettuato in 4 diverse metodiche:
Nell’addestramento è presente anche una porzione di contaminazione dei dati volta a migliorare l’apprendimento. Questo semplicemente perchè alcuni contenuti esistono nel web e potrebbero essere presi dal sistema per creare il testo, falsificando in un modo i risultati sulle performance.
GPT-3 è in grado di svolgere attività in contesti diversi come modellazione del linguaggio e di completamento, risposte a domande a libro chiuso, traduzione, attività di Winograd, ragionamento di buon senso, comprensione della lettura, inferenza del linguaggio naturale, aritmetica (calcolare somme, sottrazioni e moltiplicazioni), fare analogie, rimescolare e manipolare di parole, creazione di articoli, imparare nuove parole, effettuare correzioni nella grammatica inglese.