L’intelligenza artificiale? È più vecchia di quanto si creda
[Arte e IA, episodio 1] A cura di Roberto Balestri
Era il 1956 quando l’informatico statunitense John McCarthy coniò la parola “intelligenza artificiale”, durante la prima conferenza accademica sullo sviluppo di sistemi intelligenti nel campus del Dartmouth College, nel New Hampshire, fondando in seguito due laboratori di ricerca sull’IA presso il MIT e Stanford University.
All’inizio degli anni Cinquanta del secolo scorso, lo studio sulle “macchine pensanti” assunse vari nomi: “cibernetica”, “teoria degli automi” ed “elaborazione delle informazioni”. Ma McCarthy voleva un nuovo termine neutrale che potesse raccogliere e organizzare questi disparati sforzi di ricerca in un unico campo incentrato sullo sviluppo di macchine in grado di simulare ogni aspetto dell’intelligenza. Negli anni seguenti, fino ad oggi, si sono alternate fasi di ricerca e sperimentazione intensiva nel campo dell’IA (chiamate dagli storici “estati”) a periodi di stallo (“inverni”).
Gli albori dell’Intelligenza Artificiale: 1943-1955
I primi lavori di ricerca in ambito IA (anche se, ancora, non si chiamava così) si focalizzarono sulle reti neurali. Le reti neurali artificiali sono modelli matematici ispirati alle reti neurali biologiche e composti da neuroni artificiali.
Warren McCulloch e Walter Pitts conseguirono i primi risultati interessanti con i loro studi sul funzionamento del cervello umano nel 1943, ipotizzando che le reti fossero in grado di apprendere. Qualche anno dopo, nel 1951, Marvin Minsky inventò il primo computer a rete neurale, chiamato SNARC, il quale simulava una rete di 40 neuroni.
Lo scopo di SNARC era quello di simulare il comportamento di un topo in un labirinto che, sbaglio dopo sbaglio, impara a percorrere la strada giusta per uscirne. Negli stessi anni Alan Turing ideò l’omonimo e famosissimo test.
La prima estate dell’Intelligenza Artificiale: 1956-1973
Nel 1956, durante la conferenza di McCarthy in cui venne coniato il termine “intelligenza artificiale”, i ricercatori Herbert Simon e Allen Newell presentarono “Logic Theorist”, considerato il primo programma di intelligenza artificiale, in quanto progettato per imitare le capacità di “problem solving” di un essere umano.
I progressi in questo periodo furono sorprendenti. In un momento in cui la maggior parte delle persone si rifiutava di credere che le macchine potessero comportarsi in modo intelligente, i computer iniziarono a risolvere problemi algebrici, dimostrare teoremi geometrici e imparare a parlare inglese. Organizzazioni come la DARPA (un’agenzia governativa del Dipartimento della Difesa degli Stati Uniti) investirono decine di milioni di dollari in progetti di intelligenza artificiale presso diverse università.
Intanto Ed Feigenbaum inventò un tipo di Intelligenza Artificiale chiamato “sistema esperto”. I sistemi esperti utilizzavano una serie di regole logiche derivate dalle conoscenze di umani esperti in determinati campi per automatizzare decisioni molto specifiche. Nel 1965 Feigenbaum progettò DENDRAL, in grado di analizzare la struttura chimica delle molecole organiche, e nel 1972, insieme ad altri due ricercatori, sviluppò MYCIN, un sistema specializzato nella diagnosi di malattie infettive.
Molti scienziati credevano che già negli anni Ottanta sarebbero state costruite macchine completamente intelligenti. Herbert Simon, che in seguito ricevette un premio Nobel per l’economia e un premio Turing, credeva che “entro il 1985, le macchine sarebbero state in grado di svolgere qualsiasi lavoro un uomo possa fare”. Come ben sappiamo, nostro malgrado, si tratta di una supposizione ben troppo ottimistica.
Il primo inverno dell’Intelligenza Artificiale: 1974-1980
All’inizio degli anni Settanta i migliori programmi potevano gestire solo problemi banali. La quantità di potenza di elaborazione richiesta per risolvere problemi più complessi andava ben oltre ciò che i computer fossero in grado di fare al tempo. Ad esempio, uno dei primi sistemi di intelligenza artificiale che analizzava la lingua inglese era in grado di gestire un vocabolario di sole 20 parole, perché non poteva immagazzinarne altre nella propria memoria.
Nel 1974 i finanziatori si resero conto che i ricercatori avevano promesso troppo, senza raggiungere i risultati sperati, e si rifiutarono di continuare a sostenere la maggior parte dei progetti di IA.
La seconda estate dell’Intelligenza Artificiale: 1981-1987
All’inizio degli anni Ottanta l’IA tornò in voga grazie al grande successo di XCON, programma scritto dal professor John McDermott per la Digital Equipment Corporation. Negli anni Settanta e Ottanta, le persone dovevano ordinare in autonomia ogni singola parte per i loro sistemi informatici “VAX”, un processo ad alta probabilità di errore, che spesso lasciava le persone senza i cavi corretti o con i driver sbagliati.
A partire dal 1980, XCON, aiutò i venditori di hardware a non commettere sbagli, stampando un elenco completo delle parti necessarie alla costruzione dei computer VAX basandosi sulle specifiche richieste dai clienti. Nel 1986, il sistema aveva elaborato ottantamila ordini con un’accuratezza del 95-98%, facendo risparmiare ai venditori, mediamente, venticinque milioni di dollari all’anno.
Nel 1985, le aziende di tutto il mondo spendevano annualmente oltre un miliardo di dollari in ricerche sull’IA e, alla fine degli anni Ottanta, due terzi delle aziende Fortune 500 (lista annuale compilata e pubblicata dalla rivista Fortune che classifica le cinquecento maggiori imprese societarie statunitensi misurate sulla base del loro fatturato) utilizzavano sistemi esperti.
Nel 1981, il governo giapponese decise di investire centinaia di milioni di dollari in computer appositamente progettati per applicare l’intelligenza artificiale. L’America, il Regno Unito e il resto dell’Europa avevano già visto il Giappone prendere il controllo dell’industria dell’elettronica di consumo negli anni Settanta, lo stavano osservando nel settore automobilistico negli anni Ottanta e non volevano che il paese nipponico monopolizzasse anche l’industria informatica, così risposero investendo centinaia di milioni di dollari in programmi di ricerca sull’IA.
Il secondo inverno dell’IA: 1987-2011
Nel 1987, i nuovi PC di Apple e IBM si dimostrarono più potenti dei computer appositamente progettati per eseguire programmi di intelligenza artificiale e un’industria di mezzo miliardo di dollari scomparve dall’oggi al domani. Nello stesso anno, la DARPA, che era ancora uno dei più importanti finanziatori della ricerca sull’IA, decise di non investire più in questo campo. Nel 1991, anche il Giappone abbandonò il suo principale progetto di ricerca sui computer intelligenti, dopo aver speso quattrocento milioni di dollari in dieci anni senza aver raggiunto nessuno dei suoi obiettivi originali.
Inoltre, i sistemi esperti come XCON si dimostrarono troppo costosi da mantenere. Dovevano essere aggiornati manualmente (processo difficile, costoso e soggetto a errori) e non riuscivano a gestire bene input insoliti. Ancora una volta, i ricercatori avevano promesso troppo e ricavato poco.
Dietro le quinte del secondo inverno dell’IA
Sorprendentemente, fu durante questo secondo inverno dell’IA, quando i finanziamenti per qualsiasi cosa chiamata “intelligenza artificiale” divennero scarsi, che l’IA, con altri nomi, iniziò a essere incorporata in migliaia di sistemi di successo. Il motore di ricerca di Google, ad esempio, è stato parzialmente alimentato dall’intelligenza artificiale fin dall’inizio e i controller di logica fuzzy hanno iniziato ad essere utilizzati nelle fotocamere e nei cambi automatici delle auto.
Nel 1991, DARPA ha introdotto un sistema chiamato DART per ottimizzare la logistica necessaria all’esercito americano durante la guerra del Golfo. Nel 1995, DART aveva fatto risparmiare ai militari la stessa quantità di denaro che DARPA aveva speso per la ricerca sull’IA negli ultimi 30 anni messi insieme. Nel 1997, Deep Blue di IBM sconfisse il campione del mondo di scacchi in carica, Garry Kasparov, e nel 2005, un robot di Stanford vinse il DARPA Grand Challenge guidando autonomamente per 131 miglia, attraverso un sentiero nel deserto che non aveva mai visto prima.
Nessuno di questi sistemi era chiamato “intelligenza artificiale”. A partire dagli anni Novanta e proseguendo negli anni 2000, i ricercatori si riferivano a queste invenzioni come “sistemi basati sulla conoscenza”, “sistemi cognitivi” e “intelligenza computazionale”.
Come riportato dal quotidiano “New York Times” nel 2005, gli scienziati hanno evitato il termine “intelligenza artificiale” per paura di essere visti come sognatori. Nick Bostrom, un tecnologo e futurologo, ha spiegato nel 2006 che molta intelligenza artificiale avanzata è stata filtrata in applicazioni generali, spesso senza essere chiamata IA perché “una volta che qualcosa diventa abbastanza utile e comune, non viene più etichettata come IA”.
La rinascita dell’IA: 2012
L’attuale rinascita dell’intelligenza artificiale può essere fatta risalire a un momento specifico: la ImageNet Large Scale Visual Recognition Competition (ILSVRC) del 2012. Si tratta di una competizione annuale che vede partecipare i migliori algoritmi di visione artificiale (un campo che esiste dagli anni Sessanta e consiste nell’identificare oggetti all’interno di un’immagine) di tutto il mondo.
Il programma vincitore del 2012, AlexNet, ha spazzato via la concorrenza superando il secondo miglior punteggio del 10,8%. Il margine sorprendentemente ampio ha catturato l’attenzione dei ricercatori di molti settori. Il team vincitore, dell’Università di Toronto, per vincere ha sfruttato tre fattori chiave che stanno guidando la moderna intelligenza artificiale: la sempre crescente capacità computazionale, i big data (una grande mole di informazioni digitali) ed algoritmi sempre più intelligenti. Grazie a questi tre fattori, i progressi dal 2012 ad oggi in campo IA sono proceduti a un ritmo mozzafiato.
L’Intelligenza Artificiale oggi
Il termine “Intelligenza Artificiale”, negli ultimi anni, è stato usato nelle maniere più disparate, indubbiamente anche in modo improprio. Basti pensare a quanti oggetti vengono descritti come prodotti dotati di qualche fantomatica intelligenza.
L’IA, però, è oggi più che mai parte integrante della nostra vita:
- aiuta i medici a riconoscere certe malattie basandosi su sintomi o analizzando TAC ed ecografie;
- verrà utilizzata in guerra a bordo dei droni: la difesa statunitense è attualmente all’opera su Project Maven (a cui ha collaborato anche Google e da cui si è distaccata solo a fine 2019), un sistema basato sull’IA che aiuterà i militari a identificare, classificare e tracciare gli obiettivi grazie alle telecamere dei droni;
- sceglie se una persona è adatta o no ad essere assunta da un’azienda in base alle sue reazioni facciali durante un video-colloquio;
- giudica il merito creditizio del cittadino permettendogli o negandogli, per esempio, una carta di credito o un prestito (succede in Cina);
- modifica le foto scattate con i nostri cellulari;
- personalizza le playlist musicali differenziandole per ogni utente;
- guida veicoli al posto nostro (le auto a guida autonoma diventeranno sempre più comuni nei prossimi anni);
- permette agli smartphone (o altri dispositivi) di capire la nostra voce nonostante possibili inflessioni dialettali, eventuali costruzioni sintattiche sbagliate, etc.
- E non solo: l’IA sta creando (autonomamente o in affiancamento ad umani) musica, libri, sculture e dipinti.
Ed è proprio il rapporto tra arti ed IA che vi racconterò nei prossimi articoli.