Intelligenza artificiale: un bot avrebbe superato il test di Turing

“Ciao, mi piacciono gli hamburger e le caramelle. E ho 13 anni…”. Dice di chiamarsi Eugene Goostman e di essere un ragazzino. Ma in realtà è un software. Il primo software che avrebbe superato il test di Turing.
Oltre il 30 per cento delle persone che lo interrogavano l’ha scambiato per un essere umano.  “E’ una pietra miliare nella scienza”, ha affermato Kevin Warwick, docente all’Università di Reading, che ha organizzato l’evento in cui Eugene ha battuto il test per la prima volta, alla Royal Society di Londra.

Si tratta di un software sviluppato a San Pietroburgo da due programmatori, un russo e un ucraino: Vladimir Veselov e Eugene Demchenko. Alcune persone in una giuria indipendente hanno fatto cinque minuti di conversazione in chat con computer e persone, senza sapere se il proprio interlocutore fosse umano o meno. Alla fine doveva provare a indovinare. Il 33 per cento di loro ha scambiato Eugene per un utente in carne e ossa.

Un  lavoro che va avanti da tredici anni, sviluppando un software con una personalità “umana”. La scelta di simulare quella di un ragazzino si spiega con facilità: “così poteva essere più credibile quando dichiarava di sapere qualsiasi cosa e al tempo stesso dimostrava di non sapere tutto”, spiega Veselov.

Per coincidenza, l’evento cade proprio a 60 anni dalla morte di Turing (6 giugno del 1954), suicida dopo le persecuzioni subite a opera della giustizia inglese per l’accusa di omosessualità.

Ma cos’è il test di Turing?

Il test di Turing è un criterio per determinare se una macchina sia in grado di pensare. Tale criterio è stato precisato da Alan Turing nell’articolo Computing machinery and intelligence, apparso nel 1950 sulla rivista Mind.

Nell’articolo Turing prende spunto da un gioco, chiamato “gioco dell’imitazione”, a tre partecipanti: un uomo A, una donna B, e una terza persona C. Quest’ultimo è tenuto separato dagli altri due e tramite una serie di domande deve stabilire qual è l’uomo e quale la donna. Dal canto loro anche A e B hanno dei compiti: A deve ingannare C e portarlo a fare un’identificazione errata, mentre B deve aiutarlo. Affinché C non possa disporre di alcun indizio (come l’analisi della grafia o della voce), le risposte alle domande di C devono essere dattiloscritte o similarmente trasmesse.

Il test di Turing si basa sul presupposto che una macchina si sostituisca ad A. Se la percentuale di volte in cui C indovina chi sia l’uomo e chi la donna è simile prima e dopo la sostituzione di A con la macchina, allora la macchina stessa dovrebbe essere considerata intelligente, dal momento che – in questa situazione – sarebbe indistinguibile da un essere umano.

Le macchine di Turing sono macchine a stati finiti in grado di simulare altre macchine a stati discreti. Una macchina per sostenere il test dev’essere programmata considerando la descrizione di un uomo in termini discreti (stati interni, segnali, simboli). Dalla complessità del software, si legge tra le righe dell’articolo, emergeranno le funzioni intellettuali. Su questa aspettativa si fonda una disciplina nota come intelligenza artificiale il cui scopo è la costruzione di una macchina in grado di riprodurre le funzioni cognitive umane.

C’è da dire, però, che il bot è riuscito ad abbindolare solo il 33% degli esaminatori. Un po’ esigua come percentuale per poter affermare che il test sia stato superato. Turing, nel suo scritto, non ha mai parlato di percentuali di soglia per il superamento del test. Ha invece scritto che il test viene superato se l’esaminatore sbaglia con la stessa frequenza sia quando l’esaminatore deve distinguere fra un uomo e una donna, sia quando deve distinguere fra un essere umano e un computer.

Ciò che, invece, Turing disse fu che entro il 2000 sarebbe stato possibile programmare un computer in modo che “un esaminatore medio non avrebbe avuto più del 70% di probabilità di fare un’identificazione corretta dopo cinque minuti di domande, e su questo piano ciò che ha detto Warwick corrisponde al vero.

Resta il fatto che un computer che “finge di essere un umano” apre anche a nuovi pericoli, secondo Warwick: il cybercrime se ne approfitterà per meglio ingannare le proprie vittime (per esempio con mail di truffa automatiche molto più credibili).  Le nuove frontiere dell’intelligenza artificiale hanno un lato oscuro, con cui dovremo presto imparare a fare i conti.