NIDays 2016 : I robot ci leggeranno nel pensiero
Esattamente ieri si è tenuto il NIDays 2016, un forum tecnologico curato dalla National Instruments, che ci porta un’indicazione sul futuro della robotica nei prossimi 10 anni.
Vi ho già parlato qui di come l’IA possa ora finalmente comprendere come si muovono gli oggetti intorno a lei e come reagiranno sottoposti a nuove forze, e qui delle problematiche relative alla comprensione del linguaggio umano (sia esso verbale, para-verbale o non verbale).
Ieri, Lorenzo Natale (ricercatore dell’Iit), ha parlato di come queste due nuove ambizioni tecnologiche ci porteranno, in meno di 10 anni, alla creazione di robot in grado di prevedere i nostri movimenti e i nostri pensieri.
“Il nostro obiettivo – spiega Natale – è quello di sviluppare robot sempre più adatti all’uso domestico, capaci di interagire in maniera sicura e naturale anche con bambini e anziani. I robot dovranno intuire in anticipo i nostri movimenti e le nostre intenzioni, in modo da aiutarci o semplicemente evitare di sbatterci contro: per questo stiamo sviluppando nuovi algoritmi che li aiutino ad interpretare il contesto in cui si muovono e il linguaggio del corpo delle persone che hanno davanti”.
Al NIDays 2016 è emerso che grazie all’apprendimento del linguaggio del corpo, sarà semplice prevedere le nostre mosse. E una conoscenza profonda della fisica porterà poi a potersi muovere perfettamente in un mondo popolato da noi umani.
Ma la ricerca vuole spingersi oltre:
Insegnare ai robot a reagire nel migliore dei modi quando non si riesce a percepire in correttamente la realtà.
ESEMPIO:
Mettiamo che un robot sia per strada e venga accecato dalla luce di una macchina, mentre attraversa. La reazione corretta, sarebbe quella di correre e finire di attraversare.
Mettiamo invece che la stessa percezione (quindi una luce accecante – che in termini informatici significherebbe una saturazione e luminosità elevatissime nell’immagine) sia causata semplicemente dalla luce del sole che in quel momento abbaglia la camera: Il robot non può mica mettersi a correre. Dovrà capire il contesto, e reagire di conseguenza, ad esempio muovendo la camera.