Home » E’ italiano il robot Abel di 12 anni che sa comprendere le emozioni umane

E’ italiano il robot Abel di 12 anni che sa comprendere le emozioni umane

Parliamo di Abel, un robot somigliante a un ragazzo di 12 anni capace di comprendere le emozioni degli esseri umani che ha davanti.

Categorie La macchina di Turing

Continunano le ricerche in tutto il mondo sul come migliorare le interazioni Uomo – Robot, e una di queste ricerche verte in particolare sul comprendere le emozioni degli esseri umani che un robot ha davanti. E’ il caso di Abel, un robot somigliante a un ragazzo di 12 anni.

Il nuovo robot è stato realizzato in modo congiunto tra il Centro di Ricerca dell’Università di Pisa e Biomimics di Londra. Per alcuni quest’ultimo nome forse non è nuovo: si tratta dei laboratori che hanno dato vita ad alcuni dei personaggi di Star Wars o i dinosauri di Jurassic Park.

robot Abel

“Abel è un robot umanoide sia sotto l’aspetto estetico sia comportamentale. Non solo somiglia e si muove come noi umani, ma è in grado di interagire, comportarsi e percepire ciò che lo circonda in modo analogo al nostro”.

Lorenzo Cominelli, Centro di Ricerca E.Piaggio.

Il robot Abel: fusione tra affective computing e robotica sociale

Il robot Abel è quindi una fusione tra due campi: quello dell’affective computing e della robotica sociale.

L’affective computing (calcolo affettivo) si occupa dello studio e lo sviluppo di sistemi e dispositivi in grado di riconoscere, interpretare, elaborare e simulare gli affetti umani. È un campo interdisciplinare che abbraccia informatica, psicologia e scienze cognitive.

La robotica sociale si occupa di studiare particolari tipi di robot (autonomi o semi-autonomi) capaci di interagire e comunicare con gli esseri umani o con altri agenti fisici autonomi seguendo comportamenti sociali e regole legate ai loro specifici ruoli.

robot Abel

Come fa un robot a cogliere le emozioni degli umani?

Abel quindi si basa su un mix che permette al robot di interagire e allo stesso tempo di studiare l’interlocutore osservandone moltissimi parametri.

Tra questi elementi ne troviamo anche alcuni non direttamente visibili per l’uomo, come i piccoli cambiamenti termici sul volto visibili all’infrarosso o la frequenza del battito cardiaco, tutti elementi da cui può dedurre quali emozioni sta provando la persona di fronte a lui, con qui sta interagendo.

“Cerca di capire la persona che ha davanti e, se fa un’azione, prova a capire se ha provocato una reazione di un certo tipo. Ad esempio, in applicazioni con pazienti affetti da disturbi come Alzheimer, un robot simile può essere usato per scandagliare le reazioni del paziente ad una serie di comportamenti per poi capire quale possano essere le migliori risposte. Da questo lavoro il medico potrà cercare i trattamenti più efficaci. Abel ha incredibili potenzialità, una piattaforma per usi in moltissimi campi”.

Non è l’unica ricerca italiana in questo campo. Un esempio è Pepper, realizzato ai RoboticsLab dell’Università degli Studi di Palermo, mostra per la prima volta la voce interiore di un Robot.