Il processo che permette ad un essere umano di percepire, pesare e afferrare oggetti, deducendone le proprietà, rimane ancora un compito difficile perché possa essere replicato con fedeltà in un robot moderno.

I sensori che forniscono feedback sensoriali consentendo la destrezza della presa umana si chiamano meccanocettori e complicato è capirne il funzionamento. D’altro canto però, le  strategie di presa dei robot basate sulla visione artificiale, sono progredite in modo sostanziale grazie all’abbondanza di dati e a strumenti basati sul machine learning. Non ci sono ancora, però, piattaforme sensoriali e set di dati su larga scala con cui sondare le informazioni tattili su cui si basano gli esseri umani quando afferrano un oggetto.

Un archivio di dati basati sul tatto

Recentemente il MIT ha messo a disposizione un intero archivio di dati basati sul tatto e lo ha creato immagazzinando in un sistema di intelligenza artificiale, le sensazioni registrate tramite dei guanti equipaggiati con speciali sensori. I dettagli dello studio sono pubblicati su Nature e grazie a questi si potrà dare vita a degli automi dotati di un senso del tatto del tutto simile a quello degli esseri umani e progettare tecnologie indossabili e protesi più sensibili.

Credit: computerworld.com
Credit: computerworld.com

Per lo studio è stato utilizzato un guanto tattile scalabile, STAG (scalable tactile glove), e reti neurali convoluzionali per mostrare che i sensori distribuiti uniformante sul guanto possono essere utilizzati per identificare singoli oggetti, stimarne il peso ed esplorare i tipici modelli tattili che emergono mentre si afferrano gli oggetti.

STAG

STAG è dotato di circa 550 sensori su tutta la sua superficie ed è un guanto di maglia che consiste di uno strato piezoresistivo collegato da una rete di elettrodi a fili conduttivi che vengono rilevati passivamente.

A testarli sono state persone normodotate che hanno contribuito a raccogliere il maggior numero di dati possibili mentre maneggiavano oggetti di varia natura. I guanti infatti sono stati testati su 26 oggetti, differenti in forma e peso, tra forbici, lattine, palline da tennis, penne. In questo modo i sistemi artificiali saranno in grado di riconoscere e classificare oggetti basandosi esclusivamente ai dati relativi al tatto, senza il bisogno di osservare delle immagini.

Questo insieme di interazioni con oggetti diversi rivela le corrispondenze chiave tra le diverse regioni di una mano umana mentre manipola gli oggetti. Ad esempio, quando qualcuno usa la parte centrale dell’indice, raramente usa il pollice. Ma le punte dell’indice e del medio vengono sempre impiegate insieme al pollice. Queste informazioni posso servire a scegliere i punti ottimali in cui posizionare i sensori di pressione delle protesi.

Al termine del progetto i dati raccolti sono stati utilizzati per svolgere un test su un’AI. Il sistema di intelligenza artificiale è riuscito ad identificare con precisione vari oggetti nel 76% dei casi, prevedendone il peso con un margine di errore di circa 60 grammi.

È possibile che in futuro l’archivio ottenuto dagli studiosi del MIT consentirà di realizzare delle mani robotiche sempre più precise e affidabili. La prima protesi di questo tipo, sviluppata nell’ambito del progetto europeo DeTOP, è stata impiantata lo scorso febbraio in Svezia a una donna di quarantacinque anni. Durante l’operazione chirurgica sono state impiantate nel radio e nell’ulna della paziente dei componenti in titanio in grado di collegare le ossa dell’avambraccio e le terminazioni nervose alla mano robotica.

LEAVE A REPLY

Please enter your comment!
Please enter your name here