Un team di ricercatori ha progettato e costruito un nuovo chip, chiamato NeuRRAM, che promette di mettere il turbo all’intelligenza artificiale: piccolo e versatile, consuma meno energia dei chip convenzionali ed esegue calcoli accurati direttamente in memoria, senza bisogno di appoggiarsi a un cloud esterno e quindi eseguire sofisticate attività cognitive ovunque e in qualsiasi momento senza fare affidamento su una connessione di rete a un server centralizzato. Questo permette di avere una più ampia gamma di applicazioni e offre un duplice vantaggio: una migliore protezione dei dati sensibili e la possibilità di eseguire algoritmi di IA su un più ampio spettro di dispositivi edge.
Le applicazioni abbondano in ogni angolo del mondo e in ogni aspetto della nostra vita e spaziano da orologi intelligenti, cuffie VR, auricolari intelligenti, sensori intelligenti nelle fabbriche e rover per l’esplorazione dello spazio. Lo studio è stato pubblicato sulla rivista Nature con il titolo “A compute-in-memory chip based on resistive random-access memory”.
Attualmente, gli algoritmi di intelligenza artificiale richiedono un notevole dispendio di energia, soprattutto perché computazionalmente costosi. La maggior parte delle applicazioni di intelligenza artificiale sui dispositivi “edge” comporta lo spostamento dei dati dai dispositivi al cloud, dove vari software di intelligenza artificiale li elaborano e li analizzano. Quindi i risultati vengono spostati nuovamente sul dispositivo. Questo perché la maggior parte dei dispositivi edge sono alimentati a batteria e, di conseguenza, hanno solo una quantità limitata di energia che può essere dedicata all’elaborazione dati, limitandosi quindi alla cattura di dati e/o alla visualizzazione di risultati. “E’ l’equivalente di fare un pendolarismo di otto ore per una giornata lavorativa di due ore”, ha detto Wan, uno dei ricercatori che ha lavorato al progetto.
Riducendo il consumo energetico necessario per l’inferenza dell’IA all’edge, questo chip NeuRRAM potrebbe portare alla realizzazione di dispositivi edge più robusti, più intelligenti e accessibili e a una produzione più intelligente. Potrebbe anche portare a una migliore privacy dei dati poiché il trasferimento di dati dai dispositivi al cloud comporta maggiori rischi per la sicurezza.
Un altro collo di bottiglia nella architetture computazionali tradizionali è lo spostamento dei dati dalla memoria alle unità di calcolo. Sui chip AI, lo spostamento dei dati dalla memoria alle unità di calcolo è uno dei principali colli di bottiglia. Per risolvere questo problema relativo al trasferimento dei dati, i ricercatori hanno utilizzato quella che è nota come memoria resistiva ad accesso casuale (RRAM), un tipo di memoria non volatile che consente il calcolo direttamente all’interno della memoria anziché in unità di calcolo separate.
Il calcolo con chip RRAM non è necessariamente nuovo, ma generalmente porta a una diminuzione dell’accuratezza dei calcoli eseguiti sul chip e a una mancanza di flessibilità nell’architettura del chip. Il chip NeuRRAM, d’altro canto, è stato pensato per essere estremamente versatile e supporta molti diversi modelli e architetture di reti neurali. Di conseguenza, il chip può essere utilizzato per molte applicazioni diverse, incluso il riconoscimento e la ricostruzione delle immagini, nonché il riconoscimento vocale.
“Il calcolo in memoria è stata una pratica comune nell’ingegneria neuromorfica da quando è stato introdotto più di 30 anni fa (…) La novità di NeuRRAM è che l’estrema efficienza ora si unisce a una grande flessibilità per diverse applicazioni di intelligenza artificiale senza quasi nessuna perdita di precisione rispetto alle piattaforme di calcolo digitali standard per uso generale”.