L’IA diventa più leggera: un sistema del MIT riduce i calcoli e consumi energetici
Un nuovo sistema sviluppato al MIT rende l’intelligenza artificiale più veloce ed efficiente, riducendo drasticamente il consumo energetico.
L’intelligenza artificiale è ormai ovunque, dalla medicina al riconoscimento vocale. Ma dietro questa tecnologia così potente si nasconde un problema non da poco: i modelli di apprendimento profondo devono macinare una quantità enorme di dati complessi, e questo significa una valanga di calcoli e, di conseguenza, un consumo energetico altissimo.
Non si tratta solo di prestazioni, ma anche di quanto pesa questa tecnologia sull’ambiente. Provare a rendere più efficienti questi algoritmi non è affatto semplice. Le soluzioni attuali, infatti, si limitano a sfruttare una sola delle due principali “scorciatoie” nei dati.
O la scarsità (quando ci sono molti zeri nei dati) o la simmetria (quando certe parti dei dati sono speculari). Purtroppo, combinarle entrambe è complicato e richiede un bel po’ di lavoro da parte degli sviluppatori. Le reti neurali lavorano con strutture dati chiamate tensori, che sono come matrici ma con molte più dimensioni.
Più dimensioni significano più complessità e più fatica per i processori. Ridurre il numero di operazioni su questi tensori non è solo una questione di velocità, ma aiuta anche a ridurre il consumo di energia. Il problema? Fino ad oggi, farlo in modo efficiente richiedeva competenze tecniche avanzate e un sacco di tempo.
Il MIT trova la scorciatoia: meno fatica, più velocità
Un team di ricercatori del MIT ha trovato un modo per semplificare tutto questo processo. Hanno creato un sistema automatico che permette di sfruttare sia la scarsità che la simmetria nei dati, rendendo gli algoritmi più veloci e leggeri. E il bello? Non serve essere esperti di deep learning per usarlo. Questo nuovo metodo ha portato a risultati sorprendenti, con un aumento della velocità dei calcoli fino a 30 volte in alcuni test.
Il cuore di questa innovazione è un compilatore chiamato SySTeC, che traduce il codice complesso in istruzioni ottimizzate, tagliando le operazioni inutili. Il sistema riconosce automaticamente quando i dati sono simmetrici (e quindi può evitare calcoli doppi) e quando ci sono valori nulli da ignorare. Inoltre, grazie a un linguaggio di programmazione semplice, anche chi non è un esperto può ottimizzare i propri algoritmi senza troppi sforzi.
Un futuro più efficiente (e meno complicato)
Usare SySTeC è facile: basta inserire il programma, e il sistema fa tutto il resto. Ottimizza il codice, riduce i calcoli superflui e sforna un programma pronto all’uso. Questo significa meno tempo sprecato a scrivere codice complicato e più energia risparmiata. Insomma, una manna per chi vuole velocizzare i propri algoritmi senza impazzire.
Le potenzialità di SySTeC vanno ben oltre l’intelligenza artificiale. Può essere utilizzato in ambito scientifico, nella gestione di grandi quantità di dati o in qualsiasi settore che richieda potenza computazionale. I ricercatori del MIT stanno già pensando di integrarlo con altri sistemi per rendere l’interfaccia ancora più semplice e intuitiva. Se tutto va secondo i piani, questa tecnologia potrebbe rendere l’IA non solo più veloce, ma anche più sostenibile.