Home » Attacchi hacker al pentagono per migliorare i sistemi di intelligenza artificiale

Attacchi hacker al pentagono per migliorare i sistemi di intelligenza artificiale

L’avvento dell’intelligenza artificiale sta scatenando una sfida militare tra le più grandi potenze mondiali. Negli Stati uniti, il Pentagono ha eletto un nuovo team col compito di simulare gli attacchi hacker ai propri sistemi di IA.

Categorie J.A.R.V.I.S

È il giugno 2017 quando la Repubblica Popolare Cinese avvia il suo piano di sviluppo per una nuova generazione di intelligenza artificiale con l’obiettivo di diventare entro il 2030 il principale centro d’innovazione in questo settore. Solo tre mesi dopo, anche la Russia esce allo scoperto con le dichiarazioni del suo Presidente Vladimir Putin: “Chi svilupperà la migliore intelligenza artificiale diventerà il padrone del mondo”.

È solo l’inizio di una vera e propria sfida tecnologica, da alcuni persino definita come la “sfida del secolo”, e da cui naturalmente gli Stati Uniti non possono tirarsi indietro. Nasce quindi nel 2018 il Joint Artificial Intelligence Center (JAIC), un centro di eccellenza della Difesa Usa, per dare una forte spinta all’IA in ambito militare, trasformandola in una potente risorsa a supporto delle forze armate statunitensi. Una commissione di esperti, dunque, che ha come obiettivo principale la difesa del vantaggio tecnologico su Cina e Russia, in uno dei campi più in voga degli ultimi anni.

L’interesse che il Pentagono mostra in questa tecnologia deriva dal concepirla come un’arma potenzialmente in grado di ingannare e dominare ogni avversario. Il rischio, tuttavia, è che senza le giuste attenzioni possa addirittura trasformarsi in un’arma a doppio taglio, offrendo ai nemici vantaggi clamorosi.

L’apprendimento automatico, l’intelligenza artificiale e le possibili minacce

Alla base degli algoritmi di intelligenza artificiale vi è l’apprendimento automatico, inteso come la capacità di imparare ad eseguire task specifici e migliorare le proprie performance sulla base dei dati a disposizione e dell’esperienza accumulata. Il programmatore, sostanzialmente, non dovrà più occuparsi delle regole che la macchina dovrà seguire, in quanto queste saranno l’oggetto di ricerca, a partire dai dati, della macchina stessa. Tuttavia, tale processo di apprendimento non sempre riesce a garantire il raggiungimento dell’obiettivo stabilito. Quel che spesso accade, a seguito di una mancata cura nella scelta dei dati di addestramento, è che i modelli generati assumono un comportamento imprevedibile ed indesiderato.

“Sebbene le tecniche di machine learning siano anche un miliardo di volte superiori ai software tradizionali per diverse applicazioni, rischiano di fallire in modi assolutamente diversi rispetto a quelli tradizionali”

Gregory Allen, direttore delle strategie e delle comunicazioni presso il JAIC

Supponiamo che un algoritmo venga addestrato a riconoscere dei veicoli nemici sfruttando le immagini satellitari. Nel determinare le caratteristiche specifiche del veicolo in questione l’algoritmo può imparare un’associazione tra il veicolo stesso e alcune caratteristiche dell’ambiente circostante, come i colori o gli oggetti più ricorrenti. A questo punto, un nemico potrebbe sfruttare a suo favore tale potere associativo, cambiando opportunamente lo scenario attorno ai propri veicoli. Inoltre, nell’ipotetico caso in cui il dataset di addestramento entrasse nelle mani del nemico, questi potrebbe modificarlo a proprio piacimento, aggiungendo eventuali elementi di disturbo nelle foto.

Gli attacchi agli algoritmi di apprendimento automatico rappresentano già un grosso problema, specialmente nei sistemi adibiti al rilevamento delle frodi. Ne è un esempio quello che ha visto come vittima nel 2016 Tay, chatbot di Microsoft in grado di rispondere alle domande sulla base delle conversazioni avute precedentemente. Approfittandosi di questa caratteristica, in molti hanno insegnato messaggi offensivi e razzisti al chatbot, costringendo i realizzatori a sospenderlo dopo sole 24 ore per introdurre delle modifiche.

L’esigenza di un nuovo team all’interno del JAIC per prevenire gli attacchi esterni

intelligenza artificiale

É evidente che algoritmi chiamati a prendere decisioni critiche durante le varie missioni militari o ad offrire servizi di assistenza alle forze armate come ad esempio l’approvvigionamento, necessitano di sistemi di protezione ben collaudati. Per questo motivo all’interno del Jaic è stato recentemente formato il “Test and Evaluation Group”, un team dedicato a sondare le vulnerabilità dei sistemi interni.

L’obiettivo, ovviamente, è quello di simulare un vero è proprio tentativo di hackeraggio esterno al fine di anticipare le mosse avversarie, alla ricerca dei punti deboli dei modelli già allenati. Pur essendo chiaro il funzionamento dei vari modelli di intelligenza artificiale, molto spesso non si riesce a dare una chiara spiegazione al perché si comportino in un determinato modo, rendendo tutt’altro che semplice prevederne il risultato finale. Di conseguenza, l’approccio adottato è tipo trial and error: si applicano delle modifiche ai parametri in ingresso all’algoritmo in modo da capire come questi influenzano le performance del modello.

Dunque, sebbene sia altamente probabile che il Pentagono, così come i dipartimenti di difesa delle altre grandi potenze, stia sviluppando le proprie capacità offensive per minacciare i sistemi avversari, allo stesso tempo è impensabile non rafforzare i propri meccanismi di difesa.

“L’opzione offensiva può essere sfruttata, ma bisogna assicurarsi che non possa essere utilizzata contro di noi” ha dichiarato Allen. Per trarre il massimo da questa nuova e potente tecnologia non ci si può, quindi, limitare alla sola fase offensiva. In fondo si sa: il miglior attacco è sempre la difesa.

A cura di Giovanni Maida