L’AI negli algoritmi di Facebook contro il terrorismo
È oramai divenuto uno dei campi di studi più ricercato ed apprezzato degli ultimi anni, così tanto da creare delle posizioni lavorative ad-hoc e ricoprire varie volte il soggetto principale dei nostri articoli.
Nonostante le sue origini risalgano a ben prima dell’avvento di internet, ed abbia passato un periodo buio privo di novità e ricerca, adesso è in grado di fornire numerosi ed innovativi strumenti ampiamente utilizzati dalle aziende informatiche di spessore e non, grazie principalmente alle potenti architetture dell’era odierna.
Stiamo parlando dell’Intelligenza Artificiale (AI), quel vasto settore di studi che mira a definire ed eseguire dei comportamenti intelligenti nelle macchine, come la percezione visiva, il riconoscimento vocale e la capacità decisionale.
In questo articolo si parlerà dell’applicazione della sua più famosa branca, il Machine Learning, la scienza che permette alle macchine di imparare ed agire di conseguenza senza essere esplicitamente e comunemente programmate, e di uno dei comportamenti intelligenti già elencati prima, la presa di decisioni.
La differenza tra i vari strumenti del Machine Learning e un comune algoritmo programmato in un qualsiasi linguaggio, risiede nel fatto che essi sono in grado di compiere determinate operazioni senza la necessità di essere programmati, ciò grazie ai svariati tipi di algoritmi d’apprendimento disponibili che, da dei dati d’apprendimento (le esperienze), riescono ad estrarne le fondamentali relazioni (la conoscenza).
La scelta dell’algoritmo d’apprendimento dipende dallo strumento di Machine Learning applicato (i più utilizzati sono le reti neurali artificiali, gli alberi decisionali, le macchine a vettori di supporto), dalla sua architettura e dalla struttura dei dati d’apprendimento. I principali tipi di algoritmi d’apprendimento sono il supervisionato e il non-supervisionato.
Che molte grandi aziende tech come Google, Microsoft e Facebook facessero un vasto e disparato utilizzo dell’AI e investissero continuamente sulle relative tecnologie è già un evidente dato di fatto.
Alcuni nomi per quanto riguarda Google sono DeepMind, Tensorflow, GoogleBrain e Magenta, Microsoft ha recentemente sviluppato Microsoft Cognitive Toolkit (CNTK), mentre a proposito di Facebook sono noti DeepText, DeepFace e Fblearner flow.
Una saliente caratteristica che accomuna tutte queste tecnologie è che applicano o adottano il Deep Learning, una recentissima e diffusa specializzazione delle classiche reti neurali artificiali (che al massimo hanno due strati di neuroni), che consiste nell’incremento massivo degli strati dei neuroni utilizzati, al fine di potenziare la precisione del calcolo computazionale.
L’annuncio
Facebook, la nota azienda di cui ormai quasi noi tutti siamo clienti, in una recente lettera del 16 Febbraio intitolata “Building Global Community”, pubblicata direttamente dal suo fondatore, svela l’intenzione di voler potenziare ed estendere le intelligenze artificiali per controllare più rapidamente ed accuratamente i contenuti pubblicati su Facebook, in modo da individuare ed eliminare quelli a sfondo violento o razziale, ed anche prevenire eventuali suicidi o atti terroristici.
Nonostante DeepText e DeepFace siano già degli strumenti atti ad analizzare rispettivamente i giornalieri miliardi di testi e immagini di Facebook (che è già una notevole impresa per via della mole di dati), si necessita di un incremento dell’affidabilità per via di alcuni errori compiuti.
Il più eclatante fu l’attribuzione di sfondo sessuale alla celebre immagine storica della bambina vietnamita di 9 anni Kim Phuk, che fugge nuda da un attacco al napalm nel 1972, meglio conosciuta come “Terror of War photo”.
Ma come può l’intelligenza artificiale aiutare Facebook a contrastare eventuali reclutamenti o atti terroristici? L’idea potrebbe essere quella di utilizzare degli studi già compiuti sul comportamento online dei gruppi terroristici, ed utilizzarli come input per addestrare una tecnica di intelligenza artificiale.
A questo punto essa potrebbe monitorare differenti informazioni da alcuni siti online, social o telecamere (ne abbiamo parlato qui), riconoscere eventuali aggregati terroristici, ed in base alla successione di eventi sociali come ad esempio una manifestazione, predire la probabilità di rischio di eventuali attacchi.
Filtro personale
Anche se non sarà semplice addestrare in breve tempo le tecniche d’intelligenza artificiale affinché rilevino le azioni terroristiche, si intravedono quindi nei prossimi anni delle modifiche nelle politiche di Facebook, non solo tecniche con l’espansione delle potenzialità dell’intelligenza artificiale, ma anche gestionali per quanto concerne l’utente.
Verranno infatti direttamente poste delle domande sul quale sia il personale limite di nudità, violenza o volgarità in modo da creare un filtro personalizzato per ogni utente. In tal modo, nella propria bacheca verranno visualizzati solamente i contenuti che rispettano il filtro precedentemente designato.
L’algoritmo d’intelligenza artificiale, oltre quindi a controllare nel rispetto della privacy i contenuti pubblicati dall’utente alla ricerca di comportamenti sospetti, si occuperà di impedire la visione di quei contenuti che eccedano il limite imposto dall’utente; per quegli utenti che non prenderanno una decisione riguardo i limiti, verranno ovviamente applicati dei limiti di default, cioè quelli maggiormente scelti dagli altri utenti, agendo quindi come un referendum.