A cura di Silvia Sanna
Il deepfake è una recente tecnica di Intelligenza Artificiale con la quale si possono creare video utilizzando il volto di persone reali ma video fittizi. In pratica si tratta di video con volti reali ma movimenti e azioni creati all’occorrenza da un’IA.
Queste ultime tecniche, come si può ben capire, possono essere molto pericolose perché ovviamente si potrebbe essere protagonisti di alcune vicende che in realtà non abbiamo mai vissuto o realizzato. Un messaggio molto chiaro ai governatori della Virginia che hanno così deciso di legislare il fatto, in modo da punire chi crea questi video ma soprattutto proteggere le persone. Proteggere da cosa? Attualmente l’attacco cibernetico più grande che possa subire una persona è la divulgazione online di proprie immagini intime, immagini pornografiche.
Già dal 2014 in Virginia è presente una legge che vieta la costrizione, le molestie e le intimidazioni utilizzando nudi o immagini sessuali. Tramite questa legge è infatti indispensabile prima della pubblicazione, l’espressa autorizzazione della persona protagonista dell’immagine o video.
Attualmente con le nuove tecniche di creazione artificiale di video e immagini, data una semplice foto del volto, bisogna tutelare maggiormente ogni cittadino. Risale dunque al 01/07/2019 l’estensione di questa legge per punire chiunque crei dei falsi video o immagini e le pubblichi senza il consenso.
La legislazione deve essere una misura molto presente in ogni Paese, soprattutto in quelli a maggior sviluppo economico per garantire sicurezza, privacy, difesa dei cittadini contro qualunque attacco, partendo dal semplice virus per rubare dati sensibili fino appunto alla creazione dei deepfake.
Una misura estensiva della legge è stata già attuata col divieto dell’app DeepNude che usava una rete neurale per togliere da una foto ogni tipo di vestito. Attualmente esistono altre app con lo stesso nome in cui la registrazione è abbastanza facile, pressoché inesistente, anche se si legge sia adatta solo ai maggiorenni. I
l funzionamento di questo tipo di applicazioni è banale: basta semplicemente scattare una foto e il software elabora sull’immagine un nudo, successivamente bisogna calibrare il colore della pelle e far coincidere abbastanza bene le due immagini (tecniche semplici per gli esperti di photoshop) ed è stato così creato il nudo fittizio della persona. Il lavoro finale non corrisponde alla realtà ma con un buon lavoro si può ingannare l’occhio umano e divulgare foto inappropriate della persona.
Come già accennato in un precedente articolo sarebbe bene che ogni Governo attui delle misure di sicurezza per proteggere i dati sensibili e garantire una corretta informazione poiché si potrebbero creare foto o video di personaggi politici in una tenuta non corrispondente alla realtà.
Questo è già un po’ ciò che sta succedendo nel Regno Unito, precisamente all’Università di Bradford dove un gruppo di ricerca diretto dal professor Hassan Ugail sta sviluppando un’intelligenza artificiale in grado di capire se il sorriso di una persona sia spontaneo o un sorriso da posa, infatti successivamente le tecniche sviluppate dal gruppo di ricerca potrebbero essere estese ad altri campi, tra cui appunto quello del deepfake.
Una soluzione tecnologicamente efficace sarebbe appunto creare un’AI “buona” rispetto al deepfake in grado di capire se il video e la foto in oggetto siano reali o creati artificialmente. Successivamente sarebbe opportuno integrarli in ogni social o sito web per controllare tutte le pubblicazioni, bandendo quelle che potrebbero essere state create artificialmente. In ciò si riflette l’attività svolta da Mark Zuckerberg e il suo gruppo di ricerca per la piattaforma Facebook in cui ogni foto viene controllata attentamente.
Il tema sulla circolazione inappropriata di foto private delle persone è un tema, con l’avvento di smartphone e internet, molto diffuso e di una notevole emergenza, che ha provocato purtroppo troppe morti e per il quale ancora dalle comunità scientifiche e dai Governi non è stata presa una precisa misura cautelativa. Magari nel prossimo decennio si cercheranno nuove soluzioni specialmente utilizzando una correlazione tra IA e sicurezza informatica.