“Prima Legge della robotica: Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno. Seconda Legge della robotica: Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. Terza Legge della robotica. Un robot deve proteggere la propria esistenza, purché la sua autodifesa non contrasti con la Prima o con la Seconda Legge”, ci sarebbero piaciute delle leggi come quelle formulate da Isaac Asimov agli inizi degli anni ’40, ma per averle, bisogna ancora aspettare.
Un passo in avanti, però, è stato fatto da un gruppo di 52 esperti nominato dalla Commissione Europea, che hanno pubblicato nei giorni scorsi la prima bozza di linee guida per la sicurezza dell’Intelligenza Artificiale. Le regole garantiranno, a sviluppatori e utenti, che le future AI rispettino i diritti e i principi fondamentali, e spiegano come la tecnologia possa essere resa tecnicamente solida e affidabile nel territorio europeo.
Il contenuto della bozza
Nelle sue comunicazioni del 25 aprile e del 7 dicembre 2018, la Commissione ha definito la sua visione per l’Intelligenza Artificiale (AI), che sostiene un’IA etica, sicura e all’avanguardia “made in Europe“. Tre pilastri sono alla base della visione della Commissione:
Aumentare gli investimenti pubblici e privati nell’intelligenza artificiale per potenziarne l’adozione
Preparare i cambiamenti socioeconomici
Assicurare un quadro etico e giuridico appropriato per rafforzare i valori europei.
Ecco un riassunto delle dieci linee guida:
Responsabilità: I meccanismi di gestione delle responsabilità possono andare dalla compensazione monetaria (assicurazione senza colpa), alla ricerca di guasti, alla riconciliazione senza compensazioni monetarie.
Controllo dei dati: La qualità dei set di dati utilizzati è fondamentale per le prestazioni delle soluzioni di apprendimento automatico addestrate. Anche se i dati vengono gestiti in un modo da preservare la privacy, ci sono requisiti che devono essere soddisfatti per avere un’AI di alta qualità. I set di dati raccolti inevitabilmente contengono pregiudizi, e bisogna essere in grado di eliminarli prima di sviluppare degli algoritmi dedicati all’AI. Ciò può essere fatto nell’apprendimento stesso, richiedendo un comportamento simmetrico rispetto a problemi noti.
Design democratico: I sistemi devono essere progettati in modo da consentire a tutti i cittadini di utilizzare i prodotti o i servizi, indipendentemente dalla loro età, dallo stato di disabilità o dallo stato sociale. È particolarmente importante considerare l’accessibilità ai prodotti e servizi AI per le persone con disabilità, che sono categorie orizzontali della società, presenti in tutti i gruppi sociali indipendenti dal genere, dall’età o dalla nazionalità. Le applicazioni di IA non dovrebbero quindi avere un approccio one-size-fits-all, ma essere incentrate sull’utente e considerare l’intera gamma di capacità, abilità e requisiti umani. Questo requisito si collega alla Convenzione delle Nazioni Unite sui diritti delle persone con disabilità.
Controllo umano dell’autonomia AI: Il livello di autonomia risulta dal caso d’uso e dal grado di sofisticazione necessario per un compito. A parità di altre condizioni, al maggior grado di autonomia che viene dato a un sistema di intelligenza artificiale, è richiesta una verifica e una governance più severa. Deve essere garantito che i sistemi IA continuino a comportarsi come previsto quando i segnali di feedback diventano più rari. A seconda dell’area di applicazione e / o del livello di impatto sugli individui, sulle comunità o sulla società del sistema di intelligenza artificiale, saranno necessari diversi livelli o istanze di governance (inclusa la supervisione umana).
Non Discriminazione: La discriminazione diretta o indiretta attraverso l’uso dell’IA può servire a sfruttare i pregiudizi e marginalizzare certi gruppi. Coloro che hanno il controllo degli algoritmi possono intenzionalmente cercare di ottenere esiti ingiusti, discriminatori o parziali per escludere determinati gruppi di persone. Inoltre, è importante riconoscere che la tecnologia AI può essere impiegata per identificare questo pregiudizio intrinseco e, di conseguenza, può anche aiutarci a prendere decisioni meno tendenziose.
Rispetto (e miglioramento) dell’autonomia umana: I sistemi di intelligenza artificiale dovrebbero essere progettati non solo per sostenere diritti, valori e principi, ma anche per proteggere i cittadini in tutta la loro diversità dagli abusi governativi e privati resi possibili dalla tecnologia dell’IA, garantendo una distribuzione dei benefici creati dalle tecnologie IA, proteggere e migliorare una pluralità di valori umani e migliorare l’autodeterminazione e l’autonomia dei singoli utenti e comunità.
Rispetto della privacy: La privacy e la protezione dei dati devono essere garantite in tutte le fasi del ciclo di vita del sistema di intelligenza artificiale. Ciò include tutti i dati forniti dall’utente, ma anche tutte le informazioni generate sull’utente nel corso delle sue interazioni con il sistema di intelligenza artificiale (es. Risultati generati dal sistema AI per utenti specifici, come gli utenti hanno risposto a raccomandazioni particolari, ecc. ). Le organizzazioni devono essere consapevoli del modo in cui i dati vengono utilizzati e possono avere un impatto sugli utenti e garantire la piena conformità con il GDPR e altre normative applicabili in materia di privacy e protezione dei dati.
Robustezza: Un sistema di Intelligenza Artificiale affidabile deve essere resistente agli errori, sia in fase di sviluppo che di produzione. E deve essere in grado di gestire risultati errati. I risultati devono dunque essere sempre riproducibili in modo indipendente, una condizione che oggi non è possibile soddisfare con la maggior parte dei sistemi. Devono essere precisi nel classificare le informazioni, nel fare previsioni e valutazioni, e devono, naturalmente, essere resistenti agli attacchi informatici.
Sicurezza: La sicurezza consiste nel garantire che il sistema faccia effettivamente ciò che deve fare, senza danneggiare gli utenti (integrità fisica umana), le risorse o l’ambiente. Include la riduzione al minimo delle conseguenze indesiderate e degli errori nel funzionamento del sistema. I processi per chiarire e valutare i potenziali rischi associati all’uso di prodotti e servizi di IA dovrebbero essere messi in atto. Inoltre, sono necessari meccanismi formali per misurare e guidare l’adattabilità dei sistemi di intelligenza artificiale.
Trasparenza: Riguarda la riduzione dell’asimmetria informativa. La spregiudicazione (come forma di trasparenza), implica la capacità di descrivere, ispezionare e riprodurre i meccanismi attraverso i quali i sistemi di intelligenza artificiale prendono decisioni e imparano ad adattarsi ai loro ambienti, così come la provenienza e la dinamica dei dati che vengono utilizzati e creati dal sistema. Essere espliciti e aperti sulle scelte e le decisioni riguardanti le fonti di dati, i processi di sviluppo e le parti interessate, dovrebbero essere richiesti da tutti i modelli che utilizzano dati umani o influenzano gli esseri umani o possono avere un impatto moralmente significativo.