Se già si parlava di etica delle self driving car, in questi anni più che mai (dopo il primo incidente mortale di una selfdriving car) è un argomento di attualità. Ma c’è un problema di fondo nel dibattito pubblico italiano: continuando a parlare di etica la questione diventa sterile e poco costruttiva.
L’etica della robotica non esiste, le tre leggi della robotica sono impraticabili e Asimov stesso fu il primo a dircelo in Liar!, che più che preso come un racconto andrebbe preso come un vero e proprio studio di INfattibilità.
L’etica non riguarda nessuna scienza, e questo deve essere chiaro a tutti, prima di introdursi in un dibattito di tale importanza. L’etica non è propria della tecnologia. Nessuno ha mai parlato di etica della teoria della forza di gravità, nonostante i morti a causa della forza di gravità potrebbero essere più di quanti immaginiamo.
Creare una nuova tecnologia non deve essere diverso dal teorizzare una legge fisica, per il semplice motivo che la scienza e la pratica tecnologica, la ricerca in genere, non devono MAI porsi questioni etiche sulle conseguenze. E’ lecito parlare di etica della sperimentazione animale (e non entro in merito alla questione, dico solo che è una questione etica valida, una questione che vale la pena discutere e analizzare), mentre non è lecito parlare di etica sui risultati derivati da una ricerca attuata con la sperimentazione animale.
Si cadrebbe in un consequenzialismo distruttivo per la ricerca: se giudichiamo le self driving car in base al risultato ottenuto (che ad oggi è nella mente di tutti come la morte di un uomo), per par condicio ci si dovrebbe porre la domanda “E’ giusto usare le mani?” in conseguenza a quante persone sono state uccise a mani nude. Ed estremizzare le analogie in questo caso è dovuto, in quanto la questione è talmente sottile che nella convinzione pubblica esiste davvero un’etica della robotica, e ciò rischia di diventare dannoso quando a fare ricerca sulla robotica sono aziende del ventunesimo secolo, che hanno bisogno di finanziamenti che molto spesso dipendono anche dall’opinione pubblica.
Sarebbe lecito parlare di etica della robotica se ci si riferisse allo studio deontologico dei doveri da mantenere DURANTE lo sviluppo di robot: ad esempio fare in modo che non muoia nessuno durante la programmazione dell’intelligenza artificiale di un robot. Cosa che mi sembra non sia mai accaduta.
Ma quindi quali sono le questioni?
La questione, in quest’ottica diventa semplice: se l’etica della robotica non esiste e non deve esistere, dove sono le regole? le leggi che ci danno tanta sicurezza? dov’è il diritto del consumatore?
La protezione del consumatore non è legata alla robotica ma a chi vende il prodotto robot. Come la protezione dalla forza di gravità non dipende da chi teorizza le leggi di gravità ma da chi realizza ponti e grattacieli.
E la questione etica e deontologica risiede quindi nella commercializzazione di prodotti robotici efficienti e non pericolosi.
E quindi, ancora, la questione diventa molto semplice (come d’altronde lo è sempre stata per tutti i prodotti commercializzati): quando si vendono sigarette si avvisa il consumatore dei rischi, quando si vendono self driving car si avviserà dei rischi.
In quest’ottica, il dibattito (tutto italiano, in realtà) sull’etica della robotica non è altro che una campagna propagandistica contro la robotica come lo sono le campagne contro il fumo o contro la legalizzazione delle droghe leggere. E forse, questi dibattiti sterili servono anche a sensibilizzare, ma d’altra parte, per la robotica sorge un problema che già ho espresso prima: si rischia di danneggiare e rallentare tutta la ricerca sulla robotica.
Cosa, invece, fa bene alla ricerca?
Se da una parte, come analizzato qui sopra, questo dibattito sterile sull'<etica della robotica> non può che danneggiare la ricerca, dall’altra anche la commercializzazione di prodotti che non abbiano un'<etica del prodotto> è dannosa alla ricerca. E ancora, se da una parte l’etica della robotica così come affrontata oggi è infondata, dall’altra manca un’etica del prodotto, che se studiata bene andrebbe a produrre benefici sia ai consumatori, sia ai produttori.
La questione etica delle self driving car è quindi una questione deontologica del prodotto non come conseguenza di una ricerca robotica ma come conseguenza di una commercializzazione di esso. E’ nella deontologia del commercio che si deve sollevare la questione. Ci si deve domandare: quali prodotti sono eticamente accettabili per essere commercializzati e quali no?
La domanda da porsi oggi è: una self driving car che potrebbe essere coinvolta in un incidente mortale è eticamente accettabile in un mondo dove le automobili guidate dall’uomo sono anch’esse coinvolte in incidenti mortali molto più facilmente? La risposta vien da sè: sì, se si riducono gli incidenti mortali, sì.
E se proprio non si accetta questa risposta alla VERA domanda etica, l’importante, per quanto mi riguarda, è che si cerchi di rispondere alla VERA domanda etica, e non si ritorni al dibattito sterile già analizzato prima.