Dietro le quinte di Google Pixel 4

Anche Google come Apple ha voluto implementare nei suoi ultimi smartphone un hardware e un software in grado di usare la faccia dell’utente come biometria. L’iPhone ha quindi un concorrente a tutti gli effetti: Google Pixel 4.

In vendita a New York dal 15 ottobre, il nuovo telefono non è ancora nelle mani dei nuovi clienti ma già fa parlare. Stavolta non si parla solo dell’estetica della scocca o delle caratteristiche hardware. Ciò che più fa notizia è l’etica usata durante la sperimentazione del riconoscimento facciale.

Secondo alcune fonti, niente però di ufficiale, pare che l’azienda abbia affidato ad un’altra azienda “Randstad” il compito di testare il funzionamento del loro software. Randstad è stata dunque incaricata dalla Google per trovare delle persone su cui testare il riconoscimento facciale. Il problema nasce proprio sul “trovare delle persone”: pare che Randstad abbia usato senza consenso i volti dei senzatetto di New York. Secondo fonti non ufficiali i soggetti hanno ricevuto un dispositivo su cui giocare a cambio di un buono acquisto da 5 dollari.

Dispositivo simulante lo smarphone Pixel 4.

Il vero scandalo sta nel fatto che i senzatetto non siano stati avvisati di essere ripresi mentre giocavano. I loro volti sono quindi stati usati senza consenso, ma ciò che ha fatto più notizia è il colore della pelle: tutti di carnagione scura. Questo sta sollevando un’enorme questione di razzismo, sentimenti di superiorità di razze e l’abuso della situazione sfavorevole. E’ anche vero però che la scelta di questi soggetti ha un senso: l’individuazione dei tratti salienti in condizioni di bassa luminosità è più difficile. Se il sistema è stato addestrato su questi soggetti allora ha meno probabilità di sbagliare riconoscimento. Inoltre non si sa neanche come vengano usate le immagini memorizzate durante questa fase di train e test e a questo punto viene sollevato il classico problema sulla sicurezza dei dati sensibili memorizzati nei database, come tempo fa per FaceApp.

Riconoscimento facciale: come funziona

Il riconoscimento facciale si basa su una particolarizzazione del riconoscimento di pattern, in cui vengono analizzati di solito la distanza focale degli occhi (tratto caratterizzante di ogni individuo), la curvatura delle labbra e degli zigomi e altri pattern.

Simulazione di riconoscimento facciale

Solitamente come classificatore si usa il Local Binary Pattern (LBP), algoritmo proprio della computer vision che analizza lo spettro della trama dell’immagine. Altri algoritmi spesso usati sono ad esempio il PCA (Principal Component Analysis) ma non è in grado di riconoscere il volto se questo viene ruotato e ha un tempo computazionale molto elevato. Nella maggior parte dei casi invece viene usata una combinazione di algoritmi in modo da sfruttare al meglio le caratteristiche salienti di ognuno. Di solito il protagonista di questa combinazione è sempre il Linear Discriminant Analysis il quale calcola la varianza di ogni pattern e le raggruppa nelle corrispondenti classi.

Entrambe le aziende hanno utilizzato propri algoritmi dei quali però ovviamente tutto è segreto e non si conoscono i dettagli implementativi. Dopo questa notizia però molti utenti sono curiosi di provare il riconoscimento facciale del Pixel 4 e viene spontanea una domanda: gli errori saranno dovuti all’implementazione o alla poca etica di train e test?