“Hey Siri, stai origliando?”
Dopo Google e Amazon anche Apple finisce nella bufera delle conversazioni registrate dagli assitenti vocali e ascoltate dai dipendenti. A rivelarlo è The Guardian, al quale un dipendente dell’azienda ha svelato i dettagli.
Se prima ci si chiedeva che cosa potesse succedere alle registrazioni di Siri, adesso è lecito preoccuparsi di quanto della nostra vita uno sconosciuto può arrivare a conoscere.
I dettagli
Secondo l’informatore del giornale britannico, alcune parti delle registrazioni di Siri vengono inviate a delle imprese appaltatrici di Apple in tutto il mondo e ascoltate da degli addetti. Il loro obiettivo è valutare le risposte dell’assistente per capire se sono state appropriate e anche se il servizio è stato attivato deliberatamente o in maniera accidentale. Oltre a questo, l’analisi è volta al miglioramento della dettatura a Siri e della sua capacità di comprensione.
Nell’informativa di privacy di Apple questi utilizzi non vengono menzionati, tantomeno viene detto che il lavoro è svolto da persone. Il dipendente che ha rilasciato le dichiarazioni si è detto preoccupato riguardo questa rivelazione di informazioni, soprattutto considerando la frequenza con la quale l’assistente viene attivato accidentalmente. Anche soltanto il suono di una zip spesso viene interpretato da Siri come un trigger d’accensione.
I device che più di frequente causano l’attivazione erronea sono risultati essere l’Apple Watch e l’HomePod. Le registrazioni non durano più di 30 secondi, ma spesso sono sufficienti per ottenere informazioni sensibili e private. Discorsi tra paziente e dottore, sulla storia clinica della persona, sono solo un esempio del tipo di informazioni che ricevono i centri d’analisi. Ma anche incontri privati, discussioni tra criminali, e così via.
Apple rassicura gli utenti dichiarando che soltanto l’1% delle registrazioni giornaliere vengono effettivamente ascoltate, e che non viene comunicato l’Apple ID. Ad essere inviate, però, sono informazioni quali la posizione, il dettaglio del contatto e altri dati dell’applicazione (parametri di utilizzo, ricerche frequenti, ecc.). Queste, sommate all’ascolto di alcune decine di secondi, possono essere in molti casi sufficienti a individuare l’utente.
Da sottolineare è anche il grande turnover che si registra in Apple e nelle ditte appaltatrici. Un dipendente che avesse cattive intenzioni non ci metterebbe molto a ottenere le informazioni che vuole su una persona specifica.
Non solo Siri
Mancava solo Apple all’appello, in effetti. Prima Amazon, con Alexa, ha affermato che i suoi dipendenti ascoltano le registrazioni dell’assistente per sviluppare nuovi e migliori servizi. In questo caso, però, gli utenti fornivano il permesso all’ascolto di porzioni di registrazioni da parte di altre persone. Ciò che non era stato comunicato esplicitamente era la quantità e la localizzazione dei centri di analisi a cui venivano inviati i dati.
Sempre questo Luglio anche Google ha ammesso che i suoi appaltatori hanno accesso alle registrazioni di Google Assistant. La conferma è arrivata dopo un leak di registrazioni in tedesco, e l’azienda sta tutt’ora investigando sull’accaduto. Anche in questo caso, le motivazioni dell’ascolto sono da ritrovare nella volontà di migliorare il servizio, affinché comprenda meglio i pattern di linguaggio e gli accenti. Su 1000 clip audio, 153 erano state fatte partire in maniera accidentale: un numero molto elevato, del quale potrebbero far parte conversazioni private e con dati sensibili.
Nessuno è innocente, quindi, ma non era difficile da immaginare. L’apporto umano per il miglioramento degli assistenti vocali dà, per il momento, un vantaggio significativo che le aziende non possono perdere. C’è però una grossa differenza tra Siri e gli altri due servizi: se per Alexa e Google Assistant è possibile limitare la modalità di condivisione delle registrazioni all’azienda, per l’assistente Apple ciò non è possibile. L’unica opzione per l’utente è disattivare totalmente il servizio.