“Questi dispositivi si svegliano continuamente quando non dovrebbero, il che può potenzialmente costituire un rischio per la privacy”. I dispositivi sono gli speaker come Amazon Echo, o Google Home, e la frase è di David Choffnes, autore di uno studio secondo cui in media una volta ogni 5 ore questi aggeggi si attivano senza la richiesta del proprietario e registrano quello che sentono. Choffnes, professore associato nel Khoury College of Computer Sciences della Northeastern University, è autore dello studio con il collega Daniel DuBois, Ph.D. e collaboratori dell’Imperial College di Londra.
Come è stato condotto lo studio
Come scrive ConsumerReports che riporta la notizia, gli altoparlanti intelligenti sono progettati per ascoltare una parola di attivazione: “Alexa” (per l’assistente digitale di Amazon), “Hey, Siri” (Apple), “Hey, Google” o “Cortana” (Microsoft). Quando lo ascoltano (o pensano di sentirlo), iniziano a registrare in attesa di ulteriori comandi verbali da parte dell’utente. Per replicare una varietà di schemi linguistici, il team di Choffnes ha utilizzato programmi televisivi come “The West Wing”, “Gilmore Girls”, “The Office” e “Big Bang Theory”. Per una vasta gamma di voci, accenti e vocabolari, includevano anche spettacoli come “Narcos”, “The L Word”, “Friday Night Tykes” e “Dear White People”. In totale, hanno esposto gli altoparlanti a 134 ore di ascolto. Le videocamere hanno notato quando le luci sui dispositivi hanno indicato che avevano iniziato la registrazione e per quanto tempo. I ricercatori hanno quindi controllato i sottotitoli di ciascun episodio per determinare quale frammento esatto di dialogo aveva attivato il dispositivo.
Un’attivazione involontaria ogni 5 ore
In media, gli altoparlanti hanno registrato un’attivazione errata ogni 5 ore durante le prove. Quando viene chiesto di rispondere a questi risultati, Amazon, Apple e Google sottolineano tutti il loro impegno per la privacy dei consumatori. “Il nostro rilevamento delle parole di veglia e il riconoscimento vocale migliorano ogni giorno, poiché i clienti utilizzano i loro dispositivi, ottimizziamo le prestazioni e miglioriamo l’accuratezza”, ha detto un portavoce di Amazon via e-mail ai ricercatori, mentre Microsoft non ha risposto prima della pubblicazione.
I rischi per la privacy
“Gli assistenti digitali sono una tecnologia imperfetta, non sorprende che catturino inavvertitamente dati che non dovrebbero”, afferma Justin Brookman, direttore della politica sulla privacy e sulla tecnologia di Consumer Reports. “Quando portiamo questi dispositivi nelle nostre case, questo è il rischio che corriamo, che verranno attivati accidentalmente e registreranno le cose che diciamo. Se l’attivazione è involontaria, probabilmente non è così utile per le aziende, ma c’è non dire come lo stanno usando per capirci meglio”. I ricercatori hanno scoperto che gli altoparlanti intelligenti tendono a catturare i loro errori e a spegnere rapidamente il microfono, di solito in pochi secondi. Il tasso di errore dipendeva da quanto il dialogo si avvicinava alla parola di attivazione di un determinato dispositivo.
Le parole fraintese
I ricercatori, continua ConsumerReports, hanno analizzato il linguaggio che ha causato la registrazione degli oratori. E, come ci si potrebbe aspettare, molti dei falsi positivi sembravano molto simili alle parole di attivazione reali. Google Home Mini ha scambiato la frase “okay to go” per “Ehi, Google”.
L’Apple HomePod ha sentito “Ehi, signorina” come “Ehi, Siri”, The Harmon-Kardon Invoke ha frainteso “quartet” in “Cortana”. Ma in altri casi, i ricercatori non hanno trovato una spiegazione chiara del motivo per cui l’oratore è stato attivato.”Ci sono stati un sacco di casi in cui ciò che veniva detto non suonava affatto come la parola di scia”, dice Choffnes. “Quindi dobbiamo comprenderlo meglio”. Quando il team ha cercato di replicare i “falsi positivi”, i dispositivi spesso non si sono attivati nelle prove successive. E parte di questa differenzz potrebbe effettivamente essere attribuibile all’auto-miglioramento del dispositivo. In un’osservazione degna di un’ulteriore revisione, i ricercatori hanno notato che gli altoparlanti intelligenti hanno registrato una frequenza particolarmente elevata di false attivazioni durante gli episodi di “Narcos”, che include frammenti di spagnolo. “Ciò solleva la preoccupazione di come funzionano queste cose nelle famiglie in cui si parlano lingue miste”, afferma Choffnes. “E quali sono i rischi per la privacy di quelle popolazioni?”.
Non conosci il Salvagente? Scarica GRATIS il numero con l'inchiesta sull'olio extravergine cliccando sul pulsante qui in basso e scopri cosa significa avere accesso a un’informazione davvero libera e indipendente