Esattamente nel momento in cui il mondo degli assistenti vocali tenta di spiccare il volo, succede ciò di cui i gruppi interessati non hanno certo bisogno: un bug e una testimonianza che testimoniano come l’assistente possa diventare una spia seduta in salotto.
Il caso è quello di una famiglia di Portland il cui dispositivo Echo per Alexa ha iniziato a registrare audio in casa inviandolo quindi a persone a caso prese dalla lista contatti disponibile. A seguito di quanto successo, la famiglia avrebbe contattato Amazon per segnalare quanto accaduto.
Secondo quanto raccontato in seguito a Kiro7 , la scoperta di quanto accaduto sarebbe avvenuta alla ricezione dei messaggi da parte dei conoscenti contattati. Immediatamente i vari Echo in possesso (distribuiti su varie stanza per il controllo di alcuni aspetti dell’appartamento in ottica smart home) sono stati disattivati e la famiglia si è così potuta sentire nuovamente al sicuro.
La conferma su quanto accaduto giunge da Amazon alla stessa Kiro7 e tra le righe si può notare come, sia pur se “estremamente raro”, il fatto non è stato unico nel suo genere:
Amazon tiene in stretta considerazione la privacy. Stiamo approfondendo quanto accaduto ed abbiamo capito che si tratta di un fatto estremamente raro. Stiamo lavorando per evitare che possa accadere nuovamente nel futuro
Un ulteriore approfondimento è stato in seguito registrato dai microfoni ArsTechnica :
Echo si è attivato a seguito di una parola che suonava come “Alexa”. La conversazione successiva è stata interpretata come una richiesta di invio messaggio. A questo punto Alexa ha chiesto “a chi?” e la conversazione è stata interpretata come il nome di un utente nella contact list. Alexa ha quindi chiesto conferma sul nome ed ha interpretato la conversazione successiva come “corretto”.
Secondo Amazon si tratta quindi di una casualità estrema , una concatenazione di errori che, mesi in fila, hanno generato esattamente la sequenza necessaria per registrare e inviare un messaggio, con tanto di conferma del destinatario. La certificazione di quanto accaduto sarebbe giunta dall’analisi dei file di log del dispositivo.
Una cosa può tenere lontani gli assistenti vocali dagli utenti: il timore di non avere la certezza che, in fase silente, il dispositivo non stia ascoltando. Nessuno si metterebbe infatti in casa un microfono acceso , i cui file audio possono essere inviati altrove e dove sia estremamente facile e rapido smarrire l’intimità del mondo domestico. Sebbene gli assistenti sbandierino un forte radicamento nell’alveo dell’Intelligenza Artificiale, è evidente come la comprensione del contesto sia ancora ben lungi dalle capacità dell’uomo: glitch di questo tipo sono pertanto difficilmente estinguibili e non a caso alcuni hacker hanno già dimostrato come tale debolezza possa anche essere sfruttata per impartire ordini da remoto sfruttando semplici video su YouTube, file MP3 e altro ancora.
Il problema, occorso in questo caso ad Alexa, andrà pertanto affrontato con estrema determinazione onde evitare ulteriori passi falsi: nessuno vuole una spia in casa, tantomeno se connessa, tantomeno se intelligente.