Slimme assistenten van Google, Apple en Amazon zijn te activeren met geluid dat voor mensen onhoorbaar is. Twee teams van wetenschappers denken dat de slimme assistenten, te vinden in speakers en smartphones, daardoor te hacken zijn, schrijft de BBC.
Het gaat om een groep wetenschappers van de Zhejiang University in China (pdf) en een groep van de Princeton University (pdf). De slimme assistenten luisteren continu naar een herkenningswoord, bijvoorbeeld ‘Hey Siri’ of ‘OK Google’. Nadat de slimme assistent het herkenningswoord heeft waargenomen, luistert hij naar commando’s.
De groep Chinese wetenschappers zette stemcommando’s om in ultrasoon geluid. Daarmee is het volgens de wetenschappers mogelijk om de slimme assistenten van Google, Siri en Amazon te activeren, zonder dat mensen het doorhebben.
Ook de Amerikaanse wetenschappers maakten gebruik van geluid dat voor mensen onhoorbaar is. Ook zij zeggen dat de spraakassistenten van Apple, Google en Amazon daar kwetsbaar voor zijn. De wetenschappers wisten een Android-telefoon ruim drie meter afstand te activeren en de speaker Amazon Echo van twee meter.
Het lijkt alsof een aanvaller daardoor fysiek je huis binnen moet dringen om de controle over een slimme speaker over te nemen, maar dat hoeft niet per se. Het ultrasoon geluid zou namelijk ook in een video verstopt kunnen zitten. Omdat een smartphone vaak buiten de deur is, is een aanval in de publieke ruimte ook een mogelijkheid.
Beveiliging
Fabrikanten van spraakassistenten hebben meerdere beveiligingsmaatregelen genomen om aanvallen zoals deze te voorkomen. Zo moet de telefoon ontgrendeld worden voordat Siri bijvoorbeeld een website kan openen. Google Assistant heeft de mogelijkheid om slechts naar de herkenbare stem van één persoon te luisteren.
Google en Amazon hebben tegen de BBC gezegd de bevindingen van de twee teams van wetenschappers te onderzoeken.