Hackers manipuleren sensoren van een zelfrijdende Tesla Model S

In de afgelopen maanden is er redelijk wat discussie geweest over Autopilot van Tesla. Dit dankzij diverse ongelukken, waaronder één dodelijk ongeval. Maar beveiligingsonderzoekers maken zich zorgen om een ander probleem: wat als een saboteur de sensoren van de autopilot kan laten falen? Onderzoekers van de University of South Carolina, de Chinese Zhejiang University en het Chinese beveiligingsbedrijf Qihoo 360 hebben precies dat te hebben gedaan.

De onderzoekers hebben het voor elkaar gekregen om de sensoren van Tesla’s autopilot te laten denken dat er geen objecten waren, of dat ze er juist wel waren terwijl dit niet zo was. Hoewel het succes van de experimenten wisselden, laten ze zien dat de auto’s van Tesla nog niet veilig zijn voor hackers.

Radar het gevaarlijkste

De autopilot van Tesla detecteert de omgeving op drie manieren: via radar, met ultrasonische sensoren en middels camera’s. De onderzoekers hebben alle drie de onderdelen aangevallen en kwamen tot de conclusie dat de aanvallen op de radar als enige het risico opleveren om een botsing op hoge snelheid te veroorzaken.

Hiervoor gebruikten de onderzoekers een signaalgenerator van Keysight Technologies en een zogeheten VDI frequency multiplier om de radiosignalen die de radar gebruikt te blokkeren. De onderdelen werden op een auto voor de Tesla geplaatst om een ander voertuig te simuleren. Zodra het signaal geblokkeerd wordt, verdwijnt de auto en is er geen waarschuwing voor de bestuurder van de Tesla, aldus de onderzoekers. Wel moet de radaraanval op de goede hoek gericht worden, willen ze de radar van een bewegende Tesla raken. Een demonstratie van de hack op hoge snelheid werd niet uitgevoerd.

Aanvallen op de ultrasonische sensoren

De ultrasonische sensoren van Tesla worden gebruikt om de auto zichzelf te laten parkeren en om de Summon-functie te gebruiken, waarmee de auto uit een garage of parkeerplaats rijdt zonder dat er een bestuurder nodig is. En ook deze sensoren zijn te misleiden. Hier werd een function generator en een kleine Arduino-computer gebruikt om bepaalde voltages te creeëren. Vervolgens werd deze elektriciteit omgezet naar geluidsgolven die de sensor waarneemt.

Met deze technologie is het mogelijk om de Tesla te overtuigen om niet op een bepaalde plek te parkeren, omdat er een voertuig zou staan, terwijl dit niet het geval is. De andere optie is dat ze de sensoren blokkeren, zodat de auto een daadwerkelijk object mist.

Camera’s zijn minder gevaarlijk

Het laatste deel van het onderzoek was het proberen te blokkeren van de camera’s, maar dit had slechts een gelimiteerd effect. Bij deze aanval richtten de onderzoekers LED’s en lasers op de camera om deze te verblinden. Daarmee toonden ze aan dat ze dode pixels – kapotte delen op het beeld van de camera – konden veroorzaken. Maar het gevolg was dat Tesla de autopilot uitzette en de bestuurder waarschuwde het stuur weer over te nemen.

Tesla blijft benadrukken dat Autopilot op dit moment niet bedoeld is om volledig autonoom te kunnen rijden. Bestuurders moeten dan ook altijd klaar zijn om het stuur weer over te nemen. Tegenover Wired reageerde het bedrijf op de aanvallen van de onderzoekers: “We hebben de resultaten bekeken en zijn tot nu toe nog niet in staat geweest om gevallen die in de echte wereld kunnen voorkomen en gevaarlijk zijn voor Tesla-bestuurders te reproduceren.”

Volgens onderzoeker Wenyuan Xu van de University of South Carolina is er wel een gevaar. De sensoren van Tesla hebben daadwerkelijke zwakke punten. Niet alleen moet Tesla de technologie verbeteren, maar het ook voorbereiden op aanvallen. “Ze moeten er ook over denken om detectiemechanismes toe te voegen”, stelt Xu. “Als het geluid extreem hoog is of er is iets abnormaals, dan zou de radar het centrale data processing systeem moeten waarschuwen en zeggen dat hij niet normaal werkt.”