Een team wetenschappers van de universiteit van Cambridge gebruikt smartphones met speciale software om auto’s in de toekomst zelfstandig te laten rijden. Het idee is dat mensen ook enkel op zicht kunnen navigeren, en dat daarom auto’s, of meer specifieke software, ook daartoe in staat zou moeten zijn.
De wetenschappers laten zien dat er drie soorten technieken nodig zijn om auto’s zelfstandig te kunnen laten rijden met niets meer dan een smartphone met een camera: ‘Where am I?’, ‘What is around me?’ en ‘What I’m gonna do next?’ Voor de eerste twee stappen hebben ze software ontwikkeld die het relatief goed doet.
Het team maakt gebruik van supervised learning: het team heeft handmatig 5.000 afbeeldingen van wegen geanalyseerd en aangegeven per pixel wat de computer zou moeten zien. Op basis van die kennis is het programma zichzelf steeds gaan verbeteren en kan het nu twaalf categorieën onderscheiden, zoals wegen, voetgangers, auto’s en stoep(randen).
Volgens de wetenschappers is het systeem nu redelijk accuraat: het labelt 90 procent van de pixels correct en werkt in daglicht, schaduw en tijdens de nacht.
Het tweede systeem gebruikt de omgeving om te zien waar de smartphone is. Deze techniek is ontwikkeld om niet afhankelijk te zijn van GPS om te kunnen navigeren. Het systeem kijkt naar de vormen en bouwstijl van gebouwen om zich heen om zodoende de locatie te kunnen herleiden. Volgens de onderzoekers is deze manier van positionering een stuk accurater dan GPS.
Toch gaat op korte termijn je smartphone niet het slimme hart zijn van jouw zelfrijdende auto. “Op de korte termijn zullen we deze ontwikkelingen terugzien in een robot voor thuisgebruik — zoals een stofzuigrobot.” Dat laat Roberto Cipolla, één van de wetenschappers, weten in een persbericht.