Het zal nog wel even duren voor de zelfrijdende auto daadwerkelijk de weg op kan, maar een groep Amerikaanse wetenschappers heeft zich alvast over een interessante kwestie gebogen: wat gebeurt er als jouw auto moet beslissen over jouw leven of dat van iemand anders?
De zelfrijdende auto’s van Google, Volvo of Tesla zijn al in staat om veel gevaren snel te herkennen, maar soms is een ongeluk niet te voorkomen. Wat doet je auto bijvoorbeeld als er plotseling een band klapt? Probeert je voertuig door de rest van het verkeer te slingeren en veilig tot stilstand te komen, met het risico dat je andere weggebruikers in gevaar brengt? Of stuurt de auto je direct de vangrail in, zodat je dat risico niet loopt? De techniek zal ongetwijfeld zo geavanceerd zijn dat de auto kan berekenen welke optie de minste mensenlevens in gevaar zijn, maar wat als jouw auto kiest voor het leven van een ander en niet dat van jou?
Volgens onderzoeker Ameen Barghi zijn er twee manieren om naar dit vraagstuk te kijken: vanuit het utilitarisme of de deontologie. “In het utilitarisme gaat het erom dat zoveel mogelijk mensen ergens zoveel mogelijk baat bij hebben”, legt hij uit. “In andere woorden: als jouw auto moet kiezen tussen het raken van een schoolbus vol kinderen of het raken van een betonnen muur, dan doet je auto het laatste. In de deontologie ligt het wat ingewikkelder, want daar is geen van beide opties goed.”
Barghi komt niet met een advies voor Google en alle fabrikanten die een zelfrijdende auto willen maken, maar hij werpt wel een interessante vraag op: zijn wij bereid om te komen bij een ongeluk in onze eigen auto, als dat een beslissing is van de auto zelf en we daarmee andere levens kunnen redden?