Het is misschien wat moeilijk voor te stellen, maar waarschijnlijk gaan we in de toekomst gaan liegen tegen robots. Waarom? Om hen niet te kwetsen. En daarmee is het ook mogelijk dat robots de mogelijkheid krijgen om hun gedrag aan te passen, zodat wij vriendelijker tegen ze zijn. Dit blijkt uit onderzoek van de University College London (UCL) en de University of Bristol.
Volgens dat onderzoek hebben we namelijk het liefst robots die expressief zijn en hun excuses aan kunnen bieden, zelfs wanneer ze minder efficiënt zijn. Daarnaast zijn we ook eerder geneigd om een robot zijn zonden te vergeven als we denken dat kritiek en afwijzing ze pijn doet.
Bert2
Het onderzoek werd uitgevoerd met Bert2, een mensachtige robot met drie aparte schermen. Die schermen maken het mogelijk om diverse emoties te uiten met de ogen en mond. Eén van de opties was dat de robot stil was en geen fouten maakte. Een tweede mogelijkheid was dat hij stil was en één fout maakte, die hij vervolgens in alle stilte herstelde. Als laatste optie kon Bert2 praten en een simpele ja en nee ontvangen. Maakte deze variant een fout, dan bood hij zijn excuses aan. Probeerde hij iets nieuws, dan vertelde hij je dit vooraf.
De laatste variant bleek het meest populair te zijn onder mensen, zelfs al was deze vijftig procent minder efficiënt. Maar nog veel interessanter is dat we zelf ook emoties kregen bij de robot. Aan het einde van de interactie vroeg de robot om een opdracht. Een aantal deelnemers aan het onderzoek hadden moeite met nee zeggen, zelfs als ze de stille robot de voorkeur gaven.
Reden hiervan is dat ze dachten dat ze de robot pijn zouden doen. Eén van de deelnemers vertelt: “Het voelde als het juiste om nee te zeggen, maar ik voelde me er echt heel slecht bij om het te zeggen. Toen het gezicht erg verdrietig was, voelde ik me nog slechter. Ik voelde me slecht omdat de robot zijn werk probeerde te doen.” Een andere deelnemer zei eerst “misschien”, maar Bert2 snapt alleen ja en nee, waardoor het antwoord al snel “ja” werd.
Emotionele afpersing
In een latere vragenlijst onthulden de deelnemers dat ze de stille, meer efficiënte robot liever in huis haalden. Volgens de onderzoekers schreef één deelnemer zelfs dat de robot aan “emotionele afpersing” deed.
“Mens-achtige attributen, bijvoorbeeld spijt, kunnen krachtige tools zijn in het ontkennen van ontevredenheid. Maar we moeten de specifieke eigenschappen, waar we ons op willen richten en die we willen nadoen, met zorg vastellen. Als er geen regels zijn, kunnen we eindigen met robots die verschillende persoonlijkheden hebben, net als de mensen die ze ontwerpen”, vertelt Adriana Hamacher, die het onderzoek is begonnen.
Daarmee is duidelijk dat de complexiteit van onze relatie met robots in de toekomst hoger is dan verwacht. We wisten al dat we empathie kunnen voelen voor robots, maar het gaat dus verder dan dat. Maar hiervoor is de robot wel afhankelijk van hoe hij zich ook daadwerkelijk kan uitdrukken, bijvoorbeeld met een gezicht. En het beeld van mensen tegenover robots kan natuurlijk nog veranderen.