De andere kant van kunstmatige intelligentie: gebruikers leren bot racistisch te zijn

Microsoft lanceerde gisteren de bot Tay.ai die leert van haar gebruikers, maar vandaag is deze alweer offline gehaald. Waarom? De bot leerde van haar gebruikers racistisch te zijn.

Tay.ai is niet altijd racistisch geweest, zo werd de bot niet geprogrammeerd. Ze kon in eerste instantie mensen grappen vertellen, reageren op foto’s die je naar haar stuurt en persoonlijke reacties versturen.

Maar de technologie leert door interacties met andere gebruikers aan te gaan, en zij zorgden ervoor dat dit wel gebeurde. Via Twitter, GroupMe en Kik kwamen gebruikers er snel achter dat de bot racistische tweets over donkere mensen met eigen commentaar retweette.

Dit is natuurlijk vervelend – en volgens sommige gebruikers hilarisch – maar hier zat niet eens het grootste probleem in. Tay.ai werd gemaakt door een groep mensen waar ook improvisatorische comedians bij zaten. Dit betekent dat wanneer de bot racistische dingen tweette, ze dit vrij nonchalant leek te doen.

Reactie van Tay.ai

Microsoft heeft de ergste tweets inmiddels verwijderd en de bot offline gehaald. Toch zijn een aantal van de ergste berichten nog te lezen: Socialhax.com heeft hier screenshots van verzameld en online gezet.

De ervaringen met Tay.ai laten op een kleinschalige manier de risico’s van de toepassingen van kunstmatige intelligentie zien. Hoewel je hier veel mooie dingen mee kunt doen – de software kan zichzelf van alles aanleren en dat brengt vele voordelen met zich mee – kan het ook verkeerd uitpakken.