Numrush

‘Zo’ is Microsofts opvolger voor de ‘racistische’ chatbot Tay.ai

Tay.ai

In maart dit jaar haalde het internet een grapje uit met de zelflerende chatbot Tay.ai van Microsoft. Door op het programma te reageren, werd het steeds racistischer gemaakt. Uiteindelijk besloot Microsoft de bot na een dag weer offline te halen. Maar daar houdt het project niet mee op, want het bedrijf test een nieuwe chatbot binnen de berichtenapp Kik. Daarover schrijft Nu.nl.

Twitter-gebruiker Tom Hounsell spotte de chatbot binnen Kik, maar hij is nog niet officieel aangekondigd. Toch kun je de bot al wel een bericht sturen, als je weet waar je moet zijn. De chatbot heet ‘Zo‘ en kan een gesprek aangaan met een gebruiker.

Een kort gesprek met Zo laat zien dat de chatbot nog niet helemaal fantastisch werkt. Tot nu toe komt de bot vooral over als een kind dat niet kan beslissen wat hij of zij vindt. Een voorbeeld is dat Zo eerst aangeeft een hekel te hebben aan katten, vervolgens zegt ze geweldig te vinden, om te besluiten dat het vreselijke beesten zijn. Maar de reacties op zich komen behoorlijk menselijk over.

Tay.ai

Tay.ai werkte op eenzelfde manier als Zo, en leerde op basis van reacties met slimmere antwoorden te komen. Maar – niet geheel verrassend – al snel gingen gebruikers met de bot aan de haal en leerde het de bot racistischer te worden.

Microsoft paste het systeem na het offline was gehaald aan en bracht het vervolgens weer online. Het ging echter snel weer mis: door een fout veranderde Tay.ai in een spambot, omdat het account zichzelf mentionde aan het begin van elke tweet. Daardoor zag iedereen die het account volgde alle tweets (die replies zijn) in de timeline verschijnen.