Chatbot Tay van Microsoft is terug, maar het gaat meteen weer mis

Tay.ai

Als er iets misgaat leer je het meeste. En ik ben dan ook benieuwd naar de onderzoeksresultaten van het Microsoft Research-project rond chatbot Tay.ai. De door kunstmatige intelligentie aangestuurde chatbot, die moest chatten en tweeten zoals jongeren dat doen, werd vorige week door Twitteraars verandert in een racist.

Microsoft haalde de chatbot daarna en bood dit weekend in een uitgebreide blogpost zijn excuses aan. Vanochtend ging Tay weer online, maar ging het meteen weer mis. Door een fout veranderde de chatbot in een spambot, omdat het account zichzelf mentionde aan het begin van elke tweet. Daardoor ziet iedereen die het account volgt plots alle tweets (die replies zijn) in zijn timeline verschijnen.

Daarna begon de bot massaal “You are too fast, please take a rest…” te versturen. De tekst is een errormelding die Tay normaal gesproken verstuurt als het teveel berichten krijgt. Mogelijk gaat het mis omdat in elke tweet daarvoor het account zichzelf noemt en het dus weer binnenkomt als reply. Ook deze tweets verschenen allemaal bij alle volgers in hun timeline.

Het gaat hierbij waarschijnlijk om een kleine bug, die een stuk minder pijnlijk is dan de rascistische tweets van vrijdag. Maar het leert in ieder geval weer wat extra lessen over zaken waar je rekening mee moet houden als je een chatbot ontwikkelt.