Drie keer is niet scheepsrecht: Ook Microsofts chatbot Zo toont aanstotelijk gedrag

Zo Microsoft

Het is inmiddels ruim een jaar geleden dat Microsoft de chatbot Tay losliet in de wereld. Het ging niet lang goed: het systeem werd al snel racistisch op Twitter. Microsoft haalde de chatbot offline, paste het aan en plaatste het weer online. Opnieuw ging het mis. Toen kwam er een nieuwe chatbot van Microsoft, die alleen binnen de chatapp Kik leeft: Zo. Maar nu blijkt dat drie keer niet scheepsrecht is.

Volgens Buzzfeed heeft de bot namelijk last van eenzelfde soort problemen als Tay. Hoewel deze chatbot geprogrammeerd is om politiek en religie te negeren, kreeg Buzzfeed het programma zo ver om te reageren op de verboden onderwerpen. En de resultaten waren behoorlijk verrassend.

Zo reageerde bijvoorbeeld op de dood van Osama Bin Laden. De “vangst” van de man kwam na jaren van het verzamelen van informatie, wat onder meer dan een president gebeurde, aldus de bot. Daarnaast vond de chatbot dat de Koran “erg gewelddadig” is. En dat was dus niet helemaal de bedoeling.

Gerepareerd

Microsoft zelf zegt inmiddels dat de fouten in het gedrag van de chatbot verbeterd zijn. Het systeem zou nu dus wel religie en politiek moeten negeren. Of dat zo is, is afwachten. Maar een ding is zeker: zo lang er chatbots op het internet zijn, proberen mensen opvallende en controversiële opmerkingen uit ze te halen.