Numrush

Google geeft onjuiste en onbetrouwbare antwoorden via zoekmachine en slimme assistent

Het was uiteraard niet de bedoeling, maar Google gebruikt informatie uit nepnieuws om antwoord te geven op bepaalde vragen, ontdekte The Outline. Zo kwam naar voren dat voormalig president Barack Obama een staatsgreep plande, wanneer gebruikers daar naar vroegen.

Het probleem zit in Googles Knowledge Graph. Dat is een database van informatie over mensen, dingen, plaatsen etc. waarin feitelijke informatie wordt opgeslagen, uitkomstig uit allerlei bronnen. En in principe zouden die bronnen betrouwbaar moeten zijn, maar dat blijkt nu dus mis te zijn gegaan.

De informatie uit de Knowlegde Graph zie je onder meer via een tekstblok bovenaan de zoekresultaten. Hierin probeert Google in het kort feitelijk juiste antwoord te geven op een ingevoerde vraag, nog voordat je links naar zoekresultaten te zien krijgt.

Zodra er onbetrouwbare (of incorrecte bronnen) worden gescand door de algoritmes van Google, zie je daar dus antwoorden die niet kloppen. Wanneer je bijvoorbeeld opzoekt waarom brandweerwagens rood zijn, krijg je een uitleg afkomstig van een Monty Python-sketch met als bron een link naar een forum van Startpagina. Niet bepaald betrouwbaar.

Google Home

De informatie van Knowledge Graph kan ook worden uitgesproken door de Google Home-speaker, zodra je hiernaar vraagt. De speaker vertelt je alleen niet de bron van het antwoord, die je in de zoekmachine wel ziet, en kun je dus niet weten of de informatie die je net te horen hebt gekregen wel betrouwbaar is.

Afgelopen jaar bleek de Google Home-speaker al vreemde antwoorden te geven op vragen als ‘zijn vrouwen kwaadaardig?’. Google greep direct in, maar paste alleen dit specifieke antwoord aan en behandelde geen verdere vreemde antwoorden.

De vraag is in hoeverre te voorkomen is dat het ooit misgaat, aangezien de informatie in de Knowledge Graph automatisch wordt verzameld en niet eerst door mensen wordt gecontroleerd.