Er wordt al jaren aan gewerkt: kunstmatige intelligentie die leert als een mens doet. Dit betekent in de praktijk vooral dat het programma een taak kan leren nadat het een andere taak heeft geleerd en daarbij vaardigheden gebruikt die hij ondertussen heeft leren beheersen. Google’s DeepMind heeft dat nu voor elkaar gekregen, schrijft The Guardian.
Als klein kind leerde ik schaatsen van mijn moeder. Toen ik ouder werd wilde ik gaan skeeleren en toen ik mijn eerste skeelers kreeg, ging het me gemakkelijk af. Waarom? Omdat de vaardigheden die ik bij schaatsen leerde me hielpen bij het skeeleren.
Bij een kunstmatige intelligentie werkt dat echter anders. Die zou de vaardigheden van het schaatsen vergeten en alles overnieuw moeten aanleren. Dat is simpelweg hoe het systeem werkt: het vergeet hoe het eerdere problemen heeft opgelost. Er zit nu eenmaal een duidelijk limiet aan wat het kan onthouden. Maar bij ons is dat niet het geval. Wij gebruiken onze ervaringen met eedere problemen om nieuwe op te lossen. En dat kan de kunstmatige intelligentie van DeepMind nu dus ook.
Deze ontwikkeling is een doorbraak in het maken van een zogenaamde artificial general intelligence (AGI) machine die even intelligent is als een mens. “Als we programma’s willen hebben die intelligenter en nuttiger zijn, dan moeten ze de vaardigheid om achter elkaar door te leren hebben”, stelt James Kirkpatrick van DeepMind.
Netwerken
Om de nieuwe kunstmatige intelligentie te maken, keken de onderzoekers naar neurowetenschappen. Daarin is aangetoond dat dieren achter elkaar kunnen leren omdat ze connecties in de hersenen bewaren die belangrijk zijn voor vaardigheden die je eerder aanleerde.
De kunstmatige intelligentie doet dat op eenzelfde manier. Voor het van de ene taak naar de ander gaat, onderzoekt het welke connecties het meest belangrijk waren bij de taken de het tot nu toe aanleerde. Vervolgens maakt het het moeilijker om deze aan te passen als het een volgende taak aan te leren. “Als het netwerk kan hergebruiken wat het al geleerd heeft, dan doet het dat”, aldus Kirkpatrick.
Het systeem is getest door het tien klassieke Atari-spellen te laten spelen, waaronder Breakout, Space Invaders en Defender. De spellen werden in willekeurige volgorde voorgelegd. Na enkele dagen een spel te hebben gespeeld, was het programma net zo goed als een menselijke speler bij zeven van de tien games.
Beter?
Het is echter nog niet duidelijk of het gebruiken van eerder aangeleerde vaardigheden de kunstmatige intelligentie ook echt verbetert. Het programma kon diverse spellen spelen, maar werd er niet zo goed in als een systeem dat slechts een spel leerde spelen. “We hebben aangetoond dat het taken achter elkaar kan leren, maar niet dat het ze ook beter aanleert omdat het het achter elkaar doet”, vertelt Kirkpatrick. “Er is nog ruimte voor verbetering.”
Een van de problemen was dat de kunstmatige intelligentie niet altijd doorhad hoe belangrijk bepaalde connecties waren om een specifieke strategie uit te voeren. “We weten dat achter elkaar leren belangrijk is, maar we zijn nog niet bij het volgende stadium aangekomen, waarin we het kunnen laten leren zoals mensen en dieren dat doen. Dat is nog ver weg”, aldus Kirkpatrick. Hij zegt echter wel dat dat niet onmogelijk is om te bereiken.
Toch is het onderzoek wel een belangrijke stap in de juiste richting. “Het kan ons helpen om uiteindelijk probleemoplossende systemen te maken die flexibeler en efficiënter kunnen leren.”