De grote uitdaging van AI: Hoe brengen we een robot ethiek bij?

kunstmatige intelligentie

Zijn er morele wetten, en zo ja, kunnen wij die aan AI opleggen zodat ze ons geen kwaad zullen doen? Dat is de vraag die gesteld wordt in een korte film die The Guardian heeft uitgebracht: The Intelligence Explosion. In de film vragen de makers zich af of we kunstmatige intelligentie kunnen onderwijzen door een filosoof die een reeks morele handvatten opstelt voor AI, die gevolgd moeten worden.

Dat blijkt moeilijker dan gedacht, want AI handelt normaal gesproken op basis van een hoop data, en welke dataset moet hier dan voor gebruikt worden? Het intelligente systeem in de korte film doet een aantal suggesties: “Ik zal handelen zoals de mens altijd gehandeld heeft”, maar dat wordt sterk afgeraden door de filosoof – onze geschiedenisboeken staan bol van gebeurtenissen die we niet graag nog eens meemaken. “Op basis van het gedrag van religieuze leiders dan?” Nope, ook niet verstandig. Want we kunnen simpelweg niet op het eerdere gedrag van de mens vertrouwen, zegt de filosoof.

Geen dubbelzinnige regels

Uiteindelijk zijn er voor complexe morele dilemma’s geen concrete antwoorden, en de mens is er nog niet in geslaagd ethiek om te zetten in een reeks ondubbelzinnig regels. Het is zelfs de vraag of dit ooit mogelijk is, omdat er bij ethische problemen vanuit verschillende kanten gekeken moet worden. Iedere ethische situatie kent andere details die cruciaal kunnen zijn. Een computer gaat uit van rekenkundige benaderingen, hoe kan hij in de toekomst menselijke beslissingen nemen aangezien een hoop van onze beslissingen niet rationeel zijn?

In 1942 werden er al regels voor robots opgesteld die moesten voorkomen dat het ooit mis zou gaan met robots. Toen schreef Isaac Asimov een science fiction-verhaal dat “Runaround” heet. Daarin stelde hij drie regels op, die we vandaag de “Drie wetten van robotica noemen” en nog steeds hanteren:

  1. Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
  2. Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
  3. Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Deze drie wetten gelden nog altijd als basis, maar zijn niet ver genoeg uitgewerkt voor complexe systemen in de toekomst die steeds meer taken van ons over nemen en uiteindelijk beslissen over leven en dood. 

Knappe koppen denken na over nóg slimmere systemen

Het zijn vraagstukken waar knappe koppen als Elon Musk en Stephen Hawking over nadenken. Het is niet voor niets dat het Europees Parlement begin dit jaar opriep tot wetgeving rond kunstmatige intelligentie en robotica, “om onze veiligheid te garanderen”.

“In steeds meer domeinen van ons dagelijks leven krijgen we te maken met robotica. Om deze realiteit het hoofd te kunnen bieden en om te verzekeren dat robots ten dienste zijn en blijven van de mens, hebben we dringend een robuust Europees wetgevend kader nodig”, stond er in een rapport dat door de meerderheid van de Europese Commissie goedgekeurd werd.

Om zeker te zijn dat nieuwe technologie uiteindelijk controleerbaar blijft pleitte het Parlement onder meer voor een (vrijwillige) ethische code waarin onder meer staat dat alle robots met een ‘kill’-knop worden uitgerust waarmee ze in noodgevallen kunnen worden uitgeschakeld. Zo kan de mens ook ingrijpen wanneer computers even slim of zelfs slimmer geworden zijn dan de mens.