Sta je in Amerika terecht voor een misdaad, dan kan een rechter diverse factoren gebruiken om te bepalen welke straf je krijgt. Eén van deze factoren is de “risicobeoordelingsscore”, een nummer dat voorspelt hoe groot de kans is dat je nog een misdaad pleegt in de toekomst. Maar volgens een rapport van ProPublica zijn de algoritmes die deze score maken bevooroordeeld tegenover afro-amerikanen.

De risicobeoordeling kan van alles beïnvloeden, bijvoorbeeld de hoogte van je borgtocht en hoe lang je in de gevangenis moet blijven. Heb je een hogere kans om nogmaals een misdaad te plegen, dan krijgen ze een straf die als een belemmering voor een toekomstige misdaad moet werken.

De Amerikaanse procereur-generaal Eric Holden waarschuwde in 2014 al dat deze scores “onrechtvaardige verschillen die er in het strafsysteem en in de samenleving al veel te vaak zijn kunnen verergeren”. ProPublica nam de proef op de som en keek naar de data van ruim zevenduizend gedaagden in de Broward County in Florida. Hun risicobeoordelingen werden gegenereerd door één van de meest populaire tools in het land hiervoor, ontwikkeld door een bedrijf genaamd Northpointe.

Scores kloppen niet

De conclusie van ProPublica? De scores klopten niet als het ging om het voorspellen van gewelddadige criminaliteit. “Slechts twintig procent van de mensen waarvan voorspeld werd dat ze gewelddadige misdaden zouden begaan deden dit ook echt”, stelt het team van ProPublica. Zelfs als ze alle soorten criminaliteit bekeken, inclusief overtredingen, was het algoritme “iets preciezer dan wanneer je een muntje opgooit” bij het bepalen of iemand wel of niet een tweede misdaad zou begaan.

Bovendien waarschuwde het algoritme vaker dat Afro-Amerikaanse gedaagden een kans hadden om nogmaals de fout in te gaan dan dat het bij andere verdachten deed. Dit deed het zelfs twee keer vaker dan bij blanke gedaagden. Bovendien kregen blanke verdachten vaker onterecht een label voor een lager risico.

Volgens Northpointe zelf is de afkomst van verdachten geen expliciete factor in het algoritme, maar sommige factoren die deel uit maken van de scores zijn wel verbonden aan het ras. Denk bijvoorbeeld aan het opleidingsniveau van de verdachte, of hij werk heeft of niet, de sociale omstandigheden als criminele historie in de familie en of hun vrienden illegale drugs gebruiken. Bovendien zijn de specifieke berekeningen voor de uiteindelijke score vertrouwelijk, waardoor de gedaagden en het grote publiek geen idee heeft wat een zware straf beïnvloed heeft.