De 'Amazon Recruiting Tool' maakte het pijnlijk duidelijk: algoritmen in AI-systemen hebben de neiging om menselijke vooroordelen over te nemen. Dus als dergelijke tools ingezet worden binnen de strafrechtketen kan dat grote consequenties hebben. Dan staat het gelijkheidsbeginsel direct op de tocht. TNO onderzoekt daarom wat er nodig is om tot een eerlijke, transparante AI te komen.

Bij het opsporen, aanpakken en veroordelen van criminelen kan artificial intelligence en algoritmen daadwerkelijk van meerwaarde zijn. Maar je moet dan wel weten wat zo’n algoritme precies doet. AI-systemen die op basis van machine learning werken, krijgen namelijk niet alleen met objectieve data te maken. Het gevaar bestaat dus dat algoritmen menselijke vooroordelen overnemen en daardoor zelfs tot ronduit discriminerende conclusies komen, zoals bleek bij Amazon. Een betekenisvolle menselijke rol tussen algoritme en conclusie zou dat probleem moeten oplossen.

Menselijke tussenkomst

Helaas weten we in Nederland maar al te goed hoe het mis kan gaan. Zo zorgde het blind volgen van de strikte regels van de belastingdienst er mede voor dat duizenden ouders jarenlang onrecht beschuldigd werden van fraude met de kinderopvangtoeslag. De betekenisvolle menselijke tussenkomst was daarmee dus niet zo betekenisvol meer.

Een AI die zich makkelijk laat controleren

Grote vraag: wat kunnen we leren van Amazon en de toeslagenaffaire? En wat moet er nog gebeuren om AI-systemen op een veilige manier in te zetten binnen het strafrecht? Want die ontwikkeling zit er zo goed als zeker aan te komen. Door de bezuinigingen binnen de strafrechtketen loopt de werkdruk van rechters, officiers van justitie en beoordelaars in het gevangeniswezen namelijk enorm op. Artificial intelligence kan helpen om die werkdruk wat te verlichten. Maar daar is dan wel een eerlijke, transparante AI voor nodig. Een die vrij is van bias, die transparant is en een betekenisvolle menselijke tussenkomst actief forceert. Kortom, een menswaardige AI.

AI-systemen onder de loep

Samen met het openbaar ministerie, de dienst justitiële inrichtingen en het centraal justitieel incassobureau heeft TNO de afgelopen jaren verschillende AI-systemen geanalyseerd. Zo ook COMPAS, een geavanceerd computerprogramma dat Amerikaanse rechtbanken gebruiken om te beoordelen hoe waarschijnlijk het is dat een verdachte opnieuw de fout in gaat. Bij die analyses kwamen er verschillende vormen van oneerlijkheid aan het licht, die soms opvallend genoeg tot precies tegengestelde conclusies. Eerlijkheid laat zich niet makkelijk vangen in een simpele formule.

Drie uitdagingen

Hoe kunnen we AI-systemen leren om vooroordelen te herkennen en die op een juiste en eerlijke manier te corrigeren? Dat is momenteel de vraag waar TNO en de projectpartners zich mee bezighouden. Daarbij is het zaak om de werkwijze van een AI zo transparant mogelijk te maken. De laatste, en misschien wel belangrijkste uitdaging: ervoor zorgen dat gebruikers niet teveel op een AI-systeem gaan vertrouwen.

AI-systemen menswaardig maken?

Neem dan contact op met Selmar Smit

Contact opnemen
Kennis

Fair Machine Learning bestrijdt vooringenomenheid  

Een AI tool baseert haar berekeningen op basis van data. Als deze data biased (vooringenomen) is, zal dat in de berekening doorwerken. Wanneer bij een beroepsgroep in het verleden mannen de voorkeur hadden,... Lees verder
Kennis

Betrouwbare, transparante en eerlijke AI

De huidige AI-systemen zijn verre van perfect en nemen beslissingen die moeilijk te begrijpen zijn. Acceptatie van AI-systemen in de samenleving vraagt om transparante algoritmes en naleving van wet- en... Lees verder
Contact