Eerlijke besluitvorming in het recht met AI

Thema:
Artificiële intelligentie

De 'Amazon Recruiting Tool' maakte het pijnlijk duidelijk: algoritmen in AI-systemen hebben de neiging om menselijke vooroordelen over te nemen. Dus als dergelijke tools ingezet worden binnen de strafrechtketen kan dat grote consequenties hebben. Dan staat het gelijkheidsbeginsel direct op de tocht. TNO onderzoekt daarom wat er nodig is om tot een eerlijke, transparante AI te komen.

Menselijke tussenkomst

Helaas weten we in Nederland maar al te goed hoe het mis kan gaan. Zo zorgde het blind volgen van de strikte regels van de belastingdienst er mede voor dat duizenden ouders jarenlang onrecht beschuldigd werden van fraude met de kinderopvangtoeslag. De betekenisvolle menselijke tussenkomst was daarmee dus niet zo betekenisvol meer.

Bij het opsporen, aanpakken en veroordelen van criminelen kan artificial intelligence en algoritmen daadwerkelijk van meerwaarde zijn. Maar je moet dan wel weten wat zo’n algoritme precies doet. AI-systemen die op basis van machine learning werken, krijgen namelijk niet alleen met objectieve data te maken. Het gevaar bestaat dus dat algoritmen menselijke vooroordelen overnemen en daardoor zelfs tot ronduit discriminerende conclusies komen, zoals bleek bij Amazon. Een betekenisvolle menselijke rol tussen algoritme en conclusie zou dat probleem moeten oplossen.

Een AI die zich makkelijk laat controleren

Grote vraag: wat kunnen we leren van Amazon en de toeslagenaffaire? En wat moet er nog gebeuren om AI-systemen op een veilige manier in te zetten binnen het strafrecht? Want die ontwikkeling zit er zo goed als zeker aan te komen.

Door de bezuinigingen binnen de strafrechtketen loopt de werkdruk van rechters, officiers van justitie en beoordelaars in het gevangeniswezen namelijk enorm op. Artificial intelligence kan helpen om die werkdruk wat te verlichten. Maar daar is dan wel een eerlijke, transparante AI voor nodig. Een die vrij is van bias, die transparant is en een betekenisvolle menselijke tussenkomst actief forceert. Kortom, een menswaardige AI.

AI-systemen onder de loep

Samen met het openbaar ministerie, de dienst justitiële inrichtingen en het centraal justitieel incassobureau heeft TNO de afgelopen jaren verschillende AI-systemen geanalyseerd.

Zo ook COMPAS, een geavanceerd computerprogramma dat Amerikaanse rechtbanken gebruiken om te beoordelen hoe waarschijnlijk het is dat een verdachte opnieuw de fout in gaat. Bij die analyses kwamen er verschillende vormen van oneerlijkheid aan het licht, die soms opvallend genoeg tot precies tegengestelde conclusies. Eerlijkheid laat zich niet makkelijk vangen in een simpele formule.

Drie uitdagingen

Hoe kunnen we AI-systemen leren om vooroordelen te herkennen en die op een juiste en eerlijke manier te corrigeren? Dat is momenteel de vraag waar TNO en de projectpartners zich mee bezighouden. Daarbij is het zaak om de werkwijze van een AI zo transparant mogelijk te maken. De laatste, en misschien wel belangrijkste uitdaging: ervoor zorgen dat gebruikers niet teveel op een AI-systeem gaan vertrouwen.

Laat je verder inspireren

21 resultaten, getoond 1 t/m 5

Verantwoorde besluitvorming mens-machine interactie

Informatietype:
Artikel

Vooroordelen in gezichtsherkenning en ongevallen met zelfrijdende auto’s. AI moet verder ontwikkelt worden. Dat gaat het snelst in nauwe samenwerking met mensen.

Augmented werknemer in smart industry met AI

Informatietype:
Artikel

Met het ‘adaptieve operator support systeem’ worden instructies op een beeldscherm, slimme bril of op de werktafel geprojecteerd. Dit maakt maatwerk mogelijk.

Diagnose voor printeronderhoud met AI

Informatietype:
Artikel

Predictive maintenance staat hoog op het verlanglijstje van de maakindustrie. Hier kan artificial intelligence (AI) hét verschil maken. Bekijk hoe.

Energiebalans voor smart homes met AI

Informatietype:
Artikel

Bij de in het Nederlands Klimaatakkoord vastgelegde doelen kunnen we wel wat hulp van kunstmatige intelligentie (AI) gebruiken. Bijvoorbeeld in smart homes.

Situational awareness bij autonoom rijden

Informatietype:
Artikel

Bij autonoom rijden moet een voertuig ook op onvoorspelbare situaties reageren. Momenteel loopt er een proof-of-concept voor AI met situation awareness.