Eerlijke besluitvorming in het recht met AI

Thema:
Artificiële intelligentie

De 'Amazon Recruiting Tool' maakte het pijnlijk duidelijk: algoritmen in AI-systemen hebben de neiging om menselijke vooroordelen over te nemen. Dus als dergelijke tools ingezet worden binnen de strafrechtketen kan dat grote consequenties hebben. Dan staat het gelijkheidsbeginsel direct op de tocht. TNO onderzoekt daarom wat er nodig is om tot een eerlijke, transparante AI te komen.

Menselijke tussenkomst

Helaas weten we in Nederland maar al te goed hoe het mis kan gaan. Zo zorgde het blind volgen van de strikte regels van de belastingdienst er mede voor dat duizenden ouders jarenlang onrecht beschuldigd werden van fraude met de kinderopvangtoeslag. De betekenisvolle menselijke tussenkomst was daarmee dus niet zo betekenisvol meer.

Bij het opsporen, aanpakken en veroordelen van criminelen kan artificial intelligence en algoritmen daadwerkelijk van meerwaarde zijn. Maar je moet dan wel weten wat zo’n algoritme precies doet. AI-systemen die op basis van machine learning werken, krijgen namelijk niet alleen met objectieve data te maken. Het gevaar bestaat dus dat algoritmen menselijke vooroordelen overnemen en daardoor zelfs tot ronduit discriminerende conclusies komen, zoals bleek bij Amazon. Een betekenisvolle menselijke rol tussen algoritme en conclusie zou dat probleem moeten oplossen.

Een AI die zich makkelijk laat controleren

Grote vraag: wat kunnen we leren van Amazon en de toeslagenaffaire? En wat moet er nog gebeuren om AI-systemen op een veilige manier in te zetten binnen het strafrecht? Want die ontwikkeling zit er zo goed als zeker aan te komen.

Door de bezuinigingen binnen de strafrechtketen loopt de werkdruk van rechters, officiers van justitie en beoordelaars in het gevangeniswezen namelijk enorm op. Artificial intelligence kan helpen om die werkdruk wat te verlichten. Maar daar is dan wel een eerlijke, transparante AI voor nodig. Een die vrij is van bias, die transparant is en een betekenisvolle menselijke tussenkomst actief forceert. Kortom, een menswaardige AI.

AI-systemen onder de loep

Samen met het openbaar ministerie, de dienst justitiële inrichtingen en het centraal justitieel incassobureau heeft TNO de afgelopen jaren verschillende AI-systemen geanalyseerd.

Zo ook COMPAS, een geavanceerd computerprogramma dat Amerikaanse rechtbanken gebruiken om te beoordelen hoe waarschijnlijk het is dat een verdachte opnieuw de fout in gaat. Bij die analyses kwamen er verschillende vormen van oneerlijkheid aan het licht, die soms opvallend genoeg tot precies tegengestelde conclusies. Eerlijkheid laat zich niet makkelijk vangen in een simpele formule.

Drie uitdagingen

Hoe kunnen we AI-systemen leren om vooroordelen te herkennen en die op een juiste en eerlijke manier te corrigeren? Dat is momenteel de vraag waar TNO en de projectpartners zich mee bezighouden. Daarbij is het zaak om de werkwijze van een AI zo transparant mogelijk te maken. De laatste, en misschien wel belangrijkste uitdaging: ervoor zorgen dat gebruikers niet teveel op een AI-systeem gaan vertrouwen.

Laat je verder inspireren

51 resultaten, getoond 1 t/m 5

Onderzoek TNO en Kieskompas: AI-taalmodellen zijn inconsistent en neigen naar links

Informatietype:
Nieuws
22 november 2023
Uit een experiment van TNO en Kieskompas, waarbij TNO meerdere AI-taalmodellen de stemhulp van het Kieskompas 2023 liet invullen, blijkt dat de modellen aan de linkerkant van het politieke spectrum uitkomen en wisselvallig antwoorden.

Impuls voor TNO faciliteiten voor duurzame mobiliteit, biobased bouwen en AI

Informatietype:
Nieuws
2 november 2023

Nederland start bouw GPT-NL als eigen AI-taalmodel

Informatietype:
Nieuws
2 november 2023

GPT-NL versterkt Nederlandse autonomie, kennis en technologie in AI

Informatietype:
Artikel

AI Lab van start voor effectief en verantwoord toezicht

Informatietype:
Nieuws
20 oktober 2023