Dr. ir. Anne Fleur van Veenstra
- Policy Lab
- Data-driven policy
- Digital governance
- Public sector innovation
Appl.AI Webinar #1: 'AI in Overheidsbesluitvorming'
De rol van data is niet per se te koppelen aan een ‘probleem – oplossing’, omdat data-gedreven besluitvorming weer allerlei nieuwe problemen met zich meebrengt. Wat je kunt winnen met data (wat voorheen niet kon) is dat we sneller en beter kunnen anticiperen op mogelijke consequenties van een beleid of besluit (vanuit een overheidsperspectief) . De andere kant van de medaille is dat er ook maatschappelijke verwachtingen zijn over het gebruik van algemene digitale middelen in de maatschappij. Met andere woorden, je moet met je tijd mee. Mensen verwachten ze dat ze ook bij de overheid een formulier digitaal kunnen invullen.
Omdat de overheid niet de juiste skills en tools in huis heeft om snel en wendbaar een app te bouwen. Uiteindelijk is er toch gekozen om het zelf te doen, en het is al een tijdje stil. Ook omdat we wereldwijd steeds beter gaan begrijpen dat een app an sich geen oplossing is en dat je veel meer nodig hebt. Met andere woorden, te snel naar een technologische oplossingen grijpen voordat je de sociale problematiek doorhebt, blijft een van de grootste valkuilen van digitalisering.
Er zitten enorme cultuurverschillen als het gaat om privacy en de rol van de overheid in de bescherming van persoonsgegevens. In Nederland (en in de Scandinavische landen) is het vertrouwen in de overheid, ook om persoonsgegevens voor de juiste doelen in te zetten en goed te beschermen, relatief hoog, alhoewel de vraag post-Corona is hoe dit vertrouwen veranderd is. De afweging is een politieke, echter wel binnen de kaders van de wet.
Bij TNO hebben we methode ontwikkeld die we het Policy Lab noemen. In een serie van 'sprints' nemen we alle expertises mee om juist binnen een project elkaar's taal echt te begrijpen. Zelfs tussen statistici en data scientist bestaan grote verschillen over labels, categorieën en weegfactoren van variabelen. Het is een zeer boeiend onderwerp om op het grensvlak van data-gedreven algoritmes en expressie-gebaseerde systemen (iets wat we hybride AI noemen) onderzoek te doen. Op dit thema is onderzoek nog maar net begonnen!
Goed punt. Bedrijven zijn die een slaatje willen slaan uit de ontwikkeling van dergelijk app, zouden sowieso niet op de shortlist terecht mogen komen. De dominante rol van Apple en Google omtrent dergelijke apps is wat dat betreft zorgwekkend, want ze gaan op de stoel van de overheid zitten en bepalen daarmee ook de regels (zonder deze vrij te geven). In Europa is er een open-source protocol ontwikkeld voor Corona-tracking apps en deze wordt door experts bekeken, bekritiseerd en verbeterd. Het blijft een beetje de vraag waarom de Nederlandse overheid zich niet bij dat initiatief aansluit.
AI is erg goed in 3 dingen:
Dit is allemaal waardevol en zinvol, maar in isolatie onvoldoende om zonder sturing los te laten op heel veel beslissingen. Zo is AI niet goed in staat om creatief te denken of om context op waarde te schatten. Dus als voorspeller wanneer een infrastructureel object onderhoud nodig heeft is het prima om AI in te zetten. Als beoordelaar welke strafmaat nodig is, daar wil je geen AI autonoom laten functioneren. Het goed snappen hoe AI werkt is van belang om te kunnen beoordelen voor welke taken AI ingezet kan worden en welk niveau van autonomie we toestaan.
Dit is een van de dimensies waar wij toegepast onderzoek op doen. AI systemen zijn nu vaak geïsoleerde systemen die één taak goed doen. Maar we verwachten meer: AI systemen moeten in onderlinge samenhang kunnen werken én kunnen samenwerken met de mens. Dat brengt heel veel, maar is niet eenvoudig te realiseren. Als altijd start het met de vraag: welk doel dient het? Van daaruit kan in deelsystemen en oplossingen gezocht worden.
Uitlegbaarheid is in essentie een semantisch en communicatief proces. Om als mens met AI te kunnen redeneren over een AI-analyse moet het referentiekader van AI verenigbaar zijn met dat van de mens. Er moet een communicatieve relatie bestaan tussen mens en model. AI streeft de mens vaak voorbij, door complexe taak specifieke verbanden te kunnen leren uit zeer grote hoeveelheden data, wat de zaak compliceert.
Transparantie en controleerbaarheid zijn voorwaarden voor de inzet van AI systemen. Dat betekent dat er een proces moet komen waarin mensen inderdaad overheidsbesluiten kunnen bevragen en uitleg moeten krijgen over hoe een besluit tot stand is gekomen.
Wanneer er afdoende maatregelen zijn genomen om deze bias te laten verdwijnen is het wellicht geen AI-probleem (meer). Maar tot dat moment is dat het nog wel. Het echte probleem zit overigens in beide gevallen in de organisatie die deze data heeft opgeleverd waarop het algoritme is getraind. Bij Amazon lieten de data blijkbaar zien dat er bij Amazon in het offline recruitment proces bias was, net als bij de Belastingdienst.
We zullen moeten accepteren dat in een aantal gevallen de relatie tussen AI-model en menselijke kennis niet goed te leggen valt. Controleerbaarheid achteraf maakt uitlegbaarheid in zulke situaties mogelijk minder belangrijk. Dat raakt aan vertrouwen. Een complex deep learning systeem dat kanker detecteert wordt beter vertrouwd als via een aanvullende diagnostische test (door de mens) achteraf blijkt dat het systeem het in 99% van de gevallen bij het rechte eind heeft. Uitlegbaarheid is dan minder belangrijk. Het op die manier kunnen calibreren van kwaliteit en uitlegbaarheid biedt een mogelijkheid om modellen in een workflow met de mens op te nemen: in sommige contexten is lagere uitlegbaarheid en hogere nauwkeurigheid te prefereren, in andere gevallen heeft hogere uitlegbaarheid ten koste van wat lagere nauwkeurigheid de voorkeur.
Appl.AI Webinar #1: 'AI in Overheidsbesluitvorming'
test
De vraag is verzonden! Je ontvangt binnenkort een bevestigingsmail.
Er is helaas iets misgegaan. Probeer het later opnieuw!