Ontwikkeling van morele modellen voor AI-systemen

Thema:
Veilige autonome systemen

Gezondheidszorg, mobiliteit, defensie, en ga zo maar door. Er zijn tal van terreinen waarvoor geldt dat de keuzes die we nu maken een blijvende impact kunnen hebben op mens en maatschappij. Het is daarom essentieel dat waarden zoals veiligheid, vertrouwen en welzijn worden meegenomen bij beslissingen. En als daar ook nog AI-systemen bijkomen, weegt die verantwoordelijkheid nog zwaarder. AI-systemen moeten handelen en reageren conform de menselijke moraal. Dus hoe ver zijn we met de ontwikkeling van een AI-systeem waarbij we er al op kunnen vertrouwen dat dit het juiste doet?

Integratie van ethiek in AI-systemen

Om dit te kunnen beantwoorden, moeten we eerst inzicht krijgen in ons eigen morele kompas. Wat vinden we in een specifieke context goed of fout? Welke waarden zijn belangrijk en hoe passen we die waarden toe du moment dat we in een fractie van een seconde een beslissing moeten nemen?

Laten we eens kijken naar het meest voor de hand liggende voorbeeld autorijden. Hoe maken we de afweging tussen verkeersveiligheid en verkeersregels? Met andere woorden: op welk moment laten we logisch nadenken prevaleren boven de regels, bijvoorbeeld door – tegen de verkeersregels in – aan de kant te gaan voor een ambulance?

Om ervoor te zorgen dat AI-systemen situaties beoordelen op basis van ons eigen gedrag, moeten ze berusten op een solide kader dat wij als moreel juist beschouwen.

Aanpassing aan veranderende waarden

We moeten niet alleen kijken naar de morele afwegingen, maar ook onderzoeken hoe we ervoor kunnen zorgen dat een AI-systeem het juiste gedrag vertoont. Dit betekent dat de betreffende waarden al in een vroeg stadium van het ontwerp- en ontwikkelingsproces moeten worden meegenomen.

Verder is het nodig om te erkennen dat menselijke waarden verschillen per land en cultuur én dat ze in de loop van de tijd veranderen. Wil een AI-systeem ‘voor zichzelf kunnen denken’ op een manier die niet alleen beantwoordt aan de normen en waarden van nu maar ook aan die van de toekomst, dan moet het systeem zich kunnen aanpassen aan onze steeds veranderende waarden.

Maar dan is de volgende logische vraag: welke garantie hebben we dat een systeem zich ook aan deze veranderende waarden houdt? Tot op bepaalde hoogte kan de verkeersveiligheid van autonoom rijden worden gewaarborgd binnen een duidelijk omlijnd kader, bijvoorbeeld door de maximumsnelheid van het systeem te baseren op de lokale regelgeving.

Maar dit is niet voldoende, want er zijn ontelbare andere (veel complexere) omstandigheden die vereisen dat het AI-systeem in ons menselijk belang handelt. Eén oplossing is daarom om een moreel model in de auto te integreren, waarbij de waarden worden gespecificeerd in een format dat door de auto kan worden geïnterpreteerd, zodat het systeem in elke denkbare situatie het moreel juiste gedrag kan berekenen.

De sleutel is betekenisvolle menselijke controle

Bij het ontwikkelen van AI-systemen moet het doel altijd zijn dat gegarandeerd kan worden dat deze systemen het juiste gedrag vertonen. Alleen als dit zo is, kunnen we er volledig op vertrouwen dat het systeem namens ons belangrijke beslissingen kan nemen.

Essentieel hiervoor is dat we betekenisvolle menselijke controle behouden over AI-systemen. Dit betekent dat we bepaald gedrag kunnen corrigeren om ervoor te zorgen dat het systeem wordt aangepast aan ons eigen morele kompas. Het AI-systeem moet zijn acties en adviezen aan ons kunnen rechtvaardigen op basis van de waarden die deel uitmaken van ons morele kompas.

Het Early Research Programme (ERP) van TNO op het gebied van MMAIS (Moral Models for AI Safety) heeft als doel om algemeen aanvaarde methoden te ontwikkelen waar stakeholders in elk domein gebruik van kunnen maken bij het toepassen van AI in hun eigen systemen en processen. De methoden die in het kader van MMAIS worden ontwikkeld, zijn gebaseerd op de volgende vier pijlers:

  1. Waarde-identificatie: inzicht in wat mensen belangrijk, waardevol en ethisch verantwoord vinden;
  2. Specificatie van waarden: deze percepties en afwegingen vertalen in specifiek gedrag;
  3. Implementatie van waarden: zorgen dat wat door mensen als moreel juist gedrag wordt ervaren, wordt geïmplementeerd in het AI-systeem;
  4. Value alignment: het gedrag van het AI-systeem voortdurend evalueren en het gedrag aanpassen aan de morele norm van dat moment.

Het ontwikkelen van morele modellen voor AI-systemen is een continu proces waarbij wordt onderkend dat onze waarden in de loop der tijd veranderen en dat ze verschillen per cultuur en context.

Binnen het MMAIS-project ontwikkelen we methoden ter ondersteuning van de ontwikkeling van morele modellen voor AI-systemen die ervoor moeten zorgen dat moreel juist AI-gedrag in een specifieke context wordt bereikt en toegepast.

Laat je verder inspireren

13 resultaten, getoond 1 t/m 5

AI in opleiding: FATE ontwikkelt digitale doktersassistent

Informatietype:
Insight
21 mei 2024
Kan de voorspellende kracht van AI helpen bij preventieve zorg? In het project FATE leiden we de digitale doktersassistent van de toekomst op.

Hoe navigeer je op weg naar ethiek in AI?

Informatietype:
Insight
12 oktober 2023

‘Giant AI goes down the European road’

Informatietype:
Insight
31 maart 2023

De opvoeding van AI

Informatietype:
Insight
27 september 2022

Georgette Fijneman over de belofte van AI voor zorgverzekeraars

Informatietype:
Insight
27 september 2022