Ontwikkeling van morele modellen voor AI-systemen

Thema:
Veilige autonome systemen

Gezondheidszorg, mobiliteit, defensie, en ga zo maar door. Er zijn tal van terreinen waarvoor geldt dat de keuzes die we nu maken een blijvende impact kunnen hebben op mens en maatschappij. Het is daarom essentieel dat waarden zoals veiligheid, vertrouwen en welzijn worden meegenomen bij beslissingen. En als daar ook nog AI-systemen bijkomen, weegt die verantwoordelijkheid nog zwaarder. AI-systemen moeten handelen en reageren conform de menselijke moraal. Dus hoe ver zijn we met de ontwikkeling van een AI-systeem waarbij we er al op kunnen vertrouwen dat dit het juiste doet?

Integratie van ethiek in AI-systemen

Om dit te kunnen beantwoorden, moeten we eerst inzicht krijgen in ons eigen morele kompas. Wat vinden we in een specifieke context goed of fout? Welke waarden zijn belangrijk en hoe passen we die waarden toe du moment dat we in een fractie van een seconde een beslissing moeten nemen?

Laten we eens kijken naar het meest voor de hand liggende voorbeeld autorijden. Hoe maken we de afweging tussen verkeersveiligheid en verkeersregels? Met andere woorden: op welk moment laten we logisch nadenken prevaleren boven de regels, bijvoorbeeld door – tegen de verkeersregels in – aan de kant te gaan voor een ambulance?

Om ervoor te zorgen dat AI-systemen situaties beoordelen op basis van ons eigen gedrag, moeten ze berusten op een solide kader dat wij als moreel juist beschouwen.

Aanpassing aan veranderende waarden

We moeten niet alleen kijken naar de morele afwegingen, maar ook onderzoeken hoe we ervoor kunnen zorgen dat een AI-systeem het juiste gedrag vertoont. Dit betekent dat de betreffende waarden al in een vroeg stadium van het ontwerp- en ontwikkelingsproces moeten worden meegenomen.

Verder is het nodig om te erkennen dat menselijke waarden verschillen per land en cultuur én dat ze in de loop van de tijd veranderen. Wil een AI-systeem ‘voor zichzelf kunnen denken’ op een manier die niet alleen beantwoordt aan de normen en waarden van nu maar ook aan die van de toekomst, dan moet het systeem zich kunnen aanpassen aan onze steeds veranderende waarden.

Maar dan is de volgende logische vraag: welke garantie hebben we dat een systeem zich ook aan deze veranderende waarden houdt? Tot op bepaalde hoogte kan de verkeersveiligheid van autonoom rijden worden gewaarborgd binnen een duidelijk omlijnd kader, bijvoorbeeld door de maximumsnelheid van het systeem te baseren op de lokale regelgeving.

Maar dit is niet voldoende, want er zijn ontelbare andere (veel complexere) omstandigheden die vereisen dat het AI-systeem in ons menselijk belang handelt. Eén oplossing is daarom om een moreel model in de auto te integreren, waarbij de waarden worden gespecificeerd in een format dat door de auto kan worden geïnterpreteerd, zodat het systeem in elke denkbare situatie het moreel juiste gedrag kan berekenen.

De sleutel is betekenisvolle menselijke controle

Bij het ontwikkelen van AI-systemen moet het doel altijd zijn dat gegarandeerd kan worden dat deze systemen het juiste gedrag vertonen. Alleen als dit zo is, kunnen we er volledig op vertrouwen dat het systeem namens ons belangrijke beslissingen kan nemen.

Essentieel hiervoor is dat we betekenisvolle menselijke controle behouden over AI-systemen. Dit betekent dat we bepaald gedrag kunnen corrigeren om ervoor te zorgen dat het systeem wordt aangepast aan ons eigen morele kompas. Het AI-systeem moet zijn acties en adviezen aan ons kunnen rechtvaardigen op basis van de waarden die deel uitmaken van ons morele kompas.

Het Early Research Programme (ERP) van TNO op het gebied van MMAIS (Moral Models for AI Safety) heeft als doel om algemeen aanvaarde methoden te ontwikkelen waar stakeholders in elk domein gebruik van kunnen maken bij het toepassen van AI in hun eigen systemen en processen. De methoden die in het kader van MMAIS worden ontwikkeld, zijn gebaseerd op de volgende vier pijlers:

  1. Waarde-identificatie: inzicht in wat mensen belangrijk, waardevol en ethisch verantwoord vinden;
  2. Specificatie van waarden: deze percepties en afwegingen vertalen in specifiek gedrag;
  3. Implementatie van waarden: zorgen dat wat door mensen als moreel juist gedrag wordt ervaren, wordt geïmplementeerd in het AI-systeem;
  4. Value alignment: het gedrag van het AI-systeem voortdurend evalueren en het gedrag aanpassen aan de morele norm van dat moment.

Het ontwikkelen van morele modellen voor AI-systemen is een continu proces waarbij wordt onderkend dat onze waarden in de loop der tijd veranderen en dat ze verschillen per cultuur en context.

Binnen het MMAIS-project ontwikkelen we methoden ter ondersteuning van de ontwikkeling van morele modellen voor AI-systemen die ervoor moeten zorgen dat moreel juist AI-gedrag in een specifieke context wordt bereikt en toegepast.

Laat je verder inspireren

12 resultaten, getoond 1 t/m 5

Nieuw consortium ontwikkelt geavanceerde AI voor bewakingsrobots

Informatietype:
Nieuws
4 september 2024
TU Delft, Universiteit van Amsterdam, TNO en de Koninklijke Marechaussee bundelen hun krachten in een baanbrekend project om kunstmatige intelligentie (AI) te ontwikkelen voor bewakingsrobots.

Steeds meer kunstmatige intelligentie ingezet door overheid

Informatietype:
Nieuws
25 juni 2024

Onderzoek TNO en Kieskompas: AI-taalmodellen zijn inconsistent en neigen naar links

Informatietype:
Nieuws
22 november 2023

Impuls voor TNO faciliteiten voor duurzame mobiliteit, biobased bouwen en AI

Informatietype:
Nieuws
2 november 2023

Nederland start bouw GPT-NL als eigen AI-taalmodel

Informatietype:
Nieuws
2 november 2023