Arnon Grunberg over AI, creativiteit en moreel handelen

Thema:
Artificiële intelligentie
27 september 2022

Peter Werkhoven, Chief Scientific Officer bij TNO, gaat in gesprek met Arnon Grunberg vanuit zijn standplaats New York. In 1994 brak Grunberg door met zijn roman Blauwe Maandagen. Sindsdien is hij uitgegroeid tot één van Nederlands bekendste auteurs.

In gesprek met Arnon Grunberg

Jaren geleden spraken Peter Werkhoven en Arnon Grunberg elkaar tijdens een etentje over Artificial Intelligence (AI). Vandaag krijgen ze eindelijk de kans om dat gesprek voort te zetten. Wat is Grunbergs kijk op creativiteit? Kan dit worden geleerd aan een machine? En hoe verhoudt de mens zich moreel tot de machine?

Op welke manieren denk je dat moreel handelen van machines en software tot stand zou moeten komen? Hoe leren wij of programmeren wij als mens dat morele gedrag in intelligente machines?

‘Dat is een hele moeilijke vraag, die volgens mij leidt tot de vraag: kan je een machine leren creatief te zijn? Een voorbeeld is schaken. Voor mij is dat een creatieve sport, omdat je beslissingen neemt die nooit helemaal rationeel lijken voor een machine. Een schaakcomputer gaat alle mogelijkheden af en komt zo tot een uiterst rationele beslissing. Als je het over moraliteit hebt, zit er ook altijd een menselijke component bij.  Deze is onvoorspelbaar en impliceert de vrije wil die mensen hebben. Als we zeggen dat een machine morele beslissingen moet nemen, dan zeggen we eigenlijk dat de machine vrij moet zijn. Dat is voor mij een gebied waar je niet moet willen komen. Als je bijvoorbeeld kijkt naar een zelfrijdende auto die een afweging moet maken om een bejaarde man of een moeder met kind aan te rijden; gaan we AI dan programmeren op een manier dat het de moreel juiste beslissing kan nemen? Voor mij is zo’n situatie puur pech en mogen wij hier als mens niet interveniëren.’

‘Als we zeggen dat een machine morele beslissingen moet nemen, dan zeggen we eigenlijk dat de machine vrij moet zijn. Dat is voor mij een gebied waar je niet moet willen komen.’

Er mag dus ook geen willekeurige beslissing worden gemaakt?

‘Toeval is voor mij wél prima. Zo gebeuren ongelukken vandaag de dag ook. De bestuurder denkt en neemt een beslissing. Mijns inziens kun je dus niet zeggen dat AI beslist dat de moeder en het kind mogen blijven leven en de bejaarde man overreden mag worden omdat hij nog maar vijf jaar te leven heeft. Ik begrijp dat je dit best kan rationaliseren, maar ik denk dat zo’n beslissing consequenties heeft voor de samenleving en dat je daarbij toch een fundament van de rechtstaat ondermijnt: Namelijk dat iedereen dezelfde rechten heeft en dat die niet ineens minder worden op het moment dat je ouder wordt, of zelfs wanneer je volgens velen een ‘voltooid leven’ hebt.’

‘Ik denk dat je niet te hoge verwachtingen moet hebben van de morele vaardigheden van mensen en zolang wij mensen degenen zijn die AI programmeren, betekent dat ook altijd dat er een gevaar is dat AI misbruikt kan worden door mensen.’

Ik heb begrepen dat jij altijd een klein dobbelsteentje in je zak hebt om over hele eenvoudige beslissingen een willekeurige beslissing te nemen. Klopt dat?

‘Dat klopt en het is bijna een soort talisman geworden. Maar het is meer dan dat, want er zit ook een bewustzijn in dat je niet volledig baas bent over jezelf. Dat er altijd dingen meespelen die je niet volstrekt rationeel kunt verklaren. Mensen zijn zelden 100% rationeel handelende wezens. Het uitbesteden van bepaalde beslissingen aan een dobbelsteen, wat ik soms doe, biedt dus een uitweg uit een ‘ondraaglijke verantwoordelijkheid’. Het is echter ook erkenning dat je bent overgeleverd aan het toeval en dat je als mens minder almachtig bent dan je zou willen zijn. Overmoed wordt namelijk altijd bestraft. Ik denk dat je niet te hoge verwachtingen moet hebben van de morele vaardigheden van mensen en zolang wij mensen degenen zijn die AI programmeren, betekent dat ook altijd dat er een gevaar is dat AI misbruikt kan worden door mensen.’

Je kunt het proces van oordeelsvorming ook naar voren halen en als samenleving alle mogelijke situaties van tevoren doordenken voordat je deze aan de AI leert. Dat heeft effect op beslissingen tijdens panieksituaties. Zie je dat dan niet als morele vooruitgang?

‘Stel dat wij met z’n allen beslissen dat iemand met een strafblad of ouderen geraakt mogen worden door een zelfrijdende auto, dan creëer je in mijn ogen tweederangsburgers die zich op een andere manier door de openbare ruimte begeven, omdat ze weten dat zij bij ongelukken het onderspit delven. Toch kan ik me ook voorstellen dat men het over honderd jaar achterlijk vindt dat men vroeger bepaalde morele beslissingen zelf nam. Maar de vraag is ook: als AI door jou geprogrammeerd is, wie is dan de baas? Is AI werkelijk een zelflerend wezen dat zich kan loszingen van de manier waarop het is geprogrammeerd door mensen? Of blijft het altijd een instrument in handen van (feilbare) mensen?’

‘Als je denkt dat machines op den duur ook de specifieke menselijke handelingen zoals het componeren van een symfonie of het schrijven van een roman kunnen verrichten dan zou je ook kunnen denken dat zij onze meesters worden, zoals wij dat zijn over huisdieren en vee.’

Wat betekent het voor de mensheid als AI creatiever wordt dan wij?

‘Ik heb zelf ooit voorspeld dat over zestig, zeventig jaar een machine de Nobelprijs voor de literatuur zou winnen. Of die tijdsduur klopt weet ik niet, maar ik kan het me goed voorstellen. Het betekent wel dat wij als mensheid van onze troon zijn gestoten en dat er allerlei ideeën over creativiteit niet meer geldig blijken te zijn, wat ons zelf- en wereldbeeld zal doen kantelen en een volstrekt andere wereld zal opleveren. Vooralsnog denk ik dat machines in de buurt komen van mensen, maar omdat taal zo onlogisch, onregelmatig en dubbelzinnig is, blijft het moeilijk voor machines om dit te begrijpen, te vatten en te reproduceren. Wanneer machines wél dit niveau halen is de belangrijkste notie dat wij iets hebben gecreëerd dat ons op den duur zal dwingen tot enorme bescheidenheid. Als je denkt dat machines op den duur ook de specifieke menselijke handelingen zoals het componeren van een symfonie of het schrijven van een roman kunnen verrichten dan zou je ook kunnen denken dat zij onze meesters worden, zoals wij dat zijn over huisdieren en vee.’

AI handelt op het moment zonder enige causaliteit. Het zichzelf kunnen uitleggen waarom het iets heeft gedaan is een oplossing om ook verantwoordelijkheid te geven aan AI. Maar neem nou creativiteit: dit lijkt mij heel moeilijk uit te leggen aan AI. Hoe zie jij dat?

‘Dat ben ik helemaal met je eens. Het is voor kunstenaars ook lastig om uit te leggen waarom hij/zij bepaalde beslissingen heeft genomen, omdat ze associatief, intuïtief en irrationeel zijn. Ik vind ook niet dat je creativiteit hoeft uit te leggen, het product spreekt voor zich. Dat is natuurlijk een wezenlijk verschil bij morele beslissingen. Een straf van een rechter moet natuurlijk altijd uitgelegd worden en in de strafmaat zit ook altijd een menselijk element. AI kan dus ook alleen een redelijke rechter zijn als het ook kan zeggen dat het ook een andere beslissing had kunnen nemen. Kunnen wij ons een machine voorstellen die barmhartig is? Als we ons dat kunnen voorstellen veronderstelt dat een soort vrijheid. Als we een machine hebben geprogrammeerd om altijd barmhartig te zijn, is die barmhartigheid ook weer niets. Het gaat erom dat je soms afwijkt van de regel.’

Barmhartige machines; kun jij je dat voorstellen?

Ik denk dat we ons een barmhartige machine kunnen voorstellen als een machine zegt: ik sta nu voor zo’n onmenselijke keuze, die kan ik niet maken. Ik vernietig mezelf liever dan dat ik die keuze maak. Als een machine dit kan doen, dan kunnen we ook een machine hebben die barmhartig is. De capaciteit om te lijden is in mijn ogen noodzakelijk om tot een machine te komen die in staat is een rechter of mensen in het algemeen te vervangen als het gaat om morele beslissingen.

‘Een samenleving is gebaseerd op vertrouwen, dus op het moment dat AI een wezenlijk onderdeel wordt van de samenleving veronderstelt dat, dat er een basisvertrouwen in AI is. Ik vind dat je uit moet gaan van vertrouwen, anders moet je die macht niet geven aan die machines. Ik kan me goed voorstellen dat we af en toe een steekproef doen bij AI en zeggen: ‘leg nou maar eens uit wat je hebt gedaan. Is ons vertrouwen gerechtvaardigd?’. De vraag hier blijft natuurlijk: wil je leven in een wereld zonder toeval? Ik denk dat de wereld waarin toeval niet meer bestaat en alles een beslissing is geworden niet per definitie een betere wereld is. Een machine moet ook de mogelijkheid hebben om soms bij moeilijke keuzes het noodlot te laten beslissen. Toch denk ik dat we op een gegeven moment niet beter weten dan dat de beslissingen die, bijvoorbeeld een zelfrijdende auto neemt, voor ons acceptabel zijn omdat die ons herinneren aan de toevalligheid waarmee vroeger ongelukken gebeurden. Zeker als je ziet dat het aantal auto-ongelukken afneemt, dan hebben we snel vrede met een enkele ethische onvolkomenheid. Maar alles wat ik daarover heb gezegd qua keuze blijft staan. Ik denk dat je die toevalligheid niet moet willen uitsluiten.’

Is er een advies wat je toegepaste wetenschappers zou willen geven met betrekking tot voortschrijdende digitalisering en de rol van AI?

‘Dat is vooral de notie van het besef van de eigen menselijke tekortkomingen en dat je AI deze niet moet wil laten overwinnen. AI kan zeker bepaalde problemen oplossen, maar ik denk dat we heel voorzichtig moeten zijn als het gaat om ethische morele beslissingen. Daarbij moeten we zorgen dat we onze verantwoordelijkheden niet afschuiven op AI. Dat zou in wezen weer een stap terug zijn naar het magisch denken; dat mensen beslissingen nemen en die uitbesteden aan de goden en dat AI dan bijna de zondebok wordt. ‘AI heeft het gedaan’. Nee, wij hebben het vooralsnog gedaan.’

Download visiepaper

Download visiepaper ‘Towards Digital Life: een toekomstvisie op AI anno 2032’

Laat je verder inspireren

51 resultaten, getoond 1 t/m 5

Onderzoek TNO en Kieskompas: AI-taalmodellen zijn inconsistent en neigen naar links

Informatietype:
Nieuws
22 november 2023
Uit een experiment van TNO en Kieskompas, waarbij TNO meerdere AI-taalmodellen de stemhulp van het Kieskompas 2023 liet invullen, blijkt dat de modellen aan de linkerkant van het politieke spectrum uitkomen en wisselvallig antwoorden.

Impuls voor TNO faciliteiten voor duurzame mobiliteit, biobased bouwen en AI

Informatietype:
Nieuws
2 november 2023

Nederland start bouw GPT-NL als eigen AI-taalmodel

Informatietype:
Nieuws
2 november 2023

GPT-NL versterkt Nederlandse autonomie, kennis en technologie in AI

Informatietype:
Artikel

AI Lab van start voor effectief en verantwoord toezicht

Informatietype:
Nieuws
20 oktober 2023