Balans tussen scepsis en blind vertrouwen: kritisch denken als sleutel tot verantwoorde én effectieve inzet van GenAI

Thema:
Artificiële intelligentie
14 januari 2026

Welke generatieve AI-tool (GenAI) zet je in voor je medewerkers? Waar geef je deze toegang toe? Welke regels hanteren we bij het gebruik van GenAI? Deze vragen houden menig organisatie momenteel bezig. Maar er is nog een cruciaal element dat aandacht verdient: in hoeverre houd je gebruikers gemotiveerd om kritisch te blijven denken tijdens het gebruik? TNO ontwikkelt samen met grote organisaties een 'critical thinking toolbox' met praktische hulpmiddelen om dit te onderzoeken en verbeteren.

Foute informatie, zeer overtuigend gebracht

Kritisch denken bij GenAI gaat over het vermogen om AI-output te beoordelen en te weten wanneer je de machine moet vertrouwen.
“Mensen kunnen van nature prima kritisch denken”, zegt Jasper van der Waa, senior onderzoeker bij TNO's afdeling Human Machine Teaming. “Maar GenAI-systemen klinken heel overtuigend, zelfs als ze fouten maken.”

Zijn collega onderzoeker bij Human Machine Teaming, Liv Ziegfeld, vult aan: “Je begint eerder aan jezelf te twijfelen dan aan het model. Dat maakt het zo lastig.” Het is een van de valkuilen waar medewerkers die GenAI gaan gebruiken op voorbereid moeten zijn.

De paradox van slimme tools

GenAI-tools zoals ChatGPT zijn in korte tijd gemeengoed geworden, vaak zonder training of richtlijnen. Dit creëert een spanningsveld tussen overtrokken vertrouwen (“AI zegt het, dus het zal wel kloppen”) en onterecht wantrouwen waarbij de potentie onbenut blijft.

Kritisch denken betekent niet perse een rem op AI-gebruik benadrukken de onderzoekers. “Integendeel, ondersteuningsfuncties binnen GenAI-tools kunnen juist het kritisch denken bij gebruikers stimuleren en ondersteunen”, zegt Jasper. Denk aan een chat-app bij een huisartsenpost: “Zo'n tool kan bijvoorbeeld een stoplicht in de interface hebben, die met groen of rood licht laat zien of de LLM bepaalde uitspraken kan verifiëren met bronnen of niet”, zegt Jasper. “Dat kan iemand net dat duwtje geven om er even goed naar te kijken.”

Waarom slimmere GenAI juist om nog kritischer denken vraagt

GenAI-tools worden toch steeds beter, lost dat deze problemen niet vanzelf op? Jasper krijgt deze vraag vaak van AI-enthousiastelingen. Zijn antwoord: “Sommige problemen zijn inherent aan hoe deze modellen werken. Het is naïef te denken dat ze vanzelf opgelost worden.”

Een van die diepgewortelde eigenschappen in taalmodellen is dat ze gebouwd zijn om gebruikers te 'pleasen'. Ze klinken overtuigend en behulpzaam, ongeacht of hun antwoord correct is. Naarmate ze beter worden, zijn fouten juist moeilijker te herkennen.

Meten is weten: hoe kritisch zijn je medewerkers?

Voordat organisaties aan de slag gaan met oplossingen, is het cruciaal om eerst te weten waar ze staan. “Als je een toepassing voor ogen hebt of al een pilot draaiend hebt, begint met de vraag: zijn de werknemers al kritisch genoeg?”, legt Jasper uit. “En als ze dat niet zijn, waar ligt dan precies het probleem?”

TNO ontwikkelt hiervoor gerichte meetinstrumenten. “We kunnen bijvoorbeeld een vragenlijst uitsturen of een simpele AB-test doen”, zegt Jasper. “Zo krijg je inzicht in hoe goed je medewerkers scoren op kritisch denken. Dat is de basis waarbij je dan kan gaan nadenken over functionaliteiten om dat kritisch denken te ondersteunen.”

Verantwoorde AI die werkt

TNO bouwt aan verantwoorde AI die werkt: systemen die niet alleen effectief maar ook ethisch zijn. Verantwoorde AI versterkt de mens, vergroot maatschappelijke impact en houdt de controle bij de gebruiker. Europese waarden als privacy en veiligheid maken AI juist bruikbaarder en betrouwbaarder, en zorgen voor brede acceptatie in de samenleving.

Samen werken aan oplossingen voor de belangrijkste valkuilen

Samen met organisaties willen we graag werken aan een 'critical thinking toolbox' om met de belangrijkste valkuilen bij GenAI-gebruik om te gaan. Deze toolbox moet niet alleen technische oplossingen bevatten, maar bijvoorbeeld ook een 'best practices' lijst. Hierop staan dan richtlijnen voor cruciale beslissingen, zoals welke taken je beter wel en niet aan GenAI moet uitbesteden.

“Het probleem is dat taalmodellen heel overtuigend overkomen, zelfs als ze hallucineren”, legt Jasper uit. “ChatGPT kan bijvoorbeeld bronnen verzinnen die echt lijken.” Visuele hulpmiddelen in een specifieke tool zouden hierbij kunnen helpen. Maar de verantwoordelijkheid blijft bij de gebruiker om kritisch te blijven. Dit soort hulpmiddelen kunnen gebruikers juist helpen om zelf een output te checken.

“Veel modellen komen uit de Amerikaanse Big Tech industrie”, zegt Jasper. “Die bias, politiek of etnisch, sluipt in de communicatie.” Maar LLM's versterken ook onze eigen vooroordelen. Medische vraagstukken vormen hier weer een mooi voorbeeld van de risico's. “Bij een medische vraag aan een LLM, zoek je vaak naar bevestiging voor een zelfdiagnose”, zegt Liv. “GenAI gaat daar dan gewoon in mee.”

Ook hier ligt de oplossing zowel in de tool zelf als bij de gebruikers. Een LLM die je tegenspreekt zou al een stap voorwaarts zijn, zegt Liv: “De LLM kan zeggen: Hé, ik merk dat je een bepaalde kant op denkt. Zullen we de vraag algemener stellen? Dan gaat het in beide richtingen.”

In de kwaliteit van een prompt schuilen meer valkuilen, ziet Liv: “Mensen hebben vaak niet heel scherp waarvoor ze naar een LLM gaan. Ze zeggen: Ik heb een onderwerp of taak, ik vraag het wel even aan ChatGPT. En dan sturen ze een half afgemaakte prompt”, zegt ze. “Het antwoord wat hier dan op komt wordt dan als het juiste antwoord gezien. Terwijl er misschien echt tientallen andere opties zijn die ook nog relevant kunnen zijn.”

Dit probleem wordt versterkt onder tijdsdruk. Neem bijvoorbeeld een helpdesk-situatie waar medewerkers snel antwoorden moeten geven. Hier zou een specifieke toolbox dit deels moeten ondervangen met duidelijke richtlijnen over wanneer en hoe GenAI in te zetten, vooral in tijdkritische situaties.

Een cruciaal onderdeel van de best practices is het bepalen welke taken je überhaupt aan GenAI geeft. “We adviseren organisaties over welke taken je eigenlijk aan een LLM moet geven en welke horen echt bij de primaire taak van een medewerker”, legt Liv uit. “Die wil je niet uit handen geven, want dan verliezen werknemers hun essentiële vaardigheden.”

“Stel je voor”, zegt Jasper. “Dat rapport wat je vroeger schreef laat je nu deels samenstellen door een LLM. Maar morgen vraagt je manager om hier een presentatie over te geven. Daar sta je dan.” Naarmate de GenAI-systemen geavanceerder worden, laten we er meer door doen. Recente onderzoeken laten zien dat mensen bij AI-gebruik het proces ook niet meer internaliseren, waardoor ze er minder van onthouden.

Organisaties moeten dus zoeken naar manieren om actieve betrokkenheid te waarborgen. Ook hier kunnen ondersteuningsfuncties binnen de GenAI-tools een rol spelen. Bijvoorbeeld door gebruikers te dwingen kernpunten samen te vatten of beslissingen te onderbouwen, zodat begrip behouden blijft.

Praktische stappen om mee te beginnen

Organisaties die zich een weg proberen te banen langs deze valkuilen kunnen beginnen met een aantal essentiële stappen om kritisch denken bij GenAI-gebruik te versterken:

  1. Start met bewustwording
    Herken de valkuilen in je organisatie. Identificeer high-risk toepassingen zoals medische diagnoses, juridisch advies of financiële beslissingen.
  2. Breng het kritisch vermogen in kaart
    Meet wanneer en met welke tools medewerkers te veel vertrouwen op GenAI en wanneer ze juist te wantrouwend zijn. Welke specifieke risico's spelen in jullie context? TNO ontwikkelt hiervoor vragenlijsten en testmethoden.
  3. Bepaal je GenAI-taken strategie
    Maak bewuste keuzes over welke taken je wel en niet uitbesteedt aan GenAI. Behoud essentiële menselijke vaardigheden en voorkom competentieverlies waar je het je niet kan veroorloven.
  4. Implementeer gerichte oplossingen
    Van visuele waarschuwingen tot GenAI die tegenspreekt: kies instrumenten die passen bij je werkprocessen en organisatiecultuur. Besteed extra aandacht aan situaties met tijdsdruk. TNO ontwikkelt hier prototypes voor.
  5. Creëer feedback-loops
    Zorg voor continue evaluatie van GenAI-gebruik. Leer van fouten zonder medewerkers te beschuldigen. Deel successen en mislukkingen om gezamenlijk te groeien.

AI-agents: waarom kritisch denken nog belangrijker wordt

Het belang van kritisch denken en verantwoord gebruik wordt alleen maar groter naarmate tools geavanceerder worden. AI-agents krijgen toegang tot e-mail, agenda's en projecttools. “Je kan 's ochtends taken aan je AI-agent geven die autonoom worden uitgevoerd”, schetst Jasper de nabije toekomst. “Het resultaat wacht op je in de middag, maar als je niet weet wat die gedaan heeft, hoe leg je dan verantwoording af?”

Deze ontwikkeling maakt kritisch denkvermogen niet overbodig maar juist onmisbaar. Hoe autonomer de GenAI, hoe belangrijker het wordt dat mensen kunnen beoordelen wat er gebeurt en wanneer ze moeten ingrijpen. Daarnaast zorgt een gezonde kritische houding er ook voor dat je GenAI effectiever inzet.

Kritisch denken als innovatieversneller

“AI-enthousiastelingen denken vaak dat we alleen problemen zien”, erkent Jasper. “Maar juist door kritisch denken te ondersteunen, haal je meer uit GenAI. Je combineert menselijke kracht met AI-kracht.”

Liv vult dit aan: “We zeggen niet dat je technologie aan de kant moet leggen. Het is een aanvulling om risico's op te vangen.”

TNO zoekt partners om de 'critical thinking toolbox' verder te ontwikkelen. “Het ideale scenario”, beschrijft Jasper. “Is een organisatie die zegt: wij willen GenAI toepassen op een bepaalde casus, voor een groep mensen, met specifieke doeleinden. Dan kijken we samen hoe kritisch de werknemers zijn en waar ondersteuning nodig is. Ons doel is de toepassing zo te ontwikkelen dat het natuurlijk kritisch denken van gebruikers gestimuleerd en ondersteunt wordt.”

Neem contact op met TNO om te verkennen hoe kritisch denken de sleutel kan zijn tot succesvolle GenAI-implementatie in uw organisatie.

Samen bouwen aan verantwoorde GenAI-implementatie

TNO ontwikkelt uitgebreide hulpmiddelen die organisaties helpen om GenAI verantwoord te implementeren op alle fronten. We zoeken partners om samen praktische instrumenten te ontwikkelen voor:

  • Kritisch denken bij gebruikers - meetinstrumenten en ondersteuningsfuncties voor medewerkers
  • Governance-structuren - kaders voor verantwoord GenAI-beleid in organisaties
  • Evaluatie van GenAI-systeemprestaties - technische toetsing en kwaliteitsbewaking

Samen zorgen we ervoor dat generatieve AI een kracht voor positieve transformatie wordt in jouw organisatie.

Maak kennis met de expert

  • Jasper van der Waa

    Senior Onderzoeker Human Machine Teaming

  • Liv Ziegfeld

    Onderzoeker Human Machine Teaming

Laat je verder inspireren

68 resultaten, getoond 1 t/m 5

Van reactief naar proactief: Hoe organisaties grip krijgen op GenAI-governance

Informatietype:
Insight
16 december 2025
TNO biedt praktische stappen waarmee organisaties van reactief problemen oplossen naar proactieve beheersing van GenAI-governance kunnen gaan.

Sterke stijging gebruik generatieve AI door overheid

Informatietype:
Nieuws
3 december 2025

Hoe TNO de weg wijst naar soevereine, verantwoorde Nederlandse AI

Informatietype:
Insight
23 oktober 2025

TNO’s visie op verantwoorde AI die werkt

Informatietype:
Artikel

Nederland krijgt AI-fabriek, Europese financiering toegekend

Informatietype:
Nieuws
10 oktober 2025