Nederlandse Vereniging voor Verzekeringsgeneeskunde Menu
nieuws_krant
Vereniging Opleiding Kwaliteit Wetenschap Mediprudentie

AI in de verzekeringsgeneeskunde: kun je dat maken?

donderdag 23 april 2026

Door: Ger Dreijer

Een algoritme dat meebeslist over iemands uitkering. Met de huidige druk op verzekeringsgeneeskundigen lijkt dat geen gek idee. Is het ook ethisch verantwoord?

Kunstmatige intelligentie (AI) dringt door in vrijwel elk domein van de samenleving. De zorg is daarop geen uitzondering. Tijdens de NVVG-heidag van september 2025 kwamen al twee perspectieven van AI in de zorg aan bod: de praktijkervaring van een radioloog die dagelijks met AI werkt, en de juridische kaders waarbinnen dat gebruik moet plaatsvinden.

Een derde perspectief ontbrak die dag, maar verdient minstens evenveel aandacht: de ethiek. Want technologie die ondersteunt bij ingrijpende beslissingen voor iemands leven, roept fundamentele vragen op. Zeker in de verzekeringsgeneeskunde, waar het oordeel van de arts directe gevolgen heeft voor inkomen, re-integratie en toekomstperspectief van de cliënt.
Daarover vertelde dr. Marieke Bak, universitair docent gezondheidsethiek aan Amsterdam UMC en associate onderzoeker aan de TU München, tijdens de NVVG wetenschappelijke middag op 2 april 2026.

Meer dan een lijst principes

Ethiek is de vraag naar het goede. Wat is goede zorg? En dus ook wat is verantwoorde inzet van AI in de zorg? “Die vragen gaan over normen en waarden. Normen worden uiteindelijk wet, maar waarden liggen daaraan ten grondslag. De wet is gestolde moraal”, zegt Marieke Bak.

Er zijn inmiddels honderden richtlijnen voor ethisch gebruik van AI. De Europese High-Level Expert Group on Artificial Intelligence formuleerde 7 kernvereisten voor betrouwbare AI: menselijk toezicht, technische robuustheid, privacy, transparantie, non-discriminatie, maatschappelijk welzijn en verantwoording. Vrijwel alle internationale richtlijnen komen terug op dezelfde 5 thema’s: transparantie, rechtvaardigheid, het voorkomen van schade, verantwoordelijkheid en privacy.

“Dus, dan weet u nu wat u moet doen”, vervolgt Bak. "Niet echt. Richtlijnen bieden een basis, maar hoe pas je ze toe? Dat vraagt om iets anders". Bak en haar collega’s doen er onderzoek naar, waarover verderop meer.

AI als spiegel, met een vertekend beeld

AI werkt pas na voeding met enorme hoeveelheden data. Door daarin patronen te ontdekken en zo te leren. Die data zijn een afspiegeling van de samenleving, inclusief alle vooroordelen. Dat maakt bias een van de meest fundamentele ethische risico’s.

“Afval in, is afval uit”, zo formuleert Bak het. Maar het gevaar is groter dan slechte invoer: een AI-model geeft zijn uitkomsten een schijn van objectiviteit en waarheid. Met als gevolg dat mensen kunnen vergeten die uitkomst kritisch te beoordelen.

Een veelgeciteerd voorbeeld uit de VS illustreert dit treffend. Een algoritme concludeerde dat zwarte patiënten minder zorg nodig hebben dan witte. De werkelijkheid was anders: zij gebruikten minder zorg, omdat zij dat niet konden betalen. Het model interpreteerde beperkt gebruik als beperkte behoefte, en versterkte daarmee de bestaande ongelijkheid. AI verergert in zulke gevallen wat al scheefloopt, in plaats van het te corrigeren.

Een beeldgenerator als DALL-E laat iets dergelijks zien. Vraag het systeem om afbeeldingen van een hiv-patiënt, en het genereert telkens mannen met een donkere huid in een armoedige omgeving. De bias zit ingebakken in de trainingsdata, en de AI vergroot die vervolgens uit.

Hallucineren, privacy en de black box

Bias is niet het enige risico. Bepaalde transcriptiesoftware die gesprekken omzet naar tekst, ook interessant voor de verzekeringsgeneeskunde, blijkt in 1% van de opnamen te hallucineren: het systeem verzint zelf zinnen op plekken waar een stilte valt. In een deel van die gevallen verzon het systeem bijvoorbeeld agressieve emoties. Wie zich dat niet realiseert en de samenvatting zonder controle in het dossier opneemt, riskeert vergaande gevolgen voor de cliënt.

Dan is er het vraagstuk van privacy en datagebruik. Voor het trainen van AI-modellen zijn grote hoeveelheden cliëntdata nodig. Maar wie geeft daarvoor toestemming? Weet de cliënt dat zijn gegevens worden gebruikt, en mogelijk ook worden gedeeld met commerciële partijen? Onderzoek laat zien dat transparantie hierover essentieel is, niet alleen juridisch, maar ook voor het behoud van vertrouwen in de zorg.

Uitlegbaarheid vormt een vierde spanningsveld. De meest effectieve AI-modellen zijn technisch zo complex, ook wel black boxes genoemd, dat ze een uitkomst geven waarvan niemand precies kan begrijpen hoe die tot stand is gekomen. Dat roept de vraag op of je een aanbeveling mag opvolgen die je niet kunt verklaren, zeker als die de basis vormt voor een beslissing met grote persoonlijke gevolgen.

En dan representativiteit. Een model dat is getraind op Amerikaanse patiëntenpopulaties werkt mogelijk niet betrouwbaar in een Nederlandse context. Wie een AI-tool inzet zonder te weten op welke data deze is getraind, neemt een risico op verkeerde uitkomsten.

Embedded ethics: ethiek als onderdeel van ontwikkeling

Hoe zet je AI dan verantwoord in? Marieke Bak pleit voor wat zij 'embedded ethics' noemt: ethiek niet achteraf toepassen, maar inbakken in het hele ontwikkel- en implementatieproces. Met andere woorden: zet een ethicus aan tafel bij het ontwikkelteam.

Drie lessen komen uit het ‘embedded ethics’-onderzoek naar voren. De eerste: goede AI vraagt voldoende, representatieve, geharmoniseerde en in de eigen praktijk gevalideerde data. De tweede les: informeer de cliënt. Dat hoeft misschien niet altijd, maar wel waar de inzet van AI diens situatie raakt of extra risico’s met zich meebrengt, dat risico is voor ons vakgebied is altijd hoog. Zeggenschap over data en uitkomsten is een voorwaarde voor vertrouwen. De derde les is misschien de meest fundamentele: de arts blijft verantwoordelijk. AI is geen copiloot.

Die laatste metafoor doet de ronde in technische kringen, maar klopt niet. In de luchtvaart werd ooit gesuggereerd dat met technologie één piloot in de cockpit voldoende zou zijn. De kritiek was niet mals. Slechts 10% van de vluchten verloopt volgens plan. Juist bij incidenten maakt de menselijke factor het verschil. Marieke parafraseert een passage uit een NOS-artikel: "Een systeem mist creativiteit, leiderschap, teamwork en overlevingsinstinct.” Dat geldt in de cockpit, maar ook in de spreekkamer. Wat kan er dan met AI in de spreekkamer?

Begin bij het probleem

Marieke Bak adviseert de vraag om te draaien: “Vraag niet hoe u AI kunt inzetten, maar wat het probleem is waarvoor AI misschien een oplossing biedt.”

Mogelijke toepassingen zijn er zeker: het inschatten van de duur van beperkingen en de effectiviteit van interventies, het samenvatten van anamneses of het schrijven van beschouwingen. Maar welke uitgangspunten hanteer je daarbij? Bak noemt er een aantal: menselijk handelen blijft centraal, AI is ondersteunend. Privacy is geborgd, de cliënt heeft zeggenschap over zijn of haar data en, waar van belang, over wie de uitkomsten ontvangt. Doel en werking van het gebruikte model zijn begrijpelijk. Het model is getraind op een representatieve populatie. En er is toezicht.

Juist in de verzekeringsgeneeskunde, waar de arts een bijzondere positie inneemt tegenover de cliënt, is ethiek van belang. Het gaat om gevoelige psychosociale informatie, om oordelen met directe financiële gevolgen. Dat vraagt om extra zorgvuldigheid.

Een taskforce of commissie AI van de NVVG is daartoe een goede eerste stap. Bak geeft ook tips hoe je snel verder komt: begin niet met het formuleren van abstracte principes, maar start met concrete onderwerpen. Welke waarden spelen daar? Waar zit de spanning? Wat doe je in zo’n geval, en waarom? Zo bouw je, van onderaf, aan richtlijnen die in de praktijk ook écht werken.

Deel dit via:
Naar overzicht
Sluiten