Is de verzekeringsgeneeskunde klaar voor AI?
Plaats een reactieMinister van Volksgezondheid, Welzijn en Sport, Fleur Agema, sprak tijdens het ‘Ontbijt met de minister’ over generatieve AI als oplossing voor het personeelstekort in de zorg. Ze benadrukte het potentieel van deze technologie om repetitieve taken te automatiseren.[1] Hoewel haar enthousiasme niet breed gedeeld werd – er waren zorgen over datastructuren en de dominantie van buitenlandse bedrijven – past haar voornemen in een bredere overheidsvisie op de implementatie van AI.[2]
Ook in de verzekeringsgeneeskunde worden de mogelijkheden van AI verkend.3 Met het oog op deze ontwikkelingen pleit de Nederlandse Vereniging voor Verzekeringsgeneeskunde (NVVG) voor gedegen wetenschappelijk onderzoek of AI daadwerkelijk tijdwinst en een hogere efficiëntie oplevert.
Vooralsnog is weinig onderzoek gedaan naar het gebruik van AI in de sociale geneeskunde, met uitzondering van een onderzoek naar het gebruik van voorspellende AI in de bedrijfsgeneeskunde.4 Voorspellende AI kan op basis van gestructureerde data voorspellingen doen over de toekomst. Bij medische beoordelingen zou voorspellende AI bijvoorbeeld de duur van beperkingen kunnen extrapoleren of de effectiviteit van interventies kunnen inschatten.
De toepassing waar minister Agema naar verwijst is generatieve AI, ook wel bekend van ChatGPT. Generatieve AI maakt nieuwe content op basis van bestaande, ongestructureerde data. Een voorbeeld hiervan zijn Large Language Models (LLM’s), die spraak en tekst kunnen omzetten of automatisch samenvattingen kunnen genereren. Een risico van generatieve AI is het optreden van zogenaamde hallucinaties, wat inhoudt dat AI op basis van kansberekening en waarschijnlijkheid informatie verzint die niet bestaat.5
AI mag nooit de volledige besluitvorming overnemen van de verzekeringsarts
Ethische overwegingen
Verzekeringsgeneeskundige oordelen moeten altijd gebaseerd blijven op professionele afwegingen. AI kan hierbij mogelijk een ondersteunende rol spelen, maar mag nooit de volledige besluitvorming overnemen van de verzekeringsarts.
Het implementeren van AI in verzekeringsgeneeskunde vereist transparantie en navolgbaarheid, zodat artsen begrijpen hoe de technologie werkt en welke consequenties eraan verbonden zijn. Een hulpmiddel hiervoor kan de AI Implementation Assessment (AIIA) zijn (of een vergelijkbare methode). Hierbij wordt nagegaan of AI-toepassing betrouwbaar is in hoe het werkt, veilig is op het gebied van privacy en gegevensbescherming en voldoende transparant zodat de werking en gevolgen uitlegbaar zijn.6 Bekende AI zoals ChatGPT voldoen niet aan deze vereisten. Een AI toepassing zal in de praktijk waarschijnlijk voor een specifiek doel ontwikkeld moeten worden om aan deze minimale vereisten te voldoen.
Daarnaast vergt het gebruik van AI water en energie.7 De beoogde voordelen van AI moeten afgewogen worden tegen de milieubelasting die het gebruik van een specifieke AI-toepassing veroorzaakt.
Een belangrijke ethische vraag is vervolgens in welke situaties AI verantwoord gebruikt kan worden door de verzekeringsarts. Ook bij het gebruik van AI geldt dat artsen geen schade mogen doen, het beroepsgeheim moet gewaarborgd zijn en het gebruik van AI mag geen onjuiste beoordelingen of ongelijke behandeling bevorderen.
Deze ethische afweging is afhankelijk van het type AI -toepassing, het doel, maar ook van de vaardigheid van de gebruiker van AI. De NVVG acht het noodzakelijk dat ook hiernaar gedegen onderzoek wordt gedaan.
Voorbeelden van toepassingen van AI
Generatieve AI zou voor de verzekeringsarts nuttig kunnen zijn bij het samenvatten van de anamnese of het schrijven van een beschouwing. Hierbij bestaat een risico op hallucinaties, waardoor onjuiste informatie kan worden opgenomen in het dossier en uiteindelijk meegewogen kan worden in het verzekeringsgeneeskundig oordeel. Het vermogen van de verzekeringsarts om de gegenereerde informatie te verifiëren, speelt een cruciale rol bij het controleren van de uitkomsten van AI. Verzekeringsartsen moeten zich daarnaast ook bewust zijn van mogelijke automatiseringsbias: de neiging om te veel te vertrouwen op de uitkomst van AI.8
Het is vrijwel onmogelijk om onbedoelde bevooroordeeldheid uit te sluiten
Bij het gebruik van AI in de besluitvorming vinden wij dat er in de meeste gevallen nog een onacceptabel groot risico is op ongelijke behandeling of discriminatie. Dit komt omdat AI wordt getraind op basis van bestaande datasets. Ook als deze data zelf geselecteerd worden bij het trainen van de AI (datacuratie), is het vrijwel onmogelijk om onbedoelde bevooroordeeldheid uit te sluiten.9 10
Dit risico geldt ook voor voorspellende AI. Voorspellende AI zou ook ingezet kunnen worden om een voorspelling te doen over de toekomst, bijvoorbeeld de kans op herstel of de duur van arbeidsongeschiktheid. Vanwege de gevolgen die deze uitkomsten zouden kunnen hebben voor het verzekeringsgeneeskundig oordeel, vinden wij dat de toepassing van AI bij voorspellende AI alleen geïmplementeerd mag worden als deze aantoonbaar proportioneel is. Dat wil zeggen dat de effectiviteit van de toepassing voldoende (wetenschappelijk) bewezen moet zijn.
Klaar voor AI?
Concluderend ziet de NVVG net als minister Agema het nut om de mogelijkheden voor AI te verkennen, maar pleit voor gedegen wetenschappelijk onderzoek naar de effectiviteit en ethische overwegingen bij het gebruik van AI in de verzekeringsgeneeskunde.
Kiki Bok is verzekeringsarts bij Argonaut Advies en bestuurslid bij de NVVG. Dit artikel is tot stand gekomen in samenwerking met de NVVG-commissie Ethiek.
voetnoten
1. Minister Agema: ‘Kom maar met ideeën’. Medisch Contact, 2024, 39, 18 september.
2. Rijksoverheid. "Overheidsbrede visie generatieve AI." Januari 2024.
3. Roos, R. verzekeringsarts UWV " Vandaag ben ik bij IBM op bezoek om samen te kijken hoe we de dienstverlening van UWV en met name die van verzekeringsartsen met behulp van AI makkelijker en fijner kunnen maken!" Geraadpleegd op LinkedIn, oktober 2024.
4. Van Hoffen, M.F.A., Norder, G., Twisk, J.W.R., Roelen, C.A.M. "Development of Prediction Models for Sickness Absence Due to Mental Disorders in the General Working Population." Journal of Occupational Rehabilitation, 2020 Sep;30(3):308-317. doi: 10.1007/s10926-019-09852-3.
5. Rathenau Instituut. "Generatieve AI." 2023.
6. ECP Platform voor de Informatiesamenleving. Artificial Intelligence Implemtation Assessment. 2018
7. "Hoeveel water en energie gebruikt uw favoriete chatbot?" Volkskrant, 22 januari 2024.
8. Cascella LM. “Artificial Intelligence Risks: Automation Bias”. MedPro Group; 2020.
9. Ray, P.P. "ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope." Internet of Things and Cyber-Physical Systems, 2023, Volume 3.
10. Rathenau Instituut. "Generatieve AI." 2023.
- Er zijn nog geen reacties