De inzet van kunstmatige intelligentie biedt kansen in de behandelkamer. Maar digitale beslisondersteuning kent ook problematische kanten. Hoe transparant zijn de keuzes van de computer? Waar blijft de professionele verantwoordelijkheid van artsen én de autonomie en privacy van de patiënt? Deze kwesties kunnen uiteindelijk negatief uitwerken op de kwaliteit van zorg.
Dat constateert het Centrum voor Ethiek en Gezondheid (CEG) in het signalement “Digitale dokters. Een ethische verkenning van medische expertsystemen”. Dergelijke systemen worden steeds geavanceerder en bieden veel kansen voor de zorg, stelt het CEG. Door de snelle analyse van grote hoeveelheden informatie kunnen medische expertsystemen –zoals de veelbesproken IBM-computer Watson– artsen ondersteunen bij de triage, diagnose, prognose of behandelplan.
De inzet van kunstmatige intelligentie wordt door veel artsen als onvermijdelijk gezien. Ze krijgen te maken met steeds grotere hoeveelheden informatie in de vorm van wetenschappelijke literatuur en richtlijnen. Ook worden steeds meer gegevens verzameld over individuele patiënten, zoals bloedwaardes, genetische informatie, scans of allerlei bepalingen van het (beweeg)gedrag. Expertsystemen kunnen nodig zijn om al deze informatie te verwerken en de klinische besluitvorming te verbeteren.
Health deal
Met het oog hier op sloten de ministeries van VWS en EZ twee jaar geleden met verschillende ziekenhuizen, zorgverzekeraars en kennisinstituten een zogenoemde Health Deal ter bevordering van de ontwikkeling van medische expertsystemen voor oncologie. Ondanks dergelijke initiatieven hebben medische expertsystemen de beloftes in de praktijk nog niet waargemaakt, constateert het CEG. Zo blijken systemen het niet zo goed te doen wanneer ze worden gebruikt voor andere patiëntengroepen dan waar ze voor ontwikkeld zijn.
Onterecht vertrouwen
Ook blijkt uit onderzoek dat ze een ongunstige invloed kunnen hebben op functioneren en het presteren van artsen. Artsen kunnen het raadplegen van de systemen als een inefficiënte onderbreking van hun werk beschouwen of ten onrechte vertrouwen op een foute uitkomst. Als artsen te veel vertrouwen op signalen van expertsystemen kan dit bovendien leiden tot een afname van vaardigheden, omdat taken die ze voorheen zelf uitvoerden door systemen worden overgenomen.
Illegale hulpmiddelen
Een andere praktische horde zijn de juridische spelregels rond medische hulpmiddelen. Volgens het CEG toont de praktijk aan dat het voor ontwikkelaars van software en ziekenhuizen lastig is om te bepalen wat het bedoelde gebruik van een hulpmiddel is, waardoor het lastig te bepalen is welke regels van toepassing zijn. “Het gevolg is dat er veel illegale medische hulpmiddelen op de markt zijn”, stelt het CEG. Dit roept weer vragen op over verantwoordelijkheid en aansprakelijkheid. Wie wordt er aangesproken in geval er een niet officieel toegelaten systeem wordt gebruikt of wanneer er medische fouten worden gemaakt als gevolg van onjuiste adviezen of een gebrek aan transparantie van een systeem?
Het gebruik van digitale beslisondersteuning roept daarnaast ethische vragen op. Dat begint volgens het CEG al bij de impliciete normatieve keuzes die ten grondslag liggen aan de systemen. Gebrek aan transparantie maakt het moeilijk om te beoordelen of een advies van een expertsysteem het best mogelijke is voor een individuele patiënt.
Vertekening
Geavanceerde zelflerende expertsystemen zijn daarnaast dermate complex dat onbedoelde fouten en vertekening in het systeem verborgen blijven. Dat kan risico’s voor de patiënt met zich meebrengen, waarschuwt het CEG. Als besluitvorming wordt gedelegeerd aan expertsystemen kan dit bovendien betekenen dat er meer aandacht wordt besteed aan wetenschappelijk bewijs en meetbare parameters, ten koste van individuele voorkeuren en ‘zachtere’ elementen uit de klinische context.
Autoriteit
Met de komst van expertsystemen schuift er hoe dan ook een nieuwe autoriteit aan tafel bij de patiënt en de arts. Als een expertsysteem in de zorg wordt ingezet is echter niet altijd duidelijk wat een haalbaar en nastrevenswaardig doel is; zo lang mogelijk leven, zo lang mogelijk mobiel blijven, zo min mogelijk lijden? Als expertsystemen een rol gaan spelen in de gezamenlijke besluitvorming, is inzicht in de ingebouwde normatieve aspecten van de systemen onontbeerlijk.
Onethisch
De vraag of het ethisch is om digitale beslisondersteuning in te zetten kan volgens het CEG ook worden omgedraaid. Als het gebruik van systemen aantoonbaar betere uitkomsten oplevert, dan is het misschien wel onethisch om ze niet te gebruiken. Het CEG pleit er daarom voor om nadrukkelijker na te denken over de vraag wanneer medische expertsystemen in te zetten. “Het is daarom verstandig om parallel aan de ontwikkeling van expertsystemen, (aankomende) artsen te begeleiden bij het ontwikkelen van de vaardigheden die ze nodig hebben om met dit soort systemen te werken”, aldus het CEG. “Artsen moeten bijvoorbeeld goed kunnen inschatten in welke gevallen raadpleging van een expertsysteem nuttig is, en wanneer niet. Ook zou het goed zijn als er bij de ontwikkeling vanuit wordt gegaan dat het systeem niet alleen op zichzelf goed moet presteren, maar ook in de complexe (ziekenhuis)praktijk.”