AppleMark
Om niet verder achter te raken op landen als Frankrijk, de VS en China, moet er nader onderzoek komen naar de implementatie van Artificial Intelligence (AI) in de Nederlandse zorg. Dat bepleit e-health expertisecentrum NictiZ in een verkennende rapportage over het onderwerp.
NictiZ noemt de toepassing van AI in de zorg een veelbelovende ontwikkeling, maar constateert tevens dat er grote vraagstukken moeten worden opgelost om AI veilig en verantwoord op grote schaal in de zorg te kunnen toepassen.
Registratie
De opstellers van het rapport ‘Artificial Intelligence in de zorg’ denken daarbij onder meer aan de kwestie van standaardisatie; om de bruikbare uitkomsten met AI te genereren, moeten gestandaardiseerde data gebruikt worden, zoals SNOMED-codes voor fotomateriaal, EPD’s op basis van zorginformatiebouwstenen en eenduidige patiëntvragenlijsten. Vooralsnog schieten de kwantiteit en de kwaliteit van medische data tekort, aldus de NictiZ-onderzoekers. Idealiter wordt er méér en efficiënter gestandaardiseerde data verzameld. Eenmalige registratie en meervoudig gebruik door registratie aan de bron kan hierbij helpen, maar zover is de Nederlandse zorg nog niet.
Lagere registratielast
Toch worden er op bescheiden schaal al vormen van AI toegepast in de Nederlandse zorg. Als voorbeeld noemt NictiZ de intrede van Natural Language Processing (NLP) in spreekkamer. Het doel van NLP is om computers de werkelijke betekenis van menselijke taal te laten verwerken of ‘begrijpen’. In het LUMC zet de computer gesprekken tussen arts en patiënt om in een tekstuele dialoog, waaruit de computer met NLP specifieke klinische gegevens kan extraheren. Het voordeel van deze methodiek is dat ze geen extra registratielast voor de arts meebrengt en meer aandacht voor de patiënt mogelijk maakt.
Transparantie
Met het opruimen van de technische hindernissen rond dataverzameling is de zorg er nog niet. Hoewel AI in principe bij uitstek geschikt is om subjectieve uitkomsten of vooroordelen op te sporen, kunnen er ook verborgen aannames en veronderstellingen de systemen insluipen. De vraag is dan ook hoe transparant en objectief de achterliggende systemen zijn. Wie controleert de oopzet van de systemen en de uitkomsten? Hoe is een computer tot een diagnose- of behandeladvies gekomen? “Transparantie van de systemen is hierbij belangrijk, maar dit is moeilijk te bewerkstelligen”, aldus NictiZ.
Ethische vragen
Daarnaast zijn er ook ethische vragen rond de toepassing van AI: wie is er eindverantwoordelijk voor een besluit wanneer een algoritme het niet bij het juiste eind heeft? Mag een arts het behandeladvies van een computer geheel of gedeeltelijk negeren? Hoe kan worden voorkomen dat een ICT-leverancier een monopolie verwerft op het ontwikkelen van algoritmes en daarmee een afhankelijkheidspositie voor de zorgverlener creëert?
Vraagstukken als deze zijn ingewikkeld en tijdrovend, maar de Nederlandse zorg mag en kan ze om deze reden niet links laten liggen, vindt NictiZ. “AI is een nationaal vraagstuk en relevant voor alle domeinen binnen de zorg […] Hoe zorgt Nederland ervoor niet nog verder achterop te raken ten opzichte van andere landen zoals Frankrijk, de VS en China?” Het antwoord hierop begint volgens NictiZ bij nader onderzoek naar hoe de implementatie van AI in de zorg in Nederland in juiste banen kan worden geleid.