Ondanks de grote verwachtingen voor AI in de gezondheidszorg die al jaren beschreven wordt, kunnen we in 2019 nog steeds bijna nergens een toepassing van deze techniek in de kliniek zien.
Wellicht was het te optimistisch te verwachten om nu al kunstmatig intelligente hulp te krijgen bij het kiezen van de beste behandeling van een patiënt, maar whatsappen met het ziekenhuis (of een chatbot) of het digitaal verzetten van je afspraak op de polikliniek is nog steeds geen realiteit.
Hoewel je bij vluchtmaatschappijen al tickets kunt boeken door tegen je telefoon te praten, je boodschappenlijstje voor volgende week al voorspeld wordt door je supermarkt en je bij het inchecken van bagage op Schiphol geen mens meer hoeft te spreken, lijkt dat voor de zorg nog niet zo vanzelfsprekend. Hoewel er veel onderzoek wordt gedaan naar klinische AI modellen, zijn die op de werkvloer zelf nauwelijks te vinden.
Recentelijk verscheen op Skipr een blog ‘Nederlandse zorgt raakt internationaal achterop met AI’. Daarbij werden voornamelijk kwaliteit en kwantiteit van data, maar ook transparantie en ethische vraagstukken benoemd als voornaamste redenen waarom Nederland internationaal niet meedoet. Het is wat mij betreft te kort door de bocht om hierbij enkel de data de schuld in de schoenen te schuiven.
De waarde van AI
Enkel meer kwalitatieve data beschikbaar te maken, zal niet direct leiden tot AI toegepast in de kliniek. Er zijn al modellen, ontwikkeld op beschikbare medische data, die tot een mooi resultaat leiden. Zoals bijvoorbeeld het model dat afgelopen zomer gepubliceerd werd in Nature Digital Medicine waarbij mortaliteit tijdens opname zeer nauwkeurig kon worden voorspeld. Op dit moment beschouwen we een model dat zeer accurate voorspellingen kan doen als goed voor de zorg, terwijl dit nog niets zegt over een potentieel betere uitkomst voor de patiënt. Alsof een perfecte Area Under Curve (AUC) score direct de toegevoegde waarde van het model in de zorg laat zien.
Als we de precisie van een model als het eindpunt beschouwen, slaan we nooit de brug naar de kliniek. Een model dat zeer nauwkeurig kan voorspellen zegt nog niets over de waarde of het nut van dat model voor de patiënt of zorgverlener. Om van goed model naar nuttige implementatie in de kliniek te komen is het noodzakelijk om een stap verder te kijken. Daarvoor moeten we het klinische vraagstuk dat ten grondslag ligt aan het project te allen tijde in ons achterhoofd houden. Om AI in de kliniek te kunnen beproeven, moeten we ons blijven beseffen welke vraag we wilden beantwoorden.
In het LUMC experimenteren wij bijvoorbeeld zelf met het toepassen van AI op de polikliniek. Het project had als doel om registratielast bij artsen te verminderen. Hiertoe wordt audioapparatuur geplaatst om mee te luisteren met het poliklinisch bezoek. Om zo automatisch een gestructureerde anamnese te genereren uit het gesprek tussen arts en patiënt. Echter, het berekenen van de juistheid van de gecreëerde anamnese geeft nog niet aan of de registratielast daadwerkelijk verminderd is. Dat kunnen we pas achterhalen als we meten of een arts daadwerkelijk minder tijd kwijt is aan registreren. Misschien lastig om te kwantificeren, maar zonder kunnen we nog niet praten van een bewezen nuttig AI model.
Hetzelfde geldt voor het voorspellen van heropnames op een afdeling. Waarom zouden we met 99% zekerheid willen voorspellen dat een patiënt de komende maand weer zal worden opgenomen? Het gaat er vooral om of de acties die genomen worden naar aanleiding van zo’n voorspelling tot een vermindering in het aantal heropnames leidt door al eerder in te grijpen. Die uitkomstmaten laten pas zien of de AI van hoge kwaliteit is en nuttig zal zijn in de kliniek.
Om AI te laten slagen in de kliniek zal verder moeten worden gedacht dan technische barrières en de ethiek. Ga vooral niet eerst bergen data bij elkaar brengen, maar roei met de riemen die u hebt. Sta van te voren stil bij het eindpunt: wat is het beoogde effect? Wat is de toegevoegde waarde van het model voor de dokter of patiënt? Als we deze gedachte vast blijven houden kunnen we met de beschikbare middelen al een goede poging doen om het gat tussen AI onderzoek en daadwerkelijke implementatie in de kliniek te dichten.
Innovatie Specialist in het Innovatieteam van het Leids Universitair Medisch Centrum (LUMC)