Nederland loopt voorop in het toepassen van big data in de zorg. Een mooi voorbeeld is het initiatief van neuroloog Bas Bloem waarbij met en door parkinsonpatiënten, gedurende twee jaar onder meer hart- en hersenactiviteiten worden bijgehouden. Doel is om meer inzicht te krijgen in welke therapie werkt bij de parkinsonpatiënt.
Big data-toepassingen zoals deze kunnen leiden tot betere zorg waar parkinsonpatiënten duidelijk baat bij hebben. Ze kunnen patiënten echter ook kwetsbaar maken. Want als patiënten veel gegevens van zichzelf vrijgeven, vergroot dit hun kwetsbaarheid voor misbruik van die gegevens.
Om misbruik te voorkomen heeft Bloem samenwerking gezocht met Bart Jacobs, hoogleraar computerbeveiliging en bekend omdat hij regelmatig in de media waarschuwt voor beveiligingsproblemen van databanken. Samen hebben ze een technologie ontwikkeld om de gegevens zo te versleutelen – op basis van polymorfe pseudoniemen – dat ze alleen met toestemming van de patiënt gebruikt kunnen worden. De data zijn bovendien ondergebracht in een aparte stichting met een eigen bestuur. Ondanks de samenwerking met Google-zusterorganisatie Verily is gewaarborgd dat de gegevens niet gedeeld worden met Google.
Heeft de computer altijd gelijk?
Een ander risico is dat big data-uitkomsten niet vanzelfsprekend juist zijn. We weten wel dat big data-computers als Watson van IBM beter dan dokters in staat zijn grote volumes wetenschappelijke informatie tot zich te nemen, en daardoor tot meer accurate diagnoses kunnen komen dan dokters. Maar of de uitkomsten van big data-toepassingen het juiste advies voor goede zorg geven, hangt af van de kwaliteit van de data waarop zij zich baseren.
Als de dataset belangrijke data mist, of wanneer data op verschillende manieren geïnterpreteerd kunnen worden, kunnen statistische relaties en patronen geen betekenis hebben, of tenminste een heel andere betekenis dan je op het eerste gezicht zou denken. Het is niet voor niets dat partijen als Google, IBM en Apple geïnteresseerd zijn in uniforme codering van medische termen (SNOMED).
Maar ook door de manier waarop algoritmen zijn geprogrammeerd kunnen fouten ontstaan. Waar decision support-systemen vroeger uitgingen van transparante ‘beslisbomen’, is nu sprake van zelflerende algoritmen die voor zorgprofessionals niet te doorzien zijn, waardoor fouten niet worden herkend. Dit soort fouten kunnen grote gevolgen hebben voor individuele patiënten. Bijvoorbeeld als een patiënt daardoor ten onrechte zorg wordt onthouden of als therapieën toch niet blijken te werken.
Big data alleen voor onderzoek?
De risico’s van big data zijn kleiner bij toepassing op grotere groepen, zoals in gezondheidsonderzoek. Eventuele fouten op het niveau van individuen middelen, doordat naar grote aantallen wordt gekeken. Het is echter een illusie te denken dat big data ook dan geen betekenis krijgt voor het individu.
Het is bijvoorbeeld niet te vermijden dat ook commerciële partijen toegang hebben tot die data en dat commerciële toepassingen zich richten op het individu. Hoewel het mogelijk is om met onomkeerbare anonimiseringstechnieken privacy ook in commerciële toepassingen te waarborgen, moeten we constateren dat dat nu niet altijd gebeurt. Het is dus zaak te zorgen dat dit wel gebeurt, om de privacy van patiënten goed te beschermen.
Patiënt als klant en product?
Juridisch wordt de patiënt of persoon op grond van de Wet bescherming persoonsgegevens en vanaf 25 mei 2018 in de Algemene Verordening Gegevensbescherming beschermd tegen behandeling als product. Vanwege de fundamentele waarde en het fundamentele recht van de menselijke waardigheid mogen – bijvoorbeeld via profilering met behulp van big data – geen besluiten met rechtsgevolg worden genomen zonder menselijke tussenkomst. Dat is mogelijk met zelflerende algoritmen en big data, maar mag dus niet.
Tegelijkertijd is het een gegeven dat patiëntdata commerciële waarde hebben en dat dus de patiënt op een bepaalde manier ook als ‘een product’ wordt gezien. Dat is op zich niet erg, als het gebruik van die data tot betere zorg leidt, zoals bij de eerdergenoemde parkinsonpatiënten. Én mits is gewaarborgd dat de patiëntdata niet worden gebruikt op een manier waar de patiënt schade van ondervindt. Schade als gevolg van privacyschendingen, maar ook schade wanneer big data-toepassingen tot onjuiste beslissingen leiden.
Meer instrumenten nodig
De huidige wetgeving biedt patiënten onvoldoende bescherming tegen risico’s van big data. Zeker, er is veel aandacht voor het beschermen van persoonsgegevens en met de nieuwe Europese verordening is ook meer mogelijk om internationale bedrijven daarop aan te spreken. Die wetten beschermen echter niet tegen stigmatisering van groepen. Bovendien kan de eenzijdige nadruk op bescherming van persoonsgegevens de volledigheid en ook de kwaliteit van data beperken en vergroot daardoor het risico dat big data leidt tot fouten.
Het is belangrijk om instrumenten te ontwikkelen die naast privacybescherming ook de kwaliteit van dig-data toepassingen bevorderen. Dat vraagt niet alleen om ethische en juridische expertise, maar vooral ook om inbreng vanuit zorgprofessionals, patiënten én leveranciers. Om te bevorderen dat ook zelflerende algoritmen transparanter zijn en om te zorgen dat commerciële partijen maar ook overheden verantwoord met big data zullen omgaan.
Want zelfs als mensen (dokters én patiënten) het laatste woord hebben, is het voor hen best lastig om big data-adviezen goed te duiden. Wie weet wordt algoritmist een nieuw beroep in de gezondheidszorg?