Het lab heet Explainable AI for Health (ICAI). De technologie kan worden gebruikt als klinische beslissingsondersteuning voor artsen en patiënten.
Alle beschikbare gegevens
Het doel van het lab is om nieuwe inherent uitlegbare AI-technieken en -richtlijnen te ontwikkelen en te valideren die kunnen worden gebruikt voor klinische besluitvorming. De modellen zijn zodanig ontwikkeld dat ze alle beschikbare gegevens -bijvoorbeeld patiëntgerelateerde gegevens en beeldvormings-gegevens- tegelijkertijd meenemen.
Focus op oncologie
In eerste instantie ligt de focus op oncologie, met toepassingen bij het LUMC en bij partnerinstituut Amsterdam UMC. Hieronder vallen palliatieve zorg, gynaecologische kankerzorg en zorg voor patiënten met een paraganglioom (zeldzame tumor) in het hoofd-halsgebied.
Vertrouwen
Volgens wetenschappelijk directeur Peter Bosman -groepsleider van de onderzoeksgroep Evolutionary Intelligence bij het CWI en hoogleraar bij de TU Delft- is het niet altijd eenvoudig uit te leggen hoe AI-modellen tot een bepaalde voorspelling komen. “Daarom ontwikkelen we nieuwe vormen van AI die zo transparant mogelijk zijn, zodat artsen en patiënten begrijpen waarom een bepaalde voorspelling wordt gedaan. Op die manier kan het vertrouwen in AI toenemen.”
Bij het ICAI lab werken vijf promovendi. Financiering van de vijf promotieplaatsen is extern verkregen via NWO en het Gieskes-Strijbis Fonds.