AI in de zorg draagt bij aan de verbetering van de kwaliteit, maar op de ontwikkeling van algoritmen is weinig toezicht. Dat is de kern van een waarschuwend artikel in Science. Geldt dat ook voor Nederland? Data-onderzoeker Egge van der Poel denkt van niet.
De toegenomen rekenkracht van computers leidt
De inzet van algoritmes als therapeutische interventie verschilt weinig van het gebruik van geneesmiddelen. Bij beide is er sprake van een balans tussen te behalen voordeel en de mogelijke risico’s. Het besef dat geneesmiddelen ook schadelijke bijwerkingen hebben is sterk gegroeid na enkele rampzalige introducties, zoals Softenon en DES in de jaren 60, van de vorige eeuw. Die ongelukken hebben geleid tot de oprichting van toezichthouders zoals het College ter Beoordeling van Geneesmiddelen. De belangrijkste taken van toezichthouders als het CBG, de FDA en de EMA zijn het bepalen van werkzaamheid en veiligheid voor marktintroductie en het blijvend monitoren van de veiligheid na marktintroductie. Weinig voorkomende bijwerkingen vind je immers pas bij veelvuldig en langdurig gebruik.
Bij algoritmes zal dit niet anders zijn. Net als geneesmiddelen kunnen zij hoogcomplex zijn. Die complexiteit is echter geen reden om af te zien van adequate controlemechanismes. Wetenschappers en zorgverleners die met elkaar in gesprek gaan over waar het heen moet met een algoritme en wat daarbij de kansen en de valkuilen zijn vormen slechts de start van die controlemechanismen. Enkel streven om zo’n algoritme zich optimaal te laten ontwikkelen is veel te vrijblijvend en zet de deur open voor een digitale Softenon affaire. Dat is niet alleen gevaarlijk voor patiënten maar kan ook leiden tot het vermijden van technologie die in potentie een zeer grote bijdrage kan leveren aan het verbeteren van de zorg.