Artikel bewaren

U heeft een account nodig om artikelen in uw profiel op te slaan

Login of Maak een account aan
Reacties0

Verantwoorde en veilige toepassing van AI is een uitdaging voor de zorg. Weet wat je deelt.

Uniserver
Artificial Intelligence biedt veel mogelijkheden voor de zorg. Maar het is ook een uitdaging om AI veilig en verantwoord toe te passen in een zorgorganisatie, bleek uit de presentatie van Ralph Kootker van RevoData en Hans Hendrikx van Uniserver, tijdens het Congres Data & Security in de Zorg. Private AI kan een oplossing zijn.

Dat het snel gaat met de acceptatie en het gebruik van de zogenaamde generatieve kunstmatige intelligentie kun je rustig een understatement noemen. Op het Congres Data & Security in de Zorg van afgelopen 8 oktober toonde Ralph Kootker, Chief Technology Officer van RevoData (een bedrijf dat organisaties helpt met data- en AI-oplossingen) wat verbluffende cijfers. Het kostte Netflix 3,5 jaar om op één miljoen gebruikers te komen. Facebook deed er tien maanden over; Instagram 2,5 maand. En Open AI, de maker van ChatGPT? Vijf dagen slechts.

Er gingen dan ook heel wat handen omhoog toen Kootker vroeg wie ChatGPT privé gebruikte. Maar vervolgens gingen bijna net zoveel handen weer omlaag op de vraag wie ChatGPT wel eens zakelijk gebruikte. Aan de ene kant is het voor een leidinggevende of bestuurder in de zorg misschien heel verleidelijk om een dik (en vertrouwelijk) rapport even samen te laten vatten in een paar bullet points, maar tegelijkertijd deel je dan wel potentieel privacygevoelige informatie met een derde partij – OpenAI in dit geval – van wie je uiteindelijk niet precies weet wat ze met al die data doen.

LLM’s

Natuurlijk bieden zogenaamde Large Language Models (LLM’s) als ChatGPT enorme mogelijkheden om de zorg efficiënter te maken en met name meer administratieve taken te automatiseren, zei Kootker. Nu al kan een LLM met behulp van speech to text-technologie in een paar seconden verslag leggen van bijvoorbeeld een gesprek met een patiënt, of ruwe notities omvormen tot een geordende rapportage – iets waar een arts een half uur of meer voor nodig heeft. Ook toepassingen als het automatisch genereren van ontslagbrieven of chatbots voor patiëntinformatie worden nu al in de praktijk gebruikt.

Daarbij moeten we bedenken dat de technologie zich voortdurend blijft ontwikkelen, aldus Kootker. Zoals we ons een paar jaar geleden nog geen voorstelling konden maken van wat nu realiteit is met ChatGPT en andere LLM’s, zullen er in de toekomst wellicht nog verfijndere AI-oplossingen komen waar we nu nog geen idee van hebben. Door de AI-gedreven versnelling van tal van zorgprocessen, van diagnose tot behandeladvies, houden zorgverleners in potentie meer tijd over voor patiënten of cliënten. Kortom: AI en LLM’s kunnen in de nabije toekomst de zorg enorm ontlasten.

Tegelijkertijd waarschuwde Kootker dat de technologie van generatieve AI nog steeds pas in de kinderschoenen staat, en dat de risico’s en kansen vlak bij elkaar liggen. Op dit moment is een applicatie als ChatGPT slechts één van de duizenden LLM-modellen in omloop. Het zou goed kunnen dat één partij over een paar jaar de markt domineert (naar voorbeeld van Google, dat destijds de strijd om dé zoekmachine won), met daarnaast een aantal kleine niche-aanbieders. Maar hoe dat speelveld er over een paar jaar uitziet, is in de huidige beweeglijke markt onmogelijk te voorspellen.

Ondoorzichtig

Op dit moment, zo stelde Kootker, ligt de focus bij gebruikers van LLM’s op slimme zogenaamde prompt engineering. De kwaliteit van je input bepaalt immers in belangrijke mate de kwaliteit van de output van het model. Maar een probleem voor de zorg blijft dat je als gebruiker nooit weet hoe een model als ChatGPT een specifieke uitkomst produceert, of welke data zijn gebruikt. LLM’s zijn, met andere woorden, black boxes, en werpen allerlei vragen op over eigenaarschap, privacy en de mogelijke verspreiding van onjuiste informatie, door het voortdurend (her)gebruik van ‘slechte’ data.

Aan de businesskant van generatieve AI kleven bovendien ook nog uitdagingen, aldus Kootker. Zo kan de komst van AI-applicaties voor onrust zorgen onder zorgmedewerkers, die bang zijn dat ze aanstonds worden vervangen door een LLM. Voor een zorgorganisatie is het zaak om draagvlak te creëren met onderwijs en ondersteuning. Maar voorlopig zijn er eerder méér dan minder mensen nodig met de komst van LLM’s, en dat is meteen een volgend probleem, want de specialisten die ermee overweg kunnen zijn schaars. Daarbij moeten zorginstellingen niet vergeten dat de implementatie in het begin vooral geld kost in plaats van oplevert. De systemen zijn namelijk duur, en niet bepaald duurzaam, want de vereiste rekenkracht kost bergen aan energie.

Veiligheid en integriteit data

Maar misschien wel de belangrijkste zorg van een zorgorganisatie bij het eventuele gebruik van LLM-applicaties zou de veiligheid en integriteit van de eigen data moeten zijn. Een van de grootste nachtmerries van een zorgbestuurder is dat gegevens van patiënten op straat komen te liggen, of dat kwaadwillende indringers rommelen met medische informatie. Bovendien gebruiken hackers inmiddels ook AI-applicaties om toegang te krijgen tot een systeem.

Dit was het moment voor Hans Hendrikx, Director Business Development bij Uniserver, om een lans te breken voor zogenaamde private AI. Gevoelige gezondheidsdata horen niet thuis op publieke platforms, aldus Hendrikx. Veiligheid en privacy zijn immers essentieel voor zorgorganisaties, en daarom zouden ze hun gegevens niet moeten delen met ondoorzichtige AI-applicaties in het publieke domein. Private AI-oplossingen zoals Uniserver die aanbiedt zijn bedoeld om de voordelen van kunstmatige intelligentie te benutten, terwijl de privacy en controle van de gebruiker gewaarborgd blijven. Het opbouwen van een goede dataset kost een zorgorganisatie soms tientallen jaren, aldus Hendrikx. Die moet je niet ondoordacht in een willekeurig LLM stoppen. Met private AI blijven privacygevoelige data of gegevens waar intellectueel eigendom op rust binnen de grenzen van de eigen instelling, met een soeverein cloudplatform. Een zorginstelling weet precies wat er met haar gegevens gebeurt binnen deze afgeschermde omgeving. In die context is de inzet van AI niet alleen effectief maar ook verantwoord.

Strategisch vraagstuk

De veiligheid en integriteit van de eigen data is in wezen secundair aan het grotere strategische vraagstuk rond de toepassing van AI en LLM’s, besloot Hendrikx de presentatie. Iedere zorginstelling die met AI aan de slag wil, moet zich allereerst de vraag stellen: voor welk probleem is AI mogelijk een oplossing? Ja, generatieve AI kan de zorg enorm van dienst zijn, mits het veilig en doordacht wordt geïmplementeerd. Maar het is niet een medicijn voor alle kwalen.

RevoData is een bedrijf dat organisaties helpt om het volledige potentieel van data en AI te benutten. Uniserver op zijn beurt is de Nederlandse marktleider op het gebied van private en soevereine cloud. Samen met cloud-dienstverlener Cloud Nation maken ze deel uit van de Atomic Group, een leidende onderneming voor de transformatie van de digitale infrastructuur van organisaties.

Geef uw reactie

Om te kunnen reageren moet u ingelogd zijn. Heeft u nog geen account, maak dan hieronder een account aan. Lees ook de spelregels.