De introductie van gezondheidszorgtechnologieën gebaseerd op kunstmatige intelligentie (AI) kan “gevaarlijk” zijn voor mensen in lage-inkomenslanden, De Wereldgezondheidsorganisatie (WHO) heeft gewaarschuwd.
De organisatie, die vandaag een rapport heeft uitgebracht waarin nieuwe richtlijnen worden beschreven grote multimodale modellen (LMMs), zegt dat het essentieel is dat het gebruik van de zich ontwikkelende technologie niet alleen wordt gevormd door technologie bedrijven en die in rijke landen. Als modellen niet worden getraind op gegevens van mensen op plaatsen met weinig middelen, kunnen die populaties slecht worden bediend door de algoritmen, zegt het bureau.
“Het allerlaatste dat we willen zien gebeuren als onderdeel van deze sprong voorwaarts met technologie is de verspreiding of versterking van ongelijkheden en vooroordelen in het sociale weefsel van landen over de hele wereld”, zegt Alain Labrique, directeur digitale gezondheid en innovatie van de WHO. , zei hij vandaag op een mediabriefing.
Ingehaald door gebeurtenissen
De WHO heeft haar eerste richtlijnen over AI in de gezondheidszorg in 2021. Maar de organisatie werd minder dan drie jaar later ertoe aangezet ze te actualiseren door de toename van het vermogen en de beschikbaarheid van LMM’s. Ook wel generatieve AI genoemd, deze modellen omvatten degene die de populaire ChatGPT-chatbot aandrijftverwerken en produceren van tekst, video’s en afbeeldingen.
LMM’s zijn “sneller aangenomen dan welke consumententoepassing dan ook in de geschiedenis”, zegt de WHO. Gezondheidszorg is een populair doelwit. Modellen kunnen klinische aantekeningen maken, formulieren invullen en artsen helpen bij het diagnosticeren en behandelen van patiënten. Verschillende bedrijven en zorgverleners ontwikkelen specifieke AI-tools.
Google AI heeft een betere manier van werken aan het mattress dan menselijke artsen – en stelt betere diagnoses
De WHO zegt dat haar richtlijnen, uitgegeven als advies aan de lidstaten, bedoeld zijn om ervoor te zorgen dat de explosieve groei van LMM’s de volksgezondheid bevordert en beschermt, in plaats van deze te ondermijnen. In het ergste geval waarschuwt de organisatie voor een mondiale ‘race to the underside’, waarbij bedrijven als eerste applicaties willen vrijgeven, ook als deze niet werken en onveilig zijn. Het roept zelfs het vooruitzicht op van een ‘instorting van het mannequin’, een desinformatiecyclus waarin LMM’s die zijn getraind op onnauwkeurige of valse informatie publieke informatiebronnen, zoals het web, vervuilen.
“Generatieve AI-technologieën hebben het potentieel om de gezondheidszorg te verbeteren, maar alleen als degenen die deze technologieën ontwikkelen, reguleren en gebruiken de bijbehorende risico’s onderkennen en volledig verantwoorden”, zegt Jeremy Farrar, hoofdwetenschapper van de WHO.
Het beheer van deze krachtige instruments magazine niet alleen aan technologiebedrijven worden overgelaten, waarschuwt het bureau. “Overheden uit alle landen moeten gezamenlijk leiding geven aan inspanningen om de ontwikkeling en het gebruik van AI-technologieën effectief te reguleren”, aldus Labrique. En groepen uit het maatschappelijk middenveld en mensen die gezondheidszorg ontvangen, moeten bijdragen aan alle stadia van de ontwikkeling en inzet van LMM, inclusief hun toezicht en regulering.
Het verdringen van de academische wereld
In haar rapport waarschuwt de WHO voor het potentieel voor “industriële verovering” van de LMM-ontwikkeling, gezien de hoge kosten van coaching, inzet en onderhoud van deze programma’s. Er is al overtuigend bewijs dat de grootste bedrijven zowel universiteiten als overheden verdringen in AI-onderzoek, aldus het rapport, met “ongekende” aantallen doctoraatsstudenten en docenten die de academische wereld verlaten voor de industrie.
De richtlijnen bevelen aan dat onafhankelijke derde partijen verplichte audits na de launch uitvoeren en publiceren van LMM’s die op grote schaal worden ingezet. Dergelijke audits moeten beoordelen hoe goed een instrument zowel gegevens als mensenrechten beschermt, voegt de WHO eraan toe.
Het suggereert ook dat softwareontwikkelaars en programmeurs die werken aan LMM’s die in de gezondheidszorg of in wetenschappelijk onderzoek kunnen worden gebruikt, dezelfde soort ethische coaching zouden moeten krijgen als medici. En er staat dat overheden van ontwikkelaars zouden kunnen eisen dat ze vroege algoritmen registreren, om de publicatie van negatieve resultaten aan te moedigen en publicatiebias en hype te voorkomen.