Ai & medische beeldvormingPremium

"Het algoritme kan u nu ontvangen"

Waarom A.I. radiologen niet kan vervangen

Radiologie combineert digitale beelden, duidelijke benchmarks en herhaalbare taken. Maar het vervangen van radiologen door AI is moeilijker dan het lijkt.

Deena Mousa is hoofdonderzoeker bij Open Philanthropy. Dit artikel verscheen oorspronkelijk in Works in Progress, een magazine over nieuwe en onderschatte ideeën om de wereld te verbeteren.

CheXNet kan pneumonie nauwkeuriger detecteren dan een ervaren radioloog. Het is een AI-model dat in 2017 werd uitgebracht en getraind werd op meer dan 100.000 frontale röntgenfoto's van de thorax. Het is gratis en kan op een gewone consumenten-pc draaien. En het is snel: een ziekenhuis kan het gebruiken om een nieuwe RX-thorax binnen minder dan een seconde te classificeren. 

Sinds 2017 hebben bedrijven zoals Annalise.ai, Lunit, Aidoc en Qure.ai nieuwe modellen uitgebracht die honderden ziekten kunnen detecteren via meerdere types beeldvorming. In benchmarktests blijkt dat deze A.I.-modellen dat ook nog eens sneller en nauwkeuriger doen dan menselijke radiologen.

Andere softwaretools kunnen de agenda van radiologen herschikken om kritieke gevallen prioriteit te geven, vervolgtrajecten voor zorgteams voorstellen, of gestructureerde verslagen genereren die in een EPD opgenomen kunnen worden. Enkele, zoals LumineticsCore, zijn zelfs goedgekeurd om te werken zonder dat een arts de beelden hoeft te bekijken. In totaal heeft de Amerikaanse Food and Drug Administration (FDA) al meer dan 700 radiologiemodellen goedgekeurd - goed voor meer dan driekwart van alle medische AI-toepassingen.

Radioloog aan beeldscherm
De vraag naar menselijke arbeid in radiologie is hoger dan ooit. © Getty Images

"Stop met het opleiden van radiologen"

Radiologie is een vakgebied dat rijp lijkt om mensen door A.I. te vervangen. Het draait er om patroonherkenning op basis van digitale input , en er bestaan duidelijke benchmarks voor deze taken. In 2016 verklaarde Geoffrey Hinton – computerwetenschapper, Nobelprijswinnaar en winnaar van de Turing Award – dat 'we moeten stoppen met het opleiden van radiologen'. Als de meest extreme voorspellingen over het effect van A.I. op werkgelegenheid kloppen, dan zou radiologie de kanarie in de koolmijn moeten zijn. 

Maar de vraag naar menselijke arbeid in radiologie is hoger dan ooit. In 2025 boden Amerikaanse stageprogramma's voor diagnostische radiologie een recordaantal van 1.208 posities aan in alle radiologische specialismen samen: een stijging van vier procent ten opzichte van 2024. Het aantal vacatures in het vakgebied is ongekend hoog.

In 2025 was radiologie het op één na best betaalde medische specialisme in de V.S., met een gemiddeld inkomen van $520.000 - dit is ruim 48 procent hoger dan het gemiddelde jaarloon van een radioloog in 2015.

Als de meest extreme voorspellingen over het effect van AI op werkgelegenheid kloppen, dan zou radiologie de kanarie in de kolenmijn moeten zijn. 

Er zijn drie verklaringen voor die paradox. Ten eerste: hoewel modellen mensen verslaan op benchmarks - gestandaardiseerde tests die ontworpen zijn om de prestaties van AI-modellen te meten - blijkt het veel moeilijker om die prestaties in een ziekenhuisomgeving te evenaren. De meeste tools kunnen alleen afwijkingen diagnosticeren die vaak voorkomen in trainingsdata, en modellen werken vaak minder goed buiten hun testcondities.

Ten tweede botsen pogingen om modellen meer taken te geven op juridische obstakels: tot op heden aarzelen toezichthouders en zorgverzekeraars om volledig autonome radiologiemodellen goed te keuren of terug te betalen.

Ten derde: zelfs wanneer ze wel nauwkeurig diagnosticeren, kunnen modellen slechts een klein deel van de taak van een radioloog overnemen. Radiologen besteden een minderheid van hun tijd aan diagnostiek, en de meerderheid aan andere activiteiten, zoals gesprekken met patiënten en overleg met andere artsen. 

Artificiële intelligentie verspreidt zich snel door de economie en de samenleving. Maar het voorbeeld van radiologie laat zien dat het niet per se elk vakgebied erdoor gedomineerd zal worden – tenminste niet totdat bovengenoemde obstakels zijn overwonnen. Om de voordelen van A.I. te benutten, zal A.I. zich moeten aanpassen aan de samenleving, en omgekeerd.

Een antwoord per model

Alle vormen van A.I. zijn in wezen functies of algoritmen die input verwerken en output produceren. Radiologiemodellen zijn getraind om een ​​bevinding te detecteren: een objectief vaststelbaar bewijsstuk dat helpt bij het identificeren of uitsluiten van een aandoening. 

De meeste radiologiemodellen detecteren één bevinding of aandoening in één type beeld. Een model kan bijvoorbeeld naar een CT-scan van de thorax kijken, en antwoorden op de vraag of er longnoduli dan wel ribfracturen zijn, of wat de calciumscore van de kransslagaders is.

Voor elke aparte vraag is een apart model nodig. Een radioloog die het diagnostisch deel van zijn werk wil overlaten aan A.I, zou dus tussen tientallen modellen moeten schakelen en aan elk model de juiste vragen moeten voorleggen.

Er bestaan platformen die tientallen of zelfs honderden afzonderlijke AI-modellen van verschillende leveranciers combineren, maar elk model binnenin werkt onafhankelijk en analyseert één bevinding of ziekte tegelijk. De uiteindelijke output is een lijst met afzonderlijke antwoorden op specifieke vragen, in plaats van een enkele beschrijving van een afbeelding.

Zelfs met honderden door de Food and Drug Administration (FDA) goedgekeurde beeldvormingsalgoritmen op de markt, dekt de gecombineerde footprint van de huidige radiologische AI-modellen dus slechts een klein deel van de echte beeldvormingstaken.

Veel clusteren rond een paar use cases: beroerte, borstkanker en longkanker maken samen ongeveer 60 procent van de modellen uit, maar slechts een minderheid van het daadwerkelijke volume aan radiologische beeldvorming dat in de VS wordt uitgevoerd.

Voor andere subspecialismen, zoals vasculaire, hoofd-hals-, wervelkolom- en schildklierbeeldvorming, bestaan er momenteel relatief weinig AI-producten. Dit is deels te wijten aan de beschikbaarheid van gegevens: de scan moet zo vaak uitgevoerd worden dat er voldoende geannoteerde voorbeelden zijn die kunnen worden gebruikt om modellen te trainen.

Sommige scans zijn ook inherent ingewikkelder dan andere. Zo worden echo's vanuit meerdere hoeken gemaakt en hebben ze geen standaard beeldvlakken, in tegenstelling tot bijvoorbeeld röntgenfoto's. 

Radioloog aan scherm

Eilanden van automatisering

Ook wanneer modellen worden ingezet buiten het ziekenhuis waar ze werden 'getraind' duiken er problemen op. In een standaard klinische studie worden stalen uit meerdere ziekenhuizen genomen om blootstelling aan een breed scala aan patiënten te garanderen en locatiespecifieke effecten te voorkomen, zoals de techniek van één enkele arts of de manier waarop een ziekenhuis zijn diagnostische apparatuur kalibreert.

Maar de algoritmes die in de VS door de regelgevende instanties worden goedgekeurd, zijn meestal getraind op een relatief beperkte dataset. Van de A.I.-modellen die het aantal geteste locaties rapporteerden, bleek 38 procent getest op data van één enkel ziekenhuis. Publieke benchmarks zijn meestal gebaseerd op meerdere datasets, maar van hetzelfde ziekenhuis.

Van de A.I.-modellen die het aantal geteste locaties rapporteerden, bleek 38 procent getest op data van één enkele ziekenhuis.

De prestaties van een model kunnen daarom met wel 20 procentpunten verslechteren wanneer het wordt getest met gegevens van andere ziekenhuizen. In één onderzoek presteerde een pneumoniedetectiemodel, getraind op thoraxfoto's van één enkel ziekenhuis, aanzienlijk slechter bij tests in een ander ziekenhuis.

Sommige van deze uitdagingen kwamen voort uit vermijdbare experimentele problemen zoals overfitting, maar andere duiden op dieperliggende problemen, zoals verschillen in de manier waarop ziekenhuizen gegevens registreren of genereren, zoals het gebruik van licht afwijkende beeldvormingsapparatuur.

De implicatie is dat individuele ziekenhuizen of afdelingen de tools opnieuw zouden moeten trainen of valideren voordat ze kunnen worden ingezet, zelfs als ze elders hun nut bewezen hebben. 

De beperkingen van radiologie-modellen komen voort uit dieperliggende problemen bij de ontwikkeling van medische AI. Trainingsdatasets worden samengesteld volgens strikte inclusiecriteria, waarbij de diagnose ondubbelzinnig moet zijn (meestal bevestigd door een consensus van twee tot drie experts of een pathologie-uitslag), en uitgesloten zijn beelden die vanuit een vreemde hoek zijn genomen, te donker lijken of wazig zijn.

Dat betekent dat hun prestaties zijn gebaseerd op de gemakkelijkste gevallen, die artsen vandaag al het beste kunnen diagnosticeren, en op ideale beelden.

In een onderzoek uit 2022 haperde een algoritme dat bedoeld was om longontsteking op thoraxfoto's te detecteren wanneer de ziekte zich in subtiele of milde vormen presenteerde, of als er sprake was van longaandoeningen die lijken op longontsteking, zoals pleurale effusie of atelectase (klaplong). Mensen kunnen ook beter de context inschatten: een radioloog vertelde me dat een bepaald model chirurgische nietjes als bloedingen bestempelt.

De datasets die voor training worden gebruikt, bevatten doorgaans ook minder scans van kinderen, vrouwen en etnische minderheden, waardoor de prestaties voor deze demografische groepen over het algemeen slechter zijn. Veel datasets bevatten zelfs geen informatie over het geslacht of ras van de gevallen, waardoor het moeilijk is om hierop te anticiperen en het probleem van bias aan te pakken. Het resultaat is dat radiologiemodellen vaak slechts een klein deel van de wereld kunnen voorspellen.

Van benchmarks naar klinische prestaties

Hoewel er scenario's zijn waarin AI-modellen wel goed presteren, bijvoorbeeld bij het identificeren van veelvoorkomende ziekten zoals longontsteking of bepaalde tumoren, houden de problemen daar niet op. Zelfs een model dat speciaal is ontwikkeld voor de precieze vraag die u wilt stellen en dat getraind is in hetzelfde ziekenhuis, zal waarschijnlijk niet zo goed presteren in de klinische praktijk als in de benchmark.

Bij benchmarkstudies isoleren onderzoekers een specifieke groep scans. Ze definiëren doelen in kwantitatieve scores, zoals de sensitiviteit (het percentage mensen met de aandoening dat correct wordt geïdentificeerd door de test) en specificiteit (het percentage mensen zonder de aandoening dat correct als zodanig wordt geïdentificeerd), en vergelijken de scores van een model met de score van een andere beoordelaar, meestal een arts.

Klinische studies daarentegen tonen aan hoe goed het model presteert in een echte zorgomgeving. Sinds de begindagen van computerondersteunde diagnose bestaat er een kloof tussen benchmarks en klinische praktijk.

In de jaren negentig werden "computerondersteunde diagnosesystemen", in feite rudimentaire AI-systemen, ontwikkeld om mammografieën te screenen. In onderzoeken bleek de combinatie van mensen en computerondersteunde diagnosesystemen de nauwkeurigheid van louter mensen te overtreffen. Er volgden meer gecontroleerde experimenten, die erop wezen dat computerondersteunde diagnose radiologen helpt om meer kanker op te sporen tegen minimale kosten. 

De FDA keurde mammografie met behulp van computerondersteunde diagnose in 1998 goed, en Medicare begon het gebruik van computerondersteunde diagnose in 2001 te vergoeden. De Amerikaanse overheid betaalde radiologen $7 extra om een ​​screeningsmammogram te rapporteren, indien zij de technologie gebruikten. In 2010 werd ongeveer 74 procent van de mammografieën in de V.S. beoordeeld met behulp van computerondersteunde diagnose, in aanwezigheid van een clinicus.

Maar computerondersteunde diagnose bleek een teleurstelling. Tussen 1998 en 2002 analyseerden onderzoekers 430.000 screeningsmammografieën van 200.000 vrouwen in 43 ziekenhuizen in Colorado, New Hampshire en Washington. Van de zeven ziekenhuizen die computerondersteunde detectiesoftware gebruikten, markeerden de machines meer beelden, waardoor artsen 20 procent meer biopsieën uitvoerden - maar er werd niet meer kanker vastgesteld dan voorheen. Diverse andere grote klinische studies leverden vergelijkbare resultaten op. 

De machines markeerden meer beelden, waardoor artsen 20 procent meer biopsieën uitvoerden - maar er werd niet meer kanker vastgesteld dan voorheen.

Een andere manier om prestaties te meten, is door computerondersteunde hulp te vergelijken met een tweede arts die elke scan leest, wat 'dubbel lezen' wordt genoemd. In tien onderzoeken en zeventien studies naar dubbel lezen ontdekten onderzoekers dat computerondersteunde hulpmiddelen het detectiepercentage van kanker niet verhoogden, maar er wel voor zorgden dat patiënten tien procent vaker werden teruggeroepen. Wanneer een scan werd beoordeeld door twee menselijke beoordelaars, werden meer kankers ontdekt en daalde het aantal teruggebelde patiënten lichtjes.

Computerondersteunde detectie bleek dus slechter dan standaardzorg, en veel slechter dan een extra paar (menselijke) ogen. In 2018 staakte Medicare de hogere vergoeding voor mammografieën die met een computerondersteunde diagnosehulp werden beoordeeld.

Eén verklaring voor deze kloof is dat mensen zich anders gedragen wanneer ze dagelijks patiënten behandelen dan wanneer ze deelnemen aan laboratoriumonderzoeken of andere gecontroleerde experimenten.

Met name artsen lijken in klinische settings overmatig te vertrouwen op ondersteunende AI-hulpmiddelen, op een manier die ze in testomstandigheden niet doen. Ze deden dit zelfs al toen de softwaretools nog veel primitiever waren dan vandaag: in een klinische studie die al uit 2004 dateert, werden 20 specialisten in borstkankeronderzoek gevraagd om mammografieën te lezen met de computerprompts ingeschakeld, waarna een tweede groep dezelfde mammografieën zonder de software moest interpreteren.

Artsen lijken in klinische settings overmatig te vertrouwen op ondersteunende A.I.-hulpmiddelen.

Onder begeleiding van computerhulpmiddelen identificeerden artsen slechts de helft van de maligniteiten, terwijl degenen die zonder het model beoordeelden 68 procent vonden. De kloof was het grootst wanneer computerhulpmiddelen de maligniteit zelf niet herkenden; veel artsen leken de afwezigheid van prompts te beschouwen als geruststelling dat een mammogram 'clean' was.

Een andere review, ditmaal uit 2011, vond dat wanneer een systeem onjuiste begeleiding gaf, clinici 26 procent meer kans hadden om een ​​verkeerde beslissing te nemen dan niet-ondersteunde collega's.

Mensen in de lus

Het lijkt erop dat betere modellen en meer automatisering samen de problemen van de huidige AI voor radiologie zouden kunnen oplossen. Als er geen arts bij betrokken is die zich door het model laat beïnvloeden, zouden we verwachten dat de resultaten in de praktijk overeenkomen met benchmarkscores. Maar wettelijke vereisten en verzekeringspolissen vertragen de acceptatie van volledig autonome A.I.voor radiologie.

De FDA verdeelt beeldvormingssoftware in twee regelgevingsgebieden: ondersteunende of triage-instrumenten, waarvoor een bevoegde arts de scan moet lezen en de diagnose moet bevestigen, en autonome instrumenten, waarbij dat niet nodig is.

Fabrikanten van ondersteunende instrumenten moeten simpelweg aantonen dat hun software de prestaties van instrumenten die al op de markt zijn, kan evenaren. Autonome instrumenten moeten aan een veel hogere eis voldoen: ze moeten aantonen dat de A.I.-tool weigert een scan te lezen die onduidelijk is, die met een ongebruikelijke scanner is uitgevoerd of die buiten de competentie van de tool valt. De lat ligt hoger, want zodra de mens verdwijnt, kan een latent softwaredefect duizenden mensen schade toebrengen voordat iemand het merkt.

Het is lastig om aan deze criteria te voldoen. Zelfs geavanceerde beeldnetwerken haperen bij beelden met weinig contrast, onverwachte hoeken of veel verschillende artefacten.

LumineticsCore (voorheen bekend als IDx-DR), een screeningsinstrument voor diabetische retinopathie en een van de weinige die autonoom mag werken, kent heel wat beperkingen: de patiënt moet een volwassene zijn zonder eerdere diagnose van retinopathie; er moeten twee macula-gecentreerde foto's van de fundus (de achterzijde van het oog) beschikbaar zijn met een resolutie van minimaal 1000x1000 pixels; en als glans, kleine pupillen of een slechte focus de kwaliteit verminderen, moet de software het proces afbreken en de patiënt doorverwijzen naar een oogzorgprofessional.

Krachtiger bewijs en verbeterde prestaties zouden uiteindelijk beide obstakels kunnen wegnemen, maar andere vereisten zouden het wijdverbreide gebruik nog steeds vertragen. Als u bijvoorbeeld een model opnieuw traint, moet u een nieuwe goedkeuring aanvragen, zelfs als het vorige model al was goedgekeurd. Dit draagt ​​ertoe bij dat de markt over het algemeen achterloopt op de mogelijkheden van grensverleggende technologieën.

En wanneer autonome modellen dan toch worden goedgekeurd, staan ​​verzekeraars niet te popelen om ze te dekken. Diagnostische fouten zijn de duurste fouten in de Amerikaanse geneeskunde; ze zijn verantwoordelijk voor ongeveer een derde van alle uitbetalingen voor medische fouten. Radiologen liggen daarbij steeds onder vuur.

Verzekeraars zijn van mening dat software de kans op catastrofale verzekeringsclaims groter maakt dan een menselijke arts, omdat één defect algoritme schade kan berokkenen aan veel patiënten tegelijk.

Standaardcontracten bevatten nu vaak clausules zoals: 'Dekking geldt uitsluitend voor interpretaties die zijn beoordeeld en geverifieerd door een bevoegd arts; er wordt geen schadeloosstelling verleend voor diagnoses die autonoom door software zijn gegenereerd'. Eén verzekeraar, Berkley, hanteert zelfs het bottere label 'Absolute uitsluiting voor A.I.'.

Zonder verzekering tegen beroepsaansprakelijkheid kunnen ziekenhuizen het zich niet veroorloven om algoritmes verslagen te laten ondertekenen. In het geval van LumineticsCore heeft de leverancier, Digital Diagnostics, zowel een productaansprakelijkheidsverzekering als een vrijwaringsclausule opgenomen.

Dit betekent dat als het ziekenhuis het apparaat exact heeft gebruikt zoals de FDA-certificatie het voorschrijft, met volwassen patiënten, beelden van goede kwaliteit en zonder eerdere retinopathie, het bedrijf het ziekenhuis zal vergoeden voor eventuele schade die veroorzaakt werd door misclassificatie door het algoritme.

Als Amerikaanse ziekenhuizen vandaag A.I. willen inzetten voor volledig onafhankelijke diagnostische metingen, moeten ze er dus van overtuigd zijn dat autonome modellen voldoende kostenbesparingen of productiviteitstwinst opleveren om het nastreven van uitzonderingen op de normen voor accreditatie en honorering te rechtvaardigen.

Momenteel is het gebruik van A.I. te beperkt om een ​​verschil te maken. Een onderzoek uit 2024 schatte dat 48 procent van de radiologen A.I. in hun praktijk gebruikt. Een enquête uit 2025 meldde dat slechts 19% van de respondenten die AI-use cases in de radiologie testen of implementeren, een "hoge mate van succes" rapporteerde. 

Betere A.I., meer MRI's

Zelfs als A.I.-modellen nauwkeurig genoeg worden om zelfstandig scans te kunnen lezen en daarvoor toestemming krijgen, hoeven radiologen nog niet voor hun job te vrezen; integendeel.

Radiologen doen zoals gezegd veel meer dan het interpreteren van beelden. Een onderzoek uit 2012, waarbij radiologen in drie verschillende ziekenhuizen werden gevolgd, toonde aan dat slechts 36 procent van hun tijd opging aan directe beeldinterpretatie.

Ze besteden meer tijd aan het toezicht houden op beeldvormende onderzoeken, het communiceren van resultaten en aanbevelingen aan de behandelend artsen en soms rechtstreeks aan patiënten, het opleiden van radiologieassistenten en van laboranten die de scans uitvoeren, het beoordelen van beeldvormingstaken en het aanpassen van protocollen.

Dit betekent dat radiologen, als A.I. beter zou worden in het interpreteren van scans, hun tijd wellicht simpelweg zouden kunnen verschuiven naar andere taken. Dit zou het substitutie-effect van A.I. verminderen. 

Naarmate het uitvoeren van een taak sneller of goedkoper wordt, kunnen we er uiteindelijk meer doen. In sommige gevallen, vooral als lagere kosten of snellere doorlooptijden de deur openen naar nieuwe toepassingen, kan de toename van de vraag de toename van de efficiëntie overtreffen, een fenomeen dat bekend staat als de Jevons-paradox.

Dit fenomeen kent een historische precedent in de sector: begin jaren 2000 ruilden ziekenhuizen film in voor digitale systemen. Ziekenhuizen die digitaliseerden, verbeterden de productiviteit van hun radiologen. De tijd die nodig was om een ​​individuele scan te interpreteren daalde.

Een onderzoek in het Vancouver General ziekenhuis toonde aan dat de digitalisering de productiviteit van radiologen binnen een jaar na de overstap met 27 procent had verhoogd voor gewone radiografie en met 98 procent voor CT-scans. Dit ging gepaard met andere ontwikkelingen in beeldvormingstechnologie waardoor scans sneller uitgevoerd konden worden.

Toch verloren geen radiologen hun baan. In plaats daarvan steeg het volume beeldvorming per 1.000 verzekerde patiënten in de V.S. tussen 2000 en 2008 met 60 procent.

Deze toename wordt niet verklaard door een evenredige toename van het aantal raadplegingen. Wel ging elk consult gemiddeld gepaard met meer beeldvorming. Vóór de digitalisering was de niet-monetaire prijs van beeldvorming hoog: de mediane doorlooptijd voor verslagen op basis van röntgenfoto's was 76 uur voor patiënten in de spoedeisende hulp en 84 uur voor opgenomen patiënten. Na de digitalisering daalden deze tijden tot respectievelijk 38 en 35 uur. 

Snellere scans geven artsen meer ruimte om aan beeldvorming te doen. Tot begin jaren 2000 kregen alleen uitzonderlijke traumagevallen een CT-scan van het hele lichaam; de toegenomen snelheid van CT-scans betekent dat ze nu een gangbare keuze zijn.

Dit is een weerspiegeling van de vraagelasticiteit, een concept in de economie dat beschrijft wanneer de vraag naar een product of dienst zeer gevoelig is voor prijsveranderingen. In dit geval nam de vraag naar deze scans fors toe toen de wachttijd voor deze scans afnam. 

Het eerste decennium

In de afgelopen tien jaar zijn de verbeteringen in beeldinterpretatie ver vooruitgelopen op hun verspreiding in de praktijk. Honderden modellen kunnen bloedingen, knobbeltjes en stolsels opsporen, maar A.I. blijft beperkt tot assistentie bij een kleine subset van scans. En ondanks voorspellingen van het tegendeel, zijn het aantal patiënten en de inkomens van radiologen blijven stijgen. We overschatten de belofte van A.I. in de radiologie als we alleen op benchmarks afgaan.

Multitask-fundamentmodellen kunnen de inzetbaarheid van A.I. vergroten, en nieuwe trainingssets kunnen datalacunes verkleinen. Maar veel obstakels zullen niet verdwijnen met alleen betere modellen: de noodzaak om de patiënt te adviseren, het risico op beroepsfouten, en de goedkeuring van toezichthouders en verzekeraars

Elk obstakel maakt volledige vervanging de duurste en meest risicovolle optie, en de optie "mens plus machine" de standaard. Een plotse vooruitgang in de mogelijkheden van A.I. zou deze dynamiek zeker kunnen veranderen, maar tot dan blijft het voorgaande een goed model voor recente A.I.-modellen voor taken in een specifiek medisch specialisme. 

Er zijn sectoren waar de omstandigheden anders zijn, en A.I wel al mensen vervangt. Grote mediaplatforms vertrouwen sterk op A.I.-systemen om schadelijke of beleidsschendende content te herkennen en/of te verwijderen. Bij Facebook en Instagram worden respectievelijk 94 en 98 procent van de moderatiebeslissingen door machines genomen, en niet langer door menselijke moderatoren.

Voorlopig geldt de paradox: hoe beter de machines, hoe drukker radiologen het hebben.

Maar veel kennisbanen lijken meer op radiologie dan op contentmoderatie. In geavanceerde kennisbanen is het takenpakket divers, de inzet hoog en de vraag elastisch. Wanneer dit het geval is, mogen we verwachten dat software in eerste instantie leidt tot meer menselijk werk, niet minder.

Dat is de les van tien jaar radiologie-modellen: noch optimisme over een hogere output, noch angst voor vervanging. Modellen kunnen de menselijke productiviteit verhogen, maar de implementatie ervan is afhankelijk van gedrag, instellingen en prikkels. Voorlopig geldt de paradox: hoe beter de machines, hoe drukker radiologen het hebben.

Wat heb je nodig

Krijg GRATIS toegang tot het artikel
of
Proef ons gratis!Word één maand gratis premium partner en ontdek alle unieke voordelen die wij u te bieden hebben.
  • checkwekelijkse newsletter met nieuws uit uw vakbranche
  • checkdigitale toegang tot 35 vakbladen en financiële sectoroverzichten
  • checkuw bedrijfsnieuws op een selectie van vakwebsites
  • checkmaximale zichtbaarheid voor uw bedrijf
Heeft u al een abonnement? 
Geschreven door Deena Mousa7 november 2025

Meer weten over

Print Magazine

Recente Editie
24 juni 2025

Nu lezen

Ontdek de nieuwste editie van ons magazine, boordevol inspirerende artikelen, diepgaande inzichten en prachtige visuals. Laat je meenemen op een reis door de meest actuele onderwerpen en verhalen die je niet wilt missen.

In dit magazine