Nu relevantZorginhoud & ethiekvoorbereidenConfidence: 82%
Bias in AI-diagnostiek: risico's voor specifieke patiëntgroepen
Eerste signalering: Laatst bijgewerkt:
Samenvatting
Onderzoek toont aan dat medische AI-systemen getraind op niet-representatieve datasets systematisch slechter presteren bij bepaalde etnische groepen, vrouwen en oudere patiënten.
Waarom dit ertoe doet
In een diverse samenleving als Nederland kan bias in AI-diagnostiek leiden tot ongelijke zorgkwaliteit. Zorginstellingen moeten eisen stellen aan de diversiteit van trainingsdata.
Scores
5
Impact
De mate waarin dit signaal de Nederlandse gezondheidszorg kan beïnvloeden (1 = minimaal, 5 = transformatief).
4
Urgentie
Hoe snel actie of aandacht nodig is (1 = kan wachten, 5 = onmiddellijke aandacht vereist).
3
Onzekerheid
De mate van onzekerheid over de uitkomst of timing (1 = zeer voorspelbaar, 5 = zeer onzeker).
Tags
biasdiversiteitgelijkheidtrainingsdataethiek
Bronnen
- Algorithmic bias in healthcare AI: a systematic reviewThe Lancet Digital Health —
Pipeline versie: 0.1.0 | Gegenereerd door: manual