Deze website maakt gebruik van cookies. Voor meer informatie over de cookies waarvan deze website gebruik maakt klik hier.
Door verder op deze website te surfen geeft u de toestemming aan Minoc Data Services om cookies te gebruiken. verder gaan
 
vooringenomenheid

Gezondheidsalgoritme vertoont opvallende vooringenomenheid  

Valérie Deridder

 
Naar verluidt zou het de gezondheidsnoden van Afro-Amerikaanse patiënten in de wind geslagen hebben.  

Er komt steeds meer bewijs dat algoritmen wel degelijk etnische vooroordelen vertonen. Onderzoeker Obermeyer en zijn team kwamen tot de conclusie dat een weidverspreid gezondheidsalgoritme sterk bevooroordeeld was ten nadele van Afro-Amerikaanse patiënten. Welke gezondheidsprovider precies gebruik maakte van het algoritme, blijft onduidelijk. Hoewel het algoritme de factor etniciteit niet meteen in overweging nam, was het opvallend dat de noden van zwarte patiënten continu onderschat werden. Dat was ook voornamelijk gelinkt aan het maximum bedrag dat een zwarte persoon kan uitgeven aan gezondheidskosten. Een ziekere persoon van Afrikaanse origine krijgt volgens het onderzoek dezelfde risicoscore als een gezonde blanke persoon, gewoon omwille van het bedrag dat ze kunnen uitgeven.  

Soms waren de verschillen echt frappant. De wetenschappers rekenden zelfs uit dat het opheffen van die bevooroordeelde algoritmen het percentage extra hulp aan zwarte patiënten zou klimmen van 17,7 procent naar 46,5 procent.  

In dit geval werden de vooroordelen er volgens de wetenschappers wel uitgefilterd. Het team hielp volgens het onderzoek de gezondheidsgigant om de patiëntenfocus te verleggen van het financiële naar het gezondheidsplaatje. Dat zorgde voor een daling van 84 procent in de bevooroordeelde algoritmen. Toch moeten we er wel over waken dat wat gesjoemel aan de code van een algoritme niet de enige manier is om vooroordelen de wereld uit te helpen.  


Dit artikel verscheen oorspronkelijk op techpulse.be
 

Reacties

comments powered by Disqus
 

RECENT NIEUWS