Deze website maakt gebruik van cookies. Voor meer informatie over de cookies waarvan deze website gebruik maakt klik hier.
Door verder op deze website te surfen geeft u de toestemming aan Minoc Data Services om cookies te gebruiken. verder gaan
 
Amerikaanse

Amerikaanse overheidsstudie bevestigt dat meeste gezichtsherkenningsystemen bevooroordeeld zijn

Valérie Deridder

 
Zo’n 200 gezichtsherkenningssystemen scoorden minder accuraat op niet-blanke gezichten. Zo meldt een Amerikaanse nationale studie. 

Het Amerikaanse Nationale Instituut voor Standaard en Technologie (NIST) testte elke algoritme uit op de meest gevraagde taken die het bij gezichtsherkenning uitvoert. De eerste taak is het één-op-één matchen, waarbij een foto van iemand wordt gematcht aan een foto van diezelfde persoon die al in de database zit. De tweede zoekmethode, namelijk ‘één-op-velen”, gaat om het vastleggen of een foto überhaupt wel enige match heeft in de database. Deze methode wordt vaak gebruikt door de politie om verdachten te identificeren in een lopend onderzoek.

Het onderzoek toonde aan dat voor de één-op-één methode er een veel hogere graad van false positives te merken was voor Aziatische en Afro-Amerikaanse gezichten. Met andere woorden; vaker vond het algoritme zogezegd een ‘match’ waar er helemaal geen was. Algoritmen die in Aziatische landen werden ontwikkeld, toonden een veel lagere ratio van false positives tussen Aziatische en Kaukasische gezichten. Amerikaanse algoritmen scoorden dan weer over de hele lijn slecht op het matchen van Aziatische, Afro-Amerikaanse en Indiaanse gezichten. Die laatste groep kreeg de meeste false positives te verwerken. Voor de één-op-velen methode merkte het onderzoek de hoogste graad van false positives op bij Afro-Amerikaanse vrouwen, waardoor de bevolkingsgroep het meeste risico loopt op valselijk beschuldigd te worden.


Dit artikel verscheen oorspronkelijk op techpulse.be
 

Reacties

comments powered by Disqus
 

RECENT NIEUWS