Deze website maakt gebruik van cookies. Voor meer informatie over de cookies waarvan deze website gebruik maakt klik hier.
Door verder op deze website te surfen geeft u de toestemming aan Minoc Data Services om cookies te gebruiken. verder gaan
 
algoritmen

MIT ontwikkelt systeem om algoritmen objectiever te maken

Valérie Deridder

 
Algoritmen worden namelijk gegenereerd uit data die van mensen komt. En mensen zijn nu eenmaal niet altijd even objectief…

 

Dat gezichtsherkenning niet altijd even ‘objectief’ te werk gaat, is ondertussen geweten.

 

Er zijn ondertussen wel al pogingen geweest om die racistische bias uit gezichtsherkenningssystemen te filteren, door de data beter te trainen. Dat trucje vraagt echter nog steeds een menselijke tussenkomst. Nu heeft het Massachussets Institute of Technology daar misschien iets op gevonden. Het MIT ontwikkelt namelijk een algoritme dat automatisch de bias uit de datasets filtert die bestemd zijn voor het trainen van gezichtsherkenningsalgoritmen.

 

De technologie zal misschien niet alle bias uit je algoritmen filteren, maar de resultaten zouden wel eens spraakmakend kunnen zijn. Bij het testen wist het MIT-systeem bias namelijk met 60 procent te reduceren zonder dat daarbij de precisie in het gedrang komt. Het belooft ook tijd te besparen, zeker voor grotere datasets die ook veel tijd in beslag nemen.

 

Het is niet de eerste keer dat er wordt gezocht naar een manier om algoritmen te ontdoen van bias en ze dus objectiever te maken. Eerder werkte ook de technologiegigant IBM aan een dergelijk systeem.

 

Reacties

comments powered by Disqus
 

RECENT NIEUWS