Zelfrijdende auto herkent kinderen en mensen met donkere huidskleur minder goed
Uit een onderzoek van King's College in Londen blijkt dat zelfrijdende auto's moeite hebben om kinderen en mensen met een donkere huidskleur te herkennen.
Uit het onderzoek bleek dat de software voor zelfrijdende auto's gemiddeld 7,52 procent minder accuraat was bij het herkennen van mensen met een donkere huidskleur, tegenover mensen met een lichte huidskleur. De cijfers zijn nog slechter in situaties met verminderd zicht.
Een nog groter verschil was merkbaar als kinderen gedetecteerd moesten worden. De software was in dat geval 19,67 procent minder accuraat. Op vlak van gender was het verschil dan weer verwaarloosbaar, met een verschil van 1,1 procent.
Vertrouwelijke informatie
De wetenschappers gebruikten een dataset van 8.311 afbeeldingen, waarop duizenden personen werden afgebeeld. Zij testten met die data acht verschillende AI-gestuurde voetgangersdetectoren.
Daarbij moet vermeld worden dat het niet gaat om de systemen die gebruikt worden door automerken, omdat die hun data liefst niet publiceren. Maar volgens Lie Zhang, een van de auteurs van de studie die met New Scientist sprak, zitten de modellen die hijzelf en zijn team gebruikten er waarschijnlijk niet ver naast.
"Het is hun vertrouwelijke informatie en ze staan niet toe dat andere mensen weten welke modellen ze gebruiken, maar wat we weten is dat ze meestal voortbouwen op de bestaande open-source modellen", aldus Zhang. "We kunnen er zeker van zijn dat hun modellen ook soortgelijke problemen hebben."
AI discrimineert vaker
Niet enkel AI-systemen die in zelfrijdende auto’s worden gebruikt, hebben moeite met donkere gezichten. In de Verenigde Staten gebruiken steeds meer politieafdelingen de technologie om verdachten op te sporen. Maar de AI maakt nog vaak fouten en voornamelijk zwarte Amerikanen zijn daar de dupe van.
Ook uit een onderzoek dat in het vakblad Government Information Quarterly is gepubliceerd, blijkt dat AI-opsporingssystemen vooral een impact hebben op zwarte mensen. Dat komt omdat databanken die gebruikt worden om de technologie te trainen, vooral witte gezichten bevatten. Wanneer zwarte gezichten wel voorkomen, is dat bovendien vaker een mugshot, een foto van een gearresteerde crimineel, waardoor de AI zwarte gezichten sneller als crimineel zal markeren.