Gemini genereert tijdelijk geen plaatjes meer van mensen: resultaat te divers
In een poging om Gemini diverser te maken, lijkt Google iets doorgeschoten te zijn. Google pauzeert daarom de mogelijkheid om plaatjes van mensen te genereren.
Wie Google Gemini vroeg om een afbeelding van een mens, kreeg in het resultaat standaard mensen met verschillende huidskleuren te zien. Dat lijkt een goede zaak, behalve dat het AI-model op deze manier ook historische figuren afbeeldde.
Vroeg je bijvoorbeeld om plaatjes van een Duitse soldaat uit 1943, dan kon je een afbeelding van een Aziatische vrouw of een zwarte man in uniform krijgen. Vroeg je om Amerikaanse senatoren uit de 19de eeuw, dan kon je ook afbeeldingen van een zwarte of inheemse vrouw krijgen. Dat weerspiegelt niet de realiteit.
"De AI-beeldgeneratie van Gemini genereert een breed scala aan mensen", zegt Google in een statement op X. "Dat is over het algemeen een goede zaak, omdat mensen over de hele wereld het gebruiken. In dit geval slaat het de plank mis." Google zegt binnenkort met een update te komen.
Bekend probleem
Diversiteit is een bekend probleem bij beeldgeneratie. Zeker in de vroege versies van deze technologie kreeg je standaard een plaatje van een witte man als je in een prompt om een man vroeg. Je moest specifiek een andere huidskleur benoemen om dat in de afbeelding terug te zien.
Dat heeft allemaal te maken met de data waarmee deze technologie wordt getraind. Bestaat de dataset voornamelijk uit afbeeldingen van witte mensen, dan zal de AI voornamelijk plaatjes van witte mensen genereren.
Leer meer over kunstmatige intelligentie, of blijf op de hoogte via de gratis Bright Nieuwsbrief.