Google erkent een misstap te hebben gemaakt met zijn AI-beeldgeneratiefunctie Gemini en is actief bezig met verbeteringen. Deze toezegging kwam na feedback van gebruikers die onnauwkeurigheden opmerkten in de gegenereerde beelden.
Op hun officiële blog heeft Google uitgelegd hoe ze werken aan het verfijnen van hun technologie om een breed scala aan mensen weer te geven, vooral bij open vragen. “Als je om een afbeelding vraagt van voetballers of iemand die een hond uitlaat, verwacht je een verscheidenheid aan mensen te zien,” zei Prabhakar Raghavan van Google. “Ons doel is om niet enkel beelden van één specifieke etniciteit te tonen.”
Het is duidelijk dat Google zich inzet voor het verminderen van AI-vooringenomenheid en het waarborgen van culturele nauwkeurigheid binnen historische contexten. Dit nieuws markeert een belangrijke stap in de richting van een inclusievere en nauwkeurigere weergave van diversiteit in AI-technologieën. De techgigant belooft beter te doen en werkt aan het realiseren van deze belofte door middel van voortdurende aanpassingen en updates aan zijn AI-systemen.
Wat is dat nou voor persbericht achtige tekst in die laatste alinea? Drek die niet zegt wat het probleem was (dat moeten we uit de plaatjes halen?): welke omschrijving of opdracht ook maar aan de Google AI werd gegeven, er kwam altijd een persoon met een stevige kleur uit. “Happy Scandinavian Family” en je krijgt Ghanezen in een fjord. De opdracht “white family” gaf geen afbeelding, maar een belerene tekst over het belang van diversiteit. De soort woordendrek als de laatste alinea.
Slechts 9 op de 100 mensen van de wereldbevolking is blank.
En 100 op de 100 SS’ers was geen midden Afrikaanse, zwarte man. Dat was dus wél de uitkomst van Google AI zoals je op het laatste plaatje ziet.
Omgekeerd gaat het je niet lukken om een witte Zulustrijder te laten genereren, dat was correct ingebouwd. De tekst benoemt de ‘Bias-blooper’ van de titel niet.
O ja, en de helft van de wereldbevolking is vrouw.