Google Gemini und die Herausforderung ethnischer Diversität in KI-generierten Bildern

Kategorien:
No items found.
Freigegeben:
June 14, 2024

Google Gemini, das KI-Tool von Google, das sich unter anderem mit der Generierung von Bildern beschäftigt, steht aktuell im Zentrum einer Debatte um Diversität und Repräsentation. Nachdem Nutzer festgestellt hatten, dass das Tool Schwierigkeiten damit hatte, Bilder von weißen Personen zu erzeugen, und bei historischen Abbildungen zu einer übermäßigen Diversität neigte, hat Google die Funktion zur Generierung von Menschenbildern vorübergehend deaktiviert.

Vor kurzem wurde das KI-Tool von Google mit der Fähigkeit ausgestattet, auf Anfrage Bilder zu generieren. Bei der Aufforderung, Bilder von Menschen zu erstellen, sollte die KI ein Spektrum verschiedener Ethnien und Hautfarben abbilden, um die globale Nutzerschaft von Google zu reflektieren. Dieses Vorgehen stieß jedoch auf Kritik, nachdem Nutzer bemerkten, dass bestimmte Prompts, wie zum Beispiel "starker weißer Mann", keine Ergebnisse lieferten, während die Eingabe von "starker schwarzer Mann" zu einer Generierung von Bildern führte.

Neben der Problematik mit der Darstellung von Hautfarben, gab es auch Kritik an der Generierung historischer Bilder. So zeigte die KI beispielsweise asiatisch aussehende Frauen in Uniformen, die an die deutsche Wehrmacht erinnerten, oder einen schwarzen Wikinger mit Dreadlocks bei Eingabe von Prompts, die historisch weiße europäische Figuren beschreiben sollten. Dies führte zu einer Debatte darüber, ob die KI zu "woke" sei und ob die Diversität in historischen Kontexten übertrieben dargestellt wurde.

Google räumte ein, dass die KI bei der Generierung historischer Bilder Ungenauigkeiten aufweise und arbeitet nun an einer Lösung. Das Unternehmen betonte, dass es grundsätzlich wichtig sei, dass die Bilderzeugungsfunktionen die globale Nutzerbasis widerspiegeln und Themen wie Repräsentation und Bias ernst genommen werden. Dennoch sei in diesem Fall das Ziel verfehlt worden.

Die Debatte zeigt die Schwierigkeiten auf, mit denen KI-Entwickler konfrontiert sind, wenn es darum geht, eine angemessene Repräsentation von Diversität zu erreichen, ohne dabei ins Extreme zu kippen oder ungerechtfertigte Vorurteile zu schaffen. KI-Modelle spiegeln oft die Daten wider, mit denen sie trainiert wurden – und diese Daten sind nicht immer vollständig oder ausgewogen.

Es ist wichtig zu betonen, dass KI-generierte Bilder nie die Realität wiedergeben und immer eine Interpretation der zugrunde liegenden Algorithmen und Trainingsdaten sind. Auch wenn KI-Tools wie Google Gemini beeindruckende Fähigkeiten haben, so stoßen sie doch an ihre Grenzen, wenn es um die Darstellung komplexer menschlicher Eigenschaften und historischer Genauigkeit geht.

Google hat die Probleme mit dem Bildgenerator von Gemini erkannt und arbeitet an Verbesserungen. Bis zu einer Lösung bleibt die Funktion zur Generierung von Menschenbildern deaktiviert. Diese Situation verdeutlicht, dass die Entwicklung von KI-Tools ein fortlaufender Prozess ist, bei dem ständig Feedback und Kritik aus der Nutzerschaft benötigt werden, um die Algorithmen zu verbessern und sie für alle Nutzer fair und repräsentativ zu gestalten.

Quellen:

- Onlinehändler-News. (2024, Februar 22). Google KI Gemini: Kritik führt zur vorläufigen Deaktivierung der Bilderzeugung von Menschen.
- Der Spiegel. (2024, Februar 22). Google Gemini Bildgenerator darf vorerst keine Bilder von Menschen mehr erstellen.
- BR24. (2024, Februar 22). Debatte um Google Gemini: Wie "woke" ist die KI?
- Freilich Magazin. (2024, Februar). Rassismus? Google KI Gemini generiert keine Bilder von weißen Menschen.

Was bedeutet das?
No items found.