Google Gemini und die Herausforderung historisch korrekter KI-Bildgenerierung

Kategorien:
No items found.
Freigegeben:
June 14, 2024

In den letzten Wochen hat Google entschieden, seine KI-Software Gemini vorübergehend keine Bilder von Menschen mehr generieren zu lassen. Dieser Schritt erfolgte nachdem Nutzer aufgefallen war, dass die Software in bestimmten historischen Kontexten unpassende Bilder erzeugte, wie zum Beispiel nicht-weiße Nazi-Soldaten.

Google räumte ein, dass in einigen Fällen die Darstellungen von Gemini nicht dem historischen Kontext entsprachen und dass die Software in ihrer aktuellen Form übers Ziel hinausgeschossen sei. Diversität bei der Erzeugung von KI-Bildern sei grundsätzlich eine gute Sache, da Menschen aus aller Welt die Software nutzen. In diesem speziellen Fall waren die Ergebnisse jedoch nicht angemessen.

Gemini hatte vor drei Wochen eine neue Funktion zum Erzeugen von Bildern aus Textvorgaben erhalten, die sich jedoch als problematisch erwies. Google erklärte, man habe es versäumt, Ausnahmen für die Fälle zu programmieren, in denen Diversität definitiv nicht angebracht wäre. Die dadurch erzeugten Bilder seien als "peinlich und falsch" eingestuft worden.

Diese Vorfälle zeigen, dass Künstliche Intelligenz (KI) und maschinelles Lernen in vielerlei Hinsicht noch in den Kinderschuhen stecken. Während KI enorme Fortschritte gemacht hat und in der Lage ist, komplexe Aufgaben zu übernehmen, gibt es immer noch Herausforderungen, insbesondere im Hinblick auf ethische Fragen und den Umgang mit sensiblen historischen Themen.

Probleme wie die von Google Gemini erzeugten unangemessenen Bilder sind nicht neu in der Welt der KI. Schon in der Vergangenheit gab es Fälle, in denen KI-Systeme Vorurteile aufwiesen, die in den Trainingsdaten vorhanden waren. Beispielsweise war Software zur Gesichtserkennung zunächst schlechter darin, Menschen mit dunkler Hautfarbe zu identifizieren. Bei der Erzeugung von Bildern durch KI wurden anfänglich häufig weiße Menschen abgebildet.

Entwickler bei Google und anderen Unternehmen arbeiten daran, solche Probleme zu beheben und mehr Diversität in verschiedenen Szenarien zu gewährleisten. Dabei müssen sie darauf achten, eine Balance zwischen der Vermeidung von Diskriminierung und der angemessenen Darstellung von historischen Fakten zu finden.

Google-Manager Prabhakar Raghavan betonte, dass Software mit Künstlicher Intelligenz auch weiterhin manchmal Fehler machen werde. Er versprach jedoch, dass Google bei Problemen schnell eingreifen werde. Die Einstellung der Bildgenerierung von Menschen durch Gemini soll nur vorübergehend sein. Google arbeitet daran, die Software zu verbessern, damit sie in Zukunft realistischere und kontextgerechte Bilder erzeugen kann.

Quellen:
- dpa (2024). Googles KI generiert keine Bilder von Personen mehr. Süddeutsche Zeitung.
- Bockhöfer, H., & Gmorczyński, L.-M. (2024). Google stoppt absurden KI-Roboter mit "diversen" Nazis und Wikingern. Bild.de.
- Weidemann, A. (2024). Der schwarze Wehrmachtssoldat. Frankfurter Allgemeine Zeitung.

Was bedeutet das?