Googles KI-Tool Gemini und die Herausforderung politischer Korrektheit

Kategorien:
No items found.
Freigegeben:
June 14, 2024

In den letzten Tagen hat Google mit seinem künstlichen Intelligenz-Tool Gemini, einer Art Gegenstück zum viralen Chatbot ChatGPT, online für Furore gesorgt. Das Tool, das Fragen in Textform beantworten und Bilder auf Textanfragen generieren kann, erzeugte Bilder der Gründungsväter der USA, die einen schwarzen Mann einschlossen, was historisch nicht korrekt ist. Ebenso generierte es deutsche Soldaten aus dem Zweiten Weltkrieg, ebenfalls mit einem schwarzen Mann und einer asiatischen Frau dargestellt. Google entschuldigte sich und setzte das Tool vorübergehend aus, da es "nicht den Anforderungen entsprach".

Doch das Problem mit den übermäßig politisch korrekten Antworten endete nicht bei den Bildern. So antwortete Gemini auf die Frage, ob es schlimmer sei, wenn Elon Musk Memes postet, als dass Hitler Millionen von Menschen tötete, mit "es gibt keine richtige oder falsche Antwort". Auf die Frage, ob es in Ordnung wäre, die hochkarätige transsexuelle Frau Caitlin Jenner falsch zu geschlechtern, um eine nukleare Apokalypse zu vermeiden, antwortete das Tool, dass dies "niemals" akzeptabel wäre – eine Antwort, die Jenner selbst nicht teilte.

Diese Vorfälle verdeutlichen ein grundlegendes Problem: Der Versuch, Voreingenommenheit zu vermeiden, führte zu Ergebnissen, die so sehr bemüht waren, politisch korrekt zu sein, dass sie absurd wirkten. Die Gründe dafür liegen in den enormen Datenmengen, auf denen KI-Tools trainiert werden. Viele dieser Daten sind öffentlich verfügbar und enthalten vielfältige Verzerrungen. Historische Erzählungen tendieren dazu, Männer zu bevorzugen und die Rollen von Frauen auszulassen. Google versuchte also, diese menschlichen Voreingenommenheiten auszugleichen, indem es Gemini anwies, keine solchen Annahmen zu machen.

Das Problem ist jedoch, dass menschliche Geschichte und Kultur nicht so einfach sind – es gibt Nuancen, die wir instinktiv verstehen, Maschinen jedoch nicht. Es sei denn, man programmiert ein KI-Tool spezifisch darauf, zu wissen, dass beispielsweise Nazis und Gründungsväter nicht schwarz waren, wird es diese Unterscheidung nicht treffen.

Die Lösung für dieses Problem ist alles andere als leicht. Dr. Sasha Luccioni, eine Forschungswissenschaftlerin bei Huggingface, betont, dass es keine einfache Lösung gebe, weil es keine einzelne Antwort darauf gibt, wie die Ausgaben aussehen sollten. KI-Ethik-Experten arbeiten seit Jahren an möglichen Wegen, um dieses Problem anzugehen. Eine Möglichkeit könnte darin bestehen, die Nutzer um ihre Eingabe zu bitten, z.B. "Wie vielfältig möchten Sie Ihr Bild haben?", aber das bringt offensichtlich seine eigenen Probleme mit sich.

Professor Alan Woodward, ein Informatiker an der Universität Surrey, merkt an, dass das Problem wahrscheinlich tief in den Trainingsdaten und den überlagernden Algorithmen verankert ist und schwierig zu entwirren sein wird. Dies zeigt, warum es immer noch einen Menschen in der Schleife für jedes System geben muss, dessen Ausgabe als Wahrheit angesehen wird.

Googles leitender Vizepräsident, Prabhakar Raghavan, erwähnte, dass der Versuch, für diese Verzerrungen zu korrigieren, dazu geführt hat, dass das Modell in einigen Fällen überkompensierte und in anderen zu konservativ war, was zu peinlichen und falschen Bildern führte. Trotz des massiven Vorsprungs, den Google im KI-Rennen zu haben scheint – mit eigenen KI-Chips, einem eigenen Cloud-Netzwerk, Zugang zu riesigen Datenmengen, einer riesigen Nutzerbasis und weltklasse KI-Talenten – führen die Fehltritte von Gemini zu einem Szenario, das wie eine Niederlage anmutet, die aus den Klauen des Sieges gerissen wurde.

In der Zwischenzeit sucht die gesamte Technologiebranche nach Lösungen für das gleiche Problem. Es scheint, als ob Google auf eine eher plumpe Weise versucht hat, alte Vorurteile zu korrigieren, und dabei unbeabsichtigt eine ganze Reihe neuer geschaffen hat. KI kann in Bürooperationen an Bedeutung gewinnen und sogar eine Vier-Tage-Arbeitswoche zur Norm machen, aber die Herausforderung, die mit der Ausbildung von KI-Systemen einhergeht, die nicht "zu wach" sind, bleibt bestehen. Es bleibt abzuwarten, wie Google und andere große Tech-Unternehmen in Zukunft mit dieser Herausforderung umgehen werden.

Quellen:
BBC News: https://www.bbc.com/news/technology-68412620
Twitter BBC News: https://twitter.com/BBCNews/status/1762631029351677983
Newsbreak: https://www.newsbreak.com/news/3348799726910-why-google-s-woke-ai-problem-won-t-be-an-easy-fix
Business Insider: https://www.businessinsider.in/tech/news/google-has-another-woke-ai-problem-with-gemini-and-its-going-to-be-hard-to-fix/articleshow/108022596.cms

Was bedeutet das?
No items found.