Googles KI-Suchfunktion Überblick und die Herausforderungen der Vertrauenswürdigkeit

Kategorien:
No items found.
Freigegeben:
September 2, 2024
Google und die Vertrauensprobleme mit den eigenen AI-Suchergebnissen

Google und die Vertrauensprobleme mit den eigenen AI-Suchergebnissen

Einführung

Die Einführung von AI in Suchmaschinen hat für viel Aufsehen gesorgt. Google, einer der Giganten in der Suchmaschinenbranche, hat kürzlich seine AI-gestützte Suchfunktion namens AI Overviews eingeführt. Doch anstatt den Suchprozess zu revolutionieren, hat diese Technologie unerwartete und oft problematische Ergebnisse geliefert.

Die Funktionsweise von AI Overviews

Um zu verstehen, warum AI-gestützte Suchmaschinen Fehler machen, müssen wir uns ansehen, wie sie optimiert wurden. AI Overviews verwendet ein neues generatives AI-Modell aus der Google Gemini-Familie großer Sprachmodelle (LLMs), das speziell für die Google-Suche angepasst wurde. Dieses Modell wurde in Googles zentrale Web-Ranking-Systeme integriert und soll relevante Ergebnisse aus dem Index von Websites herausziehen.

Die meisten LLMs sagen einfach das nächste Wort (oder Token) in einer Sequenz voraus, was sie fließend erscheinen lässt, sie aber auch anfällig dafür macht, Dinge zu erfinden. Ihnen fehlt eine „Ground Truth“, auf die sie sich stützen können; stattdessen wählen sie jedes Wort ausschließlich auf Basis einer statistischen Berechnung. Dies führt zu Halluzinationen.

Probleme und Herausforderungen

AI Overviews hat innerhalb weniger Tage nach seiner Veröffentlichung in den USA seltsame und oft gefährliche Antworten generiert. Beispielsweise wurde Nutzern empfohlen, Klebstoff auf Pizza zu geben oder kleine Steine zu essen. Diese Unzuverlässigkeit hat die Vertrauenswürdigkeit der Suchmaschine erheblich untergraben.

Ein Hauptproblem liegt in der Verwendung von Retrieval-Augmented Generation (RAG), einer Technik, die es einem LLM ermöglicht, spezifische Quellen außerhalb der Trainingsdaten zu überprüfen. Obwohl RAG dazu beitragen soll, Halluzinationen zu verhindern, ist es nicht fehlerfrei. Für eine gute Antwort muss ein LLM sowohl die Informationen korrekt abrufen als auch die Antwort korrekt generieren. Wenn einer oder beide Teile des Prozesses fehlschlagen, entsteht eine schlechte Antwort.

Konkrete Beispiele für Fehlfunktionen

Ein Beispiel für die Probleme mit AI Overviews ist die falsche Empfehlung, Klebstoff auf Pizza zu geben. Diese Antwort stammt wahrscheinlich aus einem Scherzbeitrag auf Reddit, der fälschlicherweise als relevant für die ursprüngliche Suchanfrage angesehen wurde. Ein weiteres Beispiel ist die falsche Angabe, dass der ehemalige US-Präsident Andrew Johnson zwischen 1947 und 2012 Universitätsabschlüsse erworben habe, obwohl er 1875 verstorben ist.

Ein weiteres beunruhigendes Beispiel ist die Antwort auf die Frage „Wie viele muslimische Präsidenten hatte die USA?“, bei der fälschlicherweise Barack Hussein Obama als Muslim bezeichnet wurde. Diese Antwort stammte aus einem akademischen Buchkapitel, das den Titel „Barack Hussein Obama: America’s First Muslim President?“ trug und missverstanden wurde.

Warum Google selbst Zweifel hat

Google hat bekannt gegeben, dass es die Nutzung seiner AI-Produkte für die US-Wahlen 2024 einschränkt. Dies zeigt, dass Google sich der Unzuverlässigkeit seiner AI-generierten Informationen bewusst ist. Die Beschränkungen betreffen AI-Zusammenfassungen in der Suche, YouTube-Live-Chats, Bildersuche und Gemini-Apps für wahlbezogene Inhalte.

Andere AI-Anbieter wie Microsoft, ChatGPT und Grok weigern sich ebenfalls, AI-generierte Antworten auf Wahlfragen zu geben und verweisen stattdessen auf offizielle Quellen.

Die Rolle von Kontext und Quellen

Ein weiteres Problem bei AI-gestützten Antworten ist der Verlust des Kontextes der Originalquelle. Dies kann dazu führen, dass Informationen manipuliert werden, selbst wenn die AI korrekt zitiert. Die Absicht eines Textes muss oft im ursprünglichen Kontext verstanden werden.

Ein Beispiel hierfür ist eine Anfrage an Perplexity zu einem bestimmten Studiengang, bei der ein sehr positives Zitat von einer bekannten Medienmarke enthalten war. Dieses Zitat stammte jedoch aus einer bezahlten Anzeige auf der Website der Medienmarke und wurde bei der Antwort der AI nicht als solche gekennzeichnet.

Verifikationsprobleme

Eine Strategie, die von Perplexity verfolgt wird, ist das Zitieren verlässlicher Quellen und die Ermutigung der Nutzer, Antworten anhand der bereitgestellten Referenzen zu überprüfen. Diese Strategie setzt jedoch voraus, dass Nutzer tatsächlich die Quellen überprüfen, was oft nicht der Fall ist.

Eine gründliche Überprüfung jeder AI-Antwort würde die Zeitersparnis, die durch die Nutzung eines AI-Assistenten erzielt wird, aufheben. Dieser Verifikationsprozess könnte leicht länger dauern als das direkte Durchsuchen einiger vertrauenswürdiger Nachrichtenwebsites.

Schlussfolgerung

Die Einführung von AI in Suchmaschinen hat sowohl Chancen als auch Herausforderungen mit sich gebracht. Während AI-Systeme das Potenzial haben, schnelle und präzise Antworten zu liefern, zeigen die aktuellen Probleme mit AI Overviews, dass noch viel Arbeit erforderlich ist, um ihre Zuverlässigkeit zu gewährleisten. Google und andere Anbieter müssen weiterhin daran arbeiten, die Balance zwischen Benutzerfreundlichkeit, Genauigkeit und verantwortungsbewusstem Einsatz zu finden. Die Herausforderung, kritisches Denken und Quellenverifikation zu fördern, ohne die Benutzerfreundlichkeit zu opfern, wird in Zukunft immer wichtiger werden.

Bibliografie

- https://www.technologyreview.com/2024/05/31/1093019/why-are-googles-ai-overviews-results-so-bad/ - https://www.kopp-online-marketing.com/google-ai-content - https://www.nytimes.com/2024/05/24/technology/google-ai-overview-search.html - https://www.reddit.com/r/google/comments/1d733cj/what_went-wrong-with-google-ai-overviews/ - https://azadvertising.co/why-ai-search-hasnt-replaced-google-search/ - https://antlerzz.com/blog/why-ai-search-engines-wont-replace-google/ - https://www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines/ - https://www.theverge.com/24111326/ai-search-perplexity-copilot-you-google-review - https://bgr.com/tech/theres-finally-an-ai-search-engine-that-doesnt-suck-but-most-people-will-never-use-it/
Was bedeutet das?