Herausforderungen und Grenzen der KI-basierten Suchtechnologien bei Google

Kategorien:
No items found.
Freigegeben:
June 14, 2024

Googles KI-Suche: Warum Sie oft daneben liegt

Einleitung


Die Integration von künstlicher Intelligenz (KI) in Suchmaschinen ist eine der bedeutendsten technologischen Entwicklungen der letzten Jahre. Insbesondere Google hat sich in diesem Bereich hervorgetan. Doch trotz der enormen Fortschritte und Investitionen kommt es immer wieder zu fehlerhaften und teils gefährlichen Antworten. Warum passiert das, und was kann dagegen unternommen werden?


Grundlagen der KI-gestützten Suche


Um zu verstehen, warum KI-gestützte Suchmaschinen Fehler machen, ist es wichtig, ihre Funktionsweise zu kennen. Google verwendet für seine AI Overviews ein neues generatives KI-Modell aus der Familie großer Sprachmodelle (LLMs). Diese Modelle sind darauf trainiert, relevante Ergebnisse aus einem riesigen Index von Websites herauszuziehen. Dabei nutzen sie Techniken wie die Retrieval-Augmented Generation (RAG), um bestimmte Quellen außerhalb ihrer Trainingsdaten zu überprüfen.


Funktionsweise der AI Overviews


Die meisten LLMs sagen das nächste Wort in einer Sequenz voraus, was sie zwar sprachkompetent erscheinen lässt, aber auch anfällig für Fehler macht – das sogenannte Halluzinieren. RAG soll diese Schwäche überwinden, indem es dem LLM ermöglicht, Informationen aus externen Quellen abzurufen und zu verifizieren. Sobald ein Benutzer eine Anfrage eingibt, wird diese mit den Dokumenten im System verglichen, und eine Antwort wird generiert. Trotz dieser fortschrittlichen Technik sind Fehler nicht ausgeschlossen.


Gründe für fehlerhafte Antworten

Fehlende Datenqualität


Ein häufiger Grund für fehlerhafte Antworten ist die mangelnde Qualität der abgerufenen Informationen. Wenn das Internet keine hochwertigen Informationen zu einer Anfrage bietet, greift das System oft auf satirische oder humoristische Beiträge zurück, die nicht als solche erkannt werden.


Kombination widersprüchlicher Informationen


Ein weiteres Problem tritt auf, wenn das System auf widersprüchliche Informationen stößt und diese kombiniert. Dies kann zu irreführenden Antworten führen, die weder korrekt noch hilfreich sind.


Fehlinterpretationen


Nicht zuletzt können auch Fehlinterpretationen von sachlich korrekten Quellen zu falschen Antworten führen. Ein Beispiel hierfür ist die falsche Behauptung, dass Barack Obama ein muslimischer Präsident sei, basierend auf einem missverstandenen wissenschaftlichen Artikel.


Praktische Beispiele für fehlerhafte Antworten

Gefährliche Ratschläge


Ein besonders bekanntes Beispiel ist die Empfehlung, Kleber auf eine Pizza zu geben, um den Käse festzuhalten. Diese Antwort basierte auf einem scherzhaften Beitrag auf Reddit, der vom System nicht als solcher erkannt wurde.


Medizinische Fehlinformationen


Besonders kritisch sind falsche medizinische Ratschläge. So empfahl die KI beispielsweise, dass es sicher sei, einen Hund in einem heißen Auto zu lassen, was auf einen Parodie-Song auf YouTube zurückzuführen ist.


Falsche historische Informationen


Ein weiteres Beispiel ist die Behauptung, der ehemalige US-Präsident Andrew Johnson habe 1947 und 2012 Universitätsabschlüsse erworben, obwohl er bereits 1875 gestorben ist.


Maßnahmen zur Fehlervermeidung

Technische Verbesserungen


Google hat bereits technische Verbesserungen angekündigt, um die Wahrscheinlichkeit fehlerhafter Antworten zu verringern. Dazu gehört die Einschränkung der Aufnahme von satirischen, humoristischen und nutzergenerierten Inhalten.


Hinweise und Warnungen


Zudem plant Google, Hinweise bei bestimmten Anfragen einzufügen, die darauf hinweisen, dass die AI Overviews möglicherweise nicht hilfreich sind. Dies gilt besonders für den Gesundheitsbereich.


Verstärkungslernen aus menschlichem Feedback


Techniken wie das Verstärkungslernen aus menschlichem Feedback (RLHF) können ebenfalls dazu beitragen, die Qualität der Antworten zu verbessern. Dabei werden Rückmeldungen von Nutzern in das Training des LLMs einbezogen.


Fazit


KI-gestützte Suchmaschinen wie Google haben das Potenzial, unsere Art der Informationssuche grundlegend zu verändern. Doch trotz aller Fortschritte sind diese Systeme nicht unfehlbar. Fehlerhafte Antworten können gefährlich sein und das Vertrauen der Nutzer erschüttern. Es bedarf kontinuierlicher Verbesserungen und einer kritischen Auseinandersetzung mit den Schwächen dieser Technologie, um ihre Zuverlässigkeit zu erhöhen.


Quellen


- https://t3n.de/news/voelliger-unfug-statt-hilfreicher-antwort-darum-liegt-googles-ki-suche-so-oft-daneben-1628837/
- https://www.finanznachrichten.de/nachrichten-2024-06/62435789-voelliger-unfug-statt-hilfreicher-antwort-darum-liegt-googles-ki-suche-so-oft-daneben-397.htm
- https://www.tagesschau.de/wirtschaft/google-ki-suche-fehlerhaft-100.html
- https://www.finanznachrichten.de/nachrichten/uebersicht.htm
- https://www.watson.ch/digital/google/246434058-google-ki-suche-liefert-unfassbar-peinliche-antworten-12-beispiele
- https://t3n.de/sitemap_articles.xml
- https://dokumen.pub/handbuch-knstliche-intelligenz-und-die-knste-9783110655605-9783110656978-9783110657753.html
- https://www.bgmpodcast.de/tag/nachteile-bgm/
- https://www.nomos-elibrary.de/10.5771/9783748937616.pdf?download_full_pdf=1&page=113
- https://library.oapen.org/bitstream/20.500.12657/57941/1/978-3-658-38857-7.pdf

Was bedeutet das?
No items found.