Die Einführung von Googles neuer AI Overview Funktion sollte ursprünglich die Suchergebnisse verbessern und den Nutzern eine effizientere Möglichkeit bieten, Informationen zu finden. Doch seit der Einführung dieser Funktion hat Google mit einer Reihe von problematischen Antworten Aufmerksamkeit erregt, die von bizarr bis gefährlich reichen. Diese Entwicklungen haben Fragen zur Zuverlässigkeit und Genauigkeit von KI-generierten Inhalten aufgeworfen.
Die Aufmerksamkeit konzentrierte sich besonders auf zwei Fälle, die viral gingen: Zum einen empfahl Googles AI Overview das Essen von Steinen, da dies angeblich gesund sei, und zum anderen schlug es vor, ungiftigen Kleber zu verwenden, um Pizzasauce zu verdicken. Diese Antworten lösten in den sozialen Medien einen Sturm der Entrüstung und Belustigung aus.
Liz Reid, Googles Leiterin der Suche, erklärte in einem Blogbeitrag, dass die KI ein satirisches Artikel von der Website "The Onion" als Fakt interpretiert habe, was zur Empfehlung des Stein-Essens führte. Die Empfehlung, Kleber zu verwenden, stammte aus einem scherzhaften Kommentar in einem alten Reddit-Thread. Reid betonte, dass diese Fehler auf die Nutzung von humorvollen oder trollhaften Inhalten aus Diskussionsforen zurückzuführen seien.
Reid räumte ein, dass diese Fehler auf Probleme hinweisen, die es zu lösen gilt. Sie erklärte, dass Google bereits mehr als ein Dutzend technischer Verbesserungen an der AI Overview Funktion vorgenommen habe. Diese umfassen:
Reid betonte, dass die Fehler oft das Ergebnis ungewöhnlicher oder provokativer Anfragen seien. Es sei schwierig, alle möglichen Anfragen vorherzusehen, besonders wenn Millionen von Nutzern das System gleichzeitig testen.
Die Fehler von Googles AI Overview haben eine breitere Diskussion über die Rolle von KI in Suchmaschinen ausgelöst. Kritiker argumentieren, dass die Technologie noch nicht ausgereift genug ist, um zuverlässig genaue Informationen zu liefern. Einige der Fehler, die viral gingen, wurden als Beispiele für die sogenannten "Halluzinationen" von KI-Modellen betrachtet, bei denen die KI überzeugend klingende, aber falsche Informationen generiert.
Googles Vorstoß in AI-gestützte Antworten ist Teil eines größeren Trends, bei dem Unternehmen wie OpenAI, Meta und andere ähnliche Technologien entwickeln. Diese Unternehmen haben ebenfalls mit Problemen der Genauigkeit und Zuverlässigkeit zu kämpfen. Die Tatsache, dass Google diese Technologie auf einer so großen Skala einsetzt, hat die Diskussion über die Risiken und Vorteile von KI weiter angeheizt.
Google plant, weiterhin Feedback von Nutzern zu sammeln und die AI Overview Funktion entsprechend anzupassen. Obwohl die bisherigen Fehler peinlich und teilweise gefährlich waren, bleibt Google optimistisch, dass die Technologie mit der Zeit verbessert werden kann. Für die Nutzer bedeutet dies jedoch, dass sie weiterhin wachsam bleiben und die Informationen, die sie online finden, kritisch hinterfragen müssen.
https://www.wired.com/story/google-ai-overview-search-issues/
https://www.theverge.com/2024/5/23/24162896/google-ai-overview-hallucinations-glue-in-pizza
https://ca.news.yahoo.com/google-defends-bizarre-answers-ai-164158609.html
https://nymag.com/intelligencer/article/why-ai-search-blew-up-in-googles-face.html
https://www.washingtonpost.com/politics/2024/05/29/google-ai-overview-wrong-answers-unfixable/
https://www.tomshardware.com/tech-industry/artificial-intelligence/cringe-worth-google-ai-overviews
https://www.xda-developers.com/google-ai-search-results-terrible/
https://futurism.com/the-byte/google-bizarre-ai-answers
https://www.rollingstone.com/culture/culture-news/google-ai-overview-conspiracy-theories-1235027634/
https://uk.news.yahoo.com/google-defends-bizarre-answers-ai-164158609.html