Google hat angekündigt, dass Entwickler nun die Google-Suche in die Gemini API integrieren können. Diese Funktion, genannt "Grounding with Google Search", ermöglicht es Gemini, auf aktuelle Suchergebnisse zuzugreifen und diese in Chat-Antworten zusammenzufassen, inklusive Quellenangaben zur Überprüfung. Google verspricht dadurch präzisere Antworten, eine Reduktion von KI-Halluzinationen und detailliertere LLM-Antworten.
Die Integration erfolgt über ein dynamisches Abrufsystem, das automatisch bestimmt, wann eine Suche die Antwortqualität verbessern würde. Entwickler können einen Schwellenwert (standardmäßig 0.3 auf einer Skala von 0-1) einstellen, der steuert, wann Suchanfragen ausgelöst werden. Dieser Ansatz ähnelt der kürzlich von OpenAI implementierten Suchfunktion in ChatGPT.
Google betont, dass die Funktion den Traffic auf die von Gemini zitierten Webseiten lenken soll. Dieser Anstieg dürfte jedoch im Vergleich zum traditionellen Suchverkehr minimal sein. App-Entwickler betreten mit der Paraphrasierung von Webseiten, die über die Google-Suche im Chat gefunden wurden, ähnlich wie Perplexity AI, rechtliches Neuland.
Die Suchintegration ist für alle öffentlich verfügbaren Versionen der Gemini 1.5 Modelle verfügbar. Entwickler können die Funktion kostenlos in Google AI Studio testen. Für die Nutzung in der API wird ein Preis von 35 US-Dollar pro 1.000 Suchanfragen berechnet.
Entwickler, die die Suchfunktion implementieren, müssen "Google Search Suggestions" in ihre Anwendungen einbinden. Dafür liefert die API die entsprechenden Suchanfragen in den Metadaten. Diese Vorschläge müssen in voller Breite unter den KI-Antworten erscheinen, sowohl im Hell- als auch im Dunkelmodus, genau wie von Google vorgegeben. Klicken Nutzer auf diese Vorschläge, müssen sie direkt zu den Google-Suchergebnissen weitergeleitet werden, entweder über einen In-App-Browser oder eine externe Browseranwendung. Dies ist Googles Weg, zusätzliche Suchanfragen und Einnahmen zu generieren und gleichzeitig seine LLM-Suchdienste zu skalieren.
Die Integration der Google-Suche in die Gemini API ist besonders nützlich für Anwendungen, die präzise, faktenbasierte Antworten benötigen und Halluzinationen minimieren wollen. Sie bietet auch die Möglichkeit, detailliertere und aktuellere Informationen bereitzustellen, da die Modelle auf Echtzeitdaten zugreifen können.
Die Einbindung von Quellenangaben erhöht die Transparenz und Vertrauenswürdigkeit der KI-Anwendungen. Durch die "Google Search Suggestions" wird Nutzern zudem ein direkter Weg zu weiteren Informationen geboten.
Entwickler sollten die Kosten für die Suchfunktion in ihre Budgetplanung einbeziehen. Die dynamische Abrufsteuerung und der einstellbare Schwellenwert bieten Möglichkeiten zur Kostenoptimierung. Es ist ratsam, verschiedene Schwellenwerte zu testen, um die optimale Balance zwischen Kosten und Antwortqualität zu finden.
Die rechtlichen Implikationen der Paraphrasierung von Webinhalten in LLM-Anwendungen sollten sorgfältig geprüft werden. Hier bewegt sich die Technologie in einem noch unregulierten Bereich.
Google positioniert die Suchintegration als einen wichtigen Schritt, um die Genauigkeit und Aktualität von KI-generierten Inhalten zu verbessern. Es bleibt abzuwarten, wie sich diese Entwicklung auf den Wettbewerb im Bereich der KI-Sprachmodelle und die Nutzung von Suchmaschinen auswirkt.
Bibliographie: - https://ai.google.dev/pricing - https://cloud.google.com/vertex-ai/generative-ai/pricing - https://developers.googleblog.com/en/gemini-api-and-ai-studio-now-offer-grounding-with-google-search/ - https://gemini.google/advanced/ - https://cloud.google.com/products/gemini/pricing - https://one.google.com/about/ai-premium/ - https://ai.google.dev/gemini-api/docs/api-key - https://blog.google/technology/ai/gemini-api-developers-cloud/ - https://github.com/google-gemini/cookbook - https://workspace.google.com/solutions/ai/