Google Cloud führt Deploy from Hugging Face für Large Language Models ein

Kategorien:
No items found.
Freigegeben:
June 14, 2024

In einer bedeutenden Ankündigung auf der Developer Keynote von Google Cloud wurde bekannt gegeben, dass der Model Garden demnächst eine neue Bereitstellungsoption "Deploy from Hugging Face" einführen wird. Diese Funktion ermöglicht es Entwicklern, mit Leichtigkeit auf hunderte der beliebtesten Large Language Models (LLMs) von Hugging Face zuzugreifen und diese mit getesteten Konfigurationen auf Vertex AI und Google Kubernetes Engine (GKE) zu implementieren.

Die Hugging Face-Plattform ist bekannt für ihre umfangreiche Bibliothek von vortrainierten Modellen, Skripten zur Feinabstimmung und Entwicklungs-APIs, die den Prozess des Erstellens und Erforschens von LLMs erheblich vereinfachen. Der Model Garden unterstützt alle von Hugging Face unterstützten Textgenerierungsinferenzmodelle, was den Entwicklern eine breite Palette von Möglichkeiten für ihre Projekte bietet.

Die neue Bereitstellungsoption wird es Entwicklern ermöglichen, aus einer Vielzahl von Modellen zu wählen, darunter solche mit detaillierten Modellkarten und verifizierten Bereitstellungseinstellungen, wie zum Beispiel google/gemma-7b-it, meta-llama/Llama-2-7b-chat-hf und mistralai/Mistral-7B-v0.1. Es gibt auch Modelle mit verifizierten Bereitstellungseinstellungen, jedoch ohne detaillierte Modellkarten, wie NousResearch/Genstruct-7B, sowie Modelle mit unverifizierten Bereitstellungseinstellungen, die automatisch berechnet wurden, wie ai4bharat/Airavata.

Die Integration von Hugging Face-Modellen in Vertex AI bietet eine verwaltete Plattform für das Erstellen und Skalieren von Machine-Learning-Projekten, auch ohne umfangreiche MLOps-Kenntnisse im eigenen Haus. Vertex AI ermöglicht die Nutzung von End-to-End-MLOps-Fähigkeiten, zusätzlichen ML-Features und einer serverlosen Erfahrung, die die Entwicklung vereinfacht.

Für Organisationen, die bereits in Kubernetes investiert haben, bietet die Option, Modelle in GKE zu implementieren, Skalierbarkeit, Sicherheit, Belastbarkeit und Kosteneffizienz. GKE ist die Lösung von Google Cloud für verwaltetes Kubernetes und empfiehlt sich, wenn granulare Kontrolle über komplexe KI/ML-Workloads mit einzigartigen Sicherheits-, Datenpipeline- und Ressourcenmanagementanforderungen erforderlich ist.

Diese Ankündigung ist ein weiteres Beispiel dafür, wie Google Cloud seine Dienste erweitert und dabei die Interoperabilität und Zugänglichkeit von fortschrittlichen KI-Technologien für Entwickler und Unternehmen priorisiert. Durch die Partnerschaft mit Hugging Face und die Integration in die eigenen Dienste wie Vertex AI und GKE zeigt Google Cloud, wie wichtig es ist, Entwicklern Tools an die Hand zu geben, die Innovationen vorantreiben und die Implementierung von KI-Anwendungen vereinfachen.

Die neue "Deploy from Hugging Face"-Option wird voraussichtlich die Art und Weise verändern, wie Entwickler Large Language Models nutzen und einsetzen, indem sie den Zugang zu einer breiteren Palette von Modellen und eine effizientere Bereitstellung ermöglicht. Dies könnte zu einer beschleunigten Entwicklung von KI-Anwendungen in einer Vielzahl von Branchen führen, von der Gesundheitsversorgung bis hin zu Finanzdienstleistungen und mehr.

Die Bereitstellung von LLMs durch Vertex AI und GKE unterstreicht die Bedeutung von Managed Services in der Welt des maschinellen Lernens. Sie ermöglicht es Unternehmen aller Größen, von der Leistungsfähigkeit der KI zu profitieren, ohne dabei auf die Komplexität der Modellverwaltung und -skalierung eingehen zu müssen.

Diese Entwicklung ist ein weiterer Schritt in Richtung einer engeren Zusammenarbeit zwischen führenden Technologieanbietern und Open-Source-Plattformen. Sie zeigt, wie das Ökosystem durch Partnerschaften gestärkt wird, die die Nutzerfreundlichkeit verbessern und den Zugang zu fortschrittlichen Technologien demokratisieren.

Die vollständige Integration von Hugging Face-Modellen in den Google Cloud-Service ist ein Zeichen dafür, dass das Unternehmen das Potenzial dieser Modelle erkennt und sich für ihre Zugänglichkeit und einfache Implementierung einsetzt. Für Entwickler und Unternehmen bedeutet dies eine neue Ära der KI-Nutzung, in der die Bereitstellung und Anpassung von KI-Modellen nahtloser und intuitiver denn je ist.

Quellen:
- Google Cloud Vertex AI Generative AI Dokumentation (Zuletzt aktualisiert: 2024-04-09 UTC)
- Hugging Face Text Generation Models Dokumentation
- Google Developers Site Policies
- Google Cloud Tech Twitter Ankündigung (6:34 PM · Apr 10, 2024)

Was bedeutet das?
No items found.