Google Cloud und Hugging Face erleichtern die KI-Implementierung mit neuer Deployment-Option

Kategorien:
No items found.
Freigegeben:
June 14, 2024

In einer bahnbrechenden Ankündigung auf der Developer Keynote hat Google Cloud kürzlich bekannt gegeben, dass der Model Garden bald eine neue Option zum „Deploy from Hugging Face“ bieten wird. Dies ermöglicht es, hunderte der beliebtesten Large Language Models (LLMs) von Hugging Face mit geprüften Konfigurationen auf Vertex AI und Google Kubernetes Engine (GKE) zu implementieren. Diese Entwicklung markiert einen signifikanten Fortschritt in der Bereitstellung und Skalierung von KI-Modellen und wird voraussichtlich sowohl die Effizienz als auch die Zugänglichkeit von Machine-Learning-Operationen (MLOps) erheblich verbessern.

Hugging Face ist in der KI-Community als eine führende Plattform für vortrainierte Modelle, Feinabstimmungsskripte und Entwicklungs-APIs bekannt. Diese Vereinbarung zwischen Google Cloud und Hugging Face vereinfacht nicht nur den Prozess der Erstellung und des Auffindens von LLMs, sondern ermöglicht auch eine nahtlose Integration dieser Modelle in bestehende und neue Anwendungsfälle.

Vertex AI, eine von Google Cloud angebotene, verwaltete Plattform, bietet eine umfassende MLOps-Funktionalität, die keine internen Expertise in diesem Bereich erfordert. Es ist ein Serverless-Angbot, das es Entwicklern und Unternehmen ermöglicht, Machine-Learning-Projekte effizient zu bauen und zu skalieren. Durch die Nutzung der neuen „Deploy from Hugging Face“-Option können Anwender jetzt auf eine breite Palette von LLMs zugreifen und diese mit bereits getesteten und verifizierten Einstellungen auf Vertex AI implementieren. Dies umfasst Modelle mit ausführlichen Modellkarten und verifizierten Einstellungen, wie zum Beispiel google/gemma-7b-it, meta-llama/Llama-2-7b-chat-hf und mistralai/Mistral-7B-v0.1.

Auf der anderen Seite steht Google Kubernetes Engine (GKE), die Lösung von Google Cloud für verwaltetes Kubernetes, die Skalierbarkeit, Sicherheit, Widerstandsfähigkeit und Kostenwirksamkeit bietet. GKE wird insbesondere für Organisationen empfohlen, die bereits in Kubernetes investiert haben, über interne MLOps-Kenntnisse verfügen oder eine granulare Kontrolle über komplexe KI-/ML-Workloads mit spezifischen Sicherheits-, Datenpipeline- und Ressourcenmanagement-Anforderungen benötigen.

Die Implementierung von Hugging Face-Modellen in GKE ist ebenfalls vereinfacht worden, wobei auch hier Modelle mit verifizierten Einstellungen ohne detaillierte Modellkarten, wie NousResearch/Genstruct-7B, unterstützt werden. Dies bietet Entwicklern und Unternehmen Flexibilität und Kontrolle über ihre KI-Implementierungen.

Diese Partnerschaft und Integration in Vertex AI und GKE repräsentiert einen großen Schritt nach vorne für die Anwendung von KI in der Industrie. Es wird erwartet, dass durch die Verfügbarkeit dieser vortrainierten Modelle die Barrieren für die Einführung von KI verringert werden und Entwickler sowie Unternehmen die Möglichkeit erhalten, schnell und effizient innovative Lösungen zu entwickeln.

Die Ankündigung unterstreicht auch das kontinuierliche Engagement von Google Cloud, eine offene Cloud-Umgebung zu fördern, die Multicloud-Strategien und globale Infrastrukturen unterstützt. Dies ist Teil der größeren Vision von Google Cloud, eine Vielzahl von Industrielösungen, DevOps-Lösungen und Ressourcen für kleine Unternehmen bereitzustellen.

Abschließend lässt sich feststellen, dass die neue „Deploy from Hugging Face“-Option in Model Garden, die bald auf Vertex AI und GKE verfügbar sein wird, ein vielversprechendes Tool für die Zukunft der KI-Anwendung darstellt. Es bietet eine einfache und effiziente Möglichkeit, leistungsstarke LLMs in einer Vielzahl von Anwendungen zu nutzen, und trägt damit zur Beschleunigung der digitalen Transformation bei.

Quellen:
- Google Cloud Vertex AI Generative AI Dokumentation
- Hugging Face Model Garden unterstützte Text-Generierungsmodelle
- Google Developers Site Policies
- Google Cloud Ankündigungen und Entwickler-Notizen

Was bedeutet das?