Meta und AWS erweitern KI-Horizonte mit Llama 3.1 Modellen auf Amazon Web Services

Kategorien:
No items found.
Freigegeben:
July 26, 2024

Meta's Llama 3.1 Modelle jetzt auf AWS verfügbar

Meta und AWS: Eine neue Ära der Künstlichen Intelligenz

Meta, das Technologieunternehmen, das für seine fortschrittlichen Sprachmodelle bekannt ist, hat seine neuesten Llama 3.1 Modelle auf Amazon Web Services (AWS) verfügbar gemacht. Diese Modelle sind über Amazon Bedrock und Amazon SageMaker JumpStart zugänglich und bieten Entwicklern, Forschern und Unternehmen eine Vielzahl neuer Möglichkeiten zur Entwicklung und Skalierung generativer KI-Anwendungen.

Die Llama 3.1 Modelle im Überblick

Die Llama 3.1 Modelle von Meta sind in drei verschiedenen Größen erhältlich: 8B, 70B und 405B. Diese Modelle wurden umfangreich vortrainiert und feinabgestimmt, um eine breite Palette von Anwendungsfällen zu unterstützen. Dazu gehören Textzusammenfassungen, Textklassifikationen, Sentimentanalysen, Sprachübersetzungen und die Generierung von Code.

Llama 3.1 405B

- Ideal für Unternehmensebene und Forschung und Entwicklung (F&E) - Anwendungsfälle: Langform-Textgenerierung, mehrsprachige und maschinelle Übersetzungen, Codierung, Werkzeugnutzung, verbesserte Kontextverständnis und fortgeschrittene Entscheidungsfindung

Llama 3.1 70B

- Ideal für Inhaltserstellung, konversationelle KI, Sprachverständnis und F&E - Anwendungsfälle: Textzusammenfassungen, Textklassifikationen, Sentimentanalysen und nuanciertes Denken, Sprachmodellierung, Codegenerierung und Befolgen von Anweisungen

Llama 3.1 8B

- Ideal für begrenzte Rechenleistung und Ressourcen sowie mobile Geräte - Schnellere Trainingszeiten - Anwendungsfälle: Textzusammenfassungen und -klassifikationen, Sentimentanalysen und Sprachübersetzungen

Verbesserte Funktionen und Leistung

Die neuen Llama 3.1 Modelle zeigen erhebliche Verbesserungen gegenüber früheren Versionen. Sie unterstützen eine Kontextlänge von 128K Tokens, was eine Erhöhung um 120K Tokens gegenüber Llama 3 darstellt. Dies bedeutet eine 16-fache Kapazität der Llama 3 Modelle und verbessertes logisches Denken für mehrsprachige Dialoganwendungen in acht Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai. Weitere Verbesserungen umfassen ein verbessertes Verständnis sprachlicher Nuancen, was bedeutet, dass Llama 3.1 ein besseres Kontextverständnis zeigt und Komplexitäten effektiver handhaben kann. Die Modelle können auch mehr Informationen aus längeren Textpassagen abrufen, um fundiertere Entscheidungen zu treffen und reichhaltigere Kontextdaten zu nutzen, um subtilere und raffiniertere Antworten zu generieren.

Partnerschaft zwischen Meta und AWS

„Wir haben eine langjährige Beziehung mit Meta und freuen uns, ihre fortschrittlichsten Modelle heute AWS-Kunden zur Verfügung zu stellen“, sagte Matt Garman, CEO von AWS. „Kunden lieben die Möglichkeit, Llama-Modelle spezifisch für ihre individuellen Anwendungsfälle anzupassen und zu optimieren. Mit Llama 3.1, das jetzt auf AWS verfügbar ist, haben Kunden Zugang zu den neuesten, hochmodernen Modellen, um KI-Anwendungen verantwortungsbewusst zu entwickeln.“ Mark Zuckerberg, Gründer und CEO von Meta, fügte hinzu: „Open Source ist der Schlüssel, um die Vorteile der KI für alle zugänglich zu machen. Wir haben mit AWS zusammengearbeitet, um die gesamte Llama 3.1-Modellreihe in Amazon SageMaker JumpStart und Amazon Bedrock zu integrieren, damit Entwickler die umfassenden Fähigkeiten von AWS nutzen können, um großartige Dinge zu bauen, wie z. B. anspruchsvolle Agenten, die komplexe Aufgaben bewältigen können.“

Einfache Nutzung und Integration

Amazon Bedrock bietet Zehntausenden von Kunden sicheren und einfachen Zugang zur größten Auswahl an leistungsstarken, vollständig verwalteten Sprachmodellen (LLMs) und anderen Grundmodellen sowie führenden Benutzerfreundlichkeitsfunktionen. Kunden, die Llama 3.1 Modelle nutzen und alle Sicherheits- und Funktionsmerkmale von AWS nutzen möchten, können dies in Amazon Bedrock mit einer einfachen API tun, ohne dass eine Verwaltung der zugrunde liegenden Infrastruktur erforderlich ist. Amazon SageMaker ist der beste Ort für Datenwissenschaftler und ML-Ingenieure, um FMs vorzutrainen, zu bewerten und mit fortgeschrittenen Techniken feinabzustimmen sowie FMs mit feingranularen Kontrollen für generative KI-Anwendungsfälle bereitzustellen, die strenge Anforderungen an Genauigkeit, Latenz und Kosten haben. Heute können Kunden alle Llama 3.1 Modelle mit nur wenigen Klicks über Amazon SageMaker JumpStart entdecken und bereitstellen. Mit der bald verfügbaren Feinabstimmung können Datenwissenschaftler und ML-Ingenieure den Aufbau mit Llama 3.1 einen Schritt weiterführen, indem sie beispielsweise Llama 3.1 auf ihren spezifischen Datensätzen in nur wenigen Stunden anpassen.

Kundenberichte und Anwendungsfälle

Nomura, eine globale Finanzdienstleistungsgruppe, die 30 Länder und Regionen umfasst, verwendet Llama-Modelle in Amazon Bedrock, um die Analyse dichter Branchendokumente zu vereinfachen und relevante Geschäftsinformationen zu extrahieren. Dies ermöglicht es den Mitarbeitern, mehr Zeit mit dem Ziehen von Erkenntnissen und dem Ableiten von Schlüsselinformationen aus Datenquellen wie Protokolldateien, Marktkommentaren oder Rohdokumenten zu verbringen. TaskUs, ein führender Anbieter von ausgelagerten digitalen Dienstleistungen und Kundenerfahrungen, verwendet Llama-Modelle in Amazon Bedrock, um TaskGPT zu betreiben, eine proprietäre generative KI-Plattform, auf der TaskUs intelligente Tools entwickelt, die Teile des Kundenserviceprozesses über verschiedene Kanäle hinweg automatisieren. Dies ermöglicht es den Teammitgliedern, sich komplexeren Problemen zu widmen und insgesamt bessere Kundenerfahrungen zu liefern.

Fazit

Die Verfügbarkeit der Llama 3.1 Modelle von Meta auf AWS markiert einen bedeutenden Fortschritt in der Welt der generativen KI. Mit verbesserten Fähigkeiten und einer breiten Palette von Anwendungsfällen bieten diese Modelle Entwicklern und Unternehmen neue Möglichkeiten, innovative Lösungen zu entwickeln und zu skalieren. AWS und Meta setzen weiterhin auf Zusammenarbeit und Innovation, um die Zukunft der KI zu gestalten.

Bibliografie

https://aws.amazon.com/de/bedrock/llama/ https://www.aboutamazon.com/news/aws/meta-llama-3-1-models-AWS-generative-ai https://aws.amazon.com/about-aws/whats-new/2024/07/meta-llama-3-1-generative-ai-models-amazon-sagemaker-jumpstart/ https://twitter.com/awscloud/status/1816130016192635068 https://ai.meta.com/blog/meta-llama-3/ https://www.linkedin.com/posts/amazon-web-services_aws-meta-llama-3-now-available-in-amazon-activity-7188502959842840576-DNuq https://web.swipeinsight.app/posts/meta-s-llama-3-models-are-now-available-in-amazon-bedrock-4633 https://www.youtube.com/watch?v=cTyXDhiltXw
Was bedeutet das?