Beschleunigung KI-Entwicklung durch AMD und Hugging Face Partnerschaft

Kategorien:
No items found.
Freigegeben:
June 14, 2024

Artikel jetzt als Podcast anhören

Im Zuge der stetigen Weiterentwicklung von Künstlicher Intelligenz (KI) und maschinellem Lernen (ML) suchen Unternehmen und Entwickler nach Möglichkeiten, ihre Modelle schneller und effizienter zu trainieren und einzusetzen. In dieser Hinsicht ist die kürzlich bekanntgegebene Partnerschaft zwischen AMD und Hugging Face ein bedeutender Schritt nach vorne. Die Kollaboration zielt darauf ab, maschinelles Lernen zu beschleunigen und die besten Modelle für alle Entwickler zugänglich zu machen.

Die Zusammenarbeit wurde erstmals auf AMDs Data Center und AI Technology Premiere in San Francisco vorgestellt, wo Hugging Face CEO Clement Delangue eine Keynote hielt. AMD, ein führendes Technologieunternehmen, das für seine Prozessoren und Grafikkarten bekannt ist, hat sich Hugging Faces Hardware-Partnerprogramm angeschlossen, um die Leistungsfähigkeit von Transformer-Modellen auf AMD CPUs und GPUs zu optimieren.

Transformer, eine Art von Modellarchitektur, die in den Bereichen Sprachverarbeitung, Computer Vision und Audioverarbeitung eingesetzt wird, erfordern aufgrund ihrer Komplexität erhebliche Rechenleistung. Die Partnerschaft verspricht, die Leistungsfähigkeit der AMD-Plattformen für das Training und die Inferenz dieser Modelle zu nutzen und somit neue Standards im Preis-Leistungs-Verhältnis zu setzen.

An der GPU-Front konzentriert sich die Zusammenarbeit zunächst auf die Instinct MI2xx und MI3xx Serien für Unternehmenskunden und später auf die Radeon Navi3x Serie für Endverbraucher. Laut AMD-Berichten liefert die MI250 GPU beim Training von BERT-Large und GPT2-Large Modellen eine um 1,2x bzw. 1,4x schnellere Leistung als die direkte Konkurrenz. Bei den CPUs konzentriert sich die Zusammenarbeit auf die Optimierung der Inferenz für Ryzen und EPYC CPUs.

Darüber hinaus umfasst die Partnerschaft den Alveo V70 AI-Beschleuniger, der beeindruckende Leistungen bei niedrigerem Energiebedarf bietet. Dieser Schritt könnte die Auswahl an Hardware für Deep Learning erweitern und die Probleme hinsichtlich Preisen und Verfügbarkeit in diesem Marktsegment abmildern.

Hugging Face plant, eine breite Palette von Transformer-Architekturen für verschiedene Anwendungen zu unterstützen, darunter BERT, DistilBERT, ROBERTA, Vision Transformer, CLIP und Wav2Vec2 sowie generative KI-Modelle wie GPT2, GPT-NeoX, T5, OPT und LLaMA. Auch herkömmliche Modelle für Computer Vision und Empfehlungsalgorithmen sollen unterstützt werden.

Die Integration der AMD ROCm SDK in die Open-Source-Bibliotheken von Hugging Face, beginnend mit der Transformers-Bibliothek, ist ein weiterer wichtiger Teil dieser Partnerschaft. Ziel ist es, die Nutzung von AMD-Plattformen mit minimalen Änderungen am Code zu ermöglichen. Langfristig könnte dies zu einer neuen Bibliothek namens Optimum führen, die speziell auf AMD-Plattformen zugeschnitten ist.

Die Partnerschaft mit AMD ist nicht die einzige Zusammenarbeit von Hugging Face im Bereich Hardware-Beschleunigung. Früher in diesem Jahr erweiterte das Unternehmen seine strategische Partnerschaft mit Amazon Web Services (AWS), um KI-Modelle durch die Nutzung von AWS als bevorzugter Cloud-Anbieter zugänglicher zu machen. Diese Partnerschaft ermöglicht es Entwicklern, AWS-Tools wie Amazon SageMaker, AWS Trainium und AWS Inferentia zu nutzen, um Modelle zu trainieren, zu verfeinern und zu implementieren.

Die Kooperation zwischen AMD und Hugging Face ist ein klarer Hinweis darauf, dass offene KI-Modelle und eine breite Zugänglichkeit für Entwickler im Vordergrund stehen. Dies könnte zu einer Beschleunigung der Entwicklung und Implementierung von KI-Anwendungen führen und gleichzeitig die Kosten senken.

AMD und Hugging Face arbeiten zusammen daran, die Anforderungen der Community zu erfüllen und die Modelle auf den AMD-Plattformen zu optimieren. Die Zusammenarbeit umfasst auch die kontinuierliche Integration und Validierung von Hugging Face-Bibliotheken auf AMD-Hardware, wobei die Umweltauswirkungen durch den Einsatz von Servern in Island, welche von Verne Global betrieben werden, minimiert werden sollen.

In der KI-Community ist die Vorfreude auf die Möglichkeiten dieser Partnerschaft groß. Durch die Kombination der Expertise beider Unternehmen könnten neue Maßstäbe in der Effizienz und Leistungsfähigkeit von KI-Modellen gesetzt werden.

Hugging Face, bekannt als zentraler Hub für maschinelles Lernen mit über 100.000 kostenlosen und zugänglichen Modellen, und AMD, mit seiner Erfahrung in der Entwicklung von Hochleistungscomputern, könnten gemeinsam die Landschaft der KI-Infrastruktur prägen und Entwicklern weltweit neue Türen öffnen.

Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.

Relativity benötigt die Kontaktinformationen, die Sie uns zur Verfügung stellen, um Sie bezüglich unserer Produkte und Dienstleistungen zu kontaktieren. Sie können sich jederzeit von diesen Benachrichtigungen abmelden. Informationen zum Abbestellen sowie unsere Datenschutzpraktiken und unsere Verpflichtung zum Schutz Ihrer Privatsphäre finden Sie in unseren Datenschutzbestimmungen.