Wachstum und Demokratisierung der KI-Entwicklung durch Open-Source-Initiativen

Kategorien:
No items found.
Freigegeben:
June 14, 2024

Die Open-Source-KI-Gemeinschaft erlebt derzeit einen wahren Boom. In den letzten Monaten haben nicht nur große Technologieunternehmen wie Meta, Apple, NVIDIA, Bytedance, Snowflake, Databricks, Microsoft und Google ihre Modelle und Datensätze auf der Plattform Hugging Face veröffentlicht, sondern auch die Anzahl der Nutzer und Entwickler ist auf der Plattform sprunghaft angestiegen. Mit über 1 Million Modellen auf dem Hub, die bereits über eine Milliarde Mal heruntergeladen wurden, zeigt sich der beeindruckende Wachstum des Ökosystems.

Unterstützt wird diese Entwicklung nicht nur durch die großen Tech-Konzerne, sondern auch durch eine florierende Community aus akademischen Laboren, Startups und unabhängigen Hobbyisten. So wurden beispielsweise seit der Veröffentlichung der ersten Version von Metas Llama vor einem Jahr über 35.000 Variationen dieses Modells auf Hugging Face geteilt, darunter mehr als 7.000 auf Llama-3 basierende Modelle. Diese reichen von quantisierten und zusammengeführten Modellen bis hin zu spezialisierten Modellen in Bereichen wie Biologie und Mandarin.

Die Herausforderung für viele in der Open-Source-Gemeinschaft liegt jedoch in den begrenzten Ressourcen, um die Modelle zu trainieren und zu demonstrieren – ein Nachteil, den die großen Technologieunternehmen nicht haben. Aus diesem Grund bleibt ChatGPT die am meisten genutzte KI-Anwendung heutiger Zeit.

Um dieser Herausforderung entgegenzuwirken, hat Hugging Face die Beta-Version von ZeroGPU ins Leben gerufen. ZeroGPU ist eine gemeinsam genutzte Infrastruktur, die es unabhängigen und akademischen KI-Entwicklern ermöglicht, KI-Demos auf Spaces auszuführen, ohne die finanzielle Belastung von Computekosten tragen zu müssen. Spaces ist bereits eine beliebte Methode zur Erstellung von KI-Demos, mit über 300.000 bisher erstellten Demos auf CPU oder bezahlter GPU – und täglich kommen tausende hinzu. Um die Entwicklung des KI-Ökosystems weiter zu fördern, stellt Hugging Face mit der Einführung von ZeroGPU 10 Millionen Dollar an freien GPUs zur Verfügung.

Technisch gesehen nutzt ZeroGPU Hugging Faces Erfahrung im Hosting und Servieren von mehr als 100 Petabyte monatlich vom Hugging Face Hub. Es erlaubt Spaces, auf mehreren GPUs zu laufen, indem es effizient GPUs nach Bedarf hält und freigibt, im Gegensatz zu einem klassischen GPU Space, der zu jeder Zeit genau eine GPU hält. Diese Architektur ist auch energieeffizienter, da GPUs geteilt und nicht dupliziert werden. Unter der Haube nutzt ZeroGPU NVIDIA A100 GPU-Geräte.

Seit dem Start des frühen Zugangs für KI-Entwickler am 1. Mai 2024 wurden bereits mehr als 1.300 ZeroGPU Spaces erstellt. Beispiele für solche Demos und weitere Informationen können auf den Profilen von Hugging Face und deren Teammitgliedern in sozialen Netzwerken wie Twitter und LinkedIn sowie auf der Website von Hugging Face eingesehen werden.

Diese Entwicklungen sind ein starkes Zeichen dafür, dass die Open-Source-KI-Gemeinschaft weiterhin wächst und gedeiht und dass es zahlreiche Möglichkeiten für KI-Entwickler gibt, trotz begrenzter Ressourcen einen Beitrag zu leisten. Mit Initiativen wie ZeroGPU wird der Zugang zu wichtigen Ressourcen demokratisiert und die Innovation im Bereich der Künstlichen Intelligenz weiter vorangetrieben.

Quellen:
- Twitter-Profil von Clement Delangue (@ClementDelangue)
- LinkedIn-Profil von Clement Delangue
- Hugging Face ZeroGPU Explorer-Seite (https://huggingface.co/zero-gpu-explorers)
- The Verge-Artikel über Hugging Face und Clement Delangue (https://theverge.com/2024/5/16/24156755/hugging-face-celement-delangue-free-shared-gpus-ai)

Was bedeutet das?