Die rasche Verbreitung von Large Language Models (LLMs) hat sich als treibende Kraft im Wachstum von Cloud-basierten LLM-Diensten erwiesen, die mittlerweile für die Weiterentwicklung von KI-Anwendungen unerlässlich sind. Vor diesem Hintergrund hat Alibaba die Einführung eines neuen effizienten LLM-Dienstes für lange Kontexte bekannt gegeben, der durch DistAttention und eine verteilte KV-Cache-Struktur gekennzeichnet ist.
Die Herausforderung bei der Bereitstellung von Cloud-basierten LLM-Diensten besteht darin, die dynamische auto-regressive Natur von LLMs zu unterstützen, insbesondere wenn es darum geht, außergewöhnlich lange Kontextlängen zu verarbeiten. Dies erfordert die flexible Zuweisung und Freigabe erheblicher Ressourcen, was bei ineffizientem Management zu Leistungseinbußen oder Ressourcenverschwendung führen kann.
Um diesen Herausforderungen zu begegnen, stellt die Arbeit von Alibaba DistAttention vor, einen neuartigen verteilten Aufmerksamkeitsalgorithmus, der den KV-Cache in kleinere, handhabbare Einheiten segmentiert und so eine verteilte Verarbeitung und Speicherung des Aufmerksamkeitsmoduls ermöglicht. Auf dieser Grundlage wurde das verteilte LLM-Bereitstellungssystem DistKV-LLM vorgeschlagen, das den KV-Cache dynamisch verwaltet und alle zugänglichen GPU- und CPU-Speicher über das Rechenzentrum hinweg effektiv orchestriert. Dies gewährleistet einen leistungsstarken LLM-Dienst in der Cloud, der an eine breite Palette von Kontextlängen angepasst ist.
In einer Cloud-Umgebung, die über 32 NVIDIA A100 GPUs verfügt und Konfigurationen von 2 bis 32 Instanzen umfasst, zeigte das System Durchsatzverbesserungen von 1,03 bis 2,4x im End-to-End-Vergleich und unterstützte Kontextlängen, die 2 bis 19-mal länger waren als bei aktuellen LLM-Diensten. Dies wurde durch umfangreiche Tests über 18 Datensätze mit Kontextlängen von bis zu 1.900K bestätigt.
Alibaba Cloud hat zudem die neueste Version seines Large Language Model Tongyi Qianwen 2.0 vorgestellt, das eine verbesserte Leistungsfähigkeit in einer Vielzahl von Benchmarks zeigt. Tongyi Qianwen 2.0 verfügt über eine größere Modellgröße und starke Fähigkeiten im Verstehen komplexer Anweisungen, Texterstellung, Argumentation, Erinnerung und Reduzierung von Halluzinationen, die sich auf die Tendenz von Modellen bezieht, falsche Informationen zu erzeugen.
Neben dem allgemeinen KI-Modell hat Alibaba Cloud auch eine Reihe von branchenspezifischen Modellen auf den Markt gebracht, die die Produktivität in einer Vielzahl von Branchen steigern sollen. Diese Modelle sind auf spezifische Aufgaben ausgelegt und ermöglichen es Unternehmen, effizienter zu arbeiten. Beispielsweise kann ein im Rahmen der Apsara vorgestelltes Gesundheits-KI-Modell medizinische Berichte verstehen, Gesundheitsprobleme identifizieren und medizinische Ratschläge erteilen.
Um die notwendige Skalierbarkeit und Flexibilität für den Einsatz von Generative AI-Systemen zu bieten, hat Alibaba Cloud seine Plattform für künstliche Intelligenz (PAI) mit größeren Fähigkeiten in Rechenleistung, Netzwerk, Speicher, Datenverarbeitung und KI-Frameworks aufgerüstet. Darüber hinaus hat das Unternehmen seine Datenbanklösungen mit seinem Vektor-Engine verbessert, um die Zeit, die Unternehmensnutzer für den Aufbau maßgeschneiderter Generative AI-Anwendungen benötigen, zu verkürzen.
In einem weiteren Schritt zur Unterstützung der Open-Source-Community hat Alibaba Cloud zwei große Sprachmodelle und ein Modell, das Audio versteht, zur freien Verfügung gestellt. Die Open-Source-Initiativen von Alibaba Cloud wurden im Rahmen einer Pressekonferenz von CTO Zhou Jingren angekündigt.
Diese Initiativen sind Teil einer umfangreicheren Strategie, mit der Alibaba Cloud die Entwicklung von LLMs und KI-Anwendungen vorantreiben möchte. Durch die Bereitstellung von LLMs, die Text, Audio und visuelle Informationen verarbeiten können, zeigt Alibaba Cloud sein Engagement für die Schaffung einer offenen Cloud-Plattform, die Generative AI-Fähigkeiten für alle zugänglich macht.
Zusammenfassend lässt sich sagen, dass die neuesten Ankündigungen von Alibaba Cloud einen wichtigen Meilenstein in der Entwicklung und Bereitstellung von Large Language Models darstellen, die die Art und Weise, wie Unternehmen und Forschungseinrichtungen KI einsetzen, grundlegend verändern könnten. Mit diesen Fortschritten ist Alibaba Cloud weiterhin bestrebt, an der Spitze des KI-Zeitalters zu stehen und die Grenzen dessen, was mit künstlicher Intelligenz möglich ist, zu erweitern.