Alibaba Cloud hat mit Qwen2.5-Turbo eine neue Version seines großen Sprachmodells (LLM) vorgestellt, die auf die Bedürfnisse der Community nach der Verarbeitung längerer Kontexte eingeht. Diese Erweiterung folgt auf die Veröffentlichung von Qwen2.5 und bietet signifikante Verbesserungen in Bezug auf Kontextlänge, Inferenzgeschwindigkeit und Kosten.
Die wohl bedeutendste Neuerung von Qwen2.5-Turbo ist die Erweiterung der Kontextlänge von 128.000 auf eine Million Token. Dies entspricht etwa einer Million Wörtern im Englischen oder 1,5 Millionen Zeichen im Chinesischen. Um die Dimensionen zu veranschaulichen: Eine Million Token entsprechen ungefähr zehn Romanen in voller Länge, 150 Stunden an Sprachtranskripten oder 30.000 Zeilen Code. Diese Erweiterung ermöglicht es dem Modell, deutlich umfangreichere und komplexere Informationen zu verarbeiten und eröffnet neue Möglichkeiten für Anwendungen in Bereichen wie der Analyse von Rechtsdokumenten, der Generierung von Langtexten oder der Verarbeitung großer Codebasen.
Neben der erweiterten Kontextlänge bietet Qwen2.5-Turbo auch eine deutlich verbesserte Inferenzgeschwindigkeit. Durch den Einsatz von Sparse-Attention-Mechanismen konnte die Zeit bis zum ersten Token bei der Verarbeitung eines Kontexts von einer Million Token von 4,9 Minuten auf 68 Sekunden reduziert werden. Dies entspricht einer Beschleunigung um das 4,3-fache und ermöglicht eine effizientere Nutzung des Modells, insbesondere bei der Verarbeitung sehr langer Eingaben.
Trotz der Leistungssteigerungen bleibt der Preis für Qwen2.5-Turbo mit 0,3 ¥ pro Million Token unverändert. Im Vergleich zu GPT-4o-mini kann Qwen2.5-Turbo bei gleichen Kosten die 3,6-fache Anzahl an Token verarbeiten, was die Kosteneffizienz des Modells unterstreicht.
Qwen2.5-Turbo ist über verschiedene Plattformen zugänglich. Entwickler können das Modell über den API-Service von Alibaba Cloud Model Studio (Chinesisch) nutzen. Zusätzlich stehen Demos auf HuggingFace und ModelScope zur Verfügung, um die Fähigkeiten des Modells zu testen und zu erkunden.
Die Entwicklung von LLMs mit immer längeren Kontexten ist ein wichtiger Schritt in Richtung leistungsfähigerer und vielseitiger KI-Systeme. Qwen2.5-Turbo demonstriert das Engagement von Alibaba Cloud in diesem Bereich und bietet Entwicklern ein Werkzeug, um innovative Anwendungen zu entwickeln. Für Mindverse, als deutschen Anbieter von KI-gestützten Content-Tools, sind diese Fortschritte von besonderem Interesse. Die Möglichkeit, längere Kontexte zu verarbeiten, eröffnet neue Perspektiven für die Content-Erstellung, -Recherche und -Analyse und trägt dazu bei, die Grenzen des Möglichen im Bereich der KI-gestützten Content-Produktion zu erweitern.
Bibliographie: https://twitter.com/Alibaba_Qwen/status/1858469845958074541 https://qwenlm.github.io/ https://twitter.com/alibaba_qwen https://github.com/QwenLM/Qwen2.5-Coder https://qwen2.org/qwen2-5/ https://x.com/Alibaba_Qwen/status/1856040217897251044 https://www.marktechpost.com/2024/09/18/qwen-2-5-models-released-featuring-qwen2-5-qwen2-5-coder-and-qwen2-5-math-with-72b-parameters-and-128k-context-support/ https://www.alibabacloud.com/en/solutions/generative-ai/qwen?_p_lc=1