DeepSeek-V2-0628: Open-Source Modell erreicht Top-Platzierung in der LMSYS Chatbot Arena
Einführung
Am 18. Juli 2024 gab DeepSeek die Veröffentlichung ihres neuesten Modells, DeepSeek-V2-0628, bekannt. Dieses Modell hat sich schnell als führendes Open-Source-Modell in der LMSYS Chatbot Arena etabliert und beeindruckt mit seiner Leistungsfähigkeit in verschiedenen Kategorien.
DeepSeek-V2-0628: Ein Überblick
DeepSeek-V2-0628 ist ein Mixture-of-Experts (MoE) Sprachmodell, das durch seine wirtschaftliche Trainingsweise und effiziente Inferenz besticht. Es umfasst insgesamt 236 Milliarden Parameter, von denen 21 Milliarden für jedes Token aktiviert werden. Im Vergleich zu seinem Vorgängermodell, DeepSeek 67B, erreicht DeepSeek-V2 eine stärkere Leistung und spart dabei 42,5% der Trainingskosten, reduziert den KV-Cache um 93,3% und steigert den maximalen Generierungsdurchsatz um das 5,76-fache.
Das Modell wurde auf einem vielfältigen und hochwertigen Korpus von 8,1 Billionen Tokens vortrainiert. Anschließend folgte ein Prozess des Supervised Fine-Tuning (SFT) sowie Reinforcement Learning (RL), um die Fähigkeiten des Modells vollständig zu entfalten. Die Evaluationsergebnisse bestätigen die Effektivität dieses Ansatzes, da DeepSeek-V2 bemerkenswerte Leistungen sowohl bei standardisierten Benchmarks als auch bei offenen Generierungstests erzielt.
Leistung in der LMSYS Chatbot Arena
DeepSeek-V2-0628 hat in der LMSYS Chatbot Arena beeindruckende Platzierungen erreicht:
- Gesamtplatzierung: Nr. 11
- Harte Prompts: Nr. 3
- Codierung: Nr. 3
- Längere Abfragen: Nr. 4
- Mathematik: Nr. 7
Diese Platzierungen unterstreichen die Vielseitigkeit und Leistungsfähigkeit des Modells in verschiedenen Anwendungsbereichen. Besonders hervorzuheben ist die starke Leistung in den Kategorien "Harte Prompts" und "Codierung", wo das Modell jeweils den dritten Platz belegte.
Vergleich mit anderen Modellen
Im direkten Vergleich mit anderen großen Modellen zeigt DeepSeek-V2-0628 eine beeindruckende Leistung:
- MMLU (Englisch): 78,5 Punkte
- BBH (Englisch): 78,9 Punkte
- C-Eval (Chinesisch): 81,7 Punkte
- CMMLU (Chinesisch): 84,0 Punkte
- HumanEval (Code): 48,8 Punkte
- MBPP (Code): 66,6 Punkte
- GSM8K (Mathematik): 79,2 Punkte
- Mathematik: 43,6 Punkte
Diese Ergebnisse verdeutlichen die Fähigkeit von DeepSeek-V2-0628, in verschiedenen Domänen und Sprachen hohe Leistungen zu erbringen.
Technische Details und Architektur
DeepSeek-V2-0628 nutzt innovative Architekturen, um wirtschaftliches Training und effiziente Inferenz zu gewährleisten:
- Multi-head Latent Attention (MLA): Diese Methode nutzt eine Kompression der Schlüssel-Wert-Paare, um den Flaschenhals des Inferenzzeit-KV-Caches zu beseitigen und so eine effiziente Inferenz zu unterstützen.
- DeepSeekMoE Architektur: Diese hochleistungsfähige MoE-Architektur ermöglicht das Training stärkerer Modelle bei geringeren Kosten.
Verfügbarkeit und Nutzung
Das Modell DeepSeek-V2-0628 ist vollständig Open-Source und kann über HuggingFace heruntergeladen werden. DeepSeek bietet auch eine OpenAI-kompatible API-Plattform, auf der Benutzer das Modell mit Millionen von freien Tokens nutzen können. Darüber hinaus gibt es eine Pay-as-you-go-Option zu einem unschlagbaren Preis.
Schlussfolgerung
Die Veröffentlichung von DeepSeek-V2-0628 markiert einen bedeutenden Schritt in der Entwicklung von Open-Source-Sprachmodellen. Mit seiner starken Leistung und wirtschaftlichen Trainingsweise setzt es neue Maßstäbe in der KI-Forschung und -Anwendung. Es wird spannend sein zu sehen, wie dieses Modell in der Zukunft weiterentwickelt und eingesetzt wird.
Bibliographie
- https://chat.lmsys.org/
- https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard
- https://github.com/deepseek-ai/DeepSeek-V2
- https://twitter.com/lmsysorg/status/1804967083358523559
- https://huggingface.co/deepseek-ai/DeepSeek-V2-Chat/discussions?status=open
- https://www.reddit.com/r/LocalLLaMA/comments/1dhx449/deepseekcoderv2_breaking_the_barrier_of/
- https://x.com/deepseek_ai/highlights