Das KI-Start-up Ruliad hat mit DeepThought-8B ein neues Sprachmodell vorgestellt, das sich durch die transparente Darstellung seiner Denkprozesse auszeichnet. Dieses Modell, basierend auf Llama-3.1 8B, dokumentiert seine Schlussfolgerungen Schritt für Schritt in einem strukturierten JSON-Format, wodurch die Entscheidungsfindung des Modells nachvollziehbarer und kontrollierbarer wird.
DeepThought-8B läuft lokal auf Grafikkarten mit mindestens 16 GB Speicher. Im Gegensatz zu seinem Basismodell löst DeepThought-8B Probleme primär in mehreren Schritten, die als "Reasoning Chain" bezeichnet werden. Diese Schrittfolge ähnelt dem Chain-of-Thought-Ansatz. Die einzelnen Schritte werden, ähnlich wie bei OpenAIs "Structured Outputs", in einem maschinenlesbaren JSON-Format ausgegeben. Ein Beispiel dafür ist:
{ "step": 1, "type": "problem_understanding", "thought": "The user is asking how many Rs there are in the word 'strawberry'" }Ein besonderes Merkmal von DeepThought-8B ist die Möglichkeit, in diese "Reasoning Chains" einzugreifen. Dies geschieht durch sogenannte "Injections", die in drei Varianten verfügbar sind: Scripted, Max Routing und Thought Routing. Mit "Scripted" können im Vorfeld bestimmte Argumentationspunkte festgelegt werden. "Max Routing" erlaubt es, die maximale Anzahl der Denkschritte festzulegen und zu bestimmen, wie DeepThought-8B seine Gedankenkette abschließen soll. "Thought Routing" hingegen definiert Wenn/Dann-Regeln, die dynamisch, basierend auf dem Chatverlauf, aktiviert werden.
Ruliad betont die Fähigkeit von DeepThought-8B, die Tiefe seiner Analyse an die Komplexität der jeweiligen Aufgabe anzupassen, ein Verfahren, das als "Test-time Compute Scaling" bezeichnet wird. Durch die Erhöhung der Rechenleistung während der Inferenz soll die Performance des Sprachmodells gesteigert werden. Ähnlich wie OpenAIs o1-Modell nutzt DeepThought-8B diesen Ansatz. Es ist jedoch wahrscheinlich, dass sich die beiden Modelle in der Anwendung von Reinforcement Learning während des Trainings und den internen Chain-of-Thoughts unterscheiden. Die genauen Trainingsmethoden und Funktionsweisen von o1 hat OpenAI bisher nicht veröffentlicht.
Trotz seiner vergleichsweise geringen Größe erzielt DeepThought-8B laut Ruliad in Benchmarks für Reasoning, Mathematik und Programmierung wettbewerbsfähige Ergebnisse. In verschiedenen Tests erreicht das Modell ähnliche Leistungen wie deutlich größere Modelle, wie Qwen-2-72B und Llama-3.1-70B. Modelle wie Claude 3.5 Sonnet, GPT-4o und o1-mini übertreffen DeepThought-8B jedoch. Das Ruliad-Team räumt ein, dass das Modell in Bereichen wie komplexem mathematischen Reasoning, der Verarbeitung langer Kontexte und dem Umgang mit Randfällen noch limitations aufweist.
Die Modellgewichte von DeepThought-8B sind Open Source auf Hugging Face verfügbar. Eine Entwickler-API, die sich aktuell in der geschlossenen Beta-Phase befindet, soll in den kommenden Wochen folgen. In der Zwischenzeit können Nutzer DeepThought-8B nach einem Login mit einem Google-Konto kostenlos auf chat.ruliad.co testen. DeepThought-8B reiht sich ein in eine Reihe von Reasoning-Modellen, die kürzlich veröffentlicht wurden, darunter DeepSeek-R1 und Qwen QwQ.
Bibliographie - https://the-decoder.de/deepthought-8b-ruliad-veroeffentlicht-offenes-reasoning-modell/ - https://www.ruliad.co/news/introducing-deepthought8b - https://smartaibusinessnews.com/ruliad-ai-releases-deepthought-8b-a-new-small-language-model-built-on-llama-3-1-with-test-time-compute-scaling-and-deliverers-transparent-reasoning/ - https://news.ycombinator.com/item?id=42254359 - https://twitter.com/erik_nijkamp?lang=de - https://www.linkedin.com/pulse/daily-news-ml-agents-key-updates-127-jim-schwoebel-3r4ee - https://tldr.tech/ai/2024-12-06 - https://huggingface.co/osanseviero - https://twitter.com/yahorbarkouski - https://x.com/jeremyphoward?lang=de