DeepThought-8B von Ruliad: Ein neues transparentes Sprachmodell für KI-Entscheidungsfindung

Kategorien:
No items found.
Freigegeben:
December 9, 2024

Artikel jetzt als Podcast anhören

Ruliads DeepThought-8B: Ein Einblick in transparente KI-Denkprozesse

Das KI-Start-up Ruliad hat mit DeepThought-8B ein neues Sprachmodell vorgestellt, das sich durch die transparente Darstellung seiner Denkprozesse auszeichnet. Dieses Modell, basierend auf Llama-3.1 8B, dokumentiert seine Schlussfolgerungen Schritt für Schritt in einem strukturierten JSON-Format, wodurch die Entscheidungsfindung des Modells nachvollziehbarer und kontrollierbarer wird.

DeepThought-8B läuft lokal auf Grafikkarten mit mindestens 16 GB Speicher. Im Gegensatz zu seinem Basismodell löst DeepThought-8B Probleme primär in mehreren Schritten, die als "Reasoning Chain" bezeichnet werden. Diese Schrittfolge ähnelt dem Chain-of-Thought-Ansatz. Die einzelnen Schritte werden, ähnlich wie bei OpenAIs "Structured Outputs", in einem maschinenlesbaren JSON-Format ausgegeben. Ein Beispiel dafür ist:

{ "step": 1, "type": "problem_understanding", "thought": "The user is asking how many Rs there are in the word 'strawberry'" }

Ein besonderes Merkmal von DeepThought-8B ist die Möglichkeit, in diese "Reasoning Chains" einzugreifen. Dies geschieht durch sogenannte "Injections", die in drei Varianten verfügbar sind: Scripted, Max Routing und Thought Routing. Mit "Scripted" können im Vorfeld bestimmte Argumentationspunkte festgelegt werden. "Max Routing" erlaubt es, die maximale Anzahl der Denkschritte festzulegen und zu bestimmen, wie DeepThought-8B seine Gedankenkette abschließen soll. "Thought Routing" hingegen definiert Wenn/Dann-Regeln, die dynamisch, basierend auf dem Chatverlauf, aktiviert werden.

Test-Time Compute Scaling: Anpassbare Analysetiefe

Ruliad betont die Fähigkeit von DeepThought-8B, die Tiefe seiner Analyse an die Komplexität der jeweiligen Aufgabe anzupassen, ein Verfahren, das als "Test-time Compute Scaling" bezeichnet wird. Durch die Erhöhung der Rechenleistung während der Inferenz soll die Performance des Sprachmodells gesteigert werden. Ähnlich wie OpenAIs o1-Modell nutzt DeepThought-8B diesen Ansatz. Es ist jedoch wahrscheinlich, dass sich die beiden Modelle in der Anwendung von Reinforcement Learning während des Trainings und den internen Chain-of-Thoughts unterscheiden. Die genauen Trainingsmethoden und Funktionsweisen von o1 hat OpenAI bisher nicht veröffentlicht.

Leistungsvergleich und Limitierungen

Trotz seiner vergleichsweise geringen Größe erzielt DeepThought-8B laut Ruliad in Benchmarks für Reasoning, Mathematik und Programmierung wettbewerbsfähige Ergebnisse. In verschiedenen Tests erreicht das Modell ähnliche Leistungen wie deutlich größere Modelle, wie Qwen-2-72B und Llama-3.1-70B. Modelle wie Claude 3.5 Sonnet, GPT-4o und o1-mini übertreffen DeepThought-8B jedoch. Das Ruliad-Team räumt ein, dass das Modell in Bereichen wie komplexem mathematischen Reasoning, der Verarbeitung langer Kontexte und dem Umgang mit Randfällen noch limitations aufweist.

Verfügbarkeit und Ausblick

Die Modellgewichte von DeepThought-8B sind Open Source auf Hugging Face verfügbar. Eine Entwickler-API, die sich aktuell in der geschlossenen Beta-Phase befindet, soll in den kommenden Wochen folgen. In der Zwischenzeit können Nutzer DeepThought-8B nach einem Login mit einem Google-Konto kostenlos auf chat.ruliad.co testen. DeepThought-8B reiht sich ein in eine Reihe von Reasoning-Modellen, die kürzlich veröffentlicht wurden, darunter DeepSeek-R1 und Qwen QwQ.

Bibliographie - https://the-decoder.de/deepthought-8b-ruliad-veroeffentlicht-offenes-reasoning-modell/ - https://www.ruliad.co/news/introducing-deepthought8b - https://smartaibusinessnews.com/ruliad-ai-releases-deepthought-8b-a-new-small-language-model-built-on-llama-3-1-with-test-time-compute-scaling-and-deliverers-transparent-reasoning/ - https://news.ycombinator.com/item?id=42254359 - https://twitter.com/erik_nijkamp?lang=de - https://www.linkedin.com/pulse/daily-news-ml-agents-key-updates-127-jim-schwoebel-3r4ee - https://tldr.tech/ai/2024-12-06 - https://huggingface.co/osanseviero - https://twitter.com/yahorbarkouski - https://x.com/jeremyphoward?lang=de
Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.