Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Mistral AI, ein französisches Unternehmen im Bereich der künstlichen Intelligenz, hat sein neuestes Flaggschiffmodell, Mistral Medium 3.5, veröffentlicht. Dieses Modell stellt eine signifikante Entwicklung dar, indem es bisher separate Funktionen für Chat, logisches Denken (Reasoning) und Code-Generierung in einem einzigen, dichten Modell integriert. Diese Konsolidierung zielt darauf ab, die Effizienz und Konsistenz bei der Ausführung komplexer Aufgaben zu verbessern.
Mistral Medium 3.5 ist ein dichtes Modell mit 128 Milliarden Parametern und einem Kontextfenster von 256.000 Tokens. Die „dichte“ Architektur bedeutet, dass alle 128 Milliarden Parameter bei der Generierung jedes Tokens geladen und aktiviert werden. Dies kann, im Vergleich zu sparsameren Ansätzen wie Mixture-of-Experts (MoE)-Modellen, höhere Inferenzkosten verursachen, bietet jedoch oft eine einfachere Implementierung und eine verbesserte Stabilität in Produktionsumgebungen.
Das Modell ersetzt seine Vorgänger Mistral Medium 3.1 und das Reasoning-Modell Magistral in Le Chat, sowie Devstral 2 im Vibe CLI. Dadurch verspricht es eine verbesserte Leistung bei Instruktionsbefolgung, logischem Denken und Codierungsaufgaben innerhalb eines einheitlichen Modells.
Ein bemerkenswertes Merkmal von Mistral Medium 3.5 ist die Einführung eines konfigurierbaren „reasoning_effort“-Parameters. Dieser ermöglicht es Nutzern, zwischen schnellen Antworten und einem intensiveren Denkmodus für komplexe Agentenaufgaben zu wechseln. Diese Flexibilität erlaubt eine präzise Anpassung an die Anforderungen unterschiedlicher Anwendungsfälle.
Darüber hinaus wurde der Vision Encoder des Modells von Grund auf neu trainiert, um variable Bildgrößen und Seitenverhältnisse zu verarbeiten. Dies erweitert die multimodalen Fähigkeiten des Modells und ermöglicht die Analyse von Bildern zusätzlich zu Textinhalten.
In internen Benchmarks erreichte Mistral Medium 3.5 eine Punktzahl von 77,6 Prozent auf SWE-Bench Verified und 91,4 Prozent auf T3-Telecom. Es zeigt sich leistungsfähig bei Codierungs- und Telekommunikationsaufgaben, weist jedoch in bestimmten Szenarien, wie z.B. im Bankensektor, noch Optimierungspotenzial auf.
Die Gewichte von Mistral Medium 3.5 sind auf Hugging Face zum Download verfügbar. Anders als bei früheren Modellen wie Mistral Large 3 und Small 4, die unter der Apache 2.0-Lizenz veröffentlicht wurden, verwendet Mistral AI für Medium 3.5 eine "Modified MIT License". Diese Lizenz gestattet die kommerzielle und nicht-kommerzielle Nutzung, sieht jedoch Ausnahmen für Unternehmen mit hohem Umsatz vor.
Für die Nutzung über die API fallen Kosten von 1,50 USD pro Million Eingabetokens und 7,50 USD pro Million Ausgabetokens an.
Eine weitere bedeutende Neuerung ist die Integration von asynchronen Remote-Agenten in Mistrals Coding-Tool Vibe. Diese Agenten können in der Cloud ausgeführt werden, ohne dass ein Entwickler sie ständig überwachen muss. Lokale Sitzungen können mitsamt ihrer Historie, dem Aufgabenstatus und den Genehmigungen in die Cloud verlagert werden.
Jeder Agent läuft in einer isolierten Sandbox und kann nach Abschluss einer Aufgabe einen Pull Request erstellen. Vibe ist mit gängigen Entwicklungstools wie GitHub, Linear, Jira, Sentry, Slack und Teams verbunden. Hauptanwendungsfälle sind Routineaufgaben wie Modul-Refactorings, Testgenerierung, Abhängigkeits-Upgrades und Fehlerbehebungen.
Die Cloud-Version von Vibe basiert auf Workflows, die Mistral Studio ursprünglich intern und für Unternehmenskunden entwickelt hat. Ähnliche Ansätze werden bereits von anderen Anbietern wie OpenAI, Anthropic und Cursor verfolgt.
Der KI-Assistent Le Chat erhält einen neuen "Work Mode", der ebenfalls auf Mistral Medium 3.5 basiert. Dieser Modus ist für mehrstufige Aufgaben konzipiert, die den Einsatz verschiedener Tools erfordern, wie die Bearbeitung von E-Mails, Nachrichten oder Kalendereinträgen sowie die Durchführung strukturierter Suchen.
Im Work Mode sind Konnektoren zu Mailboxen, Kalendern, Dokumenten und anderen Systemen standardmäßig aktiviert. Dies vereinfacht die Einrichtung komplexer Workflows, überträgt jedoch auch eine größere Verantwortung für den Datenfluss an den Nutzer. Le Chat fordert vor sensiblen Aktionen, wie dem Senden einer Nachricht oder dem Schreiben in externe Systeme, eine explizite Bestätigung durch den Nutzer an. Der Work Mode ist in den Pro-, Team- und Enterprise-Plänen verfügbar.
Die Einführung von Mistral Medium 3.5 und die damit verbundenen Neuerungen in Vibe und Le Chat zeigen eine strategische Ausrichtung auf konsolidierte, leistungsstarke und agentenbasierte KI-Lösungen. Die Vereinheitlichung von Chat, Reasoning und Code in einem Modell sowie die Erweiterung um asynchrone Cloud-Agenten und einen Work Mode in Le Chat unterstreichen das Bestreben, KI-Anwendungen effizienter und zugänglicher für ein breiteres Spektrum von Anwendern zu gestalten, insbesondere im B2B-Bereich.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen