Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Das französische KI-Startup Mistral AI hat kürzlich mehrere Neuerungen vorgestellt, die darauf abzielen, die Entwicklung und Anwendung von Künstlicher Intelligenz in Unternehmensumgebungen zu optimieren. Im Zentrum dieser Ankündigungen stehen das neue Sprachmodell Mistral Medium 3.5 sowie erweiterte Funktionen für Cloud-basierte Coding-Agenten und den KI-Assistenten Le Chat.
Mistral Medium 3.5 positioniert sich als ein fortschrittliches Sprachmodell, das auf einer dichten Architektur mit 128 Milliarden Parametern basiert. Es zeichnet sich durch ein großes Kontextfenster von 256.000 Token aus, was die Verarbeitung umfangreicher Informationen und die Aufrechterhaltung des Kontextes über längere Interaktionen hinweg ermöglicht. Eine der Kernfunktionen dieses Modells ist die Integration von Instruktionsbefolgung, komplexem Reasoning und Coding-Fähigkeiten in einem einzigen System.
Ein bemerkenswertes Merkmal von Mistral Medium 3.5 ist die Konfigurierbarkeit des Rechenaufwands für das Reasoning pro Anfrage. Diese Flexibilität erlaubt es dem Modell, je nach Anforderung entweder schnelle, prägnante Antworten im Chat-Format zu liefern oder tiefgehende, analytische Prozesse für komplexe Agentenaufgaben durchzuführen. Dies bietet Anwendern die Möglichkeit, die Ressourcennutzung effizient an die jeweilige Aufgabenstellung anzupassen.
In Bezug auf die Leistung erzielt Mistral Medium 3.5 in verschiedenen Benchmarks starke Ergebnisse. Auf dem SWE-Bench Verified erreicht es beispielsweise 77,6 Prozent, was eine Verbesserung gegenüber dem Vorgängermodell Devstral 2 darstellt. Im branchenspezifischen τ³-Telecom-Test erzielt das Modell 91,4 Punkte. Diese Ergebnisse unterstreichen die Fähigkeiten des Modells in Bezug auf Coding und agentische Aufgaben.
Das Modell wird unter einer modifizierten MIT-Lizenz als Open-Weights-Modell auf Plattformen wie Hugging Face zur Verfügung gestellt. Dies ermöglicht es Unternehmen, das Modell selbst zu hosten, wobei es bereits mit vier GPUs betrieben werden kann. Für die Nutzung über die API fallen Kosten von 1,50 US-Dollar pro Million Input-Token und 7,50 US-Dollar pro Million Output-Token an. Dies platziert es in einem Wettbewerbsumfeld mit anderen großen Sprachmodellen.
Ein weiterer Schwerpunkt der Neuerungen liegt in der Weiterentwicklung der Coding-Agenten, die bisher primär lokal ausgeführt wurden. Mit der Integration in Mistral Vibe können diese Agenten nun in die Cloud verlagert werden. Diese Umstellung ermöglicht es, Coding-Sessions asynchron und parallel in der Cloud auszuführen, wodurch lokale Ressourcen auf den Endgeräten der Entwickler entlastet werden.
Nutzer können Aufgaben über das Command-Line-Interface (CLI) oder direkt über den KI-Assistenten Le Chat starten. Die Cloud-Agenten arbeiten dabei in isolierten Sandbox-Umgebungen, was eine sichere Ausführung von Code-Änderungen und Installationen von Abhängigkeiten gewährleistet. Eine besondere Funktion ist die Möglichkeit, laufende lokale CLI-Sessions nahtlos in die Cloud zu "teleportieren", wobei der Sitzungsverlauf, der Aufgabenstatus und ausstehende Genehmigungen erhalten bleiben. Dies fördert einen fließenden Übergang zwischen lokaler und Cloud-basierter Entwicklung.
Nach Abschluss einer Aufgabe kann der Agent automatisch einen Pull-Request auf GitHub erstellen und das Entwicklungsteam benachrichtigen. Dies ermöglicht es den Entwicklern, das Endergebnis zu überprüfen, anstatt jeden einzelnen Entwicklungsschritt nachvollziehen zu müssen. Die Integration in bestehende Entwicklungstools wie GitHub, Linear, Jira, Sentry sowie Kommunikationsplattformen wie Slack oder Teams ist darauf ausgelegt, den Workflow zu optimieren und die Zusammenarbeit zu erleichtern.
Der KI-Assistent Le Chat wird durch einen neuen "Work Mode" erweitert. Dieser Modus nutzt Mistral Medium 3.5 als Backend und ermöglicht es dem Agenten, komplexe, mehrstufige Aufgaben autonom über verschiedene Tools hinweg zu bearbeiten. Beispiele hierfür sind die gleichzeitige Überprüfung von E-Mails und Kalendern, die Kombination von Recherchen aus dem Web und internen Dokumenten oder das direkte Versenden von Zusammenfassungen an Kommunikationskanäle.
Der Work Mode ist darauf ausgelegt, den Anwendern eine transparente Arbeitsweise zu bieten. Jeder Tool-Aufruf und die zugrunde liegende Reasoning-Begründung bleiben sichtbar. Bei sensiblen Aktionen, wie dem Versenden von Nachrichten oder dem Ändern von Daten, fordert der Agent explizit eine Bestätigung des Nutzers an, um die Kontrolle und Sicherheit zu gewährleisten.
Mistral AI positioniert seine neuen Angebote insbesondere für Kunden, die Wert auf europäische Datensouveränität, niedrige API-Kosten und die Option zum Selbst-Hosting legen. Das Unternehmen investiert zudem in den Aufbau einer robusten Infrastruktur in Europa, was durch einen Kredit von 830 Millionen US-Dollar für ein Rechenzentrum in der Nähe von Paris untermauert wird.
Die neuen Funktionen und das Modell Mistral Medium 3.5 sind für Kunden in den Pro-, Team- und Enterprise-Tarifen der Plattform verfügbar. Die Veröffentlichung der Open Weights unter einer modifizierten MIT-Lizenz auf Plattformen wie Hugging Face unterstreicht das Engagement von Mistral AI für Open-Source-Prinzipien und die Zugänglichkeit seiner Technologien.
Die Einführung von Mistral Medium 3.5 und die Erweiterungen der Cloud-Coding-Agenten sowie des Work Mode in Le Chat stellen eine Weiterentwicklung im Bereich der Künstlichen Intelligenz dar. Die Konzentration auf konfigurierbaren Rechenaufwand, Cloud-basierte asynchrone Prozesse und autonome, mehrstufige Aufgabenbearbeitung könnte die Effizienz in der Softwareentwicklung und bei komplexen Unternehmensabläufen steigern.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen