Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Hugging Face, ein führendes Unternehmen im Bereich der Künstlichen Intelligenz, hat kürzlich den "ml-intern" vorgestellt, einen innovativen Open-Source-KI-Agenten. Dieses Tool ist darauf ausgelegt, die Post-Training-Workflows für große Sprachmodelle (LLMs) zu automatisieren. Es verspricht, die Effizienz von ML-Forschern und -Ingenieuren erheblich zu steigern, indem es Aufgaben übernimmt, die bisher einen erheblichen manuellen Aufwand erforderten.
Der ml-intern agiert als autonomer ML-Ingenieur, der in der Lage ist, eine Vielzahl komplexer Aufgaben selbstständig zu bewältigen. Dazu gehören:
In frühen Benchmark-Tests hat der ml-intern beeindruckende Ergebnisse erzielt. Er übertraf Anthropic's Claude Code im wissenschaftlichen Reasoning und OpenAI's Codex in einer Gesundheitsbewertung. Ein bemerkenswertes Beispiel ist die Steigerung der wissenschaftlichen Reasoning-Punktzahl eines Qwen3-1.7B-Modells von 10% auf 32% innerhalb von 10 Stunden auf dem GPQA-Benchmark, während Claude Code 22.99% erreichte. Bei einem separaten Gesundheitstest gelang es dem Agenten, bestehende Datensätze als unzureichend zu identifizieren, ein Skript zur Generierung von 1.100 synthetischen Datenpunkten zu schreiben und diese für das Training zu verwenden, wodurch er Codex auf HealthBench um 60% übertraf. Für eine mathematische Aufgabe entwickelte der Agent ein vollständiges GRPO-Trainingsskript (Group Relative Policy Optimization) und optimierte die Leistung nach anfänglichen Rückgängen.
Ein zentrales Feature des ml-intern ist die automatische Übertragung aller Sitzungen in das Hub-Konto des Benutzers. Dies ermöglicht es, die Aktivitäten des Agenten transparent zu verfolgen und nachzuvollziehen. Diese Funktion ist entscheidend für die Vertrauensbildung und die iterative Verbesserung von Agenten-Workflows, insbesondere in B2B-Anwendungen, wo Nachvollziehbarkeit und Auditierbarkeit von großer Bedeutung sind.
Standardmäßig werden die Sitzungsdaten in einem privaten Hugging Face Dataset namens {Ihr-HF-Benutzername}/ml-intern-sessions gespeichert. Die Sichtbarkeit kann über die CLI oder direkt auf huggingface.co angepasst werden (öffentlich oder privat). Dies gewährleistet, dass Benutzer die volle Kontrolle über ihre Daten und die Transparenz ihrer Agenten-Aktivitäten behalten.
Der ml-intern arbeitet in einem agentischen Loop, der bis zu 300 Iterationen pro Aufgabe umfassen kann. Ein ContextManager verwaltet die Nachrichtenhistorie und führt eine automatische Komprimierung durch, um den Kontextrahmen effizient zu nutzen. Der ToolRouter bietet Zugriff auf Hugging Face Dokumentationen, Datensätze, Jobs und wissenschaftliche Arbeiten sowie auf GitHub-Codesuchen und sandboxed Ausführungsumgebungen. Ein "Doom Loop Detector" ist integriert, um wiederholte Tool-Muster zu erkennen und korrigierende Prompts zu injizieren, was die Effizienz und Robustheit des Agenten erhöht.
Für Entwickler bietet der ml-intern umfangreiche Anpassungsmöglichkeiten. Eigene Tools können durch Bearbeitung von agent/core/tools.py hinzugefügt werden, und MCP-Server (Model Control Plane) können über die Konfigurationsdatei configs/main_agent_config.json integriert werden. Umgebungsvariablen für API-Schlüssel werden automatisch aus der .env-Datei übernommen.
Der ml-intern ist sowohl als Kommandozeilen-Interface (CLI) als auch als mobile und Desktop-Webanwendung verfügbar. Hugging Face hat zudem 1.000 US-Dollar in GPU-Ressourcen und Anthropic-Credits für frühe Nutzer bereitgestellt, um den Einstieg zu erleichtern und die Erprobung des Tools zu fördern. Dieser Anreiz ist besonders relevant für Universitäten, Bootcamps und EdTech-Startups, die ihren Studenten und Mitarbeitern praktischen Zugang zu Modelltrainingsmöglichkeiten bieten möchten, ohne hohe kommerzielle Cloud-Kosten zu verursachen.
Die Veröffentlichung des ml-intern unterstreicht das Engagement von Hugging Face für Open-Source-KI und die Demokratisierung des Zugangs zu fortschrittlichen ML-Tools. Die autonome Natur des Agenten, kombiniert mit seiner Fähigkeit, komplexe Forschungsschleifen nachzubilden, könnte die Entwicklung und Implementierung von LLMs erheblich beschleunigen. Es bleibt abzuwarten, wie sich der ml-intern in realen Anwendungsszenarien bewährt und welche weiteren Innovationen die Community auf Basis dieses Frameworks entwickeln wird.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen