Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Landschaft der Künstlichen Intelligenz (KI) wird kontinuierlich durch neue Entwicklungen und Werkzeuge geformt. Eine aktuelle Veröffentlichung von Hugging Face, bekannt für seine umfassende Plattform für Machine Learning, hat in der Fachwelt Aufmerksamkeit erregt: der Open-Source-KI-Agent namens "ml-intern". Dieses Tool zielt darauf ab, den gesamten Workflow der ML-Modellentwicklung zu automatisieren, von der Forschung über das Training bis zur Implementierung.
"ml-intern" wird als ein autonomer ML-Ingenieur beschrieben, der in der Lage ist, Fachartikel zu lesen, Modelle zu trainieren und ML-Modelle zu versenden. Es integriert sich tief in das Hugging Face Ökosystem, wodurch es Zugriff auf Dokumentationen, Forschungsarbeiten, Datensätze und Cloud-Computing-Ressourcen erhält. Die Funktionalität des Agenten umfasst mehrere Kernbereiche:
Die Architektur von "ml-intern" basiert auf einer "Agentic Loop", die bis zu 300 Iterationen pro Aufgabe durchführen kann. Ein integrierter ContextManager verwaltet die Nachrichtenhistorie und führt eine automatische Komprimierung durch. Ein ToolRouter ermöglicht den Zugriff auf verschiedene Ressourcen wie Hugging Face Dokumente, Repositories, Datensätze und GitHub-Code-Suchen. Zudem verfügt der Agent über einen "Doom Loop Detector", der wiederholte Tool-Muster erkennt und korrigierende Prompts injiziert.
Die Leistungsfähigkeit von "ml-intern" wurde in verschiedenen Benchmarks evaluiert. Ein signifikanter Vergleich erfolgte mit dem PostTrainBench, einem Benchmark, der die Fähigkeit eines Agenten testet, ein Basismodell innerhalb eines Zeitfensters von zehn Stunden auf einer einzelnen H100 GPU nachzutrainieren.
Im Rahmen einer offiziellen Demonstration konnte "ml-intern" das Qwen3-1.7B-Basismodell, das initial eine GPQA-Punktzahl von etwa 10 % erreichte, in weniger als zehn Stunden auf 32 % verbessern. Dies verdeutlicht eine bemerkenswerte "Daten-Effizienz", die manuelle Forschende in so kurzer Zeit oft nur schwer replizieren können. Interessanterweise übertraf der Agent in dieser spezifischen Aufgabe auch Claude Code, das bei 22,99 % lag.
In einem weiteren Test im Gesundheitsbereich konnte "ml-intern" durch die Generierung von 1.100 synthetischen Datenpunkten, die Notfall-, Kunden- und mehrsprachige Kommunikationsszenarien abdeckten, OpenAI Codex auf dem HealthBench um 60 % übertreffen.
Diese Ergebnisse deuten darauf hin, dass "ml-intern" in der Lage ist, komplexe Probleme im Bereich des wissenschaftlichen Denkens und der medizinischen Evaluation effektiv zu lösen. Die Fähigkeit zur autonomen Generierung hochwertiger synthetischer Daten für Randfälle und die Implementierung komplexer Techniken wie Group Relative Policy Optimization (GRPO) zur Optimierung der mathematischen Leistung unterstreichen die fortschrittlichen Trainingsstrategien des Agenten.
Zwei technische Strategien, die "ml-intern" in veröffentlichten Demos demonstrierte, sind besonders hervorzuheben:
"ml-intern" ist auf dem smolagents-Framework aufgebaut und integriert sich nativ mit Hugging Face Jobs für die Rechenleistung. Für das Experiment-Tracking wird Trackio verwendet, eine Hub-native Lösung, die als Open-Source-Alternative zu Tools wie Weights & Biases positioniert ist.
Der "ml-intern" ist sowohl über eine Kommandozeilenschnittstelle (CLI) als auch über eine mobile und Desktop-Webanwendung zugänglich. Hugging Face hat zudem Anreize für frühe Nutzer geschaffen, indem GPU-Ressourcen und Anthropic-Guthaben zur Verfügung gestellt wurden.
Die Möglichkeit, den Agenten im interaktiven oder Headless-Modus zu verwenden, bietet Flexibilität für verschiedene Anwendungsfälle. Entwickler können eigene Tools hinzufügen oder MCP-Server integrieren, um die Funktionalität des Agenten zu erweitern.
Die Veröffentlichung von "ml-intern" stellt einen Schritt in Richtung einer stärker automatisierten und effizienteren ML-Entwicklung dar. Die Fähigkeit des Agenten, komplexe Aufgaben autonom zu bewältigen und dabei in verschiedenen Benchmarks überzeugende Ergebnisse zu liefern, könnte die Arbeitsweise von ML-Forschenden und -Ingenieuren maßgeblich beeinflussen.
Für Unternehmen im B2B-Bereich, insbesondere solche, die auf die Entwicklung und den Einsatz von KI-Modellen angewiesen sind, bietet "ml-intern" mehrere potenzielle Vorteile:
Die "ml-intern"-Lösung von Hugging Face signalisiert eine Entwicklung, in der KI-Agenten zunehmend in der Lage sind, komplexe Aspekte der KI-Entwicklung selbstständig zu übernehmen. Dies könnte die Art und Weise, wie Unternehmen KI-Projekte angehen, grundlegend verändern und die Tür für eine breitere Anwendung von fortschrittlicher KI-Technologie öffnen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen