Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Hugging Face, ein führendes Unternehmen im Bereich der Künstlichen Intelligenz, hat mit der Einführung von "ML Intern" einen bedeutenden Schritt in der Automatisierung des Machine-Learning-Entwicklungsprozesses gemacht. Dieser Open-Source-KI-Agent ist darauf ausgelegt, den gesamten Post-Training-Forschungszyklus für Large Language Models (LLMs) zu automatisieren. Die Ankündigung hat in der Fachwelt große Aufmerksamkeit erregt und wird als potenzieller Wendepunkt für die ML-Forschung und -Entwicklung diskutiert.
"ML Intern" ist mehr als ein einfacher Code-Generator. Er agiert als autonomer ML-Ingenieur, der in der Lage ist, eine Vielzahl von Aufgaben eigenständig zu bewältigen, die traditionell umfangreiche manuelle Arbeit von ML-Forschern und -Ingenieuren erfordern. Dazu gehören:
Dieser agentische Ansatz spiegelt den Arbeitsablauf eines menschlichen ML-Forschers wider, jedoch mit dem Potenzial für eine deutlich höhere Geschwindigkeit und Skalierbarkeit.
Die Leistungsfähigkeit von "ML Intern" wurde in ersten Benchmarks demonstriert. Ein bemerkenswertes Ergebnis ist die Steigerung der wissenschaftlichen Denkfähigkeit eines Qwen3-1.7B-Modells auf dem GPQA-Benchmark von 10% auf 32% innerhalb von weniger als 10 Stunden. Dies übertrifft die Leistung von Anthropic's Claude Code, das auf dem gleichen Benchmark 22,99% erreichte. In einem separaten Test im Gesundheitswesen konnte "ML Intern" die Leistung von OpenAI's Codex auf HealthBench um 60% übertreffen, indem der Agent die Qualität vorhandener Datensätze als unzureichend beurteilte, ein Skript zur Generierung von 1.100 synthetischen Datenpunkten erstellte und diese für das Training hochskalierte.
Für komplexe mathematische Aufgaben demonstrierte der Agent die Fähigkeit, ein vollständiges GRPO-Trainingsskript zu erstellen, es auf A100 GPUs über Hugging Face Spaces zu starten und Ablationsstudien durchzuführen, um anfängliche Probleme zu beheben und zum Erfolg zu führen.
Die Architektur von "ML Intern" ist tief in das Hugging Face Ökosystem integriert. Dies ermöglicht dem Agenten den Zugriff auf eine breite Palette von Ressourcen und Tools:
Der Agent ist auf dem Hugging Face Hub als Web-App und über eine Kommandozeilenschnittstelle (CLI) verfügbar. Hugging Face unterstützt frühe Nutzer zudem mit 1.000 US-Dollar an GPU-Ressourcen und Anthropic-Guthaben, um die Nutzung und Weiterentwicklung zu fördern.
Die Funktionsweise von "ML Intern" basiert auf einer agentischen Schleife, die bis zu 300 Iterationen pro Aufgabe durchführen kann. Ein zentraler Bestandteil ist der ContextManager, der die Nachrichtenhistorie verwaltet und eine automatische Komprimierung bei 170.000 Tokens vornimmt, um Kontextüberläufe zu verhindern. Der ToolRouter leitet Anfragen an die entsprechenden Hugging Face Tools, GitHub oder lokale Sandbox-Umgebungen weiter. Ein "Doom Loop Detector" überwacht sich wiederholende Werkzeugmuster und injiziert korrigierende Prompts, um den Agenten aus Schleifen zu befreien.
Die Architektur ist ereignisgesteuert, was eine Echtzeitkommunikation über den Status und Fortschritt ermöglicht. Ereignisse wie "processing", "tool_call", "approval_required" und "turn_complete" informieren den Benutzer über die aktuellen Aktivitäten des Agenten.
Die Einführung von "ML Intern" wird als ein entscheidender Schritt in Richtung vollständig autonomer ML-Forschung angesehen. Die Fähigkeit, den gesamten Forschungszyklus zu automatisieren, könnte die Produktivität von ML-Teams erheblich steigern und es ermöglichen, einen zehnmal größeren Suchraum zu erkunden als mit traditionellen Methoden. Dies könnte auch die Kluft zwischen führenden Forschungslaboren und anderen Akteuren verringern, da die Automatisierung von Post-Training-Experimenten die Zugänglichkeit fortschrittlicher Modellentwicklung erhöht.
Gleichwohl sind mit dieser Entwicklung auch Herausforderungen verbunden. Die Verwaltung des Kontextfensters, die Notwendigkeit menschlicher Genehmigungen für sensible Operationen und die potenziellen Kosten für die Nutzung kommerzieller LLM-APIs sind Faktoren, die berücksichtigt werden müssen. Auch die Fähigkeit des Agenten, komplexe Fehler zu beheben und sich von unerwarteten Ausfällen zu erholen, hängt stark von der Qualität der Fehlermeldungen der zugrunde liegenden Tools ab.
Die Entwicklung von "ML Intern" signalisiert eine tiefgreifende Veränderung in der ML-Landschaft. Anstatt menschliche Hypothesen als Ausgangspunkt zu nehmen, könnten zukünftige Trainingsläufe mit einem Agenten beginnen, der wissenschaftliche Veröffentlichungen analysiert und vielversprechende Forschungsrichtungen identifiziert. Für ML-Praktiker bedeutet dies, sich auf die Zusammenarbeit mit solchen Systemen einzustellen, die richtigen Leitplanken zu setzen und die von Agenten generierten Erkenntnisse kritisch zu überprüfen.
Hugging Face's "ML Intern" stellt einen wichtigen Fortschritt in der autonomen ML-Entwicklung dar. Durch die tiefe Integration in das Hugging Face Ökosystem und eine robuste agentische Architektur bietet es eine leistungsstarke Plattform zur Automatisierung von Machine-Learning-Workflows. Die Fähigkeit des Agenten, komplexe Aufgaben von der Literaturrecherche bis zur Modelloptimierung eigenständig zu bewältigen, hat das Potenzial, die Effizienz und Skalierbarkeit der ML-Forschung maßgeblich zu beeinflussen. Es bleibt abzuwarten, wie sich "ML Intern" und ähnliche agentenbasierte Systeme in der Praxis bewähren und welche weiteren Innovationen sie in den kommenden Jahren anstoßen werden.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen