Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Hugging Face hat kürzlich "ml-intern" vorgestellt, einen Open-Source-KI-Agenten, der darauf ausgelegt ist, den Post-Training-Workflow für große Sprachmodelle (LLMs) zu automatisieren. Dieses Tool zielt darauf ab, den Prozess der Forschung, Entwicklung und Bereitstellung von ML-Modellen zu optimieren, indem es Aufgaben übernimmt, die traditionell erhebliche manuelle Eingriffe erforderten.
"ml-intern" ist als ein KI-Agent konzipiert, der autonom ML-bezogenen Code recherchiert, schreibt und implementiert. Er nutzt das Hugging Face-Ökosystem und hat Zugriff auf eine Vielzahl von Dokumentationen, wissenschaftlichen Arbeiten, Datensätzen und Cloud-Computing-Ressourcen. Die Funktionsweise ähnelt dem iterativen Ansatz eines menschlichen ML-Forschers.
Die Architektur des Agenten basiert auf einer sogenannten "agentischen Schleife", die bis zu 300 Iterationen umfassen kann. Innerhalb dieser Schleife interagiert der Agent mit verschiedenen Komponenten:
Der Workflow des Agenten beginnt mit der Verarbeitung von Benutzereingaben, die dann dem ContextManager hinzugefügt werden. In der Iterationsschleife ruft der Agent Nachrichten und Tool-Spezifikationen ab, führt LLM-Aufrufe durch und analysiert die daraus resultierenden Tool-Aufrufe. Bei Bedarf erfolgt eine Genehmigungsprüfung für sensible Operationen, bevor die Tools über den ToolRouter ausgeführt und die Ergebnisse dem ContextManager hinzugefügt werden. Dieser Prozess wiederholt sich, solange Tool-Aufrufe vorhanden sind.
In ersten Evaluierungen zeigte "ml-intern" vielversprechende Ergebnisse. Im Rahmen des PostTrainBench-Benchmarks, der die Fähigkeit eines Agenten testet, ein Basismodell innerhalb eines Zeitfensters von 10 Stunden auf einer einzelnen H100 GPU nachzutrainieren, erzielte "ml-intern" eine bemerkenswerte Leistungssteigerung. Ein Qwen3-1.7B-Basismodell, das ursprünglich eine GPQA-Punktzahl von etwa 10 % erreichte, konnte durch "ml-intern" in unter 10 Stunden auf 32 % verbessert werden. Diese Leistung übertraf die von Claude Code, das in derselben Aufgabe 22,99 % erreichte.
Die Anwendungsbereiche von "ml-intern" sind vielfältig und umfassen:
Zudem demonstrierte "ml-intern" fortgeschrittene Trainingsstrategien, wie die Generierung synthetischer Daten für Randfälle und die Implementierung komplexer Techniken wie Group Relative Policy Optimization (GRPO) zur Optimierung mathematischer Leistungen.
"ml-intern" ist auf dem smolagents-Framework von Hugging Face aufgebaut und integriert sich nahtlos in das Hugging Face-Ökosystem. Dies umfasst die Nutzung von Hugging Face Jobs für Rechenressourcen und Trackio für das Experiment-Tracking. Hugging Face bietet zudem $1.000 an GPU-Ressourcen und Anthropic-Credits für frühe Nutzer an, um die breite Anwendung und weitere Entwicklung des Tools zu fördern.
Das Projekt ist als Open-Source-Lösung verfügbar und kann über die Kommandozeile (CLI) oder als Web-App genutzt werden. Es unterstützt verschiedene Inferenzanbieter und Modelle, wobei die Standardkonfiguration auf Anthropic's Claude-Modelle verweist. Die Möglichkeit, eigene Tools und MCP-Server hinzuzufügen, unterstreicht die Flexibilität und Erweiterbarkeit des Systems.
Die Veröffentlichung von "ml-intern" durch Hugging Face stellt einen Schritt in Richtung einer stärker automatisierten und effizienteren Entwicklung von KI-Modellen dar. Die Fähigkeit des Agenten, den gesamten Forschungs- und Entwicklungszyklus autonom zu durchlaufen, könnte die Produktivität im ML-Bereich steigern und möglicherweise neue Wege für die Entwicklung von LLMs eröffnen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen