Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Landschaft der Künstlichen Intelligenz (KI) entwickelt sich rasant, und mit ihr die Werkzeuge und Methoden, die zur Optimierung und Beschleunigung von Machine-Learning-Workflows eingesetzt werden. Eine bemerkenswerte Entwicklung in diesem Bereich ist die Einführung von "ml-intern" durch Hugging Face. Dieser Open-Source-KI-Agent verspricht, den Post-Training-Workflow für große Sprachmodelle (Large Language Models, LLMs) zu revolutionieren, indem er eine Reihe komplexer Aufgaben autonom übernimmt.
"ml-intern" wurde als ein KI-Agent konzipiert, der die Rolle eines erfahrenen ML-Ingenieurs übernimmt. Seine Fähigkeiten reichen von der Recherche wissenschaftlicher Arbeiten über das Training von Modellen bis hin zur Auslieferung fertiger ML-Modelle. Der Agent agiert dabei innerhalb des Hugging Face-Ökosystems und nutzt dessen umfangreiche Dokumentation, Datensätze und Cloud-Computing-Ressourcen.
Die Autonomie von "ml-intern" erstreckt sich über mehrere Schlüsselaspekte des ML-Workflows:
Dieser kontinuierliche Forschungszyklus ahmt die Arbeit eines menschlichen ML-Forschers nach und zielt darauf ab, den manuellen Aufwand erheblich zu reduzieren.
Die Architektur von "ml-intern" basiert auf einem agentischen Loop, der bis zu 300 Iterationen durchlaufen kann. Ein zentraler ContextManager verwaltet die Nachrichtenhistorie und führt eine automatische Kompaktierung durch. Der ToolRouter ermöglicht den Zugriff auf verschiedene Werkzeuge und Ressourcen, darunter Hugging Face-Dokumente, Repositories, Datensätze und lokale Tools. Ein Doom Loop Detector ist integriert, um wiederholte Tool-Muster zu erkennen und korrigierende Prompts zu injizieren.
Der Agent unterstützt verschiedene Modelle, darunter von Anthropic und OpenAI, und kann im interaktiven oder Headless-Modus betrieben werden. Benachrichtigungen über den Agentenstatus (z.B. Genehmigung erforderlich, Fehler, Turn Complete) können über Gateways wie Slack versendet werden, was die Überwachung erleichtert.
Eine kürzlich eingeführte Funktion erweitert die Nützlichkeit von "ml-intern" erheblich: Sitzungen des KI-Agenten werden nun automatisch auf das Hugging Face Hub-Konto der Nutzer übertragen. Diese Integration ist ein wichtiger Schritt zur Verbesserung der Transparenz und Nachvollziehbarkeit der von KI-Agenten durchgeführten Arbeiten.
Die automatische Übertragung der Sitzungen auf das Hub-Konto ermöglicht es Nutzern, die Aktivitäten ihres "ml-intern"-Agenten einfach und zentral einzusehen. Dies ist insbesondere für B2B-Anwendungen von Bedeutung, wo die Nachvollziehbarkeit von Prozessen und die Überwachung von automatisierten Aufgaben entscheidend sind. Indem jeder Schritt des Agenten im Hub dokumentiert wird, können Unternehmen:
Die Leistungsfähigkeit von "ml-intern" wurde unter anderem anhand des PostTrainBench-Benchmarks bewertet, der von Forschern der Universität Tübingen und des Max-Planck-Instituts eingeführt wurde. Dieser Benchmark testet die Fähigkeit eines Agenten, ein Basismodell innerhalb eines engen Zeitfensters auf einer einzigen H100-GPU nachzutrainieren.
In einer offiziellen Demo gelang es "ml-intern", die wissenschaftliche Argumentationsfähigkeit eines Qwen3-1.7B-Basismodells von etwa 10% auf bemerkenswerte 32% zu steigern – und das in weniger als 10 Stunden. Dieses Ergebnis ist besonders beeindruckend, da es die spezifischen GPQA-Ergebnisse von Anthropic's Claude Code (22,99%) übertraf. Die Fähigkeit, eine so signifikante Verbesserung aus einem vergleichsweise kleinen Modell zu erzielen, demonstriert ein hohes Maß an "Dateneffizienz".
"ml-intern" ist nicht auf einfache Fine-Tuning-Aufgaben beschränkt. Der Agent kann auch fortgeschrittene Strategien anwenden:
Die Entwicklungen rund um "ml-intern" und dessen Integration in das Hugging Face Hub bieten vielversprechende Perspektiven für Unternehmen. Die Automatisierung und Transparenz, die dieser KI-Agent mit sich bringt, können die Effizienz von ML-Entwicklungsprozessen erheblich steigern. Insbesondere in Bereichen, in denen die schnelle Anpassung und Optimierung von LLMs entscheidend ist, könnte "ml-intern" zu einem wertvollen Werkzeug werden. Die Möglichkeit, das Verhalten des Agenten detailliert nachzuvollziehen, minimiert Risiken und fördert eine fundierte Entscheidungsfindung in komplexen KI-Projekten.
Die kontinuierliche Weiterentwicklung von Open-Source-KI-Agenten wie "ml-intern" unterstreicht das Engagement der KI-Community, fortschrittliche Technologien zugänglicher und anwendbarer zu machen. Für Unternehmen, die ihre ML-Workflows optimieren möchten, stellt dies eine spannende Entwicklung dar, die es genau zu beobachten gilt.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen