KI für Ihr Unternehmen – Jetzt Demo buchen

Neuer KI-Agent ml-intern von Hugging Face revolutioniert den Post-Training-Workflow

Kategorien:
No items found.
Freigegeben:
May 2, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Hugging Face hat "ml-intern" veröffentlicht, einen Open-Source-KI-Agenten für den Post-Training-Workflow von Large Language Models (LLMs).
    • Eine neue Funktion namens "YOLO-Modus" ermöglicht es ml-intern, langwierige Aufgaben wie die Durchführung paralleler Abalationsstudien zu übernehmen.
    • Der Agent kann autonom Forschungsarbeiten durchführen, Datensätze finden, Trainingsskripte ausführen und iterative Evaluierungen vornehmen.
    • ml-intern hat bei Benchmarks, wie dem PostTrainBench, eine signifikante Leistungssteigerung gezeigt und übertraf in einigen Bereichen Modelle wie Claude Code.
    • Das Tool ist als Kommandozeilen-Interface (CLI) sowie als mobile und Desktop-Webanwendung verfügbar.

    Die Evolution der KI-Entwicklung: Hugging Face stellt „ml-intern“ und den YOLO-Modus vor

    In der dynamischen Landschaft der Künstlichen Intelligenz (KI) stellt die Automatisierung komplexer Entwicklungsschritte einen entscheidenden Fortschritt dar. Hugging Face, bekannt für seine Beiträge zur Open-Source-KI-Community, hat kürzlich „ml-intern“ vorgestellt – einen autonomen KI-Agenten, der den Post-Training-Workflow von Large Language Models (LLMs) optimieren soll. Eine bemerkenswerte Erweiterung dieses Tools ist der neu implementierte „YOLO-Modus“, der die Fähigkeiten des Agenten in der Durchführung umfangreicher und zeitintensiver Aufgaben erweitert.

    ml-intern: Ein autonomer ML-Ingenieur

    ml-intern ist als Open-Source-KI-Agent konzipiert, der die Aufgaben eines Machine Learning (ML)-Ingenieurs autonom ausführen kann. Dazu gehören das Lesen von Forschungsarbeiten, das Trainieren von Modellen und das Bereitstellen von ML-Modellen. Die Entwicklung dieses Agenten zielt darauf ab, den gesamten Forschungs- und Entwicklungszyklus zu automatisieren, der traditionell erhebliche manuelle Eingriffe von ML-Forschenden und -Ingenieuren erfordert.

    Die Funktionen von ml-intern umfassen:

    • Autonome Recherche: Der Agent kann arXiv und Hugging Face Papers durchsuchen, Methodikabschnitte lesen und Zitiergraphen analysieren, um relevante Datensätze und Techniken zu identifizieren.
    • Datensatz-Management: Er sucht im Hugging Face Hub nach referenzierten Datensätzen, prüft deren Qualität und formatiert sie für das Training neu.
    • Trainingsausführung: Bei fehlenden lokalen Rechenressourcen kann der Agent Jobs über Hugging Face Jobs starten.
    • Iterative Evaluierung: Nach jedem Trainingslauf liest ml-intern die Evaluationsergebnisse, diagnostiziert Fehler (z.B. Reward Collapse in RLHF-Pipelines) und trainiert das Modell neu, bis die Benchmark-Leistung verbessert ist.

    Die gesamte Überwachungsinfrastruktur basiert auf Trackio, einem Hub-nativen Experiment-Tracker, der als Open-Source-Alternative zu kommerziellen Lösungen positioniert ist.

    Der YOLO-Modus: Effizienz bei langwierigen Aufgaben

    Der kürzlich hinzugefügte „YOLO-Modus“ erweitert die Fähigkeiten von ml-intern erheblich. Dieser Modus ermöglicht es dem Agenten, langwierige Aufgaben auszuführen, wie beispielsweise parallele Abalationsstudien, um die optimale Datenmischung für einen Post-Training-Lauf zu bestimmen. Diese Funktion adressiert einen häufigen Engpass in der ML-Entwicklung, bei dem die manuelle Durchführung solcher Experimente zeitaufwendig und ressourcenintensiv ist. Durch die Automatisierung dieser Prozesse kann der YOLO-Modus die Effizienz und Geschwindigkeit der Modelloptimierung potenziell steigern.

    Leistungsfähigkeit und Benchmarks

    Die Leistungsfähigkeit von ml-intern wurde anhand des PostTrainBench-Benchmarks evaluiert, der von Forschenden der Universität Tübingen und des Max-Planck-Instituts eingeführt wurde. Dieser Benchmark testet die Fähigkeit eines Agenten, ein Basismodell innerhalb eines strengen Zeitfensters von 10 Stunden auf einer einzigen H100-GPU nachzutrainieren.

    In einer offiziellen Demo gelang es ml-intern, das Qwen3-1.7B-Basismodell, das initial einen GPQA-Score von etwa 10% erreichte, innerhalb von 10 Stunden auf 32% zu verbessern. Dies stellt eine signifikante Steigerung dar, insbesondere im Vergleich zu Modellen wie Claude Code, das auf derselben Aufgabe einen Benchmark von 22,99% erreichte. Die Fähigkeit von ml-intern, 32% aus dem relativ kleinen 1.7B Qwen-Modell zu extrahieren, deutet auf eine hohe „Dateneffizienz“ hin, die manuelle Forscher in einem so kurzen Zeitrahmen oft nur schwer reproduzieren können.

    Zusätzlich demonstrierte ml-intern in anderen Tests fortgeschrittene Trainingsstrategien:

    • Synthetische Datengenerierung: In einem Test im Gesundheitsbereich erkannte der Agent, dass vorhandene medizinische Datensätze unzureichend waren. Er erstellte daraufhin ein Skript zur Generierung von 1.100 synthetischen Datenpunkten, die sich auf Randfälle wie medizinische Hecke und mehrsprachige Notfallreaktionen konzentrierten.
    • Autonome RLHF via GRPO: Für eine mathematische Aufgabe implementierte der Agent ein Group Relative Policy Optimization (GRPO)-Trainingsskript und führte Abalationen durch, bis die anfänglich kollabierten Belohnungen stabilisiert waren.

    Architektur und Implementierung

    ml-intern ist auf dem smolagents-Framework von Hugging Face aufgebaut und integriert sich nativ in das Ökosystem von Hugging Face, einschließlich Hugging Face Jobs für Rechenleistung. Die Architektur beinhaltet eine „Agentic Loop“ mit bis zu 300 Iterationen pro Aufgabe, einen Kontextmanager für die Nachrichtenhistorie und automatische Komprimierung sowie einen ToolRouter für den Zugriff auf Hugging Face Dokumente, Datensätze, Jobs und GitHub-Codesuche. Die Ausführung erfolgt in einer Sandbox-Umgebung.

    Das Tool ist über ein Kommandozeilen-Interface (CLI) und als mobile sowie Desktop-Webanwendung zugänglich. Hugging Face stellt zudem GPU-Ressourcen und Anthropic-Credits für frühe Nutzer bereit, um die Adoption des Tools zu fördern.

    Ausblick

    Die Einführung von ml-intern und insbesondere des YOLO-Modus durch Hugging Face markiert einen Schritt in Richtung vollautomatisierter ML-Entwicklungsprozesse. Die Fähigkeit, komplexe und langwierige Aufgaben autonom zu bewältigen, könnte die Effizienz in der Forschung und Entwicklung von KI-Modellen signifikant steigern. Die Open-Source-Natur des Projekts ermöglicht es der Community, die Grenzen und Möglichkeiten dieses Tools weiter zu erforschen und anzupassen.

     

    Bibliographie

    • Hugging Face. (o.D.). GitHub - huggingface/ml-intern: 🤗 ml-intern: an open-source ML engineer that reads papers, trains models, and ships ML models. Verfügbar unter: https://github.com/huggingface/ml-intern/tree/main [Abgerufen am 1. Mai 2026].
    • Tunstall, L. (2026, 1. Mai). By popular request, YOLO-mode has landed on ml-intern [LinkedIn-Post]. Verfügbar unter: https://www.linkedin.com/posts/lewis-tunstall_by-popular-request-yolo-mode-has-landed-activity-7456053367346204672-goOq [Abgerufen am 1. Mai 2026].
    • Razzaq, A. (2026, 22. April). Hugging Face Releases ml-intern: An Open-Source AI Agent that Automates the LLM Post-Training Workflow. MarkTechPost. Verfügbar unter: https://www.marktechpost.com/2026/04/21/hugging-face-releases-ml-intern-an-open-source-ai-agent-that-automates-the-llm-post-training-workflow/ [Abgerufen am 1. Mai 2026].
    • Thompson, E. (2026, 23. April). Hugging Face launches ML Intern, AI agent that beats Claude Code on reasoning. EdTech Innovation Hub. Verfügbar unter: https://www.edtechinnovationhub.com/news/hugging-face-releases-ml-intern-the-ai-agent-teaching-itself-to-beat-claude-code-on-scientific-reasoning [Abgerufen am 1. Mai 2026].

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen