KI für Ihr Unternehmen – Jetzt Demo buchen

Hugging Face präsentiert ml-intern einen neuen Open-Source-KI-Agenten zur Automatisierung von ML-Workflows

Kategorien:
No items found.
Freigegeben:
May 2, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Hugging Face hat den "ml-intern" veröffentlicht, einen Open-Source-KI-Agenten, der ML-Workflows automatisiert.
    • Der ml-intern kann autonom wissenschaftliche Arbeiten lesen, Datensätze finden, Modelle trainieren und evaluieren.
    • Er hat Claude Code in wissenschaftlichem Reasoning und OpenAI Codex in einer Gesundheitsbewertung übertroffen.
    • Sitzungen des ml-intern werden automatisch in das Hub-Konto des Benutzers übertragen, um Transparenz und Nachvollziehbarkeit zu gewährleisten.
    • Das Tool ist als Kommandozeilen-Interface (CLI) sowie als mobile und Desktop-Webanwendung verfügbar.
    • Hugging Face unterstützt frühe Nutzer mit GPU-Ressourcen und Anthropic-Credits.

    Hugging Face, ein führendes Unternehmen im Bereich der Künstlichen Intelligenz, hat kürzlich den "ml-intern" vorgestellt, einen innovativen Open-Source-KI-Agenten. Dieses Tool ist darauf ausgelegt, die Post-Training-Workflows für große Sprachmodelle (LLMs) zu automatisieren. Es verspricht, die Effizienz von ML-Forschern und -Ingenieuren erheblich zu steigern, indem es Aufgaben übernimmt, die bisher einen erheblichen manuellen Aufwand erforderten.

    Die Fähigkeiten des ml-intern: Ein Überblick

    Der ml-intern agiert als autonomer ML-Ingenieur, der in der Lage ist, eine Vielzahl komplexer Aufgaben selbstständig zu bewältigen. Dazu gehören:

    • Autonome Recherche: Der Agent kann wissenschaftliche Arbeiten auf Plattformen wie arXiv und Hugging Face Papers durchsuchen, Methodikabschnitte analysieren und Zitationsgraphen verfolgen, um relevante Datensätze und Techniken zu identifizieren.
    • Datensatzverwaltung: Er findet referenzierte Datensätze im Hugging Face Hub, überprüft deren Qualität und formatiert sie für das Training um.
    • Modelltraining und -evaluierung: Der ml-intern kann Trainingsskripte ausführen und, falls lokale Rechenressourcen nicht verfügbar sind, Jobs über Hugging Face Jobs starten. Nach jedem Trainingslauf liest er Evaluationsergebnisse, diagnostiziert Fehler (z.B. Reward Collapse in RLHF-Pipelines) und führt erneute Trainings durch, bis die Benchmark-Leistung verbessert ist.
    • Integration in das Hugging Face Ökosystem: Das Tool ist auf dem smolagents-Framework von Hugging Face aufgebaut und integriert sich nativ mit Hugging Face Jobs für Rechenleistung und verwendet Trackio für das Open-Source-Experiment-Tracking.

    Leistungsfähigkeit und Benchmarks

    In frühen Benchmark-Tests hat der ml-intern beeindruckende Ergebnisse erzielt. Er übertraf Anthropic's Claude Code im wissenschaftlichen Reasoning und OpenAI's Codex in einer Gesundheitsbewertung. Ein bemerkenswertes Beispiel ist die Steigerung der wissenschaftlichen Reasoning-Punktzahl eines Qwen3-1.7B-Modells von 10% auf 32% innerhalb von 10 Stunden auf dem GPQA-Benchmark, während Claude Code 22.99% erreichte. Bei einem separaten Gesundheitstest gelang es dem Agenten, bestehende Datensätze als unzureichend zu identifizieren, ein Skript zur Generierung von 1.100 synthetischen Datenpunkten zu schreiben und diese für das Training zu verwenden, wodurch er Codex auf HealthBench um 60% übertraf. Für eine mathematische Aufgabe entwickelte der Agent ein vollständiges GRPO-Trainingsskript (Group Relative Policy Optimization) und optimierte die Leistung nach anfänglichen Rückgängen.

    Transparenz und Nachvollziehbarkeit: Automatisierte Sitzungsübertragung

    Ein zentrales Feature des ml-intern ist die automatische Übertragung aller Sitzungen in das Hub-Konto des Benutzers. Dies ermöglicht es, die Aktivitäten des Agenten transparent zu verfolgen und nachzuvollziehen. Diese Funktion ist entscheidend für die Vertrauensbildung und die iterative Verbesserung von Agenten-Workflows, insbesondere in B2B-Anwendungen, wo Nachvollziehbarkeit und Auditierbarkeit von großer Bedeutung sind.

    Standardmäßig werden die Sitzungsdaten in einem privaten Hugging Face Dataset namens {Ihr-HF-Benutzername}/ml-intern-sessions gespeichert. Die Sichtbarkeit kann über die CLI oder direkt auf huggingface.co angepasst werden (öffentlich oder privat). Dies gewährleistet, dass Benutzer die volle Kontrolle über ihre Daten und die Transparenz ihrer Agenten-Aktivitäten behalten.

    Technische Architektur und Entwicklung

    Der ml-intern arbeitet in einem agentischen Loop, der bis zu 300 Iterationen pro Aufgabe umfassen kann. Ein ContextManager verwaltet die Nachrichtenhistorie und führt eine automatische Komprimierung durch, um den Kontextrahmen effizient zu nutzen. Der ToolRouter bietet Zugriff auf Hugging Face Dokumentationen, Datensätze, Jobs und wissenschaftliche Arbeiten sowie auf GitHub-Codesuchen und sandboxed Ausführungsumgebungen. Ein "Doom Loop Detector" ist integriert, um wiederholte Tool-Muster zu erkennen und korrigierende Prompts zu injizieren, was die Effizienz und Robustheit des Agenten erhöht.

    Für Entwickler bietet der ml-intern umfangreiche Anpassungsmöglichkeiten. Eigene Tools können durch Bearbeitung von agent/core/tools.py hinzugefügt werden, und MCP-Server (Model Control Plane) können über die Konfigurationsdatei configs/main_agent_config.json integriert werden. Umgebungsvariablen für API-Schlüssel werden automatisch aus der .env-Datei übernommen.

    Verfügbarkeit und Unterstützung

    Der ml-intern ist sowohl als Kommandozeilen-Interface (CLI) als auch als mobile und Desktop-Webanwendung verfügbar. Hugging Face hat zudem 1.000 US-Dollar in GPU-Ressourcen und Anthropic-Credits für frühe Nutzer bereitgestellt, um den Einstieg zu erleichtern und die Erprobung des Tools zu fördern. Dieser Anreiz ist besonders relevant für Universitäten, Bootcamps und EdTech-Startups, die ihren Studenten und Mitarbeitern praktischen Zugang zu Modelltrainingsmöglichkeiten bieten möchten, ohne hohe kommerzielle Cloud-Kosten zu verursachen.

    Zukünftige Perspektiven

    Die Veröffentlichung des ml-intern unterstreicht das Engagement von Hugging Face für Open-Source-KI und die Demokratisierung des Zugangs zu fortschrittlichen ML-Tools. Die autonome Natur des Agenten, kombiniert mit seiner Fähigkeit, komplexe Forschungsschleifen nachzubilden, könnte die Entwicklung und Implementierung von LLMs erheblich beschleunigen. Es bleibt abzuwarten, wie sich der ml-intern in realen Anwendungsszenarien bewährt und welche weiteren Innovationen die Community auf Basis dieses Frameworks entwickeln wird.

    Quellen

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen