Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Als Senior Specialist Journalist und Analyst für Mindverse, Ihrem KI-Partner, beobachten wir kontinuierlich die neuesten Entwicklungen im Bereich der Künstlichen Intelligenz. Aktuelle Nachrichten aus der Forschungsgemeinschaft zeigen, dass Microsoft einen neuen Benchmark mit dem Namen DELULU-FIM-BENCHMARK auf Hugging Face veröffentlicht hat. Dieser neue Benchmark ist speziell für die Bewertung von Code-Sprachmodellen (CodeLLMs) in "Fill-in-the-Middle"-Code-Vervollständigungsaufgaben (FIM) konzipiert. Er ist Teil einer umfassenderen Initiative, die darauf abzielt, die Bewertung von Code-Generierungsmodellen realistischer und aussagekräftiger zu gestalten.
Der DELULU-FIM-BENCHMARK ist eine Komponente des sogenannten DevBench-Frameworks. DevBench ist ein von Microsoft entwickelter Benchmark, der darauf ausgelegt ist, die Leistungsfähigkeit von grossen Sprachmodellen (LLMs) bei realistischen Code-Vervollständigungsaufgaben zu bewerten. Im Gegensatz zu vielen bestehenden Benchmarks, die oft auf öffentlich zugänglichen Code-Repositories basieren, legt DevBench Wert auf die ökologische Validität. Das bedeutet, dass die Aufgaben die tatsächlichen Herausforderungen widerspiegeln, denen Entwickler im Alltag begegnen. Dies wird durch die Analyse von über einer Milliarde realer Entwicklerinteraktionen und der Synthese von 1.800 Bewertungsinstanzen erreicht.
DevBench verfolgt mehrere zentrale Ziele, die für die B2B-Zielgruppe von grosser Relevanz sind:
Die Bewertungsinstanzen bestehen jeweils aus einem Präfix (vorangehender Code-Kontext), einer "Golden Completion" (erwartete Ausgabe), einem Suffix (nachfolgender Code) und Assertionen zur Validierung der Korrektheit. Besonders die "Fill-in-the-Middle"-Szenarien, bei denen sowohl ein Präfix als auch ein Suffix gegeben sind, sind für die realistische Code-Vervollständigung von Bedeutung.
Die Bewertung der Code-Generierungsmodelle erfolgt über ein mehrdimensionales System, das verschiedene Aspekte der Code-Qualität berücksichtigt:
Im Rahmen der Entwicklung des Benchmarks wurden neun State-of-the-Art-Modelle evaluiert. Die Ergebnisse liefern erste Einblicke in die Leistungsfähigkeit aktueller Code-Sprachmodelle:
Für Unternehmen, die auf KI-gestützte Code-Generierungswerkzeuge setzen oder solche entwickeln, sind die Erkenntnisse aus dem DELULU-FIM-BENCHMARK von grosser Bedeutung:
Mindverse als Ihr KI-Partner ist bestrebt, Ihnen Werkzeuge zur Verfügung zu stellen, die auf den neuesten Forschungsergebnissen basieren und den höchsten Standards in Bezug auf Funktionalität und Zuverlässigkeit entsprechen. Die Entwicklung und Analyse solcher Benchmarks wie DELULU-FIM-BENCHMARK ist ein wichtiger Schritt, um die Leistungsfähigkeit und die praktischen Anwendungen von KI in der Softwareentwicklung kontinuierlich zu verbessern.
Die fortlaufende Forschung und Entwicklung in diesem Bereich wird dazu beitragen, die Lücke zwischen den Fähigkeiten von CodeLLMs und den komplexen Anforderungen realer Softwareentwicklungsprojekte weiter zu schliessen. Mindverse verfolgt diese Entwicklungen genau, um sicherzustellen, dass unsere Lösungen stets den aktuellen Anforderungen des Marktes entsprechen.
Bibliography: - microsoft/DELULU-FIM-BENCHMARK · Datasets at Hugging Face. (n.d.). Hugging Face. Retrieved from https://huggingface.co/datasets/microsoft/DELULU-FIM-BENCHMARK - Golnari, P. A., Kumarappan, A., Wen, W., Liu, X., Ryan, G., Sun, Y., ... & Nallipogu, E. (2026). DevBench: A Realistic, Developer-Informed Benchmark for Code Generation Models. arXiv preprint arXiv:2601.11895. - Readme. (n.d.). Hugging Face. Retrieved from https://huggingface.co/cmu-mlsp/DELULU/resolve/main/README.md?download=true - Microsoft - Hugging Face. (n.d.). Hugging Face. Retrieved from https://huggingface.co/microsoft/datasets - GitHub - microsoft/NoFunEval: Code and Data for the paper - "NoFunEval: Funny How Code LMs Falter on Requirements Beyond Functional Correctness". (n.d.). GitHub. Retrieved from https://aka.ms/NoFunEval - DELULU: Discriminative Embedding Learning Using Latent Units for Speaker-Aware Self-Trained Speech Foundational Model. (n.d.). arXiv. Retrieved from https://arxiv.org/html/2510.17662v2 - Code Evaluation - a Vipitis Collection - Hugging Face. (n.d.). Hugging Face. Retrieved from https://huggingface.co/collections/Vipitis/code-evaluation - GitHub - microsoft/SWE-bench-Live at dbee9db50363733b09e03a8cc2b131cf1bb72a52 · GitHub. (n.d.). GitHub. Retrieved from https://github.com/microsoft/SWE-bench-Live/tree/dbee9db50363733b09e03a8cc2b131cf1bb72a52 - microsoft/MMLU-CF. (n.d.). GitHub. Retrieved from https://github.com/microsoft/mmlu-cf - CodeMMLU: A Multi-Task Benchmark for Assessing Code .... (n.d.). Hugging Face. Retrieved from https://huggingface.co/papers/2410.01999Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen