Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Generierung von immersiven und realistischen 3D-Welten aus 2D-Eingaben stellt einen signifikanten Fortschritt im Bereich der Künstlichen Intelligenz dar. NVIDIA hat kürzlich Lyra 2.0 vorgestellt, ein Framework, das genau diese Fähigkeit auf ein neues Niveau heben soll. Dieses Modell, das auf Hugging Face zugänglich gemacht wurde, ermöglicht die Erstellung von persistenten, erkundbaren 3D-Welten aus einem einzigen Bild. Die zugrundeliegende Forschung wurde in einem Paper mit dem Titel "Lyra 2.0: Explorable Generative 3D Worlds" detailliert beschrieben.
Die Entwicklung von Lyra 2.0 baut auf den jüngsten Fortschritten in der Videogenerierung auf. Bisherige Ansätze zur Erstellung von 3D-Szenen aus Videos stießen auf Herausforderungen, insbesondere bei der Aufrechterhaltung der Konsistenz über längere Kamerabewegungen und bei der erneuten Erkundung bereits besuchter Bereiche. Lyra 2.0 zielt darauf ab, diese Limitationen durch einen neuartigen Ansatz zu überwinden.
Lyra 2.0 ist als zweistufiges Framework konzipiert. Die erste Stufe synthetisiert ein Langstrecken-Video mit starker globaler geometrischer Konsistenz. Die zweite Stufe rekonstruiert diese generierte Sequenz in eine explizite 3D-Repräsentation. Um die Problematik des "räumlichen Vergessens" zu adressieren – bei dem zuvor beobachtete Regionen aus dem zeitlichen Kontext des Modells fallen und bei erneuter Betrachtung neu halluziniert werden müssen – behält Lyra 2.0 eine pro-Frame 3D-Geometrie bei. Diese Geometrie wird ausschließlich für das Informationsrouting verwendet, um relevante frühere Frames abzurufen und dichte Korrespondenzen mit den Zielansichtspunkten herzustellen. Die eigentliche Erscheinungssynthese basiert weiterhin auf dem generativen Vorwissen des Modells.
Ein weiteres zentrales Problem, das "zeitliche Driften", bei dem sich kleine Synthesefehler über die Zeit akkumulieren und das Erscheinungsbild sowie die Geometrie der Szene verzerren, wird in Lyra 2.0 durch ein Training mit selbst-augmentierten Historien angegangen. Das Modell wird dabei mit seinen eigenen degradierten Ausgaben konfrontiert, wodurch es lernt, Drift zu korrigieren, anstatt ihn zu verstärken.
Die Architektur von Lyra 2.0 ermöglicht nicht nur eine skalierbare und räumlich persistente Szenengenerierung, sondern unterstützt auch Echtzeit-Rendering. Dies ist ein entscheidender Faktor für Anwendungen in Bereichen wie Virtual Reality, Gaming und Simulation. Die Fähigkeit, hochqualitative 3D-Szenen aus einem einzigen Bild zu generieren, stellt einen neuen Stand der Technik in diesem Feld dar.
Die durch Lyra 2.0 generierten explorierbaren 3D-Welten eröffnen eine Vielzahl von Anwendungsmöglichkeiten, insbesondere im B2B-Sektor.
Ein Kernmerkmal von Lyra 2.0 ist die Möglichkeit, interaktive GUIs zu erstellen, die es Benutzern erlauben, akkumulierte Punktwolken zu visualisieren und Kameratrajektorien zu planen. Dies bedeutet, dass Anwender zuvor erkundete Regionen erneut besuchen oder sich in unerforschte Gebiete wagen können, wobei Lyra 2.0 die Szene progressiv generiert, während sich der Benutzer bewegt. Die generierten Videos können in 3D Gaussian Splatting (3DGS) und Meshes umgewandelt und direkt in Physik-Engines exportiert werden. Als Beispiel wird die Integration in NVIDIA Isaac Sim genannt, um physikalisch fundierte Roboternavigation und -interaktion zu ermöglichen.
Die Technologie hinter Lyra 2.0 hat weitreichende Implikationen für die Entwicklung von "Embodied AI" – also KI-Systemen, die in physischen oder simulierten Umgebungen agieren. Durch die schnelle und konsistente Generierung von 3D-Umgebungen können Entwickler realistische Szenarien für das Training und Testen autonomer Agenten schaffen, ohne aufwendige manuelle 3D-Modellierung oder reale Datenerfassung angewiesen zu sein. Dies könnte die Skalierung von Simulationen in Bereichen wie Robotik und autonomes Fahren erheblich beschleunigen.
Die Veröffentlichung von Lyra 2.0 auf Hugging Face unter einer speziellen Lizenz für interne wissenschaftliche Forschung und Entwicklung unterstreicht NVIDIAs Engagement, die Fortschritte im Bereich der generativen 3D-Modelle zu fördern. Forscher und Entwickler erhalten Zugang zu einem leistungsfähigen Werkzeug, um neue Techniken in der 3D-Welterstellung zu erforschen und zu validieren.
Trotz der beeindruckenden Fähigkeiten von Lyra 2.0 gibt es weiterhin Herausforderungen, die für zukünftige Iterationen relevant sein könnten.
Das aktuelle Framework konzentriert sich primär auf statische Umgebungen. Die explizite Modellierung dynamischer Szenen, in denen sich Objekte oder die Umgebung selbst verändern, stellt eine wichtige Forschungsrichtung dar. Die Integration von Bewegung und Tracking-Informationen in das Rekonstruktionsnetzwerk könnte hier zukünftige Verbesserungen ermöglichen.
Die Qualität der generierten Videos und der daraus resultierenden 3D-Szenen hängt stark von den Trainingsdaten ab. Photometrische Inkonsistenzen in den Trainingsdaten, wie sie beispielsweise im DL3DV-Datensatz auftreten können, können zu Artefakten in den 3DGS-Rekonstruktionen führen. Die Verbesserung der photometrischen Stabilität innerhalb des Netzwerks oder die Nutzung photometrisch konsistenter synthetischer Datensätze aus Game-Engines könnten die Qualität der Ergebnisse weiter steigern.
Die Generierung und Rekonstruktion komplexer 3D-Welten erfordert erhebliche Rechenressourcen. Auch wenn Lyra 2.0 auf NVIDIA GPU-beschleunigten Systemen wie H100 und GB200 optimiert ist, bleibt die Effizienz ein kontinuierliches Entwicklungsfeld, um die Zugänglichkeit und Anwendbarkeit für ein breiteres Spektrum von Nutzern zu verbessern.
Lyra 2.0 von NVIDIA stellt einen bedeutenden Fortschritt in der generativen 3D-Welterstellung dar. Durch die effektive Bewältigung von Herausforderungen wie dem räumlichen Vergessen und dem zeitlichen Driften ermöglicht das Modell die Erzeugung von persistenten und explorierbaren 3D-Umgebungen aus einzelnen 2D-Bildern. Die Optimierung für Echtzeit-Rendering und die Kompatibilität mit Simulationsplattformen wie NVIDIA Isaac Sim unterstreichen das hohe Potenzial für B2B-Anwendungen, insbesondere in der Forschung und Entwicklung von Embodied AI. Die kontinuierliche Weiterentwicklung in Bereichen wie dynamische Szenen und photometrische Konsistenz wird die Leistungsfähigkeit dieser Technologie voraussichtlich weiter erhöhen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen