Die Generierung von 3D-Modellen aus einzelnen 2D-Bildern ist eine komplexe Aufgabe mit großem Potenzial für Anwendungen in verschiedenen Bereichen wie AR/VR, Film, Robotik und Gaming. Bisherige Feedforward-Methoden zur Bild-zu-3D-Generierung basieren oft auf zweistufigen Verfahren, die zunächst mittels 2D-Diffusionsmodellen mehrere Ansichten eines Objekts erzeugen und diese dann in einem zweiten Schritt zu einem 3D-Modell rekonstruieren. Diese Verfahren haben jedoch Schwierigkeiten, die 3D-Konsistenz der generierten Modelle zu gewährleisten, insbesondere bei wechselnden Blickwinkeln. Zudem sind sie häufig auf objektzentrierte Bilder beschränkt.
Ein neuer Ansatz namens DiffusionGS verspricht hier Abhilfe. DiffusionGS ist ein einstufiges 3D-Diffusionsmodell, das direkt 3D-Gaußsche Punktwolken ausgibt. Durch die direkte Generierung von 3D-Daten in jedem Zeitschritt wird die Konsistenz über verschiedene Ansichten hinweg sichergestellt. Das Modell ist dadurch robuster gegenüber wechselnden Blickwinkeln und kann auch Szenen generieren, die nicht objektzentriert sind.
Ein weiterer Vorteil von DiffusionGS liegt in seiner Geschwindigkeit. Dank hochparalleler Rasterisierung und skalierbarem Bildgebungsbereich kann das Modell 3D-Objekte und -Szenen in etwa sechs Sekunden auf einer A100-GPU generieren – deutlich schneller als bisherige State-of-the-Art-Methoden.
Um die Leistungsfähigkeit und Generalisierbarkeit von DiffusionGS zu verbessern, setzen die Entwickler auf eine gemischte Trainingsstrategie, die sowohl Szenen- als auch Objektdaten nutzt. Dies ermöglicht es dem Modell, ein allgemeineres Verständnis von Geometrie und Textur zu erlernen. Die gemischte Trainingsstrategie berücksichtigt dabei die Verteilung der ausgewählten Ansichten, die Kamerabedingungen, die Gaußschen Punktwolken und die Bildgebungstiefen.
Ein wichtiger Aspekt der 3D-Generierung ist die Berücksichtigung der Kameraposition. Bisherige Methoden, die Plücker-Koordinaten verwenden, stoßen hier an ihre Grenzen. DiffusionGS verwendet daher ein neues Verfahren namens "Reference-Point Plücker Coordinates" (RPPC). RPPC kodiert den Punkt auf jedem Strahl, der dem Ursprung des Weltkoordinatensystems am nächsten liegt. Dies verbessert die Wahrnehmung von Tiefe und 3D-Geometrie über verschiedene Szenen- und Objektdaten hinweg.
Nach dem gemischten Training werden die Gewichte des Modells weiter auf Objekt- oder Szenendaten feinabgestimmt, um die Leistung weiter zu steigern. Experimente zeigen, dass DiffusionGS im Vergleich zu bestehenden Methoden eine bessere Generierungsqualität erzielt, gemessen an Metriken wie PSNR und FID.
DiffusionGS eröffnet neue Möglichkeiten für die 3D-Generierung aus Einzelbildern. Die schnelle Generierungsgeschwindigkeit und die verbesserte 3D-Konsistenz machen das Modell attraktiv für verschiedene Anwendungen, darunter die Erstellung von 3D-Inhalten für AR/VR-Anwendungen, die Generierung von 3D-Modellen aus Bildern für die Robotik oder die automatische Erstellung von 3D-Szenen für Filme und Spiele. Die Möglichkeit, sowohl Objekte als auch Szenen zu generieren, erweitert das Anwendungsspektrum zusätzlich.
Die Forschung im Bereich der Bild-zu-3D-Generierung ist dynamisch, und DiffusionGS stellt einen vielversprechenden Schritt in Richtung schnellerer, skalierbarerer und qualitativ hochwertigerer 3D-Modellgenerierung dar. Zukünftige Arbeiten könnten sich auf die weitere Verbesserung der Generierungsqualität, die Erweiterung des Modells auf andere Datentypen oder die Integration von semantischen Informationen konzentrieren.
Bibliographie: https://arxiv.org/html/2411.14384v1 https://caiyuanhao1998.github.io/project/DiffusionGS/ https://twitter.com/janusch_patas/status/1859867424859856997 https://www.reddit.com/r/ninjasaid13/comments/1gwy75r/241114384_baking_gaussian_splatting_into/ https://paperreading.club/page?id=267573 https://huggingface.co/papers/2403.10242 https://arxiv.org/html/2410.09467v2 https://github.com/MrNeRF/awesome-3D-gaussian-splatting