Die Beleuchtungsanpassung von Strahlungsfeldern ist ein komplexes und unterbestimmtes Problem, insbesondere wenn es um die Darstellung von Szenen mit mehreren Objekten geht. In der Regel wird die benötigte Datenmenge unter einer einzigen Beleuchtungsbedingung erfasst, was die Aufgabe noch schwieriger macht. Forscher haben nun einen neuen Ansatz entwickelt, um diese Herausforderung zu bewältigen, indem sie Diffusionsmodelle und Multi-Illumination Synthese nutzen.
Der von Yohan Poirier-Ginter, Alban Gauthier, Julien Philip, Jean-Francois Lalonde und George Drettakis entwickelte Ansatz basiert auf der Erstellung beleuchtbarer Strahlungsfelder aus Daten, die unter einer einzigen Beleuchtungsbedingung erfasst wurden. Dies erfolgt durch die Nutzung von Prioren, die aus 2D-Bilddiffusionsmodellen extrahiert wurden. Der Prozess lässt sich in drei Hauptschritte unterteilen:
Der erste Schritt besteht darin, ein 2D-Beleuchtungsneuronales Netzwerk zu erstellen, das eine direkte Steuerung der Beleuchtungsrichtung ermöglicht. Hierzu wird ein vortrainiertes Diffusionsmodell auf einem Multi-Illumination-Datensatz feinabgestimmt.
Das Netzwerk wird verwendet, um eine Einzelbeleuchtungsaufnahme in eine virtuelle Multi-Illumination-Aufnahme umzuwandeln. Dies geschieht durch die Generierung mehrerer beleuchteter Versionen jedes Bildes im Datensatz.
Schließlich wird ein beleuchtbares Strahlungsfeld unter Verwendung von 3D-Gaussian-Splatting (3DGS) erstellt. Diese Darstellung wird durch ein kleines Mehrschicht-Perzeptron (MLP) erweitert, das die sphärischen harmonischen Koeffizienten ersetzt.
Die Methode zeigt beeindruckende Ergebnisse bei der Beleuchtungsanpassung von synthetischen und realen Multi-View-Daten unter Einzelbeleuchtung. Sie bietet eine realistische 3D-Beleuchtung für komplette Szenen und überwindet dabei die Herausforderungen, die mit der Beleuchtung von komplexen Geometrien und reflektierenden Oberflächen verbunden sind.
Im Vergleich zu anderen Methoden wie Outcast, Relightable 3D Gaussians und TensoIR zeigt diese Methode eine überlegene Handhabung von unübersichtlichen Szenen und komplexen Geometrien. Dies liegt daran, dass sie nicht auf genaue Geometrien und Oberflächennormalen angewiesen ist.
Um die Konsistenz über mehrere Ansichten hinweg zu gewährleisten, wird ein per-Bild-Hilfsvektor optimiert. Diese Optimierung hilft, Ungenauigkeiten in den synthetisierten beleuchteten Eingabebildern zu korrigieren und eine konsistente Beleuchtungslösung zu bieten.
Die Methode zeigt vielversprechende Ergebnisse und bietet eine neue Möglichkeit, beleuchtbare Strahlungsfelder zu erstellen. Die Forscher planen, ihre Arbeit weiter zu optimieren und die Methode auf weitere Anwendungen auszudehnen. Die Veröffentlichung des Codes wird in naher Zukunft erwartet, was die Implementierung und Weiterentwicklung der Methode erleichtern wird.
Die von den Forschern entwickelte Methode stellt einen bedeutenden Fortschritt in der Beleuchtungsanpassung von Strahlungsfeldern dar. Durch die Nutzung von Diffusionsmodellen und Multi-Illumination Synthese konnten sie eine realistische und konsistente Beleuchtung für komplexe Szenen erreichen. Diese Arbeit öffnet neue Möglichkeiten für die weitere Forschung und Anwendung in der Computergraphik und der Bildverarbeitung.
Bibliographie - https://repo-sam.inria.fr/fungraph/generative-radiance-field-relighting/ - https://arxiv.org/abs/2409.08947 - https://repo-sam.inria.fr/fungraph/generative-radiance-field-relighting/content/paper_compressed.pdf - https://www.researchgate.net/publication/382522393_A_Diffusion_Approach_to_Radiance_Field_Relighting_using_Multi-Illumination_Synthesis - https://www.youtube.com/watch?v=1vR0TsAuH1Q - https://ouci.dntb.gov.ua/en/works/7AJB8vk4/ - https://www.realtimerendering.com/kesen/egsr2024Papers.htm - https://radiancefields.com/diffusion-based-3dgs-relighting - https://twitter.com/julienphilip2 - https://www.realtimerendering.com/kesen/egsr2024-Changelog.htm