Die Generierung von Videos auf Basis von Textbeschreibungen, auch bekannt als Story-to-Video (S2V), hat in letzter Zeit erhebliche Fortschritte erzielt. Die Möglichkeit, lange, komplexe Videos zu erstellen, die eine Geschichte konsistent und in mehreren Szenen darstellen, eröffnet enorme Potenziale für die Erstellung verschiedenster Inhalte, insbesondere im Medien- und Unterhaltungsbereich. Doch die Technologie steht auch vor großen Herausforderungen. Objekte müssen eine Reihe von fein abgestimmten, komplexen Bewegungen ausführen, mehrere Objekte müssen konsistent über verschiedene Szenen hinweg erscheinen und Figuren benötigen oft mehrere Bewegungen mit nahtlosen Übergängen innerhalb einer Szene.
Ein vielversprechender Ansatz zur Bewältigung dieser Herausforderungen ist DreamRunner, eine neue Methode zur S2V-Generierung. DreamRunner nutzt die Stärken von großen Sprachmodellen (LLM), um das Input-Skript zu strukturieren und sowohl die grobe Szenenplanung als auch die fein abgestimmte Planung von Objektlayout und -bewegung zu ermöglichen.
Ein Kernstück von DreamRunner ist die sogenannte "Retrieval-Augmented Motion Adaptation". Diese Technik ermöglicht es, Bewegungsinformationen aus bestehenden Videos abzurufen und für die Generierung neuer Videos zu nutzen. Konkret bedeutet das, dass DreamRunner während der Generierungsphase auf eine Datenbank von Videos zugreift und Videos mit ähnlichen Bewegungen zu den im Skript beschriebenen Aktionen sucht. Die Bewegungsinformationen aus diesen Videos werden dann verwendet, um die Bewegungen der Objekte im generierten Video zu optimieren. Dadurch kann DreamRunner komplexe, skriptgesteuerte Bewegungen erzeugen, die über die Möglichkeiten bisheriger S2V-Systeme hinausgehen.
Um die Bewegungen der Objekte im Video präzise zu steuern und an das Skript anzupassen, verwendet DreamRunner ein neuartiges Modul namens "Spatial-Temporal Region-based 3D Attention and Prior Injection" (SR3AI). SR3AI ermöglicht eine fein abgestimmte Verknüpfung von Objekten und Bewegungen und erlaubt eine semantische Kontrolle auf Frame-Ebene. Durch die Kombination von räumlicher und zeitlicher Aufmerksamkeit kann SR3AI die relevantesten Informationen aus dem Skript und den abgerufenen Videos extrahieren und für die Generierung des Videos verwenden.
Vergleiche mit anderen S2V-Systemen zeigen, dass DreamRunner in Bezug auf Charakterkonsistenz, Texttreue und flüssige Übergänge den aktuellen Stand der Technik darstellt. Darüber hinaus demonstriert DreamRunner eine starke Fähigkeit, kompositionale Text-zu-Video-Generierung umzusetzen. Dies bedeutet, dass DreamRunner komplexe Szenen mit mehreren Objekten und Interaktionen generieren kann, die bisher nur schwer zu realisieren waren.
DreamRunner stellt einen wichtigen Schritt in der Entwicklung von S2V-Systemen dar. Die Kombination von LLM-basierter Skriptstrukturierung, Retrieval-Augmented Motion Adaptation und SR3AI ermöglicht die Generierung von qualitativ hochwertigen, storybasierten Videos mit komplexen Bewegungen und Interaktionen. Zukünftige Forschung könnte sich auf die Erweiterung der Video-Datenbank und die Verbesserung der semantischen Kontrolle konzentrieren, um die Möglichkeiten von S2V-Systemen weiter auszubauen.
Bibliographie: https://arxiv.org/abs/2307.06940 https://www.researchgate.net/publication/372341906_Animate-A-Story_Storytelling_with_Retrieval-Augmented_Video_Generation https://ar5iv.labs.arxiv.org/html/2307.06940 https://aclanthology.org/2023.findings-emnlp.262.pdf https://www.marktechpost.com/2023/07/21/meet-animate-a-story-a-storytelling-approach-with-retrieval-augmented-video-generation-that-can-synthesize-high-quality-structured-and-character-driven-videos/ https://www.youtube.com/watch?v=igdsOcIF8E0 https://github.com/cshizhe/hgr_v2t https://www.scitepress.org/Papers/2024/124197/124197.pdf https://issuu.com/kirkus-reviews/docs/kirkus_reviews_050122_online_issue_ https://archive.org/stream/ERIC_ED287173/ERIC_ED287173_djvu.txt