Die Welt der künstlichen Intelligenz erlebt ein weiteres spannendes Kapitel mit der Einführung von LivePortrait, einer innovativen Anwendung, die auf der Plattform Hugging Face verfügbar ist. Diese Technologie ermöglicht es Nutzern, statische Bilder in lebendige Animationen zu verwandeln, die realistische Bewegungen und Emotionen darstellen.
LivePortrait wurde von einem Team von Forschern bei Kuaishou Technology entwickelt, darunter Jianzhu Guo, Dingyun Zhang, Xiaoqiang Liu, Zhizhou Zhong, Yuan Zhang, Pengfei Wan und Di Zhang. Das Projekt wird aktiv weiterentwickelt, und kontinuierliche Updates sowie Verbesserungen werden über das Repository auf GitHub bereitgestellt.
Die Anwendung verwendet fortschrittliche Techniken der Porträtanimation, die als Stitching und Retargeting Control bekannt sind. Diese Methoden ermöglichen es, die Bewegungen und Gesichtsausdrücke aus einem Quellvideo auf ein Zielbild zu übertragen. Die Implementierung erfolgt hauptsächlich in PyTorch, und die Forscher haben eine umfassende Dokumentation sowie Beispielcode bereitgestellt, um den Einstieg zu erleichtern.
Um LivePortrait zu nutzen, müssen Nutzer den Code klonen und die Umgebung vorbereiten:
- Clone des Repositories: `git clone https://github.com/KwaiVGI/LivePortrait`
- Aktivierung der Umgebung: `conda create -n LivePortrait python==3.9.18` und `conda activate LivePortrait`
- Installation der Abhängigkeiten: `pip install -r requirements.txt`
Anschließend müssen die vortrainierten Gewichte und Gesichtserkennungsmodelle heruntergeladen und in das Verzeichnis `./pretrained_weights` entpackt werden. Der Inferenzprozess kann dann durch Ausführung des Scripts `python inference.py` gestartet werden, das eine animierte MP4-Datei generiert.
Für eine bessere Benutzererfahrung bietet LivePortrait auch eine Gradio-Oberfläche, die durch den Befehl `python app.py` gestartet werden kann. Diese Oberfläche ermöglicht es Nutzern, die Animationen direkt im Browser zu erstellen und anzupassen.
Die Inferenzgeschwindigkeit wurde auf einer RTX 4090 GPU getestet, und die Ergebnisse zeigen beeindruckende Leistungswerte:
- Appearance Feature Extractor: 0.82 ms
- Motion Extractor: 0.84 ms
- Spade Generator: 7.59 ms
- Warping Module: 5.21 ms
- Stitching and Retargeting Modules: 0.31 ms
Diese schnellen Inferenzzeiten machen LivePortrait zu einer leistungsfähigen Lösung für Echtzeitanwendungen.
Das Team von Kuaishou Technology dankt den Entwicklern der FOMM, Open Facevid2vid, SPADE und InsightFace Repositories für ihre offenen Forschungen und Beiträge. Diese Arbeiten haben maßgeblich zur Entwicklung von LivePortrait beigetragen.
LivePortrait stellt einen bedeutenden Fortschritt in der KI-gestützten Porträtanimation dar. Die einfache Nutzung, die umfassende Dokumentation und die kontinuierlichen Updates machen es zu einem wertvollen Werkzeug für Entwickler und Forscher gleichermaßen. Die Verfügbarkeit auf Hugging Face erleichtert den Zugang und die Integration in bestehende Projekte.
https://huggingface.co/KwaiVGI/LivePortrait
https://huggingface.co/spaces
https://huggingface.co/spaces/KwaiVGI/LivePortrait
https://huggingface.co/
https://huggingface.co/spaces/multimodalart/liveportrait
https://huggingface.co/victor/activity/posts
https://twitter.com/huggingface?lang=kn
https://www.linkedin.com/posts/victor-mustar-22466951_current-status-training-a-satellite-images-activity-7041344737693290497-77b-?trk=public_profile_like_view