Künstliche Intelligenz (KI) hat in den letzten Jahren beeindruckende Fortschritte im Bereich der Bild- und Textverarbeitung gemacht. Videos, mit ihrer komplexen Kombination aus visuellen und zeitlichen Informationen, stellen jedoch weiterhin eine große Herausforderung für KI-Systeme dar. Meta, in Zusammenarbeit mit Forschern der Stanford University, hat nun Apollo vorgestellt, eine Familie von KI-Modellen, die darauf abzielt, dieses Problem des Videoverständnisses zu lösen.
Videos enthalten eine Fülle dynamischer Informationen, die weit über die statische Natur von Bildern hinausgehen. Objekte bewegen sich, Szenen wechseln, und Handlungen entfalten sich über die Zeit. Diese zeitliche Dimension erschwert die Verarbeitung für KI-Modelle erheblich. Herkömmliche Ansätze, die Einzelbilder analysieren, scheitern oft daran, die Beziehungen zwischen den Frames und den Fluss der Handlung zu erfassen. Darüber hinaus benötigt die Verarbeitung von Videos deutlich mehr Rechenleistung als die von Bildern oder Text, was die Entwicklung und das Training großer Video-KI-Modelle teuer und zeitaufwendig macht.
Das Apollo-Projekt verfolgt einen systematischen Ansatz, um die grundlegenden Fragen des Designs von Videoverständnis-Systemen zu beantworten. Das Team von Meta und Stanford hat umfangreiche Forschungsarbeiten durchgeführt, um die optimalen Architekturen, Trainingsmethoden und Datensätze für diese Modelle zu identifizieren. Ein zentraler Aspekt dieser Forschung ist die Erkenntnis, dass Verbesserungen, die bei kleineren Modellen funktionieren, sich zuverlässig auf größere Modelle übertragen lassen. Das bedeutet, dass neue Ansätze zunächst mit kleineren, kostengünstigeren Modellen getestet werden können, bevor sie auf größere Systeme angewendet werden. Dies beschleunigt den Entwicklungsprozess und reduziert die Kosten erheblich.
Die Apollo-Modelle verwenden eine spezielle Architektur, die aus zwei Komponenten besteht: Ein Encoder verarbeitet die einzelnen Videoframes und extrahiert räumliche Informationen, während ein zweiter Encoder die zeitlichen Beziehungen zwischen den Frames analysiert. Die Forscher fanden heraus, dass eine konstante Abtastrate von Bildern pro Sekunde die besten Ergebnisse liefert. Zusätzlich fügen die Modelle Zeitstempel zwischen den verarbeiteten Videosegmenten ein, um das Verständnis der zeitlichen Abfolge zu verbessern. Im Trainingsprozess spielt die richtige Zusammensetzung der Trainingsdaten eine entscheidende Rolle. Die optimale Mischung besteht aus 10-14% Textdaten und dem Rest an Videomaterial, was dem Modell hilft, sowohl ein starkes Sprachverständnis als auch eine effektive Videoverarbeitung zu entwickeln.
Das Forschungsteam hat auch einen neuen Benchmark namens ApolloBench entwickelt, um die Leistung von Video-KI-Modellen genauer zu bewerten. Viele bisherige Benchmarks konzentrierten sich hauptsächlich auf die Sprachverarbeitung und weniger auf das eigentliche Videoverständnis. ApolloBench hingegen testet gezielt das Verständnis von zeitlichen Beziehungen in Videos und bietet eine effizientere Methode zur Bewertung.
Die Apollo-Modelle zeigen beeindruckende Ergebnisse in verschiedenen Tests. Das kleinere Apollo-3B-Modell übertrifft vergleichbar große Modelle, während Apollo-7B mit deutlich größeren Systemen konkurrieren kann. Meta hat sowohl den Code als auch die Modellgewichte als Open Source veröffentlicht, und eine öffentliche Demo ist auf Hugging Face verfügbar. Diese Offenheit fördert die weitere Forschung und Entwicklung im Bereich des Videoverständnisses. Mit Apollo und ApolloBench hat Meta einen wichtigen Beitrag zur Weiterentwicklung der KI im Umgang mit Videos geleistet und den Weg für zukünftige Innovationen in diesem Bereich geebnet.
Mindverse, ein deutsches Unternehmen, bietet eine All-in-One-Plattform für KI-gestützte Text- und Bildgenerierung, Recherche und vieles mehr. Als KI-Partner entwickelt Mindverse maßgeschneiderte Lösungen wie Chatbots, Voicebots, KI-Suchmaschinen und Wissenssysteme für Unternehmen. Mit der Expertise von Mindverse können Sie das Potenzial der KI voll ausschöpfen und Ihre Geschäftsprozesse optimieren.
Bibliographie: https://www.marktechpost.com/2024/12/16/meta-ai-releases-apollo-a-new-family-of-video-lmms-large-multimodal-models-for-video-understanding/ https://www.mind-verse.de/news/metas-apollo-verbesserung-videoverstaendnis-multimodale-modelle https://arxiv.org/abs/2412.10360 https://twitter.com/Marktechpost/status/1868910052771549257 https://www.youtube.com/watch?v=OHy5VithNKc https://science.slashdot.org/story/24/11/13/1244216/ai-systems-solve-just-2-of-advanced-maths-problems-in-new-benchmark-test https://www.yahoo.com/tech/google-makes-quantum-leap-suggests-141417981.html https://en.wikipedia.org/wiki/Enshittification https://www.reddit.com/r/singularity/comments/1hfh1w5/meta_apollo_an_exploration_of_video_understanding/