MM-Vet v2: Ein Herausfordernder Benchmark zur Bewertung Großer Multimodaler Modelle für Integrierte Fähigkeiten
Einführung
In der dynamischen Welt der künstlichen Intelligenz (KI) und maschinellen Lernens haben sich großformatige multimodale Modelle (LMMs) rasch weiterentwickelt. Diese Modelle zeigen zunehmend bemerkenswerte Fähigkeiten zur Lösung komplexer Aufgaben, die verschiedene integrierte Fähigkeiten erfordern. Ein prominentes Beispiel für die Bewertung dieser Modelle ist der MM-Vet-Benchmark, der speziell entwickelt wurde, um die Fähigkeiten von LMMs zu testen.
MM-Vet: Ursprung und Zielsetzung
MM-Vet wurde ursprünglich konzipiert, um sechs Kernfähigkeiten der Vision-Language (VL) zu bewerten: Erkennung, Wissen, räumliches Bewusstsein, Sprachgenerierung, optische Zeichenerkennung (OCR) und Mathematik. Die Fragen im ursprünglichen MM-Vet waren jedoch auf einzelne Bild-Text-Paare beschränkt, was die realen Anwendungen nicht vollständig abbildete, in denen Bild- und Textsequenzen oft miteinander verwoben sind.
Einführung von MM-Vet v2
Um diese Einschränkungen zu überwinden, wurde MM-Vet v2 entwickelt. Diese Version erweitert den Benchmark um eine neue Fähigkeit, die als "Bild-Text-Sequenz-Verständnis" bezeichnet wird. Diese Fähigkeit bewertet die Fähigkeit der Modelle, sequenzielle Bild-Text-Daten zu verarbeiten. Zusätzlich wurde die Größe des Bewertungssatzes erweitert, während die hohe Qualität der Bewertungsproben beibehalten wurde.
Bewertungskriterien und Methodik
MM-Vet v2 verwendet offene Fragen, um die integrierten Fähigkeiten der Modelle zu bewerten. Ein neues Bewertungssystem wurde eingeführt, das GPT-4 verwendet, um die Vorhersagen der Modelle zu bewerten. Dies ermöglicht eine einheitliche Bewertung über verschiedene Fragestile und Antwortformate hinweg.
Sechs Kernfähigkeiten von MM-Vet v2
- Erkennung
- Wissen
- Räumliches Bewusstsein
- Sprachgenerierung
- OCR
- Mathematik
Zusätzliche Fähigkeit: Bild-Text-Sequenz-Verständnis
Diese neue Fähigkeit umfasst Aufgaben, die die Verarbeitung von Bild-Text-Sequenzen erfordern, wie z.B. die zeitliche Analyse von Videoframes oder das Vergleichen von Bildern in "Finde den Unterschied"-Herausforderungen.
Erweiterung des Bewertungssatzes
MM-Vet v2 hat die Anzahl der Bewertungsproben von 217 auf 517 erweitert. Die Fragen decken verschiedene Szenarien ab, von alltäglichen Situationen bis hin zu Experten- und Industrieanwendungen. Die Erzeugung qualitativ hochwertiger Fragen und Referenzantworten wurde durch die Zusammenarbeit von Forschern und Experten ermöglicht.
Benchmark-Ergebnisse
In den Tests mit MM-Vet v2 erzielte das Modell Claude 3.5 Sonnet die höchste Punktzahl von 71.8 Punkten, knapp gefolgt von GPT-4o mit 71.0 Punkten. Unter den Open-Weight-Modellen führte InternVL2-Llama3-76B mit einer Punktzahl von 68.4.
Schlussfolgerungen
MM-Vet v2 stellt einen bedeutenden Fortschritt in der Bewertung von LMMs dar, indem es die Fähigkeit zur Verarbeitung von Bild-Text-Sequenzen hinzufügt und die Größe des Bewertungssatzes erweitert. Dies ermöglicht eine umfassendere und realistischere Bewertung der Fähigkeiten von LMMs.
Ausblick
Die ständige Weiterentwicklung von LMMs und die Einführung neuer Benchmarks wie MM-Vet v2 sind entscheidend, um die Grenzen der KI zu erweitern und ihre Fähigkeiten in realen Anwendungen zu verbessern. Die zukünftige Forschung sollte sich darauf konzentrieren, die Bewertungsmethoden weiter zu verfeinern und neue Herausforderungen zu entwickeln, die die Fähigkeiten der LMMs noch umfassender testen.
Bibliografie:
- https://arxiv.org/abs/2408.00765
- https://huggingface.co/papers/2408.00765
- https://arxiv.org/html/2408.00765v1
- https://x.com/AdeenaY8/status/1819373571501691186
- https://github.com/yuweihao/MM-Vet
- https://openreview.net/pdf/cd2e7d4af40f9413abc8f94db8072cbe1b3adf77.pdf
- http://ui.adsabs.harvard.edu/abs/2023arXiv230802490Y/abstract
- https://arxiv-sanity-lite.com/?rank=pid&pid=2308.02490
- https://www.researchgate.net/publication/372951047_MM-Vet_Evaluating_Large_Multimodal_Models_for_Integrated_Capabilities