Das EAGLE Projekt Ein fortschrittlicher multimodaler Ansatz in der Künstlichen Intelligenz

Kategorien:
No items found.
Freigegeben:
August 30, 2024

Ein neuer Ansatz für multimodale KI: Das EAGLE-Projekt

Einführung

Die Fähigkeit, komplexe visuelle Informationen genau zu interpretieren, ist ein zentrales Thema bei multimodalen großen Sprachmodellen (MLLMs). Jüngste Arbeiten zeigen, dass eine verbesserte visuelle Wahrnehmung Halluzinationen erheblich reduziert und die Leistung bei auflösungsabhängigen Aufgaben wie optischer Zeichenerkennung (OCR) und Dokumentenanalyse verbessert. Eine Reihe aktueller MLLMs erreicht dieses Ziel durch die Nutzung einer Mischung aus Vision-Encodern.

Herausforderungen und Motivation

Trotz ihres Erfolgs gibt es einen Mangel an systematischen Vergleichen und detaillierten Ablationsstudien, die kritische Aspekte wie die Auswahl von Experten und die Integration mehrerer Vision-Experten behandeln. Diese Studie bietet eine umfangreiche Erkundung des Designraums für MLLMs unter Verwendung einer Mischung aus Vision-Encodern und Auflösungen. Unsere Ergebnisse zeigen mehrere zugrunde liegende Prinzipien, die verschiedenen bestehenden Strategien gemeinsam sind und zu einem optimierten, aber effektiven Designansatz führen.

Der EAGLE-Ansatz

Wir haben herausgefunden, dass das einfache Zusammenfügen visueller Tokens aus einer Reihe komplementärer Vision-Encoder genauso effektiv ist wie komplexere Mischarchitekturen oder -strategien. Zusätzlich haben wir die Vorab-Ausrichtung (Pre-Alignment) eingeführt, um die Lücke zwischen vision-fokussierten Encodern und Sprach-Tokens zu überbrücken und die Kohärenz des Modells zu erhöhen. Die resultierende Familie von MLLMs, EAGLE, übertrifft andere führende Open-Source-Modelle in wichtigen MLLM-Benchmarks.

Design Space Exploration

Unsere Erkundung des Designraums bestand aus den folgenden Schritten: - Benchmarking verschiedener Vision-Encoder und Suche nach Rezepten für die Anpassung an höhere Auflösungen. - „Apples to apples“-Vergleich zwischen Vision-Encoder-Fusionsstrategien. - Fortschreitende Identifikation der optimalen Kombination mehrerer Vision-Encoder. - Verbesserte Vorab-Ausrichtung und Datenmischung.

Wichtige Erkenntnisse

Unsere Arbeit ist nicht die erste, die mehrere Vision-Encoder in MLLMs nutzt. Dennoch führt die systematische Studie zu mehreren interessanten neuen Erkenntnissen in diesem Bereich: - Das Entsperren der Vision-Encoder während des MLLM-Trainings ist von Bedeutung. Dies steht im starken Gegensatz zur LLaVA-Familie und vielen Arbeiten, die mehrere Vision-Encoder oder Lehrer in Betracht ziehen, bei denen das Einfrieren der Vision-Encoder eine gängige Wahl war. - Einige kürzlich vorgeschlagene Fusionsstrategien zeigen trotz ihrer fortschrittlichen Designs keine signifikanten Vorteile. Stattdessen stellt sich heraus, dass die einfache Kanalverkettung als eine einfache, aber wettbewerbsfähige Fusionsstrategie herausragt, die beste Effizienz und Leistung bietet. - Die Einbindung zusätzlicher Vision-Experten führt zu einem konsistenten Gewinn, was es zu einem vielversprechenden Weg macht, die MLLM-Wahrnehmung systematisch zu verbessern, abgesehen vom Skalieren einzelner Encoder. Die Verbesserung ist besonders ausgeprägt, wenn die Vision-Encoder entsperrt sind. - Wir schlagen eine Vorab-Ausrichtungsphase vor, in der nicht-Text-ausgerichtete Vision-Experten individuell mit einem eingefrorenen LLM fein abgestimmt werden, bevor sie zusammen trainiert werden. Diese Phase verbessert die MLLM-Leistung unter dem Design der Mischung aus Vision-Encodern erheblich.

Evaluation und Performance

EAGLE wurde in einer Reihe von Benchmarks evaluiert, darunter visuelles Fragenbeantworten, OCR/Dokument-bezogene Aufgaben und Benchmarks, die auf MLLMs zugeschnitten sind. Unser Modell erreicht in verschiedenen Benchmarks eine Spitzenleistung und zeigt offensichtliche Vorteile bei OCR- und Dokument-Verständnisaufgaben. Unter Verwendung derselben Vor-Trainings- und überwachten Feinabstimmungsdaten von Cambrian-1 – einer gleichzeitigen Familie von vision-zentrierten MLLMs, die ähnliche Designgeister teilen – erzielen EAGLE-Modelle insgesamt eine bessere Leistung.

Zukunftsaussichten

Wir hoffen, dass EAGLE eine hochleistungsfähige und leicht reproduzierbare MLLM-Lösung für die Community bieten kann. Die Ergebnisse unserer Studie werden durch die Freigabe von Modellen und Code unterstützt, um die Reproduzierbarkeit und weitere Forschung in diesem Bereich zu fördern.

Fazit

Das EAGLE-Projekt bietet eine fundierte Exploration des Designraums für multimodale LLMs, indem es eine Mischung aus Vision-Encodern nutzt. Unsere systematischen Untersuchungen führen zu neuen Erkenntnissen und einem optimierten Designansatz, der die Leistung und Effizienz von MLLMs verbessert. EAGLE stellt einen bedeutenden Fortschritt in der Fähigkeit multimodaler Modelle dar, komplexe visuelle Informationen präzise zu interpretieren und Aufgaben mit hoher Auflösung erfolgreich zu bewältigen.

Bibliographie

https://www.arxiv.org/abs/2408.15998 https://arxiv.org/html/2408.15998v1 https://github.com/NVlabs/Eagle https://x.com/_akhaliq?lang=de https://github.com/DirtyHarryLYL/LLM-in-Vision https://openreview.net/forum?id=Vx1JadlOIt&referrer=%5Bthe%20profile%20of%20Wenhai%20Wang%5D(%2Fprofile%3Fid%3D~Wenhai_Wang2) https://paperswithcode.com/paper/cambrian-1-a-fully-open-vision-centric/review/
Was bedeutet das?