Multimodale große Sprachmodelle (MLLMs) gewinnen zunehmend an Bedeutung, da sie Text- und Bildinformationen gleichermaßen verarbeiten können. Für reale Anwendungen ist es entscheidend, dass ein MLLM verschiedene Aufgaben wie visuelle Fragebeantwortung (VQA), Objekterkennung, Texterkennung (OCR) und die Interpretation von Diagrammen (ChartQA) gleichzeitig bewältigt. Die gleichzeitige Verarbeitung unterschiedlicher Datentypen und -verteilungen führt jedoch häufig zu Konflikten, die die Leistung des Modells beeinträchtigen können.
Ein vielversprechender Ansatz zur Lösung dieses Problems ist die Mixture-of-Experts (MoE)-Architektur. Hierbei wird das Modell in spezialisierte Experten unterteilt, die jeweils nur für bestimmte Aufgaben oder Datentypen zuständig sind. Ein sogenannter Router entscheidet, welcher Experte für die jeweilige Eingabe am besten geeignet ist und aktiviert diesen. Dadurch werden die jeweiligen Stärken der Experten genutzt und gleichzeitig die Konflikte zwischen verschiedenen Aufgaben minimiert.
Awaker2.5-VL ist ein neues MLLM, das auf der MoE-Architektur basiert und speziell für die Bewältigung multimodaler Aufgaben entwickelt wurde. Das Modell nutzt mehrere Experten, die jeweils nur für einen Teil der Eingabedaten aktiviert werden. Um das Training und die Inferenz von Awaker2.5-VL zu beschleunigen, verwendet jeder Experte eine Low-Rank-Adaptation (LoRA)-Struktur. Diese Technik reduziert den Bedarf an trainierbaren Parametern, indem sie die ursprünglichen Gewichte des Modells einfriert und stattdessen kleinere, rangreduzierte Matrizen trainiert.
Durch die Kombination von MoE und LoRA erreicht Awaker2.5-VL eine hohe Effizienz sowohl beim Training als auch bei der Inferenz. Die spärliche Aktivierung der Experten reduziert den Rechenaufwand, während LoRA die Anzahl der trainierbaren Parameter minimiert. Dies ermöglicht die Skalierung des Modells auf größere Datensätze und komplexere Aufgaben, ohne die Leistung zu beeinträchtigen.
Die Effektivität von Awaker2.5-VL wurde in umfangreichen Experimenten auf verschiedenen Benchmarks getestet. Die Ergebnisse zeigen, dass das Modell im Vergleich zu herkömmlichen MLLMs eine verbesserte Leistung bei gleichzeitiger Reduzierung des Rechenaufwands erzielt. Die Kombination aus MoE und LoRA erweist sich als effektive Strategie zur Skalierung von MLLMs und zur Bewältigung der Herausforderungen multimodaler Aufgaben.
Die MoE-Architektur und LoRA-Technik bieten vielversprechende Möglichkeiten für die Weiterentwicklung von MLLMs. Zukünftige Forschung könnte sich auf die Optimierung des Routings, die Entwicklung neuer Expertenarchitekturen und die Anwendung von MoE auf andere Bereiche des maschinellen Lernens konzentrieren. Die Entwicklung von effizienten und skalierbaren MLLMs wie Awaker2.5-VL wird die Anwendung von KI in immer mehr Bereichen ermöglichen und zu neuen Innovationen führen.
Bibliographie Gao, Z.-F., Liu, P., Zhao, W. X., Lu, Z.-Y., & Wen, J.-R. (2022). Parameter-Efficient Mixture-of-Experts Architecture for Pre-trained Language Models. Proceedings of the 29th International Conference on Computational Linguistics. Du, Y., Huang, Y., Dai, W., Tong, Z., Wei, F., & Zhou, J. (2022). Parameter-efficient transfer learning for NLP. Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Arpita Vats, Rahul Raja, Vinija Jain, Aman Chadha (2024). THE EVOLUTION OF MIXTURE OF EXPERTS: A SURVEY FROM BASICS TO BREAKTHROUGHS Shen, S., Yao, Z., Li, C., Darrell, T., Keutzer, K., & He, Y. (2023). Scaling Vision-Language Models with Sparse Mixture of Experts. arXiv preprint arXiv:2303.07226. Zadouri, T., Üstün, A., Ahmadian, A., Ermis, B., Locatelli, A., & Hooker, S. (2024). Pushing Mixture of Experts to the Limit: Extremely Parameter Efficient MoE for Instruction Tuning. International Conference on Learning Representations. Long, J., Dai, Y., Yang, G., Lin, H., Fei, N., Gao, Y., & Lu, Z. (2024). Awaker2.5-VL: Stably Scaling MLLMs with Parameter-Efficient Mixture of Experts. arXiv preprint arXiv:2411.10669. Clark, K., Bhagavatula, C., Lester, B., Tenenbaum, J., & Choi, Y. (2022). Living in a Mixture of Experts: An Empirical Study of MoE in NLP. arXiv preprint arXiv:2203.07226. Fedotov, S. (2024). Mixtures of Experts and scaling laws. Nebius.