Große Sprachmodelle (LLMs) haben in den letzten Jahren erhebliche Fortschritte in zahlreichen Aufgaben der natürlichen Sprachverarbeitung (NLP) gezeigt. Ihre Fähigkeit, Texte zu verstehen und zu generieren, hat sie zu einem wertvollen Werkzeug in vielen Bereichen gemacht. Doch die Frage bleibt: Können diese Modelle auch komplexere, visuelle Aufgaben bewältigen, wie sie in symbolischen Grafikprogrammen vorkommen?
Symbolische Grafikprogramme sind eine spezielle Art von Programmen, die visuelle Daten prozedural generieren. Im Gegensatz zu herkömmlichen Programmen können sie in grafische Inhalte übersetzt werden. Dies stellt eine besondere Herausforderung dar, da die Fragen, die sich auf diese grafischen Inhalte beziehen, oft schwer aus den symbolischen Programmen allein zu beantworten sind. Eine visuelle Darstellung würde die Beantwortung dieser Fragen erheblich erleichtern.
Die zentrale Herausforderung besteht darin, dass LLMs in der Lage sein müssen, sich vorzustellen, wie der entsprechende grafische Inhalt aussehen würde, ohne direkten Zugriff auf die gerenderten visuellen Inhalte zu haben. Diese Fähigkeit, visuelle Szenen aus Programmen zu verstehen und darüber zu schlussfolgern, wird als eine der Hauptfähigkeiten angesehen, die für die Interpretation symbolischer Grafikprogramme erforderlich ist.
Um die Fähigkeiten von LLMs in diesem Bereich zu bewerten, wurde ein umfangreicher Benchmark erstellt. Dieser Benchmark basiert auf der Übereinstimmung von Programmen und Grafiken und erfordert daher nur minimalen menschlichen Aufwand. Die aktuellen LLMs wurden anhand dieses Benchmarks getestet, um eine erste Einschätzung ihrer Fähigkeit zu erhalten, visuelle Szenen aus Programmen zu erschließen.
Die Ergebnisse zeigen, dass diese Aufgabe bestehende LLMs unterscheidet und dass Modelle, die als gut im Schlussfolgern gelten, besser abschneiden. Dies deutet darauf hin, dass die Fähigkeit, visuelle Inhalte aus symbolischen Programmen zu erschließen, eng mit der allgemeinen Schlussfolgerungsfähigkeit der Modelle verbunden ist.
Um diese Fähigkeit zu verbessern, wurde die Technik des Symbolic Instruction Tuning (SIT) eingeführt. Dabei werden GPT-4-Modelle mit Fragen und Bildern, die durch symbolische Programme generiert wurden, abgefragt. Diese Daten werden dann verwendet, um ein LLM fein abzustimmen. Es wurde festgestellt, dass SIT-Daten die allgemeine Fähigkeit der LLMs zur Befolgung von Anweisungen verbessern können.
Ein praktisches Beispiel für diese Technik ist die Anwendung in visuellen Frage-Antwort-Systemen (VQA). Hierbei wird die Fähigkeit eines Modells getestet, Fragen zu beantworten, die sich auf Bilder beziehen, die Text oder andere visuelle Informationen enthalten. Die Integration von SIT-Daten hat gezeigt, dass die Leistung in solchen textreichen VQA-Szenarien verbessert werden kann.
Die Untersuchung der Fähigkeiten großer Sprachmodelle zur Interpretation symbolischer Grafikprogramme eröffnet neue Möglichkeiten in der Entwicklung intelligenterer und vielseitigerer KI-Systeme. Die Einführung von Techniken wie Symbolic Instruction Tuning zeigt, dass es möglich ist, die Fähigkeit der Modelle zur Schlussfolgerung und zur Interpretation visueller Daten weiter zu verbessern. Diese Fortschritte könnten weitreichende Anwendungen in Bereichen wie der Dokumentenanalyse, der visuellen Datenverarbeitung und darüber hinaus haben.