Die Fähigkeit, die Gedanken und Absichten anderer zu verstehen, ist eine grundlegende menschliche Eigenschaft. Diese sogenannte "Theory of Mind" (ToM) ermöglicht uns, soziale Interaktionen zu navigieren und das Verhalten anderer vorherzusagen. In der KI-Forschung ist die Frage, ob auch Sprachmodelle eine ToM entwickeln können, ein kontrovers diskutiertes Thema. Neue Forschungsergebnisse, unter anderem von Meta, deuten darauf hin, dass selbst hochentwickelte LLMs bei komplexen ToM-Tests Schwierigkeiten haben.
Frühere Studien, die LLMs auf ToM-Fähigkeiten testeten, verwendeten oft vereinfachte Szenarien, wie die bekannte Sally-Anne-Aufgabe. Hierbei geht es darum zu verstehen, dass eine Person, die ein Ereignis nicht beobachtet hat, eine falsche Annahme über den aktuellen Zustand haben kann. Sprachmodelle wie GPT-4 schnitten in diesen Tests gut ab, was zu der Annahme führte, sie hätten eine ToM entwickelt. Neuere Forschungen stellen diese Interpretation jedoch in Frage.
Meta und andere Forschungsteams haben komplexere Testverfahren entwickelt, wie das ExploreToM-Framework. Dieses generiert dynamisch anspruchsvollere Szenarien, die das soziale Schlussfolgern der LLMs stärker herausfordern. Die Ergebnisse zeigen, dass selbst führende Modelle wie GPT-4o in diesen Tests deutlich schlechter abschneiden und nur in etwa 9% der Fälle die richtige Antwort liefern. Andere Modelle wie Llama und Mixtral erzielten noch niedrigere Ergebnisse.
Ein überraschendes Ergebnis dieser Studien ist, dass die getesteten LLMs Schwierigkeiten haben, den Handlungsverlauf und die Überzeugungen der beteiligten Personen in einer Geschichte zu verfolgen. Diese grundlegende Fähigkeit, das sogenannte "State Tracking", scheint eine Voraussetzung für das erfolgreiche Bestehen von ToM-Tests zu sein. Die Forscher argumentieren, dass die Verbesserung des State Trackings ein wichtiger Schritt zur Entwicklung von LLMs mit besseren ToM-Fähigkeiten sein könnte.
Die Forschungsergebnisse deuten darauf hin, dass die bloße Fähigkeit, statische ToM-Rätsel zu lösen, nicht ausreicht, um von einer echten ToM zu sprechen. Stattdessen ist die Fähigkeit, in dynamischen sozialen Interaktionen die Perspektive anderer zu berücksichtigen, entscheidend. Dies erfordert nicht nur logisches Denken, sondern auch das Verstehen von Emotionen, Intentionen und sozialen Normen.
Für Mindverse, als Anbieter von KI-Lösungen, sind diese Erkenntnisse relevant. Die Entwicklung von Chatbots, Voicebots und KI-Suchmaschinen, die menschenähnliche Interaktionen ermöglichen, erfordert ein tiefes Verständnis der menschlichen Kognition. Die Forschung im Bereich ToM liefert wichtige Hinweise für die Gestaltung und das Training von KI-Systemen, die in der Lage sind, die Bedürfnisse und Absichten der Nutzer zu erkennen und angemessen darauf zu reagieren.
Die Forschung zu ToM bei LLMs steht noch am Anfang. Zukünftige Studien müssen die komplexen Zusammenhänge zwischen Sprachverständnis, sozialem Schlussfolgern und der Fähigkeit, Perspektiven zu wechseln, weiter erforschen. Die Entwicklung von robusten Testverfahren und Trainingsmethoden wird entscheidend sein, um KI-Systeme zu schaffen, die wirklich verstehen, was in den Köpfen anderer vorgeht.
Quellen: - https://the-decoder.com/language-models-still-cant-pass-complex-theory-of-mind-tests-meta-shows/ - https://www.reddit.com/r/singularity/comments/1d0t6aw/testing_theory_of_mind_in_large_language_models/ - https://spectrum.ieee.org/theory-of-mind-ai - https://medium.com/the-modern-scientist/remind-me-again-why-large-language-models-cant-think-acab12da63de - https://arxiv.org/html/2412.13631v1 - https://www.pnas.org/doi/10.1073/pnas.2405460121 - https://news.ycombinator.com/item?id=38474696 - https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2024.1488172/full - https://www.linkedin.com/posts/ebender_ai-outperforms-humans-in-theory-of-mind-tests-activity-7198387028382633984-KMdv - https://www.researchgate.net/publication/368304947_Theory_of_Mind_May_Have_Spontaneously_Emerged_in_Large_Language_Models