Künstliche Intelligenz in der Psychotherapie: Neue Erkenntnisse aus der Turing-Test-Studie

Kategorien:
No items found.
Freigegeben:
February 18, 2025

Artikel jetzt als Podcast anhören

Künstliche Intelligenz in der Psychotherapie: ChatGPT besteht Turing-Test in Studie

Eine aktuelle Studie sorgt für Aufsehen: Teilnehmer konnten zwischen therapeutischen Antworten von ChatGPT und menschlichen Therapeuten kaum unterscheiden. Die KI schnitt in einigen Bereichen sogar besser ab als die menschlichen Experten.

Der Turing-Test im therapeutischen Kontext

Der Turing-Test, entwickelt vom Informatiker Alan Turing, dient dazu, festzustellen, ob eine Maschine menschliches Verhalten so gut imitieren kann, dass ein Mensch nicht mehr unterscheiden kann, ob er mit einer Maschine oder einem anderen Menschen interagiert. In der aktuellen Studie, veröffentlicht in PLOS Mental Health, wurde dieser Test auf den Bereich der Psychotherapie angewendet. 830 Teilnehmer sollten zwischen den Antworten von ChatGPT und denen von menschlichen Therapeuten unterscheiden.

Das Ergebnis: Die Teilnehmer lagen nur knapp über der Ratewahrscheinlichkeit. Sie identifizierten die Antworten menschlicher Therapeuten in 56,1 Prozent der Fälle korrekt und die von ChatGPT in 51,2 Prozent. Die Forscher analysierten 18 Fallstudien aus der Paartherapie und verglichen die Antworten von 13 erfahrenen Therapeuten mit denen von ChatGPT.

Überraschendes Ergebnis: ChatGPT überzeugt in puncto Empathie

Überraschenderweise schnitt ChatGPT in Bezug auf die therapeutische Qualität in einigen Aspekten besser ab als die menschlichen Experten. Die KI erzielte höhere Bewertungen in den Bereichen therapeutische Allianz, Empathie und kulturelle Kompetenz. Die Forscher führen dies unter anderem auf die längere und positivere Tonalität der Antworten von ChatGPT sowie die Verwendung von mehr Nomen und Adjektiven zurück, wodurch die Antworten detaillierter und einfühlsamer wirkten.

Vorurteile gegenüber KI beeinflussen die Wahrnehmung

Die Studie deckte auch eine interessante Verzerrung auf: Wenn die Teilnehmer glaubten, eine KI-generierte Antwort zu lesen, bewerteten sie diese niedriger – unabhängig davon, ob sie tatsächlich von ChatGPT oder einem Menschen stammte. Umgekehrt erhielten KI-generierte Antworten die höchsten Bewertungen, wenn die Teilnehmer sie fälschlicherweise menschlichen Therapeuten zuschrieben.

Methodische Einschränkungen und Ausblick

Die Forscher räumen ein, dass die Studie auf kurzen, hypothetischen Therapieszenarien und nicht auf realen Therapiesitzungen basiert. Es ist unklar, ob sich die Ergebnisse der Paartherapie auf die Einzeltherapie übertragen lassen. Dennoch betonen sie die Bedeutung des Verständnisses für KI-Systeme im therapeutischen Kontext, insbesondere angesichts des wachsenden Potenzials von KI in der psychischen Gesundheitsversorgung. Sie fordern eine sorgfältige Schulung und Überwachung von KI-Modellen durch medizinisches Fachpersonal, um hohe Versorgungsstandards zu gewährleisten.

KI im therapeutischen Kontext: Weitere Studien und Perspektiven

Die vorliegende Studie ist nicht die erste, die das Potenzial von KI in beratenden Rollen aufzeigt. Ähnliche Ergebnisse wurden in Studien zur Beratung bei sozialen Dilemmata und zur medizinischen Diagnostik erzielt. ChatGPT zeigte in diesen Studien ebenfalls eine hohe Empathie und übertraft menschliche Experten in einigen Bereichen.

Trotz der vielversprechenden Ergebnisse mahnen Experten zur Vorsicht. Sie argumentieren, dass großen Sprachmodellen eine echte „Theory of Mind“ fehle und sie keine echte Empathie empfinden könnten. Sie fordern eine internationale Forschungsinitiative, um Richtlinien für die sichere Integration von KI in die Psychologie zu entwickeln.

Die zunehmende Evidenz für das therapeutische Potenzial von KI wirft wichtige Fragen für die Zukunft der Psychotherapie auf. Wie kann KI sinnvoll in die therapeutische Praxis integriert werden? Welche ethischen und praktischen Herausforderungen müssen dabei berücksichtigt werden? Die weitere Forschung wird zeigen, wie KI die Psychotherapie in den kommenden Jahren verändern wird.

Bibliographie: https://www.news-medical.net/news/20250217/Can-AI-be-your-therapist-Study-shows-ChatGPT-outperforms-professionals-in-key-areas.aspx https://www.reddit.com/r/KI_Welt/comments/1iqsud4/chatgpt_besteht_laut_studie_turingtest_f%C3%BCr/?tl=en https://www.threads.net/@the_ainavigator/post/DGJPIIcyMcY/chatgpt-passes-turing-test-for-psychotherapy-study-sayshttpsthe-decodercomchatgp https://humsci.stanford.edu/feature/study-finds-chatgpts-latest-bot-behaves-humans-only-better https://www.news-medical.net/news/20250212/ChatGPT-outperforms-psychotherapists-in-therapy-response-ratings-study-shows.aspx https://www.nature.com/articles/d41586-023-02361-7 https://x.com/theaitechsuite/status/1891106335028076813 https://www.researchgate.net/publication/379427667_Evaluating_ChatGPT's_Consciousness_and_Its_Capability_to_Pass_the_Turing_Test_A_Comprehensive_Analysis https://pmc.ncbi.nlm.nih.gov/articles/PMC10907317/
Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.