Künstliche Intelligenz in politischen Debatten: Studie zeigt Überlegenheit von ChatGPT in Authentizität und Relevanz

Kategorien:
No items found.
Freigegeben:
August 4, 2024

ChatGPT übertrifft menschliche Authentizität, Relevanz und Kohärenz in politischer Debatte: Eine Studie

Einführung

Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat zahlreiche Bereiche des täglichen Lebens beeinflusst, einschließlich der politischen Kommunikation. Eine kürzlich durchgeführte Studie der Universität Passau zeigt, dass KI-generierte Antworten in politischen Debatten von der britischen Öffentlichkeit als authentischer und relevanter wahrgenommen werden als die tatsächlichen Antworten von Politikern. Diese Erkenntnis wirft wichtige Fragen über die Rolle und das Potenzial von Generativer KI in politischen Diskursen auf.

Methodik der Studie

Die Studie basierte auf einer Umfrage unter 948 britischen Bürgern, die Fragen und Antworten aus der BBC-Sendung "Question Time" bewerteten, zusammen mit Antworten, die vom GPT-4 Turbo-Algorithmus generiert wurden. Diese Antworten wurden den Teilnehmern ohne Angabe der Quelle als Äußerungen von öffentlichen Persönlichkeiten präsentiert. Die Teilnehmer bewerteten die Authentizität, Kohärenz und Relevanz der Antworten. Die Ergebnisse waren überraschend: Die von der KI generierten Antworten wurden häufig als authentischer und relevanter wahrgenommen als die tatsächlichen Antworten der Politiker. Dies zeigt, dass große Sprachmodelle (LLMs) wie GPT-4 in der Lage sind, menschliche Kommunikation sehr überzeugend zu imitieren.

Unterschiede in der Sprachverwendung

Eine linguistische Analyse der Antworten ergab, dass die Sprachmuster der KI-generierten Antworten sich deutlich von denen der tatsächlichen Antworten unterschieden. Die KI-Antworten enthielten mehr Nominalisierungen, eine größere lexikalische Vielfalt und eine höhere Übereinstimmung mit den Wörtern aus den Fragen. Im Gegensatz dazu enthielten die echten Antworten häufiger Phrasen wie "Ich denke". Dies deutet darauf hin, dass KI-Modelle in der Lage sind, präziser und kohärenter zu antworten, da sie nicht den gleichen zeitlichen Druck und die gleichen emotionalen Belastungen wie menschliche Sprecher haben.

Potenzial für Missbrauch

Die Forscher warnen vor möglichen Missbrauchsszenarien: "Bedrohungsakteure können LLMs leicht nutzen, um öffentliche Informationssphären mit gefälschten, aber authentisch wirkenden politischen Aussagen zu verschmutzen." Dies könnte zu Verwirrung über die tatsächlichen Aussagen von Politikern führen und falsche Diskussionspunkte schaffen. Über 85% der Studienteilnehmer waren der Meinung, dass der Einsatz von KI in öffentlichen Debatten transparent sein sollte und Informationen über die Entwicklung von KI geteilt werden sollten. Dies zeigt eine klare Forderung nach mehr Transparenz und Regulierung im Umgang mit KI in der politischen Kommunikation.

Öffentliches Bewusstsein und Bildung

Die Forscher betonen die Notwendigkeit, die Öffentlichkeit über die Fähigkeiten moderner KI-Technologien aufzuklären. Viele Teilnehmer unterschätzten zunächst das Potenzial der Technologie. Nach der Aufklärung über den Einsatz von KI zeigten sie jedoch eine größere Wertschätzung für die Fähigkeiten der KI und einen stärkeren Wunsch nach Regulierung. Diese Ergebnisse unterstützen die Warnung von OpenAI-CEO Sam Altman, der sagte, dass KI letztendlich übermenschliche Überzeugungskräfte erreichen wird, was zu "sehr seltsamen Ergebnissen" führen könnte.

Weitere Studien und Erkenntnisse

Eine weitere Studie der École Polytechnique Fédérale de Lausanne (EPFL) und der Fondazione Bruno Kessler in Italien fand heraus, dass GPT-4, mit Zugang zu persönlichen Informationen, die Zustimmung der Teilnehmer zu den Argumenten ihrer Gegner um bemerkenswerte 81,7 Prozent erhöhen konnte, verglichen mit Debatten zwischen Menschen. Diese und andere Studien zeigen, dass Generative KI nicht nur in der Lage ist, menschliche Kommunikation zu imitieren, sondern auch, Meinungen und Überzeugungen effektiv zu beeinflussen. Dies wirft wichtige Fragen über die ethischen und politischen Implikationen des Einsatzes von KI in der politischen Kommunikation auf.

Schlussfolgerung

Die Ergebnisse der Studie der Universität Passau zeigen, dass KI-generierte Antworten in politischen Debatten als authentischer und relevanter wahrgenommen werden als die tatsächlichen Antworten von Politikern. Dies unterstreicht das Potenzial und die Herausforderungen von Generativer KI in der politischen Kommunikation. Es besteht ein klarer Bedarf an mehr Transparenz, Regulierung und öffentlicher Bildung, um den verantwortungsvollen Einsatz dieser Technologie zu gewährleisten.

Bibliographie

https://www.sciencedirect.com/science/article/pii/S0268401223000233 https://www.researchgate.net/publication/371799069_ChatGPT_vs_Bard_A_Comparative_Study https://mediaengagement.org/research/generative-ai-elections-and-beyond/ https://www.sciencedirect.com/science/article/pii/S2666449623000397 https://www.nature.com/articles/s41598-024-53124-x https://www.brookings.edu/articles/the-politics-of-ai-chatgpt-and-political-bias/ https://link.springer.com/article/10.1007/s10579-019-09446-8 https://www.researchgate.net/publication/369379229_Synthetic_Lies_Understanding_AI-Generated_Misinformation_and_Evaluating_Algorithmic_and_Human_Solutions https://www.noemamag.com/what-ai-teaches-us-about-good-writing
Was bedeutet das?