Künstliche Intelligenz (KI) hat in den letzten Jahren immense Fortschritte gemacht und findet in immer mehr Bereichen unseres Lebens Anwendung. Ein besonders interessantes Einsatzgebiet ist die Erkennung von Lügen. Forscher der Julius-Maximilians-Universität Würzburg haben nun ein KI-Tool entwickelt, das Lügen wesentlich besser erkennen kann als Menschen. Diese Entwicklung könnte weitreichende Auswirkungen auf das Vertrauen und die sozialen Bindungen haben.
Die Studie, die in der Fachzeitschrift iScience veröffentlicht wurde, wurde von Wirtschaftswissenschaftlern unter der Leitung von Alicia von Schenk durchgeführt. Ziel war es, ein KI-basiertes Tool zu entwickeln, das in der Lage ist, Lügen besser zu erkennen als Menschen. Die Forscher sammelten insgesamt 1.536 Aussagen von 768 Personen, wovon die Hälfte gelogen war. Diese Daten wurden verwendet, um das KI-Sprachmodell BERT von Google zu trainieren.
Das Team nutzte 80 Prozent der gesammelten Aussagen, um das KI-Modell zu trainieren. Die restlichen 20 Prozent dienten als Testdaten. Das KI-Tool konnte in zwei Dritteln der Fälle erfolgreich zwischen wahren und falschen Aussagen unterscheiden. Dies ist deutlich besser als die menschliche Erkennungsrate, die im Durchschnitt nur bei etwa 50 Prozent liegt.
Um zu untersuchen, wie Menschen das KI-Tool nutzen würden, teilten die Forscher 2.040 Freiwillige in kleinere Gruppen auf und führten eine Reihe von Tests durch. Ein bemerkenswertes Ergebnis war, dass nur ein Drittel der Probanden, denen die Nutzung des KI-Tools angeboten wurde, sich dafür entschieden. Dies deutet auf eine gewisse Skepsis gegenüber der Technologie hin.
Von denjenigen, die das KI-Tool nutzten, zeigte sich ein hohes Vertrauen in die Technologie. Diese Probanden folgten fast immer den Vorhersagen der KI. Dies hatte zur Folge, dass sie deutlich mehr Aussagen als Lügen markierten, als dies ohne das Tool der Fall gewesen wäre. Während die menschlichen Probanden ohne KI-Tool nur 19 Prozent der Aussagen als Lügen identifizierten, stieg diese Quote mit dem Tool auf 58 Prozent.
Dieser Anstieg der Anschuldigungsrate könnte weitreichende soziale Implikationen haben. Einerseits könnten KI-Tools helfen, Fehlinformationen in den sozialen Medien oder falsche Angaben in Lebensläufen besser zu erkennen. Andererseits besteht die Gefahr, dass das Vertrauen zwischen Menschen untergraben wird, was grundlegende soziale Bindungen beeinträchtigen könnte.
Die Studie zeigt, dass das KI-Tool eine Trefferquote von etwa 80 Prozent hat. Dies wirft die Frage auf, ob diese Genauigkeit ausreicht, um das Tool in realen Anwendungsszenarien einzusetzen. Insbesondere in Bereichen wie der Verbrechensaufklärung oder der Bewertung von Bewerbungen könnte eine fehlerhafte Erkennung zu schwerwiegenden Konsequenzen führen.
Die Forscher betonen die Notwendigkeit, die Fehlbarkeit historischer Lügendetektionsverfahren zu berücksichtigen. Klassische Lügendetektoren, die physiologische Parameter wie Herzfrequenz und Hautleitfähigkeit messen, sind bekanntlich unzuverlässig. Ähnlich könnten unvollkommene KI-Tools noch größere Auswirkungen haben, da sie viel einfacher zu skalieren sind.
Die Forscher sehen vielfältige Anwendungsmöglichkeiten für KI-basierte Lügenerkennungssysteme. Diese könnten beispielsweise zur Bewertung von Beiträgen in sozialen Medien oder zur Erkennung von übertriebenen Behauptungen in Bewerbungen genutzt werden. Auch in der Verbrechensaufklärung könnten solche Tools von Nutzen sein.
Trotz der vielversprechenden Ergebnisse gibt es auch erhebliche Bedenken. Unklare Algorithmen und die Möglichkeit verzerrter Ergebnisse sind große Herausforderungen. Zudem fehlt es oft an einer soliden theoretischen Grundlage, um die Ergebnisse der KI verlässlich interpretieren zu können. Forscher der Universitäten Marburg und Würzburg warnen daher vor einem verfrühten Einsatz solcher Technologien.
Die Entwicklung eines KI-basierten Lügendetektors, der besser als ein Mensch Lügen erkennen kann, stellt einen bedeutenden technologischen Fortschritt dar. Dennoch ist Vorsicht geboten. Die sozialen und ethischen Implikationen dieser Technologie müssen sorgfältig abgewogen werden, bevor sie in großem Maßstab eingesetzt wird. Es bleibt abzuwarten, ob und wie sich solche Technologien in der Zukunft durchsetzen werden und welche Auswirkungen sie auf unser soziales Gefüge haben werden.
- https://www.futuremanagementgroup.com/werden-luegen-und-fake-news-in-zukunft-durch-kuenstliche-intelligenz-entlarvt/
- https://t3n.de/
- https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf
- https://www.dfki.de/fileadmin/user_upload/import/9744_171012-KI-Gipfelpapier-online.pdf
- https://www.manager-magazin.de/hbm/digitalisierung/studie-ki-korrumpiert-a-dcb09656-b7c7-458f-aeda-88b421bc3826
- https://hdms.bsz-bw.de/frontdoor/deliver/index/docId/6556/file/Beiter-et-al_2020_E-Book_Studie-KI-im-Alltag.pdf
- https://cnai.swiss/wp-content/uploads/2023/05/4002_Wenn-Agorithmen-fuer-uns-entscheiden_OA-1.pdf
- https://www.uni-marburg.de/de/aktuelles/news/2024/warnung-aus-der-wissenschaft-vorsicht-bei-ki-erkennung-von-luegen