Herausforderungen und Realitäten der KI in fremden Einflusskampagnen

Kategorien:
No items found.
Freigegeben:
June 14, 2024

Fremde Einflusskampagnen kämpfen mit der Nutzung von KI

Einleitung


In den letzten Jahren haben technologische Fortschritte im Bereich der Künstlichen Intelligenz (KI) das Potenzial von Einflusskampagnen verändert. Während einige befürchtet haben, dass generative KI die Verbreitung von Desinformation revolutionieren könnte, zeigt sich in der Realität, dass viele Akteure noch Schwierigkeiten haben, diese Technologien effektiv zu nutzen. Ein aktueller Bericht von OpenAI beleuchtet, wie schlecht einige fremde Einflusskampagnen KI einsetzen und welche Herausforderungen sie dabei bewältigen müssen.


Hintergrund und aktuelle Entwicklungen


Laut dem ersten Bedrohungsbericht von OpenAI haben Akteure aus Russland, China, Iran und Israel versucht, generative KI für ihre Einflussoperationen zu nutzen. Diese Bemühungen waren jedoch oft von begrenztem Erfolg gekrönt. Der Bericht identifiziert fünf Netzwerke, die zwischen 2023 und 2024 deaktiviert wurden, darunter bekannte Netzwerke wie Russlands "Doppleganger" und Chinas "Spamoflauge".


Technologische Herausforderungen


Ein zentrales Problem, dem sich diese Netzwerke gegenübersehen, sind die aktuellen Grenzen der generativen KI. Diese Technologien produzieren oft fehlerhafte Texte und Codes, die nicht menschlich genug wirken, um wirkungsvoll zu sein. Ein Netzwerk, das von OpenAI als "Bad Grammar" bezeichnet wurde, offenbarte seine wahre Natur mit Beiträgen wie: „Als KI-Sprachmodell bin ich hier, um zu helfen und den gewünschten Kommentar bereitzustellen.“


Anwendungen und Fehler

Code-Debugging und Automatisierung


Ein Netzwerk nutzte ChatGPT, um Code zu debuggen, der die Automatisierung von Beiträgen auf Telegram ermöglichen sollte. Während dies manchmal funktionierte, führte es in anderen Fällen dazu, dass derselbe Account als zwei verschiedene Charaktere postete, was die Tarnung auffliegen ließ.


Erstellung von Webseiten und Inhalten


Spamoflauge nutzte ChatGPT, um Code für eine WordPress-Website zu debuggen, die Geschichten veröffentlichte, die Mitglieder der chinesischen Diaspora angriffen, die kritisch gegenüber der Regierung waren. Diese Inhalte schafften es jedoch nicht, über die Einflussnetzwerke hinaus in den Mainstream zu gelangen, selbst wenn sie auf weit verbreiteten Plattformen wie X, Facebook oder Instagram geteilt wurden.


Effektivität und zukünftige Entwicklungen


Der Bericht zeichnet das Bild von mehreren relativ ineffektiven Kampagnen mit grober Propaganda, was die Befürchtungen vieler Experten über das Potenzial dieser neuen Technologie zur Verbreitung von Desinformation während eines entscheidenden Wahljahres scheinbar zerstreut.


Innovationspotenzial


Dennoch ist Vorsicht geboten. Einflusskampagnen auf sozialen Medien innovieren oft im Laufe der Zeit, um Entdeckungen zu vermeiden. Jessica Walton vom CyberPeace Institute, die das Netzwerk Doppleganger untersucht hat, betont, dass diese Kampagnen derzeit noch im experimentellen Stadium sind.


Langfristige Auswirkungen


Langfristig könnten diese Netzwerke lernen, die Plattformen und ihre Tools besser zu nutzen, manchmal sogar besser als die Mitarbeiter der Plattformen selbst. „Die tatsächlichen Artikel werden von generativer KI geschrieben“, sagt Walton. „Und meistens versuchen sie herauszufinden, was durchgeht und was die Algorithmen von Meta nicht erfassen können.“


Schlussfolgerung


Die Nutzung von KI durch fremde Einflusskampagnen befindet sich noch in den Kinderschuhen. Während erste Versuche oft fehlerhaft und ineffektiv waren, besteht die Gefahr, dass diese Akteure mit der Zeit besser werden. Die kontinuierliche Beobachtung und Analyse dieser Entwicklungen ist entscheidend, um die Integrität demokratischer Prozesse zu schützen.



- https://www.wired.com/story/openai-threat-report-china-russia-ai-propaganda/
- https://blog.checkpoint.com/research/beyond-imagining-how-ai-is-actively-used-in-election-campaigns-around-the-world/
- https://edmo.eu/wp-content/uploads/2023/12/Generative-AI-and-Disinformation_-White-Paper-v8.pdf
- https://cyberscoop.com/how-ai-will-change-democracy/
- https://epic.org/wp-content/uploads/2024/05/EPIC-Generative-AI-II-Report-May2024-1.pdf
- https://www.poynter.org/fact-checking/2023/how-generative-ai-could-help-foreign-adversaries-influence-us-elections/
- https://www.euronews.com/next/2024/03/14/is-generative-ai-truly-making-disinformation-worse
- https://phys.org/news/2024-05-campaigns-ai-network-science.html
- https://fordhamdemocracyproject.com/2024/03/26/spies-trolls-and-bots-combating-foreign-election-interference-in-the-marketplace-of-ideas/

Was bedeutet das?