Eine neue Studie der Ruhr-Universität Bochum, des GESIS Leibniz-Instituts und des CISPA Helmholtz-Zentrums hat ergeben, dass X-Konten (ehemals Twitter) mit KI-generierten Profilbildern überwiegend politische und finanzielle Inhalte verbreiten. Die Untersuchung analysierte fast 15 Millionen X-Konten und identifizierte 7.723 Profile mit KI-erstellten Porträts, was etwa 0,052 Prozent aller Profile entspricht.
Die Studie konzentrierte sich auf die Erkennung von Bildern, die mit dem KI-Modell StyleGAN 2 erstellt wurden. Bilder, die von neueren und möglicherweise weiter verbreiteten KI-Systemen generiert wurden, blieben unentdeckt. Daher liefert die Studie kein vollständiges Bild des Anteils gefälschter KI-Profilbilder, geschweige denn gefälschter Konten auf X. Interessant ist jedoch die inhaltliche Ausrichtung der identifizierten Konten. Eine manuelle Analyse von 1.000 dieser Accounts zeigte einen klaren Fokus auf politische Themen, oft im Zusammenhang mit Donald Trump, COVID-19 und Impfungen sowie dem Krieg in der Ukraine. Auch Lotterien und Finanzthemen wie Kryptowährungen waren häufig vertreten.
Die Forscher vermuten, dass einige dieser Konten gezielt zur Verbreitung von Desinformation und politischer Propaganda erstellt wurden. Die massenhafte Erstellung und identische Metadaten deuten darauf hin, dass sie Teil eines organisierten Netzwerks sein könnten. Die Visualisierung der Themencluster in englischsprachigen Tweets untermauert die Dominanz von Politik und Finanzen.
Obwohl die Studie die Reichweite der Konten mit gefälschten KI-Profilbildern nicht untersuchte, deutet die geringere durchschnittliche Anzahl an Followern und die Tatsache, dass sie selbst weniger Accounts folgen, auf eine begrenzte Reichweite hin. Dies deckt sich mit einer Studie von OpenAI, die ergab, dass Social-Media-Konten, die KI-generierte Botschaften für politische Propaganda verbreiten, wenig Resonanz erhalten und somit weitgehend ineffektiv sind.
Die Forscher planen, die automatisierte Erkennung von KI-generierten Profilbildern zu erweitern und neuere Modelle in zukünftige Analysen einzubeziehen, um den Umfang und die Auswirkungen der Technologie auf Social-Media-Plattformen wie X besser zu verstehen.
Mindverse bietet als deutsches All-in-One-Content-Tool für KI-Text, -Inhalte, -Bilder und -Recherche umfassende Möglichkeiten zur Content-Erstellung. Darüber hinaus entwickelt Mindverse maßgeschneiderte Lösungen wie Chatbots, Voicebots, KI-Suchmaschinen und Wissenssysteme. Erfahren Sie mehr über die vielfältigen Anwendungsmöglichkeiten von KI mit Mindverse.
Quellenverzeichnis BBC News. (2024, 29. Oktober). How X users can earn thousands from US election misinformation and AI images. Munich Security Conference. (2024). AI-pocalypse Now? Disinformation, AI, and the Super Election Year. NPR. (2024, 18. Oktober). AI-generated images have become a new form of propaganda this election season. WBUR. (2024, 18. Oktober). AI-generated images have become a new form of propaganda this election season. Harvard Kennedy School Misinformation Review. (2024, 3. Juni). The spread of synthetic media on X. The Innovator. (o. D.). AI-Powered Disinformation And The Liar’s Dividend. Vox. (2024, 22. Oktober). There’s something off about this year’s “fall vibes”. Reuters Institute. (2024, 15. März). How AI-generated disinformation might impact this year’s elections and how journalists should report on it. Stanford Internet Observatory. (2024, 18. März). How Spammers, Scammers and Creators Leverage AI-Generated Images on Facebook for Audience Growth. Fortune. (2024, 29. Oktober). Researchers disagree about the speed of gen AI adoption. But one thing’s clear: The tech is increasingly everywhere.