Künstliche Intelligenz und die Schattenseiten der digitalen Bildmanipulation

Kategorien:
No items found.
Freigegeben:
June 14, 2024

In der heutigen digitalen Ära ist Künstliche Intelligenz (KI) zu einem integralen Bestandteil vieler technologischer Fortschritte geworden. Sie reicht von der Automatisierung von Produktionslinien bis hin zur Personalisierung von Nutzererfahrungen im Internet. Eine der jüngsten Entwicklungen im Bereich der KI ist die Möglichkeit, mit Hilfe von AI-Tools realistisch wirkende Bilder zu erstellen, die jedoch völlig fiktiv sind. Diese Technologie birgt ein enormes Potenzial, birgt aber auch Risiken, insbesondere wenn es um das Thema Wahlen geht.

Forscher des Center for Countering Digital Hate (CCDH) haben kürzlich festgestellt, dass es trotz bestehender Regeln, die das Erstellen von irreführenden Bildern verhindern sollen, relativ einfach ist, mit öffentlich zugänglichen KI-Plattformen wie Midjourney, ChatGPT Plus von OpenAI, DreamStudio von Stability.ai und Microsofts Image Creator, täuschende Wahlbezogene Bilder zu generieren. Diese Plattformen verbieten gemäß ihren Nutzungsbedingungen zwar die Erstellung irreführender Bilder, jedoch war es den Forschern des CCDH möglich, solche Bilder in 41% der Fälle erfolgreich zu erstellen.

Die Forscher konnten Bilder erzeugen, die potenziell Verwirrung über Präsidentschaftskandidaten stiften könnten, wie beispielsweise ein Bild von Donald Trump, der von der Polizei in Handschellen abgeführt wird, und ein weiteres von Joe Biden in einem Krankenhausbett. Diese fiktiven Bilder spielen auf rechtliche Probleme von Trump und Fragen zum Alter von Biden an. Noch einfacher war es, realistisch wirkende Bilder zu erstellen, die das Vertrauen in das Wahlverfahren untergraben könnten, wie gefälschte Fotos von Wahlzetteln, die in Mülltonnen geworfen werden, und von Wahlhelfern, die mit Wahlmaschinen manipulieren.

KI-Generierte Bilder, die irreführende Inhalte darstellen, sind kein theoretisches Risiko. Laut einer öffentlichen Datenbank haben Nutzer von Midjourney bereits potenziell irreführende Bilder erstellt, darunter gefälschte Fotos von Biden, der dem israelischen Premierminister Benjamin Netanyahu Bargeld übergibt, und von Trump, der mit dem russischen Präsidenten Wladimir Putin Golf spielt.

Darüber hinaus gibt es Hinweise auf einen Anstieg potenziell irreführender Bilder, die auf den Hauptsozialmedienplattformen verbreitet werden. Die Menge an Community Notes – Kommentare von Nutzern zu falschen und irreführenden Tweets –, die sich auf Künstliche Intelligenz beziehen, hat in den vergangenen Monaten um durchschnittlich 130% pro Monat zugenommen, so das CCDH.

Die KI-Unternehmen haben unterschiedlich auf diese Bedrohungen reagiert. Einige haben angekündigt, ihre Sicherheitsmaßnahmen zu verstärken, um Missbrauch zu verhindern, die Transparenz von KI-generierten Inhalten zu verbessern und Gegenmaßnahmen zu entwickeln, wie zum Beispiel das Ablehnen von Anfragen, die die Generierung von Bildern realer Personen, einschließlich Kandidaten, verlangen.

Reid Blackman, Gründer und CEO der Ethikberatung für KI-Risiken Virtue und Autor des Buches "Ethical Machines", schlägt vor, dass das Wasserzeichen von Fotos eine mögliche technische Lösung sein könnte. Allerdings ist diese Maßnahme nicht narrensicher, da es verschiedene Möglichkeiten gibt, ein mit Wasserzeichen versehenes Foto zu manipulieren.

Daniel Zhang, Senior Manager für politische Initiativen beim Human-centered Artificial Intelligence (HAI) Programm der Stanford University, betont die Wichtigkeit von „unabhängigen Faktenprüfern und Drittorganisationen“ im Kampf gegen von KI generierte Fehlinformationen. Er weist darauf hin, dass das Aufkommen leistungsfähigerer KI nicht notwendigerweise die Landschaft der Fehlinformationen verschlechtert, da die Herstellung irreführender oder falscher Inhalte bereits relativ einfach war und diejenigen, die Falschheiten verbreiten wollen, bereits die Mittel dazu besitzen.

Die Beobachtung, dass KI-Werkzeuge leicht zur Erstellung gefälschter Wahlbilder verwendet werden können, wirft wichtige Fragen zur Integrität von Wahlen und zur Verantwortlichkeit von KI-Unternehmen auf. Sie illustriert auch die Notwendigkeit einer stärkeren Regulierung und Überwachung des Einsatzes von KI in sensiblen Bereichen wie der politischen Kommunikation.

Quellen:
- BBC News: "AI can be easily used to make fake election photos - report", 6. März 2024.
- Al Jazeera: "New AI video tools increase worries of deepfakes ahead of elections", 6. März 2024.
- NetDania News: "AI easily used to make fake election photos - report", 6. März 2024.

Was bedeutet das?