KI Manipulationserkennung und ihre globalen Herausforderungen

Kategorien:
No items found.
Freigegeben:
September 2, 2024

Die Herausforderungen der Erkennung von KI-gefälschtem Content für Wähler im Globalen Süden

Mit dem zunehmenden Einsatz generativer Künstlicher Intelligenz (KI) in der Politik stehen Forscher weltweit vor einem „Erkennungsdefizit“. Die in die Systeme eingebauten Vorurteile bedeuten, dass Werkzeuge zur Identifizierung gefälschter Inhalte oft schlecht oder gar nicht im Globalen Süden funktionieren.

Die Schwierigkeit der Erkennung von KI-generierten Inhalten

Vor kurzem veröffentlichte der ehemalige Präsident und verurteilte Straftäter Donald Trump eine Reihe von Fotos, die scheinbar Fans des Popstars Taylor Swift zeigen, die seine Kandidatur für die US-Präsidentschaft unterstützen. Die Bilder sahen aus, als wären sie KI-generiert, und WIRED konnte dies bestätigen, indem sie sie durch das Erkennungswerkzeug der gemeinnützigen Organisation True Media laufen ließen, das „erhebliche Manipulationshinweise“ zeigte.

So einfach ist es jedoch nicht immer. Der Einsatz von generativer KI, auch für politische Zwecke, wird immer häufiger, und WIRED verfolgt ihren Einsatz bei Wahlen weltweit. Aber in großen Teilen der Welt außerhalb der USA und Teilen Europas ist die Erkennung von KI-generierten Inhalten schwierig, weil die Systeme auf bestimmten Daten trainiert wurden, was Journalisten und Forschern nur wenige Ressourcen lässt, um der Flut von Desinformationen entgegenzuwirken.

Die Herausforderungen für den Globalen Süden

Die Erkennung von Medien, die mit KI generiert oder manipuliert wurden, ist noch ein aufstrebendes Feld, das als Reaktion auf die plötzliche Explosion von generativen KI-Unternehmen entstanden ist. (KI-Startups erhielten allein im Jahr 2023 über 21 Milliarden Dollar an Investitionen.) „Es gibt viel mehr leicht zugängliche Werkzeuge und Technologien, die es tatsächlich ermöglichen, synthetische Medien zu erstellen, als solche, die sie tatsächlich erkennen können“, sagt Sabhanaz Rashid Diya, Gründerin des Tech Global Institute, eines Think Tanks, der sich auf Technologiepolitik im Globalen Süden konzentriert.

Die meisten derzeit auf dem Markt befindlichen Werkzeuge können nur eine Sicherheitsrate von 85 bis 90 Prozent bieten, wenn es darum geht, festzustellen, ob etwas mit KI erstellt wurde, so Sam Gregory, Programmdirektor der gemeinnützigen Organisation Witness, die Menschen hilft, Technologie zur Unterstützung der Menschenrechte zu nutzen. Aber wenn es um Inhalte aus Ländern wie Bangladesch oder Senegal geht, wo die Probanden nicht weiß sind oder kein Englisch sprechen, sinkt dieses Sicherheitsniveau dramatisch. „Als die Werkzeuge entwickelt wurden, wurden sie für bestimmte Märkte priorisiert“, sagt Gregory.

Ungleichheiten im Training der Modelle

Dies bedeutet, dass KI-Modelle hauptsächlich auf Daten aus und für westliche Märkte trainiert wurden und daher kaum etwas erkennen können, das außerhalb dieser Parameter fällt. In einigen Fällen liegt das daran, dass Unternehmen Modelle mit den am leichtesten verfügbaren Daten aus dem Internet trainierten, wo Englisch bei weitem die dominierende Sprache ist. „Die meisten unserer Daten aus [Afrika] liegen tatsächlich in Papierform vor“, sagt Richard Ngamita, Gründer von Thraets, einer gemeinnützigen zivilgesellschaftlichen Technologieorganisation, die sich auf digitale Bedrohungen in Afrika und anderen Teilen des Globalen Südens konzentriert. Das bedeutet, dass diese Daten digitalisiert werden müssen, damit KI-Modelle darauf trainiert werden können.

Ohne die riesigen Datenmengen, die benötigt werden, um KI-Modelle so gut zu trainieren, dass sie KI-generierte oder KI-manipulierte Inhalte genau erkennen können, geben Modelle oft falsche positive Ergebnisse zurück, indem sie echte Inhalte als KI-generiert kennzeichnen, oder falsche negative Ergebnisse, indem sie KI-generierte Inhalte als echt identifizieren. „Wenn man eines der Standardwerkzeuge verwendet, die zur Erkennung von KI-generierten Texten dienen, neigen sie dazu, Englisch zu erkennen, das von Nicht-Muttersprachlern geschrieben wurde, und davon auszugehen, dass dieser Text tatsächlich von einer KI stammt“, sagt Diya. „Es gibt viele falsche Positive, weil sie nicht auf bestimmten Daten trainiert wurden.“

Technische und soziale Herausforderungen

Aber es geht nicht nur darum, dass Modelle Akzente, Sprachen, Syntax oder Gesichter, die in westlichen Ländern weniger verbreitet sind, nicht erkennen können. „Viele der anfänglichen Deepfake-Erkennungswerkzeuge wurden auf hochwertigen Medien trainiert“, sagt Gregory. Aber in großen Teilen der Welt, einschließlich Afrika, dominieren billige chinesische Smartphone-Marken mit reduzierten Funktionen den Markt. Die Fotos und Videos, die diese Telefone produzieren können, sind von viel niedrigerer Qualität, was die Erkennungsmodelle weiter verwirrt, sagt Ngamita.

Gregory sagt, dass einige Modelle so empfindlich sind, dass sogar Hintergrundgeräusche in einem Audio oder das Komprimieren eines Videos für soziale Medien zu einem falschen Positiv oder Negativ führen können. „Aber genau das sind die Umstände, die man in der realen Welt antrifft, bei der rauen und harten Erkennung“, sagt er. Die kostenlosen, öffentlich zugänglichen Werkzeuge, die die meisten Journalisten, Faktenprüfer und Mitglieder der Zivilgesellschaft wahrscheinlich nutzen werden, sind auch „diejenigen, die extrem ungenau sind, sowohl in Bezug auf die Ungleichheit, wer in den Trainingsdaten vertreten ist, als auch auf die Herausforderungen, mit diesem minderwertigen Material umzugehen.“

Alternative Ansätze und ihre Grenzen

Generative KI ist nicht der einzige Weg, um manipulierte Medien zu erstellen. Sogenannte „cheapfakes“, also Medien, die durch das Hinzufügen irreführender Beschriftungen oder das einfache Verlangsamen oder Bearbeiten von Audio und Video manipuliert wurden, sind ebenfalls sehr verbreitet im Globalen Süden, können aber von fehlerhaften Modellen oder ungeschulten Forschern fälschlicherweise als KI-manipuliert gekennzeichnet werden.

Diya befürchtet, dass Gruppen, die Werkzeuge verwenden, die eher Inhalte außerhalb der USA und Europas als KI-generiert markieren, schwerwiegende Auswirkungen auf politischer Ebene haben könnten, indem sie Gesetzgeber dazu ermutigen, gegen imaginäre Probleme vorzugehen. „Es besteht ein großes Risiko, diese Art von Zahlen zu übertreiben“, sagt sie. Und die Entwicklung neuer Werkzeuge ist kaum eine Frage des Knopfdrucks.

Wie jede andere Form der KI erfordert auch der Aufbau, das Testen und der Betrieb eines Erkennungsmodells Zugang zu Energie und Rechenzentren, die in vielen Teilen der Welt einfach nicht verfügbar sind. „Wenn man hier über KI und lokale Lösungen spricht, ist es fast unmöglich, ohne die Rechenkapazitäten eines Rechenzentrums auch nur eines unserer Modelle, die wir uns überlegen, zum Laufen zu bringen“, sagt Ngamita, der in Ghana ansässig ist. Ohne lokale Alternativen haben Forscher wie Ngamita nur wenige Optionen: Zugang zu einem kommerziellen Werkzeug wie dem von Reality Defender zu bezahlen, dessen Kosten prohibitiv sein können; ungenaue kostenlose Werkzeuge zu verwenden; oder zu versuchen, Zugang über eine akademische Einrichtung zu erhalten.

Kooperationen und ihre Herausforderungen

Derzeit sagt Ngamita, dass sein Team eine Partnerschaft mit einer europäischen Universität eingehen musste, bei der sie Inhalte zur Verifizierung einsenden können. Ngamitas Team hat eine Datensammlung möglicher Deepfake-Instanzen aus dem gesamten Kontinent zusammengestellt, die nach seinen Angaben für Akademiker und Forscher wertvoll ist, die versuchen, die Datensätze ihrer Modelle zu diversifizieren.

Aber das Versenden von Daten an jemand anderen hat auch seine Nachteile. „Die Verzögerungszeit ist ziemlich erheblich“, sagt Diya. „Es dauert mindestens ein paar Wochen, bis jemand mit Sicherheit sagen kann, dass dies KI-generiert ist, und bis dahin ist der Schaden bereits angerichtet.“

Gregory sagt, dass Witness, das sein eigenes Schnellreaktions-Erkennungsprogramm betreibt, eine „riesige Anzahl“ von Fällen erhält. „Es ist bereits eine Herausforderung, diese in dem Zeitrahmen zu bewältigen, den Journalisten an vorderster Front benötigen, und in dem Umfang, dem sie zu begegnen beginnen“, sagt er.

Die Notwendigkeit einer starken Informationsökosystem

Aber Diya sagt, dass sich so stark auf die Erkennung zu konzentrieren, möglicherweise die Finanzierung und Unterstützung von Organisationen und Institutionen ablenken könnte, die insgesamt ein widerstandsfähigeres Informationsökosystem schaffen. Stattdessen, sagt sie, sollten die Mittel an Nachrichtenagenturen und zivilgesellschaftliche Organisationen fließen, die ein Gefühl des öffentlichen Vertrauens fördern können. „Ich glaube nicht, dass das Geld dort hinfließt“, sagt sie. „Ich denke, es fließt mehr in die Erkennung.“

Schlussfolgerung

Die Herausforderungen, denen sich Forscher und Journalisten im Globalen Süden gegenübersehen, wenn es darum geht, KI-generierte und KI-manipulierte Inhalte zu erkennen, sind zahlreich und vielfältig. Von technischen Einschränkungen über unzureichende Daten bis hin zu sozialen und politischen Auswirkungen gibt es viele Hindernisse zu überwinden. Ein stärkerer Fokus auf die Stärkung des gesamten Informationsökosystems und die Schaffung von Vertrauen in die Medien könnte der Schlüssel zur Bewältigung dieser Herausforderungen sein.

Bibliographie

- https://www.wired.com/story/generative-ai-detection-gap/ - https://www.washingtonpost.com/technology/2024/04/23/ai-deepfake-election-2024-us-india/ - https://reutersinstitute.politics.ox.ac.uk/news/how-rest-world-tracking-ai-use-around-elections-worldwide - https://arxiv.org/html/2406.14290v1 - https://gijn.org/resource/tipsheet-investigating-ai-audio-deepfakes/ - https://www.themandarin.com.au/240257-how-ai-deepfakes-threaten-elections-across-the-world-in-2024/ - https://thediplomat.com/2024/05/ai-and-elections-lessons-from-south-korea/ - https://blackbird.ai/blog/deepfakes-softfakes-social-media-indonesian-presidential-election/ - https://cetas.turing.ac.uk/publications/ai-enabled-influence-operations-threat-uk-general-election - https://apnews.com/article/artificial-intelligence-elections-disinformation-chatgpt-bc283e7426402f0b4baa7df280a4c3fd
Was bedeutet das?