Superwahljahr 2024 Globale Politik im Zeichen von KI und Wachsamkeit

Kategorien:
No items found.
Freigegeben:

Im Jahr 2024 stehen weltweit zahlreiche wichtige Wahlen an, ein Superwahljahr, das die Zukunft zahlreicher Nationen prägen wird. Im Zentrum der Aufmerksamkeit stehen dabei nicht nur die Kandidat:innen und Parteien, sondern auch die zunehmende Rolle von Künstlicher Intelligenz (KI) in der politischen Landschaft. OpenAI, das Unternehmen hinter den innovativen KI-Tools ChatGPT und Dall‑E, sieht sich dabei vor neuen Herausforderungen, um Missbrauch seiner Technologien im Rahmen von Wahlkampagnen zu verhindern.

Die Befürchtungen sind nicht unbegründet. Im vergangenen Jahr kursierten in den USA bereits KI-gefälschte Bilder, die den damaligen Ex-Präsidenten Donald Trump in kompromittierenden Situationen zeigten – ein Vorgeschmack darauf, was in einem hochpolitisierten Klima mit fortschrittlichen Technologien möglich ist. In einem Blogpost hat OpenAI nun Maßnahmen skizziert, die im kommenden Wahljahr einen Missbrauch von ChatGPT und Dall‑E unterbinden sollen.

Ein wichtiger Schritt ist das Verständnis von politischer Einflussnahme durch KI. OpenAI hat angekündigt, dass seine Tools bis auf Weiteres nicht für Wahlkampagnen oder Lobbying verwendet werden dürfen. Ein striktes Verbot besteht auch für das Entwerfen von Bots, die sich als Kandidat:innen, Parteien oder Institutionen ausgeben könnten. Dall‑E wird keine Anfragen bearbeiten, die reale Personen – speziell politische Kandidat:innen – betreffen.

Transparenz ist ein weiterer Eckpfeiler der Strategie von OpenAI. Um erkennbar zu machen, ob ein Bild mit dem KI-Bildergenerator Dall‑E erschaffen wurde, will das Unternehmen einen digitalen Herkunftsnachweis implementieren. Dieser soll im Laufe des Jahres in Dall‑E3 eingeführt werden und basiert auf der Technologie der Coalition for Content Provenance and Authenticity (C2PA), einer Nonprofit-Organisation, die eine Art „digitale Nährwertkennzeichnung“ für Medieninhalte anbietet. Große Konzerne wie Adobe und Microsoft, welches OpenAI finanziell unterstützt, planen ebenfalls, dieses Tool zu nutzen.

Neben diesem Herkunftsnachweis entwickelt OpenAI ein eigenes Werkzeug, das Bilder, die von Dall‑E generiert wurden, erkennen kann. Dieses soll in ersten Tests bereits gute Ergebnisse geliefert haben und bald ausgewählten Testpersonen zur Verfügung gestellt werden.

ChatGPT soll aktueller und transparenter werden, indem es stärker mit Echtzeit-News verknüpft wird und Quellen sowie Links zu seinen Informationen liefert. Das Unternehmen strebt eine ausgewogene Quellenauswahl an, um Nutzer:innen die Möglichkeit zu geben, sich ein eigenes Bild zu machen. Nutzer:innen werden bei neuen Versionen von GPT die Möglichkeit haben, Missbrauch direkt zu melden.

Abschließend soll verhindert werden, dass sachliche Falschinformationen zu Wahlen verbreitet werden. Sätze, die die Sinnhaftigkeit des Wählens in Frage stellen, sind laut Nutzungsbedingungen von ChatGPT untersagt.

Diese Maßnahmen von OpenAI sollen dazu beitragen, die Integrität der bevorstehenden Wahlen zu schützen und das Vertrauen in die Demokratie zu stärken. In einer Zeit, in der die Grenzen zwischen real und virtuell immer mehr verschwimmen, ist es von entscheidender Bedeutung, dass die Technologieunternehmen ihre Verantwortung ernst nehmen und proaktive Schritte unternehmen, um potenziellen Missbrauch ihrer Produkte zu unterbinden. Nur so kann gewährleistet werden, dass KI-Tools wie ChatGPT und Dall‑E als positive Kräfte in der Gesellschaft wirken und nicht als Werkzeuge zur Manipulation und Desinformation missbraucht werden.

Was bedeutet das?
No items found.