Ein neues Zeitalter der Medienskepsis: Der tiefe Zweifel durch KI-generierte Inhalte

Kategorien:
No items found.
Freigegeben:
September 22, 2024

Willkommen im Zeitalter des „Tiefen Zweifels“

Angesichts der Flut von fotorealistischen, KI-generierten Bildern, die heutzutage über soziale Netzwerke wie X und Facebook hinwegspülen, scheint es, als würden wir ein neues Zeitalter der Medienskepsis betreten: das Zeitalter des „tiefen Zweifels“. Während die Authentizität digitaler Inhalte seit Jahrzehnten in Frage gestellt wird – und analoge Medien lange davor – hat der einfache Zugang zu Tools, die überzeugende gefälschte Inhalte erzeugen, eine neue Welle von Lügnern hervorgebracht, die KI-generierte Szenen nutzen, um echte dokumentarische Beweise zu leugnen. Dabei erreicht die bestehende Skepsis der Menschen gegenüber Online-Inhalten von Fremden möglicherweise neue Höhen.

Die Entstehung des „Tiefen Zweifels“

Der „tiefe Zweifel“ ist eine Skepsis gegenüber realen Medien, die aus der Existenz generativer KI resultiert. Dies manifestiert sich als breite öffentliche Skepsis gegenüber der Wahrhaftigkeit von Medienartefakten, was wiederum zu einer bemerkenswerten Folge führt: Menschen können nun glaubhafter behaupten, dass reale Ereignisse nicht stattgefunden haben, und vorschlagen, dass dokumentarische Beweise mit KI-Tools gefälscht wurden.

Das Konzept hinter dem „tiefen Zweifel“ ist nicht neu, aber seine realen Auswirkungen werden zunehmend offensichtlich. Seit der Begriff „Deepfake“ 2017 erstmals auftauchte, haben wir eine rasante Entwicklung der Fähigkeiten KI-generierter Medien erlebt. Dies hat zu jüngsten Beispielen des tiefen Zweifels in Aktion geführt, wie etwa Verschwörungstheoretiker, die behaupten, dass Präsident Joe Biden durch ein KI-gestütztes Hologramm ersetzt wurde, und dem unbegründeten Vorwurf des ehemaligen Präsidenten Donald Trump im August, dass Vizepräsidentin Kamala Harris KI verwendet hat, um die Menschenmengen bei ihren Kundgebungen zu fälschen. Und am Freitag rief Trump erneut „KI“ bei einem Foto von ihm mit E. Jean Carroll, einer Schriftstellerin, die ihn erfolgreich wegen sexueller Übergriffe verklagte, das seiner Behauptung widerspricht, sie nie getroffen zu haben.

Die rechtlichen und gesellschaftlichen Implikationen

Rechtswissenschaftler wie Danielle K. Citron und Robert Chesney haben diesen Trend bereits vor Jahren vorausgesehen und 2019 den Begriff „Liar's Dividend“ geprägt, um die Folge des tiefen Zweifels zu beschreiben: Deepfakes, die von Lügnern genutzt werden, um authentische Beweise zu diskreditieren. Aber während tiefen Zweifel einst ein hypothetisches akademisches Konzept war, ist es jetzt unsere Realität.

Der Zweifel war seit der Antike eine politische Waffe. Diese moderne, von KI befeuerte Manifestation ist nur die jüngste Entwicklung einer Taktik, bei der die Samen der Unsicherheit gesät werden, um die öffentliche Meinung zu manipulieren, Gegner zu untergraben und die Wahrheit zu verbergen. KI ist das neueste Refugium der Lügner.

Im Laufe des letzten Jahrzehnts hat die Entwicklung der Deep-Learning-Technologie es immer einfacher gemacht, falsche oder modifizierte Bilder, Audios, Texte oder Videos zu erstellen, die als nicht-synthetisierte organische Medien erscheinen. Deepfakes wurden nach einem Reddit-Nutzer namens „deepfakes“ benannt, der KI-gefälschte Pornografie auf dem Dienst teilte und das Gesicht eines Darstellers durch das Gesicht einer anderen Person ersetzte, die nicht Teil der ursprünglichen Aufnahme war.

Die Auswirkungen auf die Gesellschaft

Im 20. Jahrhundert könnte man argumentieren, dass ein gewisser Teil unseres Vertrauens in Medien, die von anderen produziert werden, darauf zurückzuführen war, wie teuer und zeitaufwendig es war und welche Fähigkeiten erforderlich waren, um dokumentarische Bilder und Filme zu produzieren. Selbst Texte erforderten viel Zeit und Geschick. Mit dem Wachstum des tiefen Zweifel-Phänomens wird dieses Medienverständnis des 20. Jahrhunderts erodieren. Aber es wird auch unsere politische Diskurse, Rechtssysteme und sogar unser gemeinsames Verständnis historischer Ereignisse beeinflussen, die auf diesen Medien basieren – wir sind darauf angewiesen, von anderen Informationen über die Welt zu erhalten. Von fotorealistischen Bildern bis hin zu perfekten Stimmenklonen wird unsere Wahrnehmung dessen, was wir als „Wahrheit“ in den Medien betrachten, eine Neubewertung erfordern.

Rechtliche Herausforderungen und die Rolle von Gerichten

Im April hob ein Gremium von Bundesrichtern die potenzielle Gefahr von KI-generierten Deepfakes hervor, nicht nur falsche Beweise einzuführen, sondern auch echte Beweise in Gerichtsverfahren in Zweifel zu ziehen. Die Besorgnis kam während eines Treffens des Beiratsausschusses für Beweisregeln der US-Gerichtskonferenz auf, bei dem die Richter die Herausforderungen bei der Authentifizierung digitaler Beweise in einer Ära zunehmend ausgeklügelter KI-Technologie diskutierten. Letztendlich entschieden die Richter, keine AI-bezogenen Regeländerungen vorzunehmen, aber ihr Treffen zeigt, dass das Thema bereits von amerikanischen Richtern in Betracht gezogen wird.

Die kulturelle Singularität und die Erosion des sozialen Vertrauens

Tiefer Zweifel betrifft mehr als nur aktuelle Ereignisse und rechtliche Fragen. Im Jahr 2020 schrieb ich über eine potenzielle „kulturelle Singularität“, eine Schwelle, bei der Wahrheit und Fiktion in den Medien ununterscheidbar werden. Ein wesentlicher Teil dieser Schwelle ist das Maß an „Rauschen“ oder Unsicherheit, das KI-generierte Medien in unser Informationsökosystem im großen Maßstab einbringen können. Deepfakes können zu Szenarien führen, in denen die Verbreitung von KI-generierten Inhalten weit verbreitete Zweifel an der Authentizität realer Ereignisse, die in der Geschichte stattgefunden haben, schaffen könnte – vielleicht eine weitere Manifestation des tiefen Zweifels. Im Jahr 2022 wiederholte Eric Horvitz, Chief Scientific Officer von Microsoft, diese Ideen, als er ein Forschungspapier zu einem ähnlichen Thema schrieb und vor einer potenziellen „post-epistemischen Welt“ warnte, in der Fakten nicht mehr von Fiktion unterschieden werden können.

Und tiefer Zweifel könnte das soziale Vertrauen in einem massiven, internetweiten Maßstab erodieren. Diese Erosion manifestiert sich bereits in Online-Communities durch Phänomene wie die wachsende Verschwörungstheorie namens „Dead Internet Theory“, die behauptet, dass das Internet jetzt hauptsächlich aus algorithmisch generierten Inhalten und Bots besteht, die vorgeben, mit ihnen zu interagieren. Die Leichtigkeit und das Ausmaß, mit denen KI-Modelle jetzt überzeugende gefälschte Inhalte erzeugen können, gestalten unsere gesamte digitale Landschaft neu, was Milliarden von Nutzern und unzählige Online-Interaktionen beeinflusst.

Tiefer Zweifel als „Liar's Dividend“

„Tiefer Zweifel“ ist ein neuer Begriff, aber keine neue Idee. Die Erosion des Vertrauens in Online-Informationen aus synthetischen Medien reicht bis zu den Ursprüngen der Deepfakes selbst zurück. David Shariatmadari schrieb 2018 für The Guardian über eine bevorstehende „Informationsapokalypse“ aufgrund von Deepfakes und fragte: „Wenn eine öffentliche Figur behauptet, dass das rassistische oder sexistische Audio von ihnen einfach gefälscht ist, werden wir ihnen glauben?“

2019 prägten Danielle K. Citron von der Boston University School of Law und Robert Chesney von der University of Texas in einem Papier mit dem Titel „Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security“ den Begriff „Liar's Dividend“, um dieses Phänomen zu beschreiben. In diesem Papier sagen die Autoren, dass „Deepfakes es Lügnern erleichtern, Verantwortung für Dinge zu vermeiden, die tatsächlich wahr sind“.

Dieses "Liar's Dividend" paradox erhöht sich in seiner Wirksamkeit, je mehr die Gesellschaft über die Gefahren von Deepfakes aufgeklärt wird, da sie wissen werden, dass es möglich ist, verschiedene Formen von Medien leicht zu fälschen. Das Papier warnt davor, dass dieser Trend das Vertrauen in traditionelle Nachrichtenquellen weiter untergraben könnte, wodurch die Grundlagen des demokratischen Diskurses erodiert werden könnten. Darüber hinaus schlagen die Autoren vor, dass das Phänomen fruchtbaren Boden für Autoritarismus schaffen könnte, da objektive Wahrheiten ihre Macht verlieren und Meinungen einflussreicher als Fakten werden.

Das Konzept des tiefen Zweifels überschneidet sich auch mit bestehenden Problemen der Fehlinformation und Desinformation. Es bietet ein neues Werkzeug für diejenigen, die versuchen, falsche Narrative zu verbreiten oder sachliche Berichterstattung zu diskreditieren. Dies könnte zur Beschleunigung des bereits vorhandenen Szenarios führen, das insbesondere durch Kabelnachrichtenmedien und soziale Medien getrieben wird, in dem unsere gemeinsame kulturelle Wahrnehmung der Wahrheit noch subjektiver wird, mit mehr Individuen, die sich entscheiden, das zu glauben, was mit ihren vorgefassten Ansichten übereinstimmt, anstatt die Beweise aus einer anderen kulturellen Perspektive zu betrachten.

Wie man tiefen Zweifel bekämpft: Kontext ist der Schlüssel

Alle Bedeutung leitet sich aus dem Kontext ab. In gewisser Weise ist es, wie wir unsere eigenen miteinander verbundenen Ideenwelten schaffen, um die Realität zu verstehen. Die Betrachtung einer Idee allein, ohne zu wissen, wie sie sich konzeptionell mit der bestehenden Welt verbindet, ist bedeutungslos. In diesem Sinne macht es wenig Sinn, zu versuchen, ein potenziell gefälschtes Medienartefakt isoliert zu authentifizieren.

Im Laufe der aufgezeichneten Geschichte mussten Historiker und Journalisten die Zuverlässigkeit von Quellen anhand ihrer Herkunft, des Kontexts und der Motive des Überbringers bewerten. Zum Beispiel: Stellen Sie sich ein Pergament aus dem 17. Jahrhundert vor, das anscheinend wichtige Beweise über einen königlichen Prozess liefert. Um zu bestimmen, ob es zuverlässig ist, würden Historiker die Verwahrungskette bewerten und prüfen, ob andere Quellen dieselben Informationen berichten. Sie könnten auch den historischen Kontext überprüfen, um zu sehen, ob es eine zeitgenössische historische Aufzeichnung gibt, dass dieses Pergament existiert. Diese Anforderung hat sich im Zeitalter der generativen KI nicht magisch verändert.

Angesichts wachsender Bedenken hinsichtlich KI-generierter Inhalte können mehrere bewährte Medienkompetenzstrategien helfen, die Authentizität digitaler Medien zu überprüfen, wie Ars Technicas Kyle Orland während unserer Berichterstattung über die Harris-Menschenmengen-Episode betonte.

Wenn wir die Wahrhaftigkeit von Online-Medien bewerten, ist es wichtig, sich auf mehrere übereinstimmende Quellen zu verlassen, insbesondere solche, die dasselbe Ereignis aus verschiedenen Blickwinkeln zeigen, im Falle von visuellen Medien oder aus mehreren glaubwürdigen Quellen im Falle von Texten berichtet werden. Es ist auch nützlich, Originalberichterstattung und Bilder von verifizierten Konten oder offiziellen Websites zu finden, anstatt potenziell modifizierten Screenshots zu vertrauen, die in sozialen Medien zirkulieren. Informationen aus verschiedenen Augenzeugenberichten und renommierten Nachrichtenorganen sind ebenfalls entscheidend, um die Echtheit von Medieninhalten zu überprüfen.

Quellen: - https://www.wired.com/story/deepfakes-deep-doubt-era-artificial-intelligence/ - https://www.reddit.com/r/ArtificialInteligence/comments/1fjrs0p/welcome_to_the_era_of_deep_doubt_can_we_trust/ - https://arstechnica.com/information-technology/2024/09/due-to-ai-fakes-the-deep-doubt-era-is-here/ - https://podcasters.spotify.com/pod/show/aidaily/episodes/THE-ERA-OF-DEEP-DOUBT-e2oi6p3 - https://www.linkedin.com/posts/the-cyber-security-hub_due-to-ai-fakes-the-deep-doubt-era-is-activity-7242104711099686912-cfED - https://thehustle.co/news/what-s-the-deep-doubt-era - https://www.politico.eu/article/deepfakes-distrust-disinformation-welcome-ai-election-2024/ - https://wearebrain.com/blog/era-of-ai-generated-videos/ - https://www.vanityfair.com/news/story/welcome-to-the-ai-election
Was bedeutet das?