Youtube intensiviert Kampf gegen Deepfake-Inhalte

Kategorien:
No items found.
Freigegeben:

Youtube verstärkt Maßnahmen gegen Deepfakes

Die Herausforderung durch Deepfakes

Besonders soziale Netzwerke stehen vor großen Herausforderungen durch die Verbreitung von Deepfakes. Diese technologisch manipulierten Videos und Audiodateien können erheblichen Schaden anrichten, indem sie falsche Informationen verbreiten oder in die Privatsphäre der Nutzerinnen und Nutzer eingreifen. Youtube, eine der größten Videoplattformen weltweit, hat nun angekündigt, härter gegen solche Inhalte vorzugehen.

Neue Richtlinien und Maßnahmen

Ab sofort können Nutzerinnen und Nutzer auf Youtube KI-generierte Inhalte, die in ihre Privatsphäre eingreifen, melden. Diese Maßnahme ist Teil einer größeren Kampagne von Google, dem Mutterkonzern von Youtube, um mehr Transparenz im Umgang mit KI-generierten Inhalten zu schaffen.

Wie man KI-Deepfakes meldet

Um einen Inhalt zu melden, muss dieser nicht vollständig von KI erstellt worden sein. Es reicht aus, wenn originale Videos verändert wurden. Inhalte, die das Gesicht oder die Stimme einer Person imitieren, können über die Richtlinien für Privatsphäre gemeldet werden. Bei der Prüfung dieser Anträge wägt Youtube ab, ob der Inhalt verändert oder synthetisch ist und für echt gehalten werden könnte, ob die Person, die den Antrag stellt, identifizierbar ist, ob der Inhalt eine Parodie oder Satire darstellt oder es sich um bekannte Persönlichkeiten handelt.

Konsequenzen für Creator

Da die Beschwerden über KI-Content Teil der Privacy-Complaints sind, zählen sie nicht als Widersprüche gegen die Community-Richtlinien. Das bedeutet auch, dass die Creator, deren Inhalte über die Richtlinien für Privatsphäre gemeldet werden, nicht automatisch eine Verwarnung bekommen müssen. Normalerweise dürfen Kanäle auf der Plattform maximal zwei Verwarnungen in 90 Tagen bekommen. Bei der dritten Verwarnung wird der Kanal gesperrt. Ab wann ein Verstoß durch KI-Content die Privatsphäre verletzt und ab wann das auch gegen die Community-Guidelines verstößt, erklärt Youtube nicht direkt.

Deepfakes und ihre Gefahren

Deepfakes, aus dem englischen Deep Learning und Fake, sind Video- oder Audiodateien, die mithilfe von künstlicher Intelligenz manipuliert werden. Diese Technologie ermöglicht es, verfälschte bewegte Bilder oder Tonaufnahmen zu produzieren, die täuschend echt wirken. Die Gefahr, die von Deepfakes ausgeht, ist groß: Sie können Menschen massiv täuschen, öffentliche Meinungen manipulieren und erheblichen Schaden anrichten.

Beispiele für Deepfakes

Ein bekanntes Beispiel ist das gefälschte Video eines deutschen Familienministers, der angeblich auf einer Demonstration mit Nazis marschiert. Ein weiteres Beispiel ist ein gefälschtes Telefongespräch des deutschen Verteidigungsministers, in dem er sich für Waffenexporte in ein Kriegsgebiet ausspricht. Beide Beispiele zeigen, wie weit Deepfakes gehen können und welche verheerenden Folgen sie haben können.

Wie man Deepfakes erkennt

Obwohl die Technologien immer besser werden, können viele Deepfakes anhand bestimmter Merkmale erkannt werden:


   - Unnatürliche Mimik
   - Ein leerer Blick und/oder kein Blinzeln
   - Nicht korrekte Schattenwürfe
   - Veränderung der Hautfarbe
   - Ton und Mundbewegung stimmen nicht überein

   

Im Vollbildmodus können solche Fehler bei genauerem Hinsehen auffallen. Zudem sollte man einen Backgroundcheck des Medieninhalts durchführen:


   - Wie seriös erscheint die Informationsquelle?
   - Wann und wo wurde der Medieninhalt veröffentlicht?
   - Wie ungewöhnlich sind die Aussagen oder das Verhalten der Person im Gegensatz zu ihrer sonstigen Haltung, Profession oder Arbeit?

   

Schutzmaßnahmen und Zukunftsaussichten

Immer mehr Unternehmen arbeiten an Programmen, um Deepfakes automatisch zu identifizieren und die Nutzerinnen und Nutzer zu schützen. Eine gängige Methode ist es, die Pixel der Originalbilder so zu verändern, dass KI-Programme diese nicht mehr lesen können und nur noch ein Pixel-Wirrwarr herausgeben. Solche Technologien sind wichtig, um den Gefahren von Deepfakes vorzubeugen.

Photoguard und andere Schutzprogramme

Das Programm Photoguard des Massachusetts Institute of Technology (MIT) ist ein Beispiel für eine solche Technologie. Photoguard stört durch sogenannte Datenvergiftungstechniken die Pixel in einem Bild, was ein unsichtbares Rauschen auslöst. Diese Störung sorgt dafür, dass Bilder nicht mehr ohne Fehler in andere Kontexte gesetzt werden können. Damit sind die Fotos vor Deepfakes geschützt.

Fazit

Youtube hat mit seinen neuen Maßnahmen einen wichtigen Schritt im Kampf gegen Deepfakes gemacht. Die Plattform ermöglicht es Nutzern, KI-generierte Inhalte zu melden und prüft diese sorgfältig. Dennoch bleibt es eine große Herausforderung, Deepfakes zu erkennen und deren Verbreitung zu verhindern. Die Entwicklung von Schutzprogrammen wie Photoguard zeigt jedoch, dass es Möglichkeiten gibt, sich gegen diese Bedrohung zu wehren. Es bleibt abzuwarten, wie sich die Technologien weiterentwickeln und welche weiteren Maßnahmen ergriffen werden, um die Nutzerinnen und Nutzer zu schützen.

Bibliografie


   https://www.finanznachrichten.de/nachrichten-2024-06/62549878-youtube-so-geht-die-plattform-jetzt-gegen-deepfakes-vor-397.htm
   https://www.youtube.com/watch?v=QL9JJ_w9vtc
   https://www.youtube.com/watch?v=TalfVTam5oI
   https://www.youtube.com/intl/de_be/howyoutubeworks/our-commitments/fighting-misinformation/
   https://www.youtube.com/watch?v=FIl5x23SNYs
   https://www.youtube.com/watch?v=r3akVEe_lHU
   https://extreme.pcgameshardware.de/threads/youtube-massnahmen-gegen-deepfakes-und-ki-videos.642144/
   https://hateaid.org/deepfakes/
   https://www.youtube.com/watch?v=8YUfmlv6g-8

Was bedeutet das?
No items found.