Die Entwicklerplattform GitHub kämpft weiterhin gegen die Verbreitung von Code, der zur Erstellung nicht-einvernehmlicher, expliziter Bilder, sogenannter Deepfake-Pornos, verwendet wird. Trotz der Einführung von Richtlinien, die solche Projekte verbieten, und der Deaktivierung mehrerer Repositories, gelingt es den Erstellern dieser Software immer wieder, die Maßnahmen zu umgehen. Eine Untersuchung hat ergeben, dass über ein Dutzend GitHub-Projekte mit Deepfake-Pornos in Verbindung stehen und weiterhin unerkannt bleiben. Dies ermöglicht den Zugriff auf Codes, die für intimen Bildmissbrauch verwendet werden und verdeutlicht die Schwachstellen in den Moderationsbemühungen der Plattform.
Die Problematik wurde Ende November 2024 deutlich, als ein Deepfake-Pornografie-Ersteller ein explizites Video auf einer bekannten Plattform veröffentlichte, in dem das Gesicht einer TikTok-Influencerin auf den Körper einer Pornodarstellerin montiert wurde. Der Ersteller gab an, die Software für das Deepfake von GitHub heruntergeladen zu haben. Das Repository, auf das er sich bezog, war zuvor von GitHub gesperrt worden, wurde aber in archivierter Form wieder zugänglich gemacht. Obwohl Nutzer den Code in diesem Format nicht mehr verändern können, ist er weiterhin einsehbar und kann heruntergeladen werden.
GitHubs Richtlinien, die im Juni 2024 eingeführt wurden, verbieten Projekte, die "in irgendeiner Weise die Verwendung von synthetischen oder manipulierten Medien für die Erstellung von nicht-einvernehmlichen intimen Bildern oder Inhalten, die Fehlinformationen oder Desinformationen darstellen würden, entwerfen, fördern, unterstützen oder vorschlagen". Trotzdem tauchen immer wieder neue Repositories mit ähnlicher Software auf, oft mit nahezu identischem Branding oder eindeutigen Bezeichnungen wie "NSFW", "unlocked" oder "Bypass".
Die Schwierigkeit der Moderation liegt in der Natur von Open-Source-Software. Repositories können kopiert ("geforkt") und anschließend von Entwicklern frei angepasst werden. Dadurch entsteht ein komplexes Netzwerk von Software, das schwer zu kontrollieren ist. Henry Ajder, KI-Berater für Tech-Unternehmen wie Meta und Adobe, betont die Herausforderungen bei der Moderation von Open-Source-Material im Internet. Es sei schwierig, Inhalte sofort nach dem Hochladen zu entfernen, obwohl oft eindeutige Warnsignale vorliegen.
Oftmals entstehen solche Projekte aus zunächst gut gemeinten Absichten, werden aber von Personen mit böswilligen Absichten für Missbrauchszwecke instrumentalisiert. Einige der Repositories haben eigene Communities aufgebaut, die sich explizit mit der Erstellung von Deepfake-Pornos befassen. Diese Communities dienen als "Trichter" für Missbrauch, der überwiegend Frauen zum Ziel hat.
Die Verbreitung von Deepfake-Software beschränkt sich nicht auf GitHub. Torrents und andere Versionen der gesperrten Repositories sind im Internet verfügbar. Dies verdeutlicht die Schwierigkeit, Open-Source-Software flächendeckend zu überwachen. Auch andere Deepfake-Tools, wie die App DeepNude, wurden bereits entfernt, tauchten jedoch in neuen Versionen wieder auf.
Elizabeth Seger, Direktorin für digitale Politik beim britischen Think Tank Demos, betont die Schwierigkeit, alle Versionen und Forks von Open-Source-Modellen zu verfolgen. Sobald ein Modell öffentlich zugänglich gemacht wurde, sei ein öffentlicher Rückruf praktisch unmöglich. Sie plädiert jedoch dafür, den Zugang zu solcher Software zu erschweren. Plattformen wie GitHub könnten bereits beim Upload intervenieren und die Veröffentlichung von problematischem Code verhindern.
Neben den Bemühungen der Plattformen sind auch politische Entscheidungsträger, Tech-Unternehmen, Entwickler und natürlich die Ersteller missbräuchlicher Inhalte selbst gefragt, um die Verbreitung von Deepfake-Pornos einzudämmen. In den USA und Großbritannien gibt es bereits erste gesetzliche Regelungen, die sich mit Deepfake-Pornos befassen. Die Definitionen und Richtlinien sind jedoch uneinheitlich, und einige Gesetze gelten nur für Minderjährige.
Die Bekämpfung von Deepfake-Pornos bleibt eine komplexe Herausforderung, die ein koordiniertes Vorgehen aller Beteiligten erfordert.
https://www.wired.com/story/githubs-deepfake-porn-crackdown-still-isnt-working/ https://news.slashdot.org/story/19/07/09/2018205/github-removed-open-source-versions-of-deepfakes-porn-app-deepnude https://www.reddit.com/r/Python/comments/cakxcw/the_opensource_deepnude_is_now_banned_from_github/ https://www.reddit.com/r/github/comments/9x6cxp/update_is_using_github_with_nsfw_code_against/ https://yro.slashdot.org/story/15/01/07/2319258/porn-companies-are-going-after-github https://newstral.com/en/articles https://sanderling.app/