OpenAI entwickelt neues Tool zur Erkennung von KI-generierten Bildern

Kategorien:
No items found.
Freigegeben:
June 14, 2024

Künstliche Intelligenz und die Erkennung von Fälschungen: Ein Blick auf das neue OpenAI-Tool

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist nun in der Lage, beeindruckende Bilder, Texte und sogar Sprachaufnahmen zu generieren, die von menschlichen Schöpfungen kaum zu unterscheiden sind. Doch mit dem wachsenden Einsatz dieser Technologien steigt auch die Notwendigkeit, generierte von authentischen Inhalten zu unterscheiden – vor allem in Zeiten von "Fake News" und Desinformationskampagnen. Vor diesem Hintergrund hat OpenAI, ein führendes Unternehmen im Bereich der künstlichen Intelligenz, ein neues Tool vorgestellt, das KI-generierte Bilder erkennen kann.

Das Tool, das vor allem für Bilder konzipiert wurde, die mit OpenAIs eigenem Bildgenerator Dall-E erstellt wurden, zeigt sich bemerkenswert effektiv. Laut OpenAI erkennt das System 98 Prozent dieser Bilder korrekt. Die Fehlerquote liegt bei weniger als 0,5 Prozent für Bilder, die nicht von einer KI erzeugt wurden, aber fälschlicherweise als solche eingestuft werden könnten. Allerdings räumt das Unternehmen ein, dass bei Bildern, die von anderen KI-Modellen generiert wurden, die Fehlerquote höher sein kann – sie liegt hier zwischen fünf und zehn Prozent.

Interessanterweise scheinen einfache Bildbearbeitungen wie Komprimierung, Zuschneiden oder Ändern der Sättigung die Leistungsfähigkeit des Tools kaum zu beeinflussen. Herausforderungen entstehen jedoch bei komplexeren Modifikationen, die die Erkennungsrate verschlechtern können. Dies verdeutlicht, dass die Technologie noch ihre Grenzen hat und sich weiterentwickeln muss, um auch unter erschwerten Bedingungen zuverlässig zu funktionieren.

Derzeit befindet sich das Tool noch in der Testphase und eine ausgewählte Gruppe an Forschern kann dessen Leistungsfähigkeit erproben. Wer Interesse an einem Zugang hat, kann sich über die Website von OpenAI dafür bewerben. Darüber hinaus plant das Unternehmen, Audio-Wasserzeichen in seine Voiceengine zu integrieren, was einen weiteren Schritt darstellt, um Transparenz in der Herkunft von KI-generierten Inhalten zu schaffen.

OpenAI hat sich zudem der "Coalition for Content Provenance and Authenticity" angeschlossen, einer Initiative, die sich für die Kennzeichnung von KI-generierten Inhalten einsetzt. Bilder, die mit Dall-E erstellt wurden, enthalten bereits in den Metadaten Hinweise auf das KI-Tool, und auch Videos, die mit OpenAIs Video-KI Sora erzeugt werden, sollen künftig Wasserzeichen erhalten.

Diese Entwicklungen sind besonders relevant vor dem Hintergrund anstehender Wahlen und der damit einhergehenden Gefahr, dass KI-generierte Inhalte zur Beeinflussung von Wählern eingesetzt werden könnten. Die Notwendigkeit, KI-generierte Inhalte zuverlässig zu identifizieren, ist daher nicht nur eine technische Herausforderung, sondern auch eine gesellschaftliche, die den Umgang mit Informationen in der digitalen Ära maßgeblich prägt.

OpenAI reagiert mit seinen Ankündigungen auch auf politischen und gesellschaftlichen Druck, der sich im Zuge der Diskussion um die Verantwortung von KI-Entwicklern für die von ihren Systemen erzeugten Inhalte aufgebaut hat. Während in den USA bisher keine Gesetze kurz vor der Verabschiedung stehen, hat die Europäische Union bereits mit ihrer KI-Verordnung Maßnahmen ergriffen, die mehr Transparenz fordern.

Die Zukunft wird zeigen, wie effektiv die neuen Tools und Standards in der Praxis sind und ob sie dazu beitragen können, das Vertrauen in digitale Inhalte zu stärken. Eines ist jedoch klar: Die Fähigkeit, KI-generierte von authentischen Inhalten zu unterscheiden, wird in einer zunehmend digitalisierten Welt immer wichtiger.

Quellen:
- t3n.de
- twitter.com/t3n
- de.indymedia.org
- computerbild.de
- netzwoche.ch
- golem.de
- trendingtopics.eu
- fr.de

Was bedeutet das?
No items found.