OpenAI verstärkt Transparenzinitiativen für KI-generierte Inhalte

Kategorien:
No items found.
Freigegeben:
June 14, 2024

Artikel jetzt als Podcast anhören

In einer Welt, in der künstliche Intelligenz (KI) zunehmend Einzug in unseren Alltag hält, steigen auch die Ansprüche an die Transparenz der von KI generierten Inhalte. OpenAI, ein führendes Unternehmen im Bereich der KI-Forschung und -Entwicklung, hat kürzlich Maßnahmen ergriffen, um die Transparenz von KI-generierten Inhalten zu erhöhen.

OpenAI, bekannt für seine bahnbrechenden Entwicklungen in der KI, wie die Sprachverarbeitungsmodelle GPT-3 und DALL-E, hat angekündigt, sich dem Lenkungsausschuss der Coalition for Content Provenance and Authenticity (C2PA) anzuschließen. C2PA ist eine Initiative, die darauf abzielt, einen offenen Standard für die Zertifizierung digitalen Contents zu schaffen. Dies soll Nutzern helfen, die Herkunft von Inhalten zu verstehen und zu verifizieren, ob diese vollständig von einer KI erstellt, mit KI-Tools bearbeitet oder auf traditionelle Weise erfasst wurden.

Die Integration von C2PA-Metadaten in die generativen KI-Modelle von OpenAI ist ein bedeutender Schritt in Richtung größerer Transparenz. OpenAI hat bereits begonnen, C2PA-Metadaten zu Bildern hinzuzufügen, die von seinem neuesten DALL-E 3-Modell in ChatGPT und der OpenAI-API erstellt wurden. Diese Metadaten werden auch in das kommende Video-Generierungsmodell Sora integriert, wenn es breiter eingeführt wird.

Das Unternehmen betont, dass es zwar möglich sei, täuschende Inhalte zu erstellen oder diese Informationen zu entfernen, es jedoch nicht einfach sei, diese Informationen zu fälschen oder zu verändern. Dies macht sie zu einer wichtigen Ressource für den Aufbau von Vertrauen.

Die Maßnahmen von OpenAI kommen zu einem Zeitpunkt, an dem Bedenken hinsichtlich des Potenzials von KI-generierten Inhalten wachsen, Wähler vor wichtigen Wahlen in den USA, Großbritannien und anderen Ländern irrezuführen. Die Authentifizierung von KI-erstellten Medien könnte dazu beitragen, Deepfakes und andere manipulierte Inhalte zu bekämpfen, die auf Desinformationskampagnen abzielen.

Obwohl technische Maßnahmen hilfreich sind, erkennt OpenAI an, dass die Ermöglichung von Authentizität in der Praxis kollektive Maßnahmen von Plattformen, Erstellern und Content-Handhabern erfordert, um Metadaten für Endverbraucher zu bewahren.

Neben der Integration von C2PA entwickelt OpenAI neue Herkunftsmethoden wie fälschungssichere Wasserzeichen für Audio und Bilderkennungsklassifikatoren, um KI-generierte Visuals zu identifizieren.

OpenAI hat Bewerbungen für den Zugang zu seinem DALL-E 3 Bilderkennungsklassifikator über sein Researcher Access Program eröffnet. Das Tool prognostiziert die Wahrscheinlichkeit, dass ein Bild von einem der OpenAI-Modelle stammt.

Das Ziel des Unternehmens ist es, unabhängige Forschung zu ermöglichen, die die Wirksamkeit des Klassifikators bewertet, seine Anwendung in der realen Welt analysiert, relevante Überlegungen für einen solchen Einsatz aufzeigt und die Merkmale von KI-generierten Inhalten erforscht.

Interne Tests zeigen eine hohe Genauigkeit bei der Unterscheidung von Nicht-KI-Bildern von DALL-E 3-Visuals, wobei etwa 98% der DALL-E-Bilder korrekt identifiziert wurden und weniger als 0,5% der Nicht-KI-Bilder fälschlicherweise markiert wurden. Der Klassifikator hat jedoch mehr Schwierigkeiten, zwischen Bildern zu differenzieren, die von DALL-E und anderen generativen KI-Modellen produziert wurden.

OpenAI hat auch Wasserzeichen in sein Voice Engine Custom Voice Model integriert, das derzeit in einer begrenzten Vorschau verfügbar ist.

Das Unternehmen ist der Ansicht, dass die zunehmende Übernahme von Herkunftsstandards dazu führen wird, dass Metadaten Inhalte durch ihren gesamten Lebenszyklus begleiten und „eine entscheidende Lücke in den Praktiken der digitalen Inhaltsauthentizität schließen“.

OpenAI schließt sich Microsoft an, um einen gesellschaftlichen Resilienzfonds in Höhe von 2 Millionen US-Dollar zu starten, um die KI-Bildung und das Verständnis zu unterstützen, einschließlich durch Organisationen wie AARP, International IDEA und die Partnership on AI.

„Während technische Lösungen wie die oben genannten uns aktive Werkzeuge für unsere Abwehr bieten, wird die effektive Ermöglichung von Inhaltsechtheit in der Praxis kollektive Maßnahmen erfordern“, so OpenAI.

Die Bemühungen von OpenAI um Herkunft sind nur ein Teil einer breiteren Branchenanstrengung - viele der Forschungslabore und generativen KI-Unternehmen der Branche fördern auch die Forschung in diesem Bereich. Das Unternehmen lobt diese Bemühungen – die Branche muss zusammenarbeiten und Einblicke teilen, um das Verständnis zu verbessern und Transparenz online zu fördern.

Quellen:
- "OpenAI Explores Measures to Enhance Content Transparency" von Ryan Daws, TechForge Media
- "Enhancing Transparency and Accuracy in AI Communication", OpenAI Developer Forum
- "OpenAI announces steps to prevent its generative AI tools from being used to manipulate elections" von Mike Wheatley, SiliconANGLE
- "OpenAI, Google, and Meta Pledge to Identify AI-generated Content" von Jolifox auf LinkedIn
- "OpenAI and Meta advance transparency in AI-generated content", Okoone
- "Labeling AI-Generated Images on Facebook, Instagram and Threads" von Nick Clegg, Meta
- "Why protecting an open AI ecosystem should be a cornerstone of technology regulation", World Economic Forum
- "OpenAI ChatGPT 4 v2: Explainable AI, Audit, Ethics, Hallucinations, Transparency" von Jeff Frick auf LinkedIn

Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.