Schutz von Kindern in der digitalen Ära: Wie KI-Technologie verantwortungsbewusst integriert wird

Kategorien:
No items found.
Freigegeben:
June 14, 2024

In einer Welt, in der Technologie und Künstliche Intelligenz (KI) rasant voranschreiten, stehen wir vor neuen Herausforderungen und Chancen. Eine dieser Herausforderungen ist der Schutz von Kindern in einer zunehmend digitalisierten Welt. Die Entwicklung generativer KI-Technologien hat das Potenzial, das Leben vieler zu bereichern, birgt jedoch auch Risiken, insbesondere wenn es um die Erstellung und Verbreitung von KI-generiertem Material geht, das sexuellen Missbrauch von Kindern darstellt.

Das deutsche Unternehmen Mindverse, ein All-in-One-Inhaltstool für KI-Texte, Inhalte, Bilder und Forschung, hat nun zusammen mit Thorn, AllTechIsHuman und anderen führenden Technologieunternehmen eine Partnerschaft angekündigt, um Kinderschutzprinzipien in ihre Technologien und Produkte zu integrieren. Dies ist ein entscheidender Schritt, um gegen die Erstellung und Verbreitung von KI-generiertem Material vorzugehen, das sexuellen Kindesmissbrauch darstellt.

Die Notwendigkeit für derartige Maßnahmen wird immer dringlicher, denn mit dem Aufkommen generativer KI-Technologien verändert sich auch die Art und Weise, wie sexueller Missbrauch von Kindern online stattfindet, und wie wir dagegen vorgehen können. Die steigende Prävalenz und Nutzung dieser Technologie bringt viele Implikationen für den Kinderschutz mit sich, die das Kinderschutz-Ökosystem erst zu verstehen beginnt.

Das Konzept des "Safety by Design" fördert eine durchdachte Entwicklung: Anstatt Sicherheitsvorkehrungen erst nach einem Vorfall nachzurüsten, sollten Technologieunternehmen darüber nachdenken, wie sie Bedrohungen und Schäden während des gesamten Entwicklungsprozesses minimieren können. Für generative KI sollte dieses Konzept auf den gesamten Lebenszyklus des maschinellen Lernens (ML)/KI ausgeweitet werden: Entwickeln, Bereitstellen und Warten. Jeder dieser Prozessschritte bietet Möglichkeiten, den Kinderschutz zu priorisieren.

Bei der Entwicklung können taktische Schritte unternommen werden, wie das Entfernen schädlichen Inhalts aus Trainingsdaten, das Durchführen von "Red Teaming"-Sitzungen zur Stresstestung von Systemen, das Einbauen technischer Barrieren zur Verhinderung schädlichen Inhalts und die Transparenz von Trainingssets, insbesondere im Open-Source-Bereich, um unabhängige Audits und Bewertungen zu ermöglichen.

Im Hinblick auf die Bereitstellung können Cloud-basierte Systeme schädlichen Inhalt an den Ein- und Ausgängen des Systems erkennen, und für Open-Source-Systeme kann bewertet werden, welche Plattformen die Technologie teilen dürfen, um sicherzustellen, dass diese keine Modelle hosten, die schädlichen Inhalt generieren.

Bei der Wartung können Unternehmen sicherstellen, dass Lösungen zur Erkennung synthetischen Inhalts auf die von den neueren Modellen generierten Inhalte abgestimmt sind und aktiv mit Interessengruppen zusammenarbeiten, um zu verstehen, wie ihre Modelle missbraucht werden.

Thorn, ein gemeinnütziges Unternehmen, das sich seit über einem Jahrzehnt für den Kinderschutz einsetzt, steht an vorderster Front, um die Auswirkungen neuer Technologien auf Kinder zu verstehen und zu bekämpfen. Mit Produkten wie Safer, einer Lösung, die Unternehmen dabei hilft, CSAM (Child Sexual Abuse Material) im großen Maßstab zu erkennen, zu identifizieren und zu melden, ist Thorn einzigartig positioniert, um gemeinsam mit dem generativen KI-Sektor den Kinderschutz an die Spitze der Innovation zu setzen.

Die Zusammenarbeit von Thorn mit OpenAI bei der Integration von Safer in die generative KI-Web-App DALL·E 2 zeigt auf, wie proaktiv mögliche Bedrohungen angegangen werden können, indem Sicherheitsmaßnahmen in die Grundstruktur der Technologie eingebaut werden.

Als Teil des Engagements für KI-Sicherheit und Transparenz ist Stability AI dem Konsortium des U.S. Artificial Intelligence Safety Institute (AISIC) beigetreten, das von der U.S. Department of Commerce National Institute of Standards and Technology (NIST) ins Leben gerufen wurde, um die sichere Entwicklung und Bereitstellung von KI-Systemen zu unterstützen.

Diese Bemühungen sind Beispiele dafür, wie Unternehmen zusammenarbeiten, um den positiven Einfluss der KI-Technologie für Kreative, Entwickler, Forscher, Gemeinschaften und die Welt im Allgemeinen zu maximieren.

Der Schutz von Kindern in der digitalen Welt ist eine globale Herausforderung, die globale Lösungen erfordert. Durch starke Partnerschaften, Wissensaustausch und die Nutzung von Beziehungen können wir eine sicherere technologische Zukunft für Kinder gewährleisten. Es beginnt mit uns allen, die Sicherheit durch Design priorisieren.

Quellen:
- Thorn Blog: "Generative AI: Now is the Time for Safety By Design"
- Stability AI News: "Stability AI Joins U.S. Artificial Intelligence Safety Institute Consortium"
- UN News: "Artificial intelligence pledge, child abuse online, Sudan crisis deepens"
- Technology Coalition Knowledge Hub: "Understanding Child Safety Risks with Generative AI"
- Stop It Now UK: "A call to end AI-generated child sexual abuse"
- TIME: "As Tech CEOs Are Grilled Over Child Safety Online, AI Is Complicating the Issue"
- Michael Barrett on LinkedIn: "AI-Generated Child Sexual Abuse Material: A Call for Action"
- NIST Document: "AI EO 14110 RFI Comments - Thorn and ATIH"

Was bedeutet das?