US Sicherheitsexperten fordern stärkeren Schutz von KI-Technologien

Kategorien:
No items found.
Freigegeben:
June 14, 2024

US-Sicherheitsexperten warnen: KI-Giganten tun nicht genug, um ihre Geheimnisse zu schützen

In einer Zeit, in der Künstliche Intelligenz (KI) die Welt im Sturm erobert, haben US-Sicherheitsexperten Bedenken geäußert, dass große KI-Unternehmen nicht ausreichend Maßnahmen ergreifen, um ihre wertvollen Erkenntnisse und Technologien vor ausländischen Akteuren, insbesondere China, zu schützen. Diese Bedenken wurden kürzlich von Susan Rice, die als nationale Sicherheitsberaterin unter Präsident Obama diente, auf einem Panel an der Stanford University geäußert.

Hintergrund und Kontext

Im vergangenen Jahr hat das Weiße Haus ein bahnbrechendes Sicherheitsabkommen mit KI-Entwicklern geschlossen, zu denen Unternehmen wie Google und OpenAI gehören. Diese Unternehmen verpflichteten sich, mögliche Risiken bei der Entwicklung von Software wie ChatGPT zu berücksichtigen. Susan Rice, die einen wesentlichen Beitrag zu diesem Abkommen geleistet hat, betonte nun die Notwendigkeit, die Geheimhaltung der Algorithmen zu verstärken, um sie vor chinesischem Diebstahl zu schützen.

Die Bedrohung durch China

Rice wies darauf hin, dass China, das in der KI-Entwicklung hinterherhinkt, versuchen könnte, durch den Kauf und die Modifikation von Open-Source-Modellen oder durch den Diebstahl von Geheimnissen seine eigene Position zu stärken. Diese Sorge ist nicht unbegründet: Im März dieses Jahres erhob das US-Justizministerium Anklage gegen einen ehemaligen Google-Softwareingenieur, der angeblich Geschäftsgeheimnisse im Zusammenhang mit Googles TPU-KI-Chips gestohlen und in China verwenden wollte.

Verstärkte Sicherheitsmaßnahmen

Während einige Experten der Meinung sind, dass die heutigen KI-Modelle nicht ausgereift genug sind, um strengere Sicherheitsmaßnahmen zu rechtfertigen, wächst das Interesse an der Sicherung von KI-Modellen. Ein Bericht des US-Think-Tanks RAND identifizierte kürzlich 38 Wege, wie Geheimnisse aus KI-Projekten geleakt werden könnten, darunter Bestechung, Einbrüche und die Ausnutzung technischer Hintertüren.

RAND empfahl unter anderem, dass Unternehmen ihre Mitarbeiter ermutigen sollten, verdächtiges Verhalten von Kollegen zu melden und den Zugang zu den sensibelsten Materialien auf wenige Mitarbeiter zu beschränken. Im Mittelpunkt steht dabei der Schutz sogenannter Modellgewichte, die Werte in einem künstlichen Neuronalen Netzwerk, die während des Trainings angepasst werden und dem Modell nützliche Funktionen verleihen, wie etwa ChatGPTs Fähigkeit, auf Fragen zu antworten.

Regierungsinitiativen und Unternehmensreaktionen

Unter einer umfassenden Exekutivverordnung zu KI, die Präsident Biden im Oktober letzten Jahres unterzeichnet hat, wird von der US National Telecommunications and Information Administration (NTIA) erwartet, dass sie in diesem Jahr einen ähnlichen Bericht veröffentlicht, der die Vor- und Nachteile des Schutzes von Modellgewichten analysiert. Die Verordnung verlangt bereits, dass Unternehmen, die fortschrittliche KI-Modelle entwickeln, dem US-Handelsministerium über die "physischen und Cybersicherheitsmaßnahmen" berichten, die zum Schutz dieser Modellgewichte ergriffen wurden.

Google äußerte in öffentlichen Kommentaren zur NTIA, dass es "vermehrte Versuche, Modelle zu stören, zu degradieren, zu täuschen und zu stehlen" erwartet. Das Unternehmen fügte hinzu, dass seine Geheimnisse von einer "Sicherheits-, Sicherheits- und Zuverlässigkeitsorganisation bestehend aus Ingenieuren und Forschern mit Weltklasse-Expertise" geschützt werden und dass es an einem "Rahmenwerk" arbeite, das ein Expertengremium zur Steuerung des Zugriffs auf Modelle und deren Gewichte beinhalte.

Ähnlich äußerte sich OpenAI, das Modelle wie GPT-4 entwickelt. Das Unternehmen betonte die Notwendigkeit sowohl offener als auch geschlossener Modelle, je nach den Umständen. OpenAI gründete kürzlich ein eigenes Sicherheitskomitee im Vorstand und veröffentlichte Details über die Sicherheit der Technologie, die zur Schulung von Modellen verwendet wird. Das Blogpost drückte die Hoffnung aus, dass die Transparenz andere Labore dazu inspirieren würde, Schutzmaßnahmen zu übernehmen.

Globale Perspektive und geopolitische Spannungen

Jason Matheny, CEO von RAND, der neben Rice bei Stanford sprach, bestätigte die Bedenken über Sicherheitslücken. Durch Exportkontrollen, die Chinas Zugang zu leistungsstarken Computerchips einschränken, hat die USA die Fähigkeit chinesischer Entwickler, eigene Modelle zu entwickeln, beeinträchtigt, so Matheny. Diese Kontrollen hätten Chinas Bedarf erhöht, KI-Software direkt zu stehlen.

Matheny schätzte, dass die Investition von ein paar Millionen Dollar in einen Cyberangriff, der KI-Modellgewichte stiehlt, die einem amerikanischen Unternehmen Hunderte von Milliarden Dollar gekostet haben, für China gut angelegt sei. "Es ist wirklich schwierig, und es ist wirklich wichtig, und wir investieren national nicht genug, um das richtig hinzubekommen", sagte Matheny.

Die chinesische Botschaft in Washington, DC, reagierte nicht unmittelbar auf die Anfrage von WIRED zu den Diebstahlsvorwürfen, hat aber in der Vergangenheit solche Behauptungen als grundlose Verleumdungen westlicher Beamter bezeichnet.

Fallstudie: Der Fall Linwei Ding

Ein exemplarischer Fall ist der von Linwei Ding, einem chinesischen Staatsangehörigen, der unter dem Namen Leon bekannt ist. Ding wurde 2019 eingestellt, um an der Software für Googles Supercomputing-Rechenzentren zu arbeiten. Laut Anklageprotokollen kopierte er über ein Jahr hinweg mehr als 500 Dateien mit vertraulichen Informationen auf sein persönliches Google-Konto. Dabei umging er Googles Technologien, die solche Exfiltrationen erkennen sollen. Während dieser Zeit stand Ding angeblich in Kontakt mit dem CEO eines KI-Startups in China und hatte geplant, ein eigenes chinesisches KI-Unternehmen zu gründen. Bei einer Verurteilung drohen ihm bis zu zehn Jahre Haft.

Der Fall Linwei Ding zeigt die Komplexität und die Herausforderungen, denen Unternehmen und Regierungen gegenüberstehen, wenn es darum geht, fortschrittliche Technologien vor Diebstahl und Missbrauch zu schützen. Die zunehmende Bedeutung von KI in der globalen Wirtschaft und in militärischen Anwendungen macht es unerlässlich, dass sowohl staatliche als auch private Akteure ihre Sicherheitsmaßnahmen ständig überprüfen und anpassen.

Schlussfolgerung

Die Warnungen der US-Sicherheitsexperten unterstreichen die dringende Notwendigkeit, die Sicherheitsprotokolle rund um fortschrittliche KI-Modelle zu verstärken. Während Unternehmen wie Google und OpenAI bereits Maßnahmen ergreifen, bleibt die Herausforderung bestehen, eine Balance zwischen Offenheit und Geheimhaltung zu finden, um Innovationen zu fördern und gleichzeitig die nationalen Sicherheitsinteressen zu schützen.

Die geopolitischen Spannungen, insbesondere zwischen den USA und China, verschärfen die Situation weiter und erfordern eine sorgfältige und wohlüberlegte Strategie, um sowohl wirtschaftliche als auch sicherheitspolitische Ziele zu erreichen.

In einer Welt, die zunehmend von KI-Technologien geprägt wird, ist es entscheidend, dass Unternehmen, Regierungen und internationale Organisationen zusammenarbeiten, um eine sichere und verantwortungsvolle Nutzung dieser Technologien zu gewährleisten.

Mindverse, als führendes deutsches Unternehmen im Bereich KI und Inhaltsgenerierung, ist bestrebt, durch innovative Lösungen und maßgeschneiderte Anwendungen wie Chatbots, Voicebots und Wissenssysteme einen Beitrag zur sicheren und effektiven Nutzung von KI-Technologien zu leisten.

Mindverse wird weiterhin die Entwicklungen in diesem Bereich aufmerksam verfolgen und seine Expertise nutzen, um sowohl Unternehmen als auch die Gesellschaft insgesamt in der sicheren Integration und Nutzung von KI zu unterstützen.

Quellen:


- https://www.wired.com/story/national-security-experts-warn-ai-giants-secrets/
- https://www.youtube.com/watch?v=WgNBDjNY0sU
- https://www.gatesnotes.com/The-risks-of-AI-are-real-but-manageable
- https://www.linkedin.com/posts/maslett_chip-bans-not-enough-to-secure-critical-networks-activity-7110622020375060480-E5wd
- https://www.scsp.ai/wp-content/uploads/2024/04/Intelligence-Innovation.pdf
- https://www.technologyreview.com/2019/10/21/132277/military-artificial-intelligence-can-be-easily-and-dangerously-fooled/
- https://www.gov.uk/government/consultations/ai-regulation-a-pro-innovation-approach-policy-proposals/outcome/a-pro-innovation-approach-to-ai-regulation-government-response
- https://www.whitehouse.gov/briefing-room/statements-releases/2024/05/15/statement-from-nsc-spokesperson-adrienne-watson-on-the-u-s-prc-talks-on-ai-risk-and-safety-2/
- https://time.com/magazine/us/6695603/february-26th-2024-vol-203-no-5-worldwide/


Was bedeutet das?