OpenAI und Anthropic uneins über kalifornisches KI-Sicherheitsgesetz

Kategorien:
No items found.
Freigegeben:
August 27, 2024
OpenAI und Anthropic: Differenzen über neues AI-Gesetz zur Vermeidung katastrophaler Risiken

OpenAI und Anthropic: Differenzen über neues AI-Gesetz zur Vermeidung katastrophaler Risiken

Einleitung

In der Welt der künstlichen Intelligenz (KI) gibt es derzeit eine hitzige Debatte über ein vorgeschlagenes kalifornisches Gesetz, das darauf abzielt, KI-Modelle zu regulieren, die "katastrophale Risiken" für Menschen und die Cybersicherheit darstellen könnten. Dieses Gesetzesvorhaben, bekannt als SB 1047, hat zu einer Spaltung unter den führenden KI-Unternehmen des Silicon Valley geführt. Während OpenAI gegen das Gesetz argumentiert, unterstützt Anthropic es mit einigen Vorbehalten.

Hintergrund des Gesetzes

SB 1047, auch bekannt als "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", hat das Ziel, KI-Modelle zu regulieren, die potenziell katastrophale Risiken bergen. Das Gesetz verlangt von Unternehmen, die hochriskante KI-Modelle entwickeln, Sicherheits- und Schutzprotokolle (SSPs) zu erstellen, diese zu veröffentlichen und jährliche Prüfungen durch Dritte ab 2026 zu durchlaufen. Entwickler müssen zudem Compliance-Erklärungen einreichen und AI-Sicherheitsvorfälle melden. Das Gesetz definiert spezifische KI-Modelle, die der Regulierung unterliegen. Dazu gehören Modelle, die mit mehr als 10^26 Integer- oder Gleitkommaoperationen trainiert wurden und mehr als 100 Millionen US-Dollar kosten. Es umfasst auch Modelle, die durch Feinabstimmung solcher Systeme mit mindestens 3x10^25 Operationen und Kosten von mehr als 10 Millionen US-Dollar erstellt wurden. Ein neues "Board of Frontier Models" wird diese Definitionen im Laufe der Zeit aktualisieren.

Position von OpenAI

OpenAI, das Unternehmen hinter ChatGPT, hat seine Ablehnung des Gesetzes in einem Brief an den kalifornischen Gouverneur Gavin Newsom deutlich gemacht. Das Unternehmen argumentiert, dass die Regulierung von KI-Modellen auf Bundesebene erfolgen sollte, da nationale Sicherheitsbelange betroffen sind. OpenAI warnt auch davor, dass das Gesetz die Führungsrolle Kaliforniens in der KI-Entwicklung gefährden und Unternehmen aus dem Staat vertreiben könnte. Jason Kwon, Chief Strategy Officer von OpenAI, schreibt: "Die breiten und signifikanten Auswirkungen von KI auf die Wettbewerbsfähigkeit der USA und die nationale Sicherheit erfordern, dass die Regulierung von Spitzenmodellen auf Bundesebene gestaltet und umgesetzt wird. Ein bundesweit geführter Satz von KI-Richtlinien, anstelle eines Flickenteppichs aus staatlichen Gesetzen, wird Innovation fördern und die USA in die Lage versetzen, die Entwicklung globaler Standards zu führen."

Position von Anthropic

Anthropic, der Schöpfer des AI-Chatbots Claude, hat in einem eigenen Brief an Gouverneur Newsom eine andere Haltung eingenommen. Das Unternehmen unterstützt das Gesetz grundsätzlich, obwohl es einige Vorbehalte hat. Anthropic sieht SB 1047 als einen entscheidenden Schritt zur Minderung katastrophaler Risiken durch KI-Systeme. Laut Anthropic adressiert das Gesetz berechtigte Bedenken hinsichtlich der sich schnell entwickelnden KI-Fähigkeiten. Während dieser Fortschritt großes wirtschaftliches Potenzial für Kalifornien birgt, sind auch erhebliche Gefahren damit verbunden. Das Unternehmen warnt, dass ernsthafter Missbrauch von KI innerhalb von ein bis drei Jahren auftreten könnte. Anthropic lobt die Anforderung von SB 1047, dass KI-Unternehmen Sicherheits- und Schutzprotokolle (SSPs) entwickeln und transparente Informationen darüber bereitstellen müssen. Das Gesetz incentiviert auch effektive SSPs, indem es die Haftung für Schäden mit der Qualität der Protokolle verknüpft. Darüber hinaus fördert SB 1047 die Forschung zur Minderung von KI-Risiken.

Kritik von ehemaligen OpenAI-Mitarbeitern

Ehemalige Mitarbeiter von OpenAI haben sich ebenfalls zu Wort gemeldet und ihrem früheren Arbeitgeber vorgeworfen, die Öffentlichkeit in Bezug auf KI-Sicherheit zu täuschen. In einem offenen Brief behaupten William Saunders und Daniel Kokotajlo, dass sie OpenAI verlassen haben, weil sie das Vertrauen in das Engagement des Unternehmens für eine sichere, ehrliche und verantwortungsvolle KI-Entwicklung verloren haben. Saunders und Kokotajlo werfen OpenAI vor, Sicherheitsprotokolle ignoriert und interne Kritiker zum Schweigen gebracht zu haben, trotz anderslautender öffentlicher Bekundungen. Sie kritisieren auch die aktuelle Ablehnung von OpenAI gegenüber der Regulierung und weisen darauf hin, dass CEO Sam Altman diese zuvor öffentlich unterstützt hatte. Die ehemaligen Mitarbeiter loben hingegen die nuancierte Haltung von Anthropic zu dem Gesetz.

Reaktionen von Senator Scott Wiener

Senator Scott Wiener, der Autor des Gesetzes, weist die Kritik von OpenAI zurück. Er argumentiert, dass das Unternehmen es versäumt habe, auf spezifische Bestimmungen des Gesetzes einzugehen, und stattdessen fordere, dass die Regulierung dem Kongress überlassen werde, der bisher jedoch nicht gehandelt habe. Wiener bezeichnet die Behauptungen, dass Unternehmen Kalifornien verlassen würden, als "abgedroschenes Argument" und stellt fest, dass SB 1047 für alle Unternehmen gilt, die im Staat Geschäfte machen, unabhängig von ihrem Hauptsitz. "Unterm Strich: SB 1047 ist ein äußerst vernünftiges Gesetz, das große KI-Labore dazu auffordert, das zu tun, was sie bereits zugesagt haben, nämlich ihre großen Modelle auf katastrophale Sicherheitsrisiken zu testen," schreibt Wiener. Wiener verweist auch auf die Unterstützung von SB 1047 durch hochrangige Sicherheitsexperten. Der pensionierte Generalleutnant John Shanahan bezeichnete das Gesetz als ausgewogen und praktisch, um die gefährlichsten unmittelbaren Risiken für die Gesellschaft und die nationale Sicherheit anzugehen. Andrew Weber, ein ehemaliger Pentagon-Beamter, betonte die Notwendigkeit strikter Cybersicherheitsmaßnahmen für fortschrittliche KI-Systeme, um zu verhindern, dass sie in die falschen Hände geraten. Das Gesetz wird nun im Staatsparlament zur Beratung und Abstimmung vorgelegt. Sollte es verabschiedet werden, wird Gouverneur Newsom entscheiden, ob er es in Kraft setzen oder ein Veto einlegen wird.

Fazit

Das vorgeschlagene kalifornische Gesetz SB 1047 zielt darauf ab, KI-Modelle zu regulieren, die katastrophale Risiken bergen könnten. Das Gesetz verlangt von Unternehmen, Sicherheitsprotokolle für hochriskante KI-Systeme zu erstellen, zu veröffentlichen und prüfen zu lassen. Es schützt auch Whistleblower, die potenzielle Gefahren melden. OpenAI lehnt das Gesetz ab und argumentiert, dass die Regulierung von KI auf Bundesebene erfolgen sollte. Im Gegensatz dazu unterstützt Anthropic SB 1047 vorsichtig und sieht darin einen entscheidenden Schritt zur Minderung katastrophaler KI-Risiken, obwohl es einige Bedenken bezüglich der Umsetzung hat. Ehemalige OpenAI-Mitarbeiter haben dem Unternehmen vorgeworfen, die Öffentlichkeit zu täuschen und Sicherheitsmaßnahmen zu vernachlässigen. Sie loben die differenzierte Herangehensweise von Anthropic an das Gesetz. Prominente Sicherheitsexperten befürworten SB 1047 und sehen es als ausgewogene und notwendige Maßnahme, um unmittelbare AI-bezogene Risiken für die Gesellschaft und die nationale Sicherheit anzugehen. Bibliografie: - https://the-decoder.com/openai-and-anthropic-split-over-new-ai-law-targeting-catastrophic-risks/ - https://press.un.org/en/2023/sc15359.doc.htm - https://www.theinformation.com/articles/openai-plays-catch-up-with-anthropic-on-calculating-catastrophic-ai-risks - https://cdn.openai.com/papers/practices-for-governing-agentic-ai-systems.pdf - https://www.anthropic.com/news/anthropics-responsible-scaling-policy - https://www.robertdiab.ca/papers/AIrisk.pdf - https://researchbriefings.files.parliament.uk/documents/POST-PN-0708/POST-PN-0708.pdf - https://80000hours.org/podcast/episodes/nick-joseph-anthropic-safety-approach-responsible-scaling/ - https://hai.stanford.edu/sites/default/files/2024-02/White-Paper-Rethinking-Privacy-AI-Era.pdf - https://www.vox.com/future-perfect/23794855/anthropic-ai-openai-claude-2
Was bedeutet das?