OpenAI initiiert unabhängiges Überwachungsgremium für Sicherheitsstandards

Kategorien:
No items found.
Freigegeben:
September 18, 2024
OpenAI gründet unabhängiges Gremium zur Beaufsichtigung der Sicherheitspraktiken

OpenAI gründet unabhängiges Gremium zur Beaufsichtigung der Sicherheitspraktiken

Einführung des "Board Oversight Committee"

Das von Microsoft unterstützte Unternehmen OpenAI hat bekannt gegeben, dass sein bestehendes Komitee für Sicherheit und Gefahrenabwehr in ein unabhängiges Gremium umgewandelt wird. Dieses neue Gremium, das als "Board Oversight Committee" bezeichnet wird, soll künftig die Sicherheitspraktiken des Unternehmens überwachen und hat die Befugnis, Veröffentlichungen von KI-Modellen zu stoppen, wenn Sicherheitsbedenken bestehen.

Zusammensetzung des neuen Gremiums

Zum neuen Gremium gehören bekannte Experten auf dem Gebiet der Künstlichen Intelligenz: Adam D'Angelo, Nicole Seligman und Paul Nakasone. Geleitet wird das Gremium von Zico Kolter, Professor an der Carnegie Mellon University. Kolter ist vor einem Monat dem Vorstand von OpenAI beigetreten. D'Angelo, ein Schulfreund von Mark Zuckerberg, war früher CTO von Facebook und ist seit 2018 im Aufsichtsrat von OpenAI. Nicole Seligman ist Anwältin und war zuvor bei Sony tätig. Paul Nakasone, ein ehemaliger US Army General, gilt als Experte im Bereich Cybersecurity.

Unabhängigkeit des Gremiums

Obwohl die Mitglieder des neuen Gremiums auch Mitglieder im Aufsichtsrat von OpenAI sind, bleibt die Frage offen, wie unabhängig dieses Gremium tatsächlich agieren kann. Das Board Oversight Committee soll regelmäßig über den Stand der Entwicklungen von OpenAI informiert werden und verfügt über eine Frist von 90 Tagen, um bei Sicherheitsbedenken einzugreifen und Veröffentlichungen zu stoppen. Darüber hinaus müssen neue Modelle den US-Behörden zur Kontrolle vorgelegt werden, bevor sie veröffentlicht werden.

Hintergrund und Kontext

Die Gründung des neuen Gremiums erfolgt vor dem Hintergrund wachsender Bedenken hinsichtlich der Sicherheit von Künstlicher Intelligenz. OpenAI hat in den letzten Monaten immer wieder mit internen Kontroversen und externen Kritikpunkten zu kämpfen gehabt. Im vergangenen Herbst wurde CEO Sam Altman kurzfristig entlassen, was zu erheblichen internen Unruhen führte. Mehrere leitende Wissenschaftler verließen das Unternehmen und wechselten zu Konkurrenten wie Anthropic, die für einen verantwortungsbewussten Umgang mit KI werben.

Vergleich mit anderen Unternehmen

Auch andere Tech-Giganten haben ähnliche Schritte unternommen. Meta hat vor einigen Jahren das Oversight Board gegründet, das unabhängig Entscheidungen zu umstrittenen Inhalten auf Facebook und Instagram trifft. Dieses Gremium ist tatsächlich unabhängig, da seine Mitglieder keine anderen Funktionen bei Meta innehaben. Es kann von Meta befragt werden und seine Entscheidungen sind bindend.

Reaktionen und Ausblick

Die Einführung des Board Oversight Committee bei OpenAI wird von vielen als notwendiger Schritt angesehen, um das Vertrauen in die Sicherheitspraktiken des Unternehmens zu stärken. In der Tech-Community und bei Interessengruppen wird genau beobachtet, wie ernst OpenAI diese Initiative nimmt und welche konkreten Maßnahmen daraus resultieren. Die Ergebnisse der 90-tägigen Überprüfungsphase werden entscheidend sein für die zukünftige Ausrichtung des Unternehmens im Bereich KI-Sicherheit und Schutz.

Fazit

Die Gründung des unabhängigen Gremiums durch OpenAI markiert einen wichtigen Schritt in Richtung größerer Transparenz und Verantwortung im Umgang mit Künstlicher Intelligenz. Es bleibt abzuwarten, wie effektiv das Board Oversight Committee in der Praxis agieren wird und ob es tatsächlich in der Lage ist, die Sicherheit der entwickelten KI-Modelle zu gewährleisten.

Bibliografie

- https://www.heise.de/news/OpenAI-gruendet-unabhaengiges-Gremium-Safety-Board-9870755.html - https://de.marketscreener.com/kurs/aktie/MICROSOFT-CORPORATION-4835/news/OpenAIs-Sicherheitsausschuss-wird-als-unabhangiges-Gremium-die-Sicherheitspraktiken-beaufsichtigen-47879739/ - https://openai.com/index/openai-board-forms-safety-and-security-committee/ - https://www.faz.net/pro/digitalwirtschaft/kuenstliche-intelligenz/chatgpt-entwickler-sam-altman-als-open-ai-ceo-zurueckgekehrt-19323154.html - https://www.pcmasters.de/news/133713219-openai-gruendet-sicherheitsausschuss-inmitten-wachsender-ki-bedenken.html - https://onlinemarketing.de/unternehmensnews/zehn-millionen-us-dollar-ki-sicherheitsfonds - https://www.heise.de/news/OpenAI-Revolte-Mitarbeiter-stellen-Ruecktritts-Ultimatum-an-Vorstand-9534362.html - https://www.telepolis.de/features/Militarisierung-von-KI-Ehemaliger-NSA-Chef-steigt-bei-OpenAI-ein-9787358.html - https://www.theverge.com/2024/9/16/24246617/openai-independent-safety-board-stop-model-releases - https://de.wikipedia.org/wiki/OpenAI
Was bedeutet das?