KI Forschung im Spannungsfeld zwischen Fortschritt und ethischen Bedenken

Kategorien:
No items found.
Freigegeben:
June 14, 2024

KI-Forscher unter Druck: Warnungen vor Gefahren unerwünscht?

Einleitung


Künstliche Intelligenz (KI) ist eine der am schnellsten wachsenden Technologien unserer Zeit und birgt enormes Potenzial für Fortschritt und Innovation. Doch mit den Chancen kommen auch Risiken, und diese Bedenken werden zunehmend von führenden KI-Forschern geäußert. In den letzten Monaten gab es mehrere Vorfälle, bei denen Forscher, die auf die Gefahren von KI hingewiesen haben, Repressalien befürchteten oder tatsächlich erlitten. Dies wirft die Frage auf, inwieweit die Wissenschaftler in der Lage sind, frei über die Risiken zu sprechen, ohne Sanktionen zu fürchten.


Der aktuelle Stand


Eine Gruppe von KI-Forschern, darunter einige vom ChatGPT-Erfinder OpenAI, fordert das Recht ein, die Öffentlichkeit über die potenziellen Gefahren der Software zu informieren. In einem offenen Brief, der im Juni 2024 veröffentlicht wurde, betonten die Experten, dass der derzeitige Schutz für Whistleblower unzureichend sei. Sie argumentieren, dass dieser Schutz hauptsächlich auf illegale Aktivitäten von Firmen ausgerichtet sei, während viele Aspekte der Künstlichen Intelligenz noch keiner rechtlichen Regelung unterliegen.


Beispiele aus der Praxis


Ein prominentes Beispiel dafür ist der Fall von Leopold Aschenbrenner, einem ehemaligen Forscher bei OpenAI. Er berichtete im Dwarkesh Podcast, dass er entlassen wurde, nachdem er sich beim Verwaltungsrat des Unternehmens über Sicherheitsbedenken bezüglich der KI-Software geäußert hatte. Ein weiteres Beispiel ist die Androhung von OpenAI, ehemaligen Mitarbeitern ihre Aktienoptionen zu entziehen, wenn sie das Unternehmen "verunglimpfen" sollten. OpenAI-Chef Sam Altman entschuldigte sich später und ließ die Klausel streichen, betonte jedoch, dass sie nie angewendet worden sei.


Forderungen der Forscher


Die Forscher fordern in ihrem Brief, dass Unternehmen mit fortgeschrittenen KI-Modellen vier Grundsätze befolgen sollten:
- Mitarbeitern sollte es nicht verboten werden, negative Äußerungen über ihre Arbeitgeber zu machen.
- Es sollte ein Verfahren geben, mit dem Mitarbeiter anonym die Verwaltungsräte der Unternehmen sowie Regulierungsbehörden über aus ihrer Sicht bestehende Risiken bei KI-Software informieren können.
- Mitarbeiter sollten die Freiheit haben, an die Öffentlichkeit zu gehen, solange es keine internen Wege gibt.
- Unternehmen sollten den wissenschaftlichen Austausch über Risiken der Technologie fördern.


Rasante Entwicklung und mögliche Gefahren


Einige KI-Experten warnen schon lange davor, dass die rasante Entwicklung Künstlicher Intelligenz zu autonomer Software führen könnte, die sich der Kontrolle der Menschen entzieht. Die möglichen Konsequenzen reichen von der Verbreitung von Falschinformationen und großflächigen Jobverlusten bis hin zur „Auslöschung der Menschheit“. Regierungen weltweit arbeiten daher daran, Regeln für die Entwicklung von KI-Software aufzustellen.


Reaktionen und Gegenreaktionen


Eine Sprecherin von OpenAI erklärte, dass das Unternehmen an eine „wissenschaftliche Herangehensweise an Risiken der Technologie“ glaube und dass Mitarbeitern freistehe, auch anonym ihre Sorgen zu teilen. Allerdings dürften dabei keine vertraulichen Informationen öffentlich gemacht werden, die in die falschen Hände geraten könnten.

Vier aktuelle und zwei frühere Mitarbeiter von OpenAI schlossen sich dem offenen Brief nur anonym an. Unter den sieben namentlich bekannten Unterzeichnern sind fünf ehemalige Beschäftigte von OpenAI und ein früherer Mitarbeiter der Google-Tochter DeepMind. Neel Nanda, ein derzeitiger Mitarbeiter von DeepMind, betonte, dass ihm bei seinen aktuellen und früheren Arbeitgebern nichts untergekommen sei, wovor er warnen wolle.


Regulatorische Maßnahmen


Die EU hat bereits Schritte unternommen, um die Entwicklung und den Einsatz von KI zu regulieren. Ein kürzlich verabschiedetes Gesetz sieht vor, dass bestimmte KI-Anwendungen verboten werden, wenn sie ein hohes Risiko für die öffentliche Sicherheit oder die Grundrechte darstellen. Zudem wurden Unternehmen verpflichtet, Transparenzberichte zu erstellen und Risikobewertungen durchzuführen.


Globale Perspektiven


Auch weltweit wächst das Bewusstsein für die Notwendigkeit einer Regulierung von KI. Bei einem KI-Gipfel in Seoul sicherten unter anderem US-Konzerne wie Google, Meta und Microsoft einen verantwortungsvollen Umgang mit der Technologie zu. Trotzdem bleibt die Frage bestehen, ob diese Selbstverpflichtungen ausreichen, um die potenziellen Gefahren zu minimieren.


Schlussfolgerung


Die Diskussion um die Risiken und Chancen von Künstlicher Intelligenz ist komplex und vielschichtig. Während die Technologie enormes Potenzial bietet, dürfen die möglichen Gefahren nicht ignoriert werden. Die Forderungen der Forscher nach mehr Schutz und Transparenz sind ein wichtiger Schritt in Richtung einer verantwortungsvollen Entwicklung und Nutzung von KI. Es bleibt abzuwarten, wie Unternehmen und Regierungen auf diese Forderungen reagieren und welche Maßnahmen ergriffen werden, um sowohl Innovation als auch Sicherheit zu gewährleisten.

Bibliographie:
- https://t3n.de/news/ki-forscher-risiken-warnung-1628354/
- https://www.n-tv.de/wirtschaft/KI-Forscher-fordern-mehr-Schutz-fuer-Whistleblower-article24989740.html
- https://www.noz.de/lebenswelten/digitales-technik/artikel/neue-experten-warnung-kontrollverlust-ueber-ki-systeme-droht-47055007
- https://www1.wdr.de/nachrichten/ki-kuenstliche-intelligenz-bedrohung-chancen-menschheit-100.html
- https://www.stuttgarter-nachrichten.de/inhalt.kuenstliche-intelligenz-experten-warnen-vor-kontrollverlust-ueber-ki-systeme.61c6e92b-3588-4c90-a1cf-64492a0fff63.html
- https://www.businessinsider.de/bi/risiken-bis-zur-ausloeschung-der-menschheit-experten-warnen-vor-ki/
- https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/de/pdf
- https://horkus.bayern.de/europabericht-03-2024-vom-21-03-2024/?seite=39748
- https://eizpublishing.ch/wp-content/uploads/2020/04/Elftes-Zuercher-Praeventionsforum-V1_21-20200309.epub
- https://www.oldie-antenne.de/mediathek/serien/apokalypse-und-filterkaffee-studio-bummens/01hkcjxry1kd61jkbmgsrm323g-heimspiel-anja-caspary

Was bedeutet das?
No items found.