In den vergangenen Jahren hat sich die Entwicklung künstlicher Intelligenz (KI) rasant beschleunigt. Firmen wie Microsoft und OpenAI sind führend in der Forschung und Implementierung von KI-Technologien, die das Potenzial haben, die Art und Weise, wie wir arbeiten, leben und miteinander interagieren, grundlegend zu verändern. Eine zentrale Rolle in diesem Prozess spielen Teams, die sich mit langfristigen Risiken künstlicher Intelligenz befassen. Ihre Aufgabe ist es, sicherzustellen, dass KI-Systeme verantwortungsbewusst entwickelt und eingesetzt werden. Doch gerade diese Teams sind in letzter Zeit von Umstrukturierungen und Auflösungen betroffen.
Microsoft zum Beispiel hat sein gesamtes Ethik- und Gesellschaftsteam innerhalb der KI-Organisation als Teil einer Unternehmensumstrukturierung entlassen, die 10.000 Mitarbeiter betraf. Dieser Schritt erfolgte zu einem Zeitpunkt, als Microsoft seine Bemühungen intensivierte, KI-Tools für den Mainstream verfügbar zu machen. Das Unternehmen betont jedoch, dass sein Gesamteinsatz in verantwortungsvolle Arbeit trotz der Entlassungen zunehme und dass das aktive Büro für verantwortungsbewusste KI weiterhin Regeln und Prinzipien für Microsofts KI-Initiativen erstelle.
Die Auflösung des Ethik- und Gesellschaftsteams hinterlässt allerdings eine Lücke in der ganzheitlichen Gestaltung von KI-Produkten. Die Mitarbeiter hatten eine kritische Rolle darin, sicherzustellen, dass Microsofts Prinzipien für verantwortungsbewusste KI tatsächlich im Produktdesign umgesetzt werden. Das Team arbeitete beispielsweise an einem Rollenspiel namens "Judgment Call", das Entwicklern helfen sollte, potenzielle Schäden durch KI zu erkennen und während der Produktentwicklung zu diskutieren.
Bei OpenAI, dem Unternehmen, das hinter dem bahnbrechenden KI-Modell GPT-3 steht, gab es ebenfalls bedeutende Veränderungen. Das Langzeitrisiko-Team von OpenAI, das sich mit den potenziellen Gefahren und ethischen Herausforderungen von KI befasste, wurde aufgelöst. Diese Entwicklung ist besorgniserregend, da gerade diese Teams unerlässlich sind, um die Sicherheit von KI-Technologien zu gewährleisten und mögliche negative Auswirkungen auf die Gesellschaft zu verhindern.
Die Auflösung solcher Teams ist umso beunruhigender, wenn man bedenkt, dass Experten vor den potenziellen Gefahren einer KI warnen, die die kognitiven Fähigkeiten des Menschen übersteigt. Es wurden bereits Aufrufe für eine sechsmonatige Pause in der KI-Forschung laut, insbesondere um die Entwicklung einer sogenannten künstlichen allgemeinen Intelligenz (AGI), die menschliche Leistungen übertreffen könnte, zu verlangsamen. Doch während einige Mitarbeiter die Notwendigkeit einer solchen Pause betonten, wurde bei OpenAI und anderen großen Unternehmen die Forschung und Entwicklung rasch vorangetrieben, oft ohne ausreichende Sicherheitsvorkehrungen.
Diese Entwicklungen verdeutlichen einen grundlegenden Konflikt innerhalb der Tech-Industrie: einerseits das Streben nach Innovation und Marktführerschaft und andererseits die Verantwortung, potenziell revolutionäre Technologien sicher und ethisch zu entwickeln. Es bleibt die Frage, wie eine Balance zwischen diesen beiden Zielen erreicht werden kann, insbesondere wenn die Teams, die sich mit der Sicherheit und Ethik von KI befassen, verkleinert oder aufgelöst werden.
Die Entwicklungen bei Microsoft und OpenAI sind auch vor dem Hintergrund der allgemeinen Debatte um KI-Sicherheit und -Ethik zu sehen. So hat beispielsweise Google die ethische KI-Forscherin Timnit Gebru entlassen, nachdem sie ein kritisches Papier zu großen Sprachmodellen veröffentlicht hatte. Diese Entscheidung führte zu weiteren Abgängen innerhalb der Abteilung und schmälerte Googles Glaubwürdigkeit in Fragen der verantwortungsvollen KI.
Im Vereinigten Königreich hat sich die AI-Firma Faculty, die sich auf KI-Sicherheit spezialisiert, als britischer Champion in diesem Bereich etabliert. Trotz einiger Kontroversen um ihre politischen Verbindungen hat die Firma bedeutende Verträge mit der britischen Regierung abgeschlossen. Es gibt jedoch Bedenken hinsichtlich der Direktvergabe von Verträgen ohne Wettbewerbsverfahren, was Fragen nach Transparenz und Fairness aufwirft.
Dies alles zeigt, dass es einen dringenden Bedarf an klaren Richtlinien und starken unabhängigen Teams gibt, die die Entwicklung und den Einsatz von KI-Technologien überwachen. Die Entscheidungen, die heute in Bezug auf KI-Sicherheit und -Ethik getroffen werden, haben langfristige Auswirkungen, nicht nur für die Technologieunternehmen selbst, sondern für die gesamte Gesellschaft. Es ist von entscheidender Bedeutung, dass Unternehmen wie Microsoft und OpenAI – sowie die Regierungen, die sie regulieren – die Bedeutung dieser Teams anerkennen und dafür sorgen, dass sie die Ressourcen und die Unabhängigkeit haben, um ihre Arbeit effektiv auszuführen.
Bibliografie:
- Schiffer, Z., & Newton, C. (2023, März 14). Microsoft lays off team that taught employees how to make AI tools responsibly. The Verge.
- Manancourt, V., & Clarke, L. (2024, Mai 16). How Dominic Cummings’ favorite AI firm captured the British government. POLITICO.
- Tangermann, V. (2023, Mai 13). OpenAI Safety Worker Quit Due to Losing Confidence Company "Would Behave Responsibly Around the Time of AGI". Futurism.