Safe Superintelligence erreicht Bewertung von 30 Milliarden Dollar für die Entwicklung sicherer KI

Kategorien:
No items found.
Freigegeben:
March 2, 2025

Artikel jetzt als Podcast anhören

Ilya Sutskevers „Safe Superintelligence“: 30 Milliarden Dollar Bewertung für die Suche nach sicherer KI

Das KI-Startup „Safe Superintelligence“, gegründet vom ehemaligen OpenAI-Forschungschef Ilya Sutskever, hat eine bemerkenswerte Bewertung von 30 Milliarden US-Dollar erreicht. Dies, obwohl das Unternehmen bisher kein Produkt auf dem Markt hat und sich ausschließlich der Forschung und Entwicklung einer sicheren Superintelligenz widmet. Sutskever, der maßgeblich an der Entwicklung von ChatGPT beteiligt war, verließ OpenAI nach einem internen Konflikt über die Entwicklungsgeschwindigkeit und Sicherheitsvorkehrungen bei der KI-Forschung. Mit seinem neuen Unternehmen verfolgt er nun das ambitionierte Ziel, eine Superintelligenz zu entwickeln, die keine Gefahr für die Menschheit darstellt.

Finanzierung und Bewertung

Bereits im September 2024 konnte Safe Superintelligence eine Milliarde US-Dollar an Investitionen einsammeln. Kürzlich folgte eine weitere Finanzierungsrunde in gleicher Höhe, die die Unternehmensbewertung auf 30 Milliarden US-Dollar katapultierte. Dieser Wert übersteigt den von etablierten Unternehmen wie Warner Bros, Nokia oder Beiersdorf und unterstreicht das hohe Investorenvertrauen in Sutskevers Vision. Die Finanzierung ermöglicht es Safe Superintelligence, unabhängig von Marktdruck und Wettbewerb zu agieren und sich voll und ganz auf die langfristige Forschung zu konzentrieren.

Das Ziel: Sichere Superintelligenz

Das erklärte Ziel von Safe Superintelligence ist die Entwicklung einer sicheren Superintelligenz. Sutskever betont, dass dies das einzige Produkt des Unternehmens sein wird und alle Ressourcen darauf ausgerichtet sind. Ob und wann eine solche Superintelligenz realisiert werden kann, bleibt offen. Die Entwicklung einer Superintelligenz ist eine komplexe Herausforderung mit vielen unbekannten Faktoren. Sutskever argumentiert, dass die Isolation von Marktzwängen dem Unternehmen die nötige Freiheit gibt, sich auf grundlegende Forschungsfragen zu konzentrieren und die Sicherheit in den Mittelpunkt zu stellen.

Die Herausforderungen

Trotz der hohen Bewertung und des ambitionierten Ziels steht Safe Superintelligence vor erheblichen Herausforderungen. Die Entwicklung einer Superintelligenz ist ein langwieriger Prozess, der sowohl theoretische Durchbrüche als auch immense Rechenleistung erfordert. Die Frage, wie eine solche KI sicher gestaltet werden kann, ist ebenfalls ungeklärt und Gegenstand intensiver Forschung. Obwohl die Investoren bisher großes Vertrauen in Sutskevers Vision zeigen, dürfte der Druck auf das Unternehmen steigen, konkrete Fortschritte zu präsentieren. Die Website des Unternehmens bietet bisher nur allgemeine Aussagen zur Mission und den Werten, konkrete Forschungsergebnisse oder Entwicklungspläne werden nicht öffentlich kommuniziert.

Der Wettbewerb

Mit seinem Fokus auf sichere Superintelligenz positioniert sich Safe Superintelligence in einem wachsenden Feld von KI-Unternehmen. Auch OpenAI, das Unternehmen, das Sutskever mitgegründet hat, forscht an fortgeschrittenen KI-Systemen. Der Wettbewerb um Talente und Ressourcen in diesem Bereich ist intensiv. Es bleibt abzuwarten, ob Sutskevers Ansatz, sich ausschließlich auf die langfristige Entwicklung einer sicheren Superintelligenz zu konzentrieren, zum Erfolg führt.

Bibliographie: - t3n.de/news/ki-startup-openai-mitgruender-1675089/ - threads.net/@t3n_magazin/post/DGgVxgYhxd7/ - t3n.de/tag/open-ai/ - t3n.de/ - t3n.de/tag/startups-economy/ - newstral.com/de/article/de/1263832534/30-milliarden-f%C3%BCr-nichts-das-steckt-hinter-dem-mysteri%C3%B6sen-ki-startup-des-openai-mitgr%C3%BCnders - t3n.de/tag/kuenstliche-intelligenz/ - x.com/t3n?lang=de - threads.net/@heiseonline/post/DGgZNTlqtGR
Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.