Das Geschwisterpaar Daniela und Dario Amodei, Gründer des KI-Unternehmens Anthropic, verfolgen ein ambitioniertes Ziel: die Entwicklung einer "wohlwollenden" Künstlichen Allgemeinen Intelligenz (AGI). Dario Amodei, CEO von Anthropic, ist überzeugt, dass KI-Modelle wie ihr Flaggschiff Claude in naher Zukunft menschliche Fähigkeiten in allen kognitiven Bereichen übertreffen werden. Doch im Gegensatz zu anderen Akteuren im KI-Rennen, steht bei Anthropic die Sicherheit an erster Stelle. Das Unternehmen setzt auf einen Ansatz, der sicherstellen soll, dass zukünftige AGIs der Menschheit dienen und nicht zur Gefahr werden.
Dario Amodei, schon früh von Mathematik und Physik fasziniert, promovierte in Computerbiologie an der Princeton University. Seine Karriere führte ihn über Baidu zu Google, wo er die Möglichkeiten und Risiken von immer leistungsfähigeren KI-Modellen erkannte. 2016 schloss er sich OpenAI an, einem Unternehmen, das sich die Entwicklung sicherer und offener KI zum Ziel gesetzt hatte. Dort verfasste er ein einflussreiches Papier über die Skalierung von KI-Modellen, die sogenannte "Big Blob of Compute"-Hypothese. Diese besagt, dass die Leistungsfähigkeit von KI-Modellen durch die Verarbeitung riesiger Datenmengen drastisch gesteigert werden kann. Diese Theorie ist heute gängige Praxis und erklärt die hohen Kosten für die Entwicklung modernster KI-Modelle.
Auch Daniela Amodei, die Schwester von Dario, stieß zu OpenAI. Ihr Hintergrund in Geisteswissenschaften und ihre Erfahrung bei NGOs und in der Regierung brachten eine andere Perspektive in das Unternehmen. Die Entwicklung von GPT-2, einem frühen Sprachmodell, markierte einen Wendepunkt für die Geschwister. Die Leistungsfähigkeit des Modells war beeindruckend, aber auch beängstigend. Dario Amodei drängte darauf, die Veröffentlichung des vollständigen Modells zu verzögern, um die Risiken zu evaluieren.
Im Laufe der Zeit veränderte sich OpenAI. Die Notwendigkeit, immer größere Investitionen in die Infrastruktur zu tätigen, führte zu einer engeren Zusammenarbeit mit Microsoft. OpenAI gründete eine gewinnorientierte Tochtergesellschaft und nahm zunehmend die Züge eines klassischen Silicon-Valley-Unternehmens an. Für einige Mitarbeiter, darunter die Amodeis, rückte die Sicherheit in den Hintergrund. Sie fühlten sich zunehmend unwohl mit der Richtung, die OpenAI einschlug, und verließen das Unternehmen Ende 2020, um Anthropic zu gründen.
Anthropic wurde als Public Benefit Corporation gegründet, was dem Unternehmen erlaubt, neben den Interessen der Aktionäre auch gesellschaftliche Auswirkungen zu berücksichtigen. Ein "Long-Term Benefit Trust" soll sicherstellen, dass das Streben nach leistungsstarker KI niemals die Sicherheitsziele übertrumpft. Die Finanzierung des Unternehmens kam unter anderem von prominenten Vertretern des Effective Altruism, einer Bewegung, die sich für die effektive Nutzung von Ressourcen zur Verbesserung der Welt einsetzt.
Anthropics Ansatz zur KI-Sicherheit basiert auf der Entwicklung von Claude, einem KI-Modell, das durch spezielle Trainingsmethoden zu ethischem und kooperativem Verhalten erzogen wird. Das Unternehmen hofft, mit Claude einen Standard für zukünftige KI-Modelle zu setzen und andere Unternehmen zu einem verantwortungsvollen Umgang mit KI zu inspirieren.
Die Entwicklung von sicherer AGI ist ein komplexes Unterfangen. Anthropic steht vor der Herausforderung, die Leistungsfähigkeit seiner Modelle zu steigern, ohne dabei die Sicherheitsaspekte zu vernachlässigen. Die Konkurrenz im KI-Bereich ist groß, und die rasanten Fortschritte erfordern ständige Anpassung und Innovation. Ob Anthropic sein ambitioniertes Ziel erreichen kann, bleibt abzuwarten. Doch der Fokus auf Sicherheit und Ethik könnte wegweisend für die Zukunft der KI sein.
Quellenverzeichnis: https://www.wired.com/story/anthropic-benevolent-artificial-intelligence/ https://www.reddit.com/r/singularity/comments/1jm2gx9/if_anthropic_succeeds_a_nation_of_benevolent_ai/ https://www.linkedin.com/posts/levysteven_if-anthropic-succeeds-a-nation-of-benevolent-activity-7311388605359292416-m4Dd https://cdotimes.com/2025/03/28/if-anthropic-succeeds-a-nation-of-benevolent-ai-geniuses-could-be-born-wired/ https://procoreplus.com/wired/if-anthropic-succeeds-a-nation-of-benevolent-ai-geniuses-could-be-born/ https://twitter.com/firoozye/status/1905671599417622986 https://x.com/StevenLevy/status/1905605456619249742 https://www.facebook.com/wired/posts/the-brother-goes-on-vision-quests-the-sister-is-a-former-english-major-together-/1034151961913729/ https://www.threads.net/@casinokrisa/post/DHvTV0ttPa5/if-anthropic-succeeds-a-nation-of-benevolent-ai-geniuses-could-be-born https://twitter.com/Mjreard/status/1905651745927074281