Jensen Huang erläutert Missverständnisse zu DeepSeek und dessen Auswirkungen auf Nvidia

Kategorien:
No items found.
Freigegeben:
February 25, 2025

Artikel jetzt als Podcast anhören

Nvidias CEO Jensen Huang klärt die Missverständnisse um DeepSeek auf

Nach den Turbulenzen an der Börse im Januar 2025, ausgelöst durch die Vorstellung der neuen DeepSeek-KI-Modelle, meldet sich Nvidia-Chef Jensen Huang nun erstmals persönlich zu Wort. Die neuen Trainingsmechanismen der KI hatten Befürchtungen geweckt, der Bedarf an KI-Beschleunigern, Nvidias Kerngeschäft, könnte drastisch sinken. Dies führte zu einem zwischenzeitlichen Einbruch der Marktkapitalisierung um über 600 Milliarden US-Dollar. Inzwischen hat sich der Kurs jedoch wieder erholt.

In einem kürzlich veröffentlichten Video-Interview räumt Huang mit den entstandenen Missverständnissen auf. Er erklärt, Investoren hätten die Bedeutung der neuen Technologie falsch interpretiert. Es habe ein vereinfachtes mentales Modell gegeben, das von einem zweistufigen Prozess ausging: Pre-Training und Inferenz. Inferenz, so die Annahme, bestünde darin, der KI eine Frage zu stellen und unmittelbar eine Antwort zu erhalten. Dieses Paradigma sei jedoch falsch, betont Huang, ohne die Schuld dafür einer bestimmten Partei zuzuweisen.

Post-Training: Der Schlüssel zur wahren KI-Leistung

Huang unterstreicht die Bedeutung des Post-Trainings, das weit über das initiale Pre-Training hinausgeht. Während beim Pre-Training ein Basismodell mit grundlegenden Fähigkeiten geschaffen wird – im Falle von DeepSeek das Modell DeepSeek-V3 –, liegt der eigentliche Schlüssel zur Problemlösungsfähigkeit der KI im Post-Training. Hier lernt das Modell, komplexere Aufgaben zu bewältigen und sein Wissen zu vertiefen.

Ein gängiges Verfahren für das Post-Training ist das Reinforcement Learning. Dabei generiert das Basismodell verschiedene Antwortmöglichkeiten und lernt durch Feedback, welche davon die besten sind. Bei DeepSeek wurde ein innovativer Ansatz verwendet, bei dem zwei KI-Modelle miteinander interagierten, um das fortschrittliche Reasoning-Modell DeepSeek-R1 zu entwickeln.

Hardware-Anforderungen bleiben hoch

Obwohl DeepSeek nur für das V3-Modell Angaben zur verwendeten Hardware gemacht hat, deutet vieles darauf hin, dass auch für das Training des R1-Modells leistungsstarke Server zum Einsatz kamen. Die Entwickler schweigen sich zu den Details der verwendeten Beschleuniger aus, was Huangs Argumentation stützt, dass der Bedarf an leistungsstarker Hardware im Bereich der KI weiterhin hoch bleibt.

Die anfängliche Panikreaktion der Investoren scheint somit auf einem Missverständnis der technologischen Entwicklungen zu beruhen. Huangs Ausführungen verdeutlichen, dass das Post-Training, das für die Leistungsfähigkeit von KI-Modellen entscheidend ist, weiterhin einen hohen Bedarf an spezialisierter Hardware erfordert und damit Nvidias Position als führender Anbieter von KI-Beschleunigern festigt.

DerStandard: Nvidia-Chef Huang spricht erstmals über DeepSeek-Einschlag. LinkedIn: Stephan Wyss - Kommentar zu DeepSeek. Heise Online: Investoren hätten DeepSeeks Errungenschaft missinterpretiert. MSN: Nvidia-Chef äußert sich erstmals zum DeepSeek-Ausverkauf. All-AI: Nvidia-Chef zur DeepSeek-Krise. LinkedIn: Heise Online - Nvidia-Chef äußert sich erstmals zum DeepSeek-Ausverkauf. Pauls PC Forum: Diskussion zum DeepSeek-Ausverkauf. NG-IT: Nvidia-Chef äußert sich erstmals zum DeepSeek-Ausverkauf.
Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.