Wenn Jensen Huang am Montag die Bühne einer vollbesetzten Hockey-Arena betritt, um die jährliche Entwicklerkonferenz von Nvidia zu eröffnen, wird er voraussichtlich Produkte und Partnerschaften vorstellen, die darauf abzielen, den KI-Chiphersteller an der Spitze eines wachsenden Feldes von Wettbewerbern zu halten.

Die Nvidia GTC, wie die Konferenz genannt wird, nimmt für fast eine Woche das Herz des Silicon Valley ein. Sie ist für CEO Huang zum bevorzugten Event geworden, um Nvidias KI-Fortschritte bei Chips, Rechenzentren, der Programmiersoftware CUDA, digitalen Assistenten (bekannt als KI-Agenten) und physischer KI wie Robotern zu präsentieren.

In diesem Jahr ist die viertägige Veranstaltung noch entscheidender, da Investoren die Gewissheit suchen, dass sich Nvidias Strategie, Gewinne direkt wieder in das KI-Ökosystem zu investieren, auszahlt.

"Ich erwarte, dass Nvidia ein Full-Stack-Roadmap-Update von Rubin bis Feynman präsentiert und dabei den Fokus auf Inferenz, agentenbasierte KI, Networking und KI-Fabrikinfrastruktur legt", sagte eMarketer-Analyst Jacob Bourne unter Verwendung der Namen für Nvidias aktuelle und kommende Chip-Generationen.

Nvidias Chips stehen im Zentrum von Investitionen in Höhe von hunderten Milliarden Dollar, die Regierungen und Unternehmen weltweit in Rechenzentren tätigen. Doch das Unternehmen sieht sich der Konkurrenz anderer Chiphersteller und sogar einiger eigener Kunden gegenüber, die ihre eigenen Chips entwickeln.

Analysten erklärten gegenüber Reuters, dass sie ein weiteres Wachstum des gesamten KI-Chipmarktes erwarten, Nvidias Marktanteil jedoch leicht schrumpfen könnte. Der Markt wandelt sich rasant hin zu einem Szenario, in dem KI-Agenten zwischen Computeranwendungen hin- und herwechseln, um Aufgaben im Namen von Menschen zu erledigen. Dies ist eine Abkehr vom reinen Training, bei dem KI-Labore viele Nvidia-Chips zu einem Computer zusammenschalten, um riesige Datenmengen zur Perfektionierung ihrer KI-Modelle zu verarbeiten.

Es wird erwartet, dass diese Agenten so zahlreich werden, dass die Menschen, die sie beauftragen, sogar eine neue Ebene von KI-Mittelsmännern benötigen – was Technologen als "Orchestrierungsebene" bezeichnen –, die zwischen den menschlichen Nutzern und ihren Agenten-Flotten agiert.

In gewisser Weise, so Analysten, ist dies gut für Nvidia, da es signalisiert, dass KI nützlicher wird.

Doch diese Aufgaben, in der KI-Branche allgemein als "Inferenz" bekannt, können auch auf anderen Chip-Arten laufen. Dazu gehören auch jene, die große Nvidia-Kunden wie OpenAI und Meta selbst bauen können. Meta kündigte kürzlich an, alle sechs Monate neue KI-Chips veröffentlichen zu wollen.

"Nvidia wird definitiv mehr Wettbewerb sehen als noch vor einem Jahr", sagte KinNgai Chan, Managing Director bei der Summit Insights Group. "Nvidia hält heute immer noch einen Marktanteil von fast 90 % sowohl im Trainings- als auch im Inferenzmarkt."

"Wir glauben, dass Nvidia ab 2027 Marktanteile verlieren wird, sobald interne ASIC-Programme eine gewisse Skalierung erreichen, insbesondere im Inferenzmarkt", sagte er mit Verweis auf anwendungsspezifische integrierte Schaltkreise – Chips, die für eine einzelne Funktion oder spezielle Arbeitslasten optimiert sind und eine höhere Effizienz als Allzweck-Grafikprozessoren bieten.

NVIDIA STÄRKT DIE VERTEIDIGUNG

Das Unternehmen gab im Dezember 17 Milliarden Dollar für den Kauf von Groq aus, einem Chip-Startup, das auf schnelle und günstige Inferenz-Berechnungen spezialisiert ist. In einem Gespräch über Groq während der Bilanzkonferenz im letzten Monat sagte Huang, das Unternehmen werde auf der GTC zeigen, wie Nvidia die ultraschnelle KI-Technologie von Groq in die bestehende CUDA-Plattform integrieren kann.

William McGonigle, Analyst bei Third Bridge, sagte, seine Firma erwarte, dass Nvidia eine neue Server-Linie vorstellen wird, die Groq-Chips mit Nvidias Netzwerktechnologien kombiniert, um ein schnelles und kosteneffizientes Produkt zu schaffen.

Ein weiterer Chiptyp, der eine zunehmende wettbewerbsrelevante Bedrohung für Nvidia darstellt, ist der Hauptprozessor (CPU) – jene Art von Chip, die lange Zeit von Intel und Advanced Micro Devices dominiert wurde.

Während diese Chips in den letzten Jahren hinter Nvidias Grafikprozessoren (GPUs) zurückstanden, sagte McGonigle, dass sie nun wieder "im Fokus" stünden. Er erwartet, dass Nvidia Server präsentiert, die ausschließlich die eigenen CPUs nutzen, die Huang kürzlich lobend erwähnte.

"Mit dem Aufstieg der agentenbasierten KI liegt der Flaschenhals nun auf der Ebene der Agenten-Orchestrierung, die von den CPUs ausgeführt wird", so McGonigle.

Analysten erwarten zudem, dass Nvidia näher erläutert, warum es jeweils 2 Milliarden Dollar in Lumentum und Coherent investiert hat. Beide Unternehmen stellen Laser her, um Informationen zwischen Chips in Form von Lichtstrahlen zu versenden. Der Einsatz dieser Laser in der sogenannten "Co-Packaged Optics"-Technologie könnte helfen, die Verbindungen zwischen Nvidia-Chips in riesigen Rechenzentren zu beschleunigen. Derzeit werden sie jedoch noch nicht in ausreichenden Mengen produziert, um mit der Anzahl der jährlich verkauften Nvidia-Chips Schritt zu halten.

"Nvidia wird Co-Packaged Optics wahrscheinlich als Schlüssel zur effizienteren Vernetzung massiver KI-Cluster darstellen, aber die Herausforderung besteht darin, dies kostengünstig genug für einen flächendeckenden Einsatz zu machen", sagte Bourne von eMarketer.