Der Kursanstieg der Nvidia-Aktie ist spektakulär, wird aber bislang von den nicht weniger spektakulären Wachstums- und Gewinn-Daten gestützt. Wohl und Wehe hängen von der Fähigkeit Nvidias ab, seinen Vorsprung bei der GPU-Technologie zu behalten. Was wir über das Data-Center-Wachstum wissen.
Cashcow und Wachstumstreiber der Nvidia-Aktie
Cashcow und Wachstumstreiber von Nvidia ist das Segment Data Center, das KI-Anwendungen und beschleunigte Rechenplattformen für Rechenzentren umfasst. Im Nvidia-Geschäftsjahr 2024 (Februar 2023 bis Januar 2024) erwirtschaftete Data Center einen Rekordumsatz von 47,5 Mrd. US-Dollar, was einer Steigerung von 217 Prozent gegenüber dem vorherigen Geschäftsjahr entspricht. Damit wurde der Grafikbereich als Nvidias größten Umsatz- und Gewinnbringer abgelöst.
Und die Wachstumsgeschwindigkeit hat sich zuletzt sogar noch gesteigert: Im 4. Quartal 2024 erreichte der Umsatz bei Data Center 18,4 Milliarden US-Dollar, ein Plus von 409 Prozent. Im ersten Quartal 2025 wurden erneut alle Erwartungen übertroffen: Der Umsatz stieg um 427 Prozent auf 22,6 Milliarden US-Dollar. Inzwischen macht Data Center 80 Prozent des Gesamtumsatzes von Nvidia aus und übertraf damit das zuvor dominierende Gaming-Segment bei weitem. Das hat die Nvidia-Aktie massiv gepusht: In diesem Jahr lag das Plus bei knapp 160 Prozent, 2023 war die Aktie bereits um knapp 230 Prozent nach oben geschossen (in Euro gerechnet).
Das Geheimnis des Erfolgs: Die Super-Chips, bekannt unter den Serien-Nummern H(opper)100, H200 und demnächst B(lackwell)100 oder R(ubin)100, die – nicht nur – bei Hyperscalern weggehen wie warme Semmeln. Wir gehen in unserem Artikel dem rasanten Wachstum von Nvidias KI-Chips und Rechenzentrums-GPUs nach – und versuchen eine Antwort auf die Frage nach den Grenzen des Wachstums.

Die H100-Erfolgsstory
Die H100-GPUs werden vor allem für eine Vielzahl von High-Performance-Computing-Aufgaben eingesetzt, insbesondere für KI und Datenverarbeitung. Sie spielen eine wichtige Rolle bei den Trainings- und Inferenzprozessen für generative KI und große Sprachmodelle in verschiedenen Branchen und Regionen. Die Vielseitigkeit und führende Leistung der Data Center-Plattform, zu der auch die H100-GPUs gehören, ermöglichen eine hohe Investitionsrentabilität für KI-Training und -Inferenz. Darüber hinaus werden diese GPUs für die Datenverarbeitung und eine breite Palette von CUDA-beschleunigten Arbeitslasten eingesetzt, was ihre breite Anwendbarkeit bei zahlreichen Berechnungsaufgaben unterstreicht.
H100 GPU orders expected in 2023 (1.000 H100 GPU Units)

2023 erwarben Microsoft und Meta jeweils 150.000 H100-Grafikprozessoren und übertrafen damit das Bestellvolumen anderer Tech-Giganten wie Google und Amazon. Mit 80 Prozent Anteil ging ein erheblicher Teil der H100-Verkäufe an große Unternehmen in den USA, 20 % entfielen auf China. Europa bleibt offenbar außen vor. Europäische Nutzer nutzen H100-GPUs allenfalls indirekt als User der Cloud-Dienste von Hyperscalern wie AWS, Google Cloud und Microsoft Azure Dienste.
Starke Nachfrage nach KI-Servern
Die neuesten Prognosen von TrendForce zeigen, dass die Nachfrage nach High-End-KI-Servern, die von Nvidia, AMD oder anderen erstklassigen ASIC-Chips angetrieben werden, in diesem Jahr erneut von den nordamerikanischen Cloud-Service-Unternehmen getrieben wird. Unternehmen wie Google, Amazon, Microsoft und Meta sollen zusammen über 60 Prozent der weltweiten Nachfrage nach High-End-KI-Servern mit GPUs wie dem H100 ausmachen.
CSP Demand Breakdown for High-End AI Servers, 2023-2024

Auch die Nachfrage nach Servern spricht für eine weitere starke Nachfrage. Im Einzelnen wird Microsoft 20,2 Prozent der Nachfrage nach Servern in diesem Jahr ausmachen, Google wird TrendForce mit 16,6 Prozent, AWS mit 16 Prozent und Meta wird 10,8 Prozent der Bestellungen auf sich vereinen. Die großen Tech-Plattformen werden 60 Prozent der weltweiten Nachfrage auf sich vereinen, und dabei werden Nvidias GPU-basierte Server an der Spitze stehen.
Die Nvidia-Aktie steigt und steigt oder kein Airpocket, nirgends
Es zeichnet sich ab, dass es keinen Nachfragerückgang im Vorfeld der Einführung von Blackwell, die Nachfolgegeneration der H-Reihe, geben wird. Vor Bekanntgabe der jüngsten Nvidia-Zahlen hatten Beobachter mit einem “Airpocket” gerechnet. Gemeint ist damit ein möglicher Nachfragerückgang beim KI-Beschleuniger H100 im Vorfeld der Einführung von Blackwell. Das hätte ein Risiko für die Nvidia-Aktie bedeutet, die aktuell für Perfektion gepreist ist. Die jüngsten Quartalszahlen haben gezeigt: Es gibt kein Airpocket. Der H100 geht immer noch weg wie warme Semmeln und die H200- und Blackwell-Order-Pipelines sind prall gefüllt, und die Nvidia-Aktie setzt ihren Höhenflug fort.
Betätigt wird das von anekdotischen Beobachtungen und harten Zahlen. Ein Blick auf ebay, wo H100 bei über 30.000 Dollar handeln, lässt erahnen, dass auch in den nächsten Wochen und Monaten kein “Luftloch” ansteht. Die jüngsten Berichte besagen, dass Meta, Alphabet, Amazon und Microsoft ihren CapEx auf über 200 Milliarden Dollar pro Jahr hochfahren, werden. Auch vor Bekanntgabe der Absatzzahlen lässt sich erahnen, dass der große Profiteur Nvidia heißt.
Die Nachfrage nach groß angelegten Modellberechnungen für KI-Systeme bleibt auch nicht auf die großen Tech-Plattformen beschränkt. Der Use-Case ist auch für kleinere Unternehmen stark. Wer eine AI-Cloud betreibt, verdient mit den Nvidia-Produkten bereits bares Geld: “For every $1 spent on NVIDIA AI infrastructure, cloud providers have an opportunity to earn $5 in GPU instant hosting revenue over 4 years”, hieß es jüngst in einer Einschätzung von Nvidia.
Tabelle 1 zeigt das erwartete schnelle Umsatzwachstum von Nvidia für das laufende und das nächste Geschäftsjahr. Wie könnte es mit dem GPU-Boom weitergehen?
Financial Summary

Ein Blick in die Glaskugel
Die prognostizierten H100-Lieferungen für das Kalenderjahr 2024 liegen zwischen 1,5 Millionen und 2 Millionen Einheiten, was einen deutlichen Anstieg gegenüber den erwarteten 500.000 Einheiten im Kalenderjahr 2023 darstellt, so ein Bericht der Financial Times. Für 2024 wird erwartet, dass Nvidia 2 Millionen Einheiten der H100-GPUs ausliefern wird. Bei einem Basispreis von 25.000 Dollar pro Einheit würde dies für Nvidia allein mit der H100 im Jahr 2024 einen Umsatz von mindestens 50 Milliarden Dollar bedeuten.
Im optimistischsten Szenario besteht jedoch die Möglichkeit, dass Nvidia seine H100-Lieferungen im Jahr 2024 dank der Unterstützung durch Partner in der Lieferkette, die ihre Produktionskapazitäten erhöhen, und der Einführung aktualisierter Chips erheblich steigern kann. Wie sehr die Nvidia-Aktie gehypt wird, zeigen die enthusiastischen Reaktionen der Anleger. Viele gehen davon aus, – ungeachtet der erwarteten Lieferengpässe – dass Nvidias KI-GPU-Auslieferungen (einschließlich des H100 Inc.) im Jahr 2024 um satte 150 % steigen könnten. Dieses Best-Case-Szenario, das wir hier exemplarisch nennen, zeigt nicht nur das Potenzial, sondern auch die Fallhöhe, sollte Nvidia einmal nicht wie gewohnt die Erwartungen übertreffen. Bleiben wir einmal beim Best-Case-Szenario: Unter der Annahme, dass der H100 für den gesamten 150%igen Anstieg der KI-GPU-Lieferungen von Nvidia im Jahr 2024 verantwortlich ist, könnte das Unternehmen am Ende 3,75 Millionen Einheiten des H100-Flaggschiff-Prozessors ausliefern. Dies deutet auf einen Umsatz von mehr als 93 Milliarden US-Dollar allein mit dem H100 im Jahr 2024 hin.
Der Fahrplan ist zackig
Voraussichtlich noch im zweiten Quartal werden die ersten H200-Grafikprozessoren auf den Markt kommen. Das wird die Konkurrenz, die immer wieder versucht, den Vorsprung von Nvidia aufzuholen, erheblich unter Druck setzen, da Nvidia mit dem H200-Grafikprozessor vor allem AMD wieder enteilen wird. Es wird erwartet, dass die Fortschritte des H200, einschließlich der erhöhten Speicherbandbreite und -kapazität, die Messlatte deutlich höher legen und sich möglicherweise auf den Marktanteil und die Wettbewerbsposition von Nvidia auf dem KI-Chipmarkt auswirken werden.
Produktions- und Lieferengpässe
Das größte Risiko erscheint derzeit in Produktionsengpässen zu liegen. Diese sind vielschichtig. Erstens verwendet der H100-Grafikprozessor die fortschrittliche CoWoS (Chip on Wafer on Substrate)-Gehäusetechnologie von TSMC. Dabei handelt es sich um einen komplexen, mehrstufigen Prozess, bei dem mehrere aktive Silizium-Dies und HBM-Speicherstapel auf einem passiven Silizium-Interposer integriert werden. Dieser komplizierte CoWoS-Packaging-Prozess hat die Produktionsrate der H100-GPUs erheblich verlangsamt und sich als ein wichtiger Engpass erwiesen.
Zweitens: Obwohl der H100 auf dem 4nm-Prozessknoten von TSMC hergestellt wird, ist die Gesamtkapazität von TSMC endlich und bereits durch andere Kunden stark ausgelastet. Nvidia könnte die Nachfrage nach H100-GPUs unterschätzt haben, was zu Lieferengpässen führt, obwohl der führende 3nm-Knoten nicht genutzt wird.
Ein weiterer kritischer Punkt ist die große Chipgröße und die geringe Ausbeute. Die enorme Chipgröße des H100 von 820 mm² führt zu einer sehr geringen Ausbeute, die wahrscheinlich bei 10-20 Prozent pro Wafer liegt. Mit weniger funktionierenden Chips pro Wafer wurde die große Chipfläche zu einem Produktionsengpass, der durch die Komplexität des CoWoS-Gehäuses noch verschärft wurde. Darüber hinaus haben Engpässe bei HBM3-Speicher und anderen Komponenten, die für die H100-GPUs benötigt werden, wahrscheinlich zu den Lieferengpässen beigetragen.
Fazit zur Nvidia-Aktie
Nvidia wird seine H100-Produktion im Jahr 2024 erheblich steigern, um die rasant steigende Nachfrage von KI-Unternehmen zu befriedigen. Obwohl die fortschrittlichen CoWoS-Packaging-Anforderungen, die begrenzte TSMC-Kapazität, die große Chipgröße mit geringen Erträgen und die potenzielle Knappheit von Komponenten eine Herausforderung darstellen, ist Nvidia entschlossen, diese Hindernisse zu überwinden und die H100-Produktion schnell zu steigern. Dass er den Markt positiv überraschen kann, hat Nvidia-CEO Jensen Huang immer und immer wieder bewiesen.
Disclaimer
Die vorstehenden Darstellungen der Pyfore Capital GmbH stellen rechtlich eine Werbemitteilung dar und dienen ausschließlich Informationszwecken. Sie stellen insbesondere weder ein Angebot oder eine Aufforderung zur Abgabe eines Angebotes noch einen Rat oder eine persönliche Empfehlung bezüglich des Haltens, des Erwerbs oder der Veräußerung eines Finanzinstruments dar. Die Pyfore Capital GmbH empfiehlt, sich vor Abschluss eines Geschäftes kunden- und produktgerecht und unter Berücksichtigung Ihrer persönlichen Vermögens- und Anlagesituation beraten zu lassen und Ihre Anlageentscheidung nicht allein auf diese Veröffentlichung zu stützen. Es wird empfohlen, sich von Angehörigen der steuerberatenden Berufe über die individuellen steuerlichen Folgen des Erwerbs, des Haltens oder der Veräußerung des in dieser Unterlage beschriebenen Finanzinstrumentes beraten zu lassen.
Bitte beachte die rechtlichen Hinweise.
Links zu Texten, die von einem Dritten erstellt wurden, dienen lediglich unverbindlichen Informationszwecken.
Autor
-
Stefan schaut auf eine mehr als 20-jährige Erfahrung in den Bereichen Aktien, festverzinsliche Wertpapiere, Derivate und Hedge Funds zurück. In seiner Tätigkeit als globaler Leiter des Quantitativen Research Teams bei ABN AMRO, hat er über 300 institutionelle Kunden in den USA, Europa und Asien zu allen Fragen des Investment Prozesses beraten. Zuvor war er 10 Jahre bei Salomon Smith Barney als Leiter des quantitativen Research Teams für Europa tätig, wo er Top Rankings in den großen Research Surveys erzielte. Stefan hat über 50 Research Veröffentlichungen zu allen Aspekten des Investment Prozesses in Aktien, festverzinsliche Wertpapiere und Währungen publiziert.
View all posts