Nvidia und generative KI: Zwischen "signifikanter" Chance und Herausforderung
Aufklärung über Eigenpositionen: Diese Aktien aus dem Artikel halten TraderFox-Redakteure aktuell
Halbleiterunternehmen als Nutznießer des KI-Trends
Während einige der Vorteile der Technologie den weltgrößten Technologieunternehmen zugutekommen könnten, dürften fortschrittliche Halbleiterunternehmen wie Nvidia ebenfalls von dem Trend profitieren, so das Investmentunternehmen KeyBanc Capital Markets. In einer Research-Notiz sagte Analyst John Vinh, dass Nvidia unter den Halbleiterunternehmen der eindeutige Hauptnutznießer für generative KI ist, da die Technologie einen hohen Rechenbedarf hat.
KI-Modelle sind sehr rechenintensiv
Speziell für OpenAIs ChatGPT glaubt Vinh, dass der Trainingscluster zum Trainieren des Transformer-Sprachmodells etwa 10.000 A100-Grafikprozessoren (GPUs) von Nvidia benötigt. "Bei einem [durchschnittlichen Verkaufspreis] von 10.000 USD würde dies einem Umsatz von etwa 100 Mio. USD entsprechen", schrieb Vinh in einer Mitteilung an seine Kunden. Vinh fügte hinzu, dass ChatGPT wahrscheinlich auch GPUs für KI-Inferencing einsetzt, obwohl die Anzahl der für diese Aufgabe benötigten GPUs "deutlich geringer" sein dürfte als der Bedarf für den Trainingscluster.
Gibt es Alternativen zu GPU?
Trotz dieser Möglichkeiten ist nicht alles rosig für die GPU-Nutzung, wenn es um generative KI geht. Einige Unternehmen, wie z. B. Google, entscheiden sich möglicherweise für die Verwendung von Tensor Processing Units (TPUs) für ihr eigenes Training. Vinh fügte hinzu, dass Google Gerüchten zufolge TPUs für seine Chat-KI Bard verwendet. Der Analyst merkte jedoch an, dass der Einsatz von TPUs im Vergleich zu GPUs wahrscheinlich keinen "signifikanten Kostenvorteil" mit sich bringt.
Das Trainieren von KI-Systemen ist teuer
Darüber hinaus gibt es Kostenprobleme, da die geschätzten Kosten für eine ChatGPT-Anfrage zwischen 30 Cent und 1 Dollar liegen, fügte Vinh hinzu, was deutlich unter den Kosten für eine herkömmliche Google-Suchanfrage liegt, die er auf ein Hundertstel eines Cents schätzt. Andere Analysten gehen davon aus, dass Google etwa ein Fünftel eines Cents für eine Suchanfrage ausgibt.
Der A100-Grafikprozessor von Nvidia hat einen durchschnittlichen Verkaufspreis von etwa 10.000 USD, während der H100, der im vergangenen März vorgestellt wurde, einen durchschnittlichen Verkaufspreis von etwa 25.000 USD erzielt. Daher könnten Unternehmen versuchen, die Kosten für das Training großer Sprachmodelle so niedrig wie möglich zu halten, indem sie alternative Chips wie z. B. den MI300 von AMD verwenden. Neben AMD fügte Vinh hinzu, dürften auch Broadcom, Intel, Micron Technologies und Marvell Technologies von der generativen KI profitieren.
Andere Unternehmen könnten auch GPUs meiden und sich auf kundenspezifisches Silizium konzentrieren, um die Kosten niedrig zu halten, wie es Amazon mit seiner Graviton ARM CPU und anderen ARM-basierten Servern getan hat.
Das spricht für Nvidia
"Angesichts der Tatsache, dass Cloud-Anbieter zunehmend versuchen, ihre Investitionsbudgets zu kürzen, weit verbreitete Entlassungen in der Tech-Branche und steigende Zinssätze, gibt es eine zunehmende Unsicherheit darüber, wie aggressiv diese Cloud-Projekte weiterhin finanziert werden", erklärte Vinh. "Wir glauben, dass diese Trends eine Rückverlagerung hin zu einer stärkeren Nutzung von Merchant-Silizium markieren könnten", was wiederum Unternehmen wie Nvidia zugutekommt.
Trotz des ganzen Hypes um die generative KI und ihre Anwendungsfälle jenseits von Chatbots steht die Entwicklung noch am Anfang, so Vinh. Dennoch: "Der Druck auf generative KI-Initiativen steigt, um die Kostenunterschiede zur Suche deutlich zu verringern." Für Nvidia könnte der langfristig adressierbare Gesamtmarkt eine "beträchtliche Chance" darstellen, und mit den kontinuierlichen Fortschritten des Unternehmens im Bereich der KI ist es klar, dass sich das Unternehmen auf diesen Bereich konzentriert, um das Wachstum zu fördern.