Microsoft wird im Jahr 2024 der weltweit größte Käufer von Nvidia-GPUs sein. Das gesamte Kaufvolumen betrug fast 500.000 Yuan und war damit fast doppelt so hoch wie das aller Wettbewerber. xAI hat voller Freude die ersten Lieferungen des GB200 NVL72 verschickt und ist so glücklich, dass es scheint, als würden sie das chinesische Neujahr im Voraus feiern. Wird mein Modell besser, je mehr GPUs ich habe? Da mir keine Zeit für Erklärungen blieb, stieg ich schnell ins Auto. Die Tür war zugeschweißt! Wer ist dieses Jahr der größte Käufer von Nvidia-GPUs? Gerade wurde die Antwort enthüllt – TOP 1 ist Microsoft. Heute ist dieses Vergleichsbild im Internet viral gegangen. Omdia schätzt den ungefähren Betrag auf Grundlage öffentlich bekannt gegebener Kapitalausgaben, Serverlieferungen und Lieferketteninformationen von Unternehmen. Laut Analysten des Technologieberatungsunternehmens Omdia hat Microsoft in diesem Jahr 485.000 Nvidia Hopper-Chips gekauft und liegt damit auf Platz 1 unter den weltweiten GPU-Käufern. Damit liegt Microsoft deutlich vor Nvidias zweitgrößtem US-Kunden Meta, der 224.000 Hopper-Chips kaufte. Auf Meta folgen xAI, Amazon (196.000 Yuan) und Google (169.000 Yuan). Darüber hinaus kommt Hoppers GPU Blackwell der nächsten Generation bald auf den Markt und Nvidia wird viel Geld verdienen. Kurz gesagt: Da die großen globalen Technologieunternehmen fieberhaft GPUs horten und darum wetteiferten, immer größere GPU-Cluster zusammenzustellen, ist der Marktwert von Nvidia in diesem Jahr auf drei Billionen Dollar gestiegen. Jetzt hat xAI freudig die ersten Lieferungen der NVIDIA GB200 NVL72 freigegeben. Colossus, der weltweit größte Supercomputer-Cluster, wird zu einem noch größeren Giganten. Es fühlt sich an, als würde xAI gleich laut lachen: „xAIs Colossus feiert Weihnachten vorzeitig“ Wie wir sehen können, sagte Dell-Gründer und CEO Michael Dell am 18. November: „Das weltweit erste NVIDIA GB200 NVL72-Server-Rack wird jetzt ausgeliefert.“ Die KI-Rakete steht kurz vor dem Abheben! Können wir jedoch die beste KI-Infrastruktur aufbauen, solange wir über die besten Chips verfügen? Eigentlich nicht unbedingt. Alistair Speirs, Senior Director der globalen Infrastruktur von Microsoft Azure, sagte, dass es darüber hinaus auch notwendig sei, die richtigen Speicherkomponenten, die Infrastruktur, die Softwareebenen, die Hostverwaltungsebenen, die Fehlerkorrekturfunktionen und andere Komponenten bereitzustellen, die zum Aufbau eines vollständigen Systems erforderlich sind. So wird beispielsweise Grok, das Unternehmen mit dem leistungsstärksten Supercomputer der Welt, trotz zahlreicher Tests, die auf eine hervorragende Leistung hinweisen, von Internetnutzern oft abgekanzelt, indem sie sagen: „Dass das Unternehmen die größte Anzahl GPUs der Welt besitzt, bedeutet nicht, dass sein Modell besser ist.“ Aber für Erklärungen blieb keine Zeit, der weltweite GPU-Kaufboom hatte bereits seinen Höhepunkt erreicht und alle Giganten hatten nur eines im Sinn: mitmachen! Microsoft, der weltweit größte Käufer von Nvidia-GPUs In den letzten zwei Jahren waren die fortschrittlichsten GPUs von Nvidia Mangelware, und unter der Leitung von CEO Nadella hat Microsoft alle Anstrengungen unternommen! Laut Omdia-Daten hat Microsoft in diesem Jahr fast 500.000 GPUs gekauft, doppelt so viele wie seine Konkurrenten. Gleichzeitig sicherte es sich auch hinsichtlich der Investitionssumme den Spitzenplatz. Microsoft hat 13 Milliarden US-Dollar in OpenAI investiert, um seine Rechenzentrumsinfrastruktur zu erweitern. Diese Einrichtungen werden zum Ausführen eigener KI-Dienste wie Copilot verwendet und auch über Azure an Kunden vermietet. Das neueste o1-Modell von OpenAI wird mithilfe der Azure-Cloud-Infrastruktur von Microsoft trainiert. Die beiden Parteien, die ihre Kräfte gebündelt haben, liefern sich einen erbitterten Wettbewerb um die Führungsposition in der Computertechnologie der nächsten Generation, wobei Unternehmen wie Google, Anthropic und xAI ein starkes Comeback hingelegt haben. Der Erfolg von ChatGPT veranlasste NVIDIA, die Produktion des Hopper-Chips über Nacht zu steigern. Im Vergleich zur gleichen Generation von Nvidia-KI-Prozessoren, die im Jahr 2023 gekauft wurden, hat sich Microsofts Bestellung dieses Mal mehr als verdreifacht. Laut Alistair Speirs, Senior Director der globalen Infrastruktur von Microsoft Azure, ist die hochwertige Rechenzentrumsinfrastruktur zu einem äußerst komplexen und „kapitalintensiven Projekt“ geworden. Dies erfordert jahrelange Planung. Daher ist es wichtig, den Wachstumsbedarf genau vorherzusagen und einen entsprechenden Puffer vorzuhalten. Tatsächlich sind Nvidia-GPUs mittlerweile zur heißesten Währung im Silicon Valley geworden und haben einen beispiellosen Anstieg der KI-Investitionen ausgelöst. Omdia schätzt, dass im Jahr 2024 etwa 43 % der Serverausgaben an Nvidia gehen werden. Unter ihnen sind die zehn größten Käufer von Rechenzentrumsinfrastruktur (einschließlich der Newcomer xAI und CoreWeave) für 60 % der weltweiten Investitionen in Rechenleistung verantwortlich. Die Ausgaben globaler Technologieunternehmen für Server werden die unglaubliche Summe von 229 Milliarden US-Dollar erreichen – davon 31 Milliarden US-Dollar für Microsoft und 26 Milliarden US-Dollar für Amazon. „Nvidia-GPUs machen einen sehr hohen Anteil der Server-Investitionsausgaben aus und liegen nahe ihrem Höchststand“, sagte Vlad Galabov, Leiter der Cloud-Computing- und Rechenzentrumsforschung bei Omdia. Eine neue Kraft tritt an die Stelle von Nvidias Dominanz Allerdings sollte Nvidia nicht zu früh lachen. Obwohl das Unternehmen den Markt für KI-Chips noch immer dominiert, hat auch sein alter Rivale AMD ein Auge auf diesen Markt geworfen. Derzeit ist AMD ein Durchbruch gelungen. Laut Omdia-Statistiken hat Meta in diesem Jahr 173.000 AMD MI300-Chips gekauft und Microsoft hat ebenfalls 96.000 Chips gekauft. Bemerkenswerter ist, dass die großen Technologiegiganten rasch ihre eigenen KI-Chips entwickelt haben, um ihre Abhängigkeit von Nvidia zu verringern. Als Pionier widmet sich Google seit zehn Jahren der Forschung und Entwicklung von TPU. Meta hat letztes Jahr erstmals die erste Generation von Trainings- und Push-Beschleunigerchips auf den Markt gebracht. Sie setzten jeweils rund 150 selbst entwickelte Chips ein. Darüber hinaus hat Amazon, der weltweit größte Gigant im Bereich Cloud-Computing-Dienste, aufsehenerregende Schritte im Bereich der KI-Chips unternommen. Von den von Amazon selbst entwickelten Chips Trainium und Inferentia wurden in diesem Jahr bereits etwa 1,3 Millionen Stück eingesetzt. Vor einigen Wochen gaben sie offiziell bekannt, dass sie Hunderttausende der neuesten Trainium-Chips zum Aufbau eines Supercomputer-Clusters verwenden würden, hauptsächlich um Anthropic, das 8 Milliarden US-Dollar investiert hat, mit Rechenleistung für das Training der nächsten Modellgeneration zu unterstützen. Im Vergleich dazu steckt Microsoft bei der Entwicklung von KI-Beschleunigern noch in den Kinderschuhen. Insgesamt wurden 200.000 Maia-Chips eingesetzt. Unter diesen stieg die Nachfrage nach Google TPU-Chips am schnellsten. Es könnte sogar stark genug sein, um die GPU-Dominanz von Nvidia auf dem Markt zu erschüttern. Der Ergebnisbericht von Broadcom für das dritte Quartal lieferte einige wichtige Hinweise. Als Zulieferer für viele Technologiegiganten wie Google und Meta versorgt Broadcom diese mit Halbleiterlösungen und seine internen Daten enthüllen einige wenig bekannte Beschaffungstrends und -informationen. Beispielsweise, wie viele benutzerdefinierte Prozessoren Google gekauft hat usw. Broadcom-CEO Hock Tan hat den Umsatz im Halbleiterbereich mehrfach gesteigert und das Ziel für dieses Jahr auf 12 Milliarden Dollar festgelegt. Demnach dürfte der Umsatz von Google TPU je nach Verhältnis von Computergeräten und Netzwerkgeräten zwischen 6 und 9 Milliarden US-Dollar liegen. Alexander Harrowell, Chefanalyst bei Omdia, merkte an, dass „obwohl eine gewisse Unsicherheit über den genauen Anteil der Computerausrüstung und der Netzwerkausrüstung besteht, selbst bei der niedrigeren Schätzung von 6 Milliarden Dollar die Wachstumsrate der TPU-Lieferungen ausreicht, um Nvidia erstmals Marktanteile abzunehmen.“ Er fuhr fort: „Der Anteil des Cloud-Geschäfts von Google am Gesamtumsatz wächst weiterhin und seine Rentabilität verbessert sich weiter.“ Dahinter dürften TPU-Beschleunigungsinstanzen und TPU-basierte KI-Produkte am Werk sein. Neben Google entwickelt Broadcom auch kundenspezifische KI-Chips (ASICs) für drei Großkunden: Meta und Byte. Darüber hinaus arbeitet das Unternehmen mit zwei weiteren Kunden an der Entwicklung der nächsten Generation von AIX PU. Daraus lässt sich schließen, dass viele Cloud-Dienstanbieter ASICs gegenüber Nvidia-GPUs bevorzugen, hauptsächlich weil erstere kostengünstiger sind und interne Workloads kostengünstiger optimieren können. Morgan Stanley schätzt, dass der Markt für kundenspezifische KI-Chips – angetrieben durch Cloud-Service-Anbieter – von 120 Milliarden US-Dollar im Jahr 2024 auf 300 Milliarden US-Dollar im Jahr 2027 wachsen wird, und dass die Wachstumsrate die des GPU-Marktes übertreffen wird. Der Aufstieg von TPU und kundenspezifischen Chips hat zu tiefgreifenden Veränderungen im Wettbewerbsumfeld des hart umkämpften KI-Chip-Marktes geführt. Neue Weisheit |
<<: Der Nettogewinn sank um 60 %, iFlytek hat Schwierigkeiten, die ChatGPT-Geschichte zu erzählen
Experte dieses Artikels: Wang Qian, behandelnder ...
injizieren Das ist vielleicht der Schatten der Ki...
Die Menschen erforschen die Geheimnisse des Unive...
Seilspringen ist eine sehr gute Methode zum Abneh...
Das ursprüngliche Tai Chi stammt von Huangdi Xuan...
In den letzten Tagen haben starke Nordwinde Pekin...
Um erfolgreich abzunehmen, müssen Sie mehr tun, a...
Im Leben bevorzugen viele Menschen Hanteln, insbe...
199IT Originalkompilation Der Prognose von eMarke...
Aus Zeit- oder Arbeitsgründen können viele Freund...
Jede Frau möchte einen S-förmigen Körper haben un...
Kürzlich schickten fast 500 Xiaopeng P5-Besitzer ...
Seit dem Wiederaufflammen der COVID-19-Pandemie s...
Wichtige Punkte ★ Die meisten Menschen sterben be...
Am 12. September 2022 versagte eine New Shepard-R...