SEMI Vision: Die GPU-Investitionen der Cloud-Giganten werden im Jahr 2025 voraussichtlich 320 Milliarden US-Dollar übersteigen. TSMC und andere beschleunigen die Produktionsausweitung, um die Lücke zwischen Angebot und Nachfrage zu schließen

SEMI Vision: Die GPU-Investitionen der Cloud-Giganten werden im Jahr 2025 voraussichtlich 320 Milliarden US-Dollar übersteigen. TSMC und andere beschleunigen die Produktionsausweitung, um die Lücke zwischen Angebot und Nachfrage zu schließen

In letzter Zeit war DeepSeek, ein inländisches Startup-Unternehmen für große KI-Modelle, in allen Nachrichten. In nur wenigen Monaten hat DeepSeek zwei Open-Source-Modelle für große Sprachen auf den Markt gebracht – DeepSeek-V3 und DeepSeek-R1, die nicht nur in mehreren wichtigen Leistungsindikatoren mit den weltweit führenden Modellen wie Metas Llama 3.1, OpenAIs GPT-4, Anthropics Claude Sonnet 3.5 usw. mithalten können.

Am schockierendsten ist, dass die Trainingskosten von DeepSeek viel niedriger sind als bei diesen herkömmlichen Modellen und dass der verwendete GPU-Chip zwar keine Top-Level-Konfiguration aufweist, aber dennoch eine erstaunliche Leistung liefert.

„DeepSeek hat in zwei Monaten nur 5,6 Millionen Dollar für die Entwicklung seines DeepSeek-v3-Modells ausgegeben“, stellte der Ökonom Ed Yardeni in einem Bericht fest. Zum Vergleich: Anthropic-CEO Dario Amodei erwähnte letztes Jahr, dass der Bau eines Modells zwischen 100 Millionen und einer Milliarde Dollar kostet. Und da diese Modelle Open Source sind, bieten sie große Kosten- und Preisvorteile.

Es lässt sich jedoch nicht ignorieren, dass DeepSeek zwar deutlich kostengünstiger ist als die Produkte großer Hersteller, sein Durchbruch jedoch immer noch auf die starke Unterstützung der GPU, einer Schlüsselhardware, angewiesen ist. Da der Wettbewerb im KI-Bereich immer härter wird, insbesondere durch die kontinuierliche Expansion der Trainings- und Inferenzmärkte, wird die Rechenleistung auch weiterhin der Schlüssel zum Sieg oder zur Niederlage sein, und die Rolle der GPUs kann nicht ignoriert werden.

US-Technologiegiganten bleiben unberührt und kämpfen weiterhin um GPUs

Weder DeepSeek noch die Sorgen über eine KI-Blase haben die Investitionsfreude der Unternehmen gebremst. Im Jahr 2025 werden Cloud-Anbieter immer noch erhebliche Investitionen tätigen müssen. Um den Kampf der KI zu gewinnen, haben Technologieunternehmen in den letzten Jahren Rechenzentren gebaut, GPU-Karten beschafft und sich Strom gesichert. Eine neue Runde harten Wettbewerbs steht bevor:

Am 21. Januar kündigte OpenAI ein neues Projekt an: das Stargate-Projekt, das in den nächsten vier Jahren 500 Milliarden US-Dollar in den Aufbau einer neuen künstlichen Intelligenz-Infrastruktur für OpenAI in den Vereinigten Staaten investieren soll, wobei die ersten 100 Milliarden US-Dollar in diesem Jahr investiert werden sollen.

Amazon plant, in diesem Jahr 100 Milliarden US-Dollar in die Infrastruktur zu investieren. Im Jahr 2024 waren es 77 Milliarden US-Dollar, und im Jahr davor waren es 48 Milliarden US-Dollar, und das ist mehr als das Doppelte. Der überwiegende Teil des Geldes fließt in Rechenzentren und Server für Amazon Web Services.

Microsoft gab Anfang Januar 2025 bekannt, dass es im Geschäftsjahr 2025 (das im Juni dieses Jahres endet) 80 Milliarden US-Dollar in den Bau von Rechenzentren investieren will, die in der Lage sind, Arbeitslasten im Bereich der künstlichen Intelligenz zu bewältigen.

Google plant, bis 2025 75 Milliarden US-Dollar zu investieren (ein Anstieg von 42 % gegenüber den 53 Milliarden US-Dollar im letzten Jahr), und Google-CEO Sundar Pichai bezeichnete die Chancen im Bereich der KI als „beispiellos, weshalb wir mehr investieren, um sie zu nutzen“.

Meta wird dieses Jahr 60 bis 65 Milliarden US-Dollar in KI-bezogene Investitionen investieren. „Ich bin nach wie vor der Meinung, dass hohe Investitionen in Capex und Infrastruktur auf lange Sicht ein strategischer Vorteil sein werden. Vielleicht werden wir irgendwann feststellen, dass das nicht stimmt. Ich denke jedoch, dass es für eine Aussage noch zu früh ist. Im Moment würde ich wetten, dass die Fähigkeit, diese Infrastruktur auszubauen, ein erheblicher Vorteil sein wird“, sagte Mark Zuckerberg, CEO von Meta.

Sogar Oracle, das in den letzten Jahren im Bereich KI zurückhaltend war, hat seine Investitionsausgaben im Jahr 2025 erhöht. Oracle wird seine Investitionsausgaben im Jahr 2025 gegenüber 2024 auf rund 13,6 Milliarden US-Dollar verdoppeln. Im Geschäftsjahr 2021 betrugen die Investitionsausgaben von Oracle nur etwa 2 Milliarden US-Dollar. Safra Katz, Finanzvorstand von Oracle, sagte auf der Ergebniskonferenz zum Geschäftsjahr 2025, dass die Nachfrage nach KI das Umsatzwachstum der Cloud-Infrastruktur von Oracle um 52 % steigern werde und dass die Einnahmen aus Cloud Computing in diesem Geschäftsjahr voraussichtlich 25 Milliarden US-Dollar erreichen werden.

Von den sieben größten Technologieunternehmen ist Oracle das einzige große Technologieunternehmen im S&P 500, dessen Marktwert die Marke von einer Billion US-Dollar noch nicht überschritten hat. Anders als Amazon und Microsoft pachtet Oracle große Rechenzentren überwiegend, statt sie zu kaufen. Analysten meinen jedoch, dass Oracles einzigartige Rechenzentrumsstrategie es dem Unternehmen ermögliche, effektiv mit finanzkräftigen Konkurrenten zu konkurrieren, da ein größerer Teil der Kapitalausgaben in den Kauf von GPUs gesteckt werden könne, statt wie Microsoft in großem Stil Geld auszugeben. Im Rahmen von Stargate spielt diesmal auch Oracle eine wichtige Rolle, das das Computersystem gemeinsam mit NVIDIA und OpenAI baut und betreibt.

Schätzungen zufolge werden Microsoft, Amazon, Google und Meta im Jahr 2024 Gesamtinvestitionen in Höhe von 246 Milliarden US-Dollar tätigen, gegenüber 151 Milliarden US-Dollar im Jahr 2023. Und im Jahr 2025 könnten die Ausgaben 320 Milliarden US-Dollar übersteigen. Der Kauf von GPUs wird einen großen Teil der hohen Investitionsausgaben der Technologiegiganten ausmachen, und Cluster aus 100.000 Karten werden allmählich zum Standard für KI-Computing.

Nvidia ist zweifellos der größte Nutznießer dieser Welle: Meta, einer seiner drei Hauptkunden, beschleunigt den Bau eines Rechenzentrums mit über 2 GW und plant, bis Ende 2025 mehr als 1,3 Millionen GPUs einzusetzen; Oracle baut einen Cloud-Infrastruktur-Supercluster auf Zettascale-Niveau, der bis zu 131.072 Blackwell-GPUs unterstützt und voraussichtlich in der ersten Hälfte des Jahres 2025 auf den Markt kommen wird. und Microsoft wurde letztes Jahr zum weltweit größten GPU-Käufer. Einer Analyse von Omdia zufolge kaufte Microsoft im Jahr 2024 bis zu 485.000 Hopper-Chips, doppelt so viele wie andere Hersteller. Es wird erwartet, dass das diesjährige Budget von 80 Milliarden US-Dollar auch stark in den Kauf von GPUs investiert wird.

Im Jahr 2025 wird die Blackwell-GPU von Nvidia zweifellos der beliebteste Chip auf dem Markt sein. Trotz einiger technischer Herausforderungen, die mit der Serie verbunden sind, plant Nvidia weiterhin, sie vorzeitig auf den Markt zu bringen. Laut Business Insider drängt Nvidia SK Hynix aktiv dazu, seinen Speicher der nächsten Generation so früh wie möglich vorzubereiten, um die Massenproduktion von Blackwell-GPUs zu beschleunigen.

AMD beschleunigt außerdem aktiv die Einführung von GPUs bei Herstellern. Bei der Entwicklung des beliebten DeepSeek-V3-Modells wurden AMD Instinct GPU und ROCM-Software verwendet. Die GPU der MI300-Serie ist das am schnellsten wachsende Produkt von AMD aller Zeiten geworden und Microsoft hat den Instinct MI300X gekauft. Laut Nextplatform werden die GPU-Chip-Verkäufe von AMD an Rechenzentren im Jahr 2024 voraussichtlich 5 Milliarden US-Dollar übersteigen, fast das Zehnfache des Wertes von 2023. Zuvor hatte AMD-CEO Lisa Su bekannt gegeben, dass mehr als 100 Unternehmen und KI-Kunden MI300X aktiv eingesetzt haben.

Um den KI-Markt schnell zu erobern, plant AMD, die GPU-Chips der nächsten Generation der MI350-Serie vorzeitig auf den Markt zu bringen. Muster des MI350 werden in diesem Quartal an wichtige Kunden ausgeliefert, die Serienlieferungen werden auf Mitte des Jahres vorgezogen.

Aufgrund dieses Trends könnte es auf dem GPU-Markt erneut zu einer Situation kommen, in der das Angebot die Nachfrage übersteigt und nur wenige führende Hersteller vorrangig beliefert werden können.

Kann eine Ausweitung der Produktion das Problem des GPU-Mangels lösen?

Das größte Problem des GPU-Mangels liegt in der Produktionskapazität. CowoS-Verpackung und HBM-Speicher, die beiden Hauptsäulen der GPU, schränken auch die Produktionskapazität der GPU ein. Laut DIGITIMES Research könnte die weltweite Nachfrage nach CoWoS und ähnlichen Verpackungsproduktionskapazitäten aufgrund der starken Nachfrage nach Cloud-basierten KI-Beschleunigern bis 2025 um 113 % steigen. Zu diesem Zweck haben Branchenriesen wie TSMC und SK Hynix, die beiden wichtigsten Hersteller in der GPU-Industriekette, ihre Bemühungen zur Ausweitung ihrer Produktion verstärkt, um das Problem der unzureichenden Versorgung zu lösen.

Aufgrund zunehmender geopolitischer und wirtschaftlicher Unsicherheiten wurde der Fahrplan von TSMC für fortschrittliche Verpackungen bis 2024 mehrfach angepasst. Dem neuesten Plan von TSMC zufolge wird die monatliche Produktionskapazität von CoWoS im Jahr 2024 voraussichtlich 35.000 Wafer betragen, sich bis 2025 auf 75.000 Wafer verdoppeln und im Jahr 2026 voraussichtlich weiter auf 135.000 Wafer steigen.

TSMC CoWos-Kapazitätsprognose (Quelle: SEMI Vision)

TSMC hat seine CoWoS-Verpackungsproduktion im Jahr 2024 ausgeweitet und sich damit gegenüber 2023 verdoppelt, es herrscht jedoch immer noch ein Mangel. Laut Daten von SEMI Vision schreiten die Erweiterungsprojekte von TSMC für fortschrittliche Verpackungen in Zhunan, Chiayi, Taichung und Tainan auf Hochtouren voran. Unter anderem erhielt das Werk Zhunan Advanced Packaging AP6B am 3. Dezember seine Nutzungsgenehmigung und im Werk Chiayi begann der Bau im Mai dieses Jahres. Das Werk Taichung AP5B soll in der ersten Hälfte des nächsten Jahres mit der Produktion beginnen, während das Werk Tainan AP8 (interner Codename AP8) von Innolux Ende 2025 mit der Produktion im kleinen Maßstab beginnen soll. Laut den neuesten Nachrichten der Economic Daily vom 20. Januar plant TSMC, weitere 200 Milliarden NT$ zu investieren, um in der dritten Phase des South Taiwan Science Park zwei neue CoWoS-Verpackungswerke zu bauen. Wenn die Nachricht stimmt, wird die Gesamtzahl der CoWoS-Anlagen von TSMC zusammen mit dem derzeit im Bau befindlichen Werk in Jiake kurzfristig auf acht steigen, darunter zwei in Phase I von Jiake, zwei beim Wiederaufbau des vierten Werks von Innolux, zwei in Phase III von Nankai und zwei geplante in Phase II von Jiake. Die große Nachfrage nach CoWoS-Verpackungen ist offensichtlich.

TSMC-Fabrik für fortschrittliche Verpackungen (Quelle: SEMI Vision)

Andererseits ist auch SK Hynix sehr beschäftigt. Als Hauptlieferant von HBM ist die HBM-Produktionskapazität von SK Hynix für 2025 ausverkauft. Daher wird die HBM-Produktionskapazität weiter ausgebaut, mit dem Ziel, bis zum nächsten Jahr eine HBM-Produktionskapazität von 140.000 Wafern pro Monat zu erreichen. Gleichzeitig beschleunigt das Unternehmen das Tempo der Produktiteration und arbeitet eng mit TSMC am 16-Schicht-HBM4 zusammen, dessen Massenproduktion und Auslieferung voraussichtlich in der zweiten Hälfte des Jahres 2026 beginnen wird.

Der Umsatz von SK Hynix erreichte im Gesamtjahr 2024 einen Rekordwert und übertraf den Rekordwert aus dem Jahr 2022 um mehr als 21 Billionen Won. Auch der Betriebsgewinn übertraf den Rekordwert während des Halbleiter-Superbooms im Jahr 2018. Andererseits hat Samsung den HBM3E-Markt an SK Hynix übergeben. Seine aktuelle Hoffnung ist HBM4. Samsung plant, eine neue Hybrid-Bonding-Technologie zu verwenden, um 16-lagiges HBM4 zu erreichen. Doch dem aktuellen Stand nach zu urteilen, scheint es, als ob die Dinge nicht so reibungslos laufen. Allerdings erweitert Samsung auch seine HBM-Produktionskapazität und plant, die HBM-Produktionskapazität bis Ende dieses Jahres auf 140.000 bis 150.000 Wafer pro Monat zu erhöhen und sie bis Ende nächsten Jahres weiter auf 170.000 bis 200.000 Wafer pro Monat zu steigern.

Die HBM-Produkte von Micron entwickeln sich gut und der CEO erwartet, dass der HBM-Umsatz im Geschäftsjahr 2024 mehrere Hundert Millionen Dollar betragen und im Geschäftsjahr 2025 mehrere Milliarden Dollar erreichen wird. Microns Ziel ist es, im nächsten Jahr 20 % des HBM-Marktanteils zu erobern. In Taiwan erweitert Micron seine HBM-Produktionskapazität erheblich, einschließlich des A3-Werks in Taichung und des 11. Werks in Taoyuan. Darüber hinaus hat Micron ein neues Büro in Taiwan eröffnet, das Werk Taichung von AUO übernommen und in eine DRAM-Produktionsbasis umgewandelt. Das Unternehmen plant, seine derzeitige monatliche Produktion von 20.000 Wafern bis Ende nächsten Jahres auf 60.000 zu verdreifachen.

Kurzfristig wird der Widerspruch zwischen Angebot und Nachfrage zwar vorangetrieben, doch wird er noch lange bestehen bleiben. Insbesondere mit der Weiterentwicklung von KI- und Rechenzentrumsanwendungen wird die Nachfrage nach GPUs weiter steigen und es dürfte schwierig sein, die Marktlücke allein durch die Erweiterung der vorhandenen Produktionskapazitäten schnell zu schließen.

GPUs reichen nicht, also kommen ASICs zum Einsatz?

Der Mangel an GPU-Chips ist kein ein- oder zweijähriges Problem und Cloud-Anbieter werden seit vielen Jahren durch Nvidia eingeschränkt. Infolgedessen haben alle Cloud-Giganten in die Entwicklung von ASIC-Chips investiert. Die von Google eingeführte TPU (Tensor Processing Unit) ist zum Branchenmaßstab geworden. Amazon AWS hat außerdem zwei selbst entwickelte Chips auf den Markt gebracht, Trainium und Inferentia; Microsoft folgte dicht dahinter und entwickelte die Serien Maia und Cobalt. Meta eroberte den Markt mit dem MTIA-Chip; und Gerüchten zufolge arbeitet OpenAI mit Broadcom an der Entwicklung eigener ASIC-Chips, um den Trainingsbedarf des Unternehmens für KI-Modelle im großen Maßstab zu decken.

Offenbar erfreuen sich diese ASICs zunehmender Beliebtheit. Apple veröffentlichte im Juli 2024 die erste Vorschauversion der iPhone-KI und sein KI-Modell wurde mit Googles TPU (Tensor Processing Unit) trainiert. Auf der AWS Reinvent-Konferenz von Amazon wurde angekündigt, dass das Unternehmen für das Modelltraining die von Amazon selbst entwickelten KI-Chips verwenden werde. Darüber hinaus testet Apple an Silvester den neuesten Trainium2-Chip von Amazon. Alle Anzeichen deuten darauf hin, dass ASIC bereits einige der offenen Stellen bei GPUs besetzen kann.

ASIC muss einen eindeutigen Wert haben. Der B200 und andere GPU-Chips von Nvidia verbessern die Leistung hauptsächlich durch die Vergrößerung ihrer Fläche, sodass sie immer größer werden. ASIC-Chips, deren Schwerpunkt auf der Verbesserung der Rechenleistung liegt, verzichten auf einige der allgemeinen Funktionen von GPUs und werden zu einer Option zur Verbesserung der Leistung und Reduzierung des Stromverbrauchs. Mit anderen Worten: ASIC bietet die Vorteile hoher Leistung, geringen Stromverbrauchs, niedriger Kosten, hoher Vertraulichkeit und Sicherheit sowie reduzierter Leiterplattengröße.

Selbst Nvidia, der „König der GPUs“, hat das Potenzial von ASICs nicht ignoriert. Berichten zufolge hat NVIDIA mit der Planung seiner ASIC-Produktlinie begonnen und sucht in Taiwan Tausende talentierte Mitarbeiter für Chipdesign, Softwareentwicklung sowie KI-Forschung und -Entwicklung. Huang Renxun sagte freimütig, dass NVIDIA dies nutzen könne, um seinen Kundenstamm weiter auszubauen. Vielleicht werden CSP-Kunden zu Konkurrenten von NVIDIA, gleichzeitig bleiben jedoch alle CSPs Kunden von NVIDIA und Cloud-Kunden werden nicht ohne NVIDIA auskommen können.

In der Ära der ASIC-Popularität rückten auch Broadcom und Marvell ins Rampenlicht. Broadcom hat bereits einen Marktwert von einer Billion Dollar erreicht und auch der Marktwert von Marvell hat die 100-Milliarden-Dollar-Marke überschritten. Der schnelle Aufstieg dieser Unternehmen im ASIC-Bereich ist nicht nur auf ihre eigenen technologischen Forschungs- und Entwicklungskapazitäten zurückzuführen, sondern spiegelt auch die enorme Nachfrage des Marktes nach maßgeschneiderten Computerlösungen wider.

Mit der zunehmenden Komplexität von KI-Modellen und der Popularisierung groß angelegter Anwendungen hat der ASIC-Markt explosionsartig zugenommen. Laut Morgan Stanley wird der Markt für KI-ASICs von 12 Milliarden US-Dollar im Jahr 2024 auf 30 Milliarden US-Dollar im Jahr 2027 wachsen, mit einer durchschnittlichen jährlichen Wachstumsrate von 34 %. Broadcom ist optimistischer und prognostiziert, dass die Marktnachfrage nach ASIC im Jahr 2027 zwischen 60 und 90 Milliarden US-Dollar liegen wird, während Marvell erwartet, dass der ASIC-Markt für Rechenzentren im Jahr 2028 auf 42,9 Milliarden US-Dollar ansteigen wird.

Obwohl sich das Problem des GPU-Mangels kurzfristig kaum vollständig lösen lässt, bietet der Aufstieg der ASIC-Chips zweifellos einen gangbaren Weg, diese Lücke zu schließen. Insbesondere in den Bereichen Cloud Computing und KI bieten ASICs durch kundenspezifisches Design effizientere Lösungen mit geringerem Stromverbrauch in bestimmten Anwendungen und haben sich nach und nach zu einer leistungsstarken Ergänzung der GPU entwickelt.

Da immer mehr Cloud-Service-Anbieter in die ASIC-Forschung und -Entwicklung investieren, könnte das zukünftige Computer-Ökosystem vielfältiger werden. GPU und ASIC ergänzen sich gegenseitig und fördern gemeinsam die Weiterentwicklung der gesamten KI- und Cloud-Computing-Branche.

Letzte Worte

Das Aufkommen von DeepSeek hat bei vielen Menschen zu der Annahme geführt, dass es sich nachteilig auf die Rechenleistung und NVIDIA auswirkt. Eine Analyse in „Information Equality“ weist jedoch darauf hin, dass die Anforderungen an die Rechenleistung für die Erforschung neuester Technologien (wie etwa die Entwicklung neuer Modelle) und das Aufholen (d. h. Verbesserungen auf der Grundlage bestehender Errungenschaften) unterschiedlich sind. Der Artikel zitierte die Ansichten in „The Bitter Lesson“ und betonte, dass die Rechenleistung die grundlegende treibende Kraft der KI-Forschung sei. Die Erfahrung zeigt, dass Durchbrüche in der KI oft eher auf die Erweiterung der Rechenleistung als auf einfache Innovationen bei den Algorithmen zurückzuführen sind. Da die Rechenleistung weiter zunimmt, werden die Fähigkeiten der KI einen qualitativen Sprung machen.

Daher bleibt die wichtige Position der GPU auf dem zukünftigen KI-Schlachtfeld unerschütterlich. Die Zukunft der KI-Branche wird weiterhin ein Wettbewerb der Rechenleistung sein. Ob es sich um ein aufstrebendes Unternehmen wie DeepSeek oder um traditionelle Giganten wie OpenAI, Google und Meta handelt, GPU wird weiterhin der Eckpfeiler für ihre technologischen Innovationen und Produktdurchbrüche sein. Auch im Jahr 2025 bleibt der Kampf um die GPUs spannend.

Beobachtungen aus der Halbleiterindustrie

<<:  Beobachtung zur thailändischen Branche für Fahrzeuge mit alternativen Antrieben: ein Brückenkopf in Südostasien für den Technologie- und Produktionskapazitätstransfer nach China

>>:  Neue Systemschwachstelle macht iOS 10 leichter zu knacken, Apple gibt an, mit der Behebung begonnen zu haben

Artikel empfehlen

Reduzieren Sit-ups das Bauchfett und lassen es wieder praller werden?

Heutzutage trinken manche Leute gerne Bier, vor a...

BlackBerry Leap: Ein Low-End-Smartphone mit Voll-Touchscreen

Wie viele treue BlackBerry-Nutzer gibt es nach de...

Augmented Reality-Perspektiven: Kann Microsoft HoloLens die Zukunft einläuten?

Viele Menschen waren schockiert, nachdem sie das ...

So verlieren Sie Gewicht und bauen Muskeln auf

Wenn Sie Muskeln aufbauen und gleichzeitig Gewich...

Warum sind die meisten Organismen „symmetrisch“?

Heute ist die Artenvielfalt der Erde sehr reich u...

Ist es wirklich in Ordnung, nach dem Training Wasser zu trinken?

Beim Training schwitzt der Körper aufgrund der Au...

Umgekehrtes Yoga! Lass dein Ding so lang sein wie du willst

Alle Frauen möchten lange, schöne Beine haben, do...

So führen Sie Ganzkörper-Stretching-Übungen durch

Ganzkörper-Stretching ist eine sehr gute Übung, d...

Wie trainiert man drinnen?

Sport ist für viele Menschen eine beliebte Freize...