KI-Wettrennen verlagert sich zu Rechenzentren, Strom und speziellen Chips.
In Kürze
- Billioneninvestitionen geplant
- GPU‑Knappheit & Cloud‑Wettkampf
- Hoher Strombedarf & lokale Folgen
Die nächste Schlüsselauseinandersetzung im KI‑Wettlauf findet nicht auf dem Algorithmus‑Parkett statt, sondern in Beton, Kupfer und Kraftwerken: Es geht um die Infrastruktur, die große KI‑Modelle überhaupt antreiben kann. Nvidia‑Chef Jensen Huang rechnet damit, dass bis zum Ende dieses Jahrzehnts 3–4 Billionen US‑Dollar in AI‑Infrastruktur fließen werden. Das bedeutet enorme Bau‑ und Stromanforderungen – und einen intensiven Wettstreit zwischen Cloud‑Anbietern, Hardware‑Herstellern und Big Tech.
Microsoft & OpenAI
2019 steckte Microsoft eine Milliarde US‑Dollar in OpenAI und wurde exklusiver Cloud‑Partner. Viele weitere Zahlungen an OpenAI kamen später nicht als Bargeld, sondern als Azure‑Gutschriften; die Summe der Investitionen nähert sich insgesamt fast 14 Milliarden US‑Dollar. OpenAI gab die Exklusivität auf; Microsoft behält allerdings ein Vorkaufsrecht für Infrastruktur und positioniert sich weiter im Markt, ohne ausschließlich auf eine Partnerschaft zu setzen.
Cloud‑Partnerschaften und Investitionsmuster
AI‑Labs schließen inzwischen oft feste Partnerschaften mit Cloud‑Anbietern: Amazon zahlte etwa 8 Milliarden US‑Dollar an Anthropic und passte Hardware auf Kernel‑Ebene an. Google Cloud gilt als „primärer Computing‑Partner“ für zahlreiche kleinere KI‑Firmen. Nvidia wiederum lieferte laut Berichten im September 2025 GPUs im Wert von rund 100 Milliarden US‑Dollar an OpenAI — GPUs sind spezialisierte Chips für die hochparallelen, rechenintensiven Operationen beim Training großer Modelle.
Oracle & die Megaverträge
Am 30. Juni 2025 meldete Oracle einen zunächst geheimen Cloud‑Vertrag über 30 Milliarden US‑Dollar, der später als Deal mit OpenAI bestätigt wurde. Am 10. September 2025 kündigte Oracle zusätzlich einen prognostizierten fünfjährigen Vertrag über 300 Milliarden US‑Dollar an (beginnend 2027). Diese Ankündigung rückte Oracle schnell in die Rolle eines zentralen Infrastrukturakteurs.
Nvidia‑Strategie
Als dominanter GPU‑Lieferant spielt Nvidia eine Schlüsselrolle in der Hardware‑Seite des KI‑Booms. Im September 2025 kaufte Nvidia 4 Prozent von Intel für 5 Milliarden US‑Dollar und schloss umfangreiche GPU‑gegen‑Equity‑Deals mit OpenAI und xAI. Solche Tauschgeschäfte stärken einerseits Kundenbindungen, können aber auch die Verfügbarkeit von GPUs verknappen und Nachfrage und Preise weiter treiben.
Meta & eigene Rechenzentren
Meta plant umfangreiche Investitionen in US‑Infrastruktur: Bis Ende 2028 sind laut Unternehmensangaben rund 600 Milliarden US‑Dollar vorgesehen. Schon in der ersten Jahreshälfte 2025 stiegen die Ausgaben deutlich an; unter anderem flossen etwa 10 Milliarden US‑Dollar an Google Cloud. Zu den Großprojekten zählen:
- Hyperion in Louisiana (ca. 2.250 Acres, rund 10 Milliarden US‑Dollar Investition, Ziel: etwa 5 Gigawatt Rechenleistung mit Anbindung an ein Kernkraftwerk)
- Prometheus in Ohio, das 2026 ans Netz gehen und mit Erdgas betrieben werden soll
Solche Rechenzentren haben lokale Umweltwirkungen: In South Memphis führte ein Projekt von xAI, das mit eigenen Gaskraftwerken arbeitet, zu erheblichen lokalen Emissionen.
Stargate‑Projekt
Nach der zweiten Amtseinführung von Donald Trump wurde das „Stargate“‑Vorhaben angekündigt: SoftBank, OpenAI und Oracle planten, gemeinsam 500 Milliarden US‑Dollar in US‑AI‑Infrastruktur zu investieren. SoftBank sollte als Geldgeber, Oracle als Baupartner und OpenAI als technischer Berater auftreten. Trotz Anfangshype blieben Fragen zur Finanzierung und zu internen Differenzen bestehen. Unabhängig davon wurden acht Rechenzentren in Abilene, Texas, in Bau gegeben; das letzte Gebäude soll Ende 2026 fertiggestellt werden.
- SoftBank: Geldgeber
- Oracle: Baupartner
- OpenAI: technischer Berater
Capex‑Druck auf die Hyperscaler
Die erwarteten Kapitalausgaben (Capex) der großen Cloud‑Provider steigen massiv: Für 2026 prognostizierten Branchenzahlen rund 200 Milliarden US‑Dollar bei Amazon, 175–185 Milliarden bei Google und 115–135 Milliarden bei Meta. Insgesamt planen die Hyperscaler nahe 700 Milliarden US‑Dollar für Rechenzentren im Jahr 2026. Diese Riesensummen werden zum Teil durch hohe Verschuldung getragen; Banker, Märkte und Finanzchefs reagieren mit Skepsis und erhöhter Aufmerksamkeit gegenüber der Rentabilität solcher Großprojekte.
Die Rechnung offen
Die starke Nachfrage nach spezialisierten Chips, der massive Baubedarf und die hohen laufenden Kosten für Strom und Kühlung setzen die Branche unter Druck — technologisch, finanziell und infrastrukturell. Ob und wie sich die riesigen Investitionen auszahlen, wird in den kommenden Jahren an Angebot, Energieversorgung und den Ergebnissen der laufenden Großprojekte abzulesen sein.
Quelle
Quellen
- Quelle: Meta / Oracle / Microsoft / Google / OpenAI / Nvidia
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




