Künstliche Intelligenz Physik & Ingenieurwesen Zeitlos 9 min read

KI-Rechenzentren: der kritische Stromnetzpunkt für 2028

KI-Rechenzentren machen Strom zur harten Grenze des Rechnens. Das Risiko ist größer als höhere Stromrechnungen: Eine gemeinsame Abhängigkeit vom Netz kann den Ausbau bremsen und regionale Zuverlässigkeitslücken offenlegen.

This article was automatically translated from English by AI. Read the original English version →
AI data centers connected to power grid infrastructure
Reading mode

KI-Rechenzentren können Chips kaufen, Land pachten und Kapital aufnehmen, aber ohne ununterbrochenen Strom können sie nicht laufen. Darum wird das Stromnetz zur toten Hand hinter dem KI-Ausbau: Es kann Wachstum stoppen, selbst wenn alles andere bereit aussieht. Das US-Energieministerium sagt, die Nachfrage der Rechenzentren wachse schnell, unterscheide sich je nach Region und brauche oft gesicherte LeistungVerlässlich verfügbare Stromleistung, die bei Bedarf bereitsteht, anders als unterbrechbare oder wetterabhängige Versorgung., um durchgehend zu funktionieren[s].

Die Zahlen erklären, warum dies kein Nischenproblem der Gebäudetechnik mehr ist. Das Ministerium berichtete, dass Rechenzentren in den Vereinigten Staaten 2023 etwa 4,4 % des gesamten Stroms des Landes verbrauchten und bis 2028 6,7 % bis 12 % verbrauchen könnten, wobei der Jahresverbrauch von 176 TWh im Jahr 2023 auf prognostizierte 325 bis 580 TWh im Jahr 2028 steigen würde[s]. Weltweit verweist die Europäische Kommission auf Schätzungen der Internationalen Energieagentur, nach denen Rechenzentren etwa 415 TWh oder 1,5 % des weltweiten Stroms verbrauchten und sich bis 2030 auf rund 945 TWh mehr als verdoppeln könnten, wenn beschleunigtes Rechnen für KI wächst[s].

Warum KI-Rechenzentren das Netz zum EngpassEin geografischer Ort, an dem der Verkehr durch eine enge oder begrenzte Passage führen muss, was zu einer Anfälligkeit für Störungen führt. machen

Einfach gesagt verwandeln KI-Rechenzentren Rechennachfrage in ein Problem der Stromlieferung. Ein modernes KI-Rack ist kein bescheidener Serverschrank. Die Dokumentation von NVIDIAs DGX GB Rack sagt, dass das Rack eine Stromschiene und Power Shelves zur Verteilung nutzt und dass der Stromverbrauch des Racks mit redundanten Power Shelves bei etwa 120 kW liegt[s]. Ein Campus voller solcher Racks verlangt vom Netz nicht die Leistung eines Bürogebäudes. Er verlangt industrielle Leistung mit digitalem Timing.

Das zählt, weil das Netz Strom dorthin liefern muss, wo das Rechenzentrum gebaut wird, nicht dorthin, wo Strom theoretisch am billigsten ist. Das Energieministerium sagt, Rechenzentren könnten regionale Netze beeinflussen, weil ihre Last stark zunimmt, weil Standorte durch Latenzanforderungen eingeschränkt sind und weil gesicherte Leistung gebraucht wird[s]. Kraftwerk, Übertragungsweg, UmspannwerkEine Anlage im Stromnetz, die mithilfe von Transformatoren die Spannungsebene anpasst und Kraftwerke mit dem lokalen Verteilnetz für Haushalte und Betriebe verbindet. und lokale Verteiltechnik müssen zusammenpassen.

Das ist das Argument vom gemeinsamen Ausfallpunkt. Es bedeutet nicht, dass ein einziger Schalter die gesamte KI abschalten kann. Es bedeutet, dass KI-Rechenzentren eine Abhängigkeit teilen, die sich nicht durch schnellere Chips oder bessere Software ersetzen lässt, wenn die nötige Netzkapazität fehlt. Lokale Redundanz ist nicht dasselbe wie regionale Versorgung. Die IEA beschreibt dasselbe Problem mit der Aussage, KI brauche eine unterbrechungsfreie Stromversorgung und die Lösung müsse die richtige Mischung aus Energiequellen enthalten[s].

Das Netz läuft auf einer langsameren Uhr

Pläne für Rechenzentren können sich schneller ändern als Strominfrastruktur. PJM, das Strom in allen oder Teilen von 13 Bundesstaaten und im District of Columbia koordiniert[s], sagt, seine Prognose für 2026 habe mehrere Zonen wegen des Wachstums der Rechenzentrumslast angepasst. Außerdem unterscheidet PJM nun zwischen kurzfristigen festen Zusagen und unsichereren längerfristigen Projekten, weil ungewisse große Lastanfragen die Planung verzerren können[s].

Der PJM-Bericht für 2026 prognostiziert außerdem für die nächsten 10 Jahre ein durchschnittliches Wachstum der sommerlichen Spitzenlast von 3,6 % pro Jahr, wobei die Sommerspitze bis 2036 um 65 733 MW und bis 2046 um 96 704 MW steigt[s]. Die Prognose umfasst mehr als Rechenzentren, aber PJMs eigene Lastanpassungen zeigen, dass das Wachstum der Rechenzentren eine der Kräfte ist, die die Prognose verändern.

Die Angebotsseite hat ihre eigene Verzögerung. Der Bericht Queued Up 2025 des Lawrence Berkeley National Laboratory zählte Ende 2024 rund 2 290 GW an Erzeugungs- und Speicherkapazität, die aktiv einen Netzanschluss suchten[s]. Derselbe Bericht sagt, dass nur etwa 19 % der Projekte, die von 2000 bis 2019 einen Anschluss beantragt hatten, bis Ende 2024 den kommerziellen Betrieb erreichten, und dass das typische im Jahr 2024 gebaute Projekt 55 Monate vom Antrag bis zum Betrieb brauchte[s].

Warum die tote Hand zählt

Die tote Hand ist nicht allein der Stromverbrauch. Eine verschwenderische Last kann beherrschbar bleiben, wenn sie klein, flexibel oder dort angesiedelt ist, wo freie Kapazität existiert. Das schwierigere Problem ist eine große, kontinuierliche, geografisch konzentrierte Last, die in Blöcken kommt. KI-Rechenzentren haben diese Merkmale oft genug, dass das Netz zum Taktgeber wird.

Das verändert, wie der KI-Ausbau beurteilt werden sollte. Ein Unternehmen, das einen Rechenzentrumscampus ankündigt, kündigt keine nutzbare RechenleistungRechnerische Ressourcen einschließlich Verarbeitungsleistung, Speicher und Datenspeicherung für KI-Training und Inferenz. an, solange der Strompfad nicht glaubwürdig ist. Eine Region, die KI-Rechenzentren willkommen heißt, konkurriert um Arbeitsplätze und Steuereinnahmen und übernimmt zugleich eine neue Klasse von Netzverpflichtung. Ein Modellanbieter, der mehr Inferenzkapazität verspricht, wettet auch darauf, dass Umspannwerke, Transformatoren, Übertragungsausbau und gesicherte Energie rechtzeitig eintreffen.

Die Lösung besteht nicht darin, den Bau von KI-Rechenzentren zu stoppen. Sie besteht darin, Strom nicht mehr als Hintergrundversorger zu behandeln. Das Energieministerium nennt ein Bündel von Antworten, darunter neue Erzeugung und Speicherung, bestehende Kernkraft und Wasserkraft, die Wiederverwendung stillgelegter Kohlekraftwerksstandorte, Netzausbau, Effizienz und Nachfrageressourcen[s]. Die IEA macht denselben Punkt aus einem anderen Blickwinkel: Mehr Erzeugung allein genügt nicht, weil die Energielieferung für KI auch Netzinvestitionen, Rechenzentrumseffizienz und Flexibilität im weiteren Stromsystem verlangt[s].

Die praktische Lehre ist nüchtern. KI-Rechenzentren sind nicht mehr nur eine Geschichte der Cloud-Architektur. Sie sind eine Geschichte der Stromsysteme. Die Gewinner werden nicht die Firmen sein, die nur die meisten GPUs reservieren. Es werden die Firmen, Versorger und Regionen sein, die zugesagte Megawatt in zuverlässig gelieferte Leistung verwandeln können, ohne den Rest des Netzes unzuverlässiger zu machen.

KI-Rechenzentren machen die Skalierung von Modellen zu einem Lieferbarkeitsproblem. Die begrenzende Ressource umfasst Rechensilizium, doch die entscheidende Kette bringt kontinuierlichen Strom von der Erzeugung über Übertragung, Umspannwerke, Schaltanlagen, Stromverteilung, Kühlung und Power Shelves in den Racks. Die Beschreibung der Rechenzentrumslast durch das Energieministerium ist der technische Schlüsselhinweis: schnelles Wachstum, regionale Unterschiede, durch Latenz eingeschränkte Standortwahl und ein häufiger Bedarf an gesicherter Leistung für den Dauerbetrieb[s].

Die Größenordnung reicht aus, um Planungsannahmen zu verändern. Die auf LBNL gestützte Zusammenfassung des Ministeriums sagt, dass Rechenzentren in den Vereinigten Staaten 2023 176 TWh verbrauchten und bis 2028 325 bis 580 TWh verbrauchen könnten, wodurch ihr Anteil von 4,4 % des gesamten Stroms des Landes auf prognostizierte 6,7 % bis 12 % steigt[s]. Auf Weltebene zitiert die Europäische Kommission IEA-Schätzungen, nach denen der Verbrauch der Rechenzentren bei etwa 415 TWh lag und bis 2030 auf rund 945 TWh steigen könnte, vor allem wegen beschleunigtem Rechnen für KI[s].

KI-Rechenzentren als Systeme der Stromlieferung

Die Rack-Ebene zeigt, warum das Netzproblem nicht abstrakt ist. Die Dokumentation von NVIDIAs DGX GB Rack beschreibt, wie Wechselstrom in Power Shelves eintritt, in eine nominale Gleichstromausgabe von 50 V bis 51 V umgewandelt, über eine Stromschiene verteilt und durch redundante Power Shelves abgesichert wird. Dieselbe Dokumentation nennt einen ungefähren Rack-Stromverbrauch von 120 kW[s]. Diese Zahl ist eine Rack-Spezifikation, nicht die Summe eines Campus, aber sie zeigt die Richtung: Die Dichte des KI-Rechnens treibt elektrische und thermische Auslegung in Richtung industrieller Infrastruktur.

Aus Sicht des Netzes sind die wichtigen Variablen gleichzeitige LastStromnachfrage mehrerer Verbraucher oder Geräte zur selben Zeit, die gemeinsame Netzkapazität belastet., Standort, gesicherte Verfügbarkeit und Rampenverhalten. Das Energieministerium sagt, Rechenzentren könnten regionale Netze beeinflussen, weil ihre Lastgröße stark steigen könne und weil der Standort durch Latenzanforderungen eingeschränkt sein könne[s]. Wenn ein Cluster in einer eingeschränkten Zone gesicherte LeistungVerlässlich verfügbare Stromleistung, die bei Bedarf bereitsteht, anders als unterbrechbare oder wetterabhängige Versorgung. braucht, ist die aggregierte Jahresenergie nur ein Teil des Problems. Der Betreiber muss Kapazität und Lieferbarkeit an einem bestimmten Ort planen.

Darum beseitigt Notstrom den gemeinsamen Ausfallpunkt nicht. Redundante Rack Power Shelves verringern das Risiko lokaler Geräteausfälle, aber sie machen ein 120 kW Rack nicht unabhängig von vorgelagerter Kapazität[s]. Die IEA benennt die übergeordnete Abhängigkeit direkt: KI-Rechenzentren brauchen unterbrechungsfreien Strom, und Länder müssen eine Mischung aus Energiequellen finden, die ihn liefern kann[s].

Der Planungsfehler

Der Fehler ist keine dramatische Prognose eines landesweiten Blackouts. Es ist eine langsamere technische Grenze: Lastanfragen treffen schneller ein, als das System die nötige Netzkapazität prüfen, finanzieren, genehmigen und bauen kann. Die Europäische Kommission sagt, der Anstieg des Energiebedarfs von Rechenzentren treffe oft auf einen Mangel an verfügbarer Kapazität für den Netzanschluss[s].

Die PJM-Lastprognose 2026 zeigt, wie das in einem regionalen Planungsprozess aussieht. PJM hat eine Liste von Zonen wegen des Wachstums der Rechenzentrumslast angepasst, darunter AEP, ATSI, APS, BGE, COMED, DAYTON, DLCO, JCPL, METED, PECO, PEPCO, PL und DOM[s]. PJM sagt außerdem, dass kurzfristige Prognosejahre feste Zusagen brauchen, während längerfristige Projekte ohne feste Zusagen wegen größerer Unsicherheit abgewertet werden[s].

Die Auswirkung auf die Prognose ist groß. PJM erwartet für die nächsten 10 Jahre ein Wachstum der sommerlichen Spitzenlast von 3,6 % pro Jahr, wobei die Sommerspitze 2036 222 106 MW und 2046 253 077 MW erreicht[s]. Nicht jedes Megawatt ist ein KI-Megawatt, aber eine Planungsregion, die wegen Rechenzentren den Umgang mit großen Lasten überarbeiten muss, hat es bereits mit der Netzversion von Rechenknappheit zu tun.

Die Angebotswarteschlange gehört zum selben EngpassEin geografischer Ort, an dem der Verkehr durch eine enge oder begrenzte Passage führen muss, was zu einer Anfälligkeit für Störungen führt.

Mehr Erzeugung ist nötig, aber sie entsteht nicht sofort. Der Bericht Queued Up des LBNL fand Ende 2024 rund 2 290 GW an Erzeugungs- und Speicherkapazität, die aktiv einen Netzanschluss suchten, darunter 1 400 GW Erzeugung und 890 GW Speicher[s]. Das ist vorgeschlagene Kapazität auf der Suche nach Netzzugang, nicht Kapazität, die bereits Strom an einen Rechenzentrumscampus liefert.

Schwund und Zeitbedarf sind die eigentliche Grenze. Das LBNL berichtete, dass etwa 19 % der Projekte, die von 2000 bis 2019 einen Netzanschluss beantragten, bis Ende 2024 den kommerziellen Betrieb erreichten, und dass das typische im Jahr 2024 gebaute Projekt 55 Monate vom Anschlussantrag bis zum kommerziellen Betrieb brauchte[s]. Ein Rechenzentrumsentwickler kann schneller einen Stromabnahmevertrag unterschreiben, als das Netz einen Erzeugungsvorschlag zuverlässig in lieferbare Kapazität verwandeln kann.

Wie eine bessere Architektur aussieht

Die technische Antwort ist weder ein einzelner Brennstoff noch ein einzelner Netzausbau. Das Energieministerium nennt ein Portfolio, das Erzeugung, Speicherung, bestehende Kernkraft und Wasserkraft, die Wiederverwendung stillgelegter Kohlekraftwerksstandorte, Netzausbau, Effizienz und Nachfrageressourcen umfasst[s]. Die IEA ergänzt, dass Erzeugung allein nicht reichen wird, weil Energielieferung für KI auch Netzinvestitionen, Effizienz und Flexibilität von Rechenzentren und vom breiteren Stromsystem verlangt[s].

Für KI-Rechenzentren führt das zu einer strengeren Entwurfsregel: Strom sollte als Systemgrenze erster Ordnung behandelt werden. Trainingsläufe können dort platziert werden, wo Kapazität real ist, nicht dort, wo ein Platz in einer Warteschlange vielversprechend aussieht. Inferenz kann zwischen latenzempfindlicher und verzögerungstoleranter Arbeit aufgeteilt werden. Versorgerverträge können feste Last von flexibler Last trennen. Die Standortwahl kann Orte mit glaubwürdiger Übertragung, Anschlussmöglichkeit, Kühlung und Stromlieferung bevorzugen, statt nur Glasfaser und Steueranreize zu zählen.

Die tote Hand des Netzes ist nichts Mystisches. Sie ist die technische Realität, dass eine digitale Fabrik zuerst eine elektrische Fabrik sein muss. KI-Rechenzentren werden Hardware und Softwareeffizienz weiter verbessern, aber Effizienz beseitigt den Bedarf an gelieferter Leistung nicht. Sie entscheidet nur, wie viel nützliche Rechenarbeit jedes Megawatt kauft.

How was this article?
Share this article

Spot an error? Let us know

Quellen