Wenn der KI der Saft ausgeht: Warum Strom die neue Währung der Digitalisierung ist
Herr Vehns, Rechenzentren verbrauchen in Deutschland bereits rund 20 TWh Strom pro Jahr – etwa vier Prozent des Gesamtverbrauchs. Ist das aus Ihrer Sicht ein Warnsignal?
Der Stromverbrauch von Rechenzentren zeigt vor allem, wie integral digitale Infrastrukturen für die deutsche Wirtschaft geworden sind. Vier Prozent des Gesamtverbrauchs sind kein Warnsignal, sondern ein Hinweis auf die wachsende energiepolitische Dimension der Digitalisierung.
Nehmen Unternehmen dies bereits wahr?
Viele Unternehmen betrachten IT und Cloud noch primär unter Kosten-, Skalierungs- oder Innovationsaspekten. Der Energieverbrauch wird dagegen häufig erst im Nachhaltigkeitsreporting sichtbar, nicht aber in der strategischen IT-Planung. Dabei ist der Betrieb großer Cloud- und KI-Infrastrukturen längst mit industriellen Energieverbräuchen vergleichbar.
Unternehmen müssen ihre IT-Strategie daher endlich stärker mit Energie- und Infrastrukturaspekten verknüpfen. Digitalisierung ist nicht mehr nur eine Frage von Software, Daten und Plattformen – sie hängt zunehmend auch von zuverlässiger und bezahlbarer Energieverfügbarkeit ab.
Struktureller Faktor bei der Digitalisierung
Der Energiebedarf von KI-Infrastrukturen nähert sich der Größenordnung klassischer Kraftwerkskapazitäten. Warum wird Strom aus Ihrer Sicht zur zentralen Systemgrenze der Digitalisierung?
Während klassische Unternehmenssoftware vergleichsweise wenig Rechenleistung benötigt, arbeiten moderne KI-Anwendungen mit großen GPU-Clustern, die sowohl beim Training als auch im Betrieb sehr energieintensiv sind.
Dadurch wird Strom zu einem strukturellen Faktor für Digitalisierung. Für die Skalierbarkeit digitaler Systeme wird künftig neben Rechenleistung und Netzwerkbandbreite zunehmend auch die Verfügbarkeit einer leistungsfähigen Energieinfrastruktur entscheidend sein.
In einigen Regionen zeigt sich bereits, dass neue Rechenzentren weniger nach Netzwerkknoten oder Kundennähe als nach verfügbaren Stromkapazitäten geplant werden. Digitalisierung stößt damit erstmals an eine physische Grenze: Ohne ausreichend Energie lassen sich große KI-Infrastrukturen schlicht nicht betreiben.
Die International Energy Agency warnt, dass Stromnetze deutlich schneller ausgebaut werden müssten, um KI und Elektrifizierung aufzufangen. Was bedeutet das für Unternehmen, die heute in KI-Infrastruktur investieren?
Für Unternehmen bedeutet das vor allem, dass sie Infrastrukturfragen frühzeitig in ihre Digitalstrategie einbeziehen sollten. Der Ausbau von Stromnetzen dauert häufig viele Jahre, während sich KI-Technologien in sehr kurzen Innovationszyklen entwickeln.
Wer heute größere KI-Infrastrukturen plant, muss deshalb prüfen, ob die lokale Energieversorgung langfristig ausreichend dimensioniert ist. Andernfalls können Projekte an Netzkapazitäten, Genehmigungsverfahren oder stark steigenden Energiekosten scheitern.
In der Praxis führt das häufig dazu, dass Unternehmen verstärkt auf Cloud-Infrastrukturen zurückgreifen, deren Betreiber Standortwahl, Energieversorgung und Skalierung bereits global optimieren. Gleichzeitig wird Energieeffizienz zu einem wichtigen Auswahlkriterium für Technologien, Plattformen und Architekturen.
Frühzeitig mit Energieversorgern in Kontakt treten
Lange Netzanschlussverfahren bremsen selbst gut kapitalisierte KI-Projekte aus. Wie sollten Unternehmen dieses Risiko in ihrer Digitalstrategie einplanen?
Netzanschlüsse werden zunehmend zu einem kritischen Faktor bei der Planung digitaler Infrastruktur. Selbst wenn Kapital und Technologie verfügbar sind, können lange Genehmigungs- und Anschlussverfahren Projekte erheblich verzögern.
Unternehmen sollten dieses Risiko deshalb ähnlich behandeln wie regulatorische oder sicherheitsrelevante Risiken – als festen Bestandteil ihrer Infrastrukturplanung. Dazu gehört, frühzeitig mit Energieversorgern und Netzbetreibern zu sprechen und realistische Zeiträume für Infrastrukturprojekte einzuplanen.
Viele Organisationen reagieren darauf, indem sie stärker auf bestehende Cloud-Infrastrukturen oder hybride Modelle setzen. So lassen sich KI-Workloads flexibel skalieren, ohne in die vollständige Abhängigkeit von lokalen Netzkapazitäten zu geraten.
Beobachten Sie eine Verschiebung in der Standortlogik, weg von klassischen Hubs wie Frankfurt, hin zu Regionen mit besserer Netzkapazität und erneuerbarer Energie?
Eine solche Verschiebung ist bereits erkennbar. Traditionell sind Rechenzentren vor allem dort entstanden, wo große Internetknoten und digitale Ökosysteme existieren – etwa in Frankfurt, London oder Amsterdam.
Mit dem starken Wachstum von Cloud- und KI-Infrastrukturen rückt jedoch die Verfügbarkeit von Energie und ihre sekundäre Nutzung stärker in den Mittelpunkt. Betreiber prüfen zunehmend, ob ausreichend Netzkapazität vorhanden ist, wie hoch der Anteil erneuerbarer Energien im regionalen Strommix ist und ob es regionale Abnehmer für die entstehende Abwärme gibt.
Nachhaltig und effizient werden Rechenzentren erst dann, wenn ihre Abwärme in großen Teilen weiterverwendet werden kann. Beispielsweise über Fern- und Nahwärmenetze. Damit wird die Standortentscheidung zwar komplexer, die eingesetzte Energie jedoch bestmöglich genutzt und die Wirtschaftlichkeit weiter optimiert.
Welche Rolle spielen Architekturentscheidungen bei KI- und Cloud-Anwendungen für Energieverbrauch, Kosten und CO₂-Bilanz?
Die Architektur digitaler Systeme hat einen direkten Einfluss auf Energieverbrauch und Kosten. Anwendungen, die dauerhaft überdimensionierte Infrastruktur nutzen, verursachen unnötigen Stromverbrauch und hohe Betriebskosten.
Moderne Architekturen setzen deshalb auf flexible Modelle wie Containerisierung, Microservices oder Serverless-Ansätze. Damit können Anwender Rechenressourcen dynamisch an den tatsächlichen Bedarf anpassen, was Energieverbrauch und CO₂-Emissionen senkt.
Ein häufiger Fehler besteht darin, klassische IT-Architekturen unverändert in die Cloud zu übertragen. Ohne Anpassung entstehen ineffiziente Strukturen mit dauerhaft laufenden Ressourcen und geringer Auslastung. Um ihre Cloud-Architektur nachhaltig zu gestalten, müssen Unternehmen ihre Anwendungen von Anfang an mit Blick auf Skalierung, Effizienz und Monitoring entwickeln.
Lässt sich der Energiehunger von KI durch effizientere Modelle und Infrastrukturen kompensieren oder wächst der Bedarf schneller als jeder Effizienzgewinn?
Beides findet gleichzeitig statt. Einerseits werden Hardware, Rechenzentren und KI-Modelle kontinuierlich effizienter. Neue GPU-Generationen, optimierte Modellarchitekturen und bessere Kühltechnologien reduzieren den Energieverbrauch pro Rechenoperation deutlich.
Gleichzeitig nimmt die Nutzung von KI rasant zu. Immer mehr Unternehmen integrieren KI in Geschäftsprozesse, Produkte und Dienstleistungen, wodurch der Bedarf an Rechenleistung stark steigt.
In vielen Bereichen wächst der Gesamtverbrauch deshalb schneller als die Effizienzgewinne. Effizienzmaßnahmen bleiben dennoch entscheidend, weil sie den Energiebedarf einzelner Anwendungen erheblich senken können.
Wo werden die Rechenzentren betrieben?
Wie verändert sich die CO₂-Bilanz von KI-Anwendungen, wenn der Strommix nicht mitgedacht wird?
Die CO₂-Bilanz von KI-Anwendungen hängt stark vom Strommix ab, mit dem die zugrunde liegende Infrastruktur betrieben wird. Eine identische Anwendung kann je nach Standort ein sehr unterschiedliches Emissionsprofil haben.
Wenn der Energieverbrauch isoliert betrachtet wird, ohne den Strommix einzubeziehen, entsteht schnell ein verzerrtes Bild der tatsächlichen Klimawirkung. Deshalb sollten Unternehmen bei der Planung von Cloud- und KI-Workloads auch berücksichtigen, in welchen Regionen Rechenzentren betrieben werden und wie hoch der Anteil erneuerbarer Energien dort ist.
Welche Verantwortung tragen Nachhaltigkeitsverantwortliche in Unternehmen dabei?
Nachhaltigkeitsverantwortliche spielen dabei eine wichtige Rolle, weil sie Transparenz über Energieverbrauch und Emissionen schaffen müssen. Auch ein modernes Energiemanagement kann den CO2-Verbrauch drastisch reduzieren, indem weniger zeitkritische, aber energieintensive Anwendungen in Phasen mit hohem Anteil an Wind- und Solarenergie verlegt werden.
Sie plädieren dafür, Nachhaltigkeit zur Grundvoraussetzung jeder KI-Strategie zu machen. Was bedeutet das konkret für Unternehmen?
Nachhaltigkeit sollte nicht erst im Reporting ins Gewicht fallen, sondern bereits in der technischen und strategischen Planung berücksichtigt werden.
Für Unternehmen bedeutet das, dass sie Energieeffizienz, Infrastrukturwahl und Ressourcennutzung systematisch in ihre IT-Architektur einbeziehen sollten.
Dazu gehört auch, technologische Abhängigkeiten bewusst zu gestalten. In der Praxis arbeiten viele Unternehmen heute mit hybriden Ansätzen: Sie nutzen globale Cloud-Plattformen für Skalierung und Geschwindigkeit, kombiniert mit regionalen Lösungen für sensible Daten oder strategisch kritische Anwendungen.
Nachhaltige KI-Strategien sind damit immer auch Infrastrukturstrategien – sie entscheiden darüber, wie flexibel und handlungsfähig Unternehmen langfristig bleiben.
Brauchen wir regulatorische Vorgaben für den Energieverbrauch von KI-Systemen oder reichen Marktanreize und freiwillige Selbstverpflichtungen?
Regulierung kann eine wichtige Rolle spielen, insbesondere wenn es um Transparenz und vergleichbare Standards geht. Einheitliche Anforderungen an Reporting und Energieeffizienz können helfen, den tatsächlichen Ressourcenverbrauch digitaler Infrastruktur sichtbar zu machen.
Gleichzeitig sollte Regulierung technologisch offenbleiben, weil sich KI-Technologien und Hardware sehr schnell weiterentwickeln. Allerdings kann geschickte Regulatorik, z. B. Vorgaben für Energieverbrauch, technologische Innovationen in dem Bereich fördern und diese unterstützen, so dass Nachhaltigkeitsziele überhaupt erreicht werden.
Wahrscheinlich wird sich eine Kombination aus Marktmechanismen, Transparenzanforderungen, Regulatorik und freiwilligen Initiativen durchsetzen. Steigende Energiekosten sowie Nachhaltigkeitsanforderungen von Investoren und Kunden schaffen bereits heute starke Anreize für effizientere Technologien.
-
EmpCo-Richtlinie: Ein scharfes Schwert gegen Greenwashing
606
-
ESG – Definition und Bedeutung für Unternehmen und Investoren
111
-
Reform des EU-Emissionshandels: Reaktionen auf den Merz-Vorstoß
77
-
Österreich setzt CSRD um und beschließt NaBeG – Deutschland weiter im Rückstand
30
-
EU-Taxonomie-Änderungen in Kraft getreten
23
-
CSRD-Praxisguide: Doppelte Wesentlichkeitsanalyse
22
-
ESRS: Übersicht aller Datenpunkte zu Set 1 veröffentlicht
20
-
VSME Plus: Freiwillige Nachhaltigkeitsberichterstattung mit Wirkung
19
-
Nachhaltigkeitslabels - Fluch oder Segen?
17
-
Wesentlichkeitsanalyse nach CSRD: ein dynamisches Projekt
16
-
Wenn der KI der Saft ausgeht: Warum Strom die neue Währung der Digitalisierung ist
17.03.2026
-
Rollenverständnis Sustainability Manager:in: Papier versus Realität
17.03.2026
-
Von „grün“ zu gerichtsfest: Die EmpCo verändert die Nachhaltigkeitskommunikation
16.03.2026
-
Circular Storytelling: Warum die Zukunft der Kreislaufwirtschaft auch eine Frage der Erzählung ist
12.03.2026
-
Ark Climate: Software hilft Städten, Klimaschutz effizient umzusetzen
11.03.2026
-
Fakten oder Gefühle? Der richtige Ton in der Nachhaltigkeitskommunikation
11.03.2026
-
Energiepolitik: Über 3.500 Unternehmen richten Appell an Bundesregierung
10.03.2026
-
Zwei Jahre CBAM: Was Unternehmen gelernt haben – und was jetzt strategisch zählt
10.03.2026
-
Zwischen Flexibilität und Ambition: der VSME-Nachhaltigkeitsbericht von Kirchhoff Consult
06.03.2026
-
Nachhaltigkeit bleibt Chefsache – aber Rückenwind bleibt aus
05.03.2026