Nachhaltige KI-Strategie

Wenn der KI der Saft ausgeht: Warum Strom die neue Währung der Digitalisierung ist


Warum Strom die neue Währung der Digitalisierung ist

Rechenzentren verbrauchen in Deutschland bereits vier Prozent des Gesamtstroms – Tendenz steigend. Rainer Vehns von codecentric erklärt, warum Energie zur Systemgrenze der Digitalisierung wird, wie Standortlogik sich verschiebt und weshalb Nachhaltigkeit keine Option mehr ist, sondern Grundvoraussetzung jeder KI-Strategie.

Herr Vehns, Rechenzentren verbrauchen in Deutschland bereits rund 20 TWh Strom pro Jahr – etwa vier Prozent des Gesamtverbrauchs. Ist das aus Ihrer Sicht ein Warnsignal?
Der Stromverbrauch von Rechenzentren zeigt vor allem, wie integral digitale Infrastrukturen für die deutsche Wirtschaft geworden sind. Vier Prozent des Gesamtverbrauchs sind kein Warnsignal, sondern ein Hinweis auf die wachsende energiepolitische Dimension der Digitalisierung.

Nehmen Unternehmen dies bereits wahr?

Viele Unternehmen betrachten IT und Cloud noch primär unter Kosten-, Skalierungs- oder Innovationsaspekten. Der Energieverbrauch wird dagegen häufig erst im Nachhaltigkeitsreporting sichtbar, nicht aber in der strategischen IT-Planung. Dabei ist der Betrieb großer Cloud- und KI-Infrastrukturen längst mit industriellen Energieverbräuchen vergleichbar.
Unternehmen müssen ihre IT-Strategie daher endlich stärker mit Energie- und Infrastrukturaspekten verknüpfen. Digitalisierung ist nicht mehr nur eine Frage von Software, Daten und Plattformen – sie hängt zunehmend auch von zuverlässiger und bezahlbarer Energieverfügbarkeit ab.

Struktureller Faktor bei der Digitalisierung


Der Energiebedarf von KI-Infrastrukturen nähert sich der Größenordnung klassischer Kraftwerkskapazitäten. Warum wird Strom aus Ihrer Sicht zur zentralen Systemgrenze der Digitalisierung?
Während klassische Unternehmenssoftware vergleichsweise wenig Rechenleistung benötigt, arbeiten moderne KI-Anwendungen mit großen GPU-Clustern, die sowohl beim Training als auch im Betrieb sehr energieintensiv sind.
Dadurch wird Strom zu einem strukturellen Faktor für Digitalisierung. Für die Skalierbarkeit digitaler Systeme wird künftig neben Rechenleistung und Netzwerkbandbreite zunehmend auch die Verfügbarkeit einer leistungsfähigen Energieinfrastruktur entscheidend sein.


In einigen Regionen zeigt sich bereits, dass neue Rechenzentren weniger nach Netzwerkknoten oder Kundennähe als nach verfügbaren Stromkapazitäten geplant werden. Digitalisierung stößt damit erstmals an eine physische Grenze: Ohne ausreichend Energie lassen sich große KI-Infrastrukturen schlicht nicht betreiben.

Rainer Vehns Por


Die International Energy Agency warnt, dass Stromnetze deutlich schneller ausgebaut werden müssten, um KI und Elektrifizierung aufzufangen. Was bedeutet das für Unternehmen, die heute in KI-Infrastruktur investieren?
Für Unternehmen bedeutet das vor allem, dass sie Infrastrukturfragen frühzeitig in ihre Digitalstrategie einbeziehen sollten. Der Ausbau von Stromnetzen dauert häufig viele Jahre, während sich KI-Technologien in sehr kurzen Innovationszyklen entwickeln.
Wer heute größere KI-Infrastrukturen plant, muss deshalb prüfen, ob die lokale Energieversorgung langfristig ausreichend dimensioniert ist. Andernfalls können Projekte an Netzkapazitäten, Genehmigungsverfahren oder stark steigenden Energiekosten scheitern.


In der Praxis führt das häufig dazu, dass Unternehmen verstärkt auf Cloud-Infrastrukturen zurückgreifen, deren Betreiber Standortwahl, Energieversorgung und Skalierung bereits global optimieren. Gleichzeitig wird Energieeffizienz zu einem wichtigen Auswahlkriterium für Technologien, Plattformen und Architekturen.

Frühzeitig mit Energieversorgern in Kontakt treten


Lange Netzanschlussverfahren bremsen selbst gut kapitalisierte KI-Projekte aus. Wie sollten Unternehmen dieses Risiko in ihrer Digitalstrategie einplanen?
Netzanschlüsse werden zunehmend zu einem kritischen Faktor bei der Planung digitaler Infrastruktur. Selbst wenn Kapital und Technologie verfügbar sind, können lange Genehmigungs- und Anschlussverfahren Projekte erheblich verzögern.


Unternehmen sollten dieses Risiko deshalb ähnlich behandeln wie regulatorische oder sicherheitsrelevante Risiken – als festen Bestandteil ihrer Infrastrukturplanung. Dazu gehört, frühzeitig mit Energieversorgern und Netzbetreibern zu sprechen und realistische Zeiträume für Infrastrukturprojekte einzuplanen.


Viele Organisationen reagieren darauf, indem sie stärker auf bestehende Cloud-Infrastrukturen oder hybride Modelle setzen. So lassen sich KI-Workloads flexibel skalieren, ohne in die vollständige Abhängigkeit von lokalen Netzkapazitäten zu geraten.


Beobachten Sie eine Verschiebung in der Standortlogik, weg von klassischen Hubs wie Frankfurt, hin zu Regionen mit besserer Netzkapazität und erneuerbarer Energie?
Eine solche Verschiebung ist bereits erkennbar. Traditionell sind Rechenzentren vor allem dort entstanden, wo große Internetknoten und digitale Ökosysteme existieren – etwa in Frankfurt, London oder Amsterdam.
Mit dem starken Wachstum von Cloud- und KI-Infrastrukturen rückt jedoch die Verfügbarkeit von Energie  und ihre sekundäre Nutzung stärker in den Mittelpunkt. Betreiber prüfen zunehmend, ob ausreichend Netzkapazität vorhanden ist, wie hoch der Anteil erneuerbarer Energien im regionalen Strommix ist und ob es regionale Abnehmer für die entstehende Abwärme gibt.

Nachhaltig und effizient werden Rechenzentren erst dann, wenn ihre Abwärme in großen Teilen weiterverwendet werden kann. Beispielsweise über Fern- und Nahwärmenetze. Damit wird die Standortentscheidung zwar komplexer, die eingesetzte Energie jedoch bestmöglich genutzt und die Wirtschaftlichkeit weiter optimiert.

Welche Rolle spielen Architekturentscheidungen bei KI- und Cloud-Anwendungen für Energieverbrauch, Kosten und CO₂-Bilanz?
Die Architektur digitaler Systeme hat einen direkten Einfluss auf Energieverbrauch und Kosten. Anwendungen, die dauerhaft überdimensionierte Infrastruktur nutzen, verursachen unnötigen Stromverbrauch und hohe Betriebskosten.
Moderne Architekturen setzen deshalb auf flexible Modelle wie Containerisierung, Microservices oder Serverless-Ansätze. Damit können Anwender Rechenressourcen dynamisch an den tatsächlichen Bedarf anpassen, was Energieverbrauch und CO₂-Emissionen senkt.


Ein häufiger Fehler besteht darin, klassische IT-Architekturen unverändert in die Cloud zu übertragen. Ohne Anpassung entstehen ineffiziente Strukturen mit dauerhaft laufenden Ressourcen und geringer Auslastung. Um ihre Cloud-Architektur nachhaltig zu gestalten, müssen Unternehmen ihre Anwendungen von Anfang an mit Blick auf Skalierung, Effizienz und Monitoring entwickeln.


Lässt sich der Energiehunger von KI durch effizientere Modelle und Infrastrukturen kompensieren oder wächst der Bedarf schneller als jeder Effizienzgewinn?
Beides findet gleichzeitig statt. Einerseits werden Hardware, Rechenzentren und KI-Modelle kontinuierlich effizienter. Neue GPU-Generationen, optimierte Modellarchitekturen und bessere Kühltechnologien reduzieren den Energieverbrauch pro Rechenoperation deutlich.


Gleichzeitig nimmt die Nutzung von KI rasant zu. Immer mehr Unternehmen integrieren KI in Geschäftsprozesse, Produkte und Dienstleistungen, wodurch der Bedarf an Rechenleistung stark steigt.
In vielen Bereichen wächst der Gesamtverbrauch deshalb schneller als die Effizienzgewinne. Effizienzmaßnahmen bleiben dennoch entscheidend, weil sie den Energiebedarf einzelner Anwendungen erheblich senken können.

Wo werden die Rechenzentren betrieben?

Wie verändert sich die CO₂-Bilanz von KI-Anwendungen, wenn der Strommix nicht mitgedacht wird?
Die CO₂-Bilanz von KI-Anwendungen hängt stark vom Strommix ab, mit dem die zugrunde liegende Infrastruktur betrieben wird. Eine identische Anwendung kann je nach Standort ein sehr unterschiedliches Emissionsprofil haben.
Wenn der Energieverbrauch isoliert betrachtet wird, ohne den Strommix einzubeziehen, entsteht schnell ein verzerrtes Bild der tatsächlichen Klimawirkung. Deshalb sollten Unternehmen bei der Planung von Cloud- und KI-Workloads auch berücksichtigen, in welchen Regionen Rechenzentren betrieben werden und wie hoch der Anteil erneuerbarer Energien dort ist.

Welche Verantwortung tragen Nachhaltigkeitsverantwortliche in Unternehmen dabei?
Nachhaltigkeitsverantwortliche spielen dabei eine wichtige Rolle, weil sie Transparenz über Energieverbrauch und Emissionen schaffen müssen. Auch ein modernes Energiemanagement kann den CO2-Verbrauch drastisch reduzieren, indem weniger zeitkritische, aber energieintensive Anwendungen in Phasen mit hohem Anteil an Wind- und Solarenergie verlegt werden. 

Sie plädieren dafür, Nachhaltigkeit zur Grundvoraussetzung jeder KI-Strategie zu machen. Was bedeutet das konkret für Unternehmen?
Nachhaltigkeit sollte nicht erst im Reporting ins Gewicht fallen, sondern bereits in der technischen und strategischen Planung berücksichtigt werden.

Für Unternehmen bedeutet das, dass sie Energieeffizienz, Infrastrukturwahl und Ressourcennutzung systematisch in ihre IT-Architektur einbeziehen sollten.

Dazu gehört auch, technologische Abhängigkeiten bewusst zu gestalten. In der Praxis arbeiten viele Unternehmen heute mit hybriden Ansätzen: Sie nutzen globale Cloud-Plattformen für Skalierung und Geschwindigkeit, kombiniert mit regionalen Lösungen für sensible Daten oder strategisch kritische Anwendungen.
Nachhaltige KI-Strategien sind damit immer auch Infrastrukturstrategien – sie entscheiden darüber, wie flexibel und handlungsfähig Unternehmen langfristig bleiben.

Brauchen wir regulatorische Vorgaben für den Energieverbrauch von KI-Systemen oder reichen Marktanreize und freiwillige Selbstverpflichtungen?
Regulierung kann eine wichtige Rolle spielen, insbesondere wenn es um Transparenz und vergleichbare Standards geht. Einheitliche Anforderungen an Reporting und Energieeffizienz können helfen, den tatsächlichen Ressourcenverbrauch digitaler Infrastruktur sichtbar zu machen.


Gleichzeitig sollte Regulierung technologisch offenbleiben, weil sich KI-Technologien und Hardware sehr schnell weiterentwickeln. Allerdings kann geschickte Regulatorik, z. B.  Vorgaben für Energieverbrauch, technologische Innovationen in dem Bereich fördern und diese unterstützen, so dass Nachhaltigkeitsziele überhaupt erreicht werden.
Wahrscheinlich wird sich eine Kombination aus Marktmechanismen, Transparenzanforderungen, Regulatorik und freiwilligen Initiativen durchsetzen. Steigende Energiekosten sowie Nachhaltigkeitsanforderungen von Investoren und Kunden schaffen bereits heute starke Anreize für effizientere Technologien.


0 Kommentare
Das Eingabefeld enthält noch keinen Text oder nicht erlaubte Sonderzeichen. Bitte überprüfen Sie Ihre Eingabe, um den Kommentar veröffentlichen zu können.
Noch keine Kommentare - teilen Sie Ihre Sicht und starten Sie die Diskussion