Gigantischer Stromhunger und ein enormer Wasserverbrauch: Rechenzentren für KI-Systeme tragen zur Klimakrise bei. Wie hoch die Emissionen sind, verraten die Tech-Giganten nicht. Auch in Luxemburg sind große Rechenzentren mit enormem Stromverbrauch geplant.

Der Begriff „Künstliche Intelligenz“ verschleiert – wie die „Cloud“ davor – dass es sich bei diesen Anwendungen um ganz normale Computer handelt, die viel Strom zum Betrieb brauchen. (Illustration: CC BY 4.0 Beckett LeClair/https://betterimagesofai.org)
Nicht einmal der Großherzog kann sich dem Hype entziehen. So nannte der frischgebackene Staatschef in seiner Antrittsrede am vergangenen Freitag die sogenannte „künstliche Intelligenz“ (KI) eine „große technologische Revolution“. Das taten in ähnlichen Worten auch seine Vorredner, Premierminister Luc Frieden und Parlamentspräsident Claude Wiseler (beide CSV). Im Gegensatz zu den beiden warnte der Monarch jedoch auch vor den Folgen für die Umwelt. Ob die seit drei Jahren heraufbeschworene Technik-Zeitenwende nun endlich naht oder sich die hohen Investitionen in Rechenzentren als Spekulationsblase entpuppen werden: Die Auswirkungen auf das Klima und den Wasserverbrauch sind bereits heute gewaltig.
Anfang April berichtete die britische Tageszeitung „The Guardian“, dass Elon Musks KI-Firma „XAI“ ohne die dafür notwendigen behördlichen Genehmigungen Erdgasturbinen zur Stromerzeugung eingesetzt und so zur Luftverschmutzung in der US-Stadt Memphis beigetragen hat. Die Firma nutzte ein Schlupfloch aus: Sie setzte mobile Gasturbinen ein, deren Standort jeden Tag ein wenig verändert wurde. Dadurch brauchte Musks Projekt keine Genehmigung. Der Energieverbrauch des Rechenzentrums, in dem Berechnungen für Musks Chatbot „Grok“ durchgeführt werden, übersteigt die von der Stadt gelieferte Energie um ein Vielfaches. Neben dem gigantischen CO2-Ausstoß durch das Verbrennen von Erdgas kritisierten Anwohner*innen auch die zusätzliche Luftverschmutzung in einem ohnehin schon stark belasteten Stadtteil.
Ein Fall, der die Technologiebranche jedoch mitnichten zum Umdenken veranlasste. Das Gegenteil scheint der Fall: Tech-Firmen überbieten sich derzeit mit Plänen für immer größere, megalomanische Bauprojekte. „ChatGPT“-Entwickler „OpenAI“ ist eine Partnerschaft mit dem Grafikkartenproduzenten „Nvidia“ eingegangen. Bei der Umsetzung des Projekts sollen Rechenchips mit einem gesamten Energieverbrauch von „mindestens 10 Gigawatt“ zum Einsatz kommen, ein Zehntel davon bereits in der zweiten Jahreshälfte 2026, wie das Technikmagazin Ars Technica berichtete. Spekuliert wird über von mehreren Kernkraft-Reaktoren mit Strom belieferten, gigantischen Rechenzentren. Unterdessen plant „Amazon“-Chef Jeff Bezos gar Rechenzentren in der Erdumlaufbahn zu betreiben, wie „heise“ Anfang dieser Woche schrieb.
Diese Nachrichten deuten darauf hin, dass der Energieverbrauch von sogenannten KI-Anwendungen in naher Zukunft enorm steigen wird. Tatsächlich geht die Internationale Energieagentur (IEA) davon aus, dass bis 2030 rund 945 Terrawattstunden (TWh) Strom durch Rechenzentren verbraucht werden wird. Das wäre nicht nur eine Verdoppelung, sondern entspricht auch mehr als dem heutigen gesamten Stromverbrauch von Japan. Dieser Anstieg sei zwar nicht allein dem Energiehunger von KI-System zu verdanken, werde jedoch maßgeblich durch diesen befeuert. Aktuell sind Rechenzentren insgesamt für ungefähr anderthalb Prozent des weltweiten Stromverbrauchs verantwortlich.
Nicht intelligent, aber energiehungrig
Für den Kampf gegen die Klimakrise ist das Wettrüsten der KI-Hersteller schon längst zum Problem geworden: Zwischen 2018 und 2024 haben sich die CO2-Emissionen von Rechenzentren verdreifacht, was die Fachzeitschrift „MIT Technology Review“ durch den Boom von KI-Anwendungen erklärte. Eine bisher nur als Vorabversion vorliegende Studie zu den Emissionen von Rechenzentren gibt an, dass 56 Prozent deren Stromverbrauchs durch fossile Energien gedeckt werden und diese für etwas mehr als zwei Prozent der gesamten Treibhausgasemissionen der USA verantwortlich sind. Die meisten Rechenzentren werden in Bundesstaaten gebaut, die stark auf fossile Energien wie Erdgas oder auch Kohle zur Stromerzeugung setzen, wie beispielsweise Virginia oder Texas. Deswegen sei der CO2-Fußabdruck der US-Rechenzentren im internationalen Vergleich sehr hoch. Rechenzentren in Europa benutzen einen weitaus weniger CO2-intensiven Strommix als jene in den USA. Selbst das sonnenverwöhnte Kalifornien, eigentlich als Öko-Bundesstaat bekannt, erhält seine Energie durch einen Strommix, der nur unwesentlich besser ist als jener Deutschlands. Das US-Energieministerium rechnet ebenfalls mit einem Anstieg; 2028 könnten Rechenzentren bereits bis zu 12 Prozent des gesamten US-Stromverbrauchs ausmachen.
Der historische Anstieg des Energieverbrauchs seit 2017 sei eindeutig auf KI-Anwendungen zurückzuführen, meinte das „MIT Technology Review“ im Mai in einem Artikel, der den Stromhunger von sogenannter künstlicher Intelligenz analysierte. Das „Training“ des Large Language Models (LLM) „GPT-4“, eine der Kerntechnologien von „OpenAI“ habe 50 GWh verbraucht – genug Energie, um San Francisco, eine Stadt mit ähnlich viel Einwohner*innen wie das Land Luxemburg, drei Tage lang mit Strom zu versorgen. Allerdings würden nur 10 bis 20 Prozent der gesamt eingesetzten Prozessorleistung in das „Training“ fließen. Die sogenannte „Inference“, also das Benutzen von KI-Anwendungen wie „ChatGPT“, verschlinge den Löwenanteil der Rechenpower und damit auch des Energiehungers. Von den 200 TWh Strom, die Rechenzentren im vergangenen Jahr in den USA verbrauchten, seien zwischen 53 und 76 TWh (also zwischen 26 und 38 Prozent) in KI-spezifische Rechenzentren geflossen, schätzte das Magazin.
Allerdings handelt es sich bei all diesen Zahlen um Spekulationen, denn die großen Technologiefirmen veröffentlichen weder ihre Stromrechnungen, noch geben sie bekannt, wie viel Energie ihre Programme in der Herstellung und im Betrieb verbrauchen. Hinweise gibt es dennoch: Sowohl „Google“ als auch „Microsoft“ haben angegeben, ihre Nachhaltigkeitsziele zu verfehlen, weil ihre Treibhausgasemissionen gestiegen seien. Beide Firmen gaben an, dass der Betrieb von Rechenzentren dafür verantwortlich sei. Google war 2024 mit 3,1 Millionen CO2-Äquivalenten für doppelt so hohe Treibhausgasemissionen wie noch 2020 verantwortlich.
Augenwischerei statt echter Zahlen

Mit dem Einsatz sogenannter „künstlicher Intelligenz“ wächst auch ihr Energieverbrauch. Der hat gigantische Ausmaße angenommen und fußt zum Großteil auf fossilen Energien. (CC BY 4.0 Luke Conroy and Anne Fehres & AI4Media/https://betterimagesofai.org/)
In einem Blogpost behauptete „OpenAI“-Chef Sam Altman, eine „durchschnittliche“ Anfrage an seinen Chatbot würde 0,35 Wh verbrauchen, etwa so viel wie ein Ofen in einer Sekunde. Diese Behauptung wurde jedoch weder mit Zahlen untermauert, noch ist sie besonders aussagekräftig. Google verlautbarte im August sehr ähnliche Zahlen: Eine „durchschnittliche Textanfrage“ an „Gemini“ verbrauchte 0,45 Wh – trotz vieler Zahlen fehlen in dem technischen Bericht wichtige Kennwerte, die einen Vergleich ermöglichten. Die französische KI-Firma „Mistral“ veröffentlichte im Juli die Resultate einer Nachhaltigkeitsanalyse und bediente sich ähnlich undeutlicher Vergleiche: Das Generieren von einer Seite Text erzeuge Emissionen von 1,14 Gramm CO2-Äquivalent, was 10 Sekunden Onlinestreaming entspräche. In einer sehr klein gedruckten Fußnote ist zu lesen, dass dieser Wert auf die USA zugeschnitten sei, in Frankreich könnte man 55 Sekunden lang streamen. Die KI-Firmen versuchen also nicht nur, ihr Produkt als „intelligent“ darzustellen, sondern verkaufen ihre Nutzer*innen mit unsinnigen Vergleichen auch für dumm: Streaming steht nicht in Konkurrenz zu KI-Nutzung, sie passiert zusätzlich. Außerdem hängt der Energieverbrauch vom Streaming im Wesentlichen davon ab, wie groß der Bildschirm ist, auf dem das Programm geschaut wird. Die Technologiefirmen scheinen in Sachen Energieverbrauch vor allem auf Verwirrung und Ablenkung zu setzen, statt sich ihrer Verantwortung zu stellen.
Studien, die frei verfügbare LLMs auf ihren Energiehunger testeten, kamen zu dem wenig überraschenden Ergebnis, dass größere Modelle mehr Strom verbrauchen als kleinere. Jene LLMs, die angeblich „nachdenken“, benötigen besonders viel Energie. Eine Untersuchung des „Allen Institute for Artificial Intelligence“ kam zu einem ähnlichen Schluss und merkt an, dass der Stromverbrauch mit der Modellgröße schnell zunimmt. Die Forscher*innen vergleichen den Energieverbrauch beim Training verschiedener LLMs mit dem Energieverbrauch eines US-Haushaltes: Je nach Größe des Modells käme ein Haushalt zwischen drei Wochen und 83 Jahren aus. Allerdings konnten die Autor*innen der Studie nur wenige quelloffene Modelle testen, die LLMs der großen Technologiefirmen sind nicht öffentlich zugänglich – über ihren Energieverbrauch lässt sich folglich nur spekulieren.
Auch der hohe Wasserverbrauch, der vor allem für die Kühlung der Rechenzentren anfällt, wird immer wieder erwähnt und kritisiert. Hierzu lassen sich noch weniger belastbare Zahlen finden. Geplante Rechenzentren sorgen jedoch immer öfter für Kritik oder gar für Proteste. So engagiert sich beispielsweise der „Mouvement écologique“ seit Jahren gegen das geplante Rechenzentrum von „Google“ in Bissen. Wie die Schätzungen des Netzbetreibers „Creos“ (siehe Kasten) zeigen, gibt es wohl mehr als ein Projekt, das den Strom und vermutlich auch Wasserverbrauch in Luxemburg in die Höhe schnellen lassen wird.
Manche Wissenschaftler*innen sehen die „Critical Data Center Studies“ als neues Forschungsfeld, das gerade im Entstehen ist. Sie fordern andere Autor*innen auf, bislang wenig beachtete Sichtweisen auf Rechenzentren zu beleuchten und diese „nicht als neutrale technische Objekte, sondern umstrittene Orte von Macht, Kapital und Fantasie“ zu sehen.
Am Ende steht die Frage, weshalb immer noch größere und noch energiehungrigere Rechenzentren gebaut werden. Die Chef*innen der Technologiefirmen im Silicon Valley haben ihre ganz eigene Antwort drauf: Nicht wenige sind davon überzeugt, kurz davor zu sein, aus ihren Textgeneratoren eine tatsächlich intelligente Maschine zu entwickeln. Ihrer Meinung nach sei der Einsatz gewaltiger Ressourcen zur Schaffung einer solchen „Superintelligenz“ gerechtfertigt; diese kümmere sich dann schon um das „Klimaproblem“ – die Realität könnte nicht weiter von solchen Fantasmen entfernt sein. Lösungen für die Klimakrise sind bereits vorhanden, es mangelt an deren Umsetzung – eine Erkenntnis, für die man ganz sicher keinen Chatbot benötigt.

