Künstliche Intelligenz: Mehr Hunger, mehr Durst

Wegen des Booms der Künstlichen Intelligenz steigt der Bedarf der IT-Branche an Energie und Wasser enorm an. NGOs befürchten zudem eine Flut an Desinformation nicht zuletzt zum Klimawandel. Über die Folgen eines Hypes.

Der Energieverbrauch der KI-Industrie wird vermutlich mitten in der sich voll entfaltenden Klimakrise explodieren: KI-Festival Mitte Februar in Mailand. (Foto: EPA-EFE/DANIEL DAL ZENNARO)

Wie viel Energie verbrauchen eigentlich die boomenden Systeme der Künstlichen Intelligenz (KI), insbesondere die großen Sprachmodelle wie „Chat GPT“ oder „Gemini“ (früher Bard), die bereits Hunderte Millionen von Benutzern haben? Es ist zwar allgemein bekannt, dass der Ressourcenbedarf der IT-Branche wegen des KI-Booms enorm steigt, dass Chat GPT und Co. einen dem US-amerikanischen Magazin „New Yorker“ zufolge „obszönen“ Energiehunger aufweisen, doch Genaueres lässt sich derzeit kaum ermitteln, da die Konzerne hinter den künstlichen neuronalen Netzen schlicht keine Angaben zum Strom- und Wasserverbrauch machen.

„Google“, „Meta“, „Microsoft“ und „Open AI“ halten sich bedeckt. Eine diesbezügliche Anfrage des Technikmagazins „The Verge“ im vergangenen Februar beantwortete nur Microsoft, wo man beteuerte, „Methodologien zur Quantifizierung des Energieverbrauchs“ zu entwickeln und an der Verbesserung der Effizienz großer Systeme zu arbeiten. Open AI und Meta hingegen reagierten überhaupt nicht.

Das müssen die Titanen des Internetzeitalters, die einen neuen Goldrausch wittern, auch nicht. Die Branche operiert noch immer in einer rechtlichen Grauzone, ähnlich der Phase, als – in Ermangelung rechtlicher Regelungen – faktisch das gesamte Internet zwecks Datenakkumulation gescannt wurde, um die KI-Systeme auch anhand urheberrechtlich geschützten Materials zu trainieren. In der EU sollen juristische Vorgaben zur Ermittlung des Ressourcenverbrauchs Anfang 2026 im Rahmen des europäischen „AI Act“ in Kraft treten. In den USA ist erst im Januar dieses Jahres ein ähnliches Gesetzesvorhaben in den Kongress eingebracht worden, das die KI-Konzerne verpflichten soll, den „Energiekonsum, Ressourcenverbrauch und weitere Auswirkungen“ ihrer neuronalen Netze während des „Lebenszyklus des Systems“ offenzulegen.

Da die Branche sich in Schweigen hüllt, ist man auf Schätzungen und externe Untersuchungen angewiesen. Studien von 2022 zufolge war die Informations- und Kommunikationstechnik für 2,1 bis 3,9 Prozent der globalen Treibhausgasemissionen verantwortlich, was in etwa dem Ausstoß des Flugverkehrs entspricht. Hinzu kommt nun der Strombedarf der KI-Systeme, der bis 2027 auf bis zu 134 Terawattstunden steigen soll – was ungefähr dem Verbrauch der Niederlande entspricht. Die „Internationale Energieagentur“ (IEA) publizierte Anfang dieses Jahres ihre Schätzungen über den Energieverbrauch der Krypto- und KI-Branche, die schon 2022 gemeinsam für rund zwei Prozent des globalen Energiekonsums verantwortlich waren, wobei sich dieser Anteil bis 2026 verdoppeln soll.

Hinzu kommt ein hoher Wasserverbrauch, der für die Kühlung der Rechenzentren anfällt. Der jährliche Wasserverbrauch der neuronalen Netze soll bis 2027 auf 6,6 Milliarden Kubikmeter steigen, womit die Wasserentnahme Dänemarks erreicht würde. Bei einem „Gespräch“ mit GPT-3, bei dem zehn bis 50 Fragen beantwortet werden, wird circa ein halber Liter Wasser verdampft. Zur Erinnerung: Weltweit haben zwei Milliarden Menschen keinen regelmäßigen Zugang zu sauberem Trinkwasser, 771 Millionen Erdenbürger können nicht mal ihre Grundversorgung zuverlässig abdecken. Um Microsofts GPT-3 mit seinen 175 Milliarden künstlicher Neuronen anhand gigantischer Datenmengen für eine neue Aufgabe zu trainieren, sollen bis zu 700.000 Liter Kühlwasser verdampfen.

Der Stromverbrauch für eine einzige solche „Trainingseinheit“ entspricht dem Jahresverbrauch von 130 US-Haushalten. Die Lernphase der großen Sprachmodelle gilt als besonders energieintensiv, doch auch der Alltagsbetrieb, beispielsweise bei Anfragen, ist durch einen hohen Rechen- und Energieaufwand gekennzeichnet. Eine einfache Suchanfrage, die von einem großen Sprachmodell beantwortet wird, verschlingt rund 30 mal so viel Energie wie das übliche Googeln. Microsoft hat bereits sein KI-System als einen „Co-Piloten“ in seine Suchmaschine „Bing“ integriert. Würde Google etwas Ähnliches bei seiner Suchmaschine mit ihren neun Milliarden täglicher Suchanfragen realisieren, dann wäre der Energieverbrauch Irlands überschritten.

Bei einem „Gespräch“ mit GPT-3, bei dem zehn bis fünfzig Fragen beantwortet werden, wird rund ein halber Liter Wasser verdampft.

Tatsache ist, dass die großen Sprachmodelle bei vielen Aufgaben schlicht ineffizient sind. Dies gilt nicht nur für Suchanfragen, sondern auch für die altbekannte Spracherkennung, die schon seit Jahren mit Programmen wie „Dragon Naturally Speaking“ auch auf schwächeren Rechnern gut bewältigt wird. Große Sprachmodelle wie das frei verfügbare „Whisper“ von Open AI sind hingegen selbst bei potenten CPUs auf dem heimischen PC aufgrund der langen Rechenzeiten von rund einer Minute schlicht nicht nutzbar. Erst durch Graphikkartenunterstützung werden ähnlich gute Ergebnisse wie bei der klassischen Spracherkennung erzielt – was den Stromverbrauch des Rechners locker verzehnfacht.

Die KI-Branche hofft, einen Großteil des rapide steigenden Energieverbrauchs durch technische Innovationen und Effizienzsteigerungen kompensieren zu können. Prozessoren und die Graphikkarten des boomenden Herstellers „Nvidia“, die derzeit vor allem bei KI-Berechnungen Verwendung finden, sind eigentlich für diese Aufgabe nicht vorgesehen, sie werden sozusagen zweckentfremdet. Konzerne wie Nvidia arbeiten daran, ihr „Silicon“ immer mehr den Anforderungen großer Sprachmodelle anzupassen, die keine präzisen Berechnungen brauchen, da sie mit Wahrscheinlichkeiten operieren; doch stecken die entsprechenden Konzepte noch in der Phase der Grundlagenforschung.

Zudem stößt die IT-Branche generell langsam an physikalische Grenzen, da die in Nanometern gemessenen Strukturbreiten ihrer Siliziumchips nicht ad infinitum verkleinert werden können. Je kleiner die Strukturbreite, desto effizienter die Recheneinheit. Schrumpften die Strukturbreiten früher im Jahresrhythmus, so hofft der taiwanesische Hersteller „TSMC“, bis 2030 mittels gigantischer Investitionen noch eine Fabrik für Ein-Nanometer-Chips errichten zu können. Einen tatsächlichen technologischen Sprung würden erst Quantencomputer ermöglichen, an denen Google und IBM fieberhaft arbeiten, doch steht weiterhin in den Sternen, wann sie realisiert werden oder gar Marktreife erreichen.

Der physikalische Spielraum für Effizienzsteigerungen ist somit begrenzt, was den Energieverbrauch der KI-Industrie mitten in der sich voll entfaltenden Klimakrise explodieren lassen wird. Im März warnte eine Allianz von Umwelt- und Nichtregierungsorganisationen nicht nur vor dem rasch steigenden Energiehunger der neuronalen Netze. Die KI werde den Planeten nicht retten, sondern gigantische Energiemengen verfeuern und eine Flut von „Desinformation über den Klimawandel“ generieren, sagte ein Sprecher der NGO „Friends of the Earth“, die Teil der Koalition „Climate Action Against Disinformation“ ist, der britischen Tageszeitung „The Guardian“.

Das Wachstum der IT-Branche übertrifft deren Effizienzsteigerungen bei weitem. Die Laufzeiten von Kohlekraftwerken in den Vereinigten Staaten seien bereits aufgrund der steigenden Stromnachfrage von Datenzentren verlängert worden, hieß es im Guardian. Die Umweltgruppen kritisierten zudem die Beteuerungen der KI-Industrie, wonach der Einsatz ihrer Produkte zu einer Senkung der Treibhausgasemissionen führen werde. Google behauptete in einem 2023 veröffentlichten Bericht, KI-Einsatz könne den Ausstoß von Treibhausgasen bis 2030 um bis zu zehn Prozent senken. Man solle „diesen Hype nicht glauben“, warnten die Friends of the Earth. Gleichwohl wird die Expansion der KI-Industrie aufgrund des Verwertungszwangs des Kapitals auch in der manifesten Klimakrise wohl weitergehen, sollten ihr nicht von außen Grenzen durch Intervention oder Naturgewalt auferlegt werden.

Tomasz Konicz arbeitet als freier Journalist mit Schwerpunkt Osteuropa.

Cet article vous a plu ?
Nous offrons gratuitement nos articles avec leur regard résolument écologique, féministe et progressiste sur le monde. Sans pub ni offre premium ou paywall. Nous avons en effet la conviction que l’accès à l’information doit rester libre. Afin de pouvoir garantir qu’à l’avenir nos articles seront accessibles à quiconque s’y intéresse, nous avons besoin de votre soutien – à travers un abonnement ou un don : woxx.lu/support.

Hat Ihnen dieser Artikel gefallen?
Wir stellen unsere Artikel mit unserem einzigartigen, ökologischen, feministischen, gesellschaftskritischen und linkem Blick auf die Welt allen kostenlos zur Verfügung – ohne Werbung, ohne „Plus“-, „Premium“-Angebot oder eine Paywall. Denn wir sind der Meinung, dass der Zugang zu Informationen frei sein sollte. Um das auch in Zukunft gewährleisten zu können, benötigen wir Ihre Unterstützung; mit einem Abonnement oder einer Spende: woxx.lu/support.
Tagged , .Speichere in deinen Favoriten diesen permalink.

Kommentare sind geschlossen.