8 Minuten
Zusammenfassung
Eine virale Statistik — „jede ChatGPT-Anfrage verbraucht 64 Liter Wasser“ — wurde so oft geteilt, dass sie wie eine unbestreitbare Tatsache klingt. Das ist sie nicht. Sam Altman, CEO von OpenAI, wies diese Zahl deutlich zurück, als er bei einer Veranstaltung der Indian Express in Indien sprach, und nannte die Angaben zum Wasserverbrauch „grundlos" und irreführend.
Kurz gefasst: Die alte Geschichte über riesigen Wasserverbrauch stammt aus einer Zeit, in der einige Rechenzentren auf evaporative Kühlung setzten. Diese Technik verbraucht tatsächlich Wasser. Sie ist jedoch in vielen modernen Einrichtungen größtenteils ersetzt oder stark reduziert worden. Altman betont, dass die online kursierenden Zahlen Veränderungen bei Infrastruktur und Kühlstrategien außer Acht lassen und somit ein verzerrtes Bild davon zeichnen, was Systeme wie ChatGPT tatsächlich an Wasser kosten.
Hintergrund: Herkunft der Wasserangaben und Kühlmethoden
Die Behauptung von 64 Litern pro Abfrage lässt sich historisch nachvollziehen: Sie beruht auf Modellrechnungen aus einer Periode, in der einige Rechenzentren auf verdunstungsbasierte Kühlung (evaporative cooling) oder auf lokal intensiven Wasserverbrauch für Wärmeabfuhr setzten. Solche Systeme können, abhängig von Klima, Design und Betriebsweise, signifikante Mengen Wasser nutzen. In heißen und trockenen Regionen waren Betreiber zeitweise auf adiabatische oder indirekt evaporative Verfahren angewiesen, um die Effizienz und die Leistungsfähigkeit der Hardware zu sichern.
Evaporative Kühlung und ihre Grenzen
Bei der evaporativen Kühlung wird Wasser verdunstet, um die Luft zu kühlen, die dann zur Abfuhr der Abwärme eingesetzt wird. Das ist energieeffizient unter bestimmten Bedingungen, verbraucht jedoch Wasser anstelle von elektrischem Strom für Kältekompression. Mit Blick auf Nachhaltigkeit und lokale Wasserknappheit kamen viele Betreiber zu der Erkenntnis, dass der langfristige Einsatz solcher Systeme problematisch sein kann — insbesondere dort, wo Wasserressourcen limitiert sind.
Moderne Rechenzentren haben deshalb unterschiedliche Kühlstrategien entwickelt, darunter:
- Wasserarme oder wasserlose Luftkühlung (air cooling)
- indirekt evaporative oder Hybrid-Kühlanlagen mit deutlich reduzierten Wasserverlusten
- flüssigkeitsbasierte Kühlsysteme (Direct Liquid Cooling, DLR) mit geschlossenen Kreisläufen
- Standortwahl in kühleren Klimazonen, um freie Kühlung (free cooling) zu ermöglichen
Jede Methode hat Vor- und Nachteile in Bezug auf Energieeffizienz, Wasserverbrauch, Infrastrukturkosten und operative Komplexität.
Energieverbrauch: Das größere, wachsendere Problem
Altman räumte ein, dass der Energieverbrauch ein berechtigtes und wachsendes Anliegen ist. Die Skalierung von KI, einschließlich der Trainings- und Inferenzphasen großer Modelle, erfordert beträchtliche Rechenleistung. Die relevante Metrik für politische Entscheidungsträger und Betreiber ist nicht zwangsläufig der Verbrauch pro einzelner Anfrage, sondern die kumulative Last: 24/7-Betrieb, weltweit steigende Nachfrage und die Summe aller Abfragen und Trainingsläufe über die Zeit.
Training vs. Inferenz: Unterschiedliche Energieprofile
Wichtig ist die Unterscheidung zwischen Training (Erstellen eines Modells) und Inferenz (Nutzung eines bereits trainierten Modells):
- Training: Sehr energieintensiv, da große Modelle über viele Stunden bis Wochen auf Tausenden von GPUs oder spezialisierten Beschleunigern trainiert werden. Das Training erzeugt einen einmaligen, aber hohen Energiebedarf und ist oft für einen großen Teil der CO2- und Energiebilanz verantwortlich.
- Inferenz: Jede Nutzerabfrage benötigt Rechenzeit und Energie, aber die Energie pro Anfrage ist in der Regel deutlich geringer als beim Training. Allerdings summiert sich die Inferenzenergie bei Millionen bis Milliarden Anfragen pro Tag.
Altman wies darauf hin, dass eine einzelne Abfrage nur einen Bruchteil einer Kilowattstunde beanspruchen kann. Dennoch wächst die Gesamtlast rapide, da Dienste rund um die Uhr und global verfügbar sind. Deshalb muss die Diskussion von isolierten Zahlen pro Anfrage hin zu systemweiten Analysen und Prognosen verschoben werden.
Technische Kennzahlen und Messgrößen
Um reale Auswirkungen zu bewerten, nutzen Betreiber und Forscher mehrere Kennzahlen:
- Power Usage Effectiveness (PUE): Verhältnis von Gesamtenergieverbrauch eines Rechenzentrums zu der Energie, die direkt von der IT-Hardware genutzt wird. Ziel ist ein PUE möglichst nahe 1,0.
- Water Usage Effectiveness (WUE): Menge an Wasser, die ein Rechenzentrum für Kühlung und andere Zwecke pro Energieeinheit verbraucht. WUE ist regional stark beeinflussbar.
- CO2-Emissionen pro kWh: Entscheidend ist, wie der Strom erzeugt wird (fossil vs. erneuerbar).
Diese Kennzahlen werden jedoch nur selten umfassend, einheitlich und unabhängig geprüft veröffentlicht. Es existiert derzeit kein global verbindlicher Standard, der detaillierte, auditable Berichte über Energie- und Wasserfußabdrücke von Tech-Unternehmen vorschreibt.

Menschliche Intelligenz vs. maschinelle Intelligenz: Ein provokativer Vergleich
Altman brachte einen provokanten, aber klärenden Vergleich: Wie bewertet man die Energiekosten von Intelligenz? Menschen benötigen Jahre, um kognitive Fähigkeiten zu entwickeln. Altman zeigte auf, dass ein Mensch grob gerechnet etwa 20 Jahre an Nahrung und metabolischer Energie verbraucht, um eine ausgereifte kognitive Leistungsfähigkeit zu erreichen. Darüber hinaus ist menschliches Wissen das Ergebnis einer evolutionären und kulturellen Akkumulation, die über Jahrtausende und durch die Existenz von möglicherweise hunderten Milliarden Individuen geformt wurde.
Metabolische Kosten und evolutionäre Investitionen
Die metabolischen Kosten des Lernens umfassen Energie für Gehirnwachstum, neuronale Stoffwechselprozesse und die tägliche Aufrechterhaltung. Das menschliche Gehirn verbraucht im Ruhezustand bereits etwa 20 % des gesamten Energiebedarfs eines Erwachsenen, trotz nur rund 2 % der Körpermasse. Diese „eingebaute“ Energieinvestition ist über lange Zeiträume angelegt und schwer mit einmaligen technischen Aufwendungen vergleichbar.
Altmans Folgerung: Für einen fairen Vergleich sollte man die Energie messen, die ein bereits trainiertes KI-Modell benötigt, um eine Frage zu beantworten, und dies der Energie gegenüberstellen, die ein Mensch aufwenden würde, die gleiche Frage zu beantworten. Unter dieser Maßgabe könnten KI-Systeme effizienter sein — vorausgesetzt, der zugrunde liegende Strommix ist kohlenstoffarm und nachhaltig.
Was wäre ein transparenter und fairer Maßstab?
Praktische, transparente Metriken helfen, Diskussionen zu versachlichen. Dazu gehören:
- angabegetreue PUE- und WUE-Werte mit unabhängigen Audits
- Berichterstattung über CO2-Emissionen pro 1.000 oder 1 Mio. Anfragen (Training separat ausgewiesen)
- Angaben zum Strommix (Anteil erneuerbarer Energiequellen, bezogene Herkunft des Stroms)
- Lebenszyklusbetrachtungen für Hardware (Herstellung, Nutzung, Recycling)
Solche Kennzahlen ermöglichen Vergleichbarkeit zwischen Rechenzentren, Regionen und Anbietern. Sie helfen politischen Entscheidungsträgern und der Öffentlichkeit, Maßnahmen gezielt zu steuern.
Lösungen: Saubere Energie, Infrastruktur und Transparenz
Altman schlug als Kernlösung eine beschleunigte Umstellung auf saubere Energie vor — Kernenergie, Windkraft und Solar werden als Beispiele genannt — damit die Welt steigende Stromnachfrage aufnehmen kann, ohne die Klimakrise zu verschärfen. Ein niedriger CO2-Emissionsfaktor pro verbrauchter Kilowattstunde verwandelt eine energieintensive Technologie nicht automatisch in klimaneutral, reduziert aber deutlich die Klimawirksamkeit.
Netzinfrastruktur und regionale Herausforderungen
Die Integration großer, schwankender Verbraucher wie Rechenzentren stellt Anforderungen an Verteilnetze und regionale Energiesysteme. In einigen Regionen haben Rechenzentren bereits zu höheren Strompreisen und Belastungen der Netzinfrastruktur geführt. Lösungen umfassen:
- Investitionen in Leitungen, Transformatoren und Speichertechnik
- Lastmanagement und zeitliche Verlagerung von Trainingsjobs (z. B. zu Zeiten mit hohem erneuerbaren Angebot)
- PPA (Power Purchase Agreements) für direkte Begrenzung der CO2-Intensität
Ohne diese Anpassungen kann lokale Infrastruktur überlastet werden, und erneuerbare Ausbauziele lassen sich schwer erreichen.
Regulierung, Berichterstattung und Forschung
Heute gibt es keine globale, rechtlich bindende Pflicht für Technologieunternehmen, präzise, geprüfte Berichte über Wasser- und Energie-Fußabdrücke zu veröffentlichen. Unabhängige Forschende und NGOs versuchen, Auswirkungen mittels Modellrechnungen zu schätzen — häufig basierend auf indirekten Daten, Annahmen und teils veralteten Parametern.
Verbesserungen könnten beinhalten:
- Einführung verlässlicher Berichtsstandards für Energie- und Wasserkennzahlen
- unabhängige Audits und standardisierte Methoden für PUE, WUE und CO2-Bilanzen
- Förderung von Open Data aus Rechenzentren (aggregiert und vertraulichkeitsgerecht)
- finanzielle Anreize für wasserarme Kühlung und CO2-arme Strombeschaffung
Solche Maßnahmen würden die Aussagekraft von Studien erhöhen und verhindern, dass alte oder unscharfe Zahlen viral werden und Debatten fehlleiten.
Praktische Handlungsempfehlungen für Politik und Industrie
Konkrete Schritte, die Entscheidungsträger und Betreiber in Erwägung ziehen sollten:
- Festlegung einheitlicher Reporting-Standards für Rechenzentren (inkl. PUE, WUE, CO2-intensität)
- Förderprogramme für den Ausbau erneuerbarer Energien und für Steckverbinder zwischen Rechenzentren und lokalem Netz
- Unterstützung für Forschung zu effizienten Kühltechnologien, Closed-Loop-Wassernutzung und Direktkühlung
- Transparenzanforderungen bei öffentlichen Förderungen oder Standortgenehmigungen für große Rechenzentren
Durch klare Rahmenbedingungen lässt sich vermeiden, dass einzelne Schlagzeilen die öffentliche Debatte dominieren, während strukturelle Probleme ungelöst bleiben.
Worauf sich die Debatte verlagern sollte
Wenn es uns ernst ist mit nachhaltiger KI, sollte die Diskussion von sensationellen Wasser-Headline zu sachlichen Fragen über saubere Energie, Infrastrukturinvestitionen und öffentliche Berichterstattung wechseln. Relevante Fragen sind dabei:
- Wie viel erneuerbaren Strom kann ein wachsendes KI-Ökosystem tatsächlich aufnehmen?
- Welche Kühl- und Infrastrukturtechniken sind in verschiedenen Klimazonen sinnvoll und nachhaltig?
- Wie lassen sich Trainingsjobs, Inferenzlasten und Hardware-Lebenszyklen emissionsarm gestalten?
Solche Fragen führen zu lösungsorientierten Maßnahmen statt zu Panikmache oder falschen Schlussfolgerungen.
Fazit
Die vereinfachte Aussage „64 Liter Wasser pro ChatGPT-Anfrage" ist irreführend, weil sie historische Annahmen verallgemeinert und aktuelle technische Veränderungen unberücksichtigt lässt. Das verkennt die Rolle unterschiedlicher Kühlmethoden, die Verlagerung hin zu wasserarmen Konzepten und die Bedeutung des Strommixes für die Klimawirkung.
Das schließt jedoch nicht aus, dass die ökologischen Auswirkungen von KI ernst genommen werden müssen. Die wachsende, kontinuierliche Nachfrage nach Rechenleistung ist eine reale Herausforderung. Politik, Wissenschaft und Industrie müssen zusammenarbeiten, um saubere Energie, robuste Netzinfrastrukturen, transparente Berichterstattung und effizientere Hardware- und Kühlkonzepte voranzutreiben. Nur so kann die Skalierung von KI verantwortungsvoll und nachhaltig gestaltet werden — jenseits von vereinfachten, viral verbreiteten Zahlen.
Quelle: smarti
Kommentar hinterlassen