Generative KI verbraucht viel Energie und Wasser, da für ihre Entwicklung und Nutzung leistungsstarke Server große Datenmengen verarbeiten und kühlen müssen. Wir empfehlen, Nutzer:innen über den Ressourcenverbrauch von generativer KI zu informieren und den zielgerichteten Einsatz zu fördern. Gleichzeitig möchten wir dazu emutigen, generative KI in der Praxis zu testen. Der verantwortungsbewusste Umgang mit Ressourcen liegt nicht nur beim Endnutzer, sondern ist auch Aufgabe der Entwickler:innen.
Welche Auswirkungen hat generative KI?
Da generative KI eine im Entstehen begriffene Techologie ('emerging technology') ist, sind ihre Auswirkungen auf Strom-, Wasser-, Ressourcenverbrauch und CO2-Ausstoß noch schwer zu ermitteln und wissenschaftliche Untersuchungen noch in den Kinderschuhen. Genaue Erhebungen werden dardurch erschwert, dass gerade die großen Entwickler von generativer KI als private, proprietäre Firmen dazu nur selten genaue Angaben machen.
Trotzdem möchten wir hier einen groben Überblick geben:
Die Entwicklung von generativer KI verbraucht bereits vor der Nutzung Ressourcen und Strom, z.B. wenn generative KI-Systeme trainiert und getestet werden. So verbrauchte die Entwicklung des Generative Pre-Trained Transfomer 3 (GPT-3) in 2020 bereits 1.287 MWh Strom, generierte 550 Tonnen CO2 (Äquivalente) (Patterson et al., 2021) und verbrauchte 700.000 Liter Wasser (Li, 2023).
Der größte Ressourcen und Energieverbrauch tritt jedoch durch das Betreiben in der Nuzungsphase auf. Eine Schätzung im Jahr 2023 ging schon damals davon aus, dass die von OpenAI für GPT-3 genutzten 3.617 NVIDIA HGX A100 Server mit 28.936 Graphics Processing Units (GPUs) etwa 564 MWh pro Tag verbrauchten (de Vries, 2023). Dieser Energiebedarf hätte in etwa durch 24 mittlere Windkraftanlagen (mit einem Megawatttag Leistung) gedeckt werden können.
Inzwischen wird der Energiebedarf für alle LLMs aber weiterhin rasant angestiegen sein. Nicht nur steigt die Anzahl der genutzten Server rapide an, um eine immer großere Zahl an Zugriffen auf die LLMs zu gewährleisten. LLMs verwenden außerdem zunehmend eine größere Zahl an Parametern, um bessere Ergebisse zu produzieren. de Vries (2023) mahnt aber gleichzeitig an, dass solche zunehmende kleinen Verbesserungen gegebenfalls nicht im Verhältnis zum erhöhten Stromverbrauch stehen könnten. Langfristig könnten aber verbesserte Hardware, neue Modellarchitekturen und Algorithmen den Stromverbrauch einzelner Komponenten senken und generative KI nachhaltiger machen.
Was du tun kannst:
-
KI nicht für einfache Suchanfragen nutzen: Verwende KI-Tools nur dann, wenn herkömmliche Kataloge oder Suchmaschinen nicht ausreichen. Da Google und andere Suchmaschinen mittlerweile generative KI integriert haben, ist diese Unterscheidung allerdings relativ zu betrachten. Alternativ können Suchmaschinen ohne KI-Feature wie z.B. StartPage verwendet werden.
-
Mehrfachabfragen vermeiden: Formuliere deine Anfragen präzise, um unnötige Wiederholungen und damit verbundenen Ressourcenverbrauch zu vermeiden.
-
KI-Modelle bewusst auswählen: Unterschiedliche KI-Modelle haben einen unterschiedlichen Energiebedarf. Reasoning-Modelle (z.B. Gemini Deep Research) benötigen mehr Rechenleistung als Standardmodelle, Bildgenerierung mehr als Textgenerierung, Videogenerierung am meisten. Wähle das passende Tool für deinen Bedarf. Überlege weiterhin, ob Du gerade offfene Modelle unterstützen möchtest, die ihren Ressourcen- und Energiebedarf öffentlich machen.
- Teile KI generierte Inhalte: Gerade bei energieintensiven Generierungen z.B. von Bildern und Videos kannst Du durch die Bereitstellung zur Nachnutzung dazu beitragen zusätzliche KI-Anfragen zu vermeiden. (Denke daran, KI generierte Inhalte auch als solche zu Kennzeichen und vor Veröffentlichung auf mögliche Urhebendenrechtsverletzungen zu überprüfen.)
Literatur:
David Patterson, Joseph Gonzalez, Quoc V. Le, Chen Liang, Xinlei Chen, and Andrew Ng (2021): Carbon emissions and large neural network training. arXiv preprint. arXiv:2104.10350.
Shaolei Li. (2023): Making ai less “thirsty”: Uncovering and addressing the secret water footprint of ai models. arXiv preprint arXiv:2304.03271.
de Vries, Alex (2023): The growing energy footprint of artificial intelligence. In Joule 7(10), S.2191-2194. DOI: 10.1016/j.joule.2023.09.004.