KI und Energieverbrauch: eine Frage des Vergleichs

Künstliche Intelligenz erscheint immateriell: Ein Prompt rein, eine Antwort raus – scheinbar ohne Kosten. Doch KI verbraucht real Energie. Bis 2028 könnten KI-Anwendungen weltweit etwa ein Prozent des Stroms beanspruchen, rund 300 TWh jährlich – vergleichbar mit dem Verbrauch der Niederlande.1,2

Entscheidend ist der Vergleich. Erst er zeigt, ob etwas groß, klein oder effizient ist – etwa im Verhältnis zu Streaming-Diensten, Haushalten oder Verkehr.

Was passiert eigentlich?

Um den Energieverbrauch von KI zu verstehen, unterscheiden wir zwei Phasen: das Training von KI-Modellen und ihre alltägliche Nutzung.

Das Training großer KI-Modelle ist extrem energieintensiv. Ein Trainingslauf eines modernen Sprachmodells wie Llama 3.1 verursacht schätzungsweise 11.390 Tonnen CO₂-Äquivalente.3,4

Zum Vergleich: Das entspricht ungefähr 4.500 bis 5.000 Flugreisen von München nach San Francisco (Economy Class, einfache Strecke).

Solche Zahlen schockieren – und werden oft so genutzt. Doch das Training einer KI macht nur 10–15 % der CO₂-Bilanz beim Bau eines modernen Langstreckenflugzeugs aus. Kontext ist wichtig:

  • Ein Training passiert meist einmal pro Modellgeneration. Ein KI-Training verbraucht viel Energie, ist aber kein industriehistorischer Ausreißer.
  • Das Ergebnis wird anschließend millionen- bis milliardenfach genutzt.
  • Die Emissionen verteilen sich also über eine sehr große Zahl von Anwendungen

Oder anders gesagt: Das Training ist der „Bau“ einer KI – die Nutzung ist ihr täglicher Betrieb.


KI im Alltag: kleine Anfragen, großer Unterschied

Im täglichen Einsatz ist KI meist überraschend effizient. Eine normale Textanfrage an ein Standard-KI-Modell verbraucht etwa 0,2 bis 0,3 Wattstunden Strom.5 Rechnen wir das auf einen typischen Arbeitstag herunter:

  • 3 KI-Anfragen pro Stunde
  • 8 Stunden Arbeitstag → 24 Anfragen
  • Stromverbrauch: ca. 7 Wattstunden
  • Bei einem durchschnittlichen Strommix (≈ 400 g CO₂/kWh mit wenig erneuerbaren Energien) ergibt das rund 3 Gramm CO₂

👉 Das entspricht etwa 20–30 Metern Fahrt mit einem Benzin-Auto.
Kurz gesagt: praktisch vernachlässigbar.

Wenn KI allerdings länger „nachdenkt“, kippt der der Vergleich. Sogenannte Reasoning-Modelle lösen Probleme Schritt für Schritt, prüfen Zwischenergebnisse und „denken länger nach“. Das verbessert oft die Qualität – kostet aber deutlich mehr Energie. Solche Anfragen können bis zu 30 Wattstunden verbrauchen – das Hundertfache einer Standardanfrage. Würde man klassisch mit einem Standard-Laptop recherchieren, kann man für diese Menge 2 Stunden surfen.

Ähnliche Energiemengen braucht man bei der Generierung von anderem Inhalt wie Bilder oder Videos per KI. Was bedeutet das im Alltag?

  • 24 komplexe KI-Anfragen pro Arbeitstag
  • Stromverbrauch: ca. 720 Wattstunden
  • CO₂-Ausstoß: rund 280–300 Gramm CO₂

👉 Das entspricht etwa 1,5 Kilometern Autofahrt mit einem Benziner.

KI-Chatbots sind somit nur ein sehr kleiner Teil des individuellen CO₂-Fußabdrucks. Wenn man diesen CO₂-Fußabdruck verbessern möchte, sind andere tägliche Aktivitäten zu verbessern nachhaltiger.

Das bedeutet nicht, dass KI und Rechenzentren insgesamt kein Energie- oder Emissionsproblem sind. Ein einzelner Nutzer ist kein Klimaproblem – aber bei Millionen Nutzern täglich wird der Effekt relevant.


Warum Effizienz wichtig ist

Je besser eine Technologie wird, desto häufiger wird sie genutzt – und am Ende steigt der Gesamtverbrauch trotzdem. Das zentrale Problem ist daher nicht, dass KI Strom verbraucht, sondern wo und wie schnell der Strombedarf wächst.

Gleichzeitig zeigt sich, dass der höhere Stromverbrauch kein Naturgesetz ist, sondern Ergebnis von Rahmenbedingungen:

  • In China wurden KI-Architekturen entwickelt, die wegen knapper Hochleistungschips besonders sparsam arbeiten. Solche Modelle benötigen im Training teils deutlich weniger Energie, ohne massiv an Leistungsfähigkeit zu verlieren.6
  • Ein weiterer Punkt, der in Debatten häufig fehlt: Wo steht das Rechenzentrum, auf dem das LLM läuft? Der gleiche KI-Prompt kann je nach Standort sehr hohe Emissionen verursachen (Kohle-lastiger Strommix) oder fast klimaneutral sein (viel Wind-, Wasser- oder Solarstrom). Studien von IEA, Stanford HAI und IEEE Spectrum zeigen, dass der Strommix den CO₂-Fußabdruck oft stärker als die Modellgröße selbst beeinflusst.7,8

Deshalb sollte sich die Debatte von einzelnen Prompts und Schlagzeilenzahlen lösen. KI selbst ist nicht das Problem. Ungeplante Konzentration von Stromnachfrage und dessen Herstellung ist es.


Was wir konkret tun können

Die gute Nachricht: Wir haben es in der Hand.

  • Als Individuum: Für einfache Aufgaben (E-Mails, Zusammenfassungen, Brainstorming) reichen effiziente Standard-Modelle völlig aus. Komplexe Reasoning-Modelle sollten gezielt dort eingesetzt werden, wo sie echten Mehrwert liefern.
  • Als Gesellschaft: Infrastrukturplanung, Netzflexibilität, Effizienzanreize und der Zugang zu sauberem Strom – sprich: Ausbau der erneuerbaren Energien. Echte Nachhaltigkeit entsteht auch nicht nur durch Software-Optimierung, sondern durch systemische Integration. Das UBA fordert hierzu eine konsequente Abwärmenutzung von Rechenzentren in kommunale Wärmenetze – KI-Abwärme könnte so zur Heizressource für Quartiere werden.1
  1. Umweltbundesamt. Carbon leakage in AI-driven data center growth? https://www.umweltbundesamt.de/publikationen/carbon-leakage-in-ai-driven-data-center-growth ↩︎
  2. EU-Kommission (Energy): „In focus: Data centres – an energy-hungry challenge“ (Einordnung, Zahlen mit Verweis auf IEA).
    https://energy.ec.europa.eu/news/focus-data-centres-energy-hungry-challenge-2025-11-17_en ↩︎
  3. Meta (Llama 3.1 Model Card): Angabe zu Training Greenhouse Gas Emissions (u. a. „11,390 tons CO2eq“).
    https://github.com/meta-llama/llama-models/blob/main/models/llama3_1/MODEL_CARD.md ↩︎
  4. Hugging Face (Diskussion zum Llama 3.1-Model Card-Inhalt): Wiederholung/Einordnung der Emissionsangabe.
    https://huggingface.co/meta-llama/Llama-3.1-8B/discussions/34 ↩︎
  5. Hannah Ritchie – What’s the carbon footprint of using ChatGPT or Gemini? [Aug 2025 update]: https://hannahritchie.substack.com/p/ai-footprint-august-2025 ↩︎
  6. Stanford HAI – AI Index Report 2024 (Webseite): Überblick und Downloadmöglichkeiten.
    https://hai.stanford.edu/ai-index/2024-ai-index-report ↩︎
  7. IEEE Spectrum: Einordnung der AI-Index-Ergebnisse zur Emissionsspanne und Einflussfaktoren (Grid-Mix, Effizienz, Modellgröße).
    https://spectrum.ieee.org/ai-index-2024/5-and-they-have-a-hefty-carbon-footprint ↩︎
  8. International Energy Agency (IEA): Bericht „Energy and AI“ (Strombedarf von Rechenzentren/AI, Projektionen bis 2030/2035).
    https://www.iea.org/reports/energy-and-ai
    https://www.iea.org/reports/energy-and-ai/energy-demand-from-ai ↩︎

Hinweise

Dieser Artikel basiert selber auf einem Deep-Research mit Google Gemini. Die Inhalte wurden aber von einem menschlichen Redakteur geprüft und ergänzt.

Die genannten Energie- und CO2e-Werte sind Näherungen. Der tatsächliche Fußabdruck hängt u. a. von Modelltyp, Anfragegröße (Token), Hardware, Auslastung, Rechenzentrums-Effizienz (PUE) und Strommix ab. Vergleiche (Flug/Auto) dienen der groben Einordnung von Größenordnungen.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert