Wie klimabelastend ist Künstliche Intelligenz wirklich?

KI, ChatGPT, Energieverbrauch, CO2-Fußabdruck, OpenAI, Rechenzentren, Klimaschutz, Nachhaltigkeit, Sasha Luccioni, Alex de Vries, Digitalisierung, Umwelt

Von: macron
Zusammenfassung:
Der Energieverbrauch von ChatGPT & Co. steht zunehmend in der Kritik – doch genaue Zahlen bleiben Mangelware. Schätzungen zufolge benötigt eine einzelne ChatGPT-Anfrage bis zu zehnmal mehr Strom als eine Google-Suche. Doch der tatsächliche CO₂-Fußabdruck ist schwer zu bestimmen, da Tech-Konzerne wie OpenAI, Google oder Microsoft kaum Einblick in ihre Rechenzentren, Stromquellen oder Hardware geben.

Unabhängige Expert:innen wie Alex de Vries oder Sasha Luccioni bemühen sich dennoch um Transparenz und fordern mehr Offenlegung sowie die Einführung eines Öko-Labels für KI. Dabei wird klar: Die KI-Branche trägt erheblich zum global steigenden Energiebedarf bei, während Konzerne gleichzeitig behaupten, KI könne zur Lösung der Klimakrise beitragen – eine These, die angesichts wachsender Emissionen mehr als fragwürdig erscheint.

Obwohl der Ruf nach Regulierung lauter wird, beschränkt sich die EU bislang auf Transparenzpflichten statt verbindlicher Verbrauchsgrenzen. Der Artikel Stromfresser KI warnt daher: Die Hoffnung, dass Konsumverhalten allein den Wandel bringt, greift zu kurz. Ohne klare gesetzliche Vorgaben bleibt die ökologische Bilanz von KI eine wachsende Belastung für Umwelt und Klima.

Mehr dazu in Le Monde, Stromfresser KI

Ähnliche Beiträge

2 Kommentare

  1. Das sagt die KI auf die Frage: „Bei welchem Verarbeitungsschritt benötigt KI die meiste Energie?“

    ChatGPT:

    Der Verarbeitungsschritt, bei dem Künstliche Intelligenz (insbesondere große Sprachmodelle wie ich) am meisten Energie verbraucht, ist in der Regel:
    1. Das Training des Modells (insbesondere Initialtraining)

    👉 Höchster Energieverbrauch insgesamt

    Beim Training werden riesige Mengen an Daten durch neuronale Netze geleitet, und es werden Milliarden (oder sogar Billionen) von Parametern über viele Trainingszyklen hinweg angepasst. Dafür sind Hunderttausende von GPU-Stunden erforderlich – z. B. mit Rechenzentren, die auf spezialisierten Hardware-Plattformen wie NVIDIA A100 GPUs oder Google TPUs laufen.

    Warum so energieintensiv?

    Millionen bis Milliarden Rechenoperationen pro Sekunde

    Lange Trainingsdauer (Wochen bis Monate)

    Sehr große Datenmengen

    Tausende GPUs parallel in Betrieb

    Ein Beispiel: Das Training von GPT-3 (mit 175 Milliarden Parametern) soll laut Schätzungen mehr als 1.000 MWh an Energie verbraucht haben – vergleichbar mit dem Jahresverbrauch von mehreren Hundert Haushalten.
    2. Das Inferenz-/Nutzungsstadium (also das Beantworten deiner Fragen)

    👉 Niedrigerer Energieverbrauch pro Anfrage, aber häufig und weltweit genutzt

    Wenn Du mir eine Frage stellst und ich antworte (wie jetzt), geschieht das in der Inferenzphase. Auch hier wird erhebliche Rechenleistung benötigt, aber der Energiebedarf ist pro Anfrage viel geringer als beim Training.

    Energieaufwand hängt ab von:

    Modellgröße (z. B. GPT-4 ist deutlich aufwendiger als GPT-3.5)

    Antwortlänge

    Server-Infrastruktur

    Aber: Bei Millionen oder Milliarden Anfragen täglich summiert sich auch dieser Verbrauch.

    Fazit:
    Verarbeitungsschritt Energieverbrauch Bemerkung
    Initiales Training Extrem hoch Einmalig, aber sehr ressourcenintensiv
    Fein-Tuning / Updates Hoch Kürzer als Initialtraining
    Nutzung (Inference) Mittel bis niedrig Pro Anfrage gering, aber häufig

  2. Nur eine kurze Anmerkung: wir sollten heutzutage grundsätzlich sehr genau auf den Energieverbrauch achten und hier und da dann vergleichen. Vielleicht hilft das ja auch, Entscheidungen zu treffen. Zum Beispiel, wenn ich weiß, dass eine Stunde Netflix-Streaming ungefähr 10 mal so viel Energie verbraucht wie eine Stunde intensive KI-Nutzung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert