Die wirklichen Kosten von KI-Modellen

Günstige Sprachmodelle mit hohen Kosten für die Umwelt

Seit zwei Jahren sind sie nicht mehr wegzudenken, die großen Sprachmodelle oder Large Language Models, kurz LLMs. Die einen benutzen sie, um lustige Bilder zu erstellen, die anderen, um E-Mails zu schreiben oder Dokumente zu verfassen. Die Anwendungsszenarien sind vielfältig und der Zugang ist niederschwellig. Ob ChatGPT (OpenAI), Claude (Anthropic), Llama (Meta) usw., die meisten dieser Sprachmodelle können kostenlos genutzt werden. Selten war KI so billig und so einfach zu benutzen wie heute. Was wir aber meist nicht wissen, ist, dass wir dafür einen hohen Preis zahlen, der auf den ersten Blick nicht sichtbar ist: Sprachmodelle verbrauchen enorme Energieressourcen.

Dr. Maria Börner | Leitung des Kompetenzzentrums für KI bei Westernacher Solutions | https://westernacher-solutions.com

UMWELTBELASTUNG VON SPRACHMODELLEN

Diese Ressourcen werden sowohl für das Training der Modelle als auch für den laufenden Betrieb benötigt. Denn die Modelle sind so groß, dass sie vorwiegend nur noch auf Hochleistungsrechnern trainiert und bereitgestellt werden. Natürlich ist für den Betrieb von Hochleistungsrechnern Strom erforderlich, ebenso für die Kühlung. Diese Energieressourcen können in den Verbrauch von CO2 umgerechnet werden und so wird auch die Belastung unserer Umwelt durch Sprachmodelle sichtbar. Um die Größenordnungen zu verdeutlichen, sind Vergleiche aus dem Alltag hilfreich. So verbraucht eine Person in Deutschland laut CO2-Rechner des Umweltbundesamtes durchschnittlich 10,4t CO2eq (Tonnen CO2-Äquivalent) pro Jahr (Stand 2025) und ein amerikanisches Auto inklusive Herstellung und Verbrauch ca. 57t CO2eq.1Energy and Policy Considerations for Deep Learning in NLP, Strubell et al., CoRR, 2019 https://arxiv.org/pdf/1906.02243. Der CO2-Verbrauch beim Training eines Sprachmodells wird selten veröffentlicht und ist bei OpenAI-Modellen ein Schätzwert. Für das ältere ChatGPT-Modell GPT3 werden die Werte auf 552t CO2eq geschätzt.2Carbon Emissions and Large Neural Network Training, Patterson et al., CoRR, 2021.

„Das kleine Modell von OpenAI verbraucht im Training 50-mal so viel CO2 wie eine Person in Deutschland pro Jahr“

Für diese Werte ist die Größe eines Modells entscheidend, die durch die Anzahl der Parameter bestimmt wird und angibt, wie gut ein Sprachmodell Texte verstehen und erzeugen kann. Je mehr Parameter ein Sprachmodell hat, desto mehr Wissen enthält es und desto komplexere Texte kann es verarbeiten und erzeugen. GPT3 hat insgesamt 175B (175 Milliarden) Parameter, was aus heutiger Sicht ein eher „kleines“ großes Sprachmodell von OpenAI ist. Deutlich transparenter ist Meta mit seinen Llama-Modellen, deren Verbräuche auf HuggingFace veröffentlicht werden. Hier gibt Meta an, dass das Llama- Modell mit 70B (70 Milliarden) Parametern 2040t CO2eq beim Training verbraucht, aber der Energieverbrauch sauber und erneuerbar ist.3Model card von Llama-3.3-70B-Instruct auf HuggingFace Datenbank Stand April 2025. Die Daten deuten darauf hin, dass das Training von großen Sprachmodellen einen enormen ökologischen Fußabdruck aufweist. Das Argument, dass das Training nur einmal stattfindet, ist stichhaltig, aber jeder, der bereits einmal in der Forschung gearbeitet hat, weiß, dass man Experimente mehrmals wiederholen muss, bis das Ergebnis zufriedenstellend ist. Hinzu kommt, dass die tägliche Nutzung ebenso Ressourcen bindet. Sendet man 1000 Anfragen an diese Modelle, so verbraucht dies 5g CO2eq für die Generierung des Textes und 200g CO2eq für die Generierung der Bilder.4Power Hungry processing: Watts Driving the Cost of AI Deployment?, Luccioni et al, 2025. Als im März 2025 das neue Bildgenerierungstool von OpenAI freigeschaltet wurde, haben sich innerhalb von 60 Minuten eine Million neue Nutzer:innen angemeldet.5Sam Altman says 1 million people signed up for ChatGPT in just 60 minutes after the company launched its viral image generation feature, C. Morris, Fortune. Man kann sich vorstellen, wie viele Ressourcen dafür benötigt wurden.

NACHHALTIGKEIT DURCH REGIONALE UNTERSCHIEDE

Der CO2-Verbrauch, egal, ob beim Training oder in der Nutzung, hängt natürlich von vielen Faktoren ab und die Werte sind meist nur Momentaufnahmen. Wissenschaft und Technik entwickeln sich ständig weiter, sodass Rechnerkapazitäten immer effizienter genutzt und unnötige Laufzeiten vermieden werden können. Auch der Standort der Rechner oder Server spielt hier eine Rolle. Hier kann man den „Grid Electricity Emission Factor“ heranziehen, der den CO2-Verbrauch pro kWh angibt. Dieser Wert gibt an, wie viel Treibhausgase in einem Stromnetz erzeugt werden und ist abhängig von der Region, Land oder Stadt, da zur Stromerzeugung verschiedene Quellen wie Kohle, Gas, Kernenergie, Wind- oder Solarenergie genutzt werden. Dieser ist beispielsweise in Frankreich (0,05128 kg CO2 pro kWh) deutlich geringer als in Deutschland (0,33866kg CO2 pro kWh).6Carbon Footprint – Country Specific Electricity Grid Greenhouse Gas Emission Factors, carbonfootprint.com, 2022. Der Durchschnittswert für die Vereinigten Staaten von Amerika, wo ein Großteil der entsprechenden Infrastruktur vorhanden ist, liegt bei 0,40334 kg CO2 pro kWh und ist damit mit Deutschland vergleichbar. Diese Werte beziehen sich auf das Jahr 2022 und können in der Zwischenzeit auch niedriger ausfallen. Der Ausbau der erneuerbaren Energien ist zwar in vollem Gange, die Werte sind aber dennoch richtungsweisend. Es ist zu beobachten, dass die Modelle in ihren Parametern immer größer werden. So wächst ChatGPT von GPT3 mit 175B Parametern zu GPT4 mit 1000B Parametern und Llama 3 von 8B zu 70B Parametern. Damit steigt nicht nur die Leistung der Modelle, sondern auch die benötigte Rechenleistung. Je nach Nachhaltigkeitsstrategie der Unternehmen steigt damit auch der Energieverbrauch entsprechend an.

PRAKTIKEN ZUR VERANTWORTUNGSVOLLEN KI

Die Europäische Union hat dies erkannt und möchte diesem Problem mit einer umweltgerechten und nachhaltigen Politik begegnen. In der KI-Verordnung wird die Nachhaltigkeit in Art. 95 Abs. 2b berücksichtigt. So sollen alle KI-Systeme, unabhängig davon, ob sie ein hohes Risiko darstellen oder nicht, das Ziel der ökologischen Nachhaltigkeit erfüllen. KI-Systeme sollen energieeffizient programmiert werden, um KI effizienter zu machen. Das Problem ist jedoch, dass sich dieser Abschnitt unter der freiwilligen Selbstverpflichtung befindet. Die Notwendigkeit, große Sprachmodelle nachhaltiger zu gestalten, ist dementsprechend gering. Inwieweit Betreiber oder Anbieter von KI den ökologischen Aspekt berücksichtigen, bleibt daher fraglich. Betrachtet man die eingesetzten Energieressourcen jedoch auf finanzieller Ebene und zusätzlich unter Berücksichtigung der Daten- und Informationssicherheit, kann dies schon eher ein Anreiz sein. Die „kleinen“ Sprachmodelle verbrauchen nicht nur weniger Energieressourcen, sondern können zum Teil

auch heruntergeladen und auf eigenen Servern nutzbar gemacht werden. Je kleiner das Modell, desto geringer die Serverkosten für den täglichen Betrieb.

„Kleine Sprachmodelle verbrauchen weniger Energieressourcen und sind kostengünstiger“

So kann ein 7B-Modell bereits ab 2 $ pro Stunde auf einem AWS-Server betrieben werden, ein 70B-Modell ab 20 $ pro Stunde. Ein kleineres Modell spart also nicht nur CO2, sondern auch Geld. Für viele Anwendungen reichen diese kleinen Modelle zur Textgenerierung völlig aus. In vielen juristischen Anwendungsszenarien ist das allgemeine Wissen eines Sprachmodells nicht notwendig oder sogar unnötig, da Fachwissen nicht in ausreichendem Maße vorhanden ist. Wenn ein Sprachmodell z.B. eine Zusammenfassung eines Textes wiedergeben oder beim Schreiben einer E-Mail unterstützen soll, reichen kleine Modelle aus. Dies ist nicht nur kostengünstiger, sondern es besteht in der Regel auch die Möglichkeit, diese Modelle lokal zu betreiben und damit die volle Kontrolle über die Verwendung und Speicherung der Daten zu haben.

VERANTWORTUNGSVOLLER ANBIETER UND NUTZER:INNEN

Wenn Sie das nächste Mal aus Spaß einen Text oder ein Bild erstellen, denken Sie auch an die ökologischen Kosten Ihrer Nutzung. Letztlich haben wir es selbst in der Hand, welchen ökologischen Fußabdruck Sprachmodelle hinterlassen. Als Anbieter oder Betreiber von Sprachmodellen können wir wählen, wo die Sprachmodelle eingesetzt werden und wie groß der Grid Electricity Factor ist. Als Nutzer:innen können wir kleine Sprachmodelle auswählen oder solche nutzen, bei denen die Anbieter in Nachhaltigkeitsstrategien investieren. Der Einsatz von Sprachmodellen sollte immer wohlüberlegt sein und man sollte sich immer fragen, ob man das Bild oder den Text wirklich von einer KI generieren lassen muss oder ob man es nur zum „Spaß“ macht. Durch einen verantwortungsvollen Umgang mit KI-Ressourcen können wir dazu beitragen, die Umweltbelastung zu reduzieren und eine nachhaltige Zukunft für KI zu gestalten.

Heft 07/08 | 2025 | 74. Jahrgang

  • 1
    Energy and Policy Considerations for Deep Learning in NLP, Strubell et al., CoRR, 2019 https://arxiv.org/pdf/1906.02243.
  • 2
    Carbon Emissions and Large Neural Network Training, Patterson et al., CoRR, 2021.
  • 3
    Model card von Llama-3.3-70B-Instruct auf HuggingFace Datenbank Stand April 2025.
  • 4
    Power Hungry processing: Watts Driving the Cost of AI Deployment?, Luccioni et al, 2025.
  • 5
    Sam Altman says 1 million people signed up for ChatGPT in just 60 minutes after the company launched its viral image generation feature, C. Morris, Fortune.
  • 6
    Carbon Footprint – Country Specific Electricity Grid Greenhouse Gas Emission Factors, carbonfootprint.com, 2022.