Mittlerweile ist der Einsatz von Künstlicher Intelligenz (KI) nichts großartig Neues mehr. Sie kommt überall zum Einsatz: E-Mails werden damit geschrieben, Suchanfragen im Internet zusammengefasst, Fotos bearbeitet. Die KI entwickelt sich stetig weiter – und wird immer mehr Bestandteil unseres Alltags. Neben vielen Fragen der Ethik (Verlassen wir uns zu sehr darauf?), des soziologischen Wandels (Wie verändert sich der Arbeitsmarkt dadurch?) und vielen weiteren Fragestellungen bleibt der Aspekt der Energiemenge, die für die Bereitstellung von KI nötig ist, in der Debatte oft unterrepräsentiert.
Was ist KI?
Künstliche Intelligenz ist – dem europäischen Parlament zufolge – die „Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren“. Wesentlich ist auch die Unterscheidung zwischen einer starken und einer schwachen KI – auch, um einige Science-Fiction-Gedanken gleich im Keim zu ersticken: Eine schwache KI zeichnet sich da- durch aus, einen bestimmten Verwendungszweck zu haben und mit genau definierten Methodiken zu arbeiten. Einfacher gesagt: Sie besitzt keine Kreativität und keine expliziten Fähigkeiten selbstständig im universellen Sinne zu lernen. Eine starke KI hätte im Vergleich die Fähigkeit, Wissen zu verstehen, zu lernen und auf eine Vielzahl von Aufgaben anzuwenden, und zwar auf einem Niveau, das der menschlichen Intelligenz entspricht oder diese sogar übertrifft. Nach dem jetzigen Stand der Wissenschaft ist ein solches Modell in absehbarer Zeit nicht realisierbar. Starke Künstliche Intelligenzen wie Skynet (die KI aus dem Terminator-Filmen, die sich gegen die Menschheit wendet) sind also – wenn sie überhaupt jemals existieren werden – noch sehr weit entfernt.
Wie viel Strom verbraucht eine Suchanfrage?
Jeder Rechenvorgang eines Computers – und nichts anderes ist eine Anfrage an eine KI – benötigt Energie. Bei der Ermittlung des Strombedarfs gibt es jedoch einige Hürden.
Bevor es losgeht
Ein KI-Modell entsteht nicht aus dem Nichts: Bevor man Chat-GPT also fragen kann, warum Wasser nass ist, muss das Modell erst trainiert werden. Das geschieht, indem eine Unmenge an Daten in das System geladen wird, anhand derer die KI lernt, Antworten zu geben. Das bis Mitte August 2025 für Chat-GPT verwendete Modell GPT-4 der Firma OpenAI benötigte für das Training Schätzungen zufolge 50 Gigawattstunden an Energie – genug, um ganz Wien für knapp 2 Tage zu versorgen.
Wo werden Daten verarbeitet?
Das Training – und in weiterer Folge die Beantwortung der Anfragen an eine KI – werden in Rechenzentren getätigt. Diese sind global im Einsatz, was zu zwei zentralen Aspekten führt, die bei der Abschätzung des Strombedarfs sowie in weiterer Folge der Umweltauswirkungen relevant sind: Zum einen die Vielzahl an unterschiedlichen Rechenzentren, und zum anderen die Tatsache, dass sie weltweit verstreut sind – und dadurch von unterschiedlichsten Energiemixen gespeist werden.
Wird eine Anfrage an eine KI geschickt, ist meist unklar, welchen Weg sie im Gewirr der vielen Server und Rechenzentren geht. Bei fast jedem Austausch zwischen unterschiedlichen Standorten geht durch unvollkommene Isoliermaterialien und lange Kabel zwischen den Servern etwas Energie verloren. Darüber hinaus macht es einen wesentlichen Unterschied, ob die Anfrage etwa auf einem Server in Europa oder den USA verarbeitet wird: Je nachdem kann es sein, dass der Strom beispielsweise aus einem Wasserkraftwerk oder Gaskraftwerk stammt, was einen großen Unterschied hinsichtlich der Umwelt(un)freundlichkeit macht.
Um welches Modell handelt es sich?
Es gibt eine ganze Reihe verschiedener KI-Modelle. Neben den GPT-Modellen von OpenAI, haben anderen Anbieter wie beispielsweise Claude, Mistral, Llama oder Grok eigene Modelle, die sich in Training und teils auch im Anwendungszweck unterscheiden. Grundsätzlich gilt: Auf je mehr Datenpunkte das Modell zugreifen kann, desto energieintensiver ist es. Ein etwas älteres KI-Modell von Meta (der Firma hinter Facebook, Instagram & Co), Llama 3.1 8B hat 8 Milliarden Parameter, die dem System zugrunde liegen. Bei einer Anfrage, die einen Text produziert, benötigt das Modell – wenn man auch Aspekte wie die Kühlung, weitere Berechnungen etc. miteinbezieht – durch- schnittlich 114 Joule Energie, etwa 0,0316 Wattstunden. Das größte Modell von Meta, Llama 3.1 405B, hat etwa 50- Mal so viele Parameter, die für eine Beantwortung zurate gezogen werden können. Das Ergebnis? Es werden etwa 6.706 Joule pro Anfrage benötigt – etwa 1,8 Wh. Darüber hinaus liegt es aber nicht nur an der Anzahl an Daten- punkten, sondern auch daran, wie effizient die KI arbeitet – vereinfach ausgedrückt, wie „intelligent“ programmiert wurde. Auch das ist von Modell zu Modell unterschiedlich.
Was wird gefragt?
Wie viel Strom eine Anfrage benötigt, wurde bereits ab- geschätzt: 1,8 Wh. Doch ganz so einfach ist es dann doch nicht. Je nachdem wie komplex die Anfrage ist, ist der Energiebedarf auch ein anderer. Die 1,8 Wh wurde auf Basis von eher komplexen Anfragen ermittelt, etwa der Erstellung eines Reiseplans für Istanbul oder eine Frage zur Quantenmechanik. Einfachere Anfragen benötigen entsprechend weniger Energie. KI kann aber nicht nur Antworten auf Basis von Text geben, sondern auch Bilder und Videos erstellen. Hier sieht die Bilanz etwas anders aus: Die Erstellung eines Bildes von der Größe 1024 x 1024 Pixel benötigt bis zu 4.402 Joule, also 1,2 Wh und liegt damit etwas unter einer sehr komplizierten Text-Antwort. Ganz anders sieht das aber bei Videos aus. Das neueste Modell der Open-Source KI CogVideoX benötigt für ein Video, das 5 Sekunden lang ist, 3,4 Millionen Joule, also 944 Wattstunden – beinahe eine ganze Kilowattstunde.
Wie viel wird gefragt?
In den seltensten Fällen bleibt es bei einer einzelnen Anfrage. Nutzt man künstliche Intelligenz, so tut man das meist regelmäßig und wenn, dann mit mehreren Anfragen hintereinander, etwa, weil man mit dem Output nicht zufrieden ist und präzisere Nachfragen stellt. Folgendes Szenario: Man bereitet ein Event vor, bei dem man die Tore des eigenen Kleinwasserkraftwerks öffnet und Interessierte das Kraftwerk besichtigen können. Dazu erstellt man drei verschiedene Texte sowie einen Flyer – alles mit Hilfe von KI. Für jeden Text und den Flyer benötigt man jeweils 5 Prompts (=Anfragen), um zum gewünschten Ergebnis zu gelangen. Insgesamt würden sich diese Anfragen auf etwa 1,8*15 + 1,2*5 = 33 Wattstunden belaufen.
Ein kleines und ein großes Rechenbeispiel
Das durchschnittliche Kleinwasserkraftwerk hat eine Leistung von etwa 320 kW und ein Regelarbeitsvermögen von 1,5 Millionen kWh. Um die 33 Wattstunden der oben angeführten beispielhaften Nutzung bereitzustellen, benötigt ein Kleinwasserkraftwerk etwa 0,00019272 Stunden; Anders gesagt also 0,7 Sekunden oder – vereinfacht gesprochen: So gut wie nichts. Nach diesem kleinen Rechenbeispiel könnte man sich fragen, ob der Titel „Stromhunger der KI“ nicht etwas zu weit hergeholt ist. Leider nein. Erst kürzlich wurde bekannt, dass ChatGPT mittlerweile 2,5 Milliarden Anfragen pro Tag (!) verarbeitet. Das KI-Forschungsinstitut EpochAI schätzt – anders als die Berechnungen zum Modell Llama – dass eine einfache Text-Anfrage an ChatGPT etwa 0,3 Wattstunden benötigt. Pro Tag sind das also 750.000.000 Wh (oder auch 0,75 GWh) und pro Jahr 273.750.000.000 Wh (bzw. 273,75 GWh). Und die Kleinwasserkraft? Die leistet beständig und umweltfreundlich Strom. Um den Strombedarf für einen einzigen Tag zu decken, wäre ein Kraftwerk ein halbes Jahr lang beschäftigt. Für das ganze Jahr bräuchte es dann 182,5 (!) Kraftwerke. Nur für Text-Anfragen. Nur an Chat-GPT – eines einzigen KI-Modells von vielen.
Wie viel Energie verbraucht künstliche Intelligenz insgesamt?
Datenzentren in den USA haben einen geschätzten Stromverbrauch von 200 Terawattstunden. Mittlerweile sollen davon 53 – 76 Terawattstunden (TWh) für alle möglichen Arten von KI-Anwendungen genutzt werden, von den bereits angesprochenen KI-Anwendungen bis hin zur Software für selbstfahrende Autos. Anhand dieser Schätzung sieht man vor allem eines: Die Nutzung von Chat-GPT ist nur die Spitze des Eisbergs. Dabei darf auch eines nicht vergessen werden: Wir stehen bei der Nutzung von künstlicher Intelligenz ziemlich sicher erst am Anfang. Forscher*innen des US Department of Energy schätzen, dass die für Datenzentren genutzte Strommenge in den USA bis 2028 auf 165–326 TWh pro Jahr steigen wird, ein Großteil davon soll auf den Betrieb von KI entfallen.
Verstreute Rechenzentren
Es werden also enorme Mengen an Energie benötigt. Unser Energiemix ist – von einigen unschönen Importen und Gaskraftwerken abgesehen – doch sauber, also kann man eigentlich ein gutes Gewissen haben. Eigentlich? Eigentlich nicht. Rechenzentren gibt es weltweit. In welchen Rechenzentren die Anfragen der verschiedenen KI´s verarbeitet werden, ist so gut wie unmöglich nachzuvollziehen. Die meisten Firmen, die KI´s betreiben, kommen aus den USA. Daher liegt nahe, dass auch ein Großteil der Server dort stehen. Der dortige Strommix ist vor allem von Gas, Kohle und Atomkraft geprägt – auf Erneuerbare entfallen gerade einmal knapp 10% – und unterscheidet sich damit deutlich unserem. Sauber sieht anders aus.
Die Zukunft der Rechenzentren
Mit der steigenden Nutzung von KI wird auch mehr Rechenleistung benötigt. Im Juli 2025 kündigte der Gründer von Facebook, Mark Zuckerberg, an, Rechenzentren zu bauen, um die Konkurrenz in Sachen KI abhängen zu können. Prometheus und Hyperion sollen die geplanten Zentren heißen, die die größten ihrer Art werden sollen – mit entsprechendem Energieverbrauch. Um diese Menge an Strom für bestehende und geplante Zentren bereitstellen zu können, hat sich Meta erst kürzlich einen Versorgungsvertrag gesichert – von einem alten Atomkraftwerk, das eigentlich hätte abgeschalten werden sollen und durch diesen Schritt nun weiter bestehen wird. Doch nicht nur in den USA sind Rechenzentren Thema: Das IT-Unternehmen Microsoft hat erst vor Kurzem drei Standorte in Österreich – Schwechat, Vösendorf und bei Mödling – eröffnet, in denen auch Rechenprozesse für KI ablaufen. Der Energiebedarf für diese Zentren soll durch die Wasserkraft gedeckt werden. Medienberichten zufolge hat auch Google im August Pläne für den Bau eines Rechenzentrums im Bezirk Linz-Land eingereicht. Ein Ende des steigenden Bedarfs an Rechenleistung – insbesondere für KI, aber auch für andere Anwendungen – ist nicht in Sicht.
Wie gehen wir damit um?
Fragt man ChatGPT nach einer Lösung für den steigenden Strombedarf von KI, bekommt man Folgendes als Antwort: „Um den Energieverbrauch Künstlicher Intelligenz zu senken, werden effizientere Modelle und Algorithmen entwickelt, die mit weniger Rechenleistung auskommen. Zusätzlich setzen Unternehmen auf spezialisierte Hardware wie energieeffiziente Chips. Ein weiterer wichtiger Schritt ist die Nutzung erneuerbarer Energien und die Verlagerung von Rechenzentren in Regionen mit nachhaltiger Energieversorgung.“ Die Nutzung erneuerbarer Energie. Super Idee! In Amerika, wo der Spruch „Drill, baby, drill!“ Hochsaison hat? In Österreich, wo Behörden Betreiber*innen Steine in den Weg legen, die Regierung durch neue Gesetze in bestehende Kalkulationen eingreift und Volksbefragungen gegen Windräder stattfinden? Notwendig ist ein klares Bekenntnis zum Ausbau der Erneuerbaren weltweit – unter regulatorischen Voraussetzungen, die diesen Ausbau auch unbürokratisch und schnell erfolgen lassen.