Auf einem Tisch liegt ein halb zugeklappter Laptop, auf dem Bildschirm ist gerade noch der Google-Startbildschirm sichtbar, gleichzeitig spiegelt sich die Tastatur darin. Hinten ist eine Wand im rustikalen Holz-Look.
Die Menschheit wird immer schlauer oder vielleicht auch nicht. Fragen wir doch mal die KI unseres Vertrauens. (Bild: Kenny Eliason/​Unsplash)

Googelst du noch oder geminist du schon? Die Frage ist unsinnig. Natürlich ist längst auch die weltweit mit Abstand dominierende Internet-Suchmaschine auf den Zug aufgesprungen, ihren Nutzern die Online-Welt vermittels künstlicher Intelligenz mundfertig zu servieren.

Nicht wenige geben sich inzwischen damit zufrieden, die KI-generierte Zusammenfassung zu ihrer Anfrage zu lesen. Sich die Informationen durch eigene Lektüre der angebotenen Internetseiten zusammenzusuchen, erscheint zu mühsam. Wo die Technik das doch schon getan hat – auch wenn das Ergebnis oft an den Haaren herbeigezogen ist.

Warnungen, die Nutzung von KI-Software wie Chat GPT, Gemini und Perplexity AI lasse den Energiebedarf wegen der dafür nötigen Rechenoperationen eskalieren, versuchen die Tech-Unternehmen zu entkräften.

Der Chat-GPT-Erfinder Open AI ließ in diesem Jahr wissen, eine durchschnittliche KI-Anfrage verbrauche mit 0,34 Wattstunden nur noch so viel Strom wie gut eine Sekunde Backofen-Betrieb.

Und Google teilte mit, eine Textanfrage über seinen KI-Chatbot Gemini sei vergleichbar mit dem Energieaufwand für knapp neun Sekunden Fernsehen. Die Rechenzentren würden eben immer effizienter.

Rebound-Effekt und graue Energie

Also alles halb so wild?

Auch wenn die einzelne Anfrage tatsächlich immer weniger Strom verbraucht, sorgen ihre schiere Masse und die neuen Möglichkeiten von aufwändiger Text-, Bild- und Video-Generierung für einen sprunghaften Anstieg der nötigen Rechenleistung und damit des Energieverbrauchs.

Grund ist der sogenannte Rebound-Effekt. Zudem fehlt in den Verbrauchsangaben meist der Aufwand für das Training der KI-Modelle mit riesigen Datenmengen, sozusagen die "graue Energie" der neuen Branche. Beide Phänomene sind nach ein paar Jahren öffentlicher Debatte heute wieder eher ein Thema für Fachleute.

Joachim Wille ist Co-Chefredakteur des Online-Magazins Klimareporter°.

Kein Wunder also, dass der Siegeszug der KI-Anwendungen – die über Chat GPT und Co weit hinausreichen – mehr Rechenzentren, Kraftwerke und Netzkapazitäten erfordert. Zurückdrehen lässt sich das nicht, allenfalls in den Folgen abmildern durch möglichst viel Effizienz und Ökostrom. 

Dass Google jetzt angekündigt hat, seine in Deutschland geplanten, milliardenschweren neuen Rechenkapazitäten in der Region Frankfurt am Main für Cloud- und KI-Dienste schon 2026 mit mindestens 85 Prozent Wind- und Solarstrom zu betreiben, ist da ein gutes Signal.

Freilich, es muss künftig mehr darauf geachtet werden, neue Kapazitäten stärker auch in Regionen anzusiedeln, in denen viel Ökostrom produziert wird. Also etwa in Norddeutschland mit seinen vielen Windkraftwerken, wie es die Deutsche Energieagentur vorgeschlagen hat.

Das mildert den Druck auf den Netzausbau und die infrastrukturmäßig ohnehin hochbelastete Rhein-Main-Region. Gemini das mal!