Neulich im Netz: Ob das die Klimaaktivisten wissen?

von Hansjörg Münster

ChatGPT ist cool. Schnell ist die Frage gestellt: „Erstelle eine Rede zum 30 Geburtstag meines Bruders“. Sekunden später ist es erledigt und das eigene Gehirn wurde geschont. Und dafür hat ChatGPT ca 120 Watt Energie benötigt - nur für die Erstellung der Antwort. Nicht berücksichtigt ist der wesentlich höhere Energieaufwand für das Training der KI.

Mal anschaulich: 120 Watt sind:

  • 1 Stunde 12 Minuten für das Leuchten einer klassischen 100 Watt Glühbirne
  • 2 Stunden 12 Minuten Fernsehen (Samsung Fernseher, angegeben 54 Watt)
  • 0,8 km mit einem sparsamen Elektroauto (15KWh je 100 KM)

Übrigens: Das menschliche Hirn verbraucht für die gleiche Leistung statt 120 Watt nur 20 Watt!

Im Jänner 2023 hatte ChatGPT ca. 100 Millionen solcher Anfragen, was in etwa 80 Millionen Kilometer mit einem Elektroauto bedeuten würde. Das sind etwas mehr als 208 mal die mittlere Entfernung Erde - Mond, oder mehr als die Hälfte des Weges zur Sonne.

Aber die größte Menge an Energie braucht die KI für das permanente Training. Es ist nicht verwunderlich, dass großen Betreiber wie Microsoft und Google keine Zahlen dazu veröffentlichen. So gibt es im Netz nur einige Studien und Schätzungen, die sehr stark ansteigen:

In einem Interview des ORF, mit Forschern der TU-Wien, wird vom siebzehnfachen Jahresstromverbrauch eines Durchschnitts-Amerikaners gesprochen (oder 300 Flüge
New York - San Francisco). Dies aber nur für eines der KI-Module, die für ChatGPT im Cluster zusammen geschalten werden. Wie viele dieser KI-Module ChatGPT benötigt, ist nicht bekannt.

Nach einem Artikel von wired.com (basierend auf Studien in Spanien and UK), hat das Training der GPT-3 Modul 1.287 MWh benötigt. Allerdings wird in einem Artikel von „Golem.de“ (siehe Quellennachweis) der Wert als 1.287 GWh angegeben, was dem Stromverbrauch von 120 amerikanischen Haushalten entsprechen würde.

Im gleichen Artikel wird für Google‘s KI-Aktivitäten geschätzt, dass in 2021 Google 2,3 TWh verbraucht hat, was dem jährlichen Stromverbrauch von Atlanta entsprechen würde.

Die Zahlen sind groß und werden in Zukunft weiterwachsen. Mit der Bekanntmachung, dass Microsoft ChatGPT in deren Suchmaschine Bing integrieren wird, ist das Rennen mit Google um das Suchmaschinen-Business neu eröffnet. Denn eines ist leider immer noch gängige Praxis: Ein paar Tonnen CO2 in der Luft sind weniger wert als der Umsatz, den man mit KI und KI-basierenden Suchmaschinen generieren kann. Und von „grünem Strom“ ist die Menschheit noch sehr weit entfernt. Auch wenn Microsoft inzwischen bekannt gegeben hat, bis 2025 zu 100% auf erneuerbare Energien umzusteigen.

Aber die Probleme sind vielschichtiger: Das Training von ChatGPT verbrauchte 700.000 Liter Wasser zur Kühlung und für einen Chatverlauf mit 20 bis 50 Fragen, wird nochmals ein halber Liter benötigt. Wobei in keinem Artikel erwähnt wird, auf was sich diese Menge bezieht: je KI-Modul, je Monat?

Die „Big Five“ (Microsoft, Google, Apple, Amazon, Facebook) arbeiten ja nicht nur an KI in ihren Rechenzentren. Die ebenfalls boomende Cloud läuft auch nicht ohne Strom. Dazu kommen noch Streaming-Dienste, wie Netflix und energiehungrige Überwachungsdienste totalitärer Staaten.

Teilweise sind die Stromnetze nicht für diese Mengen gerüstet. Irland hat z.B. die Errichtung neuer Rechenzentren von Google und Microsoft abgelehnt, weil man das Blackout Risiko als zu hoch einschätzte.

Zusammenfassend lässt sich sagen, dass die globale IT ein Energiefresser ist und der Energiehunger mit der KI weiter gestiegen ist. Ca. 2% der weltweiten CO2 Emissionen sind der IT geschuldet. Und vielleicht erleben wir bald eine Gruppe von Klimaschützern, die fotogen an den Mauern der Rechenzentren kleben. Und was wäre eine Alternative? Doch wieder mehr selber denken?!

Addendum:

Was meint eigentlich ChatGPT selbst über den eigenen Energikonsum und Möglichkeiten diesen zu reduzieren:

Das Problem des großen Strombedarfs von KI-Systemen ist eine wichtige Herausforderung, die angegangen werden muss, um die Nachhaltigkeit und Umweltverträglichkeit von KI-Technologien sicherzustellen. Hier sind einige Ansätze, die dabei helfen könnten, das Stromverbrauchsproblem von KI zu lösen oder zumindest zu minimieren:

  • Effiziente Hardware-Designs: Die Entwicklung spezialisierter Hardware für KI-Berechnungen, wie zum Beispiel TPUs (Tensor Processing Units) von Google oder GPUs (Graphics Processing Units), die von vielen Unternehmen für Deep Learning verwendet werden, kann die Energieeffizienz verbessern.
  • Quantisierung und Komprimierung: KI-Modelle können quantisiert werden, um die Anzahl der benötigten Präzisionsbits zu reduzieren, was zu geringerem Rechenaufwand und geringerem Energieverbrauch führt. Ebenso können Modelle durch Techniken wie Gewichtskomprimierung und Pruning kleiner gemacht werden.
  • Transferlernen und vortrainierte Modelle: Vortrainierte Modelle wie GPT-3 können als Ausgangspunkt für viele Aufgaben dienen. Feintuning anstatt des Trainings von Grund auf kann Zeit und Energie sparen.
  • Early Stopping und Regularisierung: Während des Trainings können Techniken wie „Early Stopping“ und „Regularisierung“ verwendet werden, um Overfitting zu vermeiden und die Trainingsdauer zu verkürzen.
  • Optimierungsalgorithmen: Die Auswahl von optimierten Algorithmen für das Training von KI-Modellen kann dazu beitragen, den Energieverbrauch zu reduzieren, indem die Konvergenzzeit verkürzt wird.
  • Serverseitige Verarbeitung: Statt auf energieintensiven Endgeräten können rechenintensive Aufgaben auf leistungsstarken Servern oder in der Cloud durchgeführt werden, was den Energieverbrauch auf den Endgeräten reduziert.
  • Energieeffiziente Infrastruktur: Der Einsatz von erneuerbaren Energiequellen, effizienten Kühlungsmechanismen und energieeffizienten Rechenzentren kann den Gesamtenergieverbrauch reduzieren.
  • Forschung in Richtung Energieeffizienz: Die Forschung im Bereich der energieeffizienten KI-Modelle und Algorithmen ist entscheidend, um innovative Lösungen zu entwickeln, die den Energieverbrauch drastisch senken können.
  • Bewusste Modellauswahl: Bei der Auswahl von KI-Modellen für bestimmte Aufgaben ist es wichtig, die Trade-offs zwischen Genauigkeit und Energieverbrauch abzuwägen. Manchmal reicht ein einfacheres Modell mit geringerem Energiebedarf aus.
  • Bildung und Sensibilisierung: KI-Entwickler, Unternehmen und Nutzer sollten sich der Umweltauswirkungen bewusst sein und sich bemühen, energieeffiziente Praktiken zu fördern.

Es ist wichtig anzumerken, dass es nicht immer möglich ist, den Energieverbrauch von KI-Systemen vollständig zu eliminieren, insbesondere bei anspruchsvollen Aufgaben wie Deep Learning. Daher ist eine Kombination mehrerer dieser Ansätze wahrscheinlich am effektivsten, um den Energieverbrauch auf ein akzeptables Maß zu reduzieren.

Autor
SEQIS Autor Hansjörg Münster

Hansjörg Münster

Principal Consultant, Teamlead
IT Analyse, Softwaretest, Projektmanagement

Newsletter

Um neue Beiträge per E-Mail zu erhalten, hier die E-Mail-Adresse eingeben.

Unsere Autoren

Informieren Sie sich über unsere Autoren und erfahren Sie mehr über unsere Spezialisten und ihre Fachbereiche:

Zu den Autoren

Sie haben eine Frage?

Zurück

Zum Seitenanfang navigieren