Der Energieverbrauch von großen Sprachmodellen wie ChatGPT ist ein Thema, das immer wieder für Diskussionen sorgt. Während frühere Schätzungen einen enormen Strombedarf nahelegten, deuten neuere Studien auf einen deutlich geringeren Verbrauch hin. Dieser Artikel beleuchtet die Entwicklung der Energieschätzungen und die Faktoren, die den Stromverbrauch von ChatGPT beeinflussen.
Im vergangenen Jahr sorgte eine Analyse des Finanzdienstleisters Bestbrokers für Aufsehen, die den Stromverbrauch einer ChatGPT-Anfrage auf 2,9 Wattstunden bezifferte – im Vergleich zu 0,3 Wattstunden bei einer Google-Suche. Hochgerechnet auf das damalige Suchvolumen entsprach dies einem jährlichen Verbrauch von 227 Millionen Kilowattstunden, genug um kleinere Staaten mit Strom zu versorgen. Diese Zahlen basierten jedoch auf Daten aus dem November 2023, einer Zeit, in der Googles Suchmaschine noch nicht in dem Maße KI-gestützt war wie heute.
Neuere Untersuchungen, beispielsweise des KI-Forschungsinstituts Epoch AI, zeichnen ein anderes Bild. Epoch AI schätzt den Stromverbrauch einer typischen ChatGPT-Anfrage auf lediglich 0,3 Wattstunden, also ein Zehntel der ursprünglichen Schätzung. Dieser Wert entspricht in etwa dem fünfminütigen Betrieb eines handelsüblichen Laptops. Die Diskrepanz zwischen den Schätzungen lässt sich durch verschiedene Faktoren erklären.
Epoch AI führt die deutlich geringeren Verbrauchswerte auf Fortschritte in der Modell- und Hardwareeffizienz zurück. Die stetige Weiterentwicklung der Large Language Models (LLMs) und die Optimierung der zugrundeliegenden Hardware ermöglichen eine effizientere Verarbeitung von Daten. Auch die Anzahl der benötigten Token, also der Datenpakete, die zur Informationsverarbeitung verwendet werden, wurde in früheren Berechnungen vermutlich überschätzt.
Der tatsächliche Energieverbrauch von ChatGPT hängt stark von der Art der Nutzung ab. Während einfache Anfragen mit geringem Input im Bereich von 0,3 Wattstunden liegen, können komplexere Aufgaben mit umfangreichem Datenaustausch deutlich mehr Energie benötigen. Epoch AI nennt als Beispiel komplexere Anfragen, die bis zu 2,5 Wattstunden verbrauchen können. Als theoretisches Maximum gibt das Institut 40 Wattstunden an, was dem doppelten Stromverbrauch eines durchschnittlichen US-Haushalts in einer Minute entspricht. Es ist jedoch wichtig zu betonen, dass dieser Wert ein Extremfall darstellt und im normalen Gebrauch selten erreicht wird.
Die Entwicklung effizienterer Hardware und Algorithmen ist ein kontinuierlicher Prozess. Es ist daher zu erwarten, dass der Energieverbrauch von KI-Modellen wie ChatGPT in Zukunft weiter sinken wird. Gleichzeitig steigt jedoch auch die Nutzung von KI-Anwendungen, was den Gesamtenergiebedarf beeinflussen wird. Die Optimierung des Energieverbrauchs bleibt somit eine zentrale Herausforderung für die Entwicklung und den Einsatz von Künstlicher Intelligenz.
Bibliographie: - https://t3n.de/news/wie-viel-strom-verbraucht-chatgpt-fuer-eine-antwort-1672793/ - https://t3n.de/news/wasser-strom-verbrauch-chatgpt-1647812/ - https://t3n.de/tag/chat-gpt/ - https://www.threads.net/@pdr2002/post/DGI4ZNRomUE - https://www.all-ai.de/news/news24/chatgpt-verbraucht-mehr-strom-als-gedacht-%E2%80%93-oder-doch-nicht - https://t3n.de/tag/kuenstliche-intelligenz/ - https://www.ingenieur.de/technik/fachbereiche/energie/chatgpt-als-energiefresser-wie-der-ki-bot-die-energie-von-31-millionen-elektroautos-verschlingt/ - https://t3n.de/ - https://t3n.de/tag/software-entwicklung/ - https://www.heise.de/news/ChatGPTs-Stromverbrauch-Zehnmal-mehr-als-bei-Google-9852126.html