KI verbraucht bald mehr Strom als Bitcoin/AI will soon use more electricity than Bitcoin
Bisher waren es vor allem die Krypto-Miner, die für die Erzeugung neuer Bitcoins und anderer Kryptowährungen enorme Rechenleistung und damit auch Strom verbrauchten. Doch inzwischen läuft ihnen eine andere Technologie den Rang ab: die künstliche Intelligenz.
„Angesichts des Booms der KI wächst die Sorge, dass die Rechen-Ressourcen für die Entwicklung und den Betrieb der KI-Modelle einen großen Schub im Beitrag der Rechenzentren zum globalen Stromverbrauch auslösen“, erklärt Alex de Vries von der Freien Universität Amsterdam.
„Allein um ChatGPT am Laufen zu halten, benötigt OpenAI nach Daten des Forschungsunternehmens SemiAnalysis 3.617 HGX A100-Server von NVIDIA mit insgesamt 28.936 Grafikprozessor-Einheiten“, berichtet de Vries. „Daraus ergibt sich ein Energiebedarf von 564 Megawattstunden pro Tag.“ Für das Training des Sprachmodells GPT-3 waren im Vergleich dazu insgesamt „nur“ rund 1.287 Megawattstunden nötig.
Konkret bedeutet dies: Schon jetzt verbraucht jede einzelne Anfrage bei einem generativen KI-System je nach Schätzung zwischen drei und knapp neun Wattstunden Strom, wie de Vries berichtet. Doch allein ChatGPT hatte in den letzten Monaten mehr als 195 Millionen Anfragen pro Tag – Tendenz weiter steigend.
„Angesichts des Booms der KI wächst die Sorge, dass die Rechen-Ressourcen für die Entwicklung und den Betrieb der KI-Modelle einen großen Schub im Beitrag der Rechenzentren zum globalen Stromverbrauch auslösen“, erklärt Alex de Vries von der Freien Universität Amsterdam. Während bisher meist der Stromverbrauch in der Trainingsphase der künstlichen Intelligenzen im Fokus stand, hat er näher untersucht, wie viel Elektrizität der laufende Betrieb der KI-Systeme erfordert.
„Allein um ChatGPT am Laufen zu halten, benötigt OpenAI nach Daten des Forschungsunternehmens SemiAnalysis 3.617 HGX A100-Server von NVIDIA mit insgesamt 28.936 Grafikprozessor-Einheiten“, berichtet de Vries. „Daraus ergibt sich ein Energiebedarf von 564 Megawattstunden pro Tag.“ Für das Training des Sprachmodells GPT-3 waren im Vergleich dazu insgesamt „nur“ rund 1.287 Megawattstunden nötig.
Drei bis neun Wattstunden Strom pro Anfrage
Konkret bedeutet dies: Schon jetzt verbraucht jede einzelne Anfrage bei einem generativen KI-System je nach Schätzung zwischen drei und knapp neun Wattstunden Strom, wie de Vries berichtet. Doch allein ChatGPT hatte in den letzten Monaten mehr als 195 Millionen Anfragen pro Tag – Tendenz weiter steigend. „Angesichts der steigenden Nachfrage nach KI-gestützten Diensten ist es sehr wahrscheinlich, dass der Energieverbrauch durch künstliche Intelligenz in den nächsten Jahren signifikant zunehmen wird“, so der Forscher.
Der Hauptlieferant für leistungsstarke Chips, das taiwanesische Unternehmen TSMC, baue zwar bereits eine weitere Fabrik, diese werde jedoch nicht vor 2027 fertiggestellt sein.
Ab dann könnte jedoch allein TSMC 1,5 Millionen neue KI-Servereinheiten pro Jahr liefern. Dazu kommen Grafikprozessoren aus dem Krypto-Mining, die nun für die KI umgerüstet werden. Aktuellen Schätzungen zufolge könnte der Einsatz der künstlichen Intelligenz im Jahr 2027 so stark zugenommen haben, dass die weltweiten KI-Rechenzentren zusammen zwischen 85 und 134 Terawattstunden Strom pro Jahr verbrauchen
Ich zitierte aus folgendem Artikel...
https://www.scinexx.de/news/technik/wie-viel-strom-braucht-der-ki-boom/
Mein persönliches Fazit:
Ich glaube nicht, dass der Stromverbrauch einer Technologie ein Innovationshindernis sein sollte. Entscheidend ist, wie der Strom erzeugt wird. Wahrscheinlich ist jede Technologie zur Stromerzeugung problematisch. Windräder töten Vögel und behindern die Luftzirkulation. Wasserkraftwerke produzieren durch die Zersetzung von Biomaterial Metangas und können Erdbeben auslösen. Und ja, Solaranlagen sind nach 40 Jahren Sondermüll.
Es ist wichtig zu erkennen, dass man Technologie sinnvoll nutzen und nicht für Kriege verschwenden sollte.
Vielleicht sollte Greenpeace mal darüber nachdenken und ihrem Namen alle Ehre machen?
English
Until now, it was primarily crypto miners who used enormous computing power and therefore electricity to generate new Bitcoins and other cryptocurrencies. But now another technology is overtaking them: artificial intelligence.
“As AI booms, there is growing concern that the computing resources needed to develop and operate AI models will trigger a major boost in data centers’ contribution to global electricity consumption,” explains Alex de Vries from the Free University of Amsterdam.
“Just to keep ChatGPT running, OpenAI requires 3,617 HGX A100 servers from NVIDIA with a total of 28,936 graphics processing units, according to data from research company SemiAnalysis,” reports de Vries. “This results in an energy requirement of 564 megawatt hours per day.” In comparison, a total of “only” around 1,287 megawatt hours were required to train the GPT-3 language model.
In concrete terms, this means that every single request in a generative AI system already consumes between three and almost nine watt hours of electricity, depending on estimates, as de Vries reports. But ChatGPT alone has had more than 195 million requests per day in the last few months - and the trend continues to rise.
“As AI booms, there is growing concern that the computing resources needed to develop and operate AI models will trigger a major boost in data centers’ contribution to global electricity consumption,” explains Alex de Vries from the Free University of Amsterdam. While the focus has so far been on electricity consumption in the training phase of artificial intelligence, he has examined in more detail how much electricity the ongoing operation of the AI systems requires.
“Just to keep ChatGPT running, OpenAI requires 3,617 HGX A100 servers from NVIDIA with a total of 28,936 graphics processing units, according to data from research company SemiAnalysis,” reports de Vries. “This results in an energy requirement of 564 megawatt hours per day.” In comparison, a total of “only” around 1,287 megawatt hours were required to train the GPT-3 language model.
Three to nine watt hours of electricity per request
In concrete terms, this means that every single request in a generative AI system already consumes between three and almost nine watt hours of electricity, depending on estimates, as de Vries reports. But ChatGPT alone has had more than 195 million requests per day in the last few months - and the trend continues to rise. “Given the increasing demand for AI-supported services, it is very likely that energy consumption due to artificial intelligence will increase significantly in the next few years,” said the researcher.
The main supplier of high-performance chips, the Taiwanese company TSMC, is already building another factory, but it will not be completed before 2027.
From then on, however, TSMC alone could deliver 1.5 million new AI server units per year. There are also graphics processors from crypto mining, which are now being converted for AI. According to current estimates, by 2027 the use of artificial intelligence may have increased so much that the world's AI data centers will collectively consume between 85 and 134 terawatt hours of electricity per year
I quoted from the following article...
https://www.scinexx.de/news/technik/wie-viel-strom-bedarf-der-ki-boom/
My personal conclusion:
I don't believe that a technology's power consumption should be a barrier to innovation. What matters is how the electricity is generated. Any electricity generation technology is likely to be problematic. Wind turbines kill birds and restrict air circulation. Hydroelectric power plants produce methane gas through the decomposition of biomaterial and can trigger earthquakes. And yes, solar systems are hazardous waste after 40 years.
It is important to realize that technology should be used wisely and not wasted on wars.
Maybe Greenpeace should think about it and live up to its name?
Upvoted! Thank you for supporting witness @jswit.