Der Mythos ist widerlegt: Die ChatGPT-Anfrage verbraucht weniger als 1 W/h

ChatGPT ist zu einem festen Bestandteil der Arbeitsabläufe vieler Nutzer geworden, doch mit seiner Popularität sind auch die Bedenken über den hohen Stromverbrauch gewachsen. Eine neue Studie von Epoch AI widerlegt jedoch diese Bedenken.
Was bekannt ist
Der Forscher Joshua Yu hat errechnet, dass eine einzige Frage an ChatGPT (basierend auf GPT-4o) etwa 0,3 W/h verbraucht, was deutlich weniger ist als bisher angenommen. Zum Vergleich: Bisher ging man davon aus, dass jede Chatbot-Anfrage 3 W/h verbraucht, aber diese Berechnung basierte auf veralteten Daten und weniger effizienter Hardware.
Joshua merkt an, dass dieser Stromverbrauch viel niedriger ist als der der meisten Haushaltsgeräte. Darüber hinaus arbeiten Technologieunternehmen aktiv daran, die Energieeffizienz künstlicher Intelligenz zu verbessern. Neue Generationen von KI-Chips werden nicht nur immer leistungsfähiger, sondern verbrauchen auch weniger Energie.
Mit der Weiterentwicklung der KI wird der Stromverbrauch jedoch weiter steigen. Modelle, die sich auf komplexere Aufgaben konzentrieren, werden mehr Rechenleistung benötigen, und künftige KI-Agenten werden in der Lage sein, verschiedene Aufgaben auf menschlichem Niveau auszuführen.
Es wird erwartet, dass künftige KI-Agenten in der Lage sein werden, in verschiedenen Bereichen auf menschlichem Niveau zu arbeiten, was zu einem Anstieg der Zahl der Rechenzentren und folglich auch des Energieverbrauchs führen wird.
"Die KI wird sich weiter entwickeln, und ihre Ausbildung wird immer mehr Ressourcen erfordern. In Zukunft werden diese Systeme sehr viel intensiver arbeiten und komplexere Aufgaben erfüllen als heute", so der Wissenschaftler abschließend.
Quelle: Android Schlagzeilen