KI-Modelle werden immer größer, benötigen regelmäßiges Training
Trotz dieser Daten ist es nach Meinung von Experten wie den Mitarbeitern von Hugging Face noch immer extrem schwer, den Energiebedarf von KI-Systemen einzuschätzen. So beziehen sich die Angaben lediglich auf das Training einzelner Modelle, nicht aber auf deren aktiven Betrieb in der öffentlichen Nutzung. Problematisch ist dabei auch, dass die KI-Modelle immer größer werden. So wurden für GPT-3 175 Milliarden Parameter verwendet, während der Vorgänger nur 1,5 Milliarden Parameter zum Training verarbeitete.Ein weiterer Faktor ist, dass die KI-Modelle immer wieder neu "trainiert", also mit aktuellen Daten gefüttert werden müssen. Auch dadurch entstehen wieder Emissionen in großer Menge. Noch halten sich die verfügbaren Angaben auch in diesem Bereich stark in Grenzen.
Die Experten fordern deshalb deutlich mehr Transparenz, was die durch KI-Systeme entstehenden Emissionen, damit die Nutzer, seien es Unternehmen, Bildungseinrichtungen oder auch private User auch anhand dieser Informationen entscheiden können, welche Systeme oder Konzepte sie verwenden wollen.
Offen ist, ob wir tatsächlich zeitnah entsprechende Auskünfte erhalten, da Firmen wie Microsoft die KI-Modelle auf ihren Cloud-Servern laufen lassen. Die Redmonder erklärten deshalb auch, dass man zusammen mit OpenAI stetig daran arbeite, die Energieeffizienz der Rechenzentren zu steigern. Gleichzeitig halte man an dem Ziel fest, bis 2030 alle Rechenzentren kohlenstoffneutral oder gar -negativ zu betreiben. Genaue Angaben zum Energiebedarf der KI-Systeme nannte Microsoft natürlich nicht.
Zusammenfassung
- Training eines KI-Modells verbraucht so viel Energie wie 120 Haushalte in USA.
- GPT-3 benötigte rund 1287 GWh & emittierte 502 t Kohlenstoffemissionen.
- KI-Systeme werden immer größer, müssen immer wieder trainiert werden.
- Microsoft will Rechenzentren bis 2030 kohlenstoffneutral betreiben.
- Experten fordern konkrete Auskünfte zum Energiebedarf der KI-Systeme.