
Infografik Künstliche Intelligenz: KI, eine Gefahr für die öffentliche Ordnung?
Interessantes Kostenmodell
"Die Schätzung der ChatGPT-Kosten ist aufgrund mehrerer unbekannter Variablen ein schwieriges Unterfangen. Wir haben ein Kostenmodell erstellt, aus dem hervorgeht, dass der Betrieb von ChatGPT 694.444 Dollar pro Tag an Kosten für die Rechenhardware kostet. OpenAI benötigt ~3.617 HGX A100 Server (28.936 GPUs), um ChatGPT zu betreiben", schreibt SemiAnalysis in einem Blogbeitrag.Nimmt man diese Schätzung zugrunde, müsste man mit mehr als 255 Millionen Dollar Betriebskosten pro Jahr rechnen, wenn alle Faktoren so blieben, wie sie aktuell sind. Microsoft soll aber bereits daran arbeiten, mit eigener Hardware die Betriebskosten von ChatGPT runterzubekommen. Die Rede ist dabei von neuen Prozessoren, die energieeffizienter arbeiten. Dazu kommt, dass ChatGPT zu den am schnellsten wachsenden Technologien derzeit gehört. Im Januar, also gerade einmal zwei Monate nach ihrem frei zugänglichen Start, waren bereits über 100 Millionen aktive Nutzer gezählten worden.
Zusammenfassung
- Experten diskutierten schon Anfang Jahr über hohen Stromverbrauch von KI-Diensten wie ChatGPT.
- SemiAnalysis schätzte Kosten für Betrieb von ChatGPT auf 700.000 $ pro Tag.
- Der größte Teil der Kosten entfällt auf Hardware-Infrastruktur.
- Microsoft arbeitet an energieeffizienterer Hardware für ChatGPT.
- ChatGPT gehört zu den am schnellsten wachsenden Technologien.
- Im Januar waren schon über 100 Mio. aktive Nutzer gezählt.
- Kosten pro Jahr: 255 Mio. Dollar.