ChatGPT-Boom kann zur nächsten Grafikkarten-Verknappung führen

Christian Kahle, 07.03.2023 08:29 Uhr 23 Kommentare
Die Gamer-Szene hat den Grafikkarten-Schock, der vom Kryptowährungs-Boom ausgelöst wurde, gerade erst überwunden, da steht das nächste Problem vor der Tür. Auch der KI-Dienst ChatGPT dürfte aufgrund seines enormen Erfolges sehr viele GPUs zusätzlich benötigen. Im Januar dieses Jahres hatte das Tool Berichten zufolge bereits 100 Millionen monatliche Nutzer. Nun setzt auch noch Microsoft auf die Technologie und integriert sie in verschiedene Dienste. Das macht es letztlich erforderlich, die hohe Nachfrage auch mit immer leistungsfähigerer Hardware zu unterfüttern. Der Betreiber OpenAI wird hier nach Einschätzung des Marktforschungsinstituts TrendForce um die 300 Millionen Dollar investieren müssen.

Diese fließen dann im Wesentlichen direkt an Nvidia, denn benötigt werden vor allem die GPUs des Herstellers, mit denen sich der hohe Bedarf an Rechenleistung bewältigen lässt. TrendForce geht hier von rund 30.000 A100-GPU-Modulen aus, die jeweils deutlich über 10.000 Dollar kosten, allerdings bei entsprechenden Bestellmengen sicherlich mit einem gewissen Rabatt verkauft werden, sodass die Marktforscher hier von den genannten rund 300 Millionen Dollar ausgehen.

Hoffen auf Azure

Die Gamer konkurrieren zwar nicht direkt mit den Käufern von A100-Modulen. Doch dürfte sich ein so hoher Nachfrage-Peak durchaus auswirken. Denn eine solche Bestellung würde Fertigungs-Kapazitäten bei Nvidia binden und auch die noch immer knappen sekundären Komponenten, die auf allen Grafikkarten zum Einsatz kommen, in Anspruch nehmen.

Wenn Nvidia der Platzierung von Komponenten in Grafikkarten, die für ChatGPT gedacht sind, Priorität einräumt, könnte dies die Verfügbarkeit anderer GPUs beeinträchtigen, so die Marktforscher. Und auch wenn es nicht zu Lieferengpässen kommt, wäre doch eine Wirkung auf die Preise wahrscheinlich. Die Partnerschaft mit Microsoft eröffnet aber auch die Möglichkeit, dass ein guter Teil der ChatGPT-Berechnungen in die Azure-Cloud verlagert wird - das dürfte den Bedarf an Hardware zumindest strecken.

Zusammenfassung
  • Nvidia benötigt für hohe Nachfrage leistungsfähigere Hardware
  • OpenAI investiert 300 Mio. Dollar in A100-GPU-Module
  • Gamer konkurrieren nicht direkt, aber Nachfrage-Peak wirkt sich aus
  • Fertigungs-Kapazitäten und Komponenten knapp, Preise steigen
  • Microsoft-Partnerschaft ermöglicht Cloud-Verlagerung

Siehe auch:
23 Kommentare lesen & antworten
Folge WinFuture auf Google News
Verwandte Themen
OpenAI Nvidia
Desktop-Version anzeigen
Hoch © 2023 WinFuture Impressum Datenschutz Cookies