X

HGX H200: Nvidia präsentiert sein neuestes Super-GPU-System

Nvidia ist nicht ohne Grund zum wertvollsten Chip-Hersteller der Welt auf­ge­stie­gen. Das wichtigste Produkt, dem dieser Status zu verdanken ist, bekommt jetzt ein Nachfolge-Modell, das noch deutlich stärkere Leistungen bringen soll.
14.11.2023  08:19 Uhr

Schneller HBM3e-Speicher

Das Unternehmen präsentierte jetzt den HGX H200, der den bisher erfolgreich verkauften H100 ersetzen soll. Dabei handelt es sich um ein spezielles GPU-System, das weniger für die Grafikberechnung als die Abarbeitung großer Numbercrunching-Aufgaben gedacht ist. Vor allem die Trainings von KI-Systemen stehen im Fokus. Dafür bringt der H200 im Vergleich zum H100 eine um das 1,4-fache gesteigerte Speicherbandbreite und 1,8 Mal mehr adressierbare Speicherkapazität mit. Die neue GPU ist die erste, die die Speicherspezifikation HBM3e unterstützt. Dadurch steigt die Speicherbandbreite der GPU von 3,35 Terabyte pro Sekunde bei der H100 auf 4,8 Terabyte pro Sekunde und die Gesamtspeicherkapazität von 80 Gigabyte bei der Vorgängerin auf 141 Gigabyte.

Nvidia HGX H200
Nvidia HGX H200

"Die Integration des schnelleren und umfangreicheren HBM-Speichers dient dazu, die Leistung bei rechenintensiven Aufgaben wie generativen KI-Modellen und Supercomputing-Anwendungen zu beschleunigen und gleichzeitig die GPU-Auslastung und -Effizienz zu optimieren", erklärte Ian Buck, Leiter des Bereichs High-Performance-Computing-Produkte bei Nvidia.

Teurer Super-Chip

Der H200 ist dabei mit den Systemen kompatibel, in denen bereits der H100 eingesetzt wurde. Cloud-Anbieter müssten keine Änderungen vornehmen, wenn sie den H200 in ihre Server-Farmen aufnehmen. Die Cloud-Abteilungen von Amazon, Google, Microsoft und Oracle werden zu den ersten gehören, die die neuen GPUs im nächsten Jahr einsetzen werden.

Sobald sie auf den Markt kommen, werden die neuen Chips sicherlich teuer sein - und auch wahrscheinlich, wie schon der Vorgänger, nicht in unbegrenzter Menge erhältlich. Nvidia gibt nicht an, wie viel sie kosten. Für einen H100 musste man aber schätzungsweise 25.000 bis 40.000 Dollar pro Stück auf den Tisch legen, wobei Tausende von ihnen benötigt werden, um auf höchstem Niveau zu arbeiten.

Zusammenfassung
  • Nvidia stellt neuen Chip HGX H200 vor
  • HGX H200 folgt auf erfolgreichen H100
  • Speziell für KI-Training und Numbercrunching
  • 1,4-fache Speicherbandbreite, 1,8-fache Speicherkapazität des H100
  • Erste GPU mit HBM3e-Speicher
  • Kompatibel mit bestehenden H100-Systemen
  • Einsatz bei großen Cloud-Anbietern geplant
Verwandte Themen
Nvidia
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture