KI-Modelle werden schneller trainiert
Insgesamt hat der Großrechner Zugriff auf 144 Terabyte an Grafikspeicher. Die Module sind mithilfe von 36 NVLink-Switches miteinander verbunden. Natürlich ist der Supercomputer nicht für normale Unternehmen, sondern für die gigantischen Datenzentren von Internet-Giganten wie Microsoft oder Google konzipiert. Die Rechenleistung liegt bei einem Exaflop, sodass die Dauer des Trainings komplexer neuronaler Netze von Monaten auf Wochen reduziert werden kann.Das gesamte System ist mit einem Gewicht von etwa 20 Tonnen nicht gerade leicht. Im Inneren sollen sich rund 240 Kilometer an Glasfaser-Kabeln finden lassen. Insgesamt besitzt der Supercomputer einen bisektionalen Durchsatz von 128 Terabyte pro Sekunde. Der Nvidia DGX GH200 soll im Laufe des Jahres zur Verfügung stehen.
Zusammenfassung
- Nvidia stellt neuen Supercomputer vor: DGX GH200.
- 256 Module mit 72 CPU-Kernen, GPU, 96 GB HBM3- & 512 GB LPDDR5X-Speicher.
- 144 TB Grafikspeicher, 36 NVLink-Switches, 240 km Glasfaser-Kabel.
- Exaflop-Rechenleistung, 20 Tonnen Gewicht, 128 TB/s bisektionaler Durchsatz.
- Für Internet-Giganten, Reduzierung Trainingszeit für neuronale Netze auf Wochen.