X

Microsoft macht Nvidia Konkurrenz: KI-Prozessor Maia 100 startet 2024

Microsoft hat anlässlich der Ignite-Konferenz 2023 soeben erstmals zwei eigene Prozessoren vorgestellt, die man als Custom-Chips und integrier­te Systeme bezeichnet. Mit dem Microsoft Azure Maia AI Accelerator will Cloud-Aufgaben in seinen Rechenzentren erledigen lassen.
Microsoft
15.11.2023  17:00 Uhr

Erste Microsoft-eigener KI-Chip mit OpenAI entwickelt

Der Microsoft Azure Maia 100 AI Accelerator ist nach Angaben des Softwarekonzerns in Kooperation mit dem KI-Spezialisten OpenAI entwickelt worden. Der Chip soll wie zigtausende KI-Chips der Nvidia A100- und H100-Serien in Rechenzentren zur Verarbeitung von Aufgaben aus dem Bereich der Künstlichen Intelligenz verwendet werden. Microsoft kann auf diesem Weg seine Abhängigkeit von Nvidia etwas reduzieren. Der Maia 100 soll speziell auf die von OpenAI und Microsoft entwickelten Large Language Models (LLMs) abgestimmt sein, wobei die Optimierung "bis auf die Silizium-Ebene" hinunterreichen soll. Angeblich kann man so leistungsfähigere LLMs trainieren und diese den Kunden zu günstigeren Konditionen anbieten. Zusätzlich hat man den Azure Cobalt 100 als erste eigene ARM-CPU präsentiert.

Riesen-Chip mit 105 Milliarden Transistoren

Durch die Anpassung an Microsofts Bedürfnisse sollen sich große Vorteile in Bezug auf Performance und Effizienz erzielen lassen, heißt es von dem Unternehmen. Mit konkreten technischen Details hält sich Microsoft bezüglich des Maia 100 noch stark zurück, verspricht aber, dass der Chip mit 105 Milliarden Transistoren einer der größten Chips sein soll, die derzeit im 5-Nanometer-Maßstab gefertigt werden.

Letzteres Detail lässt vermuten, dass man den taiwanischen Vertragsfertiger TSMC mit der Produktion des Chips beauftragt hat, der auch die Prozessoren von anderen Anbietern wie Apple, Nvidia, AMD, Qualcomm & Co herstellt.

Microsoft Azure Maia 100 AI Accelerator
Keine Häppchen: 'Cold Plates' sollen Hitze effektiv abführen helfen

Kühlung mit Cold Plates und Sidekicks

Um die neuen KI-Chips zu kühlen, setzt Microsoft auf sogenannte "Cold Plates", die direkt auf den Chips angebracht sind und von einer Kühlflüssigkeit durchströmt werden. Das Kühlsystem basiert auf sogenannten Sidekicks, die neben jedem Rack aus Maia 100-Chips platziert werden.

Über diese Radiatoren wird die Hitze der Chips effizient aus dem Rack und letztlich ganz abgeführt. Langfristig beabsichtigt man das Sidekick-Konzept in Kooperation mit diversen Partnern aus der Industrie in allen seinen Rechenzentren einzusetzen, wobei es dann keine Rolle mehr spielen soll, welche Art von Chips auf diesem Weg gekühlt werden.

Microsoft Azure Maia 100 AI Accelerator
Kühlschrank: 'Sidekicks' mit Radiatoren sollen Abwärme des Maia 100 bewältigen

Ergänzung, kein Ersatz

Dass Microsoft eigene Chips für die Erledigung von KI-Aufgaben entwickelt, überrascht nicht. Die bisher hauptsächlich von Nvidia zugelieferten Prozessoren für KI-Workloads sind mittlerweile schwer zu bekommen und entsprechend teuer. Microsoft dürfte somit großes Interesse daran haben, seine Abhängigkeit von Nvidias Produkten zu reduzieren und gleichzeitig eine stärkere Optimierung an seine eigenen Anforderungen zu erzielen.

Microsoft betonte immer wieder, dass man mit den neuen Chips aber keinen Ersatz für die KI-Prozessoren anderer Hersteller schaffen will, sondern eine Ergänzung. Die Redmonder setzen auf eine breite Mischung von KI-Chips in ihren Rechenzentren, die jeweils unterschiedliche Aufgaben übernehmen. Unter anderem ist deshalb auch die Verwendung von KI-Prozessoren von AMD und anderen Herstellern geplant.

Inwiefern der Azure Maia 100 KI-Beschleuniger im Hinblick auf Performance mit den aktuellen und der gerade angekündigten nächsten Generation von KI-Chips von Nvidia mithalten kann, ist derzeit allerdings noch vollkommen unklar. Zum Vergleich: der Nvidia A100 hat 54 und der Nvidia H100 ganze 80 Milliarden Transistoren. Mit ihrer Fertigung im 4nm-Maßstab sind die Nvidia-Chips zumindest in dieser Hinsicht theoretisch effizienter.

Anders als bei Microsofts hauseigenen ARM-CPUs, zu denen es anlässlich der Ignite 2023 ebenfalls große Neuigkeiten gab, ist mit Blick auf den Maia 100 KI-Accelerator nicht bekannt, wie lange die Redmonder bereits an einem solchen Produkt arbeiten und welche Basis hier verwendet wurde. Die Einführung des neuen Chips in Microsofts Rechenzentren soll ab Anfang 2024 erfolgen, sodass dann sicherlich mehr Informationen verfügbar sein werden.

Zusammenfassung
  • Microsoft stellt eigene KI-Prozessoren vor
  • Azure Maia 100 AI Accelerator entwickelt
  • Kooperation mit OpenAI für KI-Chips
  • Abhängigkeit von Nvidia soll sinken
  • Maia 100 optimiert für Large Language Models
  • 105 Mrd. Transistoren, 5-Nanometer-Fertigung
  • Kühlsystem mit "Cold Plates" und Sidekicks

Weitere Neuheiten der Microsoft Ignite 2023:
Verwandte Themen
Künstliche Intelligenz
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture