
Nvidia dominiert den Markt für Chips, die generative KI-Programme trainieren können, aber AMD versucht nun, seinen Anteil vom Kuchen durch eine neue GPU der Enterprise-Klasse zu erobern.
Das Unternehmen kündigte heute den AMD Instinct MI300X an, einen sogenannten „Beschleuniger“-Chip, der zum Trainieren großer Sprachmodelle entwickelt wurde, die Programme wie ChatGPT von OpenAI unterstützen können.
„KI ist wirklich die entscheidende Technologie, die die nächste Computergeneration prägt, und ehrlich gesagt ist sie AMDs größte und strategischste langfristige Wachstumschance“, sagte Lisa Su, CEO von AMD, während der Produktvorstellung.
Der MI300X versucht, die Konkurrenz zu schlagen, indem er über bis zu „branchenführende“ 192 GB HMB3-Speicher verfügt und gleichzeitig auf der rechenzentrumsorientierten CDNA 3-Architektur von AMD aufbaut, die für KI-basierte Workloads gedacht ist. Kunden können acht MI300X-Beschleuniger in ein einziges System packen, sodass die GPUs im Vergleich zur Konkurrenz größere KI-Modelle trainieren können.
„Bei den größten Modellen reduziert es tatsächlich die Anzahl der benötigten GPUs, was die Leistung, insbesondere bei Inferenzen, erheblich beschleunigt und die Gesamtbetriebskosten senkt“, sagte Su.
Der MI300X basiert auch auf AMDs anderem KI-fokussierten Chip, dem MI300A, der in Supercomputern Einzug halten soll. Der Unterschied besteht darin, dass das Unternehmen die Zen 4-CPU-Chiplets im MI300A ausgetauscht und den MI300X in einen reinen GPU-Prozessor verwandelt hat.
„Sie sehen vielleicht, dass es dem MI300A sehr, sehr ähnlich sieht, denn im Grunde haben wir drei Chiplets entfernt und zwei (GPU-)Chiplets eingebaut und mehr HBM3-Speicher gestapelt“, fügte Su hinzu. „Wir haben dieses Produkt wirklich für generative KI entwickelt.“
In einer Demo zeigte Su auch einen einzelnen MI300X mit 192 GB Speicher, auf dem das Open-Source-Modell Falcon-40B für große Sprachen läuft. Das Programm wurde gebeten, ein Gedicht über San Francisco zu schreiben, und es erstellte den Text in wenigen Sekunden.
„Das Besondere an dieser Demo ist, dass es das erste Mal ist, dass ein großes Sprachmodell dieser Größe vollständig im Speicher auf einer einzigen GPU ausgeführt werden kann“, fügte sie hinzu.
Die neue Hardware wird auf den Markt kommen, da Nvidia dank der Nachfrage nach generativen KI-Chatbots in den kommenden Quartalen mit einem sprunghaften Umsatzanstieg rechnet. Um die Technologie zu entwickeln, haben Unternehmen aus der gesamten Branche die A100-GPU von Nvidia gekauft, die rund 10.000 US-Dollar kosten kann. Darüber hinaus verkauft Nvidia auch die H100-GPU, die nun mit bis zu 188 GB HMB3-Speicher konfiguriert werden kann.
AMD gibt bekannt, dass das Unternehmen ab dem dritten Quartal damit beginnen wird, sein eigenes Konkurrenzprodukt, den MI300X, an wichtige Kunden auszuprobieren. Das Unternehmen fügt hinzu, dass der Markt für Rechenzentrumschips für generative KI im Jahr 2027 150 Milliarden US-Dollar erreichen wird, gegenüber nur 30 Milliarden US-Dollar in diesem Jahr.
Add comment
Comments