AMD MI1000 Instinct Accelerator 7-nm-GPU für HPC offiziell eingeführt Mit 11,5 Teraflops mit maximaler Gleitkomma-Leistung mit doppelter Präzision

AMDs erste GPU, die auf der CDNA-Architektur basiert, ist der MI100 offiziell. Die MI100 Instinct Accelerator-GPU wird als „schnellste HPC-GPU der Welt“ mit 11,5 Teraflops mit maximaler Gleitkomma-Leistung mit doppelter Genauigkeit bezeichnet. Die GPU behauptet, doppelt so viele Recheneinheiten wie die vorherige Generation zu haben und dabei die gleiche Leistungsgrenze von 300 Watt einzuhalten.

AMD hat heute das neue angekündigt MI100 Instinktbeschleuniger. Die GPU basiert auf der CDNA-Engine, die sich geringfügig von der RDNA-Architektur unterscheidet, mit der die neuesten Grafikkarten der AMD Radeon RX 6000-Serie betrieben werden. Der MI100 Instinct Accelerator ist der Nachfolger der vor zwei Jahren eingeführten MI50- und MI60 Instinct-Beschleuniger. Trotz des relativ kurzen Zeitraums zwischen den Generationen können die AMD-GPU dank der neuen GPU-Architektur und der Compute Engine die Erwartungen übertreffen.

AMD MI1000 Instinct Accelerator 7-nm-GPU Für Spezifikationen und Funktionen der HPC-Industrie:

Die MI100-GPU ist die erste, die die Compute DNA (CDNA) -Architektur von AMD enthält. Die GPU verfügt über 210 Recheneinheiten, die in vier Arrays angeordnet sind. Die CDNA-Architektur ist im Vergleich zur GCN-Architektur ein bedeutender Evolutionssprung und enthält neue Matrix-Core-Engines, die den Rechendurchsatz für verschiedene numerische Formate steigern.

AMD behauptet, dass die neue AMD-Matrixkerntechnologie dem MI100 im Vergleich zum MI50 eine 7-mal höhere Gleitkomma-Spitzenleistung mit halber Genauigkeit bietet. Das Unternehmen behauptet, dass der MI100 Instinct Accelerator 46,1 Teraflops Peak Single-Precision Matrix (FP32), 23,1 Teraflops Peak Single Precision (FP32), 184,6 Teraflops Peak Half-Precision (FP16) Gleitkomma-Performance und 92,3 Peak Teraflops der bfloat16-Leistung bietet .

Das MI100 erhält auch AMDs Infinity Fabric Technology Es wird behauptet, dass es etwa die doppelte Peer-to-Peer-Spitzen-E / A-Bandbreite über PCIe 4.0 mit einer Gesamtbandbreite von bis zu 340 GB / s pro Karte bietet. In realen Bereitstellungen können die MI100-GPUs mit bis zu zwei integrierten Quad-GPU-Hives konfiguriert werden, die jeweils eine Peer-to-Peer-E / A-Bandbreite von bis zu 552 Gbit / s bieten.

In ähnlicher Weise bieten vier Stapel mit 8 GB HBM2-Speicher insgesamt 32 GB HBM2-Speicher auf jeder MI100-GPU. Mit einer Taktrate von 1,2 GHz bietet der Speicher eine Speicherbandbreite von 1,23 Tbit / s. Die Unterstützung des MI100 für die PCIe Gen 4.0-Technologie ermöglicht eine theoretische maximale Transportdatenbandbreite von 64 Gbit / s zwischen CPU und GPU.

Ist die AMD MI100 Accelerator-GPU besser als die NVIDIA A100-GPU?

Streng auf dem Papier erscheint die MI100-GPU des AMD besser als die NVIDIA A100-GPU, die mit 9,7 Teraflops theoretischer Spitzenleistung bewertet wird. In der Realität bietet der NIVIDIA A100 jedoch leistungsstärkere FP64-Linpack-Läufe.

Die CDNA- und RDNA-Architektur von AMD sind im Wesentlichen identisch, mit dem Hauptunterschied in den Endbenutzerszenarien. Es gibt jedoch einige grundlegende Unterschiede, die es nicht ermöglichen, die CDNA-Architektur für Spiele oder das Rendern visueller Inhalte zu verwenden.

Übrigens bereitet AMD ROCm vor, das Open-Source-Toolset des Unternehmens, das aus Compilern, Programmier-APIs und Bibliotheken besteht. Dieses Toolset dient als Grundlage für exascale Computing-Workloads. Das neueste ROCm 4.0 hat den Compiler auf Open Source und Unified aktualisiert, um sowohl OpenMP 5.0 als auch HIP zu unterstützen. Einfach ausgedrückt, der Wettbewerb zwischen AMD und NVIDIA im HPC-Segment geht über einfache Funktionen und rohe Verarbeitungsleistung hinaus.

Facebook Twitter Google Plus Pinterest