Nvidia erweitert die Unterstützung für ARM-CPUs mit seinem vollständigen Stapel an AI- und HPC-Software

Nvidia hat heute endlich die Unterstützung von Prozessoren mit ARM-Architektur zusammen mit seinem gesamten Stapel an AI- und HPC-Software angekündigt. Nvidia ist mit ARM bestens vertraut, da sie die Architektur in ihre Tegra-Chips und andere System-on-Chip-Produkte für tragbare Spiele, autonome Fahrzeuge, Robotik und eingebettete KI-Computer integriert haben.

Warum jetzt?

ARM gibt es schon seit einiger Zeit, aber seine Verwendung in HPC-Systemen war bis vor einigen Jahren nicht mehr vorhanden. Fast alle HPC-Systeme verwenden seit langem Chips von Intel, was zu einer hervorragenden Unterstützung für ältere Software und Bibliotheken führt.

Im Laufe der Jahre hat ARM unermüdlich daran gearbeitet, ein Ökosystem aufzubauen, das seine Architektur zu einer praktikablen Alternative zu x86-Chips machen kann. Das Mont-Blanc-Projekt war eine große Initiative in diese Richtung.

Diese Initiativen tragen endlich Früchte und Chips mit ARM-Architektur werden zunehmend in verschiedenen HPC-Systemen auf der ganzen Welt eingesetzt.

Nvidias Geschäftsinteressen an Rechenzentren

Nvidia dominiert bereits einen großen Teil des GPU-Geschäfts für Endverbraucher und hat im Laufe der Jahre einen seriösen Hardware- und Software-Stack für Workstations erstellt. Auf der Softwareseite gibt es viele Lösungen für KI- und Deep Learning-Workloads. Alle diese Workloads können durch GPUs beschleunigt werden, und hier kommen ihre Tesla- und Volta-GPUs ins Spiel.

Dies hat der Finanzierung des Unternehmens geholfen, und laut einem Artikel über Fobes von Karl FreundIm ersten Quartal 2019 von NVIDIA übertraf das Unternehmen erneut die Erwartungen und verzeichnete ein Wachstum des Gesamtumsatzes von 66%, einschließlich eines Wachstums von 71% im brandaktuellen Rechenzentrumsgeschäft (701 Mio. USD für das Quartal). Für NVIDIA umfasst das Segment „Rechenzentrum“ High-Performance Computing (HPC), von Rechenzentren gehostete Grafiken und KI-Beschleunigung. “

Dies sind auch wichtige Themen in den Keynotes der Anleger von Nvidia. Nach der Übernahme von Mellanox durch Nvidia, die wir abgedeckt haben Hier, CEO Jensen Huang teilte einige Erkenntnisse hinter der Entscheidung mit, dass „Die Strategie verdoppelt sich auf Rechenzentren, und wir kombinieren und vereinen zwei führende Anbieter von Hochleistungs-Computertechnologien. Wir konzentrieren uns auf beschleunigtes Computing für Hochleistungscomputer, und Mellanox konzentriert sich auf Vernetzung und Speicherung für Hochleistungscomputer. Wir haben die beiden Unternehmen unter einem Dach zusammengefasst. Unsere Vision ist es, dass Rechenzentren heute die wichtigsten Computer der Welt sind und dass künftige Rechenzentren aller Art, wenn sich die Arbeitslast weiter ändert - was wirklich durch künstliche Intelligenz und Datenanalyse ausgelöst wird - wie Hochleistung gebaut werden Computers. Hyperscale-Rechenzentren wurden entwickelt, um Milliarden von Menschen Dienste und Lightweight-Computing bereitzustellen. In den letzten Jahren hat das Aufkommen von künstlicher Intelligenz, maschinellem Lernen und Datenanalyse die Rechenzentren so stark belastet, und der Grund dafür ist, dass die Datengröße und die Rechengröße so groß sind, dass sie nicht auf eines passen Computer. Es muss also auf mehrere Computer verteilt werden, und die Hochleistungskonnektivität, damit diese Computer zusammenarbeiten können, wird immer wichtiger. Aus diesem Grund ist Mellanox so gut gewachsen und es wird über SmartNICs und intelligente Fabrics und softwaredefinierte Netzwerke gesprochen. All diese Gespräche führen zum selben Ort, und in dieser Zukunft ist das Rechenzentrum eine riesige Rechenmaschine, die kohärent ist - und die es vielen Menschen ermöglicht, sie weiterhin gemeinsam zu nutzen -, aber nur wenigen Menschen ermöglicht, sehr große Anwendungen auszuführen auch auf sie. Wir glauben, dass in Zukunft von Rechenzentren die Berechnung nicht am Server beginnen und enden wird, sondern sich in das Netzwerk hinein erstreckt und das Netzwerk selbst Teil der Computerstruktur wird. Langfristig denke ich, dass wir in der Lage sind, Computerarchitekturen im Rechenzentrumsmaßstab zu erstellen.

ARM bereit für den Erfolg

ARM-Chips versorgen die meisten Mobilgeräte auf der ganzen Welt mit Strom, sodass die Architektur vom Design her energieeffizient bleibt. Da die Architektur lizenziert ist, können mit ARM mehrere Siliziumhersteller in Betracht gezogen werden.

Der Stromverbrauch ist bei HPCs nach wie vor ein großes Problem, und die Verwendung von ARM kann dieses Problem in hohem Maße ausgleichen. Selbst mit Software wurden bei den Mont-Blanc-Projekten viele wissenschaftliche Bibliotheken und Tools für ARM entwickelt. Dies spielt eine große Rolle bei der Weiterentwicklung des gesamten Ökosystems.

Die Verwendung von ARM in HPCs und Rechenzentren ist im Vergleich zu x86-Systemen noch gering, aber Nvidia sieht hier das Potenzial. Ihr Erzrivale AMD hat auch begonnen, mit seinen EPYC-Serverprozessoren und Radeon Instinct GPU-Beschleunigern im HPC- und Rechenzentrumsmarkt hart zu konkurrieren. Daher ist es für Nvidia wichtig, ARM jetzt einzuführen und ihre Software-Suite (CUDA-X HPC usw.) anzubieten. Im Gegensatz zu einigen Herstellern stellt Nvidia keine CPUs her, daher fehlt ihnen die CPU-GPU-Kohärenz, die AMD und Intel bieten können.

Im Nachhinein kann Nvidia eine Partnerschaft mit ARM stärken, wie NextPlatform zu Recht feststellt. “Nvidia und Arm könnten eine Partnerschaft eingehen, um NVLink-IP-Blöcke für diejenigen verfügbar zu machen, die Neoverse-Lizenzen kaufen. Dies ermöglicht eine engere Kopplung mit GPUs, einschließlich Speicheratomik und Speicherkohärenz über die CPU-GPU-Rechenkomplexe hinweg.

Dieser Schritt wird ARMs Fall als praktikable Architekturalternative zu x86-HPCs definitiv unterstützen. Wir können irgendwann in der Zukunft einen ähnlichen Schritt von AMD erwarten, da sie ihre Radeon Instinct-GPUs weiterhin aggressiv vorantreiben.

Facebook Twitter Google Plus Pinterest