Für die größten KI-Herausforderungen weltweit geeignet

Schnellere E/A – bis zu 5,6-mal mehr E/A-Bandbreite als x86-Server

Der AC922 enthält verschiedene Komponenten der E/A-Architektur der nächsten Generation, darunter PCIe Gen4, CAPI 2.0, OpenCAPI und NVLINK. Diese Verbindungen bieten eine doppelt bis 5,6-mal so hohe Bandbreite für die heute üblichen datenintensiven Workloads wie die veraltete PCIe Gen3-Technologie, die in x86-Servern zum Einsatz kommt.

Die besten GPUs – 2 bis 6 NVIDIA® Tesla® V100 GPUs mit NVLink

Der AC922 kombiniert die wohl besten GPUs für KI in Unternehmen mit der besten dafür geeigneten Plattform. Der AC922 ordnet POWER9-CPUs und NVIDIA Tesla V100 mit NVLink-GPUs paarweise an. Er bietet die bis zu 5,6-fache Leistung pro Paar. Er ist der einzige Server, der in der Lage ist, diese hohe E/A-Performance zwischen CPUs und GPUs bereitzustellen. Damit steht enormer Durchsatz für HPC-, Deep-Learning- und KI-Workloads bereit.

Herausragende CPUs – zwei für KI konzipierte POWER9-CPUs

Die POWER9-CPUs sind an sich schon blitzschnell, zeigen ihre wahre Stärke aber vor allem darin, dass sie die Leistung aller Komponenten in ihrer Umgebung voll ausschöpfen können. Der für die KI-Ära entwickelte Power 9-Prozessor bietet eine bis zu 5,6-mal so hohe E/A-Performance und doppelt so viele Threads wie x86-Systeme. Der Power 9 ist in Konfigurationen mit 16, 18, 20 und 22 Cores verfügbar. Damit stehen bis zu 44 Cores pro AC922-Server zur Verfügung.

Einfache KI-Architektur – gemeinsame RAM-Nutzung durch CPUs und GPUs

KI-Modelle wachsen schnell. Die GPU-Hauptspeicherkapazität der meisten x86-Server kann damit nicht Schritt halten. Die CPU-zu-GPU-Kohärenz im AC922 wird diesen Herausforderungen gerecht, da beschleunigte Anwendungen den Systemspeicher als GPU-Speicher nutzen können. Sie vereinfacht außerdem die Programmierung, da sie keine Datenübertragung und Lokalität erfordert. Dank der Nutzung der 5,6-mal schnelleren NVLink-Verbindung führt die gemeinsame Nutzung des Hauptspeichers durch CPUs und GPUs nicht zu Engpässen bei der PCIe 3-Geschwindigkeit, was bei x86-Servern der Fall wäre.

Auf Unternehmen abgestimmt – PowerAI-Deep-Learning-Frameworks mit IBM Support

Das System vereinfacht die Deep-Learning-Implementierung und -Ausführung. Es bietet eine neue, einfachere, umfassende Toolchain für KI-Benutzer. Durch die bewährte Leistung und Skalierbarkeit für KI können Sie mit einem einzelnen Knoten anfangen und die Implementierung später auf ein Rack oder Tausende von Knoten mit nahezu linearer Skalierungseffizienz ausbauen.

Nächste PCIe-Generation – PCIe Gen4 doppelt so schnell wie PCIe Gen3 beim x86

Der AC922 ist der erste Server, der mit der nächsten Generation der PCIe-Verbindung nach Branchenstandard ausgestattet ist. PCIe Gen4 bietet ungefähr die doppelte Datenbandbreite wie die PCIe Gen3-Verbindung, die bei x86-Servern zum Einsatz kommt.

Für die weltweit größten KI-Herausforderungen entwickelt

Der AC922 ist die zentrale Komponente des CORAL-Summit-Supercomputers, der auf dem besten Weg ist, einen Servicedurchsatz von mehr als 200 PetaFlops für HPC und 3 ExaFlops für KI zu erreichen. Mit seiner Effizienz und einfachen KI-Implementierung ist der AC922 aber auch ideal für die KI-Anforderungen Ihres Unternehmens geeignet.