세상에서 가장 까다로운 AI 과제를 처리할 수 있습니다.

빨라진 I/O - x86 서버에 비해 최대 5.6배 더 넓은 I/O 대역폭

AC922에는 PCIe 4세대, CAPI 2.0, OpenCAPI, NVLINK 등 다양한 차세대 I/O 아키텍처가 포함되어 있습니다. 이러한 상호 연결을 활용하면 x86 서버에 있는 구식 PCIe gen3에 비해 2~5.6배 더 높은 대역폭을 확보하여 오늘날의 데이터 집약적인 워크로드에 이용할 수 있습니다.

최상의 GPU - NVLink가 탑재된 2~6개의 NVIDIA® Tesla® V100 GPU

AC922에는 엔터프라이즈 AI에 대해 최적이라고 알려진 GPU와 이러한 GPU를 위한 최고의 플랫폼이 페어링되어 있습니다. 또한 AC922에는 POWER9 CPU 및 NVIDIA Tesla V100이 NVLink GPU와 페어링되어 있습니다. 페어링마다 최대 5.6배 더 높은 성능이 제공됩니다. 이 서버는 CPU와 GPU 간에 이러한 I/O 성능을 제공할 수 있는 유일한 서버입니다. HPC, 딥 러닝 및 AI 워크로드를 위한 대규모 처리량 역시 제공됩니다.

획기적인 CPU - AI에 맞게 디자인된, 2배 더 많은 POWER9 CPU

그 자체로 매우 빠른 속도를 자랑하는 POWER9 CPU는 모든 주변 요소의 성능을 완벽하게 구현할 수 있게 하는 기능을 탁월하게 발휘합니다. AI 시대에 맞게 구축된 Power 9는 x86 경쟁 제품에 비해 최대 5.6배 더 많은 I/O와 2배 더 많은 스레드를 지원합니다. Power 9는 16 코어, 18 코어, 20 코어 및 22 코어 구성으로 사용할 수 있으며, AC922 서버에서는 44 코어까지 지원됩니다.

가장 단순한 AI 아키텍처 - CPU와 GPU에서 RAM 공유

AI 모델의 규모가 확장하면서 대부분의 x86 서버에서 GPU 메모리 용량을 빠르게 초과하게 되었습니다. AC922의 CPU 및 GPU 간 일관성 덕분에, 가속화된 애플리케이션이 시스템 메모리를 GPU 메모리로 활용할 수 있게 되었으므로 이러한 우려가 해소될 수 있습니다. 데이터 이동 및 위치 요구사항을 제거하여 프로그래밍을 단순화할 수도 있습니다. 또한 5.6배 더 빠른 NVLink 상호 연결이 활용되므로, CPU와 CPU 간에 메모리를 공유하더라도 x86 서버에서처럼 병목 현상이 발생하여 PCIe 3 속도로 낮아지지 않습니다.

엔터프라이즈 지원 - IBM 지원이 제공되는 PowerAI DL 프레임워크

딥 러닝을 단순하게 배치하고 수행할 수 있습니다. AI 사용자를 위해 보다 새롭고 단순해진 엔드 투 엔드 툴체인을 활용해 보세요. AI 성능 및 확장성이 검증되었으므로 사용자는 노드 하나로 시작했다가 이후에 선형에 가까운 확장 효율성으로 랙 또는 수천 개 노드로 확장할 수 있습니다.

차세대 PCIe - x86의 PCIe gen3에 비해 2배 더 빠른 PCIe Gen4

AC922는 차세대 산업 표준 PCIe 상호 연결 기능을 제공하는 업계 최초의 서버입니다. PCIe 4세대는 x86 서버에 있는 PCIe 3세대 상호연결의 데이터 대역폭보다 2배 더 넓은 대역폭을 제공합니다.

세상에서 가장 까다로운 AI 과제를 처리하도록 구축되었습니다.

AC922는 CORAL Summit 슈퍼컴퓨터의 백본으로서, 200페타플롭 이상의 HPC와 3엑사플롭의 AI를 서비스 성능으로 원활하게 제공합니다. 그러나 AI 배치를 효율적이고 간편하게 수행할 수 있다는 장점 덕분에 기업의 AI 목표를 달성하는 데에도 최적입니다.