能够应对全世界最严峻的 AI 挑战。

I/O 速度更快 - I/O 带宽可高达 x86 服务器的 5.6 倍

AC922 包含种类繁多的下一代 I/O 架构,包括:PCIe gen4、CAPI 2.0、OpenCAPI 和 NVLINK。与 x86 服务器采用的陈旧的 PCIe gen3 相比,这些互连可为当今的数据密集型工作负载提供 2-5.6 倍的带宽。

最佳 GPU - 通过 NVLink 提供 2-6 个 NVIDIA® Tesla® V100 GPU

AC922 采用据称是最适合企业 AI 的最佳 GPU,堪称最适合它的最佳平台。AC922 还采用了 POWER9 CPU 以及提供 NVLink GPU 的 NVIDIA Tesla V100。这种搭配可提供高达 5.6 倍的性能。它是唯一能在 CPU 和 GPU 之间提供这种 I/O 性能的服务器。这将能够提供大规模的吞吐能力来支持 HPC、深度学习和 AI 工作负载。

卓越的 CPU - 2 倍数量的专为 AI 设计的 POWER9 CPU

虽然 POWER9 CPU 的运行速度极快,但它们确实能够充分发挥其周围所有组件的潜力。Power 9 专为 AI 时代而构建,与 x86 竞争产品相比,可提供超过 5.6 倍的 I/O 性能,支持超过 2 倍的线程。Power 9 提供 16、18、20 和 22 核配置,AC922 服务器最多支持 44 核配置。

最简单的 AI 架构 - 跨 CPU 和 GPU 共享 RAM

AI 模型越来越大,大多数 x86 服务器中的 GPU 内存容量很快将无法满足其需求。AC922 中 CPU 与 GPU 的一致性解决了这些问题,允许加速后的应用将系统内存用作 GPU 内存。此外,它还能通过消除数据移动需求和定位需求来简化编程工作。此外,通过利用 5.6 倍速的 NVLink 互连线路,CPU 与 GPU 之间的内存共享不会像 x86 服务器那样带来 PCIe 3 速度瓶颈。

企业就绪性 - 由 IBM 支持的 PowerAI DL 框架

简化深度学习的部署流程并提高性能。为 AI 用户解锁一条全新的、更简单的端到端工具链。业经验证的 AI 性能和可扩展性,允许您从一个节点开始,然后以接近线性的扩展效率扩展到机架或数千个节点。

下一代 PCIe - PCIe Gen4 比 x86 中的 PCIe gen3 快两倍

AC922 是业界首款采用下一代业界标准 PCIe 互连技术的服务器。第四代 PCIe 提供的数据带宽大约是 x86 服务器中采用的第三代 PCIe 互连线路的 2 倍。

旨在应对全世界最严峻的 AI 挑战。

AC922 是 CORAL Summit 超级计算机的骨干, 有望为 HCP 交付超过 200 的 PetaFlops 服务性能,并为AI 提供 3 ExaFlops 的性能。但是,由于兼备高效性和简化 AI 部署的能力,它也是帮助您的企业达成 AI 夙愿的理想选择。