AIの課題に取り組むための優れた性能を発揮

高速の入出力性能 ― x86サーバーと比べて最大5.6倍の入出力帯域幅を提供

AC922には、PCIe Gen4、CAPI 2.0、OpenCAPI、NVLINKといった次世代の入出力アーキテクチャーが搭載されます。これらのアーキテクチャーが相互接続されることで、x86サーバーで採用されているPCIe Gen3の最大5.6倍の帯域幅を実現できるため、AC922はデータ集約型のワークロードへの対応が容易です。

最先端のGPU ― NVLinkで接続されるNVIDIA® Tesla® V100 GPUを搭載

AC922は、エンタープライズAIに最適なGPUを最適なプラットフォームと組み合わせて提供します。AC922は、CPUとGPUを直結するNVLinkを搭載しており、POWER9プロセッサーとNVIDIA Tesla V100との間で高速な通信を実現します。NVLinkによってCPUとGPUを組み合わせることで、最大5.6倍の性能が発揮できます。CPUとGPUとの間で高い入出力性能を実現できるサーバーは、AC922だけです。AC922により、AI、ディープ・ラーニング、HPCといったワークロード向けに、大量のスループット能力を提供できます。

高速CPU ― AIワークロード向けに設計されたPOWER9プロセッサーを2基搭載

POWER9プロセッサーは、プロセッサー自体が高速であるだけでなく、連携するあらゆるものの性能を最大化する点においても優れています。AI時代向けに設計されたPOWER9プロセッサーは、x86プロセッサーとの比較において、最大5.6倍の入出力能力と2倍のスレッド数をサポートします。POWER9プロセッサーは、16、20コアの構成で使用できます。AC922の最大コアは44です。

シンプルなAIアーキテクチャー ― CPUとGPUでメモリーを共有

エンタープライズAIは大規模な構成となるため、x86サーバーの場合は、GPUのメモリー容量を超えることが多くなります。AC922は、CPUとGPUで一貫性を持ち、システム・メモリーをGPUメモリーとしてアプリケーションが利用できるようにすることで、GPUメモリー容量の課題に対応できます。また、データの存在する場所やデータ移動に関する要件をなくすことで、プログラミングを簡素化できます。また、NVLinkによってCPUとGPUを直結しているため、CPUとGPU間でメモリーを共有しても、ボトルネックになることはありません。

エンタープライズ対応 ― ディープ・ラーニングのフレームワークであるIBM PowerAIの提供

ディープ・ラーニングのデプロイメントとパフォーマンスの最大化を容易に実現します。PowerAIは、最新かつシンプルなエンドツーエンドのツール・セットです。性能と拡張性が検証済みであることから、ディープ・ラーニングを1台のノードから開始して、その後、ラック一台分や数千台のノードに拡大しても、リニアに性能をスケーリングできます。

次世代のPCIe ― PCIe Gen4

AC922は、次世代のPCIe相互接続を搭載するサーバーです。第4世代のPCIeは、第3世代のPCIeの約2倍のデータ帯域幅を実現します。

先進のスーパーコンピューターのバックボーン

AC922は、オークリッジ国立研究所設置のスーパーコンピューターであるSummitのバックボーンです。Summitは、200ペタフロップスを超えるHPCと3エクサフロップスのAIをサービス性能として実現する予定です。AC922を用いたAIデプロイメントは効率的かつ容易であるため、AC922は企業や組織におけるAI活用への取り組みにも理想的なサーバーの選択肢です。