2025年2月21日
従来型データセンターには AI対応型データセンターと同じ構成要素が多数含まれていますが、コンピューティング能力やその他のITインフラストラクチャー機能は大きく異なります。AIテクノロジーのメリットを活用したい組織は、必要なAIインフラストラクチャーを利用することでその恩恵を得られます。
利用する方法は数多くあり、ほとんどの企業は独自のAIデータセンターをゼロから構築する必要がありません。これは、非常に画期的なことです。ハイブリッドクラウドやコロケーションなどの選択肢があることで、利用への障壁が低くなり、あらゆる規模の組織がAIの価値を享受できるようになりました。
AI対応型データセンターは従来型データセンターと多くの類似点があります。それぞれに、サーバー、ストレージ・システム、ネットワーク機器などのハードウェアが含まれています。両方のオペレーターは、セキュリティー、信頼性、可用性、エネルギー効率などを考慮する必要があります。
これら2種類のデータセンターの違いは、高負荷のAIワークロードに並外れた処理能力が求められることによるものです。AI対応型データセンターとは対照的に、一般的なデータセンターのインフラストラクチャーは、AIワークロードによってすぐに処理があふれてしまいます。AI対応インフラストラクチャーは、クラウド、AI、機械学習のタスクのために特別に設計されています。
たとえば、従来型のデータセンターは、中央処理装置(CPU)用に設計され、CPUが搭載されていることが多いものです。一方、AI対応型データセンターでは、高性能のグラフィック・プロセッシング・ユニット(GPU)が求められ、高度なストレージ、ネットワーク、電力、冷却の機能などのITインフラストラクチャーについても考慮する必要があります。多くの場合、AIのユースケースに膨大な数のGPUが必要で、それだけでもはるかに巨大な面積が必要となります。
「ハイパースケール」と「コロケーション」とは、組織がAIによく使用する2種類のデータセンターを説明する言葉です。
ハイパースケール・データセンターは巨大で、少なくとも5,000台のサーバーを備え、少なくとも10,000平方フィートの物理スペースを占有します。ハイパースケール・データセンターは極めて高い拡張性を備えており、大規模なワークロード(生成AIなど)向けに設計されています。こうしたデータセンターは、Amazon Web Services(AWS)、Microsoft Azure、Google Cloud Platform(GCP)などのクラウド・プロバイダーによって、人工知能、オートメーション、データ分析、データ・ストレージ、データ処理など、さまざまな目的で世界中で広く使用されています。
コロケーション・データセンターとは、一企業がハイパースケール・データセンターを所有し、その施設、サーバー、帯域幅を他社にレンタルする状況を指します。
こうした構成により、企業は大規模な投資をしなくてもハイパースケールのメリットを享受できます。コロケーション・サービスの世界最大級のユーザーには、Amazon(AWS)、Google、Microsoftなどが挙げられます。これらのクラウド・サービス・プロバイダーなどは、Equinix社というデータセンター事業者からデータセンターのスペースを大規模に借りています。そして、新しく取得したスペースを顧客が利用できるようにしたり、他の企業に貸し出したりします。
2025年初頭のブログ投稿で、Microsoft社はAIを「現代の電力」と名付けました。それが大げさな表現か、正確に的を射たものかは、まだわかりません。しかし、OpenAI社のChatGPTなどのAIツールは、専門家ではない何百万ものユーザーによって採用されている現在の流れは、驚異的なペースで進んでいます。AI機能のこの明らかな生産性と収益化の可能性により、新しいAI生産性ツール、エージェント、コンテンツ・ジェネレーターが大量に登場しています。
オープンソース・モデルとAIの継続的な民主化は、AIエコシステムで活躍しているのは大手プレーヤーだけではないことを意味します。AIユースケースを特定し、それを実現するためにITインフラストラクチャーを採用するなら、ほぼすべての企業がテクノロジー企業になれるのです。IBM Institute for Business Value(IBM IBV)の2024年のレポートによると、経営幹部レベルのテクノロジー担当役員の43%が、過去6カ月間において、生成AIのためにテクノロジー・インフラストラクチャーに関する懸念が高まったと述べており、現在はインフラストラクチャーを最適化して、拡張できるようにすることに重点を置いています。
一方、データセンター業界は需要に応じて成長してきました。世界中のデータセンター・インフラストラクチャーはAI対応化が進み、大量の複雑な計算やリクエストを処理できるようになりました。現在、データセンターが最も多く存在しているのは、アジア太平洋地域と北米地域、特に北京、上海、バージニア州北部、サンフランシスコ湾岸地域です。1
大手テクノロジー企業からの多額の投資も、AIデータセンター事業が成長する兆しを示すものです。2025年には、Microsoft社はデータセンターの建設に約800億米ドルを投資する予定で、Meta社は米国ルイジアナ州で新たな400万平方フィートのハイパースケール・データセンターの開発に100億米ドルを投資しています。
AI対応型データセンターの鍵となる独自の特徴と機能がいくつかあります。
AI対応型データセンターには、AIアクセラレーターに搭載されているような高性能コンピューティング(HPC)機能が必要です。AIアクセラレーターは、機械学習(ML)およびディープラーニング(DL)モデル、自然言語処理、その他の人工知能演算を高速化するために使用されるAIチップです。これらは、AIとAI関連アプリケーションの多くを実現するハードウェアであると広く考えられています。
例えば、 GPUはAI アクセラレータの一種です。Nvidia社によって普及したGPUは、複雑な問題を、同時に処理できるよう細かく分割する電子回路であり、並列処理と呼ばれる手法を採用しています。HPCでは、並列処理の一種で、数万から数百万のプロセッサーまたはプロセッサー・コアを使用する、超並列処理と呼ばれる処理を行います。この機能により、GPUは信じられないほど高速で効率的になります。AIモデルはデータセンターのGPUでトレーニングおよび実行され、多くの主要なAIアプリケーションを実現しています。
AI対応型データセンターには、ニューラル・プロセッシング・ユニット(NPU)やテンソル・プロセッシング・ユニット(TPU)などの、より特殊なAIアクセラレーターもますます多く搭載されるようになっています。NPUは人間の脳の神経経路を模倣し、AIワークロードをリアルタイムでより適切に処理します。TPUは、AIワークロードでのテンソル計算を高速化するためにカスタム構築されたアクセラレーターです。高いスループットと低遅延によって、多くのAIアプリケーションやディープラーニング・アプリケーションに最適です。
AIワークロードの速度と高度な計算ニーズには、高速メモリーを備えた膨大なデータ・ストレージが必要です。ソリッド・ステート・ドライブ(SSD)は、半導体ベースのストレージ・デバイスで、通常はNANDフラッシュ・メモリーを使用し、AI対応型データセンターにとって重要なストレージ・デバイスと考えられています。具体的には、並列処理に対応できる速度、プログラマビリティー、容量を備えたNVMe SSDです。
データセンターのGPU、アクセラレーター、一部のSSDでも、高帯域幅メモリー(HBM)が使用されます。このタイプのメモリー・アーキテクチャーでは、従来のメモリー・アーキテクチャーであるダイナミック・ランダム・アクセス・メモリー(DRAM)よりも低い消費電力で、高性能なデータ転送が可能になります。
AI対応型データセンター設計のもう1つの典型的な側面は、予期しない急増などのデータ需要の変動に対応できるデータ・ストレージ・アーキテクチャーです。多くのデータセンター(AI対応型と従来型の両方)では、専用のハードウェア上でワークロードを実行する代わりに、物理ストレージが仮想化されたクラウド・アーキテクチャーを使用しています。
仮想化とは、単一のコンピューターのハードウェア・コンポーネント(メモリやストレージ)を複数の仮想マシンに分割することです。ユーザーが同じ物理ハードウェア上で複数のアプリケーションとオペレーティング・システムを実行できるようにすることで、リソースの使用率と柔軟性を向上させます。
仮想化は、ハイブリッドクラウド機能を推進するテクノロジーでもあります。ハイブリッドクラウドは、組織に俊敏性と柔軟性をもたらし、クラウド環境とオンプレミス環境の接続を容易にします。これは、データ集約型生成AIを導入する上で非常に重要です。
AIは高速でなければなりません。ユーザーはオンラインAIアプリケーションからの即時の応答を期待し、自動運転車は道路上で瞬時の判断を下す必要があります。したがって、AIデータセンターのネットワークは、AIワークロードの高帯域幅要件を低遅延でサポートできる必要があります。ハイパースケールデータセンターの場合、帯域幅要件は数ギガビット/秒(Gbps)からテラビット/秒(Tbps)までさまざまです。
従来型データセンターでは、外部通信ネットワークに光ファイバーが使用されていますが、データセンター内のラックでは、依然として主に銅線ベースの電線で通信が行われています。IBM Researchの新しいプロセスであるCopackaged Opticsは、大規模言語モデル(LLM)のトレーニングとデプロイメントに使用されるデバイス内およびデータセンターの壁内に光リンク接続をもたらすことで、エネルギー効率を改善し、帯域幅を拡大すると期待されています。このイノベーションにより、データセンター通信の帯域幅が大幅に増加し、AI処理が加速される可能性があります。
ほぼすべての最新のデータセンターは仮想化ネットワーク・サービスを使用しています。この機能により、ネットワークの物理インフラストラクチャー上に構築されたソフトウェア定義オーバーレイ・ネットワークの作成が可能になります。インフラストラクチャーに物理的な変更を加えなくても、各アプリケーションとワークロードのコンピューティング、ストレージ、ネットワークを最適化できます。
AI対応型データセンターには、より優れた相互接続性、拡張性、パフォーマンスを備えた最先端のネットワーク仮想化テクノロジーが必要です。また、生成AIモデルのトレーニングに使用される大量のデータに関連するデータのプライバシーとセキュリティーの懸念にも対処できなければなりません。IBM IBVの調査では、CEOの57%が、データ・セキュリティーに関する懸念が生成AI導入の障害になると回答しています。
AI対応型データセンターの高い計算能力、高度なネットワーク、大規模なストレージ・システムには、停止、ダウンタイム、過負荷を回避するために、膨大な量の電力と高度な冷却システムが必要です。金融大手のGoldman Sachs社は、AIによって2030年までにデータセンターの電力需要が165%増加すると予測しています。また、コンサルティング会社のMcKinsey社の分析では、データセンター容量に対する世界の年間需要が現在の60ギガワット(GW)から171~219 GWに達する可能性が示唆されています。
このような厳しいエネルギー消費と冷却の要件を満たすために、一部のAI対応型データセンターでは高密度セットアップを採用しています。この戦略では、高度な冷却システムを備えたコンパクトなサーバー構成により、パフォーマンスとエネルギー効率が向上し、データセンターの敷地面積を最大限に活用できるようになります。
例えば、空冷ではなく、水を使用した液体冷却で熱を伝達および放出することがよくあります。これにより、高密度熱の処理効率が向上し、データセンターにおける電力効率の測定に使用される指標である、電力使用効率(PuE)が向上します。もう1つの冷却方法であるホット・アイルやコールド・アイルの封じ込めは、サーバー・ラックを編成して気流を最適化し、熱気と冷気の混合を最小限に抑えます。
大きな電力要件を考慮し、現在の組織はAIへの意欲と持続可能性目標とのバランスをとろうと模索することがよくあります。印象的な例の一つは、世界最大級のハイパースケール・データセンターを所有するApple社です。2014年以来、Apple社のデータセンターはすべて、バイオガス燃料電池、水力発電、太陽光発電、風力発電をさまざまに組み合わせることにより、完全に再生可能エネルギーで稼働しています。
地球外のエネルギー源に目を向け、宇宙の高強度太陽エネルギーを利用して新たなデータセンターを建設したいと考えている企業も存在します。軌道データセンターの進歩により、AIモデルのトレーニングにかかるエネルギー・コストが大幅に削減され、電力費が最大95%削減できる可能性があります。
データ・サイロを排除し、複雑さを軽減し、データ品質を向上させることで、卓越した顧客体験と従業員体験を実現するデータ・ストラテジーを設計します。
watsonx.dataを使用すると、オープンでハイブリッド、かつ管理されたデータ・ストアを通じて、データがどこに保存されていても、すべてのデータを使用して分析とAIを拡張できます。
IBMコンサルティングと連携することで、企業データの価値を引き出し、ビジネス上の優位性をもたらす洞察を活用した組織を構築します。
1 “AI to drive 165% increase in data center power demand by 2030,” Goldman Sachs, 4 February 2025.