ハイパースケール・データセンターとは

現代的なオフィスでのプロフェッショナルなビジネス・ミーティング

共同執筆者

Phill Powell

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

ハイパースケール・データセンターとは。

ハイパースケール・データセンターとは、拡張性に関して非常に優れた機能を備えた巨大なデータセンターです。大規模なワークロード向けの設計で、ネットワーク・インフラストラクチャーは最適化され、ネットワーク接続は合理化され、遅延は最小化されています。

データ・ストレージの需要がますます高まっていることから、多数のプロバイダー向けのハイパースケール・データセンターが世界中で幅広く利用されています。その用途は、人工知能(AI)オートメーション、データ分析、データ・ストレージ、データ処理、ビッグデータを扱うその他のコンピューティング処理など、多岐にわたります。

"ハイパースケール・データセンター"か"ハイパースケーラー"か

この2つの用語と、そこから生じる曖昧さについて、少し時間をとって明確にすべきでしょう。そもそも、この2つの用語は同じ意味で使われることが多く、混乱の原因になります。

"ハイパースケーラー"は、ハイパースケール・データセンターを表す愛称としてよく使われます。しかし困ったことに、"ハイパースケーラー"という用語には既に確立された意味があります。さらにこの用語は、AWSのようなクラウド・サービス・プロバイダー(CSP)や、ハイパースケール・データセンター・サービスを提供するその他の企業を表すときにも、同じくらいよく使われるのです。

同じ用語が、データセンターの種類を表す場合もあれば、ハイパースケール・コンピューティングを専門としてその種のデータセンターを運営する企業を表す場合もあるというのは、混乱のもとです(例えば「ハイパースケーラーがハイパースケーラーを構築した」という文も成り立ちます)。そこでこのページでは、ハイパースケール・データセンターについて説明するときと、クラウド・サービス・プロバイダー(CSP)について言及するときに、それぞれ別の用語を用いることとし、"ハイパースケーラー"という包括的な用語を使用することは避けます。

The DX Leaders

AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。

ご登録いただきありがとうございます。

ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

ハイパースケール・データセンターの仕組み

あらゆる規模のデータセンターの原点をたどっていくと、仮想化という重要な概念に行き着きます。仮想化では、コンピューターのハードウェア上にソフトウェアで抽象化レイヤーを作成することによって、1台のコンピューターのハードウェア・コンポーネントを複数の仮想マシン(VM)に分割します。各VMはそれぞれ独自のOSを稼働させ、1台の独立したコンピューターとして動作しますが、基盤にある物理的なコンピューター・ハードウェアの一部しか動作に使用していません。こうして、仮想化によってクラウド・コンピューティングが可能になります。

ハイパースケール・データセンターが従来のデータセンターと特に異なるのは、規模が格段に大きいことです。ハイパースケール・データセンターには、少なくとも5,000台のサーバーや、数マイルに及ぶことも多いネットワーク設備をはじめ、すべての関連設備を収容できる大きさの物理的な場所が必要です。そのため、多くのハイパースケール・データセンターが、数百万平方フィートもの広さに及ぶのです。

ハイパースケール・データセンターのもう一つの重要な側面が冗長性です。つまり、設備の故障や停電が発生したときに自動的に作動するバックアップ用の手段やデバイスを提供するということです。ハイパースケール・データセンターのシステムでは、冗長性が特に重要です。こうしたシステムはバックグラウンドで24時間自動で稼働し、人間による直接的な統制がほとんどない場合が多いためです。

ハイパフォーマンス・コンピューティング

IBM Cloud上の第4世代Intel Xeonスケーラブル・プロセッサー

クラウド業界向けの次世代マイクロアーキテクチャーに対するIntelとIBMの取り組みについてご覧ください。

ハイパースケール・データセンター:初期段階の検討事項

ハイパースケール・データセンターを運用したい組織が最善の行動方針を確立しようとする場合、決定すべきことは数多くあります。最初に検討するのは、「自ら建設するか借りるか」という点かもしれません。ほどほどの規模のデータセンターであっても、建設にはある程度の水準の投資が必要です。ハイパースケール・データセンターを建設するとなると、財務的コミットメントはさらに大きくなります。

別の手段としてコロケーション・データセンターを選択する企業も多くあります。データセンターの所有者が施設やサーバー・スペースを他の企業に貸し出す形のデータセンターです。この方法の魅力はすぐに分かります。すなわち、ハードウェアのニーズに見合ったスペースを借りるほうが、設備を収容するための建物全体を建設するのに比べ、少なくとも初期費用の面で投資額が大幅に少なくて済む点です。

2つの基本的な選択肢を比較すると、それぞれ長所と短所があるのは明らかです。ハイパースケール・データセンターを構築する場合、一般に多額の費用と多くの労働力が必要ですが、あらゆる調整可能な要素を自社に最適化した、自社専用の設計のハイパースケール施設を手に入れることができます。

また、コロケーション・データセンターのスペースを借りる場合、豊富な選択肢によって高い機動性を確保でき、必要な投資を大幅に抑えられます。しかし、コロケーション・データセンターが自社の理想的な仕様に合わせて設計されている可能性はまずありません。

さらに別の選択肢を検討する組織もあります。狙いは、組織が前進を続けるなかで、プライベートクラウドを基盤とするシステムのために高価なストレージ装置を追加購入しなくても、規模を拡大できるようにすることです。こうした組織の多くにとっては、自社所有のシステムから、Microsoft 365やGoogle SuiteなどのSoftware-as-a-Service(SaaS)アプリケーションで使われるようなパブリッククラウド 環境に運用を移行することが正解となります。

そのほかには、データセンターとして使用できるように事前設計された施設であるモジュール型データセンターなどの選択肢もあります。モジュール型データセンターは設計だけでなく配管も事前に完了しており、必要な冷却設備を備えています。モジュール型データセンターは、巨額の投資を行う前に限定的な方法でデータセンターの機能を試したい組織や、信頼性の高いデータセンター・ソリューションを迅速に導入する必要がある企業に最適です。

ハイパースケールの歴史

データセンターは1940年代から使用されています。当時は1台の巨大なコンピューターが置かれ、一つの区画をなしていました。その後の年月で、コンピューターのサイズ効率が向上するなかで、コンピューターがオンプレミスで占める物理スペースも変化していきました。そして1990年代になると、マイクロコンピューターの最初の爆発的な普及が見られ、IT運用に必要なサイズが大幅に削減されました。やがて、それまでの「サーバー・ルーム」は「データセンター」と呼ばれるようになりました。

重要な進展について言うと、最初のハイパースケール・データセンターは、2006年にGoogleがオレゴン州ザ・ダレス(ポートランド近郊)に開設したデータセンターだと一般に考えられています。このハイパースケール施設は、現時点で130万平方フィートの面積があり、データセンターのオペレーターとして約200人を雇用しています。ここで「現時点で」という表現を使ったのは、Googleが6億米ドルを投じてこの「エネルギー・キャンパス」を拡張する計画を進めている最中だからです。この拡張プロジェクトでは、29万平方フィートの広さをもつ5番目の建物を建設する予定です。このテクノロジーへの取り組みを強化していることの表れとして、Googleは現在、米国で14カ所のデータセンター施設を運営しているほか、ヨーロッパで6カ所、アジアで3カ所、チリで1カ所を運営しています。

現在、世界最大のハイパースケール施設は中国の内モンゴル地域に存在しています。その施設とは、China Telecom社が運営している約1,070万平方フィートのハイパースケール・データセンターです。表現を変えると、この最大のデータセンターの広さは、規定サイズのアメリカン・フットボールのフィールド165面分にあたります。フィールドを横に11個、縦に15個並べた広さです。当然ながら、この巨大なハイパースケール・データセンター(建設費は30億米ドル)は必要な機能を完備していますが、さらに、そこで働くハイパースケール・データセンター・オペレーター向けの居住施設も備えています。

ハイパースケール企業の上位3社

主要なハイパースケール企業に順位を付けるのは困難が伴う場合があります。まず、比較的簡単な問題として、使用する基準の定め方があります。理屈の上では、自前のハイパースケール・データセンターの所有数や建設数に着目することもできますが、各社のクラウド・サービスの提供状況を判断する基準として完全に正確とは言えません。多くの企業(Appleを含む)は、他のサービス・プロバイダーから借りたデータセンターを併用しているからです。

したがって、比較に利用できる現実的な手段は市場シェアの数字しかありません。本当に市場をけん引しているのはどのハイパースケール企業なのかを知るには、結局はこれが最良の指標となります。ハイパースケール・コンピューティング市場は決して静的ではなく、状況が常に変化しているため、この比較方法が多少不完全だということを差し置いてもです。

しかし、多数のトレンド・データが示唆するところによると、現在この市場では、次の3社のハイパースケール・プロバイダーからなる上位層が、最大セグメントとして確固たる地位を確立しています。

Amazon Web Services(AWS)

現在、AWSはハイパースケール・クラウド・サービスの最大手プロバイダーであり、AWSの共有は約32%と圧倒的です。AWSは32のクラウド・リージョンと102のアベイラビリティー・ゾーンで運営されており、総面積は3,350万平方フィートです。AWSはオートメーション、データベース管理、データ分析に関する専門性で知られています。

Microsoft Azure

Microsoftの人気のハイパースケール プラットフォームAzureは現在、ハイパースケール市場の約23%のシェアを占めています。Azureは62のクラウド・リージョンと120のアベイラビリティー・ゾーンで運営されています。当然ながら、Microsoft Azureは、エンタープライズ・データセンター向けのMicrosoft製ソフトウェアとの連携で特に効果を発揮します。

Google Cloud Platform(GCP)

Googleクラウドは、もともとデータ処理に関する幅広い専門知識で知られており、ハイパースケール市場の約10%を占め、118のアベイラビリティ ゾーンを持つ39のクラウド リージョンで運用されています。データの取り扱いやデータ処理に加えて、人工知能(AI)や高度な分析に強みがあることも、企業にとってのGCPの魅力となっています。

上位層に次ぐハイパースケール企業

この市場では、市場シェアの上位層の下に多数のプロバイダーがひしめいています。

  • Alibaba Cloud:Alibabaは、AWSなどの上位のプロバイダーほどの規模ではないものの、アジア太平洋地域のハイパースケール市場では確固たるシェアを獲得しています。注目すべきプロダクトには、インフラストラクチャー関連の製品やAIサービスがあります。

  • Apple:Apple社はクラウド・サービスにハイブリッド・モデルを採用しています。米国、ヨーロッパ、中国に8つのデータセンターを所有しており、さらに建設を進める計画です。加えて同社は、AWSやGCPなどのクラウド・コンピューティング・サービスの利用に関して、こうしたプロバイダーと複数年契約を結んでいます。

  • IBM Cloud:長年にわたりテクノロジーの発展の代名詞となってきたIBM Cloudには、エンタープライズ・データセンターと連携して、幅広い関連分野でサービスを提供してきた豊富な経験があります。最近では、AIに関する先駆的な取り組みで新たな注目が集まっています。

  • Meta Platforms:FacebookやInstagramなど、人気のオンライン・プラットフォームの親会社であるMeta Platforms社は、世界中で21のハイパースケール・データセンターを運営し、その総面積は5,000万平方フィートを超えています。

  • Oracle Cloud Infrastructure(OCI):OCIは、AWSに代わる低価格のクラウド・インフラストラクチャーというポジショニングをとっており、AWSと同様のサービスを大幅に安く提供しています。OCIはクラウドネイティブ・アプリケーションの構築や、極めて重要なワークロードの簡単な移行を実現できる点で優れています。

ハイパースケール・データセンターの電力使用量

ハイパースケール・データセンターに関する問題のうち、特に差し迫っているのが、電力使用量の問題です。ハイパースケール・データセンターの運用に欠かせない膨大なコンピューティング能力は、大量の電力によって生み出されます。ハイパースケール・データセンターは、暗号通貨やビットコイン・マイニングの台頭と同様に、並外れて膨大な電力を必要とする最近の技術発展であり、エコロジーの観点でのサステナビリティー目標に大なり小なり反しています(ただし一部の企業は、こうした問題を緩和する方法や解消する方法を見つけつつあります)。

常時稼働している数千台のコンピューター・サーバーに加えて、電力設備やネットワーク装置(例えば変圧器やルーターなど)、さらにはハードウェアの熱過負荷状態を防ぐ極めて重要な冷却システムに関しても、必要な電力を考慮する必要があります。しかも、こうした込み入った設備を収容する巨大な建造物の建設と運営に要するコストは、別途考えなくてはなりません。

だからこそ、ハイパースケール・データセンターを効果的に運営するにはエネルギー効率が非常に重要となるのです。もし1台のサーバーが最高の効率で稼働していないとしても、その重大性は無視できると考えられます。しかし、ハイパースケール施設が収容する何千台ものサーバーが効率的に稼働していないとしたら、はるかに重大な問題で大きなコストにつながると考えられます。

ハイパースケール・データセンターは、規模によってはメガワット級やギガワット級の電力を必要とする場合があります。ハイパースケール・データセンターと一口に言っても大きなばらつきがあるため、平均的な電力使用量を特定するのは困難です。データセンターのさまざまな規模に関する以下の目安は、公式の定義ではなく、長い年月のなかで定まった非公式なコンセンサスであり、データセンター施設に対する一般的な理解に役立ちます。

  • マイクロデータセンター:データセンターとして認識されているなかでは規模が最も小さく、通常は単一の企業やリモート・オフィスで利用します。マイクロデータセンターの収容能力は一般にサーバー・ラック10台以下で、これはサーバー数では合計約140台に相当します。マイクロデータセンターの面積は通常は5,000平方フィート未満です。消費電力:100~150kW未満。

  • 小規模データセンター:小規模データセンターは一般に5,000~20,000平方フィートの面積を必要とし、500~2,000台のサーバーを収容します。消費電力:1~5MW。

  • 平均的データセンター:オンサイトの平均的なデータセンターは、通常は2,000~5,000台のサーバーを収容します。面積に関しても同様に幅があり、20,000~100,000平方フィートです。消費電力:約100MW。

  • ハイパースケール・データセンター:IDCのハイパースケーラーの定義によると、真のハイパースケール・データセンターと見なされるには、施設に少なくとも5,000台のサーバーが収容され、少なくとも10,000平方フィートの物理スペースが占有されている必要があります。消費電力:100MW以上。

エネルギー供給と地理的問題

ハイパースケール・データを取り扱うには膨大な電力が必要です。そこで、この種のインフラストラクチャーに多額の投資を行おうとする企業は、地理的な問題を考える必要が生じます。

エネルギーは場所によっては割高となるため、企業のハイパースケール・データセンターの建設候補地として未開発/発展途上の国または地域が検討されることも珍しくありません。そうした場所の電力料金の方が魅力的だからです。

しかし、考慮すべき基準はそれだけではありません。手頃な価格のエネルギー源をもつ地域を見つけることや、地域のサステナビリティーを尊重することも重要です。さらには、危険な気象状況が常態化していないと考えられる場所を見つけることも重要です。危険な気象状況とは、停電やダウンタイムをもたらし、企業のミッションクリティカルな機能が損なわれる恐れがある状況を指します。

企業は、ハイパースケール・データセンターを手頃なコストで運営しつつ、カーボン・フットプリントをできるだけ削減するために、自社の取り組みとサステナビリティー目標のバランスをとろうとしています。電力使用量を削減するという動機は、企業がハイパースケール・データセンターの電力に再生可能エネルギー・ソリューションの利用を推進することにもつながっています。ハイパースケール・コンピューティングに関与する主要企業のほとんどは、膨大な電力使用量を相殺する方法として、太陽光発電や風力発電などの再生可能エネルギーの選択肢を既に調査したり、検討を始めたりしています。

クラウド・サービス・プロバイダーが、自社のデータセンターで完全なサステナビリティーが実現すると確約している場合もあります。最も印象的なのは、2014年から実際に建設的な行動で持続可能性をサポートしてきたAppleです。Apple社はこの年から、自社の全データセンターの電力を完全に再生可能エネルギーでまかなうことを義務付けました。現在までの10年間、Apple社のすべてのデータセンターは、バイオガス燃料電池、水力発電、太陽光発電、風力発電のさまざまな組み合わせで運用されています。

ハイパースケール・データセンターの最新動向と今後の展開

データ・ブームは終焉を迎えるどころか、下火に向かう気配すらありません。実際、いまだに上昇傾向にあることを示す証拠が数多くあります。

データの量とデータ・ソースの数が増大

これほど大量のデータが生成、記録、精査されるようになったのは、歴史上初めてのことです。テクノロジーが新たな段階に入り、シンプルな機器ですら非常に巧妙な設計になりました。この結果、多数の機器が個々にデータを生成して送信し、これをアーカイブや分析に使用できる環境が、モノのインターネット(IoT)を通じて実現されています。

ストレージは今後数年間で3倍に

シンクタンクのSynergy Research Group社(定量的調査と市場情報を提供)が2023年10月に発表した調査結果によると、AIの発展に伴ってハイパースケール・データセンターのキャパシティーの増加が促され、現在から2028年までの間に、ハイパースケール・データセンターの平均キャパシティー(ibm.com外部へのリンク)は3倍以上に増加する見通しです。

他の業界への波及効果

ハイパースケール・データセンターの開設は他の業界の活性化にもつながります。例えば製造業が該当します(何千台ものサーバー・ラックの生産が必要になることを考えてみましょう)。また不動産業でも、この巨大施設に使用する未開発の広大な土地の売買が発生します。そして、建設業界も利益を得ます。

市場は"成長痛"を経験

2024 年の Newmark レポートでは、データセンターとハイパースケール・データセンターの世界最大の消費者である米国市場に影響を与えている現在の状況を分析しました。同社の調査結果によると、米国では新しいデータセンターに対する需要が現在のキャパシティーの水準をはるかに上回っています。この傾向は特に、米国の主要都市とその周辺で顕著です。

電力使用量は2030年には倍増

AIと機械学習で現実のものとなった技術的飛躍に伴って、今後は必要な電力が大幅に増加していきます。ニューマークは同じ2024年のレポートで、2030年に必要なデータセンターの電力は、2022年の17MWからほぼ2倍になると予測しました。同社の予測では、データセンターの総使用量は35GWに達します。

関連ソリューション
IBM Spectrum LSF Suites

IBM Spectrum LSF Suites は、分散型ハイパフォーマンス・コンピューティング(HPC)用のワークロード・マネジメント・プラットフォームおよびジョブ・スケジューラーです。

Spectrum LSFスイートの詳細はこちら
ハイパフォーマンス・コンピューティング(HPC)サーバーとストレージ・ソリューション | IBM

IBMのハイブリッド・クラウドHPCソリューションは、大規模で計算集約的な課題に取り組み、インサイト獲得までの時間を短縮するのに役立ちます。

HPCソリューションの詳細はこちら
クラウド・インフラストラクチャー・ソリューション

ビジネスニーズに合ったクラウド・インフラストラクチャー・ソリューションを見つけ、必要に応じてリソースを柔軟に拡張します。

クラウド・ソリューション
次のステップ

IBMのHPCソリューションを使用して、最も要求の厳しいAIと計算負荷の高いワークロードを強化します。ハイブリッドクラウドの柔軟性と最先端のインフラストラクチャーを活用して、イノベーションへの道を加速させます。

HPCソリューションはこちら