公開日:2024年3月21日
寄稿者:Phill Powell、Ian Smalley
この2つの用語と、そこから生じる曖昧さについて、少し時間をとって明確にすべきでしょう。そもそも、この2つの用語は同じ意味で使われることが多く、混乱の原因になります。
"ハイパースケーラー"は、ハイパースケール・データセンターを表す愛称としてよく使われます。しかし困ったことに、"ハイパースケーラー"という用語には既に確立された意味があります。さらにこの用語は、AWSのようなクラウド・サービス・プロバイダー(CSP)や、ハイパースケール・データセンター・サービスを提供するその他の企業を表すときにも、同じくらいよく使われるのです。
同じ用語が、データセンターの種類を表す場合もあれば、ハイパースケール・コンピューティングを専門としてその種のデータセンターを運営する企業を表す場合もあるというのは、混乱のもとです(例えば「ハイパースケーラーがハイパースケーラーを構築した」という文も成り立ちます)。そこでこのページでは、ハイパースケール・データセンターについて説明するときと、クラウド・サービス・プロバイダー(CSP)について言及するときに、それぞれ別の用語を用いることとし、"ハイパースケーラー"という包括的な用語を使用することは避けます。
IBM zSystemsとハイブリッドクラウドを使用してメインフレーム・アプリケーションのモダナイゼーションを加速する、IBMの戦略の概要をお読みください。
あらゆる規模のデータセンターの原点をたどっていくと、仮想化という重要な概念に行き着きます。仮想化では、コンピューターのハードウェア上にソフトウェアで抽象化レイヤーを作成することによって、1台のコンピューターのハードウェア・コンポーネントを複数の仮想マシン(VM)に分割します。各VMはそれぞれ独自のOSを稼働させ、1台の独立したコンピューターとして動作しますが、基盤にある物理的なコンピューター・ハードウェアの一部しか動作に使用していません。こうして、仮想化によってクラウド・コンピューティングが可能になります。
ハイパースケール・データセンターが従来のデータセンターと特に異なるのは、規模が格段に大きいことです。ハイパースケール・データセンターには、少なくとも5,000台のサーバーや、数マイルに及ぶことも多いネットワーク設備をはじめ、すべての関連設備を収容できる大きさの物理的な場所が必要です。そのため、多くのハイパースケール・データセンターが、数百万平方フィートもの広さに及ぶのです。
ハイパースケール・データセンターのもう一つの重要な側面が冗長性です。つまり、設備の故障や停電が発生したときに自動的に作動するバックアップ用の手段やデバイスを提供するということです。ハイパースケール・データセンターのシステムでは、冗長性が特に重要です。こうしたシステムはバックグラウンドで24時間自動で稼働し、人間による直接的な統制がほとんどない場合が多いためです。
ハイパースケール・データセンターを運用したい組織が最善の行動方針を確立しようとする場合、決定すべきことは数多くあります。最初に検討するのは、「自ら建設するか借りるか」という点かもしれません。ほどほどの規模のデータセンターであっても、建設にはある程度の水準の投資が必要です。ハイパースケール・データセンターを建設するとなると、財務的コミットメントはさらに大きくなります。
別の手段としてコロケーション・データセンターを選択する企業も多くあります。データセンターの所有者が施設やサーバー・スペースを他の企業に貸し出す形のデータセンターです。この方法の魅力はすぐに分かります。すなわち、ハードウェアのニーズに見合ったスペースを借りるほうが、設備を収容するための建物全体を建設するのに比べ、少なくとも初期費用の面で投資額が大幅に少なくて済む点です。
2つの基本的な選択肢を比較すると、それぞれ長所と短所があるのは明らかです。ハイパースケール・データセンターを構築する場合、一般に多額の費用と多くの労働力が必要ですが、あらゆる調整可能な要素を自社に最適化した、自社専用の設計のハイパースケール施設を手に入れることができます。
また、コロケーション・データセンターのスペースを借りる場合、豊富な選択肢によって高い機動性を確保でき、必要な投資を大幅に抑えられます。しかし、コロケーション・データセンターが自社の理想的な仕様に合わせて設計されている可能性はまずありません。
さらに別の選択肢を検討する組織もあります。狙いは、組織が前進を続けるなかで、プライベートクラウドを基盤とするシステムのために高価なストレージ装置を追加購入しなくても、規模を拡大できるようにすることです。こうした組織の多くにとっては、自社所有のシステムから、Microsoft 365やGoogle SuiteなどのSoftware-as-a-Service(SaaS)アプリケーションで使われるようなパブリッククラウド環境に運用を移行することが正解となります。
そのほかには、データセンターとして使用できるように事前設計された施設であるモジュール型データセンターなどの選択肢もあります。モジュール型データセンターは設計だけでなく配管も事前に完了しており、必要な冷却設備を備えています。モジュール型データセンターは、巨額の投資を行う前に限定的な方法でデータセンターの機能を試したい組織や、信頼性の高いデータセンター・ソリューションを迅速に導入する必要がある企業に最適です。
データセンターは1940年代から使用されています。当時は1台の巨大なコンピューターが置かれ、一つの区画をなしていました。その後の年月で、コンピューターのサイズ効率が向上するなかで、コンピューターがオンプレミスで占める物理スペースも変化していきました。そして1990年代になると、マイクロコンピューターの最初の爆発的な普及が見られ、IT運用に必要なサイズが大幅に削減されました。やがて、それまでの「サーバー・ルーム」は「データセンター」と呼ばれるようになりました。
重要な進展について言うと、最初のハイパースケール・データセンターは、2006年にGoogleがオレゴン州ザ・ダレス(ポートランド近郊)に開設したデータセンターだと一般に考えられています。このハイパースケール施設は、現時点で130万平方フィートの面積があり、データセンターのオペレーターとして約200人を雇用しています。ここで「現時点で」という表現を使ったのは、Googleが6億米ドルを投じてこの「エネルギー・キャンパス」を拡張する計画を進めている最中だからです。この拡張プロジェクトでは、29万平方フィートの広さをもつ5番目の建物を建設する予定です。このテクノロジーへの取り組みを強化していることの表れとして、Googleは現在、米国で14カ所のデータセンター施設を運営しているほか、ヨーロッパで6カ所、アジアで3カ所、チリで1カ所を運営しています。
現在、世界最大のハイパースケール施設(ibm.com外部へのリンク)は中国の内モンゴル自治区にあります。その施設とは、China Telecom社が運営している約1,070万平方フィートのハイパースケール・データセンターです。表現を変えると、この最大のデータセンターの広さは、規定サイズのアメリカン・フットボールのフィールド165面分にあたります。フィールドを横に11個、縦に15個並べた広さです。当然ながら、この巨大なハイパースケール・データセンター(建設費は30億米ドル)は必要な機能を完備していますが、さらに、そこで働くハイパースケール・データセンター・オペレーター向けの居住施設も備えています。
主要なハイパースケール企業に順位を付けるのは困難が伴う場合があります。まず、比較的簡単な問題として、使用する基準の定め方があります。理屈の上では、自前のハイパースケール・データセンターの所有数や建設数に着目することもできますが、各社のクラウド・サービスの提供状況を判断する基準として完全に正確とは言えません。多くの企業(Appleを含む)は、他のサービス・プロバイダーから借りたデータセンターを併用しているからです。
したがって、比較に利用できる現実的な手段は市場シェアの数字しかありません。本当に市場をけん引しているのはどのハイパースケール企業なのかを知るには、結局はこれが最良の指標となります。ハイパースケール・コンピューティング市場は決して静的ではなく、状況が常に変化しているため、この比較方法が多少不完全だということを差し置いてもです。
しかし、多数のトレンド・データが示唆するところによると、現在この市場では、次の3社のハイパースケール・プロバイダーからなる上位層が、最大セグメントとして確固たる地位を確立しています。
現在、AWSはハイパースケール・クラウド・サービスの最大のプロバイダーであり、AWSの市場シェア(ibm.com外部へのリンク)は約32%と圧倒的です。AWSは32のクラウド・リージョンと102のアベイラビリティー・ゾーンで運営されており、総面積は3,350万平方フィートです。AWSはオートメーション、データベース管理、データ分析に関する専門性で知られています。
Microsoft社の人気のハイパースケール・プラットフォームであるAzureは、現在のハイパースケール市場で約23%のシェアを獲得(ibm.com外部へのリンク)しています。Azureは62のクラウド・リージョンと120のアベイラビリティー・ゾーンで運営されています。当然ながら、Microsoft Azureは、エンタープライズ・データセンター向けのMicrosoft製ソフトウェアとの連携で特に効果を発揮します。
Google Cloudは当初、主にデータ処理に関する幅広い専門性で知られていました。ハイパースケール市場で約10%のシェアを獲得(ibm.com外部へのリンク)し、39のクラウド・リージョン、118のアベイラビリティー・ゾーンで運営されています。データの取り扱いやデータ処理に加えて、人工知能(AI)や高度な分析に強みがあることも、企業にとってのGCPの魅力となっています。
この市場では、市場シェアの上位層の下に多数のプロバイダーがひしめいています。
Alibaba Cloud:Alibabaは、AWSなどの上位のプロバイダーほどの規模ではないものの、アジア太平洋地域のハイパースケール市場では確固たるシェアを獲得しています。注目すべきプロダクトには、インフラストラクチャー関連の製品やAIサービスがあります。
Apple:Apple社はクラウド・サービスにハイブリッド・モデルを採用しています。米国、ヨーロッパ、中国に8つのデータセンターを所有しており、さらに建設を進める計画です。加えて同社は、AWSやGCPなどのクラウド・コンピューティング・サービスの利用に関して、こうしたプロバイダーと複数年契約を結んでいます。
IBM Cloud:長年にわたりテクノロジーの発展の代名詞となってきたIBM Cloudには、エンタープライズ・データセンターと連携して、幅広い関連分野でサービスを提供してきた豊富な経験があります。最近では、AIに関する先駆的な取り組みで新たな注目が集まっています。
Meta Platforms:FacebookやInstagramなど、人気のオンライン・プラットフォームの親会社であるMeta Platforms社は、世界中で21のハイパースケール・データセンターを運営し、その総面積は5,000万平方フィートを超えています。
Oracle Cloud Infrastructure(OCI):OCIは、AWSに代わる低価格のクラウド・インフラストラクチャーというポジショニングをとっており、AWSと同様のサービスを大幅に安く提供しています。OCIはクラウドネイティブ・アプリケーションの構築や、極めて重要なワークロードの簡単な移行を実現できる点で優れています。
ハイパースケール・データセンターに関する問題のうち、特に差し迫っているのが、電力使用量の問題です。ハイパースケール・データセンターの運用に欠かせない膨大なコンピューティング能力は、大量の電力によって生み出されます。ハイパースケール・データセンターは、暗号通貨やビットコイン・マイニングの台頭と同様に、並外れて膨大な電力を必要とする最近の技術発展であり、エコロジーの観点でのサステナビリティー目標に大なり小なり反しています(ただし一部の企業は、こうした問題を緩和する方法や解消する方法を見つけつつあります)。
常時稼働している数千台のコンピューター・サーバーに加えて、電力設備やネットワーク装置(例えば変圧器やルーターなど)、さらにはハードウェアの熱過負荷状態を防ぐ極めて重要な冷却システムに関しても、必要な電力を考慮する必要があります。しかも、こうした込み入った設備を収容する巨大な建造物の建設と運営に要するコストは、別途考えなくてはなりません。
だからこそ、ハイパースケール・データセンターを効果的に運営するにはエネルギー効率が非常に重要となるのです。もし1台のサーバーが最高の効率で稼働していないとしても、その重大性は無視できると考えられます。しかし、ハイパースケール施設が収容する何千台ものサーバーが効率的に稼働していないとしたら、はるかに重大な問題で大きなコストにつながると考えられます。
ハイパースケール・データセンターは、規模によってはメガワット級やギガワット級の電力を必要とする場合があります。ハイパースケール・データセンターと一口に言っても大きなばらつきがあるため、平均的な電力使用量を特定するのは困難です。データセンターのさまざまな規模に関する以下の目安は、公式の定義ではなく、長い年月のなかで定まった非公式なコンセンサスであり、データセンター施設に対する一般的な理解に役立ちます。
マイクロデータセンター:データセンターとして認識されているなかでは規模が最も小さく、通常は単一の企業やリモート・オフィスで利用します。マイクロデータセンターの収容能力は一般にサーバー・ラック10台以下で、これはサーバー数では合計約140台に相当します。マイクロデータセンターの面積は通常は5,000平方フィート未満です。消費電力:100~150kW未満。
小規模データセンター:小規模データセンターは一般に5,000~20,000平方フィートの面積を必要とし、500~2,000台のサーバーを収容します。消費電力:1~5MW。
平均的データセンター:オンサイトの平均的なデータセンターは、通常は2,000~5,000台のサーバーを収容します。面積に関しても同様に幅があり、20,000~100,000平方フィートです。消費電力:約100MW。
ハイパースケール・データセンター:IDCのハイパースケーラーの定義(ibm.com外部へのリンク)によると、真のハイパースケール・データセンターと呼べるのは、少なくとも5,000台のサーバーを収容し、少なくとも10,000平方フィートの物理スペースを使用している施設です。消費電力:100MW以上。
ハイパースケール・データを取り扱うには膨大な電力が必要です。そこで、この種のインフラストラクチャーに多額の投資を行おうとする企業は、地理的な問題を考える必要が生じます。
エネルギーは場所によっては割高となるため、企業のハイパースケール・データセンターの建設候補地として未開発/発展途上の国または地域が検討されることも珍しくありません。そうした場所の電力料金の方が魅力的だからです。
しかし、考慮すべき基準はそれだけではありません。手頃な価格のエネルギー源をもつ地域を見つけることや、地域のサステナビリティーを尊重することも重要です。さらには、危険な気象状況が常態化していないと考えられる場所を見つけることも重要です。危険な気象状況とは、停電やダウンタイムをもたらし、企業のミッションクリティカルな機能が損なわれる恐れがある状況を指します。
企業は、ハイパースケール・データセンターを手頃なコストで運営しつつ、カーボン・フットプリントをできるだけ削減するために、自社の取り組みとサステナビリティー目標のバランスをとろうとしています。電力使用量を削減するという動機は、企業がハイパースケール・データセンターの電力に再生可能エネルギー・ソリューションの利用を推進することにもつながっています。ハイパースケール・コンピューティングに関与する主要企業のほとんどは、膨大な電力使用量を相殺する方法として、太陽光発電や風力発電などの再生可能エネルギーの選択肢を既に調査したり、検討を始めたりしています。
クラウド・サービス・プロバイダーが、自社のデータセンターで完全なサステナビリティーが実現すると確約している場合もあります。特に印象的なのはApple社(ibm.com外部へのリンク)です。2014年から実際に、サステナビリティーのための建設的な行動を進めています。Apple社はこの年から、自社の全データセンターの電力を完全に再生可能エネルギーでまかなうことを義務付けました。現在までの10年間、Apple社のすべてのデータセンターは、バイオガス燃料電池、水力発電、太陽光発電、風力発電のさまざまな組み合わせで運用されています。
データ・ブームは終焉を迎えるどころか、下火に向かう気配すらありません。実際、いまだに上昇傾向にあることを示す証拠が数多くあります。
これほど大量のデータが生成、記録、精査されるようになったのは、歴史上初めてのことです。テクノロジーが新たな段階に入り、シンプルな機器ですら非常に巧妙な設計になりました。この結果、多数の機器が個々にデータを生成して送信し、これをアーカイブや分析に使用できる環境が、モノのインターネット(IoT)を通じて実現されています。
シンクタンクのSynergy Research Group社(定量的調査と市場情報を提供)が2023年10月に発表した調査結果によると、AIの発展に伴ってハイパースケール・データセンターのキャパシティーの増加が促され、現在から2028年までの間に、ハイパースケール・データセンターの平均キャパシティー(ibm.com外部へのリンク)は3倍以上に増加する見通しです。
ハイパースケール・データセンターの開設は他の業界の活性化にもつながります。例えば製造業が該当します(何千台ものサーバー・ラックの生産が必要になることを考えてみましょう)。また不動産業でも、この巨大施設に使用する未開発の広大な土地の売買が発生します。そして、建設業界も利益を得ます。
Newmark社の2024年のレポート(ibm.com外部へのリンク)では、データセンターとハイパースケール・データセンターを世界で最も利用している米国市場を取り巻く現在の状況に関する分析がなされました。同社の調査結果によると、米国では新しいデータセンターに対する需要が現在のキャパシティーの水準をはるかに上回っています。この傾向は特に、米国の主要都市とその周辺で顕著です。
AIと機械学習で現実のものとなった技術的飛躍に伴って、今後は必要な電力が大幅に増加していきます。Newmark社は上述の2024年のレポートで、2030年のデータセンターで必要な電力(ibm.com外部へのリンク)は、2022年の17MWという水準に対してほぼ2倍になるとの見通しを示しています。同社の予測では、データセンターの総使用量は35GWに達します。
1 ノードから 1000 ノード以上に拡張できるパフォーマンスと容量を備えた IBM Storage Scale をデプロイする最も簡単な方法をご覧ください。
IBMのb-typeとc-typeのSANスイッチでストレージ・インフラストラクチャーを刷新し、総所有コストを削減します。
さまざまなアプリケーションやランディング・ゾーンをサポートするAcceleratorを活用して、IBM Cloudプラットフォームの導入を加速させます。
IBMソフトウェア(IBM FlashSystemなど)とIBMハードウェア・ソリューションを利用して、データ・ストレージの構成要素の両面のバランスをとることができます。
ハイパースケールとは、きわめて大規模なワークロードに対応するために並外れた拡張性を備えた設計の分散コンピューティング環境でありアーキテクチャーです。
ストレージ・エリア・ネットワーク(SAN)は、特定の環境に合わせて調整された専用ネットワークであり、サーバー、ストレージ・システム、ネットワーキング・スイッチ、ソフトウェア、サービスを組み合わせたものです。
データセンターは、アプリケーションやサービスを構築、実行、提供するためのITインフラストラクチャーや、こうしたアプリケーションやサーバーに関連するデータを保管、管理するためのITインフラストラクチャーを収容する、物理的な部屋、建物、施設です。
データ・ストレージとは、進行中または将来のオペレーションのためにデジタル情報を記録および保存する磁気、光学、または機械メディアのことを指します。
オブジェクト・ストレージは、大量の静的な非構造化データを手頃なコストで確実かつ効率的に保管、アーカイブ、バックアップ、管理するのに最適なデータ・ストレージ・アーキテクチャーです。
ITインフラストラクチャーとは、企業のITサービスやIT環境の運用と管理に必要な構成要素を組み合わせたものを指します。