データセンターとは、アプリケーションやサービスを構築、実行、配信するためのITインフラストラクチャーを収容する物理的な部屋、建物、または施設のことです。また、それらのアプリケーションやサービスに関連するデータも保存および管理します。
データセンターは、1つの企業専用の従来のITインフラストラクチャーを収容する、個人所有で厳密に管理されたオンプレミス施設として始まりました。最近では、クラウド・サービス・プロバイダー(CSP)が所有するリモート施設や施設のネットワークへと進化しています。これらのCSPデータセンターには、複数の企業や顧客が共有するための仮想化されたITインフラストラクチャーが備えられています。
データセンターの歴史は1940年代にさかのぼります。1945年にペンシルバニア大学で完成した米軍の電気数値積分計算機(ENIAC)は、巨大なマシンを収容するために専用のスペースを必要としたデータセンターの初期の例です。
長年にわたり、コンピューターはより小型化され、必要な物理的スペースが少なくなりました。1990年代にマイクロコンピューターが登場し、IT運用に必要なスペースが大幅に削減されました。古いメインフレームのコンピューター・ルームに集まり始めたこれらのマイクロコンピューターは「サーバー」と呼ばれるようになり、その部屋は「データセンター」と呼ばれるようになりました。
2000年代初頭のクラウド・コンピューティングの登場により、従来のデータセンターの状況は大きく変化しました。クラウド・サービスにより、組織はインターネット経由でオンデマンドでコンピューティング・リソースにアクセスでき、従量課金制で、必要に応じて柔軟にスケールアップまたはスケールダウンできます。
2006年、Googleはオレゴン州ダレスに初のハイパースケールのデータセンターを開設しました。このハイパースケール施設は、現時点で130万平方フィートの面積があり、データセンターのオペレーターとして約200人を雇用しています。1
米大手コンサルティング会社のMcKinsey & Company社の調査では、この業界は2030年まで毎年10%成長し、新しい施設の建設にかかる世界の支出は490億米ドルに達すると予測されています。2
データセンターの施設にはさまざまな種類があり、1社の企業でもワークロードやビジネス上のニーズに応じて、複数の種類を使用する場合もあります。
このデータセンター・モデルは、すべてのITインフラストラクチャーとデータをオンプレミスでホストしますが、多くの企業はオンプレミスのデータセンターを選択しています。情報セキュリティーをより細かく制御でき、欧州連合の 一般データ保護規則(GDPR) や医療保険の相互運用性と説明責任に関する法律(HIPAA)などの規制に簡単に準拠できます。同社は、エンタープライズ向けデータセンターにおけるすべてのデプロイメント、監視、管理タスクを担当しています。
クラウド・データセンター(別名、クラウド・コンピューティング・データセンター)には、インターネット接続を介して数十人から数百万人までの複数の顧客が共有できるITインフラストラクチャー・リソースが格納されています。
最大規模のクラウド・データセンターの多くは、ハイパースケール・データセンターと呼ばれ、Amazon Web Services(AWS)、Google Cloud Platform、IBM Cloud、Microsoft Azureなどの主要なクラウド・サービス・プロバイダー(CSP)によって運営されています。これらの企業は、世界中のあらゆる地域に大規模なデータセンターを持っています。たとえば、IBMは世界中のさまざまな場所で60を超えるIBM Cloudデータセンターを運営しています。
ハイパースケール・データセンターは従来のデータセンターよりも規模が大きく、数百万平方フィート(数万~数十万平米)の面積をカバーできます。通常、少なくとも5,000台のサーバーと数マイルの接続機器が収容されており、面積は60,000平方フィート(約5570平米)にもなることがあります。
クラウド・サービス・プロバイダーは通常、クラウド・カスタマー(およびクラウド・カスタマーの利用者)の近くに小規模なエッジ・データセンター(EDC)を維持しています。エッジ・データセンターは、アプリケーションをエンド・ユーザーに近づける分散コンピューティング・フレームワークであるエッジコンピューティングの基盤を形成します。エッジ・データセンターは、ビッグデータ分析、人工知能(AI)、機械学習(ML)、コンテンツ配信などのリアルタイムでデータ集約型のワークロードに最適です。これらは、レイテンシーを最小限に抑え、アプリケーション全体のパフォーマンスと顧客体験を向上させるのに役立ちます。
マネージド・データセンターとコロケーション施設は、オンプレミスでITインフラストラクチャーを管理するためのスペース、スタッフ、または専門知識が不足している組織にとってのオプションです。これらのオプションは、パブリッククラウド・データセンターの共有リソースを使用することで、インフラストラクチャーをホストしたくないユーザーに最適です。
マネージド・データセンターでは、クライアント企業はプロバイダーから専用サーバー、ストレージ、ネットワーク ハードウェアをリースし、プロバイダーがクライアント企業の管理、監視、運営を担当します。
コロケーション施設の場合、クライアント企業がすべてのインフラストラクチャーを所有し、施設内の専用スペースをリースしてそのインフラストラクチャーをホストします。従来のコロケーション・モデルでは、クライアント企業がハードウェアへの唯一のアクセス権を持ち、その管理の全責任を負います。これはプライバシーとセキュリティの面では理想的ですが、特に停電や緊急事態が発生した場合は現実的ではないことがよくあります。現在、ほとんどのコロケーション・プロバイダーが、希望するクライアント向けに管理および監視サービスを提供しています。
企業は、中小企業(SMB)向けのリモート・データ・バックアップと災害復旧(DR) テクノロジーを収容するために、マネージド・データセンターとコロケーション施設を選択することがよくあります。
社内オンプレミスのデータセンターを含む最新のデータセンターのほとんどは、従来のITアーキテクチャーから進化しています。各アプリケーションやワークロードを専用のハードウェアで実行する代わりに、CPU、ストレージ、ネットワークなどの物理リソースが仮想化されたクラウド・アーキテクチャーが使用されるようになりました。仮想化により、これらのリソースを物理的な限界から抽象化し、複数のアプリケーションやワークロードで必要なだけ割り当てできる容量にまとめることができます。
また、仮想化により、Software-Defined Infrastructure(SDI)が可能になります。SDIとは、人間による介入なしに、プログラムによってプロビジョニング、構成、実行、保守、そして「スピンダウン」ができるインフラストラクチャーです。
この仮想化により、ネットワーク、ストレージ、コンピューティングなどのインフラストラクチャー要素を仮想化し、サービスとして提供するサーバー管理コンセプトである ソフトウェア定義データセンター(SDDC)などの新しいデータセンター・アーキテクチャーが生まれました。この機能により、組織は物理的な変更を加えずに各アプリケーションとワークロードのインフラストラクチャーを最適化できるため、パフォーマンスの向上とコストの管理に役立ちます。サービスとしてのデータセンター・モデルは今後さらに普及する見込みで、IDCは2026年までにテクノロジー・バイヤーの65%がこれらのモデルを優先すると予測しています。3
クラウド・アーキテクチャーとSDIを組み合わせることで、データセンターとそのユーザーに次のような多くの利点がもたらされます。
仮想化により、企業やクラウドはリソースを最適化し、最小限のハードウェアと最小限の未使用またはアイドル状態の容量で、最も多くのユーザーにサービスを提供できるようになります。
SDIの自動化により、新しいインフラストラクチャーのプロビジョニングは、セルフサービス・ポータルからリクエストを出すのと同じくらい簡単になりました。
仮想化されたITインフラストラクチャーは、従来のITインフラストラクチャーよりもはるかに簡単に拡張できます。オンプレミス型のデータセンターを利用している企業でも、必要に応じてワークロードをクラウドにバーストさせることで、必要に応じて容量を追加できます。
企業やクラウドは、同じインフラストラクチャーからITを利用・提供するためのさまざまな方法をユーザーに提供できます。ワークロードの要求に基づいて選択が行われ、IaaS(Infrastructure as a Service ) 、PaaS(Platform as a Service) 、SaaS(Software as a Service)などがあります。CSPは、これらのサービスをプライベート・オンプレミス・データセンターで使用するために、または プライベートクラウド、パブリッククラウド、ハイブリッドクラウド、または マルチクラウド 環境のクラウドソリューションとして提供します。
その他のデータ・ソリューションには、モジュール型データセンター(データセンターとして使用するために事前に設計された施設で、配管も事前に行われ、必要な冷却装置も装備されています)が含まれます。
コンテナ化とサーバーレス・コンピューティング、および堅牢なオープンソース・エコシステムにより、DevOpsサイクルとアプリケーションのモダナイゼーションが実現および加速され、一度開発すればどこにでもデプロイできるアプリケーションが実現します。
サーバーは、アプリケーション、サービス、データをエンドユーザーのデバイスに配信する強力なコンピューターです。データセンターのサーバーには、いくつかのフォーム・ファクターがあります。
サーバー・フォーム・ファクターの選択は、データセンター内の使用可能なスペース、サーバー上で実行されるワークロード、使用可能な電力とコストなど、多くの要因によって決まります。
ほとんどのサーバーには、DAS(Direct Attached Storage)と呼ばれるローカル・ストレージ機能が組み込まれており、最も頻繁に使用されるデータ(ホット・データ)をCPUの近くに保持できます。
他の2つのデータセンター・ストレージ構成には、ネットワーク接続ストレージ(NAS)とストレージ・エリア・ネットワーク(SAN)が含まれます。
NASは、標準的なイーサネット接続を介して複数のサーバーにデータ・ストレージとデータ・アクセスを提供します。NASデバイスは通常、ハードディスク・ドライブ(HDD)やソリッドステート・ドライブ(SSD) などのさまざまなストレージ・メディアを備えた専用サーバーです。
NASと同様、SANは共有ストレージを可能にしますが、データには別のネットワークを使用し、複数のストレージ・サーバー、アプリケーション・サーバー、およびストレージ管理ソフトウェアのより複雑な組み合わせを伴います。
1つのデータセンターで、DAS、NAS、SANの3つのストレージ構成すべてと、ファイル・ストレージ、ブロック・ストレージ、オブジェクト・ストレージ・タイプが使用される場合があります。
データセンターのネットワーク・トポロジーとは、インフラストラクチャー、サーバーとコンポーネント間の接続、データ・フローなど、データセンターのネットワーク・デバイスの物理的なレイアウトと相互接続を指します。
データセンター・ネットワークは、サーバー間のトラフィック(東西トラフィック)とサーバーからクライアントへのトラフィック(南北トラフィック)をネットワーク化するスイッチ、ルーター、光ファイバーなどのさまざまなネットワーク機器で構成されています。
前述のように、データセンターには通常、仮想化されたネットワーク・サービスがあります。この機能により、ネットワークの物理インフラストラクチャー上に構築されたソフトウェア定義のオーバーレイ・ネットワークを作成し、特定のセキュリティー制御やサービス・レベル契約(SLA)に対応できるようになります。
データセンターでは、サーバーとストレージ・システム間、および受信ネットワーク・トラフィックと送信ネットワーク・トラフィック間の通信を可能にするために、高帯域幅の接続が必要です。ハイパースケールデータセンターの場合、帯域幅要件は数ギガビット/秒(Gbps)からテラビット/秒(Tbps)までさまざまです。
データセンターは、あらゆるレベルで常時稼働している必要があります。ほとんどのサーバーには、二重電源が装備されています。バッテリー駆動の無停電電源装置(UPS)は、電力サージや短時間停電から設備を保護します。より深刻な停電が発生した場合、強力な発電機が効果を発揮します。
さまざまなケーブルが何千台ものサーバーを接続するため、ケーブル管理はデータセンターの設計において重要な考慮事項です。ケーブル線が互いに近すぎると、クロストークが発生し、データ転送速度や信号伝送に悪影響を与える可能性があります。また、ケーブルを詰め込み過ぎると過剰な熱が発生する可能性もあります。データセンターの構築と拡張では、効率的で安全なケーブル配線を確保するために、建築基準法と業界標準を考慮する必要があります。
データセンターのダウンタイムは、データセンター・プロバイダーとその顧客の双方にとってコストがかかるもので、データセンターのオペレーターや設計者はシステムのレジリエンスを高めるために多大な労力を費やしています。これらの対策には、ストレージ・メディアの故障によるデータ損失や破損を防ぐためのRAID(Redundant Arrays of Independent Disks)から、一次冷却システムに障害が発生した場合でもサーバーを最適な温度で稼働させ続けるバックアップ・データセンターの冷却インフラストラクチャーに至るまで、あらゆるものが含まれます。
多くの大手データセンター・プロバイダーは、地理的に離れた地域にデータセンターを設置しているため、ある地域で自然災害や政治的混乱が発生した場合でも、サービスを中断することなく、オペレーションを別の地域にフェイルオーバーできます。
Uptime Institute社は、データセンターの冗長性と復元力を評価する4段階のシステムを使用しています。4
データセンターは、ハードウェアを損傷または破壊し、高額な費用や壊滅的なダウンタイムにつながる可能性のある相互に関連する環境要因を制御するように設計および装備されています。
データセンターには機密情報とビジネス・クリティカルなアプリケーションが含まれており、物理データセンターとマルチクラウド環境にまたがる包括的なセキュリティー戦略が必要です。
データセンターのセキュリティー対策には、ハードウェアとストレージ・デバイスの物理的なセキュリティーに加え、管理およびアクセス制御が含まれます。また、ソフトウェア・アプリケーションのセキュリティー、組織のポリシーと手順も備えられています。たとえば、ハイパースケール・データセンターでは、強化されたサイバーセキュリティーのために、専用のファイアウォールやその他のプロトコルが必要です。
データセンター管理には、組織がプライベート・データセンターを運用し、セキュリティーを確保し、コンプライアンスに準拠した状態に保つために必要なタスクとツールが含まれます。これらのタスクの実行責任者は、データセンター・マネージャーと呼ばれます。
データセンター・マネージャーは、ソフトウェアやハードウェアのアップグレード、一般的なクリーニング、サーバーの物理的な配置の決定などの一般的なメンテナンスを担当します。また、データセンターに損害を与えるあらゆる脅威やイベントに対して、予防的または事後的な対策を講じます。
企業のデータセンター管理者は、データセンター・インフラストラクチャー管理(DCIM)ソリューションを使用して、全体的な管理を簡素化し、ITパフォーマンスの最適化を実現できます。これらのソフトウェア・ソリューションは、データセンター管理者がデータセンターのすべての要素をリアルタイムで監視、測定、管理、制御するための集中型プラットフォームを提供します。これには、オンプレミスのITコンポーネントから、暖房、冷房、照明に至る設備まですべてが含まれます。
ビジネスにおける持続可能性は、環境、社会、ガバナンス(ESG)に欠かせません。米調査会社のGartner社は、ビジネスリーダーの87%が今後数年間で持続可能性への投資を増やす予定であると指摘しています。5そのため、データセンターの環境への影響を軽減することは、気候変動と闘う世界的な取り組みにおけるより広範なビジネス目標と一致しています。
今日のAI駆動型ワークロードの急増により、データセンターの成長が促進されています。米金融系シンクタンクGoldman Sachs Research社は、データセンターの電力需要が2030年までに160%増加すると試算しています。5
電力使用量を削減するため、企業はハイパースケール・データセンターに電力を供給する再生可能エネルギー・ソリューションを推進するようになっています。こうした背景により、ITインフラストラクチャーを構築し、エネルギー効率の高いテクノロジーを使用してエネルギー使用を最適化し、環境への影響を最小限に抑える施設である グリーン・データセンター、または持続可能なデータセンターが増加しました。
データセンターで仮想化、エネルギー効率の高いハードウェア、再生可能エネルギー源などのテクノロジーを採用することで、組織はエネルギーの使用を最適化しながら、無駄を減らし、コストを節約できます。認定は、データセンター内の持続可能な実践を認識し、促進する上で極めて重要な役割を果たします。主な認証組織には、Leadership in Energy and Environmental Design(LEED)、Energy Star、Green Gridなどがあります。
IBM Cloudには世界各地にグローバル・データセンターを構えているため、現地固有の要件を迅速に満たすことができます。
IBM Storageは、データの安全性と容易なアクセスを確保し、より迅速かつ情報に基づいた意思決定を行うのに役立ちます。
IBM Cloud for VMware Solutionsを使用すると、VMwareワークロードをクラウドにシームレスに移行してモダナイズできます。この機能により、既存の投資を活用して一貫したVMwareエクスペリエンスを実現し、同じレベルのアクセス、セキュリティー、制御を維持できます。
IBM Turbonomicは、インテリジェントなリソース割り当て、キャパシティー・プランニング、自動化されたパフォーマンス保証を備えた最新のデータセンター管理を行います。
IBM CloudはRed Hatとともに、市場をリードするセキュリティー、エンタープライズ向けの拡張性、オープン・イノベーションを提供し、クラウドとAIの可能性を最大限に引き出します。
すべてのリンク先は、ibm.comの外部です。
1 「Google社:オレゴン州ダレスのデータセンター」、DataCenters.com。
2 「Investing in the rising data center economy(邦題:勢いを増すデータセンター経済への投資)」、McKinsey & Company社、2023年1月17日。
3 「IDC FutureScape: Worldwide Future of Digital Infrastructure 2023 Predictions(邦題:IDC FutureScape:2023年における世界のデジタル・インフラストラクチャーの未来予測)」、Mary Johnston Turner、IDC社、2022年12月9日。
4 「Tier Classification System(邦題:階層分類システム)」、 Uptime Institute。
5 「 AI is poised to drive 160% increase in data center power demand(邦題:AIがデータセンターの電力需要を160%増加させる見込み)」Goldman Sachs Research社、2024年5月14日。