データセンターとは
エンタープライズ・コンピューティングとクラウド・コンピューティングを可能にする物理的な施設であるデータセンターについて説明します。
オーロラ
データセンターとは

データセンターとは、アプリケーションとサービスの構築、実行、提供のため、また、それらのアプリケーションとサービスに関連するデータの保管と管理のために、 ITインフラストラクチャー を収容する、物理的な部屋、建物、あるいは施設です。

この数年で、データセンターは、1つの企業が自社専用の従来型のITインフラストラクチャーを収容している厳しく制御されたオンプレミスの私有施設から、複数の企業と顧客が共同で使用する仮想化されたITインフラストラクチャーを収容するクラウド・サービス・プロバイダーが所有しているリモート施設あるいは施設のネットワークへと進化しています。

データセンターの種類

データセンター施設にはさまざまな種類があり、1つの企業が、ワークロードとビジネス・ニーズに応じて複数の種類のデータセンターを利用する場合があります。

エンタープライズ(オンプレミス)・データセンター

このデータセンター・モデルでは、すべてのITインフラストラクチャーとデータがオンプレミスでホストされます。 多くの企業は、機密保護に対してより強い制御権を持つことができ、欧州連合一般データ保護規則(GDPR)や米国の医療保険の携行性と責任に関する法律(HIPAA)などの規制をより容易に遵守できると考えられているため、自社独自のオンプレミス・データセンターを選択します。 エンタープライズ・データセンターでは、企業は導入、モニタリング、管理のすべてのタスクの責任を持ちます。

パブリッククラウド・データセンター

クラウド・データセンター(クラウド・コンピューティング・データセンターとも呼ばれます)は、インターネット接続を経由して、複数の顧客(数十人から数百万人の顧客)が共用するためのITインフラストラクチャー・リソースを収容します。

ハイパースケール・データセンターと呼ばれる、最大規模のクラウド・データセンターの多くは、Amazon Web Services(AWS)、Google Cloud Platform、IBM Cloud、Microsoft Azure、Oracle Cloud Infrastructureのように、大手クラウド・サービス・プロバイダーが運営してます。 実際に、ほとんどの大手クラウド・プロバイダーは、世界各国で複数のハイパースケール・データセンターを運用しています。 通常、クラウド・サービス・プロバイダーは、クラウドの顧客(およびクラウドの顧客の顧客)の近くに位置する小規模なエッジ・データセンターを維持しています。 ビッグデータ分析、 人工知能(AI)、コンテンツ配信アプリケーションなどのリアルタイムかつデータ集約型のワークロードの場合、エッジ・データセンターは待ち時間の最短化に役立つため、アプリケーションのパフォーマンスと顧客体験を全体的に向上させることができます。

マネージド・データセンターとコロケーション施設

マネージド・データセンターとコロケーション施設は、自社のITインフラストラクチャーの一部またはすべてをオンプレミスに導入し管理するためのスペース、人員、専門知識を持っていませんが、パブリッククラウド・データセンターの共有リソースを使用するインフラストラクチャーのホストは望まない組織にとっての選択肢です。

マネージド・データセンターでは、顧客となる企業は専用のサーバー、ストレージ、ネットワーキング・ハードウェアをデータセンター・プロバイダーからリースし、データセンター・プロバイダーは、顧客企業に代わって管理、監視、運営を担当します。

コロケーション施設では、顧客となる企業はすべてのインフラストラクチャーを所有し、施設内でインフラストラクチャーをホストするための専用スペースをリースします。 従来型のコロケーション・モデルでは、顧客企業のみがハードウェアへのアクセス権を持ち、顧客企業がその管理の全責任を負います。これはプライバシーとセキュリティーには理想的ですが、しばしば(具体的には停止中や緊急時に)非実用的です。 現在、ほとんどのコロケーション・プロバイダーは、希望する顧客に対して管理サービスとモニタリング・サービスを提供しています。

マネージド・データセンターとコロケーション施設はしばしば、中小企業(SMB)向けのリモート・データ・バックアップ収容と災害復旧テクノロジーのために使用されます。

データセンターのアーキテクチャー

最新のデータセンターのほとんどは、それが社内のオンプレミス・データセンターの場合であっても、すべてのアプリケーション、またはワークロードは、自社所有の専用ハードウェア上で実行される従来型のITアーキテクチャーから、物理的ハードウェア・リソース(CPU、ストレージ、ネットワーク)が仮想化されたクラウド・アーキテクチャーへと進化しています。 仮想化 により、これらのリソースを、物理的な制限から切り離し、複数のアプリケーションとワークロードにわたって必要な量を割り当てられるようにプールできます。

また、仮想化によって、人間の介入を必要とせずに、構成、実行、保守、「スピンダウン」ができるプログラムされたインフラストラクチャーである、ソフトウェア定義インフラストラクチャー(SDI)も可能になります。

クラウド・アーキテクチャーとSDIを組み合わせることで、以下に挙げるような多くのメリットがデータセンターとそのユーザーにもたらされます。

  • コンピュート・リソース、ストレージ・リソース、ネットワーキング・リソースの使用状況の最適化。 仮想化により、企業またはクラウドは、最少のハードウェアを使用して、ほとんどのユーザーにサービスを提供し、未使用容量とアイドリング容量を最低限に抑えられるようになります。

  • アプリケーションとサービスの迅速な展開。 SDIを自動化することで、新規インフラストラクチャーのプロビジョニングが、セルフサービス・ポータルで行うリクエスト作成と同じくらい簡単になります。

  • 拡張性。 仮想化されたITインフラストラクチャーは、従来型のITインフラストラクチャーに比べてはるかに簡単に拡張できます。 オンプレミス・データセンターを使用している企業でも、必要に応じてワークロードをクラウドにバースト転送することで、オンデマンドで容量を追加できます。

  • 多様なサービスとデータセンターのソリューション。 企業とクラウドでは、幅広いITの利用方法と提供方法を、すべて同じインフラストラクチャーからユーザーに提供することができます。 その選択はワークロードの需要に基づいて行われ、そこには IaaS(Infrastructure as a Service)、 PaaS(Platform as a Service)、 SaaS(Software as a Service)が含まれます。 これらのサービスは、プライベート・データセンターで、または、 プライベートクラウド、 パブリッククラウド、 ハイブリッドクラウド、あるいは マルチクラウド のいずれかの環境におけるクラウド・ソリューションとして提供されます。

  • クラウドネイティブ 開発。 コンテナ化 と サーバーレス ・コンピューティングは、堅固なオープンソース・エコシステムと連動して、1回開発すれば任意の場所に展開できるアプリケーションの実現とともに、 DevOps サイクルと アプリケーション・モダナイゼーション を実現し、推進します。

データセンターのインフラストラクチャー・コンポーネント

サーバー

サーバーとは、アプリケーション、サービス、データをエンド・ユーザーのデバイスに提供する、強力なコンピューターです。 データセンター・サーバーが提供されるフォーム・ファクターは複数あります。

  • ラックマウント・サーバー は、Sサイズのピザの箱くらいの大きさの幅広い平らな形状のスタンドアロン型のサーバーで、(タワー・サーバーまたはデスクトップ・サーバーと比較した場合)スペースを節約できるため、ラックの中に積み重ねられるように設計されています。 各ラックマウント・サーバーには、それぞれの電源機構、冷却ファン、ネットワーク・スイッチ、ポートと、標準的なプロセッサー、メモリー、ストレージが搭載されています。

     

  • ブレード・サーバー は、さらに多くのスペースを節約することを目的として設計されています。 各ブレードには、プロセッサー、ネットワーク・コントローラー、メモリー、場合によってはストレージが搭載されています。ブレードは、複数のブレードを収納するシャーシにぴったりと収まるように設計されており、シャーシ内のすべてのブレード用に、電源機構、ネットワーク管理とその他のリソースが備えられています。

     

  • メインフレーム は、複数のプロセッサーを備えた、高性能なコンピューターであり、ラックマウント・サーバーまたはブレード・サーバーを収容するサーバー・ルーム全体の作業を行うことができます。 最初の仮想化可能なコンピューターであるメインフレームでは、リアルタイムで、数十億件の計算とトランザクションを処理できます。

フォーム・ファクターの選択は、データセンター内で利用可能なスペース、サーバー上で実行されているワークロード、利用可能な電力、コストなど、多数の要素によって異なります。

ストレージ・システム

ほとんどのサーバーには、最も頻繁に使用されるデータ(ホット・データ)をCPUの近くに残しておけるように、ダイレクト・アタッチト・ストレージ(DAS)と呼ばれるローカル・ストレージ機能が組み込まれています。

その他のデータセンターのストレージ構成には、ネットワーク・アタッチト・ストレージ(NAS)とストレージ・エリア・ネットワーク(SAN)の2つがあります。

NASでは、標準のイーサネット接続を経由して複数のサーバーにデータ・ストレージとデータ・アクセスを提供します。 NASデバイスは通常、複数のストレージ・メディア(ハード・ディスク・ドライブ(HDD)とソリッド・ステート・ドライブ(SSD)、またはそのいずれか)を備えた専用サーバーです。

NASと同様に、SANではストレージの共有が可能ですが、SANは、データ用に個別のネットワークを使用し、複数のストレージ・サーバーとアプリケーション・サーバー、ストレージ管理ソフトウェアをより複雑に組み合わせて構成されています。

1つのデータセンターで、 ファイル・ストレージ、 ブロック・ストレージ 、 オブジェクト・ストレージ の各ストレージ・タイプと同様に、DAS、NAS、SANの3種類のストレージ構成のすべてが使用される場合があります。

ネットワーキング

さまざまな種類のスイッチ、ルーター、光ファイバーで構成されるデータセンター・ネットワークは、ネットワーク・トラフィックの送受信を、複数のサーバーにわたって(east-westトラフィックと呼ばれます)、また、サーバーとクライアント間で(north-southトラフィックと呼ばれます)行います。

前述したとおり、データセンターのネットワーク・サービスは通常、仮想化されています。 これにより、ソフトウェア定義のオーバーレイ・ネットワークの構築が可能になります。これは、ネットワークの物理インフラストラクチャーの上部に構築され、特定のセキュリティー管理契約、またはサービス・レベル・アグリーメント(SLA)に対応します。

電源機構とケーブルの管理

データセンターはあらゆるレベルにおいて常に稼働している必要があります。 ほとんどのサーバーでは、デュアル電源機構が採用されています。 バッテリーを利用する無停電電源装置(UPS)は、電力サージと短時間の停電から保護します。 より深刻な停電が発生した場合は、強力な発電機を作動させることができます。

数千台のサーバーがさまざまなケーブルで接続されているため、ケーブルの管理はデータセンター設計時の重要な考慮事項です。 ケーブル同士の位置が近すぎると、データ転送速度と信号伝送に悪影響を与える可能性がある、クロストークが発生することがあります。 また、一緒にまとめられるケーブルが多すぎる場合、過剰な熱が発生することもあります。 データセンターの構築と拡張を行う際は、効率的かつ安全なケーブル配置ができるように、建築基準法と業界標準を考慮する必要があります。

冗長性と災害復旧

データセンターのダウンタイムは、データセンター・プロバイダーとその顧客にとってコストがかかるものであり、データセンターのオペレーターとアーキテクトは、システムのレジリエンスの強化に熱心に取り組んでいます。 その手段には、ストレージ・メディアの障害が発生した場合に損失や破損からデータを保護するためのRAID(Redundant Arrays of Independent Disks)から、1次冷却システムが故障した場合でも最適な温度でサーバーの稼働を維持するためのバックアップ・データセンター冷却インフラストラクチャーまで、さまざまなものがあります。

大手データセンター・プロバイダーの多くは、1つの地域で自然災害や政治的混乱が発生した場合に、サービスを中断させないために別の地域に運用をフェールオーバーできるように、地理的に異なる複数の地域にデータセンターを配置しています。

 Uptime Institute (英語)(ibm.com外部へのリンク)では、データセンターの冗長性とレジリエンシーを評価するために、4つのティアから成るシステムを使用しています。

  • ティアI—オフィス環境あるいはその外部でのIT運用をサポートするための、無停電電源装置(UPS)と常時冷却機能など、基本的な冗長電力コンポーネントを提供します。

     

  • ティアII—サービスの停止に対する安全性向上のために、発電機、蓄電デバイスなど、予備電源と冷却サブシステムを追加します。

     

  • ティアIII—他のデータセンターとの重要な差別化要素として、冗長コンポーネントを追加します。 ティアIIIの施設は、機器の保守または交換が必要になった場合に運用を停止してはなりません。

     

  • ティアIV—一部の機器が故障した場合にIT運用に影響が出ないようにするために、複数の独立した物理的に分離された冗長電力コンポーネントを実装することにより、フォールト・トレランスを追加します。

環境の管理

データセンターは、その多くが相互に関係する、環境的な要因を管理するために設計され、配備される必要があります。こうした要因は、ハードウェアを破損、破壊したり、コストのかかるダウンタイムや壊滅的なダウンタイムにつながったりする可能性があります。

  • 温度: ほとんどのデータセンターは、サーバーとその他のハードウェアが適正な温度範囲で継続的に稼働するように、空冷システムと液冷システムを組み合わせて採用しています。 空冷システムは基本的には空調設備です。具体的には、サーバー・ルーム全体または特定のサーバーの段やラックを対象とする、コンピューター・ルームのコンピューター・ルーム空調(CRAC)です。 液冷システム技術では、プロセッサーを直接、液体によって冷却し、場合によっては、サーバーを冷却液に浸します。 空冷システムと比較して必要とする電力と水が少ないため、ますます多くのデータセンター・プロバイダーが、より高いエネルギー効率とサステナビリティーのために、液冷システムに移行しています。

  • 湿度: 湿度が高いと機器にさびが生じる可能性があり、湿度が低いと静電気サージのリスクが高まります(以下を参照)。 調湿機器には、前述のCRACシステム、適切な換気装置、湿度センサーなどがあります。

     

  • 静電気: 25ボルトという弱い静電放電でも機器が損傷したり、データが破損したりします。 データセンター施設には、静電気を監視し、安全に放電するための機器が装備されています。

     

  • 火災: 当然のこととして、データセンターには防火機器を装備する必要があり、防火機器は定期的に検査する必要があります。

関連ソリューション
コンバージド・インフラストラクチャー・システムとコンバージド・インフラストラクチャー・ソリューション

最新のコンバージド・インフラストラクチャー(CI)ソリューションでは、サーバー、ストレージ、ネットワーキングが1つの統合プラットフォームに組み合わされています。

コンバージド・インフラストラクチャー・システムとコンバージド・インフラストラクチャー・ソリューションの詳細はこちら
グローバル・データセンター

世界中に展開するIBM Cloudデータセンターの詳細をご覧いただき、地域特有の要件への迅速な対応にお役立てください。

グローバル・データセンターの詳細はこちら
IBM Cloud

IBM CloudはRed Hatとともに、市場をリードするセキュリティー、エンタープライズ向けの拡張性、オープン・イノベーションを提供し、クラウドとAIの可能性を最大限に引き出します。

IBM Cloudの詳細はこちら
参考情報 次世代のデータセンター

ソフトウェア定義の環境では、サービスを最適化することで道筋が見えてきます。

プレハブ式のモジュラー・データセンター

プレハブ式のモジュラー形式で、柔軟性と拡張性を備えたエネルギー効率の高いデータセンターを 迅速に実現します。

次のステップ
 

IBM Cloudネットワークは、南極大陸を除くすべての大陸の19カ国にある60カ所を超えるデータセンターの物理的バックボーン上に構築されています。 これらのデータセンターは、ローカル・データへのアクセス、高い信頼性とパフォーマンス、低遅延などの、世界中のお客様のニーズを満たすために構築されました。IBM Cloudのグローバル・データセンター・ネットワークが、どのようにして、高度なビジネス・アナリティクスとAIから、最先端の開発ツールやそれに見合う世界クラスのコンピュートとストレージのリソースに至る、170を超えるエンタープライズ・グレードの製品とサービスをサポートする物理インフラストラクチャーを提供するのかについて詳しくご説明します。

IBMデータセンターの詳細はこちら