分散 RAID アレイのプロパティー

分散 RAID アレイには、ドライブが障害を起こした後に冗長性を維持するために使用される再作成領域が格納されます。

これは、2 つのドライブのみを持つ分散 RAID 1 アレイを除く、すべての分散 RAID アレイに当てはまります。 システム上に使用可能なドライブが十分にない場合、分散 RAID アレイを構成することはできません。 分散型RAIDアレイは、リビルド領域がアレイ内のすべてのドライブに分散されるため、 非分散型RAIDアレイ構成におけるリビルドのボトルネックを解決します。

再作成書き込みワークロードは、単一のスペア・ドライブだけではなく、すべてのドライブにわたって分散され、アレイの再作成にかかる時間が短縮されます。 分散 RAID アレイを使用すると、障害が発生するまでアイドル状態になっている別々のドライブを使用する必要がなくなります。 1 つ以上のドライブをスペアとして割り振る代わりに、すべてのメンバー・ドライブの特定の再作成エリアにスペア容量が分散されます。 データをより高速に再作成領域にコピーすることができ、冗長性がはるかに短時間で復元されます。 また、再作成の進行中、使用可能なすべてのドライブがあらゆるボリューム・エクステントに使用されるため、プールのパフォーマンスがより一様なものとなります。 障害ドライブが取り替えられると、分散された再作成領域からドライブにデータがコピーされて戻されます。 ホット・スペア・ドライブとは異なり、読み取り/書き込み要求は、再作成領域として使用されていない、ドライブの他の部分で処理されます。 再作成領域の数は、分散 RAID アレイの幅およびメンバー・ドライブのテクノロジーに基づいています。

例えば、RAID 6 ドライブを使用する分散 RAID アレイは、2 つの並行ドライブ障害を処理できます。 障害のある 2 つのドライブが再作成された後、アレイは再び、別の 2 つのドライブ障害を許容することができます。 すべての再作成領域が使用された場合、次にドライブ障害が発生すると、アレイの機能は低下します。

RAID 5 または RAID 6 アレイと同じ数の基礎となるドライブから構成される分散 RAID 1 アレイの実効容量は、通常、後者の実効容量よりも少なくなります。 ただし、容量の面では分散 RAID 5 と 6 の方が一般的に優れており、特定のワークロードに対してはパフォーマンスの面で RAID 1 の方が優れている場合があります。

サポートされる RAID レベル

システムは、分散 RAID アレイに対して以下の RAID レベルをサポートします。

分散 RAID 1
分散 RAID 1 アレイは、2 つのミラーリングされたストリップで構成され、すべてのメンバー・ドライブに分散されます。 分散 RAID 1 アレイは、再作成領域が配置されているときに、単一の障害メンバー・ドライブを許容できます。 分散 RAID 1 アレイ内のメンバー・ドライブに障害が発生した場合、2 つのメンバー・ドライブが含まれている場合、または再作成領域が使用できなくなった場合、アレイは機能低下状態になります。 分散RAID 5や6とは異なり、分散RAID 1はパリティストリップを含まない。 機能低下の分散ストレージ・アレイの冗長性を復元するために、 再作成域 プロセスで、データを直接再構成し、交換されたメンバー・ドライブに戻します。 劣化した分散型RAIDアレイに2つのメンバードライブしかない場合は、リビルドインプレイスプロセスを使用して冗長性を復元し、交換したメンバードライブにデータを直接コピーします。
分散 RAID 5
分散 RAID 5 アレイは、メンバー・ドライブにデータをストライピングすると同時に、各ストライプ上に 1 個のパリティー・ストリップを備えています。 これらの分散型RAIDアレイは、4~128台のドライブをサポートすることができる。 RAID 5 分散アレイは、1 つのメンバー・ドライブの障害にしか耐えることができません。 機能低下した分散 RAID アレイの冗長性を復元するために、 インプレース再作成 プロセスを使用して、取り替えたメンバー・ドライブにデータ (またはパリティー) を直接再構成します。
分散 RAID 6
分散 RAID 6 アレイは、各ストライプ上の 2 個のパリティー・ストリップを使用してメンバー・ドライブにデータをストライピングします。 分散 RAID 6 アレイは、2 つのメンバー・ドライブで同時に障害が発生しても許容できます。 機能低下した分散 RAID アレイの冗長性を復元するために、 インプレース再作成 プロセスを使用して、取り替えたメンバー・ドライブにデータ (またはパリティー) を直接再構成します。

再作成領域がない分散 RAID アレイの例

注: この例では、(分散 RAID 1 を使用する) 2 つのメンバー・ドライブ・ストレージ・アレイを示していますが、使用可能な再作成領域がないエクステントまでメンバー・ドライブが障害を起こした場合、 すべての分散ストレージ・アレイ で同じインプレース再作成プロセスが発生します。 このような場合、データは、取り替えられたドライブでコピーされずに再構成されます。
図1: 再作成領域を持たない 2 つのメンバー・ドライブ・ストレージ・アレイ
この図は、2 つのメンバー・ドライブのみを持つアクティブな分散 RAID 1 レベルの例を示しています。
図1は、2台のメンバードライブとリビルドエリアなしの分散型RAIDアレイの例を示しています。
  • 1 (最小) 2 つのアクティブ・ドライブとストライプ幅
  • 2 パック (深さ 2 ストリップ)
図 2 は、故障したドライブを含む 2 つのメンバー ドライブを持つ分散型 RAID アレイを示しています。 データをリカバリーするために、アクティブ・ドライブから新規ドライブまたは前に障害が発生したドライブに、ストリップがコピーされます。
  • 1 アクティブ・ドライブ
  • 2 障害のあるドライブ
図2: 障害のあるドライブを持つ 2 つのメンバー・ドライブ・ストレージ・アレイ
この図は、障害ドライブを持つ 2 メンバー・ドライブ分散 RAID アレイの例を示しています。
図 3 は、新しいデータが交換されたドライブに直接コピーされる、リビルド イン プレース プロセスを示しています。
  • 1 アクティブ・ドライブ
  • 2 データは取り替えられたドライブに直接コピーされます
図3: 2 つのメンバー・ドライブでのインプレース再作成プロセス
この図は、2 つのメンバー・ドライブ上の取り替えられたドライブにデータを直接コピーする方法の例を示しています。

再作成領域がある 分散 RAID アレイの例

図4は、RAID 6で構成された分散型RAIDアレイの例を示しています。 再作成領域はすべてのドライブ間に分散され、ドライブ数にはすべてのドライブが含まれます。
  • 1 アクティブ・ドライブ
  • 2 再構築領域。すべてのドライブに分散されます。
  • 3 ドライブ数 (すべてのドライブを含む)。
  • 4 データのストライプ (2 つのストライプが示されています)
  • 5 ストライプ幅
  • 6 パック。これは、ドライブ数にストライプ幅を乗算した値に相当します。
  • 7 アレイ内の追加のパック (示されていません)
図4: 分散 RAID アレイ (RAID 6 レベル)
この図は、RAID 6 レベル構成の分散 RAID アレイの例を示しています。
図5は、故障したドライブを含む分散RAIDアレイを示しています。 データをリカバリーするために、データは複数のドライブから読み取られます。 リカバリーされたデータは、アレイ内のすべてのドライブ間に分散された再作成領域に書き込まれます。 残りの再作成領域はすべてのドライブ間に分散されます。
  • 1 障害のあるドライブ
  • 2 再構築領域。すべてのドライブに分散されます。
  • 3 残りの再作成領域は、残りの各ドライブ間で循環します。
  • 4 アレイ内の追加のパック (示されていません)
図 5. 障害ドライブがある分散 RAID アレイ (RAID 6 レベル)
この図は、障害ドライブがある RAID 6 レベル構成の分散 RAID アレイの例を示しています。

アレイ幅

アレイ幅( ドライブ数とも呼ばれます) は、分散 RAID アレイ内のドライブの総数を示します。 この合計には、データ容量とパリティーに使用されるドライブの数 (分散 RAID 6 のようなパリティー・ストリップがある場合)、およびデータの冗長性を復元するために使用される 再作成領域 (存在する場合) が含まれます。

再作成領域

再作成領域 は、ドライブ障害後にデータを再構成するために分散 RAID アレイ内で予約されているドライブ容量です。使用可能な容量は提供されません。 非分散型 RAID アレイとは異なり、 再構築領域はアレイ内のすべてのドライブに分散されます。 copyback プロセス中にデータが再構築されると、すべてのメンバー ドライブが I/O 要求を実行するため、再構築領域は分散型 RAID アレイのパフォーマンスに貢献します。
注: 2 つのメンバー・ドライブのみを持つ分散 RAID 1 システムには、再作成領域は含まれません。

インプレース再作成

使用可能な再作成領域がない場合に実行される分散 RAID アレイ・プロセス。これにより、アレイの機能が低下します。 インプレース再作成プロセスは、元のデータ配分を使用して、交換されたメンバー・ドライブにデータを直接コピーまたは再構成することで、データ冗長性を復元します。
注: すべての分散 RAID アレイ・ストレージ・システムが インプレース再作成 プロセスをサポートするとは限りません。 詳しくは、 サポートされる RAID レベルを参照してください。

ストライプおよびストライプ幅

ストライプ冗長性単位 と呼ばれることもあり、アドレス指定できるデータの最小量です。 分散 RAID アレイ・ストリップ・サイズは 256 KiBです。

ストライプ幅 は、ドライブに障害が起きた後にデータが再作成されたときに、一度に書き込むことができるデータのストリップの数を示します。 この値は、冗長性単位幅 と呼ばれることもあります。 図4では、アレイのストライプ幅は5である。

ドライブ・クラス

分散 RAID アレイのパフォーマンスを向上させるには、すべてのドライブが同じ、または上位の ドライブ・クラスからのものでなければなりません。 各ドライブ・クラスは、その drive_class_id で識別されます。 システムは、以下の情報を使用して各ドライブのドライブ・クラスを判別します。
ブロック・サイズ
ドライブ・クラスのブロック・サイズを示します。 有効なブロック・サイズは、512 または 4096 バイトのいずれかです。
容量
ドライブ・クラスの容量を示します。
入出力グループ
ドライブ・クラスに関連付けられている入出力グループ名を示します。
RPM 速度
ドライブ・クラスの速度を示します。 有効な RPM 速度は、7.2 K、10 K、または 15 K のいずれかです。SSD の場合、この値はブランクです。
テクノロジー
ドライブ・クラスのテクノロジーを示します。 以下のテクノロジー・タイプがサポートされています。
ストレージ・クラス・メモリー
ストレージ・クラス・メモリー・ドライブは、現在のフラッシュ・ストレージ・デバイス・テクノロジーの耐久性を向上させ、待ち時間を減らす永続メモリー・テクノロジーを使用します。 すべての SCM ドライブは NVMe アーキテクチャーを使用します。
テイア 0 フラッシュ
Tier 0 フラッシュ・ドライブは高性能フラッシュ・ドライブであり、読み取り操作と書き込み操作を処理し、エンタープライズ・ドライブやニアライン・ドライブよりも高速のデータ・アクセスを提供します。 大半の Tier 0 フラッシュ・ドライブでは、システムは摩耗のレベルをモニターし、ドライブの交換時期が近づくと警告を発します。 IBM FlashCore® モジュール・ドライブなどの一部の NVMe 接続ドライブは、Tier 0 フラッシュ・ドライブと見なされます。
ティア 1 フラッシュ
Tier 1 フラッシュ・ドライブは低コストのフラッシュ・ドライブであり、通常、容量は大きいものの、ややパフォーマンスが劣り、書き込み耐久性があるといった特性があります。 システムは摩耗のレベルをモニターし、ドライブの交換時期が近づくと警告を発します。
エンタープライズ・ディスク
エンタープライズ・ディスクは、パフォーマンスに合わせて最適化されたディスク・ドライブです。
ニアライン・ディスク
ニアライン・ディスクは、容量に合わせて最適化されたディスク・ドライブです。

分散 RAID アレイ内の障害のあるメンバー・ドライブを交換するために、システムは、障害のあるドライブと同じドライブ・クラスを持つ別のドライブを使用することができます。 システムは、上位ドライブ・クラスからドライブを選択することもできます。 例えば、2 つのドライブ・クラスに、テクノロジー・タイプは同じでも、データ容量が異なるドライブが含まれていることがあります。 その場合、上位ドライブ・クラスは、大きな容量のドライブが入っている方のドライブ・クラスです。

システムで使用可能なすべてのドライブ・クラスに関する情報を表示するには、lsdriveclass コマンドを使用します。 lsdriveclass コマンドの出力例では、システム上の 4 つの ドライブ・クラスが表示されます。 ドライブ クラス 2 には、744.7 GB の容量のドライブが含まれ、ドライブ クラス 3 には、1.7 TB の容量のドライブが含まれます。 ドライブの技術タイプやブロックサイズは同じですが、ドライブ・クラス3はドライブ・クラス2より優れていると考えられています

lsdriveclass コマンドの出力例

id RPM   capacity IO_group_id IO_group_name tech_type       block_size candidate_count superior_count total_count transport_protocol compressed
0        7.0TB    0           io_grp0       tier0_flash     4096       6               6              6           nvme               no
1        20.0TB   0           io_grp0       tier0_flash     512        2               2              8           nvme               yes
2        744.7GB  0           io_grp0       tier0_flash     512        2               2              2           sas                no
3        1.7TB    0           io_grp0       tier1_flash     512        2               2              2           sas                no

低速書き込み優先順位の設定

冗長アレイが読み取り/書き込み入出力操作を実行している場合、アレイのパフォーマンスは最も低速のメンバー・ドライブによって束縛されます。 ドライブが内部 ERP プロセスを実行する場合、SAS ネットワークが不安定であるか、アレイに割り当てられている作業が多すぎると、メンバー・ドライブのパフォーマンスが通常より大幅に低下することがあります。 このような状況では、冗長度を提供するアレイが短い割り込みを受け入れて、低速コンポーネントへの書き込みや低速コンポーネントからの読み取りを回避することができます。 パフォーマンスの悪いドライブにマップされている書き込み操作は、もう一方のコピーまたはパリティーにコミットされ、その後、良好な状況で (他の障害がない場合) 完了します。 メンバー・ドライブがリカバリーすると、メンバーが低速だった間に非同期としてマークされたストリップを書きこむバックグラウンド・プロセスによって、冗長性が復元されます。

この技法は、分散 RAID アレイの slow_write_priority 属性の設定によって制御されます。この属性は、アレイの作成時にデフォルトで latency に設定されます。 latency に設定されていると、アレイは低いメンバー・パフォーマンスの平滑化を試みるために非同期になることを許されます。 charray コマンドを使って、slow_write_priority 属性を redundancy に変更することができます。 redundancy に設定された場合、アレイは非同期になることを許されません。 ただし、アレイは、冗長なパスから低速のコンポーネントに読み取りを返すことによって、読み取りパフォーマンスの低下を回避することができます。

アレイが latency モードを使用するか、redundancy モードでコンポーネントの読み取りを回避しようとする場合、システムはドライブを定期的に評価して、ドライブが再びシステムの信頼できる部分になったかどうかを判断します。 ドライブが良好なパフォーマンスを示さない場合、またはアレイ内でパフォーマンス障害を起こす頻度が多すぎる場合、システムはパフォーマンスの低いドライブの露出が続かないように、そのハードウェアを停止させます。 システムがハードウェアを停止させるのは、ドライブのパフォーマンスが低下した別の説明を見つけられない場合のみです。

分散 RAID アレイ・メンバー・ドライブの取り替え

ドライブ上の障害 LED ライトが点灯している場合、そのドライブには障害のマークが付けられ、分散 RAID アレイでは使用されなくなります。 システムは、障害ドライブが交換されたことを検出すると、障害ハードウェアをアレイ構成から自動的に削除します。 新規ドライブが適切な場合 (例えば、同じドライブ・クラスにある場合)、システムはコピーバック操作を開始して、分散 RAID アレイで再作成領域を再び使用できるようにします。