Google Cloud Platform への IBM Db2 Warehouse MPP のデプロイ
Db2® Warehouse を Google Cloud Platform にデプロイできます。
始める前に
手順
-
Google Cloud Platform (GCP) ポータルで、以下のようにします。
- 新規プロジェクトを作成します。
-
新しいプロジェクトで、Google Compute Engine を使用していくつかの VM インスタンスを作成します。
- ヘッド・ノード用に 1 つのインスタンス
- データ・ノード用に 2 つ以上の追加インスタンス
- 1 TB のボリュームの Google Filestore インスタンスを作成します。 これにより、クラスター内の各ノードにボリュームをマウントするために使用できる NFS サーバーが生成されます。
-
以下のようにして、各 VM に追加のストレージ・ディスクを接続します。
- ヘッド・ノードの VM、およびデータ・ノードの各 VM には、200 GB 以上のサイズのディスクを接続します。 データベースはこれらのノード間に均等に分散されるので、ノードの総数で乗算したときにデータベースのサイズ以上となるようなディスク・サイズを選択します。
- NFS サーバーとして機能する VM に対しては、500 GB 以上のディスクを接続します。 このディスクに、ノード間で共有されるクラスター・ファイル・システムが格納されます。 ファイル・システムの要件のリストについては、Linux および x86 ハードウェアでの IBM Db2 Warehouse の前提条件を参照してください。
-
ノードが共有するファイル・システム内に /mnt/clusterfs/nodes という名前のノード構成ファイルを作成します。
このファイルでは、
node_type=node_hostname:node_IP_addressのように各ノードのタイプ、ホスト名、および IP アドレスを指定します。 ホスト名には、完全修飾ドメイン名ではなく、hostname -s コマンドで返される短縮名を指定します。例えば、次のファイルは 3 ノード・クラスターを定義します。head_node=test27:160.08.675.309 data_node1=test28:161.08.675.309 data_node2=test29:162.08.675.309
-
ヘッド・ノードおよびデータ・ノード用に以前に作成した各 VM 上で、以下のようにします。
-
接続されたデータ・ディスクを
/mnt/diskbludata0という名前でマウントします。 -
NFS サーバーに接続され、ノードが共用するファイル・システムを格納するディスクを
/mnt/clusterfsという名前でマウントします。
詳しくは、https://cloud.google.com/filestore/ を参照してください。 -
接続されたデータ・ディスクを
-
Db2 Warehouse を MPP クラスターにデプロイするには、次のコマンドを実行します。
この例の場合:docker run -d -it --privileged=true --net=host --name=Db2wh -v /mnt/clusterfs:/mnt/bludata0 -v /mnt/clusterfs:/mnt/blumeta0 store/ibmcorp/db2wh_ee:v3.9.0-db2wh-linux- コンテナーの内部にマウントされているディスク
/mnt/blumeta0は、 ヘッド・ノード VM に/mnt/clusterfsとしてマウントされている共有 NFS クラスター・ファイル・システムです。 - コンテナーの内部にマウントされているディスク
/mnt/bludata0は、 ヘッド・ノード VM に/mnt/diskbludata0としてマウントされているローカル接続ディスクです。
- コンテナーの内部にマウントされているディスク