clmgr コマンド: クイック・リファレンス

以下の情報を使って、 PowerHA® SystemMirror® clmgr コマンドの最も一般的なシンタックスと例を素早く見つけてください。

clmgr コマンドについて詳しくは、 clmgr コマンド のトピックのマニュアル・ページ資料を参照してください。

基本的な使用法

コマンドの使用法 コマンド構文
基本コマンド形式 clmgr <ACTION> <CLASS> [<OBJECT>] [COMMAND-SPECIFIC INPUTS]
データ検索コマンドからのフレキシブルな出力
Displays <ATTR>="<VALUE>" pairs (default)
clmgr query <CLASS> <OBJECT>
コロン区切り出力の表示
clmgr –c query <CLASS> <OBJECT>
カスタム区切り出力の表示
clmgr –d<C> query <CLASS> <OBJECT>
quasi-XML 形式の表示
clmgr –x query <CLASS> <OBJECT>
意図認識: エイリアス
clmgr add cluster
add アクションにはエイリアス createmake、および mk があります。
clmgr query node
query アクションにはエイリアス showlistls、および get があります。
注: clmgr <ACTION> <CLASS> -h コマンドを実行すると、使用可能な別名を表示できます。
意図認識: 大/小文字の区別 大/小文字の区別は、すべてのアクション、クラス、および入力ラベルについては無視されます。 例えば、次のコマンド構文が有効です。

clmgr query cluster == clmgr QueRY cLUsteR
clmgr MoVe RESource_GroUp <RG> nODe=<NODE>
注: 大文字と小文字の区別は、 PowerHA SystemMirror 製品内で使用されるラベルには適用されません。 例えば、MyNode というラベルのノードを作成できます。
意図認識: 省略形 構文を入力する際には、明確にするために十分な文字数だけを入力できます。 次の例は、最初に正確な構文を、次に省略された構文を示しています。 コマンドの結果はどちらも同じです。

clmgr query cluster == clmgr q cl
clmgr add tape SHARED_TAPE_RESOURCE=/dev/rmt0 == clmgr add tape SH=/dev/rmt0
注: 省略形は、コマンド行から入力する際の使いやすさを目的としています。 スクリプトでは省略形を使用しないでください。 省略形はいつか変更される可能性があり、文書化されない場合があります。
ログ・ファイル /var/hacmp/log/clutils.log

基本トポロジーの定義

コマンドの使用法 コマンド構文
サイトなしでクラスターを定義

clmgr add cluster nodes=<NODE1>,<NODE2>
clmgr add repository <DISK_IDENTIFIER>
拡張クラスターの定義
注: サイトは定義されていますが、リポジトリー・ディスクはすべてのサイトで共有されるため、拡張クラスターに必要なリポジトリー・ディスクは 1 つのみです。

clmgr add cluster type=stretched nodes=<NODE1>,<NODE2>,<NODE3>,<NODE4>
clmgr add site <SITENAME> nodes=<NODE1>,<NODE2>
clmgr add site <SITENAME> nodes=<NODE3>,<NODE4>
clmgr add repository <DISK_IDENTIFIER>
リンク・クラスターの定義
注: サイトが定義され、各サイトには独自のリポジトリー・ディスクがあります。

clmgr add cluster type=linked nodes=<NODE1>, <NODE2>, <NODE3>,<NODE4>
clmgr add site <SITE1> nodes=<NODE1>,<NODE2>
clmgr add site <SITE2> nodes=<NODE3>,<NODE4>
clmgr add repository <DISK_IDENTIFIER1> site=<SITE1>
clmgr add repository <DISK_IDENTIFIER2> site=<SITE2>
新たに定義するオブジェクトをすべての定義済みノード上に作成 clmgr sync cluster

cluster のエイリアスは cl です。

注: クラスター内の他のノードに変更を複製するには、構成を変更した後にクラスターを検証して同期化する必要があります。

リソース・グループの定義

コマンドの使用法 コマンド構文
リソース・グループの定義

clmgr add resource_group <RG_NAME> nodes=<NODE1>,<NODE2> \
      applications=<APP1>,<APP2> volume_group=<VG1>,<VG2> \
      service_label=<SERVICE_IP_LABEL> ...

resource_group のエイリアスは rg です。

注: リソース・グループは、単一の単位として構成および管理するクラスター・リソースのセットです。
リソース・グループの変更

clmgr modify resource_group <RG_NAME> FILESYSTEM=<PATH> \
      service_label=<SERVICE_IP_LABEL> ...

resource_group のエイリアスは rg です。

アプリケーション・リソースの定義

コマンドの使用法 コマンド構文
アプリケーション・コントローラーの定義
注: このコマンドを使用して、アプリケーションを自動的に開始および停止することができます。

clmgr add application_controller STARTSCRIPT=<path_to_start_script> \
      STOPSCRIPT=<path_to_stop_script>

application_controller のエイリアスは acapp、および appctl です。

注: アプリケーションのスクリプトを指定する必要があります。 スクリプトは、アプリケーションを実行する可能性のあるノードごとに必要です。
アプリケーション・モニターの定義: プロセス・ベース

clmgr add application_monitor <MONITOR> TYPE=Process MODE=longrunning \
      processes=<PROCESS_NAMES> OWNER=<USER_ID> \
      applications=<APPLICATION_CONTROLLER>

application_monitor のエイリアスは ammon、および appmon です。

ps -e コマンドを使用して、アプリケーションを使用するための正しいプロセス名を判別できます。 ps -ef コマンドは使用しないでください。 例えば、 ps -e | awk '{print $4}' | sort –u コマンドを使用できます。

注: このタイプのモニターは、1 つ以上のアプリケーション・プロセスの終了を検出します。
アプリケーション・モニターの定義: カスタム

clmgr add application_monitor <MONITOR> TYPE=Custom MODE=longrunning \
      monitormethod=<PATH_TO_SCRIPT> OWNER=<USER_ID> \
      applications=<APPLICATION_CONTROLLER>

application_monitor のエイリアスは ammon、および appmon です。

注: このタイプのモニターでは、指定されたモニター・メソッド・ファイルを構成可能な間隔で実行し、モニター終了コードを検査することにより、アプリケーションの正常性を検査します。 モニター・メソッド・ファイルは、アプリケーションを実行する可能性のあるノードごとに必要です。

LVM リソースの作成

コマンドの使用法 コマンド構文
ボリューム・グループの作成

clmgr add volume_group [<VG_NAME>]  nodes=<NODE1>,[NODE2>] \
      disks=<DISK1>,<DISK2> type=scalable

volume_group のエイリアスは vg です。

論理ボリュームの作成

clmgr add logical_volume [ <LV_NAME> ] volume_group=<VG1> \
      logical_partitions=## type=jfs2 ...

logical_volume のエイリアスは lv です。

ファイルシステムの作成: 論理ボリュームの作成

clmgr add file_system <FS_NAME> volume_group=<VG1> \
      type=enhanced units=### size_per_unit=megabytes ...

file_system のエイリアスは fs です。

注: このタイプのファイル・システムを作成するには、ファイル・システムのサイズを指定する必要があります。
ファイルシステムの作成: 論理ボリュームの使用

clmgr add file_system <FS_NAME> volume_group=<VG1> \
      type=enhanced units=### size_per_unit=megabytes ...

file_system のエイリアスは fs です。

注: このスタイルのファイルシステムを作成するには、特定の論理ボリュームのサイズを指定する必要があります。
ミラー・プールの作成: すべてのディスク
clmgr add mirror_pool <POOL_NAME> volume_group=<VG_NAME>

mirror_pool のエイリアスは mp および pool です。

ミラー・プールの作成: 指定したディスク

clmgr add mirror_pool <POOL_NAME> volume_group=<VG_NAME> \
      physical_volumes=<DISK1>,<DISK2>,<DISK3>

mirror_pool のエイリアスは mp および pool です。

ボリューム・グループの管理

コマンドの使用法 コマンド構文
ボリューム・グループ: 物理ボリュームの追加

clmgr modify volume_group <VG_NAME> add=<DISK>

volume_group のエイリアスは vg です。

ボリューム・グループ: ミラー・プールの追加

clmgr modify volume_group <VG_NAME> add=<DISK> mirror_pool=<POOL_NAME>

volume_group のエイリアスは vg です。

ボリューム・グループ: 物理ボリュームの除去
clmgr modify volume_group <VG_NAME> remove=<DISK>

volume_group のエイリアスは vg です。

リソース・グループの管理

コマンドの使用法 コマンド構文
リソース・グループの移動: 新規ノード
clmgr move resource_group <RG_NAME> node=<NODE2>

resource_group のエイリアスは rg です。

注: リソース・グループによって管理されるすべてのリソースは、現行ノード上でオフラインになり、指定された新規ノード上でオンラインになります。
リソース・グループの移動: 新規サイト

clmgr move resource_group <RG_NAME> site=<SITE2>

resource_group のエイリアスは rg です。

注: リソース・グループによって管理されるすべてのリソースは、現行ノード上でオフラインになり、指定された新規ノード上でオンラインになります。
リソース・グループの開始

clmgr start resource_group <RG_NAME> node=<NODE2>
[PRIMARY=true] [SECONDARY=true]

resource_group のエイリアスは rg です。

注: リソース・グループによって管理されるすべてのリソースは、現行ノード上でオフラインになり、指定されたサイト内のノード上でオンラインになります。 node 入力を指定しない場合、リソース・グループは、現行ポリシーのデフォルト・ノードではオンラインになります。
マルチサイト・クラスター環境で、リソース・グループを ONLINE および ONLINE SECONDARY 状態に同時に持ってくるには、以下の追加属性を指定する必要があります。
PRIMARY=TRUE and SECONDARY=true
リソース・グループをノード上の ONLINE SECONDARY 状態にするには、以下のコマンドを実行します。
clmgr start resource_group <RG_NAME> [node=<NODE2>] 
[SECONDARY=true]
リソース・グループの停止
clmgr stop resource_group <RG_NAME> [node=<NODE2>] 
[PRIMARY=true] [SECONDARY=true]
注: リソース・グループによって管理されるリソースは、現行ノードでオフラインになります。
リソース・グループを ONLINE および ONLINE SECONDARY 状態から OFFLINE 状態に同時に両方のサイトに取り込むには、以下の追加属性を指定する必要があります。
PRIMARY=TRUE and SECONDARY=true
ノード上の ONLINE SECONDARY から OFFLINE 状態にリソース・グループをダウンさせるには、以下のコマンドを実行します。
clmgr stop resource_group <RG_NAME> [node=<NODE2>]
[SECONDARY=true]
アプリケーション・モニターの一時停止
clmgr manage application controller suspend <APP>
注: このコマンドは、指定されたアプリケーションのアプリケーション・モニターを中断します。 application controller の代わりに ALL を指定すると、すべてのアプリケーション・モニターを一時停止することができます。
アプリケーション・モニターの再開
clmgr manage application_controller resume <APP>
注: このコマンドは、指定されたアプリケーションのアプリケーション・モニターを再開します。 application controller の代わりに ALL を指定すると、すべてのアプリケーション・モニターを一時停止することができます。
サービス IP の移動
clmgr move service_ip <SERVICE_LABEL> interface=<NEW_INTERFACE>
注: <NEW_INTERFACE> 変数は、論理インターフェースを参照します。 例えば、en3 などです。

クラスター・サービス

コマンドの使用法 コマンド構文
クラスター・サービスの開始: クラスター全体
clmgr start cluster
注: SMIT の 「Manage Resouce Group (リソース・グループの管理)」 オプションが 「Manually (手動)」に設定されていない限り、クラスターによって管理されるすべてのリソースがオンラインになります。
クラスター・サービスの開始: サイト
clmgr start site <SITE_NAME>
注意: サイト内のノードによって管理されているすべてのリソースは、現在のポリシー設定で禁止されているか、SMITインターフェイスのシステム管理(C-SPOC) > PowerHA SystemMirror サービス > クラスタサービスの開始 > Resouce Groupの管理フィールドが手動に設定されていない限り、オンラインになります。
クラスター・サービスの開始: ノード
clmgr start node <NODE_NAME>
注: 現在のポリシー設定で禁止されているか、SMITインターフェイスのシステム管理(C-SPOC) > PowerHA SystemMirror サービス > クラスタサービスの開始 > リソースグループの管理フィールドが手動に設定されていない限り、ノードによって管理されているすべてのリソースがオンラインになります。
クラスター・サービスの停止: クラスター全体
clmgr stop cluster
注: クラスターによって管理されているすべてのリソースがオフラインになります。 アプリケーションおよびその他のリソースをオフラインにすることなくクラスター・サービスを一時停止したい場合は、manage オプションを unmanage に設定する必要があります。
クラスター・サービスの停止: サイト
clmgr stop site <SITE_NAME>
注: manage オプションが unmanage または moveに設定されていない限り、サイト内のノードによって管理されているすべてのリソースがオフラインになります。
クラスター・サービスの停止: ノード
clmgr stop node <NODE_NAME>
注: manage オプションが unmanage または moveに設定されていない限り、ノードによって管理されるすべてのリソースがオフラインになります。