1. Oracle Solaris Cluster の管理の概要
2. Oracle Solaris Cluster と RBAC
5. グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理
7. クラスタインターコネクトとパブリックネットワークの管理
SPARC: ノードで OpenBoot PROM (OBP) を表示する
グローバルクラスタ上の非投票ノードのプライベートホスト名を追加する
グローバルクラスタ上の非投票ノードのプライベートホスト名を変更する
グローバルクラスタ上の非投票ノードのプライベートホスト名を削除する
Oracle Solaris Cluster ソフトウェアをクラスタノードからアンインストールする
Oracle Solaris Cluster SNMP イベント MIB の作成、設定、および管理
SNMP ホストがノード上の SNMP トラップを受信できるようにする
SNMP ホストがノード上の SNMP トラップを受信できないようにする
非クラスタモードで起動したノードから Solaris Volume Manager メタセットを取得する
Solaris ボリュームマネージャー ソフトウェア構成を保存する
Solaris ボリュームマネージャー ソフトウェア構成を再作成する
11. Oracle Solaris Cluster ソフトウェアとファームウェアのパッチ
このセクションでは、グローバルクラスタやゾーンクラスタ全体の管理作業を実行する方法を説明します。次の表に、これらの管理作業と、関連する手順を示します。クラスタの管理作業は通常は大域ゾーンで行います。 ゾーンクラスタを管理するには、そのゾーンクラスタをホストするマシンが 1 台以上クラスタモードで起動していることが必要です。すべてのゾーンクラスタノードが起動し動作している必要はありません。現在クラスタ外にあるノードがクラスタに再結合すると、構成の変更点が Oracle Solaris Cluster によって再現されます。
注 - デフォルトでは、電源管理は無効になっているため、クラスタに干渉しません。 単一ノードクラスタの電源管理を有効にすると、クラスタは引き続き動作していますが、数秒間使用できなくなる場合があります。 電源管理機能はノードを停止しようとしますが、停止されません。
この章での phys-schost# は、グローバルクラスタのプロンプトを表します。clzonecluster の対話型シェルプロンプトは clzc:schost> です。
表 9-1 作業リスト : クラスタの管理
|
必要に応じて、初期インストール後にクラスタ名を変更できます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# clsetup
メインメニューが表示されます。
「クラスタその他のプロパティー」メニューが表示されます。
phys-schost# stclient -x
phys-schost# stclient -d -i service_tag_instance_number
phys-schost# reboot
例 9-1 クラスタ名の変更
次の例に、新しいクラスタ名 dromedary へ変更するために、clsetup(1CL) ユーティリティーから生成される cluster(1CL) コマンドを示します。
phys-schost# cluster -c dromedary
Oracle Solaris Cluster のインストール中、ノードにはそれぞれ一意のノード ID 番号が自動で割り当てられます。このノード ID 番号は、最初にクラスタに加わったときの順番でノードに割り当てられます。ノード ID 番号が割り当てられたあとでは、番号は変更できません。ノード ID 番号は、通常、エラーメッセージが発生したクラスタノードを識別するために、エラーメッセージで使用されます。この手順を使用し、ノード ID とノード名間のマッピングを判別します。
グローバルクラスタまたはゾーンクラスタ用の構成情報を表示するために、スーパーユーザーになる必要はありません。グローバルクラスタのノードから、このプロシージャーの 1 ステップが実行されます。他のステップはゾーンクラスタノードから実行されます。
phys-schost# clnode show | grep Node
phys-schost# zlogin sczone clnode -v | grep Node
例 9-2 ノード名のノードID へのマップ
次の例は、グローバルクラスタに対するノード ID の割り当てを示しています。
phys-schost# clnode show | grep Node === Cluster Nodes === Node Name: phys-schost1 Node ID: 1 Node Name: phys-schost2 Node ID: 2 Node Name: phys-schost3 Node ID: 3
Oracle Solaris Cluster では、新しいノードをグローバルクラスタに追加できるようにするかどうかと、使用する認証の種類を指定できます。パブリックネットワーク上のクラスタに加わる新しいノードを許可したり、新しいノードがクラスタに加わることを拒否したり、クラスタに加わるノードを特定できます。新しいノードは、標準 UNIX または Diffie-Hellman (DES) 認証を使用し、認証することができます。DES 認証を使用して認証する場合、ノードが加わるには、すべての必要な暗号化鍵を構成する必要があります。詳細は、keyserv(1M) と publickey(4) のマニュアルページを参照してください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# clsetup
メインメニューが表示されます。
「新規ノード」メニューが表示されます。
例 9-3 新しいマシンがグローバルクラスタに追加されないようにする
clsetup ユーティリティにより、claccess コマンドを生成します。次の例は、新しいマシンがクラスタに追加されないようにする claccess コマンドを示しています。
phys-schost# claccess deny -h hostname
例 9-4 すべての新しいマシンがグローバルクラスに追加されることを許可する
clsetup ユーティリティにより、claccess コマンドを生成します。次の例は、すべての新しいマシンをクラスタに追加できるようにする claccess コマンドを示しています。
phys-schost# claccess allow-all
例 9-5 グローバルクラスタに追加される新しいマシンを指定する
clsetup ユーティリティにより、claccess コマンドを生成します。次の例は、1 台の新しいマシンをクラスタに追加できるようにする claccess コマンドを示しています。
phys-schost# claccess allow -h hostname
例 9-6 認証を標準 UNIX に設定する
clsetup ユーティリティにより、claccess コマンドを生成します。次の例は、クラスタに参加している新規ノードの標準 UNIX 認証に対し、リセットを行う claccess コマンドを示しています。
phys-schost# claccess set -p protocol=sys
例 9-7 認証を DES に設定する
clsetup ユーティリティにより、claccess コマンドを生成します。次の例は、クラスタに参加している新規ノードの DES 認証を使用する claccess コマンドを示しています。
phys-schost# claccess set -p protocol=des
DES 認証を使用する場合、クラスタにノードが加わるには、すべての必要な暗号化鍵を構成します。詳細は、keyserv(1M) と publickey(4)のマニュアルページを参照してください。
Oracle Solaris Cluster ソフトウェアは、Network Time Protocol (NTP) を使用し、クラスタノード間で時刻を同期させています。グローバルクラスタの時刻の調整は、ノードが時刻を同期するときに、必要に応じて自動的に行われます。詳細は、『Oracle Solaris Cluster Concepts Guide』および『Network Time Protocol User's Guide』を参照してください。
![]() | 注意 - NTP を使用する場合、クラスタの稼動中はクラスタの時刻を調整しないでください。date(1)、rdate(1M)、xntpd(1M)、svcadm(1M) などのコマンドを、対話的に使用したり、cron(1M) スクリプト内で使用して時刻を調整しないでください。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# cluster shutdown -g0 -y -i 0
SPARC ベースのシステム上で、次のコマンドを実行します。
ok boot -x
x86 ベースのシステム上で、次のコマンドを実行します。
# shutdown -g -y -i0 Press any key to continue
GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
GRUB ベースの起動についての詳細は、『Solaris のシステム管理 (基本編) 』の「GRUB を使用して x86 システムをブートする (作業マップ)」を参照してください。
GRUB ブートパラメータの画面は、次のような画面です。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
画面には編集されたコマンドが表示されます。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
注 - カーネル起動パラメータコマンドへのこの変更は、システムを起動すると無効になります。次にノードを再起動する際には、ノードはクラスタモードで起動します。クラスタモードではなく、非クラスタモードで起動するには、これらの手順を再度実行して、カーネル起動パラメータコマンドに -x オプションを追加します。
phys-schost# date HHMM.SS
phys-schost# rdate hostname
phys-schost# reboot
各ノードで、date コマンドを実行します。
phys-schost# date
OpenBoot™ PROM 設定を構成または変更する必要がある場合は、この手順を使用します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# telnet tc_name tc_port_number
端末集配信装置 (コンセントレータ) の名前を指定します。
端末集配信装置のポート番号を指定します。ポート番号は構成に依存します。通常、ポート 2 (5002) と ポート 3 (5003) は、サイトで最初に設置されたクラスタで使用されています。
phys-schost# clnode evacuate node # shutdown -g0 -y
![]() | 注意 - クラスタノードを停止する場合は、クラスタコンソール上で send brk を使用してはいけません。 |
インストール完了後、クラスタノードのプライベートホスト名を変更するには、次の手順に従います。
デフォルトのプライベートホスト名は、クラスタの初期インストール時に割り当てられます。デフォルトのプライベートホスト名の形式は、clusternode<nodeid>-priv です (clusternode3-priv など)。名前がすでにドメイン内で使用されている場合にかぎり、プライベートホスト名を変更します。
![]() | 注意 - 新しいプライベートホスト名には IP アドレスを割り当てないでください。クラスタソフトウェアが IP アドレスを割り当てます。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# clresource disable resource[,...]
無効にするアプリケーションには次のようなものがあります。
HA-DNS と HA-NFS サービス (構成している場合)
プライベートホスト名を使用するためにカスタム構成されたアプリケーション
クライアントがプライベートインターコネクト経由で使用しているアプリケーション
clresource コマンドの使用については、clresource(1CL) のマニュアルページおよび『Oracle Solaris Cluster Data Services Planning and Administration Guide』を参照してください。
Network Time Protocol (NTP) デーモンを停止するには、svcadm コマンドを使用します。 NTP デーモンについての詳細は、svcadm(1M) のマニュアルページを参照してください。
phys-schost# svcadm disable ntp
クラスタ内の 1 つのノードでのみユーティリティーを実行します。
注 - 新しいプライベートホスト名を選択するときには、その名前がクラスタノード内で一意であることを確認してください。
表示される質問に答えます。変更しようとしているプライベートホスト名のノード名 (clusternode<nodeid> -priv) および新しいプライベートホスト名を入力してください。
クラスタの各ノードで次の手順を実行します。フラッシュすることによって、クラスタアプリケーションとデータサービスが古いプライベートホスト名にアクセスしないようにします。
phys-schost# nscd -i hosts
この手順をインストール時に行う場合は、構成するノードの名前を削除する必要があります。デフォルトのテンプレートには 16 のノードが事前構成されています。通常 ntp.conf.cluster ファイルは各クラスタノード上で同じです。
クラスタの各ノードで次の手順を実行します。
NTP デーモンを再起動するには、svcadm コマンドを使用します。
# svcadm enable ntp
phys-schost# clresource enable resource[,...]
clresource コマンドの使用については、clresource(1CL) のマニュアルページおよび『Oracle Solaris Cluster Data Services Planning and Administration Guide』を参照してください。
例 9-8 プライベートホスト名を変更する
次に、ノード phys-schost-2 上のプライベートホスト名 clusternode2-priv を clusternode4-priv に変更する例を示します。
[Disable all applications and data services as necessary.] phys-schost-1# /etc/init.d/xntpd stop phys-schost-1# clnode show | grep node ... private hostname: clusternode1-priv private hostname: clusternode2-priv private hostname: clusternode3-priv ... phys-schost-1# clsetup phys-schost-1# nscd -i hosts phys-schost-1# vi /etc/inet/ntp.conf ... peer clusternode1-priv peer clusternode4-priv peer clusternode3-priv phys-schost-1# ping clusternode4-priv phys-schost-1# /etc/init.d/xntpd start [Enable all applications and data services disabled at the beginning of the procedure.]
インストール完了後、グローバルクラスタ上の非投票ノードのプライベートホスト名を追加するには、次の手順を使用します。この章の手順の phys-schost# は、グローバルクラスタプロンプトを表します。この手順は、グローバルクラスタ上のみで実行します。
phys-schost# clsetup
表示される質問に答えます。グローバルクラスタの非投票ノードには、デフォルトのプライベートホスト名はありません。ホスト名を入力する必要があります。
インストール完了後、非投票ノードのプライベートホスト名を変更するには、次の手順を使用します。
プライベートホスト名は、クラスタの初期インストール時に割り当てられます。プライベートホスト名の形式は、clusternode<nodeid>-priv です (clusternode3-priv など)。名前がすでにドメイン内で使用されている場合にかぎり、プライベートホスト名を変更します。
![]() | 注意 - 新しいプライベートホスト名には IP アドレスを割り当てないでください。クラスタソフトウェアが IP アドレスを割り当てます。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# clresource disable resource1, resource2
無効にするアプリケーションには次のようなものがあります。
HA-DNS と HA-NFS サービス (構成している場合)
プライベートホスト名を使用するためにカスタム構成されたアプリケーション
クライアントがプライベートインターコネクト経由で使用しているアプリケーション
clresource コマンドの使用については、clresource(1CL) のマニュアルページおよび『Oracle Solaris Cluster Data Services Planning and Administration Guide』を参照してください。
phys-schost# clsetup
この手順は、クラスタ内の 1 つのノードからのみ実行する必要があります。
注 - 新しいプライベートホスト名を選択するときには、その名前がクラスタ内で一意であることを確認してください。
グローバルクラスタのプライベートホスト名の非投票ノードには、デフォルトは存在しません。ホスト名を入力する必要があります。
表示される質問に答えます。ここでは、プライベートホスト名を変更する非投票ノードの名前 (clusternode<nodeid> -priv) と新しいプライベートホスト名を入力してください。
クラスタの各ノードで次の手順を実行します。フラッシュすることによって、クラスタアプリケーションとデータサービスが古いプライベートホスト名にアクセスしないようにします。
phys-schost# nscd -i hosts
グローバルクラスタ上の非投票ノードのプライベートホスト名を削除するには、次の手順を使用します。この手順は、グローバルクラスタ上のみで実行します。
Oracle Solaris Cluster 構成の一部であるノードの名前を変更できます。 Oracle Solaris のホスト名は、ノード名の変更前に変更する必要があります。 ノード名を変更するには、clnode rename コマンドを使用します。
次の説明は、グローバルクラスタで動作しているすべてのアプリケーションに該当します。
ok> boot -x
# clnode rename -n newnodename oldnodename
# sync;sync;sync;/etc/reboot
# clnode status -v
「ノード名を変更する」 の手順に従ってノード名を変更する前または変更したあとに、論理ホスト名リソースの hostnamelist プロパティーを変更することもできます。 この手順は省略可能です。
次の手順は、新しい論理ホスト名と連動するように apache-lh-res リソースを構成する方法を示したもので、クラスタモードで実行する必要があります。
# clrg offline apache-rg
# clrs disable appache-lh-res
# clrs set -p HostnameList=test-2 apache-lh-res
# clrs enable apache-lh-res
# clrg online apache-rg
# clrs status apache-rs
サービスからグローバルクラスタノードを長時間はずす場合は、そのノードを保守状態にします。保守状態のノードは、サービス対象中に定足数確立の投票に参加しません。クラスタノードを保守状態にするには、clnode(1CL) evacuate および cluster(1CL) shutdown コマンドを使用して、ノードを停止しておく必要があります。
注 - ノードを 1 つだけ停止する場合は、Oracle Solaris の shutdown コマンドを使用します。 クラスタ全体を停止する場合にだけ、 cluster shutdown コマンドを使用します。
クラスタノードが停止されて保守状態になると、そのノードのポートで構成されるすべての定足数デバイスの、定足数投票数 (quorum vote count) が 1 つ減ります。このノードが保守状態から移動してオンラインに戻されると、ノードおよび定足数デバイスの投票数は 1 つ増えます。
クラスタノードを保守状態にするには、clquorum(1CL) disable コマンドを使用します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y-i 0
phys-schost# clquorum disable node
保守モードにするノードの名前を指定します。
phys-schost# clquorum status node
保守状態にしたノードの Status は offline で、その Present と Possible の定足数投票数は 0 (ゼロ) である必要があります。
例 9-9 グローバルクラスタノードを保守状態にする
次に、クラスタノードを保守状態にして、その結果を確認する例を示します。clnode status の出力では、phys-schost-1 のノードの Node votes は 0 (ゼロ) で、その状態は Offline です。Quorum Summary では、投票数も減っているはずです。構成によって異なりますが、Quorum Votes by Device の出力では、いくつかの定足数ディスクデバイスもオフラインである可能性があります。
[On the node to be put into maintenance state:] phys-schost-1# clnode evacuate phys-schost-1 phys-schost-1# shutdown -g0 -y -i0 [On another node in the cluster:] phys-schost-2# clquorum disable phys-schost-1 phys-schost-2# clquorum status phys-schost-1 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 0 0 Offline phys-schost-2 1 1 Online phys-schost-3 1 1 Online
ノードをオンライン状態に戻す方法については、「ノードを保守状態から戻す」を参照してください。
次の手順を使用して、グローバルクラスタノードをオンラインに戻し、定足数投票数をリセットしてデフォルト設定に戻します。クラスタノードのデフォルトの投票数は 1 です。定足数デバイスのデフォルトの投票数は N-1 です。N は、投票数が 0 以外で、定足数デバイスが構成されているポートを持つノードの数を示します。
ノードが保守状態になると、そのノードの投票数は 1 つ減ります。また、このノードのポートに構成されているすべての定足数デバイスの投票数も (1 つ) 減ります。投票数がリセットされ、ノードが保守状態から戻されると、ノードの投票数と定足数デバイスの投票数の両方が 1 つ増えます。
保守状態にしたグローバルクラスタノードを保守状態から戻した場合は、必ずこの手順を実行してください。
![]() | 注意 - globaldev または node オプションのどちらも指定しない場合、定足数投票数はクラスタ全体でリセットされます。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
保守状態ではないノードの定足数投票数をリセットするのは、そのノードを再起動する前である必要があります。そうしないと、定足数の確立を待機中にハングアップすることがあります。
phys-schost# clquorum reset
定足数をリセットする変更フラグです。
phys-schost# clquorum status
保守状態を解除したノードの状態は online であり、Present と Possible の定足数投票数は適切な値である必要があります。
例 9-10 クラスタノードの保守状態を解除して、定足数投票数をリセットする
次に、クラスタノードの定足数投票数をリセットして、その定足数デバイスをデフォルトに戻し、その結果を確認する例を示します。cluster status の出力では、phys-schost-1 の Node votes は 1 で、その状態は online です。 Quorum Summary では、投票数も増えているはずです。
phys-schost-2# clquorum reset
SPARC ベースのシステム上で、次のコマンドを実行します。
ok boot
x86 ベースのシステム上で、次のコマンドを実行します。
GRUB メニューが表示された時点で、適切な Oracle Solaris エントリを選択し、Enter キーを押します。 GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
phys-schost-1# clquorum status --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 4 6 6 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-2 1 1 Online phys-schost-3 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d3s2 1 1 Online /dev/did/rdsk/d17s2 0 1 Online /dev/did/rdsk/d31s2 1 1 Online `
負荷制限を設定することによって、ノードまたはゾーンのリソースグループの負荷の自動分散を有効にできます。 一連の負荷制限はクラスタノードごとに設定できます。 リソースグループに負荷係数を割り当てると、その負荷係数はノードの定義済み負荷制限に対応します。 デフォルトの動作では、リソースグループの負荷がそのリソースグループのノードリスト内の使用可能なすべてのノードに均等に分散されます。
リソースグループは RGM によってリソースグループのノードリストのノード上で起動されるため、ノードの負荷制限を超えることはありません。 RGM によってリソースグループがノードに割り当てられると、各ノードのリソースグループの負荷係数が合計され、合計負荷が算出されます。 次に、合計負荷がそのノードの負荷制限と比較されます。
負荷制限は次の項目から構成されます。
ユーザーが割り当てた名前。
弱い制限値 – 弱い負荷制限は一時的に超えることができます。
強い制限値 – 強い負荷制限は超えることはできず、厳格に適用されます。
1 つのコマンドで強い制限と弱い制限の両方を設定できます。 いずれかの制限が明示的に設定されていない場合は、デフォルト値が使用されます。 各ノードの強い負荷制限値と弱い負荷制限値の作成と変更には、clnode create-loadlimit、clnode set-loadlimit、および clnode delete-loadlimit コマンドを使用します。 詳細については、clnode(1CL) のマニュアルページを参照してください。
高い優先度を持つようにリソースグループを設定すると、特定のノードから移動させられる可能性が低くなります。 preemption_mode プロパティーを設定して、ノードの過負荷が原因でリソースグループが優先度の高いリソースによってノードから横取りされるかどうかを判定することもできます。 concentrate_load プロパティーを使用して、リソースグループの負荷をできるだけ少ないノードに集中させることもできます。 concentrate_load プロパティーのデフォルト値は、FALSE です。
注 - 負荷制限は、グローバルクラスタまたはゾーンクラスタのノード上で設定できます。 負荷制限を設定するには、コマンド行、clsetup ユーティリティー、または Oracle Solaris Cluster Manager インタフェースを使用します。 次の手順は、コマンド行を使用して負荷制限を設定する方法を示したものです。
# clnode create-loadlimit -p limitname=mem_load -Z zc1 -p softlimit=11 -p hardlimit=20 node1 node2 node3
この例では、ゾーンクラスタ名は zc1 です。サンプルプロパティーは mem_load で、弱い負荷制限は 11、強い負荷制限は 20 です。 強い制限と弱い制限は省略可能な引数で、特に定義しなかった場合、デフォルトは無制限です。 詳細については、clnode(1CL) のマニュアルページを参照してください。
# clresourcegroup set -p load_factors=mem_load@50,factor2@1 rg1 rg2
この例では、2 つのリソースグループ (rg1 と rg2) で負荷係数が設定されています。 負荷係数の設定は、ノードの定義済み負荷制限に対応します。 この手順は、リソースグループの作成中に clresourceroup create コマンドを使用して実行することもできます。 詳細は、clresourcegroup(1CL) のマニュアルページを参照してください。
# clresourcegroup remaster rg1 rg2
このコマンドにより、リソースグループを現在のマスターからほかのノードに移動し、均等な負荷分散を実現できます。
# clresourcegroup set -p priority=600 rg1
デフォルトの優先度は 500 です。 優先度の値が高いリソースグループは、ノードの割り当てにおいて、優先度の値が低いリソースグループよりも優先されます。
# clresourcegroup set -p Preemption_mode=No_cost rg1
HAS_COST、NO_COST、および NEVER オプションについては、clresourcegroup(1CL) のマニュアルページを参照してください。
# cluster set -p Concentrate_load=TRUE
強い正または負のアフィニティーは負荷分散より優先されます。 強いアフィニティーや強い負荷制限が無効になることはありません。 強いアフィニティーと強い負荷制限の両方を設定すると、両方の制限が満たされなかった場合に一部のリソースグループが強制的にオフラインのままになることがあります。
次の例では、ゾーンクラスタ zc1 のリソースグループ rg1 とゾーンクラスタ zc2 のリソースグループ rg2 の間の強い正のアフィニティーを指定しています。
# clresourcegroup set -p RG_affinities=++zc2:rg2 zc1:rg1
# clnode status -Z all -v
出力には、ノードまたはその非大域ゾーンで定義された負荷制限設定がすべて含まれます。