StorageTek Automated Cartridge System Library Software 高可用性 8.3 クラスタインストール、構成、および操作 リリース 8.3 E54098-01 |
|
![]() 前 |
![]() 次 |
Solaris Cluster のインストールについては、Oracle Technology Network のサイトから入手可能な『Oracle Solaris Cluster ソフトウェアのインストールガイド』で詳細に説明されています (このドキュメントの"ソフトウェアパッケージのダウンロード"を参照)。
ACSLSHA 8.3 は、Oracle Solaris Cluster 4.1 がインストールされている Solaris 11、および OSC-4.1 に対応した Support Repository Update (SRU-4) でサポートされています。
次の手順では、Cluster ソフトウェアをインストールします。
/opt/OSC
ディレクトリを作成します。
# mkdir /opt/OSC
ダウンロードした Cluster 4.1 の ISO イメージ (osc-4_1-ga-repo-full.iso) を /opt/OSC
ディレクトリに移動します。
ダウンロードした SRU-4 OSC 4.1 のパッチイメージを /opt/OSC
ディレクトリに移動し、ファイルを解凍します。
Cluster の読み取り専用 ISO イメージを読み取り/書き込みファイルシステムにコピーします。
ISO イメージから擬似デバイスを作成します。
# /usr/sbin/lofiadm -a /opt/OSC/osc-4_1-ga-repo-full.iso
返されるデバイスパスを確認し、手順 c で使用します。
マウントポイントを作成します。
# mkdir /opt/OSC/mnt
擬似デバイスをマウントポイントにマウントします。
# mount -F hsfs -o ro /dev/lofi/1 /opt/OSC/mnt
ISO イメージを一時的な読み取り/書き込みファイルシステムにコピーします。
# mkdir /opt/OSC/merged_iso # cp -r /opt/OSC/mnt/repo /opt/OSC/merged_iso
SRU-4 の ISO イメージをファイルシステムにマウントします。
# mount -F hsfs /opt/OSC/osc-4_1_4-1-repo-incr.iso /mnt
SRU-4 での変更を基本 Cluster 4.1 リリースにマージします。
2 つの ISO イメージを一時ファイルシステムと同期化します。
# rsync -aP /mnt/repo /opt/OSC/merged_iso
リポジトリ用に検索インデックスを再構築します。
# pkgrepo rebuild -s /opt/OSC/merged_iso/repo
パッチ適用済みの ISO イメージから Solaris Cluster をインストールします。
# pkg set-publisher -g file:///opt/OSC/merged_iso/repo ha-cluster # pkg install ha-cluster-full
隣接するノード上で手順 1 から 7 を繰り返します。
scinstall
ルーチンSolaris Cluster のインストールルーチンは、2 台のノード間で一連のチェックを実行して、両方のサーバーからシステム操作をモニターでき、起動およびフェイルオーバーアクションを制御できることを確認します。
準備の手順:
scinstall
を実行する前に、インストールされたクラスタユーティリティーへのパスを含む root
用の環境を構築すると役立ちます。/root/.profile
ファイルを編集します。/usr/cluster/bin
が含まれるようにパス文を変更します。
export PATH=/usr/cluster/bin:/usr/bin:/usr/sbin
この変更は、必ず各ノード上で行なってください。新しいパスを継承させるには、ログアウトして再度ログインするか、または単に su -
を実行します。
rpc/bind
の config/local_only
プロパティーが「false」に設定されていることを確認します。
# svccfg -s network/rpc/bind listprop config/local_only
このプロパティーで「true」が返される場合は、「false」に設定する必要があります。
# svccfg -s network/rpc/bind setprop config/local_only=false
もう一度、確認します。
# svccfg -s network/rpc/bind listprop config/local_only
Cluster ソフトウェアに対する重要なハードウェアの設定要件は、2 つのプライベートネットワーク接続が存在し、2 台のノード間のクラスタ操作で中断なしの通信が保証されるように予約されていることです。図 2-1, "各サーバーノード上の 2 つの Ethernet ポートに接続されている単一の HBCr ライブラリインタフェースカード" には、(2) のラベルが付けられた物理的な接続が示されています。単一障害点で Cluster の内部通信が中断される可能性がないように、各接続は別々のネットワークアダプタ (NIC) から始まっています。scinstall
ルーチンは、2 つの接続をそれぞれチェックして、ほかのネットワークトラフィックが流れていないことを確認します。最後に、scinstall
は、2 つのライン間の通信が機能していることを確認します。物理的な接続が確認されたら、このルーチンは各インタフェースを 172.16 で始まる内部のプライベートアドレスに割り当てます。
scinstall
を実行する前に、このプライベート接続用に設定された各サーバー上で、2 つのネットワークポートに割り当てられているネットワークデバイス ID を確認するようにしてください。dladm show-phys
を実行して、インタフェースの割り当てを表示します。
# dladm show-phys
どちらか一方のノードからクラスタを表示するには、論理ホスト名と IP アドレスを確立する必要があります。この論理ホストは、アクティブなホストが node1 と node2 のどちらから実行されているのかに関係なく、確実にネットワーク通信に応答します。
論理ホスト名と論理 IP アドレスが含まれるように、両方のノード上で /etc/hosts
ファイルを更新します。ACSLS-HA ("ACSLS HA の起動") を起動すると、このホストがアクティブになります。
正常に Cluster をインストールするには、Solaris Common Agent Container を有効にする必要があります。エージェントコンテナが有効になっていることを確認します。
# cacaoadm status
システム起動時に、ステータスの応答でエージェントコンテナが「DISABLED」であることが示された場合は、次のように有効にします。
# cacaoadm enable
scinstall
の実行2 台のノードのどちらか一方で、scinstall
コマンドを実行してから、次の手順に従います。
メインメニューから「Create a new cluster」を選択します。
サブメニューから「Create a new cluster」を選択します。
初期のデフォルト値を受け入れます。
「Typical」インストールを選択します。
クラスタに名前 (acsls_cluster
など) を割り当てます。
クラスタノードのプロンプトで、隣接するノードのホスト名を入力します。ノードリストが正しい場合は、それを受け入れます。
この目的のために特定された 2 台のプライベートノードの相互接続を定義します。TCP リンクを物理的な接続に割り当てることをインストールルーチンに許可します。
プロンプトに従って、クラスタを作成します。定足数デバイスとして機能する特定のデバイスを特定した場合を除いて、定足数デバイスを選択することを scinstall
ルーチンに許可します。
クラスタチェックが両方のノードで失敗したことがユーティリティーでレポートされても心配しないでください。マイア-な警告でも失敗はレポートされます。各ノードでレポートを確認し、返された重大なエラーや違反を探すようにしてください。このルーチンでは、操作中に発生したエラーや警告に関する詳細がレポートされているログファイルへのパスが表示されます。ログファイルを確認し、特定された重大な問題または中程度の重大な問題を修正します。
クラスタ内に両方のノードが含まれていることを確認します。
# clnode list -v Node Type ---- ---- node1 cluster node2 cluster
Solaris Cluster で使用可能なデバイスのリストを表示します。
# cldevice list -v DID Device Full Device Path d1 node1:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0 d1 node2:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0 d2 node1:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0 d2 node2:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0 d3 node1:/dev/rdsk/c1t0d0 d4 node1:/dev/rdsk/c1t1d0 d5 node2:/dev/rdsk/c1t0d0 d6 node2:/dev/rdsk/c1t1d0
この例では、共有ディスクデバイスは d1 および d2 です。一方、d3 および d4 は node1 のブートデバイス、d5 および d6 は node2 のブートデバイスです。d1 および d2 には、どちらか一方のノードからアクセスできます。
定足数は、3 つ以上のデバイスで構成されます。これはアクティブなノードになるノードを特定するために、起動イベント時に使用されます。
完全な定足数が構成されたとを確認します。
# clquorum list -v Quorum Type ------ ---- d1 shared_disk node1 node node2 node
(オプション) 定足数デバイスのリストには、2 つ目の shared_disk を追加できます。
# clquorum add d2 # clquorum list -v Quorum Type ------ ---- d1 shared_disk d2 shared_disk node1 node node2 node
共有ディスクデバイスがリストに表示されていない場合は、デバイス ID を確認してから、それを定足数に追加する必要があります。
デバイス ID は共有ディスクごとに特定します。
# cldevice list -v
clsetup
を実行して、定足数デバイスを追加します。
# clsetup Select '1' for quorum. Select '1' to dd a quorum device. Select 'yes' to continue. Select 'Directly attached shared disk' Select 'yes' to continue. Enter the device id (d<n>) for the first shared drive. Answer 'yes' to add another quorum device. Enter the device id for the second shared drive.
clquorum
show
を実行して、定足数メンバーシップを確認します。
# clquorum show
クラスタ構成全体を確認します。
# cluster check -v | egrep -v "not applicable|passed"
リストで違反しているインスタンスを探します。
登録されているリソースタイプのリストを確認します。
# clrt list SUNW.LogicalHostname:4 SUNW.SharedAddress:2 SUNW.gds:6
SUNW.gds
がリストに表示されていない場合は、登録します。
# clrt register SUNW.gds
clrt list
を実行して、確認します。