2 ノードクラスタを Sun Cluster 2.2 から Sun Cluster 3.0 U1 (Update 1) にアップグレードするには、次の作業を行います。
表 3-1 作業マップ : Sun Cluster 2.2 から Sun Cluster 3.0 U1 へのアップグレード
作業 |
参照箇所 |
---|---|
アップグレードの条件と制限を参照して、Sun Cluster 3.0 U1 ソフトウェアをサポートできるようにルートディスクのパーティション分割方式を計画する。 | |
クラスタを稼動環境から外す。VERITAS Volume Manager (VxVM) の場合は、共有 CCD も無効にする。 | |
クラスタで VERITAS Volume Manager (VxVM) が使用されている場合は、ディスクグループをデポートして VxVM ソフトウェアパッケージを削除する。 |
「Sun Cluster 2.2 構成から VERITAS Volume Manager ソフトウェアをアンインストールする」 |
必要に応じて、Solaris 8 オペレーティング環境にアップグレードする。新しい /globaldevices ファイルシステムを追加する。ファイルシステムの割り当てを変更して Sun Cluster 3.0 U1 ソフトウェアをサポートする。クラスタで Solstice DiskSuite ソフトウェアが使用されている場合は、メディエータを削除して Solstice Disksuite ソフトウェアをアップグレードする。 | |
Sun Cluster 3.0 U1 フレームワークソフトウェアにアップグレードする。クラスタで Solstice DiskSuite ソフトウェアが使用されている場合は、メディエータを再作成する。 | |
PATH と MANPATH を更新する。 | |
Sun Cluster 3.0 U1 データサービスソフトウェアにアップグレードする。必要に応じて、他のアプリケーションをアップグレードする。 | |
定足数 (quorum) デバイスを割り当ててクラスタソフトウェアのアップグレードを完了し、デバイスグループとデータサービスを起動する。クラスタで VERITAS Volume Manager (VxVM) が使用されている場合は、VxVM ソフトウェアパッケージを再インストールして、ディスクグループをインポートして登録する。クラスタで Solstice DiskSuite ソフトウェアが使用されている場合は、メディエータを削除する。 | |
すべてのノードがクラスタに結合していることを確認する。 |
この節では、ソフトウェアを Sun Cluster 2.2 から Sun Cluster 3.0 U1 にアップグレードする際の条件、制限、および計画のガイドラインについて説明します。
Sun Cluster 2.2 を Sun Cluster 3.0 U1 にアップグレードするには、次の条件を満たす必要があります。
クラスタにはノードが 2 つだけあり、Sun Cluster 3.0 U1 ソフトウェアでサポートされる構成になっている必要があります。アップグレードでは、3 つ以上のノードのクラスタはサポートされていません。
Ethernet アダプタだけがサポートされます。トランスポートアダプタは、100 M ビット/秒以上の転送速度を備えている必要があります。
すべてのクラスタハードウェアが安定して正常に動作している必要があります。
他社の製品も含め、すべてのアプリケーションが正常に動作している必要があります。
クラスタは、すでに Solaris 8 オペレーティング環境で動作しているか、Solaris 8 にアップグレードする必要があります。
すべての Sun Cluster ソフトウェア、フレームワーク、データサービスを同時にアップグレードする必要があります。
Sun Cluster 3.0 U1 ソフトウェアでは、Solstice HA 1.3、Sun Cluster 2.0、Sun Cluster 2.1 から直接 Sun Cluster 3.0 U1 にアップグレードできません。
Sun Cluster 3.0 U1 ソフトウェアでは、アップグレード中にボリューム管理ソフトウェアを別のものに変更できません。
ノードに対して scinstall(1M) コマンドを起動した後は、コマンドが正常に完了しなかった場合でも、Sun Cluster 2.2 から Sun Cluster 3.0 U1 へのアップグレードを取り消すことはできません。失敗したアップグレードを再開するには、まずそのノードに Sun Cluster 2.2 ソフトウェアを再インストールする必要があります。
Sun Cluster 3.0 U1 ソフトウェアをサポートするには、現在のシステムディスクの配置の変更が必要になることがあります。新たにパーティション分割を計画するときは、次の情報を考慮に入れてください。
広域デバイス名前空間 - 各ノードごとに少なくとも 100M バイトのファイルシステムを作成し、そのマウントポイントを /globaldevices に設定する必要があります。このファイルシステムは、アップグレード中に適切な広域デバイス名前空間に変換されます。必要であれば、このためにスワップ領域を一部削除したり、ほかのノードと共有されていない外部ディスクを使用できます。
ミラー化されているルート - ルートディスクがミラー化されている場合は、パーティションを変更する前にミラー化を解除しておいてください。アップグレード手順が失敗しても、このミラーを使用して元の構成を回復できます。詳細については、ボリューム管理ソフトウェアのマニュアルを参照してください。
ルート (/) ファイルシステムの割り当て - 現在の構成を Solaris 8 オペレーティング環境にアップグレードする必要がある場合は、すべての Sun Cluster ノードのルートディスク上のルート (/) パーティションのサイズを増やす必要が生じる場合があります。
Sun Cluster 3.0 U1 ソフトウェアをサポートするためのディスク領域の必要条件の詳細については、「システムディスクパーティション」を参照してください。
ソフトウェアをアップグレードする前に、クラスタを稼働環境から外します。
アップグレードするすべてのソフトウェア製品の CD-ROM、マニュアル、パッチを用意します。
Solaris 8 オペレーティング環境
Solstice DiskSuite または VERITAS Volume Manager
Sun Cluster 3.0 U1 フレームワーク
Sun Cluster 3.0 U1 データサービス (エージェント)
その他のアプリケーション
Solstice DiskSuite ソフトウェアとマニュアルは、現在は Solaris 8 製品の一部として提供されています。
ここで説明する手順では、CD-ROM からのインストールを想定しています。ネットワークからのインストールの場合は、各ソフトウェア製品の CD-ROM イメージをネットワークに読み込むようにしてください。
パッチの入手方法とインストール手順については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
クラスタが停止することをユーザーに通知します。
クラスタの各ノードのスーパーユーザになります。
/var/adm/messages ログに、解決されていないエラーや警告メッセージがないかどうかを確認します。
問題があれば解決します。
保守状態の論理ホストがないことを確認します。
クラスタのノードのスーパーユーザになります。
hastat(1M) コマンドを使用してクラスタの状態を表示します。
# hastat HIGH AVAILABILITY CONFIGURATION AND STATUS ------------------------------------------- ... LOGICAL HOSTS IN MAINTENANCE STATE |
画面出力が「NONE」の場合、保守状態の論理ホストはありません。手順 6 に進んでください。
論理ホストが保守モードの場合は、haswitch(1M) コマンドを使用してスイッチオーバーを実行します。
# haswitch hostname logical-hostname |
論理ホストを所有するノードの名前を指定します。
論理ホスト名を指定します。
hastat コマンドを実行して、スイッチオーバーが正常に完了したことを確認します。
各論理ホスト管理ファイルシステムのサイズが少なくとも 10M バイトあることを確認します。
# df -k /logical-hostname |
論理ホスト管理ファイルシステムが 10M バイトない場合は、Sun Cluster 3.0 U1 にアップグレードした後でマウントできません。論理ホスト管理ファイルシステムが 10M バイト未満の場合は、各ボリューム管理ソフトウェアのマニュアルを参照し、このファイルシステムのサイズを大きくしてください。
システムをバックアップします。
バックアップを実行する前に、すべてのユーザーがログアウトしていることを確認します。
(VxVM のみ) 共有 Cluster Configuration Database (CCD) を無効にします。
一方のノードから、共有 CCD のバックアップコピーを作成します。
# ccdadm -c backup-filename |
詳細は、ccdadm(1M) のマニュアルページを参照してください。
クラスタの各ノードで、共有 CCD を削除します。
# scconf clustername -S none |
各ノードで mount(1M) コマンドを実行し、どのノードに ccdvol がマウントされているかを確認します。
ccdvol エントリの例を次に示します。
# mount ... /dev/vx/dsk/sc_dg/ccdvol /etc/opt/SUNWcluster/conf/ccdssa ufs suid,rw,largefiles,dev=27105b8 982479320 |
各ノードで cksum(1) コマンドを実行し、両方のノード上の ccd.database ファイルが同じであることを確認します。
# cksum ccd.database |
ccd.database ファイルの内容が異なる場合は、どちらか一方のノードから上記の手順 a で作成した共有 CCD バックアップを復元してください。
# ccdadm -r backup-filename |
ccdvol がマウントされているノード上の Sun Cluster 2.2 ソフトウェアを停止します。
# scadmin stopnode |
同じノードから ccdvol のマウントを解除します。
# umount /etc/opt/SUNWcluster/conf/ccdssa |
クラスタの各ノードで、Sun Cluster 2.2 ソフトウェアを停止します。
# scadmin stopnode |
hastat コマンドを実行し、クラスタ内にノードが存在しないことを確認します。
クラスタで VERITAS Volume Manager を使用するかどうかを決定します。
使用する場合は、「Sun Cluster 2.2 構成から VERITAS Volume Manager ソフトウェアをアンインストールする」へ進んでください。
使用しない場合は、「Solaris オペレーティング環境をアップグレードする」へ進んでください。
クラスタで VERITAS Volume Manager (VxVM) を使用している場合は、クラスタの各ノードで次の手順を実行し、VxVM ソフトウェアをアンインストールします。既存のディスクグループは保持されており、すべてのソフトウェアをアップグレードした後で自動的に再インポートされます。
Sun Cluster 3.0 U1 ソフトウェアにアップグレードするには、最新バージョンの VxVM がインストールされているかどうかにかかわらず、いったん VxVM ソフトウェアを削除し、後で再インストールする必要があります。
クラスタノードのスーパーユーザになります。
VxVM をアンインストールします。
VxVM のマニュアルに記載された手順に従ってください。この処理には、以下の作業が含まれます。
すべての VxVM ディスクグループをデポートします。アップグレード中は、保持するデータが格納されているディスクがその他の目的で使用されないようにします。
ルートディスクがカプセル化されている場合は、カプセル化を解除します。
VxVM を停止します。
インストールされているすべての VxVM ソフトウェアパッケージを削除します。
VxVM デバイス名前空間を削除します。
# rm -rf /dev/vx |
Sun Cluster 3.0 U1 ソフトウェアをサポートするために、Solaris オペレーティング環境をアップグレードします。
クラスタ内の各ノードで次の手順を実行して Solaris オペレーティング環境をアップグレードし、Sun Cluster 3.0 U1 ソフトウェアをサポートできるようにします。
クラスタノードのスーパーユーザーになります。
ボリューム管理ソフトウェアが Solstice DiskSuite で、メディエータを使用している場合は、メディエータの構成を解除します。
次のコマンドを実行して、メディエータデータに問題がないことを確認します。
# medstat -s setname |
ディスクセット名を指定します。
Status フィールドの値が Bad の場合は、「不正なメディエータデータを修復する」の手順に従って、関連するメディエータホストを修復します。
詳細については、medstat(1M) のマニュアルページを参照してください。
すべてのメディエータを一覧表示します。
この情報を使用し、メディエータが削除されるディスクセットの所有権を持つノードを調べます。
# metaset -s setname |
「クラスタソフトウェアパッケージをアップグレードする」の手順でメディエータを復元するときのために、この情報を保存しておいてください。
どのノードも所有権を持っていない場合は、ディスクセットの所有権を取得します。
# metaset -s setname -t |
ディスクセットの所有権を取得します。
すべてのメディエータの構成を解除します。
# metaset -s setname -d -m mediator-host-list |
ディスクセット名を指定します。
ディスクセットから削除します。
削除するノードの名前をディスクセットのメディエータホストとして指定します。
metaset コマンドのメディエータ固有のオプションの詳細については、mediator(7) のマニュアルページを参照してください。
メディエータソフトウェアを削除します。
# pkgrm SUNWmdm |
現在の構成で Solaris 8 ソフトウェアが動作しているかどうかを確認します。
動作していない場合は、手順 4 に進んでください。
動作している場合は、次の手順に従ってください。
少なくとも 100M バイトのファイルシステムを作成し、そのマウントポイントを /globaldevices に設定します。
Sun Cluster 3.0 U1 ソフトウェアを正しくインストールするには、/globaldevices ファイルシステムが必要です。
必要に応じて、Sun Cluster 3.0 U1 ソフトウェアをサポートするために、別のパーティションに領域を確保します。
ガイドラインについては、「システムディスクパーティション」を参照してください。
手順 6 に進みます。
Solaris 8 ソフトウェアへのアップグレードに使用する手順を決定します。
ボリューム管理ソフトウェア |
使用手順 |
参照箇所 |
---|---|---|
Solstice DiskSuite |
Solaris と Solstice DiskSuite ソフトウェアの両方をアップグレードする |
Solstice DiskSuite のインストールマニュアル |
VxVM |
Solaris ソフトウェアの標準インストールを実行する |
Solaris 8 のインストールマニュアル |
手順 4で選択した方法に従って、Solaris 8 ソフトウェアへアップグレードします。
インストール中に、ルートディスクのパーティション分割方式を次のように変更します。
少なくとも 100M バイトのファイルシステムを作成して、そのマウントポイントを /globaldevices に設定します。 Sun Cluster 3.0 U1 ソフトウェアを正しくインストールするには、/globaldevices ファイルシステムが必要です。
必要に応じて、Sun Cluster 3.0 U1 ソフトウェアをサポートするために、別のパーティションに領域を確保します。
パーティション分割のガイドラインについては、「システムディスクパーティション」を参照してください。
Solaris のインタフェースグループ機能は、Solaris ソフトウェアのインストール中にデフォルトで無効に設定されます。インタフェースグループは Sun Cluster 構成ではサポートされていないため、有効にしないでください。Solaris インタフェースグループの詳細については、ifconfig(1M) のマニュアルページを参照してください。
Solaris 用のソフトウェアパッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
ハードウェア関連のパッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
Solstice DiskSuite を使用する場合は、Solstice DiskSuite 用のソフトウェアパッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
Sun Cluster 3.0 U1 ソフトウェアにアップグレードします。
「クラスタソフトウェアパッケージをアップグレードする」へ進んでください。
次の例に、Solaris 8 ソフトウェアにアップグレードする前に、Solstice DiskSuite ディスクセット schost-1 から構成解除されたメディエータホスト phys-schost-1 を示します。
(メディエータの状態を確認する) # medstat -s schost-1 (すべてのメディエータを一覧表示する) # metaset -s schost-1 (メディエータの構成を解除する) # metaset -s schost-1 -d -m phys-schost-1 (メディエータソフトウェアを削除する) # pkgrm SUNWmdm (ソフトウェアのアップグレードを開始する) |
各ノードで次の手順を実行します。Sun Cluster 3.0 7/01 CD-ROM を 2 部お持ちの場合は、この手順を両方のノードで同時に実行できます。
scinstall(1M) アップグレードコマンドは、-u begin オプションと -u finish オプションの 2 段階のプロセスに分かれています。次の手順では、begin オプションを実行します。finish オプションは、「クラスタソフトウェアパッケージのアップグレードを完了する」で実行します。
クラスタノードのスーパーユーザーになります。
ボリューム管理ソフトウェアが Solstice DiskSuite の場合は、各ノードに最新の Solstice DiskSuite メディエータパッケージ (SUNWmdm) をインストールします。
CD-ROM からインストールする場合は、ノードの CD-ROM ドライブに Sun Cluster 3.0 7/01 CD-ROM を挿入します。
ボリュームデーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_0u1 ディレクトリにマウントされます。
/cdrom/suncluster_3_0u1/SunCluster_3.0/Packages ディレクトリに移動します。
# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages |
SUNWmdm パッケージを追加します。
# pkgadd -d . SUNWmdm |
ノードを再起動します。
# shutdown -g0 -y -i6 |
その他のノードに対してこの手順を繰り返します。
メディエータを再構成します。
メディエータホストの追加先のディスクセットの所有権を持つノードを指定します。
# metaset -s setname |
ディスクセット名を指定します。
どのノードも所有権を持っていない場合は、ディスクセットの所有権を取得します。
# metaset -s setname -t |
ディスクセットの所有権を取得します。
メディエータを再度作成します。
# metaset -s setname -a -m mediator-host-list |
ディスクセットに追加します。
追加するノードの名前をディスクセットのメディエータホストとして指定します。
各ディスクセットごとにこの手順を繰り返します。
Sun Cluster 3.0 U1 ソフトウェアへのアップグレードを開始します。
一方のノードで、/cdrom/suncluster_3_0u1/SunCluster_3.0/Tools ディレクトリに移動します。
# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools |
クラスタソフトウェアフレームワークをアップグレードします。
アップグレードするノード |
使用するコマンド |
---|---|
最初のノード |
./scinstall -u begin -F |
2 つ目のノード |
./scinstall -u begin -N node1 |
このノードが、クラスタ内でインストールされる最初のノードであることを指定します。
クラスタ内で 2 番目にインストールされるノード名ではなく、最初にインストールされるノード名を指定します。
詳細については、scinstall(1M) のマニュアルページを参照してください。
ノードを再起動します。
# shutdown -g0 -y -i6 |
最初のノードが再起動してクラスタモードになったときに、クラスタが設定されます。2 つ目のノードは、処理が完了してクラスタに結合する前に、必要に応じて、クラスタが設定されるまで待機します。
その他のクラスタノードに対してこの手順を繰り返します。
各ノードごとに、Sun Cluster 用のパッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
ディイレクトリパスを更新します。
「root の環境を更新する」に進みます。
次の例に、2 ノードクラスタを Sun Cluster 2.2 から Sun Cluster 3.0 U1 にアップグレードする際の開始処理を示します。クラスタノード名は、最初にインストールされたノードである phys-schost-1 と、phys-schost-1 の設定後にクラスタに結合する phys-schost-2 です。ボリューム管理ソフトウェアは Solstice DiskSuite で、両方のノードがディスクセット schost-1 のメディエータホストとして使用されます。
(各ノードに最新の Solstice DiskSuite メディエータパッケージをインストールする) # cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages # pkgadd -d . SUNWmdm (メディエータを復元する) # metaset -s schost-1 -t # metaset -s schost-1 -a -m phys-schost-1 phys-schost-2 (最初のノードのアップグレードを開始する) phys-schost-1# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools phys-schost-1# ./scinstall -u begin -F (2 つ目のノードのアップグレードを開始する) phys-schost-2# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools phys-schost-2# ./scinstall -u begin -N phys-schost-1 (各ノードを再起動する) # shutdown -g0 -y -i6 |
クラスタの各ノードで次の作業を実行します。
Sun Cluster 構成では、各種シェルのユーザー初期設定ファイルは、それらが対話式シェルから実行されていることを確認した上で、端末への出力を試みる必要があります。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。ユーザーの作業環境をカスタマイズする方法については、Solaris のシステム管理マニュアルを参照してください。
クラスタノードでスーパーユーザーになります。
.cshrc ファイルの PATH と MANPATH エントリを変更します。
/usr/sbin および /usr/cluster/bin を含むように PATH 環境変数を設定します。
さらに VERITAS Volume Manager の場合は、PATH 環境変数に /etc/vx/bin も含めます。VRTSvmsa パッケージをインストールしている場合は、/opt/VRTSvmsa/bin も PATH 環境変数に追加します。
/usr/cluster/man を含むように MANPATH 環境変数を設定します。また、次のようにボリューム管理ソフトウェア固有のパスも含めます。
Solstice DiskSuite ソフトウェアの場合は、/usr/share/man も含むように MANPATH 環境変数を設定します。
VERITAS Volume Manager の場合は、/opt/VRTSvxvm/man も含むように MANPATH 環境変数を設定します。VRTSvmsa パッケージをインストールしている場合は、/opt/VRTSvmsa/man も MANPATH 環境変数に追加します。
(省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。
新しいシェルを起動して、環境への変更内容を有効にします。
Sun Cluster 3.0 U1 データサービスソフトウェアをアップグレードします。
各クラスタノードで次の手順を実行します。
各クラスタのノードのスーパーユーザーになります。
各アプリケーションをアップグレードし、必要に応じてアプリケーション用のパッチを適用します。
インストール方法については、各アプリケーションのマニュアルを参照してください。
アプリケーションが共有ディスクに格納されている場合は、アプリケーションをアップグレードする前に、関連するディスクグループをマスターして、関連するファイルシステムを手作業でマウントする必要があります。
データサービスを追加します。
ノードの CD-ROM ドライブに Sun Cluster 3.0 Agents 7/01 CD-ROM を挿入します。
scinstall(1M) ユーティリティーを起動します。
# scinstall |
対話形式の scinstall ユーティリティーを使用するときは、次のガイドラインに従ってください。
対話形式の scinstall では先打ち入力が可能です。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。
特に指定のある場合以外は、Control-D キーを押すと、関連のある一連の質問の最初か、メインメニューに戻ります。
データサービスを追加するには、4(Add support for a new data service to this cluster node) を入力します。
プロンプトに従ってデータサービスを追加します。
CD-ROM を取り出します。
Sun Cluster データサービス用のパッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1ご使用にあたって』を参照してください。
Sun Cluster 3.0 U1 ソフトウェアにアップグレードする 2 つ目のノードを停止します。
phys-schost-2# shutdown -g0 -y -i0 |
2 つ目のノードは、最初にインストールされたノードが再起動するまで停止したままにしておきます。
クラスタに最初にインストールされたノードを再起動します。
最初にインストールされたノードを再起動する前に、2 つ目のノードが停止していることを確認してください。停止していない状態でこの操作を行うと、定足数投票がまだ割り当てられていないため、2 つ目のノードはパニック状態になります。
phys-schost-1# shutdown -g0 -y -i6 |
最初にインストールされたノードが完全に起動した後、2 つ目のノードを起動します。
ok boot |
両方のノードが再起動したら、両方のノードがクラスタメンバーになっていることをいずれかのノードで確認します。
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
クラスタ状態の表示方法の詳細については、scstat(1M) のマニュアルページを参照してください。
定足数デバイスを割り当て、アップグレードを終了します。
次の手順で、「クラスタソフトウェアパッケージをアップグレードする」で開始した scinstall(1M) によるアップグレードプロセスを完了します。クラスタの各ノードで次の手順を実行します。
クラスタの各ノードのスーパーユーザーになります。
定足数デバイスにする共有ディスクを選択します。
両方のノードで共有されている任意のディスクを定足数デバイスとして使用できます。どちらかのノードから scdidadm(1M) コマンドを実行し、共有ディスクのデバイス ID (DID) 名を確認します。このデバイス名は、手順 5 で、scinstall のオプション -q globaldev=DIDname で指定します。
# scdidadm -L |
ボリューム管理ソフトウェアが VxVM の場合は、クラスタの各ノードに VxVM ソフトウェアとパッチを再度インストールして構成します。
「VxVM ソフトウェアのインストールと構成」 の手順に従ってください。
最初のインストールノードを再起動する必要がある場合は、まず scshutdown(1M) コマンドを使用してクラスタを停止し、その後再起動してください。クラスタが停止し終わるまでクラスタの最初のインストールノードを再起動しないください。
クラスタインストールモードが無効になるまでは、定足数投票はクラスタを確立した最初のインストールノードにしかありません。確立されたクラスタがまだインストールモードにある場合、クラスタを停止せずに最初のインストールノードを再起動すると、残りのクラスタノードは定足数を得られず、クラスタ全体が停止します。
どれが最初のインストールノードかを確認するには、scconf -p コマンドを使用して定足数投票の割り当てを表示してください。定足数投票を持つ唯一のノードが最初のインストールノードです。
手順 7 を実行すると定足数投票が割り当てられ、この再起動制限は不要になります。
ノードの CD-ROM ドライブに Sun Cluster 3.0 Agents 7/01 CD-ROM を挿入します。
この手順では、ボリュームデーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されていることを想定しています。
そのノードでのクラスタソフトウェアのアップグレードを完了します。
# scinstall -u finish -q globaldev=DIDname ¥ -d /cdrom/scdataservices_3_0 -s srvc[,srvc] |
定足数デバイスのデバイスID (DID) 名を指定します。
CD-ROM イメージのディレクトリの場所を指定します。
構成するデータサービス名を指定します。
次のようなエラーメッセージが表示されることがありますが、無視してください。
** Installing Sun Cluster - Highly Available NFS Server ** Skipping "SUNWscnfs" - already installed |
CD-ROM を取り出します。
もう一方のノードに対して、手順 4 〜 手順 6 を繰り返します。
両方のノードで作業が完了すると、クラスタインストールモードが解除され、定足数の確立に使用されるすべての票が割り当てられます。
ボリューム管理ソフトウェアが Solstice DiskSuite の場合は、いずれかのノードから、すでに存在しているデバイスグループをオンラインにします。
# scswitch -z -D disk-device-group -h node |
スイッチを実行します。
ディスクデバイスグループの名前を指定します。これは、Solstice DiskSuite ソフトウェアのディスクセット名と同じです。
ディスクデバイスグループの主ノードとして動作するクラスタノード名を指定します。
いずれかのノードから、すでに存在しているデータサービスリソースグループをオンラインにします。
この時点で、Sun Cluster 2.2 論理ホストが Sun Cluster 3.0 U1 リソースグループに変換され、論理ホスト名に接尾辞 -lh が追加されます。たとえば、lhost-1 という名前の論理ホストは、lhost-1-lh という名前のリソースグループにアップグレードされます。変換したこれらのリソースグループ名は、次のコマンドで使用します。
# scswitch -z -g resource-group -h node |
オンラインにするリソースグループ名を指定します。
scrgadm -p コマンドを使用し、クラスタ内のすべてのリソースタイプとリソースグループの一覧を表示できます。scrgadm -pv コマンドを使用すると、この一覧をより詳しく表示できます。
Sun Management Center を使用して Sun Cluster 構成を監視する場合は、Sun Management Center 用の Sun Cluster モジュールをインストールします。
最新バージョンの Sun Management Center ソフトウェアを使用していることを確認します。
インストールまたはアップグレード手順については、Sun Management Center のマニュアルを参照してください。
「Sun Cluster モジュールのインストール条件」のガイドラインと手順に従って、Sun Cluster モジュールパッケージをインストールします。
すべてのノードがクラスタに結合していることを確認します。
「クラスタメンバーシップを確認する」に進みます。
次の例に、Sun Cluster 2.2 から Sun Cluster 3.0 U1 にアップグレードした 2 ノードクラスタの完了処理を示します。クラスタノード名は phys-schost-1、phys-schost-2、デバイスグループ名は dg-schost-1 と dg-schost-2、データサービスリソースグループ名は lh-schost-1 と lh-schost-2 です。
(共有定足数デバイスの DID を指定する) phys-schost-1# scdidadm -L (各ノードのアップグレードを完了する) phys-schost-1# scinstall -u finish -q globaldev=d1 ¥ -d /cdrom/suncluster_3_0u1 -s nfs phys-schost-2# scinstall -u finish -q globaldev=d1 ¥ -d /cdrom/suncluster_3_0u1 -s nfs (各ノードでデバイスグループとデータサービスリソースグループをオンラインにする) phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2 |
次の手順を実行して、すべてのノードがクラスタに結合していることを確認します。
クラスタ内の任意のノードのスーパーユーザーになります。
クラスタの状態を表示します。
クラスタノードがオンラインであることと、定足数デバイス、デバイスグループ、データサービスリソースグループが構成済みでオンラインであることを確認します。
# scstat |
クラスタ状態の表示方法の詳細については、scstat(1M) のマニュアルページを参照してください。
各ノードで、クラスタノードとの接続を確認するためにシステムが検査するすべてのデバイスの一覧を表示します。
各ノードの出力は同じ内容になります。
# scdidadm -L |
これでクラスタのアップグレードは完了です。クラスタを本稼働環境に戻すことができます。