Sun Cluster 3.0 U1 ソフトウェアのインストール

Sun Cluster 2.2 から Sun Cluster 3.0 U1 へのアップグレード

2 ノードクラスタを Sun Cluster 2.2 から Sun Cluster 3.0 U1 (Update 1) にアップグレードするには、次の作業を行います。

表 3-1 作業マップ : Sun Cluster 2.2 から Sun Cluster 3.0 U1 へのアップグレード

作業 

参照箇所 

アップグレードの条件と制限を参照して、Sun Cluster 3.0 U1 ソフトウェアをサポートできるようにルートディスクのパーティション分割方式を計画する。 

「Sun Cluster 2.2 から Sun Cluster 3.0 U1 へのアップグレードの概要」

クラスタを稼動環境から外す。VERITAS Volume Manager (VxVM) の場合は、共有 CCD も無効にする。 

「クラスタを停止する」

クラスタで VERITAS Volume Manager (VxVM) が使用されている場合は、ディスクグループをデポートして VxVM ソフトウェアパッケージを削除する。 

「Sun Cluster 2.2 構成から VERITAS Volume Manager ソフトウェアをアンインストールする」

必要に応じて、Solaris 8 オペレーティング環境にアップグレードする。新しい /globaldevices ファイルシステムを追加する。ファイルシステムの割り当てを変更して Sun Cluster 3.0 U1 ソフトウェアをサポートする。クラスタで Solstice DiskSuite ソフトウェアが使用されている場合は、メディエータを削除して Solstice Disksuite ソフトウェアをアップグレードする。

「Solaris オペレーティング環境をアップグレードする」

Sun Cluster 3.0 U1 フレームワークソフトウェアにアップグレードする。クラスタで Solstice DiskSuite ソフトウェアが使用されている場合は、メディエータを再作成する。 

「クラスタソフトウェアパッケージをアップグレードする」

PATHMANPATH を更新する。

「root の環境を更新する」

Sun Cluster 3.0 U1 データサービスソフトウェアにアップグレードする。必要に応じて、他のアプリケーションをアップグレードする。 

「データサービスソフトウェアパッケージをアップグレードする」

定足数 (quorum) デバイスを割り当ててクラスタソフトウェアのアップグレードを完了し、デバイスグループとデータサービスを起動する。クラスタで VERITAS Volume Manager (VxVM) が使用されている場合は、VxVM ソフトウェアパッケージを再インストールして、ディスクグループをインポートして登録する。クラスタで Solstice DiskSuite ソフトウェアが使用されている場合は、メディエータを削除する。 

「クラスタソフトウェアパッケージのアップグレードを完了する」

すべてのノードがクラスタに結合していることを確認する。 

「クラスタメンバーシップを確認する」

Sun Cluster 2.2 から Sun Cluster 3.0 U1 へのアップグレードの概要

この節では、ソフトウェアを Sun Cluster 2.2 から Sun Cluster 3.0 U1 にアップグレードする際の条件、制限、および計画のガイドラインについて説明します。

条件と制限

Sun Cluster 2.2 を Sun Cluster 3.0 U1 にアップグレードするには、次の条件を満たす必要があります。

アップグレードの計画

Sun Cluster 3.0 U1 ソフトウェアをサポートするには、現在のシステムディスクの配置の変更が必要になることがあります。新たにパーティション分割を計画するときは、次の情報を考慮に入れてください。

Sun Cluster 3.0 U1 ソフトウェアをサポートするためのディスク領域の必要条件の詳細については、「システムディスクパーティション」を参照してください。

クラスタを停止する

ソフトウェアをアップグレードする前に、クラスタを稼働環境から外します。

  1. アップグレードするすべてのソフトウェア製品の CD-ROM、マニュアル、パッチを用意します。

    • Solaris 8 オペレーティング環境

    • Solstice DiskSuite または VERITAS Volume Manager

    • Sun Cluster 3.0 U1 フレームワーク

    • Sun Cluster 3.0 U1 データサービス (エージェント)

    • その他のアプリケーション

    Solstice DiskSuite ソフトウェアとマニュアルは、現在は Solaris 8 製品の一部として提供されています。


    注 -

    ここで説明する手順では、CD-ROM からのインストールを想定しています。ネットワークからのインストールの場合は、各ソフトウェア製品の CD-ROM イメージをネットワークに読み込むようにしてください。


    パッチの入手方法とインストール手順については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。

  2. クラスタが停止することをユーザーに通知します。

  3. クラスタの各ノードのスーパーユーザになります。

  4. /var/adm/messages ログに、解決されていないエラーや警告メッセージがないかどうかを確認します。

    問題があれば解決します。

  5. 保守状態の論理ホストがないことを確認します。

    1. クラスタのノードのスーパーユーザになります。

    2. hastat(1M) コマンドを使用してクラスタの状態を表示します。


      # hastat
      HIGH AVAILABILITY CONFIGURATION AND STATUS
      -------------------------------------------
      ...
      LOGICAL HOSTS IN MAINTENANCE STATE

      画面出力が「NONE」の場合、保守状態の論理ホストはありません。手順 6 に進んでください。

    3. 論理ホストが保守モードの場合は、haswitch(1M) コマンドを使用してスイッチオーバーを実行します。


      # haswitch hostname logical-hostname
      
      hostname

      論理ホストを所有するノードの名前を指定します。

      logical-hostname

      論理ホスト名を指定します。

    4. hastat コマンドを実行して、スイッチオーバーが正常に完了したことを確認します。

  6. 各論理ホスト管理ファイルシステムのサイズが少なくとも 10M バイトあることを確認します。


    # df -k /logical-hostname
    

    論理ホスト管理ファイルシステムが 10M バイトない場合は、Sun Cluster 3.0 U1 にアップグレードした後でマウントできません。論理ホスト管理ファイルシステムが 10M バイト未満の場合は、各ボリューム管理ソフトウェアのマニュアルを参照し、このファイルシステムのサイズを大きくしてください。

  7. システムをバックアップします。

    バックアップを実行する前に、すべてのユーザーがログアウトしていることを確認します。

  8. (VxVM のみ) 共有 Cluster Configuration Database (CCD) を無効にします。

    1. 一方のノードから、共有 CCD のバックアップコピーを作成します。


      # ccdadm -c backup-filename
      

      詳細は、ccdadm(1M) のマニュアルページを参照してください。

    2. クラスタの各ノードで、共有 CCD を削除します。


      # scconf clustername -S none 
      

    3. 各ノードで mount(1M) コマンドを実行し、どのノードに ccdvol がマウントされているかを確認します。

      ccdvol エントリの例を次に示します。


      # mount
      ...
      /dev/vx/dsk/sc_dg/ccdvol        /etc/opt/SUNWcluster/conf/ccdssa        ufs     suid,rw,largefiles,dev=27105b8  982479320

    4. 各ノードで cksum(1) コマンドを実行し、両方のノード上の ccd.database ファイルが同じであることを確認します。


      # cksum ccd.database
      

    5. ccd.database ファイルの内容が異なる場合は、どちらか一方のノードから上記の手順 a で作成した共有 CCD バックアップを復元してください。


      # ccdadm -r backup-filename
      

    6. ccdvol がマウントされているノード上の Sun Cluster 2.2 ソフトウェアを停止します。


      # scadmin stopnode
      

    7. 同じノードから ccdvol のマウントを解除します。


      # umount /etc/opt/SUNWcluster/conf/ccdssa 
      

  9. クラスタの各ノードで、Sun Cluster 2.2 ソフトウェアを停止します。


    # scadmin stopnode
    

  10. hastat コマンドを実行し、クラスタ内にノードが存在しないことを確認します。

  11. クラスタで VERITAS Volume Manager を使用するかどうかを決定します。

Sun Cluster 2.2 構成から VERITAS Volume Manager ソフトウェアをアンインストールする

クラスタで VERITAS Volume Manager (VxVM) を使用している場合は、クラスタの各ノードで次の手順を実行し、VxVM ソフトウェアをアンインストールします。既存のディスクグループは保持されており、すべてのソフトウェアをアップグレードした後で自動的に再インポートされます。


注 -

Sun Cluster 3.0 U1 ソフトウェアにアップグレードするには、最新バージョンの VxVM がインストールされているかどうかにかかわらず、いったん VxVM ソフトウェアを削除し、後で再インストールする必要があります。


  1. クラスタノードのスーパーユーザになります。

  2. VxVM をアンインストールします。

    VxVM のマニュアルに記載された手順に従ってください。この処理には、以下の作業が含まれます。

    • すべての VxVM ディスクグループをデポートします。アップグレード中は、保持するデータが格納されているディスクがその他の目的で使用されないようにします。

    • ルートディスクがカプセル化されている場合は、カプセル化を解除します。

    • VxVM を停止します。

    • インストールされているすべての VxVM ソフトウェアパッケージを削除します。

  3. VxVM デバイス名前空間を削除します。


    # rm -rf /dev/vx
    

  4. もう一方のクラスタノードで、手順 1手順 3 を繰り返します。

  5. Sun Cluster 3.0 U1 ソフトウェアをサポートするために、Solaris オペレーティング環境をアップグレードします。

    「Solaris オペレーティング環境をアップグレードする」に進みます。

Solaris オペレーティング環境をアップグレードする

クラスタ内の各ノードで次の手順を実行して Solaris オペレーティング環境をアップグレードし、Sun Cluster 3.0 U1 ソフトウェアをサポートできるようにします。

  1. クラスタノードのスーパーユーザーになります。

  2. ボリューム管理ソフトウェアが Solstice DiskSuite で、メディエータを使用している場合は、メディエータの構成を解除します。

    1. 次のコマンドを実行して、メディエータデータに問題がないことを確認します。


      # medstat -s setname
      
      -s setname

      ディスクセット名を指定します。

      Status フィールドの値が Bad の場合は、「不正なメディエータデータを修復する」の手順に従って、関連するメディエータホストを修復します。

      詳細については、medstat(1M) のマニュアルページを参照してください。

    2. すべてのメディエータを一覧表示します。

      この情報を使用し、メディエータが削除されるディスクセットの所有権を持つノードを調べます。


      # metaset -s setname
      

      「クラスタソフトウェアパッケージをアップグレードする」の手順でメディエータを復元するときのために、この情報を保存しておいてください。

    3. どのノードも所有権を持っていない場合は、ディスクセットの所有権を取得します。


      # metaset -s setname -t
      
      -t

      ディスクセットの所有権を取得します。

    4. すべてのメディエータの構成を解除します。


      # metaset -s setname -d -m mediator-host-list
      
      -s setname

      ディスクセット名を指定します。

      -d

      ディスクセットから削除します。

      -m mediator-host-list

      削除するノードの名前をディスクセットのメディエータホストとして指定します。

      metaset コマンドのメディエータ固有のオプションの詳細については、mediator(7) のマニュアルページを参照してください。

    5. メディエータソフトウェアを削除します。


      # pkgrm SUNWmdm
      

  3. 現在の構成で Solaris 8 ソフトウェアが動作しているかどうかを確認します。

    • 動作していない場合は、手順 4 に進んでください。

    • 動作している場合は、次の手順に従ってください。

    1. 少なくとも 100M バイトのファイルシステムを作成し、そのマウントポイントを /globaldevices に設定します。


      注 -

      Sun Cluster 3.0 U1 ソフトウェアを正しくインストールするには、/globaldevices ファイルシステムが必要です。


    2. 必要に応じて、Sun Cluster 3.0 U1 ソフトウェアをサポートするために、別のパーティションに領域を確保します。

      ガイドラインについては、「システムディスクパーティション」を参照してください。

    3. 手順 6 に進みます。

  4. Solaris 8 ソフトウェアへのアップグレードに使用する手順を決定します。

    ボリューム管理ソフトウェア 

    使用手順 

    参照箇所 

    Solstice DiskSuite 

    Solaris と Solstice DiskSuite ソフトウェアの両方をアップグレードする 

    Solstice DiskSuite のインストールマニュアル 

    VxVM 

    Solaris ソフトウェアの標準インストールを実行する 

    Solaris 8 のインストールマニュアル 

  5. 手順 4で選択した方法に従って、Solaris 8 ソフトウェアへアップグレードします。

    インストール中に、ルートディスクのパーティション分割方式を次のように変更します。

    • 少なくとも 100M バイトのファイルシステムを作成して、そのマウントポイントを /globaldevices に設定します。 Sun Cluster 3.0 U1 ソフトウェアを正しくインストールするには、/globaldevices ファイルシステムが必要です。

    • 必要に応じて、Sun Cluster 3.0 U1 ソフトウェアをサポートするために、別のパーティションに領域を確保します。

    パーティション分割のガイドラインについては、「システムディスクパーティション」を参照してください。


    注 -

    Solaris のインタフェースグループ機能は、Solaris ソフトウェアのインストール中にデフォルトで無効に設定されます。インタフェースグループは Sun Cluster 構成ではサポートされていないため、有効にしないでください。Solaris インタフェースグループの詳細については、ifconfig(1M) のマニュアルページを参照してください。


  6. Solaris 用のソフトウェアパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。

  7. ハードウェア関連のパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。

  8. Solstice DiskSuite を使用する場合は、Solstice DiskSuite 用のソフトウェアパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。

  9. Sun Cluster 3.0 U1 ソフトウェアにアップグレードします。

    「クラスタソフトウェアパッケージをアップグレードする」へ進んでください。

例 - メディエータの構成の解除

次の例に、Solaris 8 ソフトウェアにアップグレードする前に、Solstice DiskSuite ディスクセット schost-1 から構成解除されたメディエータホスト phys-schost-1 を示します。


(メディエータの状態を確認する)
# medstat -s schost-1
 
(すべてのメディエータを一覧表示する)
# metaset -s schost-1
 
(メディエータの構成を解除する)
# metaset -s schost-1 -d -m phys-schost-1
 
(メディエータソフトウェアを削除する)
# pkgrm SUNWmdm
 
(ソフトウェアのアップグレードを開始する)

クラスタソフトウェアパッケージをアップグレードする

各ノードで次の手順を実行します。Sun Cluster 3.0 7/01 CD-ROM を 2 部お持ちの場合は、この手順を両方のノードで同時に実行できます。


注 -

scinstall(1M) アップグレードコマンドは、-u begin オプションと -u finish オプションの 2 段階のプロセスに分かれています。次の手順では、begin オプションを実行します。finish オプションは、「クラスタソフトウェアパッケージのアップグレードを完了する」で実行します。


  1. クラスタノードのスーパーユーザーになります。

  2. ボリューム管理ソフトウェアが Solstice DiskSuite の場合は、各ノードに最新の Solstice DiskSuite メディエータパッケージ (SUNWmdm) をインストールします。

    1. CD-ROM からインストールする場合は、ノードの CD-ROM ドライブに Sun Cluster 3.0 7/01 CD-ROM を挿入します。

      ボリュームデーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_0u1 ディレクトリにマウントされます。

    2. /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages ディレクトリに移動します。


      # cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages
      

    3. SUNWmdm パッケージを追加します。


      # pkgadd -d . SUNWmdm
      

    4. ノードを再起動します。


      # shutdown -g0 -y -i6
      

    5. その他のノードに対してこの手順を繰り返します。

  3. メディエータを再構成します。

    1. メディエータホストの追加先のディスクセットの所有権を持つノードを指定します。


      # metaset -s setname
      
      -s setname

      ディスクセット名を指定します。

    2. どのノードも所有権を持っていない場合は、ディスクセットの所有権を取得します。


      # metaset -s setname -t
      
      -t

      ディスクセットの所有権を取得します。

    3. メディエータを再度作成します。


      # metaset -s setname -a -m mediator-host-list
      
      -a

      ディスクセットに追加します。

      -m mediator-host-list

      追加するノードの名前をディスクセットのメディエータホストとして指定します。

    4. 各ディスクセットごとにこの手順を繰り返します。

  4. Sun Cluster 3.0 U1 ソフトウェアへのアップグレードを開始します。

    1. 一方のノードで、/cdrom/suncluster_3_0u1/SunCluster_3.0/Tools ディレクトリに移動します。


      # cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools
      

    2. クラスタソフトウェアフレームワークをアップグレードします。

      アップグレードするノード 

      使用するコマンド 

      最初のノード 

      ./scinstall -u begin -F

      2 つ目のノード 

      ./scinstall -u begin -N node1

      -F

      このノードが、クラスタ内でインストールされる最初のノードであることを指定します。

      -N node1

      クラスタ内で 2 番目にインストールされるノード名ではなく、最初にインストールされるノード名を指定します。

      詳細については、scinstall(1M) のマニュアルページを参照してください。

    3. ノードを再起動します。


      # shutdown -g0 -y -i6
      

      最初のノードが再起動してクラスタモードになったときに、クラスタが設定されます。2 つ目のノードは、処理が完了してクラスタに結合する前に、必要に応じて、クラスタが設定されるまで待機します。

    4. その他のクラスタノードに対してこの手順を繰り返します。

  5. 各ノードごとに、Sun Cluster 用のパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。

  6. ディイレクトリパスを更新します。

    「root の環境を更新する」に進みます。

例 - Sun Cluster 2.2 から Sun Cluster 3.0 U1 へのアップグレード - 開始処理

次の例に、2 ノードクラスタを Sun Cluster 2.2 から Sun Cluster 3.0 U1 にアップグレードする際の開始処理を示します。クラスタノード名は、最初にインストールされたノードである phys-schost-1 と、phys-schost-1 の設定後にクラスタに結合する phys-schost-2 です。ボリューム管理ソフトウェアは Solstice DiskSuite で、両方のノードがディスクセット schost-1 のメディエータホストとして使用されます。


(各ノードに最新の Solstice DiskSuite メディエータパッケージをインストールする)
# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages
# pkgadd -d . SUNWmdm
 
(メディエータを復元する)
# metaset -s schost-1 -t
# metaset -s schost-1 -a -m phys-schost-1 phys-schost-2
 
(最初のノードのアップグレードを開始する)
phys-schost-1# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools
phys-schost-1# ./scinstall -u begin -F
 
(2 つ目のノードのアップグレードを開始する)
phys-schost-2# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools
phys-schost-2# ./scinstall -u begin -N phys-schost-1
 
(各ノードを再起動する)
# shutdown -g0 -y -i6

root の環境を更新する

クラスタの各ノードで次の作業を実行します。


注 -

Sun Cluster 構成では、各種シェルのユーザー初期設定ファイルは、それらが対話式シェルから実行されていることを確認した上で、端末への出力を試みる必要があります。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。ユーザーの作業環境をカスタマイズする方法については、Solaris のシステム管理マニュアルを参照してください。


  1. クラスタノードでスーパーユーザーになります。

  2. .cshrc ファイルの PATH と MANPATH エントリを変更します。

    1. /usr/sbin および /usr/cluster/bin を含むように PATH 環境変数を設定します。

      さらに VERITAS Volume Manager の場合は、PATH 環境変数に /etc/vx/bin も含めます。VRTSvmsa パッケージをインストールしている場合は、/opt/VRTSvmsa/binPATH 環境変数に追加します。

    2. /usr/cluster/man を含むように MANPATH 環境変数を設定します。また、次のようにボリューム管理ソフトウェア固有のパスも含めます。

      • Solstice DiskSuite ソフトウェアの場合は、/usr/share/man も含むように MANPATH 環境変数を設定します。

      • VERITAS Volume Manager の場合は、/opt/VRTSvxvm/man も含むように MANPATH 環境変数を設定します。VRTSvmsa パッケージをインストールしている場合は、/opt/VRTSvmsa/manMANPATH 環境変数に追加します。

  3. (省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。

  4. 新しいシェルを起動して、環境への変更内容を有効にします。

  5. 他方のノードで、手順 1手順 4 を繰り返します。

  6. Sun Cluster 3.0 U1 データサービスソフトウェアをアップグレードします。

    「データサービスソフトウェアパッケージをアップグレードする」 に進みます。

データサービスソフトウェアパッケージをアップグレードする

各クラスタノードで次の手順を実行します。

  1. 各クラスタのノードのスーパーユーザーになります。

  2. 各アプリケーションをアップグレードし、必要に応じてアプリケーション用のパッチを適用します。

    インストール方法については、各アプリケーションのマニュアルを参照してください。


    注 -

    アプリケーションが共有ディスクに格納されている場合は、アプリケーションをアップグレードする前に、関連するディスクグループをマスターして、関連するファイルシステムを手作業でマウントする必要があります。


  3. データサービスを追加します。

    1. ノードの CD-ROM ドライブに Sun Cluster 3.0 Agents 7/01 CD-ROM を挿入します。

    2. scinstall(1M) ユーティリティーを起動します。


      # scinstall
      

      対話形式の scinstall ユーティリティーを使用するときは、次のガイドラインに従ってください。

      • 対話形式の scinstall では先打ち入力が可能です。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。

      • 特に指定のある場合以外は、Control-D キーを押すと、関連のある一連の質問の最初か、メインメニューに戻ります。

    3. データサービスを追加するには、4(Add support for a new data service to this cluster node) を入力します。

      プロンプトに従ってデータサービスを追加します。

    4. CD-ROM を取り出します。

  4. Sun Cluster データサービス用のパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1ご使用にあたって』を参照してください。

  5. クラスタ内のもう一方のノードに対し、手順 1手順 4 を繰り返します。

  6. Sun Cluster 3.0 U1 ソフトウェアにアップグレードする 2 つ目のノードを停止します。


    phys-schost-2# shutdown -g0 -y -i0
    

    2 つ目のノードは、最初にインストールされたノードが再起動するまで停止したままにしておきます。

  7. クラスタに最初にインストールされたノードを再起動します。

    最初にインストールされたノードを再起動する前に、2 つ目のノードが停止していることを確認してください。停止していない状態でこの操作を行うと、定足数投票がまだ割り当てられていないため、2 つ目のノードはパニック状態になります。


    phys-schost-1# shutdown -g0 -y -i6
    

  8. 最初にインストールされたノードが完全に起動した後、2 つ目のノードを起動します。


    ok boot
    

  9. 両方のノードが再起動したら、両方のノードがクラスタメンバーになっていることをいずれかのノードで確認します。


    -- Cluster Nodes --
                       Node name      Status
                       ---------      ------
      Cluster node:    phys-schost-1  Online
      Cluster node:    phys-schost-2  Online

    クラスタ状態の表示方法の詳細については、scstat(1M) のマニュアルページを参照してください。

  10. 定足数デバイスを割り当て、アップグレードを終了します。

    「クラスタソフトウェアパッケージのアップグレードを完了する」 へ進みます。

クラスタソフトウェアパッケージのアップグレードを完了する

次の手順で、「クラスタソフトウェアパッケージをアップグレードする」で開始した scinstall(1M) によるアップグレードプロセスを完了します。クラスタの各ノードで次の手順を実行します。

  1. クラスタの各ノードのスーパーユーザーになります。

  2. 定足数デバイスにする共有ディスクを選択します。

    両方のノードで共有されている任意のディスクを定足数デバイスとして使用できます。どちらかのノードから scdidadm(1M) コマンドを実行し、共有ディスクのデバイス ID (DID) 名を確認します。このデバイス名は、手順 5 で、scinstall のオプション -q globaldev=DIDname で指定します。


    # scdidadm -L
    

  3. ボリューム管理ソフトウェアが VxVM の場合は、クラスタの各ノードに VxVM ソフトウェアとパッチを再度インストールして構成します。

    「VxVM ソフトウェアのインストールと構成」 の手順に従ってください。


    注 -

    最初のインストールノードを再起動する必要がある場合は、まず scshutdown(1M) コマンドを使用してクラスタを停止し、その後再起動してください。クラスタが停止し終わるまでクラスタの最初のインストールノードを再起動しないください。


    クラスタインストールモードが無効になるまでは、定足数投票はクラスタを確立した最初のインストールノードにしかありません。確立されたクラスタがまだインストールモードにある場合、クラスタを停止せずに最初のインストールノードを再起動すると、残りのクラスタノードは定足数を得られず、クラスタ全体が停止します。

    どれが最初のインストールノードかを確認するには、scconf -p コマンドを使用して定足数投票の割り当てを表示してください。定足数投票を持つ唯一のノードが最初のインストールノードです。

    手順 7 を実行すると定足数投票が割り当てられ、この再起動制限は不要になります。

  4. ノードの CD-ROM ドライブに Sun Cluster 3.0 Agents 7/01 CD-ROM を挿入します。

    この手順では、ボリュームデーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されていることを想定しています。

  5. そのノードでのクラスタソフトウェアのアップグレードを完了します。


    # scinstall -u finish -q globaldev=DIDname ¥
    -d /cdrom/scdataservices_3_0 -s srvc[,srvc]
    -q globaldev=DIDname

    定足数デバイスのデバイスID (DID) 名を指定します。

    -d /cdrom/scdataservices_3_0

    CD-ROM イメージのディレクトリの場所を指定します。

    -s srvc

    構成するデータサービス名を指定します。


    注 -

    次のようなエラーメッセージが表示されることがありますが、無視してください。


    ** Installing Sun Cluster - Highly Available NFS Server **
    Skipping "SUNWscnfs" - already installed


  6. CD-ROM を取り出します。

  7. もう一方のノードに対して、手順 4手順 6 を繰り返します。

    両方のノードで作業が完了すると、クラスタインストールモードが解除され、定足数の確立に使用されるすべての票が割り当てられます。

  8. ボリューム管理ソフトウェアが Solstice DiskSuite の場合は、いずれかのノードから、すでに存在しているデバイスグループをオンラインにします。


    # scswitch -z -D disk-device-group -h node
    
    -z

    スイッチを実行します。

    -D disk-device-group

    ディスクデバイスグループの名前を指定します。これは、Solstice DiskSuite ソフトウェアのディスクセット名と同じです。

    -h node

    ディスクデバイスグループの主ノードとして動作するクラスタノード名を指定します。

  9. いずれかのノードから、すでに存在しているデータサービスリソースグループをオンラインにします。

    この時点で、Sun Cluster 2.2 論理ホストが Sun Cluster 3.0 U1 リソースグループに変換され、論理ホスト名に接尾辞 -lh が追加されます。たとえば、lhost-1 という名前の論理ホストは、lhost-1-lh という名前のリソースグループにアップグレードされます。変換したこれらのリソースグループ名は、次のコマンドで使用します。


    # scswitch -z -g resource-group -h node
    
    -g resource-group

    オンラインにするリソースグループ名を指定します。

    scrgadm -p コマンドを使用し、クラスタ内のすべてのリソースタイプとリソースグループの一覧を表示できます。scrgadm -pv コマンドを使用すると、この一覧をより詳しく表示できます。

  10. Sun Management Center を使用して Sun Cluster 構成を監視する場合は、Sun Management Center 用の Sun Cluster モジュールをインストールします。

    1. 最新バージョンの Sun Management Center ソフトウェアを使用していることを確認します。

      インストールまたはアップグレード手順については、Sun Management Center のマニュアルを参照してください。

    2. 「Sun Cluster モジュールのインストール条件」のガイドラインと手順に従って、Sun Cluster モジュールパッケージをインストールします。

  11. すべてのノードがクラスタに結合していることを確認します。

    「クラスタメンバーシップを確認する」に進みます。

例 - Sun Cluster 2.2 から Sun Cluster 3.0 U1 へのアップグレード - 完了処理

次の例に、Sun Cluster 2.2 から Sun Cluster 3.0 U1 にアップグレードした 2 ノードクラスタの完了処理を示します。クラスタノード名は phys-schost-1phys-schost-2、デバイスグループ名は dg-schost-1dg-schost-2、データサービスリソースグループ名は lh-schost-1lh-schost-2 です。


(共有定足数デバイスの DID を指定する)
phys-schost-1# scdidadm -L
 
(各ノードのアップグレードを完了する)
phys-schost-1# scinstall -u finish -q globaldev=d1 ¥
-d /cdrom/suncluster_3_0u1 -s nfs
phys-schost-2# scinstall -u finish -q globaldev=d1 ¥
-d /cdrom/suncluster_3_0u1 -s nfs
 
(各ノードでデバイスグループとデータサービスリソースグループをオンラインにする)
phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 
phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2

クラスタメンバーシップを確認する

次の手順を実行して、すべてのノードがクラスタに結合していることを確認します。

  1. クラスタ内の任意のノードのスーパーユーザーになります。

  2. クラスタの状態を表示します。

    クラスタノードがオンラインであることと、定足数デバイス、デバイスグループ、データサービスリソースグループが構成済みでオンラインであることを確認します。


    # scstat
    

    クラスタ状態の表示方法の詳細については、scstat(1M) のマニュアルページを参照してください。

  3. 各ノードで、クラスタノードとの接続を確認するためにシステムが検査するすべてのデバイスの一覧を表示します。

    各ノードの出力は同じ内容になります。


    # scdidadm -L
    

これでクラスタのアップグレードは完了です。クラスタを本稼働環境に戻すことができます。