Sun Cluster 2.2 ソフトウェアのインストール

サーバーソフトウェアを Sun Cluster 2.0 または 2.1 から Sun Cluster 2.2 にアップグレードするには

ここでは、停止時間を極力抑えながら、Sun Cluster 2.0 または 2.1 システム上のサーバーソフトウェアを Sun Cluster 2.2 にアップグレードするための手順を説明します。アップグレードを開始する前に、手順全体をよく理解しておいてください。

サーバーソフトウェアをアップグレードするための主な作業は、次のとおりです。


注 -

scinstall(1M) によるアップグレードでは、全クラスタノード上の /.rhosts ファイルに、スーパーユーザーアクセス専用でローカル以外のすべてのプライベートリンクの IP アドレスが追加されます。


サーバーソフトウェアを Sun Cluster 2.0 または 2.1 から Sun Cluster 2.2 にアップグレードする詳細な手順は、以下のとおりです。この手順例では、クラスタ構成が SSVM を使用した N+1 構成であると仮定して説明します。

  1. 最初のノードを停止します。

    phys-hahost1# scadmin stopnode
    
  2. オペレーティング環境または SSVM か CVM、あるいはその両方をアップグレードする場合は、SSVM または CVM から upgrade_start コマンドを実行します。

    この例の CDROM_path は、SSVM CD 上の Tools ディレクトリへのパスです。

    phys-hahost1# CDROM_path/Tools/scripts/upgrade_start
    

    オペレーティング環境をアップグレードする場合は、適切な Solaris インストールマニュアルの詳細手順に従ってください。また、このマニュアルの第 2 章「構成の計画」も参照してください。

    Solaris 7 にアップグレードする場合は、SSVM 3.x を使用する必要があります。詳細は、『Sun StorEdge Volume Manager Installaton Guide』を参照してください。

    CVM をアップグレードする場合は、『Sun Cluster 2.2 Cluster Volume Manager ガイド』を参照してください。

  3. オペレーティング環境だけアップグレードして、ボリュームマネージャのアップグレードを行わない場合は、次の作業を行います。

    1. ボリュームマネージャのパッケージを削除します。

      通常、SSVM および CVM ともにパッケージ名は SUNWvxvm です。以下に例を示します。

      phys-hahost1# pkgrm SUNWvxvm
      
    2. オペレーティングシステムをアップグレードします。

      アップグレード方法については、Solaris のインストールマニュアルを参照してください。

    3. /etc/nsswitch.conf ファイルを編集します。

      「hosts」、「services」、「group」の検索が最初にファイルに対して行われるようにします。以下に例を示します。

      hosts: files nisplus  
      services: files nisplus
      group: files nisplus
    4. 手順 a で削除したボリュームマネージャを Sun Cluster 2.2 CD-ROM から復元します。

      phys-hahost1# pkgadd -d CDROM_path/SUNWvxvm
      
  4. SSVM または CVM をアップグレードした場合は、SSVM または CVM のいずれか適切な媒体から upgrade_finish コマンドを実行します。

    この例の CDROM_path は、SSVM CD 上の Tools ディレクトリへのパスです。

    phys-hahost1# CDROM_path/Tools/scripts/upgrade_finish
    
  5. システムを再起動します。

  6. Sun Cluster 2.2 CD-ROM から scinstall(1M) を実行して、クラスタソフトウェアをアップグレードします。

    scinstall(1M) コマンドを起動し、表示されたメニューから「Upgrade」オプションを選択してください。

    phys-hahost1# cd /cdrom/suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Tools
    phys-hahost1# ./scinstall
     
     Removal of <SUNWscins> was successful.
     Installing: SUNWscins
     
     Installation of <SUNWscins> was successful.
         Assuming a default cluster name of sc-cluster
     
     Checking on installed package state............
     
     ============ Main Menu =================
     
     1) Install/Upgrade - Install or Upgrade Server Packages or Install Client Packages.
     2) Remove  - Remove Server or Client Packages.
     3) Change  - Modify cluster or data service configuration
     4) Verify  - Verify installed package sets.
     5) List    - List installed package sets.
     
     6) Quit    - Quit this program.
     7) Help    - The help screen for this menu.
     
     Please choose one of the menu items: [7]:  1
    ...
     ==== Install/Upgrade Software Selection Menu =======================
     Upgrade to the latest Sun Cluster Server packages or select package
     sets for installation. The list of package sets depends on the Sun
     Cluster packages that are currently installed.
     
     Choose one:
     1) Upgrade            Upgrade to Sun Cluster 2.2 Server packages
     2) Server             Install the Sun Cluster packages needed on a server
     3) Client             Install the admin tools needed on an admin workstation
     4) Server and Client  Install both Client and Server packages
     
     5) Close              Exit this Menu
     6) Quit               Quit the Program
     
     Enter the number of the package set [6]:  1
     
     What is the path to the CD-ROM image? [/cdrom/cdrom0]:  .
     
     ** Upgrading from Sun Cluster 2.1 **
     	Removing "SUNWccm" ... done
     ...
  7. クラスタが 3 ノード以上の構成で、Sun Cluster 2.0 からのアップグレードの場合は、TC/SSP 情報を提供します。

    scinstall(1M) コマンドを初めて起動すると、TC/SSP 情報が自動的に /var/tmp/tc_ssp_info ファイルに保存されます。ノードをアップグレードしたときにその情報を再利用できるよう、他のすべてのクラスタノードの /var/tmp ディレクトリにこのファイルをコピーしてください。TC/SSP 情報は、ここで提供することも、あるいは scconf(1M) コマンドを使用して後で提供することもできます。詳細は、scconf(1M) のマニュアルページを参照してください。

    SC2.2 uses the terminal concentrator (or system service processor in the
     case of an E10000) for failure fencing. During the SC2.2 installation the
     IP address for the terminal concentrator along with the physical port numbers
     that each server is connected to is requested. This information can be changed 
     using scconf.
     
     After the upgrade has completed you need to run scconf to specify terminal
     concentrator information for each server. This will need to be done on each
     server in the cluster.
     
     The specific commands that need to be run are:
     
     scconf clustername -t <nts name> -i <nts name|IP address>
     scconf clustername -H <node 0> -p <serial port for node 0> ¥
             -d <other|E10000> -t <nts name>
     
     Repeat the second command for each node in the cluster. Repeat the first
     command if you have more than one terminal concentrator in your
     configuration.
     
     Or you can choose to set this up now. The information you will need is:
     
             +terminal concentrator/system service processor names
             +the architecture type (E10000 for SSP or other for tc)
             +the ip address for the terminal concentrator/system service
              processor (these will be looked up based on the name, you
              will need to confirm)
             +for terminal concentrators, you will need the physical
              ports the systems are connected to (physical ports
              (2,3,4... not the telnet ports (5002,...)
     
     Do you want to set the TC/SSP info now (yes/no) [no]?  y
    

    scinstall(1M) コマンドから TC/SSP 情報の入力を求められたら、強制的に tc_ssp_info ファイルを参照させるか、必要な情報の入力が求められる対話形式のセッションを起動します。

    この例のクラスタでは、構成情報が次のようになっているものとします。

    • クラスタ名: sc-cluster

    • クラスタ内のノード数: 2

    • ノード名: phys-hahost1 と phys-hahost2

    • 論理ホスト名: hahost1 と hahost2

    • 端末集配信装置: cluster-tc

    • 端末集配信装置の IP アドレス: 123.4.5.678

    • phys-hahost1 に接続される物理 TC ポート: 2

    • phys-hahost2 に接続される物理 TC ポート: 3

    サーバーのアーキテクチャと TC/SSP についての詳細は、「端末集配信装置またはシステムサービスプロセッサ (SSP) と管理ワークステーション」を参照してください。この例は Sun Enterprise 10000 を使用したクラスタ構成ではありません。指定されているアーキテクチャは「other」で、端末集配信装置が使用されています。

    What type of architecture does phys-hahost1 have? (E10000|other)
     [other] [?] other
    What is the name of the Terminal Concentrator connected to the
     serial port of phys-hahost1 [NO_NAME] [?] cluster-tc
    Is 123.4.5.678 the correct IP address for this Terminal
     Concentrator (yes|no) [yes] [?] yes
    Which physical port on the Terminal Concentrator is phys-hahost2
     connected to [?] 2
    What type of architecture does phys-hahost2 have? (E10000|other)
     [other] [?] other
    Which Terminal Concentrator is phys-hahost2 connected to:
     
     0) cluster-tc       123.4.5.678
     1) Create A New Terminal Concentrator Entry
     
     Select a device [?] 0
    Which physical port on the Terminal Concentrator is phys-hahost2
     connected to [?] 3
    The terminal concentrator/system service processor (TC/SSP)
     information has been stored in file /var/tmp/tc_ssp_data. Please
     put a copy of this file into /var/tmp on the rest of the nodes in
     the cluster. This way you don't have to re-enter the TC/SSP values,
     but you will, however, still be prompted for the TC/SSP passwords.
  8. Sun Cluster SNMP を使用する場合は、Sun Cluster SNMP デーモンと Solaris SNMP (smond) が使用するポート番号を変更します。

    Sun Cluster SNMP がデフォルトで使用するポートと Solaris SNMP がデフォルトで使用するポートは同じで、ともにポート 161 を使用します。『Sun Cluster 2.2 のシステム管理』の Sun Cluster SNMP についての説明に従って、Sun Cluster SNMP 用のポート番号を変更してください。

  9. システムを再起動します。


    注意 - 注意 -

    この時点で、必ず再起動する必要があります。


  10. クラスタが 3 ノード以上の構成で、共有 CCD を使用する場合は、すべての論理ホストを保守モードにします。

    phys-hahost2# haswitch -m hahost1 hahost2 
    

    注 -

    3 ノード以上のクラスタで、共有 CCD を使用することはありません。このため、3 ノード以上のクラスタの場合、アップグレードを開始する前にデータサービスを保守モードにする必要はありません。


  11. 構成に Oracle Parallel Server (OPS) が含まれている場合は、OPS が停止していることを確認します。

    OPS の停止方法については、OPS のマニュアルを参照してください。

  12. 以前のバージョンの Sun Cluster を実行している残りのノード上のクラスタソフトウェアを停止します。

    phys-hahost2# scadmin stopnode
    
  13. アップグレードしたノードを起動します。

    phys-hahost1# scadmin startcluster phys-hahost1 sc-cluster
    

    注 -

    アップグレードしたノードがクラスタに参加すると、システムから、端末集配信装置との通信が無効であることを示す警告メッセージが報告されることがあります。この時点では、そうしたメッセージは異常を示すものではなく、無視してかまいません。


  14. Sun Cluster 2.0 からのアップグレードで共有 CCD を使用する場合は、共有 CCD を更新します。

    最初にクラスタに参加したホストから ccdadm(1M) コマンドを 1 度だけ実行してください。

    phys-hahost1# cd /etc/opt/SUNWcluster/conf
    phys-hahost1# ccdadm sc-cluster -r ccd.database_post_sc2.0_upgrade
    
  15. データサービスを停止していた場合は、アップグレードしたノードからそれらのデータサービスを再起動します。

    phys-hahost1# haswitch phys-hahost1 hahost1 hahost2
    
  16. 残りのノードをアップグレードします。

    残りの Sun Cluster 2.0 または 2.1 のノードに対して 手順 2 から 手順 9 までの作業を繰り返してください。

  17. 全ノードをアップグレードしたら、それらのノードをクラスタに追加します。

    phys-hahost2# scadmin startnode sc-cluster
    
  18. Sun Cluster Manager を構成して、起動します。

    Sun Cluster Manager は、クラスタの監視に使用されます。使用方法については、『Sun Cluster 2.2 ご使用にあたって』と、『Sun Cluster 2.2 のシステム管理』の Sun Cluster Manager による Sun Cluster サーバーの監視についての説明を参照してください。

    これで、Sun Cluster 2.2 へのアップグレードは完了です。