Sun Cluster 2.2 ソフトウェアのインストール

アップグレード - VERITAS Volume Manager

ここでは、VERITAS Volume Manager (VxVM) を使用するクラスタに対し、Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 を Solaris 8 で動作する Sun Cluster 2.2 にアップグレードする手順を説明します。ただし、VxVM クラスタ機能はある場合とない場合があります。この機能は Oracle Parallel Server で使用されます。

この手順は、VERITAS Volume Manager と Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 システムのソフトウェアを Solaris 8 で動作する Sun Cluster 2.2 の最新バージョンにアップグレードするための手順を述べたものです。

アップグレードを始める前に、手順全体をよく理解しておく必要があります。参照のため、ボリュームマネージャのマニュアルを手元に用意してください。


注意 - 注意 -

アップグレードを始める前に、すべての構成情報と重要データの十分なバックアップを取ってください。クラスタは、安定した非縮退状態でなければなりません。



注意 - 注意 -

カプセル化されたルートディスクをもつ VxVM が動作している場合は、Sun Cluster 2.2 をインストールする前にルートディスクのカプセル化を解除する必要があります。Sun Cluster 2.2 をインストールしたら、ディスクを再びカプセル化してください。ルートディスクのカプセル化やその解除を行う手順については、VxVM のマニュアルを参照してください。



注 -

scinstall(1M) アップグレード手順では、ローカル以外のすべてのプライベートリンク IP アドレスが各ノードの /.rhosts ファイルに追加されます。ただし、これは root アクセスのみ可能です。



注 -

Solaris 2.6 と Solaris 8 では、DNS の動作が異なります。これは、デフォルトの bind バージョンがそれぞれのオペレーティング環境で異なるためです。そのため、一部の DNS 構成ファイルを変更する必要があります。詳細については、DNS のマニュアルを参照してください。


Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 を Solaris 8 で動作する Sun Cluster 2.2 へアップグレードするには (VERITAS Volume Manager)

この例では、クラスタは、管理ワークステーションを使った N+1 構成であるものとします。

  1. (Sun Cluster HA for SAP のみ) hadsconfig(1M) コマンドを実行して現在の構成パラメータを取得します。

    SAP インスタンス構成データはアップグレード時に消去されます。そのため、hadsconfig(1M) コマンドを実行して現在の SAP パラメータを控えておく必要があります。パラメータは後で手作業で復元します。Sun Cluster HA for SAP の新しい構成パラメータについては、第 10 章「Sun Cluster HA for SAP のインストールと構成」を参照してください。


    phys-hahost1# hadsconfig
    

  2. 最初にアップグレードするノードを選択し、そのノードのデータサービスをバックアップノードに切り替えます。

  3. クラスタに OPS が含まれている場合は、OPS を停止します。

  4. アップグレードするノードを停止します。


    phys-hahost1# scadmin stopnode
    

  5. オペレーティング環境をアップグレードする場合は、VERITAS のマニュアルを参照してボリュームマネージャのアップグレードを開始します。

    オペレーティング環境をアップグレードする前に、ボリュームマネージャ特有のタスクをいくつか行う必要があります。詳細は、VERITAS のマニュアルを参照してください。ボリュームマネージャのアップグレードの残りは、オペレーティング環境のアップグレードが終了した後で行います。

  6. オペレーティング環境をアップグレードします。

    オペレーティング環境のアップグレードについては、適切な Solaris インストールマニュアルの詳しい説明と本書の第 2 章「構成の計画」を参照してください。

  7. NIS+ を使用している場合は、/etc/nsswitch.conf ファイルを変更します。

    「service」、「group」、「hosts」の参照は、次のように、最初に files に対して行われなければなりません。


    hosts: files nisplus
    services: files nisplus
    group: files nisplus

  8. VERITAS のマニュアルを参照して、ボリュームマネージャのアップグレードを完了します。

  9. ノードを再起動します。

  10. (Sun Cluster HA for SAP のみ) 次の各手順を行います。

    1. カスタマイズした hasap_start_all_instanceshasap_stop_all_instances スクリプトがある場合は、安全な場所に保存します。

      Sun Cluster 2.2 のアップグレード時には古いスクリプトが削除されるため、カスタマイズ内容を維持するためにこれらのスクリプトを保存しておく必要があります。次のコマンドを使って、スクリプトを安全な場所にコピーしてください。これらのスクリプトは、アップグレードの後に 手順 12 で復元します。


      phys-hahost1# cp /opt/SUNWcluster/ha/sap/hasap_start_all_instances /safe_place
      phys-hahost1# cp /opt/SUNWcluster/ha/sap/hasap_stop_all_instances /safe_place
      

    2. scinstall(1M) を使ってクラスタソフトウェアを更新する前に、すべてのノードから SUNWscsap パッケージを削除します。

      SUNWscsap パッケージは scinstall(1M) によって自動的に更新されるわけではないため、ここでこのパッケージを削除します。更新されたパッケージは、手順 12 でインストールします。


      phys-hahost1# pkgrm SUNWscsap
      

  11. scinstall(1M) コマンドを実行し、Sun Cluster 2.2 CD-ROM を使ってクラスタソフトウェアを更新します。

    scinstall(1M) を呼び出し、表示されるメニューから「Upgrade」を選択します。


    phys-hahost1# cd /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Tools
    phys-hahost1# ./scinstall
     
    Removal of <SUNWscins> was successful.
    Installing: SUNWscins
     
    Installation of <SUNWscins> was successful.
    Assuming a default cluster name of sc-cluster
     
    Checking on installed package state............
     
    ============ Main Menu =================
    1) Install/Upgrade - Install or Upgrade Server Packages or Install Client                     Packages.
    2) Remove  - Remove Server or Client Packages.
    3) Change  - Modify cluster or data service configuration
    4) Verify  - Verify installed package sets.
    5) List    - List installed package sets.
    6) Quit    - Quit this program.
    7) Help    - The help screen for this menu.
     
    Please choose one of the menu items: [7]:  1
    ...
    ==== Install/Upgrade Software Selection Menu =======================
    Upgrade to the latest Sun Cluster Server packages or select package
    sets for installation. The list of package sets depends on the Sun
    Cluster packages that are currently installed.
     
    Choose one:
    1) Upgrade            Upgrade to Sun Cluster 2.2 Server packages
    2) Server             Install the Sun Cluster packages needed on a server
    3) Client             Install the admin tools needed on an admin workstation
    4) Server and Client  Install both Client and Server packages
    5) Close              Exit this Menu
    6) Quit               Quit the Program
     
    Enter the number of the package set [6]:  1
     
    What is the path to the CD-ROM image? [/cdrom/cdrom0]:  .
     
    ** Upgrading from Sun Cluster 2.1 **
    	Removing "SUNWccm" ... done
    ...

  12. (Sun Cluster HA for SAP のみ) 次の各手順を行います。

    1. SAP を使用するすべてのノードに Sun Cluster 2.2 CD-ROM から SUNWscsap パッケージを追加します。

      pkgadd(1M) を使って更新された SUNWscsap パッケージを追加し、手順 1 で削除したパッケージを置き換えます。pkgadd のプロセスで表示されるすべてのプロンプトに対し y を入力します。


      phys-hahost1# 
      pkgadd -d ¥ /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Product/ SUNWscsap
      

    2. SAP を使用するすべてのノードに 手順 10 で保存したスクリプトを復元します。

      これらのスクリプトを /opt/SUNWcluster/ha/sap ディレクトリにコピーします。safe_place ディレクトリは、手順 10 でスクリプトを保存した先のディレクトリです。スクリプトを復元したら、ls -l コマンドを使って、スクリプトが実行可能か確認します。


      phys-hahost1# cd /opt/SUNWcluster/ha/sap
      phys-hahost1# cp /safe_place/hasap_start_all_instances .
      phys-hahost1# cp /safe_place/hasap_stop_all_instances .
      phys-hahost1# ls -l /opt/SUNWcluster/ha/sap/hasap_st*
      -r-xr--r--   1 root     sys        18400 Feb  9 19:04 hasap_start_all_instances
      -r-xr--r--   1 root     sys        25963 Feb  9 19:04 hasap_stop_all_instances

  13. クラスタに 3 つ以上のノードがある場合は、TC/SSP 情報を指定します。

    TC/SSP 情報は、scinstall(1M) コマンドを最初に実行したときに /var/tmp/tc_ssp_info ファイルに自動的に保存されます。このファイルを他のすべてのクラスタノードの /var/tmp ディレクトリにコピーします。これによって、これらのノードをアップグレードするときにこの情報を再使用できます。TC/SSP 情報は、ここで指定することもできますし、後で scconf(1M) コマンドを使って指定することもできます。詳細は、scconf(1M) のマニュアルページを参照してください。


    SC2.2 uses the terminal concentrator (or system service processor in the case of an E10000) 
    for failure fencing. During the SC2.2 installation the IP address for the terminal 
    concentrator along with the physical port numbers that each server is connected 
    to is requested. This information can be changed using scconf.
     
    After the upgrade has completed you need to run scconf to specify terminal concentrator 
    information for each server. This will need to be done on each server in the cluster.
     
    The specific commands that need to be run are:
     
    scconf clustername -t <nts name> -i <nts name|IP address>
    scconf clustername -H <node 0> -p <serial port for node 0> ¥
    -d <other|E10000> -t <nts name>
     
    Repeat the second command for each node in the cluster. Repeat the first command if you 
    have more than one terminal concentrator in your configuration.
    Or you can choose to set this up now. The information you will need is:
     
    			+terminal concentrator/system service processor names
    			+the architecture type (E10000 for SSP or other for tc)
    			+the ip address for the terminal concentrator/system service 
             processor (these will be looked up based on the name, you 
             will need to confirm)
    			+for terminal concentrators, you will need the physical 
             ports the systems are connected to (physical ports 
             (2,3,4... not the telnet ports (5002,...)
     
    Do you want to set the TC/SSP info now (yes/no) [no]?  y
    

    scinstall(1M) コマンドから TC/SSP 情報の入力を要求されたら、tc_ssp_info ファイルの使用を指定することもできますし、対話型セッションを呼び出して必要な情報を入力することもできます。

    このクラスタ例では、次の構成情報を使用するものとします。

    • クラスタ名: sc-cluster

    • クラスタのノード数: 2

    • ノード名: phys-hahost1phys-hahost2

    • 論理ホスト名: hahost1hahost2

    • 端末集配信装置名: cluster-tc

    • 端末集配信装置の IP アドレス: 123.4.5.678

    • phys-hahost1 に接続される物理 TC ポート: 2

    • phys-hahost2 に接続される物理 TC ポート: 3

      サーバーアーキテクチャと TC/SSP については、第 1 章「Sun Cluster 環境について」を参照してください。この例の構成は E10000 クラスタではないため、アーキテクチャに other を指定し、端末集配信装置を使用します。


      What type of architecture does phys-hahost1 have? (E10000|other) [other] [?] other
      What is the name of the Terminal Concentrator connected to the serial port of phys-hahost1 
      [NO_NAME] [?] cluster-tc
      Is 123.4.5.678 the correct IP address for this Terminal Concentrator (yes|no) [yes] [?] yes
      Which physical port on the Terminal Concentrator is phys-hahost2 connected to [?] 2
      What type of architecture does phys-hahost2 have? (E10000|other) [other] [?] other
      Which Terminal Concentrator is phys-hahost2 connected to:
       
      0) cluster-tc       123.4.5.678
      1) Create A New Terminal Concentrator Entry
       
      Select a device [?] 0
      Which physical port on the Terminal Concentrator is phys-hahost2 connected to [?] 3
      The terminal concentrator/system service processor (TC/SSP) information has been stored 
      in file /var/tmp/tc_ssp_data. Please put a copy of this file into /var/tmp on the rest of the 
      nodes in the cluster.
      This way you don't have to re-enter the TC/SSP values, but you will, however, still be 
      prompted for the TC/SSP passwords.

  14. Sun Cluster SNMP を使用する場合は、Sun Cluster SNMP デーモンと Solaris SNMP (smond) で使用するポート番号を変更します。

    Sun Cluster SNMP が使用するデフォルトポートは、Solaris SNMP が使用するデフォルトのポート番号 (ポート 161) と同じです。『Sun Cluster 2.2 のシステム管理』の付録 (SNMP) にある手順を使って Sun Cluster SNMP のポート番号を変更します。

  15. Sun Cluster やボリュームマネージャの必須または推奨パッチがある場合は、これをインストールします。

    必須または推奨パッチは、サービスプロバイダかパッチ Web サイト http://sunsolve.sun.com から入手できます。パッチの README ファイルの説明に従ってパッチをインストールしてださい。

  16. ノードを再起動します。


    注意 - 注意 -

    この時点で再起動しなければなりません。


  17. 共有 CCD を使用している場合は、すべての論理ホストを保守モードにします。


    phys-hahost2# haswitch -m hahost1 hahost2 
    


    注 -

    クラスタに 3 つ以上のノードがある場合には、共有 CCD は使用されません。したがって、このようなクラスタでは、データサービスをこの時点で保守モードにする必要はありません。


  18. Sun Cluster の旧バージョンが動作する残りの各ノードで、クラスタソトウェアを停止します。


    phys-hahost2# scadmin stopnode
    

  19. アップグレード済みのノードを起動します。


    phys-hahost1# scadmin startcluster phys-hahost1 sc-cluster
    


    注 -

    アップグレード済みのノードをクラスタに追加するごとに、端末集配信装置との通信が無効であることを示す警告メッセージがいくつか表示されることがあります。これらのメッセージは予期されたものですので、この時点では無視してください。また、この時点では、Sun Cluster HA for SAP が生成するエラーも無視してください。


  20. (Sun Cluster HA for SAP のみ) 次の各手順を行って SAP インスタンスを再構成します。

    1. hadsconfig(1M) コマンドを実行して Sun Cluster HA for SAP の構成パラメータを復元します。

      新しい構成パラメータの説明は、第 10 章「Sun Cluster HA for SAP のインストールと構成」を参照してください。また、手順 1 で保存した構成情報も参照してください。


      phys-hahost1# hadsconfig
      


      注 -

      この時点では、hadsconfig(1M) が生成するエラーは無視してください。


    2. 構成パラメータを設定したら、hareg(1M) を使ってデータサービスをアクティブにします。


      phys-hahost1# hareg -y sap
      

    3. ftp を使って、構成ファイルをクラスタの他のノードに手作業でコピーします。

      次のようにして、古い Sun Cluster 2.2 構成ファイルを新しい Sun Cluster 2.2 ファイルで置き換えます。


      phys-hahost1# ftp phys-hahost2
      ftp> put /etc/opt/SUNWscsap/hadsconf 
      

  21. 共有 CCD を使用している場合は、ここで更新します。

    クラスタに最初に追加したホストで ccdadm(1M) コマンドを 1 度だけ実行します。


    phys-hahost1# cd /etc/opt/SUNWcluster/conf
    phys-hahost1# ccdadm sc-cluster -r ccd.database_post_sc2.0_upgrade
    

  22. アップグレード済みのノードでデータサービスを再起動します。

    データサービスごとに次のコマンドを実行します。


    phys-hahost1# hareg -s -r dataservice -h CI_logicalhost
    phys-hahost1# hareg -y dataservice
    

  23. アップグレードする次のノードで、手順 4 から手順 15 を行います。

    ノードごとにアップグレード手順を繰り返します。

  24. 各ノードをアップグレードしたら、そのノードをクラスタに追加します。


    phys-hahost2# scadmin startnode sc-cluster
    

  25. Sun Cluster Manager を設定してから起動します。

    Sun Cluster Manager はクラスタの監視に使用されます。これについては、『Sun Cluster 2.2 のシステム管理』第 2 章の Sun Cluster Manager に関する説明を参照してください。また、『Sun Cluster 2.2 ご使用にあたって』も参照してください。

これで、Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 の旧バージョンから Solaris 8 で動作する Sun Cluster 2.2 の最新バージョンへのアップグレードは終りです。