この章では、Solstice HA 1.3、Sun Cluster 2.0、Sun Cluster 2.1、Sun Cluster 2.2 のいずれかを Sun Cluster 2.2 の最新リリースにアップグレードするときのガイドラインと作業手順を説明します。
アップグレードするソフトウェアとしては、Solaris オペレーティング環境、Sun Cluster、ボリューム管理ソフトウェア (Solstice DiskSuite または VERITAS Volume Manager) があります。
この章で説明する手順は次のとおりです。
この節では、既存の Solstice HA 1.3、Sun Cluster 2.0、Sun Cluster 2.1、Sun Cluster 2.2 のいずれかの構成を Sun Cluster 2.2 にアップグレードする手順を説明します。この章で説明するアップグレード方法では、既存のクラスタ構成とデータが維持されます。アップグレード時、システムは大体においてオンラインで使用可能であり、サービスの中断は極力抑えられます。
Solstice HA 1.3 を Sun Cluster 2.2 にアップグレードする場合
Solstice DiskSuite を使用する構成の場合のみ。Solaris 7 にアップグレードする場合は、Solstice DiskSuite 4.2 にアップグレードする必要があります。Solaris 8 にアップグレードする場合は、Solstice DiskSuite 4.2.1 にアップグレードする必要があります。
Sun Cluster 2.0 または 2.1 を Sun Cluster 2.2 にアップグレードする場合
「Sun Cluster 2.0 または 2.1 から Sun Cluster 2.2 へのアップグレード」の計画情報と手順に進みます。
ボリュームマネージャが VxVM の場合は、VERITAS Volume Manager バージョン 3.0.4 以降にアップグレードする必要があります。ボリュームマネージャのどのバージョンがサポートされているかについては、サービスプロバイダから最新情報を入手してください。
Solaris 2.6 か 7 で動作する前のバージョンの Sun Cluster 2.2 を Solaris 8 で動作する最新バージョンの Sun Cluster 2.2 にアップグレードする場合
「Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 から Solaris 8 で動作する Sun Cluster 2.2 へのアップグレード」 の計画と手順に進みます。
ボリュームマネージャが Solstice DiskSuite 4.2 で、かつ Solaris 8 にアップグレードする場合は、Solstice DiskSuite 4.2.1 にアップグレードする必要があります。
Sun Cluster 2.2 は、Solstice DiskSuite から VERITAS Volume Manager への変換をサポートしていません。
ディスクやサービスの追加などの構成変更も行う場合は、まずソフトウェアのアップグレードを行い、その後、『Sun Cluster 2.2 のシステム管理』で説明している手順に従って構成変更を行なってください。
アップグレードを開始する前に、使用するすべてのアプリケーションのバージョンが使用する Solaris オペレーティング環境のバージョンと互換性があることを確認してください。
Solaris ソフトウェアをアップグレードするには、Solaris オペレーティング環境をインストールできるように、構成内のすべての Sun Cluster サーバーのルートディスク上のルート (/) および /usr パーティションサイズの増加が必要になることがあります。
かならず全体ディストリビューション Solaris ソフトウェアパッケージをインストールしてください。詳細は、Solaris のシステム管理マニュアルを参照してください。
Solaris 2.6 と Solaris 8 では、DNS の動作が異なります。これは、デフォルトの bind バージョンがそれぞれのオペレーティング環境で異なるためです。そのため、一部の DNS 構成ファイルを変更する必要があります。詳細と手順については、DNS のマニュアルを参照してください。
このアップグレードは、管理ワークステーションから行うことも、あるいはクラスタ内の任意の物理ホストのコンソールから行うこともできます。管理ワークステーションを利用すると、柔軟に作業を行うことができます。
アップグレードを開始する前にすべてのローカルディスクと多重ホストディスクのバックアップを取ってください。また、すべてのシステムが動作可能で、不安定でないことを確認してください。システムに問題がある場合は、アップグレードを行わないでください。
Solstice HA 1.3 または Sun Cluster 2.1 内の hasap_start_all_instances あるいは hasap_stop_all_instances スクリプトをカスタマイズしている場合は、Sun Cluster 2.2 にアップグレードする前に、すべてのノードについて、それらスクリプトを安全な場所に保存し、アップグレードの終了後に復元してください。Sun Cluster 2.2 は、古いスクリプトを削除します。既存のカスタマイズ内容が失われないようにするには、必ず、既存のスクリプトを保存してください。
Sun Cluster 2.2 に実装されている構成パラメータは、Solstice HA 1.3 あるいは Sun Cluster 2.1 に実装されているパラメータと異なります。このため、Sun Cluster 2.2 にアップグレードした後に、hadsconfig(1M) コマンドを実行することによって、Sun Cluster HA for SAP を再構成する必要があります。アップグレードを開始する前に、既存の構成を表示し、現在の構成変数値を書き留めてください。Solstice HA 1.3 の場合は hainetconfig(1M) コマンド、Sun Cluster 2.1 の場合は hadsconfig(1M) コマンドを使用して、それぞれ構成を表示できます。Sun Cluster 2.2 にアップグレードしたら、hadsconfig(1M) コマンドを使用して、インスタンスを再作成してください。
Sun Cluster API を使って独自のデータサービスを作成している場合は、アップグレードを始める前に、これらのデータサービスとベースディレクトリが関連付けられているかどうかを確認してください。ベースディレクトリには、データサービスに関連付けられているメソッドの場所が定義されています。データサービスが、hareg(1M) の -b オプションを使って登録されていれば、ベースディレクトリはデータサービス構成ファイルに定義されています。デフォルトにより、サンが提供するデータサービスは、hareg(1M) の -b オプションを使って登録されています。ベースディレクトリが定義されているかどうかを調べるには、/etc/opt/SUNWhadf/hadf/.hadfconfig_services ファイルを表示して、目的のデータサービスに対する SERVICE_BASEDIR= エントリを探します。エントリがない場合は、hareg -u dataservice コマンドを使ってデータサービスの登録を解除してから、hareg(1M) に -b オプションを指定してデータサービスを登録しなおします。いずれかのデータサービスに、ベースディレクトリが関連付けられていないものがあると、アップグレードは失敗します。
次の手順は、管理ワークステーションを使用することを仮定して説明しています。
このアップグレード中、コンソールにネットワークインタフェースエラーやメディエータエラーが表示されることがあります。これはアップグレードに付随する現象であり、無視してかまいません。
(Solstice HA 1.3 for SAP のみ) hainetconfg(1M) を実行して現在の SAP 構成パラメータを取得します。
SAP インスタンス構成データはアップグレード時に消去されます。そのため、hainetconfig(1M) コマンドを実行して現在の SAP パラメータを控えておく必要があります。それによって、後でパラメータを手作業で復元することができます。Sun Cluster HA for SAP の新しい構成パラメータについては、第 10 章「Sun Cluster HA for SAP のインストールと構成」を参照してください。
phys-hahost1# hainetconfig |
Sun Cluster 2.2 のクライアントパッケージを管理ワークステーションに読み込みます。
管理ワークステーションの構成をまだ行なっていない場合は、「インストール手順」を参照してください。
最初にアップグレードするサーバー上の Solstice HA を停止します。
phys-hahost1# hastop |
クラスタで Solaris 2.6 を実行していて、Solaris 7 または Solaris 8 にアップグレードしない場合は、手順 6 に進んでください。
オペレーティング環境を Solaris 2.6、Solaris 7 または Solaris 8 にアップグレードします。
Solaris のアップグレードには、オペレーティング環境を再インストールする方法ではなく、suninstall(1M) によるアップグレード方法を使用する必要があります。この場合、Solaris オペレーティング環境をインストールできるよう、構成内のすべての Sun Cluster サーバーのルートディスク上のルート (/) および /usr パーティションサイズの増加が必要になることがあります。必ず、全体ディストリビューション Solaris ソフトウェアグループをインストールしてください。詳細は、Solaris のシステム管理マニュアルを参照してください。
Solaris では、ハードウェアプラットフォームによっては、サーバーが 30 分以上アイドル状態であった場合に自動的にサーバーが停止するように電源管理を構成しようとします。クラスタのハートビートだけでは、Sun Cluster サーバーがアイドル状態になって、停止するのを防ぐことはできません。このため、Solarisソフトウェアをインストールするときに、サーバーの自動停止機能を無効にする必要があります。電源管理の構成に使用されるダイアログは、下図に示すとおりです。このダイアログが表示されない場合、使用ハードウェアプラットフォームでサーバーの自動停止機能はサポートされていません。ダイアログが表示された場合、サーバーが Sun Cluster 環境で正常に動作するように構成するには、1 つ目の問い合わせに「n」、2 つ目の問い合わせに「y」と答える必要があります。
**************************************************************** This system is configured to conserve energy. After 30 minutes without activity, the system state will be saved to disk and the system will be powered off automatically. A system that has been suspended in this way can be restored back to exactly where it was by pressing the power key. The definition of inactivity and the timeout are user configurable. The dtpower(1M) man page has more information. **************************************************************** Do you wish to accept this default configuration, allowing your system to save its state then power off automatically when it has been idle for 30 minutes? (If this system is used as a server, answer n. By default autoshutdown is enabled.) [y,n,?] n Autoshutdown disabled. Should the system save your answer so it won"t need to ask the question again when you next reboot? (By default the question will not be asked again.) [y,n,?] y |
Solaris カーネルファイルを更新します。
Solaris のアップグレード時、/kernel/drv/sd.conf および /kernel/drv/ssd.conf ファイルはそれぞれ、/kernel/drv/sd.conf:2.、/kernel/drv/ssd.conf:2.x という名前に変更され、新しい /kernel/drv/sd.conf と /kernel/drv/ssd.confファイルが作成されます。古いファイルと新しいファイルの相違点を確認するには、diff(1) コマンドを実行してください。Sun Cluster によって挿入された、古いファイル内の追加情報を新しいファイルにコピーしてください。追加情報は、次のような情報です。
# Start of lines added by Solstice HA sd_retry_on_reservation_conflict=0; # End of lines added by Solstice HA |
Solstice DiskSuite 4.2 または 4.2.1 にアップグレードします。
『Solstice DiskSuite 4.2 ご使用にあたって』の手順に従って、Solstice DiskSuite をアップグレードします。
ローカルホスト上の Solstice DiskSuite のメディエータパッケージ SUNWmdm をアップグレードします。
Solstice DiskSuite 4.2 の場合、SUNWmdm パッケージへのパスは、/cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol2_x/Product/ です。Solstice DiskSuite 4.2.1 の場合、パスは、/cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.8/Packages/ です。
次の例では、いくつかのファイルがすでに存在することを示すメッセージが表示されます。各プロンプトで y を入力して新しいファイルをインストールしてください。
新しい SUNWmdm パッケージを追加する前に古い SUNWmdm パッケージを削除しないでください。そのようにすると、すべてのデータがアクセス不能になります。
phys-hahost1# pkgadd -d /cdrom_path/ SUNWmdm Processing package instance <SUNWmdm>... Solstice DiskSuite (Mediator) (sparc) 4.2,REV=1998.23.10.09.59.06 Copyright 1998 Sun Microsystems, Inc. All rights reserved. ## Executing checkinstall script. This is an upgrade. Conflict approval questions may be displayed. The listed files are the ones that will be upgraded. Please answer "y" to these questions if they are presented. Using </> as the package base directory. ## Processing package information. ## Processing system information. 10 package pathnames are already properly installed. ## Verifying package dependencies. ## Verifying disk space requirements. ## Checking for conflicts with packages already installed. The following files are already installed on the system and are being used by another package: /etc/opt/SUNWmd/meddb /usr/opt <attribute change only> /usr/opt/SUNWmd/man/man1m/medstat.1m /usr/opt/SUNWmd/man/man1m/rpc.metamedd.1m /usr/opt/SUNWmd/man/man4/meddb.4 /usr/opt/SUNWmd/man/man7/mediator.7 /usr/opt/SUNWmd/sbin/medstat /usr/opt/SUNWmd/sbin/rpc.metamedd Do you want to install these conflicting files [y,n,?,q] y ## Checking for setuid/setgid programs. This package contains scripts which will be executed with super-user permission during the process of installing this package. Do you want to continue with the installation of <SUNWmdm.2> [y,n,?] y Installing Solstice DiskSuite (Mediator) as <SUNWmdm.2> ... |
クラスタパッケージをインストールする前に、パッチ 104996 (Solstice HA 1.3 SUNWha またはパッチ) を削除します (インストールされている場合)。
手順 9 で scinstall(1M) を使ってクラスタパッケージを更新すると、パッチ 104996 の前提になるパッチが削除されます。scinstall(1M) の失敗を防ぐために、ここでパッチ 104996 を手作業で削除します。
phys-hahost1# patchrm 104996-xx |
(Solstice HA for SAP のみ) カスタマイズした hasap_start_all_instances や hasap_stop_all_instances スクリプトがある場合は、Sun Cluster 2.2 へのアップグレードを始める前に安全な場所に保存します。
アップグレード時には古いスクリプトが削除されるため、カスタマイズ内容を維持するには、これらのスクリプトを保存しておく必要があります。次のコマンドを使って、スクリプトを安全な場所にコピーしてください。これらのスクリプトは、手順 10 で復元します。
# cp /opt/SUNWhasap/clust_progs/hasap_start_all_instances /safe_place # cp /opt/SUNWhasap/clust_progs/hasap_stop_all_instances /safe_place |
scinstall(1M) コマンドを使ってクラスタパッケージを更新します。
scinstall(1M) のメニューから「Upgrade」を選択し、Framework パッケージの場所とクラスタ名を求めるプロンプトに応答します。Solstice HA 1.3 のパッケージが Sun Cluster 2.2 のパッケージで置き換えられます。
phys-hahost1# cd /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Tools phys-hahost1# ./scinstall Installing: SUNWscins Installation of <SUNWscins> was successful. Checking on installed package state ............ None of the Sun Cluster software has been installed <<Press return to continue>> ==== Install/Upgrade Software Selection Menu ======================= Upgrade to the latest Sun Cluster Server packages or select package Do you want to install these conflicting files [y,n,?,q] y sets for installation. The list of package sets depends on the Sun Cluster packages that are currently installed. Choose one: 1) Upgrade Upgrade to Sun Cluster 2.2 Server packages 2) Server Install the Sun Cluster packages needed on a server 3) Client Install the admin tools needed on an admin workstation 4) Server and Client Install both Client and Server packages 5) Close Exit this Menu 6) Quit Quit the Program Enter the number of the package set [6]: 1 What is the directory where the Framework packages can be found [/cdrom/cdrom0]: . ** Upgrading from Solstice HA 1.3 ** What is the name of the cluster? sc-cluster ... |
(Solstice HA 1.3 for SAP のみ) 手順 8 で保存したスクリプトを復元します。
これらのスクリプトを /opt/SUNWcluster/ha/sap ディレクトリにコピーします。safe_place ディレクトリは、1手順 8 でスクリプトを保存した先のディレクトリです。スクリプトを復元したら、ls -l コマンドを使って、スクリプトが実行可能か確認します。
phys-hahost1# cd /opt/SUNWcluster/ha/sap phys-hahost1# cp /safe_place/hasap_start_all_instances . phys-hahost1# cp /safe_place/hasap_stop_all_instances . phys-hahost1# ls -l /opt/SUNWcluster/ha/sap/hasap_st* -r-xr--r-- 1 root sys 18400 Feb 9 19:04 hasap_start_all_instances -r-xr--r-- 1 root sys 25963 Feb 9 19:04 hasap_stop_all_instances |
/.rhosts ファイルに、必要なエントリを追加します。
/.rhosts ファイルには、3 つの IP アドレスからなるセットが 1 つまたは複数含まれています (クラスタのノード数によって異なる)。これらのアドレスは、Sun Cluster が内部的に使用するプライベートネットワーク IP アドレスです。アップグレードでは、これらの IP アドレスの一部が /.rhosts ファイルに追加されるだけで、各セットの最初の IP アドレスは失われます。したがって、不足しているアドレスをノードごとに手作業で /.rhosts ファイルに追加する必要があります。
いくつのセットが必要になるかは、クラスタ内のノード数によって異なります。2 ノードクラスタの場合は、下図に示すノード 0 と 1 のアドレスを指定します。3 ノードクラスタの場合は、ノード 0、1、2 のアドレスを指定します。4 ノードクラスタの場合は、すべてのアドレスを指定します。
# node 0 204.152.65.33 # Manually insert this address on all nodes 204.152.65.1 other than node0 204.152.65.17 # node 1 204.152.65.34 # Manually insert this address on all nodes 204.152.65.2 other than node1 204.152.65.18 # node 2 204.152.65.35 # Manually insert this address on all nodes 204.152.65.3 other than node2 204.152.65.19 # node 3 204.152.65.36 # Manually insert this address on all nodes 204.152.65.4 other than node3 204.152.65.20 |
(Solaris 2.6 と 7 のみ) install_scpatches を使って Sun Cluster の CD-ROM から Sun Cluster のパッチをインストールします。
Sun Cluster CD-ROM から Sun Cluster のパッチをインストールするには、install_scpatches ユーティリティを使用します。
# cd /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Patches # ./install_scpatches Patch install script for Sun Cluster 2.2 July 2000 Release *WARNING* SYSTEMS WITH LIMITED DISK SPACE SHOULD *NOT* INSTALL PATCHES: With or without using the save option, the patch installation process will still require some amount of disk space for installation and administrative tasks in the /, /usr, /var, or /opt partitions where patches are typically installed. The exact amount of space will depend on the machine's architecture, software packages already installed, and the difference in the patched objects size. To be safe, it is not recommended that a patch cluster be installed on a system with less than 4 MBytes of available space in each of these partitions. Running out of disk space during installation may result in only partially loaded patches. Check and be sure adequate disk space is available before continuing. Are you ready to continue with install? [y/n]: y Determining if sufficient save space exists... Sufficient save space exists, continuing... Installing patches located in /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Patches Using patch_order file for patch installation sequence Installing 107388-03 ... okay. Installing 107748-02 ... okay. ... For more installation messages refer to the installation logfile: /var/sadm/install_data/Sun_Cluster_2.2_July_2000_Release_log Use '/usr/bin/showrev -p' to verify installed patch-ids. Refer to individual patch README files for more patch detail. Rebooting the system is usually necessary after installation. # |
Sun Cluster やボリュームマネージャの必須または推奨のパッチがある場合は、これをインストールします。
手順 12 でインストールしたパッチの他に必須または推奨パッチがある場合は、サービスプロバイダかパッチ Web サイト http://sunsolve.sun.com から入手します。パッチの README ファイルの説明に従ってパッチをインストールしてださい。
ユーザー root の PATH 環境変数にコマンドディレクトリ /opt/SUNWcluster/bin と /opt/SUNWpnm/bin を指定します。ユーザー root の MANPATH 環境変数に /opt/SUNWcluster/man を指定します。
マシンを再起動します。
phys-hahost1# reboot |
再起動で、プライベートネットワークの喪失を示すエラーメッセージが表示されることがあります。この時点では、これらのエラーメッセージを無視しても問題ありません。
遠隔ホストが持っていたディスクとデータサービスの所有権をアップグレードしたローカルホストに移します。
遠隔ホスト上の Solstice HA 1.3 のサービスを停止します。
この例では、遠隔ホスト名を phys-hahost2 とします。
phys-hahost2# hastop |
遠隔ホスト上の Solstice HA 1.3 を停止したら、アップグレードしたローカルホスト上で Sun Cluster 2.2 を起動します。
hastop(1M) の処理が終了した後、scadmin(1M) コマンドを使用して、Sun Cluster 2.2 を起動してください。この操作によって、アップグレードしたローカルホストがすべてのデータサービスをテイクオーバーします。この例では、phys-hahost1 がローカルの物理ホスト名、sc-cluster がクラスタ名です。
phys-hahost1# scadmin startcluster phys-hahost1 sc-cluster |
高可用性データベースのインスタンス構成データを再作成します。
アップグレード時に、高可用性データベースのインスタンス構成データはアップグレードされません。したがって、適切な hadbms insert コマンドを使って個々のデータベースインスタンスを手作業で再作成する必要があります (dbms はデータベース名)。たとえば、haoracle insert、hainformix insert、hasybase insert などと指定します。
アップグレード前インスタンス構成情報は、/etc/opt/SUNWhadf.obsolete/hadf/hadbms_databases ファイルにあります。個々の hadbms insert コマンドのパラメータについては、そのコマンドのマニュアルページと、本書の該当するデータベースの章を参照してください。たとえば、haoracle(1M) の場合は、haoracle(1M) のマニュアルページとこのマニュアルの第 5 章を参照してください。
データベースインスタンスを有効にします。
個々のデータベースインスタンスを有効にするには、適切な hadbms コマンドを使用します。たとえば、Oracle の場合には次のように指定します。
phys-hahost1# haoracle start instance |
(Sun Cluster HA for SAP のみ) Sun Cluster HA for SAP データサービスの登録解除と再登録を行います。
アップグレードの後では、Cluster Configuration Database (CCD) 内の Sun Cluster HA for SAP データサービスのメソッド名が正しくありません。メソッド名を訂正するには、Sun Cluster HA for SAP データサービスをまず無効にし、登録を解除してから、再登録をして CCD ファイルに正しいメソッド名を記録する必要があります。また、手順 1 で控えておいた SAP インスタンスを再作成します。
hareg(1M) コマンドを使って Sun Cluster HA for SAP データサービスを無効にします。
phys-hahost1# hareg -n sap |
Sun Cluster HA for SAP データサービスの登録を解除します。
phys-hahost1# hareg -u sap |
Sun Cluster HA for SAP データサービスを登録します。
次の例で CI_logicalhost は論理ホスト名です。
phys-hahost1# hareg -s -r sap -h CI_logicalhost |
hadsconfig(1M) を実行して Sun Cluster HA for SAP の構成パラメータを復元します。
新しい構成パラメータの説明については、第 10 章「Sun Cluster HA for SAP のインストールと構成」を参照してください。また、手順 1 で保存した構成情報を参照してください。
phys-hahost1# hadsconfig |
構成パラメータを設定したら、hareg(1M) コマンドを使ってデータサービスをアクティブにします。 *
構成パラメータを設定したら、hareg(1M) コマンドを使ってデータサービスをアクティブにします。
phys-hahost1# hareg -y sap |
構成ファイル /etc/opt/SUNWscsap/hadsconf を手作業で他のすべてのクラスタノードにコピーします。
/etc/opt/SUNWscsap/hadsconf ディレクトリが存在しない場合は、まずそれを作成します。次に構成ファイルをすべてのノードにコピーします。
phys-hahost1# ftp phys-host2 ftp> put /etc/opt/SUNWscsap/hadsconf |
ローカルホストで次の動作を確認します。
リモートホストをクラスタに戻します。
phys-hahost2# scadmin startnode |
遠隔ホスト上のクラスタの再構成が完了したら、論理ホストから遠隔ホストにすべてのデータサービスをスイッチオーバーします。
phys-hahost1# haswitch phys-hahost2 hahost2 |
遠隔ホスト上の Sun Cluster 2.2 の構成が安定した状態であることと、クライアントがサービスを受けていることを確認します。
phys-hahost2# hastat |
この節は、Solstice DiskSuite メディエータを使って Solstice HA 1.3 のもとで動作するように設定されたクラスタだけに適用されます (2 列構成)。この節では、Solstice HA 1.3 から Sun Cluster 2.2 へアップグレードするときに自動的に行われるメディエータ構成の変更について説明します。この変更がユーザーに直接的な影響を及ぼすことはありませんが、ユーザーがクラスタに保持している構成情報への変更に注意してください。
Solstice HA 1.3 メディエータ構成は、「Solstice HA 1.3 から Sun Cluster 2.2 へのアップグレード」によって変更されます。元の Solstice HA 1.3 メディエータ構成は、次のような形式になっています。
Mediator Host(s) Aliases ha-red ha-red-priv1, ha-red-priv2 ha-green ha-green-priv1, ha-green-priv2 |
Sun Cluster 2.2 のアップグレード手順を実行すると、この構成は次のような形式に変換されます。
Mediator Host(s) Aliases ha-red 204.152.65.34 ha-green 204.152.65.33 |
Solstice HA 1.3 では、ホストは物理名でプライベートリンクを参照していましたが、Sun Cluster 2.2 では、プライベートリンクの IP アドレスが使用されます。
Sun Cluster 2.2 メディエータの構成については、『Sun Cluster 2.2 のシステム管理』の二重列メディエータの章を参照してください。
Sun Cluster 2.0 または 2.1 を Sun Cluster 2.2 にアップグレードするには、管理ワークステーションまたはインストールサーバー上の Sun Cluster ソフトウェアをアップグレードしてから、クラスタ内の全ノード上の Sun Cluster サーバーソフトウェアをアップグレードする必要があります。「アップグレードの実行」で説明している手順に従ってください。
クラスタが 3 ノード以上の構成の場合は、アップグレード計画を立てるときに、論理ホストの可用性を考慮してください。クラスタの構成によっては、アップグレード時に一部論理ホストが使用できなくなることがあります。以下では、アップデートの方針として、論理ホストの停止時間を抑える構成例を紹介します。
表 4-1 は、4 つの論理ホストが定義されている、4 ノードのクラスタを示しています。どの物理ホストが 4 つの論理ホストをマスターできるかも示しています。
この構成のアップグレードでは、論理ホストへのアクセスを失うことなく、クラスタからノード 1 と 3 を削除し、それらノードをアップグレードすることができます。ノード 1 と 3 のアップグレード後、ノード 2 と 4 を停止して、ノード 1 と 3 を起動する間に短時間のサービスの供給停止があります。ノード 2 と 4 のアップグレード中は、ノード 1 と 3 によって全論理ホストへのアクセスが可能になります。
表 4-1 4 つの論理ホストが定義されている、ノード 4 つのクラスタ
|
論理ホスト 1 |
論理ホスト 2 |
論理ホスト 3 |
論理ホスト 4 |
---|---|---|---|---|
ノード 1 |
X |
X |
|
|
ノード 2 |
|
X |
X |
|
ノード 3 |
|
|
X |
X |
ノード 4 |
X |
|
|
X |
N+1 構成では、ノードの 1 つがクラスタ内の他のすべてのノードのバックアップになります。表 4-2 は、3 つの論理ホストが定義されている、4 ノードの N+1 構成での論理ホストの配分を示しています。この構成では、まずノード 4 をアップグレードします。ノード 4 をアップグレードすると、ノード 1、2、3 のアップグレード中、ノード 4 がすべてのサービスを供給できるようになります。
表 4-2 3 つの論理ホストが定義された、3 ノードのクラスタ
|
論理ホスト 1 |
論理ホスト 2 |
論理ホスト 3 |
---|---|---|---|
ノード 1 |
X |
|
|
ノード 2 |
|
X |
|
ノード 3 |
|
|
X |
ノード 4 |
X |
X |
X |
3 ノード以上のクラスタの場合、Sun Cluster 2.2 は端末集配信装置 (TC) または Sun Enterprise 10000 マシン上のシステムサービスプロセッサ (SSP) を監視します。Sun Cluster 2.0 を Sun Cluster 2.2 にアップグレードする場合は、この機能を利用できます。この監視機能を有効にするには、アップグレード中に scinstall(1M) コマンドに次の情報を提供する必要があります。
TC 名 または SSP 名
TC または SSP の IP アドレス
TC 用のスーパーユーザーパスワードか、SSP 用の ssp ユーザーパスワード
クラスタ内で障害防護が正しく機能するには、TC または SSP パスワードが必要です。TC または SSP パスワードが正しく設定されていないと、ノードで障害が発生した場合に予測不可能な事態が発生することがあります。
各サーバーが接続されている物理ポート番号。これは、/etc/serialports ファイルに使用されている telnet(1) ポート番号ではなく、シリアル回線が接続されているポート番号です。たとえば、/etc/serialports にポート接続が 5006 と定義されている場合、物理ポート番号は 6 です。
サーバーのアーキテクチャータイプ。どのクラスタノードも、「E10000」または「other」のいずれかです。
この手順は、Sun Cluster 2.0 または Sun Cluster 2.1 システムのサーバーソフトウェアを最小限の中断で Sun Cluster 2.2 にアップグレードするための手順を示しています。アプリケーションを始める前に、この手順全体をよく理解しておく必要があります。
アップグレードを開始する前に、あらゆる構成情報と重要なデータの適切なバックアップを取っておいてください。また、クラスタが安定していて、縮退状態になっていないことを確認してください。
カプセル化されたルートディスクをもつ VxVM が動作している場合は、Sun Cluster 2.2 をインストールする前にルートディスクのカプセル化を解除する必要があります。Sun Cluster 2.2 をインストールしたら、ディスクを再びカプセル化してください。ルートディスクのカプセル化やその解除を行う手順については、VxVM のマニュアルを参照してください。
アップグレード手順では、ローカル以外のすべてのプライベートリンク IP アドレスが各ノードの /.rhosts ファイルに追加されます。ただし、これは root アクセスのみ可能です。
アップグレードの間に Cluster Monitor を使ってクラスタの監視を続ける場合は、サーバーソフトウェアを最初に、クラスタソフトウェアを最後にアップグレードしてください。
この例では、管理ワークステーションを使った N+1 構成であるものとします。
(Sun Cluster HA for SAP のみ) hadsconfig(1M) コマンドを実行して現在の構成パラメータを取得します。
SAP インスタンス構成データはアップグレード時に消去されます。そのため、hadsconfg(1M) コマンドを実行して現在の SAP パラメータを控えておく必要があります。パラメータは後で手作業で復元することができます。Sun Cluster HA for SAP の新しい構成パラメータについては、第 10 章「Sun Cluster HA for SAP のインストールと構成」を参照してください。
phys-hahost1# hadsconfig |
最初のノードを停止します。
phys-hahost1# scadmin stopnode |
オペレーティング環境または SSVM から VxVM にアップグレードする場合は、新しい VxVM から upgrade_start コマンドを実行します。
この例の CDROM_path は、新しい VxVM CD-ROM 上の Tools ディレクトリへのパスです。
phys-hahost1# CDROM_path/upgrade_start |
オペレーティング環境をアップグレードする場合は、適切な Solaris インストールマニュアルの詳細手順に従ってください。また、このマニュアルの第 2 章「構成の計画」も参照してください。
SSVM から VxVM にアップグレードする場合は、VERITAS Volume Manager のマニュアルを参照してください。
オペレーティング環境だけアップグレードして、ボリュームマネージャのアップグレードを行わない場合は、次の作業を行います。
ボリュームマネージャのパッケージを削除します。
以下に例を示します。
phys-hahost1# pkgrm SUNWvxvm |
オペレーティングシステムをアップグレードします。
アップグレード方法については、Solaris のインストールマニュアルを参照してください。
NIS+ を使用する場合は、/etc/nsswitch.conf ファイルを編集します。
「hosts」、「services」、「group」の検索が最初にファイルに対して行われるようにします。以下に例を示します。
hosts: files nisplus services: files nisplus group: files nisplus |
手順 4a で削除したボリュームマネージャパッケージを復元します。
phys-hahost1# pkgadd -d CDROM_path/SUNWvxvm |
SSVM から VxVM にアップグレードした場合は、VxVM のいずれか適切な媒体から upgrade_finish コマンドを実行します。
この例の CDROM_path は、VxVM CD-ROM 上のスクリプトへのパスです。
phys-hahost1# CDROM_path/Tools/scripts/upgrade_finish |
システムを再起動します。
この時点で、必ず再起道する必要があります。
(Sun Cluster HA for SAP のみ) 次の各手順を行います。
カスタマイズした Sun Cluster 2.1 の hasap_start_all_instances や hasap_stop_all_instances スクリプトがある場合は、Sun Cluster 2.2 へのアップグレードを始める前に安全な場所に保存します。
アップグレード時には古いスクリプトが削除されるため、カスタマイズ内容を維持するには、これらのスクリプトを保存しておく必要があります。次のコマンドを使って、スクリプトを安全な場所にコピーしてください。これらのスクリプトは、アップグレードが終了してから 手順 9b で復元します。
phys-hahost1# cp /opt/SUNWcluster/ha/sap/hasap_start_all_instances /safe_place phys-hahost1# cp /opt/SUNWcluster/ha/sap/hasap_stop_all_instances /safe_place |
scinstall(1M) を使ってクラスタソフトウェアを更新する前に、SUNWscsap パッケージを削除します。
SUNWscsap パッケージは scinstall(1M) によって自動的に更新されないため、最初にこのパッケージを削除します。手順 9 で、更新されたパッケージを追加します。
phys-hahost1# pkgrm SUNWscsap |
Sun Cluster 2.2 CD-ROM から scinstall(1M) を実行して、クラスタソフトウェアをアップグレードします。
scinstall(1M) を起動し、表示されたメニューから「Upgrade」オプションを選択してください。
phys-hahost1# cd /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Tools phys-hahost1# ./scinstall Removal of <SUNWscins> was successful. Installing: SUNWscins Installation of <SUNWscins> was successful. Assuming a default cluster name of sc-cluster Checking on installed package state............ ============ Main Menu ================= 1) Install/Upgrade - Install or Upgrade Server Packages or Install Client Packages. 2) Remove - Remove Server or Client Packages. 3) Change - Modify cluster or data service configuration 4) Verify - Verify installed package sets. 5) List - List installed package sets. 6) Quit - Quit this program. 7) Help - The help screen for this menu. Please choose one of the menu items: [7]: 1 ... ==== Install/Upgrade Software Selection Menu ======================= Upgrade to the latest Sun Cluster Server packages or select package sets for installation. The list of package sets depends on the Sun Cluster packages that are currently installed. Choose one: 1) Upgrade Upgrade to Sun Cluster 2.2 Server packages 2) Server Install the Sun Cluster packages needed on a server 3) Client Install the admin tools needed on an admin workstation 4) Server and Client Install both Client and Server packages 5) Close Exit this Menu 6) Quit Quit the Program Enter the number of the package set [6]: 1 What is the path to the CD-ROM image? [/cdrom/cdrom0]: . ** Upgrading from Sun Cluster 2.1 ** Removing "SUNWccm" ... done ... |
(Sun Cluster HA for SAP のみ) 次の各手順を行います。
Sun Cluster 2.2 CD-ROM にある SUNWscsap パッケージを追加します。
pkgadd(1M) を使って更新された SUNWscsap パッケージを追加し、手順 7で削除したパッケージを置き換えます。pkgadd のプロセスで表示されるすべてのプロンプトに対し y を入力します。
phys-hahost1# pkgadd -d ¥ /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Product/ SUNWscsap |
手順 7a で保存したスクリプトを復元します。
これらのスクリプトを /opt/SUNWcluster/ha/sap ディレクトリにコピーします。safe_place ディレクトリは、手順 7a でスクリプトを保存した先のディレクトリです。スクリプトを復元したら、ls -l コマンドを使って、スクリプトが実行可能か確認します。
phys-hahost1# cd /opt/SUNWcluster/ha/sap phys-hahost1# cp /safe_place/hasap_start_all_instances . phys-hahost1# cp /safe_place/hasap_stop_all_instances . phys-hahost1# ls -l /opt/SUNWcluster/ha/sap/hasap_st* -r-xr--r-- 1 root sys 18400 Feb 9 19:04 hasap_start_all_instances -r-xr--r-- 1 root sys 25963 Feb 9 19:04 hasap_stop_all_instances |
クラスタが 3 ノード以上の構成で、Sun Cluster 2.0 からのアップグレードの場合は、TC/SSP 情報を提供します。
scinstall(1M) コマンドを初めて起動すると、TC/SSP 情報が自動的に /var/tmp/tc_ssp_info ファイルに保存されます。ノードをアップグレードしたときにその情報を再利用できるよう、他のすべてのクラスタノードの /var/tmp ディレクトリにこのファイルをコピーしてください。TC/SSP 情報は、ここで提供することも、あるいは scconf(1M) コマンドを使用して後で提供することもできます。詳細は、scconf(1M) のマニュアルページを参照してください。
scinstall(1M) コマンドから TC/SSP 情報の入力を求められたら、強制的に tc_ssp_info ファイルを参照させるか、必要な情報の入力が求められる対話形式のセッションを起動します。
この例のクラスタでは、構成情報が次のようになっているものとします。
クラスタ名: sc-cluster
クラスタ内のノード数: 2
ノード名: phys-hahost1 と phys-hahost2
論理ホスト名: hahost1 と hahost2
端末集配信装置: cluster-tc
端末集配信装置の IP アドレス: 123.4.5.678
phys-hahost1 に接続される物理 TC ポート: 2
phys-hahost2 に接続される物理 TC ポート: 3
サーバーのアーキテクチャと TC/SSP についての詳細は、「端末集配信装置またはシステムサービスプロセッサ (SSP) と管理ワークステーション」を参照してください。この例は Sun Enterprise 10000 を使用したクラスタ構成ではありません。指定されているアーキテクチャは「other」で、端末集配信装置が使用されています。
What type of architecture does phys-hahost1 have? (E10000|other) [other] [?] other What is the name of the Terminal Concentrator connected to the serial port of phys-hahost1 [NO_NAME] [?] cluster-tc Is 123.4.5.678 the correct IP address for this Terminal Concentrator (yes|no) [yes] [?] yes Which physical port on the Terminal Concentrator is phys-hahost2 connected to [?] 2 What type of architecture does phys-hahost2 have? (E10000|other) [other] [?] other Which Terminal Concentrator is phys-hahost2 connected to: 0) cluster-tc 123.4.5.678 1) Create A New Terminal Concentrator Entry Select a device [?] 0 Which physical port on the Terminal Concentrator is phys-hahost2 connected to [?] 3 The terminal concentrator/system service processor (TC/SSP) information has been stored in file /var/tmp/tc_ssp_data. Please put a copy of this file into /var/tmp on the rest of the nodes in the cluster. This way you don't have to re-enter the TC/SSP values, but you will, however, still be prompted for the TC/SSP passwords. |
Sun Cluster SNMP を使用する場合は、Sun Cluster SNMP デーモンと Solaris SNMP (smond) が使用するポート番号を変更します。
Sun Cluster SNMP がデフォルトで使用するポートと Solaris SNMP がデフォルトで使用するポートは同じで、ともにポート 161 を使用します。『Sun Cluster 2.2 のシステム管理』の Sun Cluster SNMP についての説明に従って、Sun Cluster SNMP 用のポート番号を変更してください。
(Solaris 2.6 と 7 のみ) install_scpatches ユーティリティを使って Sun Cluster CD-ROM から Sun Cluster のパッチをインストールします。
コマンドは、新しい Sun Cluster CD-ROM の Patches サブディレクトリから実行します。
# cd /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Patches # ./install_scpatches Patch install script for Sun Cluster 2.2 July 2000 Release *WARNING* SYSTEMS WITH LIMITED DISK SPACE SHOULD *NOT* INSTALL PATCHES: With or without using the save option, the patch installation process will still require some amount of disk space for installation and administrative tasks in the /, /usr, /var, or /opt partitions where patches are typically installed. The exact amount of space will depend on the machine's architecture, software packages already installed, and the difference in the patched objects size. To be safe, it is not recommended that a patch cluster be installed on a system with less than 4 MBytes of available space in each of these partitions. Running out of disk space during installation may result in only partially loaded patches. Check and be sure adequate disk space is available before continuing. Are you ready to continue with install? [y/n]: y Determining if sufficient save space exists... Sufficient save space exists, continuing... Installing patches located in /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Patches Using patch_order file for patch installation sequence Installing 107388-03 ... okay. Installing 107748-02 ... okay. ... For more installation messages refer to the installation logfile: /var/sadm/install_data/Sun_Cluster_2.2_July_2000_Release_log Use '/usr/bin/showrev -p' to verify installed patch-ids. Refer to individual patch README files for more patch detail. Rebooting the system is usually necessary after installation. # |
Sun Cluster やボリュームマネージャの必須または推奨のパッチがある場合は、これをインストールします。
手順 12 でインストールしたパッチの他に必須または推奨パッチがある場合は、サービスプロバイダかパッチ Web サイト http://sunsolve.sun.com から入手します。パッチの README ファイルの説明に従ってパッチをインストールしてださい。
システムを再起動します。
この時点で、必ず再起動する必要があります。
共有 CCD を使用する場合は、すべての論理ホストを保守モードにします。
phys-hahost2# haswitch -m hahost1 hahost2 |
3 ノード以上のクラスタで、共有 CCD を使用することはありません。このため、3 ノード以上のクラスタの場合、アップグレードを開始する前にデータサービスを保守モードにする必要はありません。
構成に Oracle Parallel Server (OPS) が含まれている場合は、OPS が停止していることを確認します。
OPS の停止方法については、OPS のマニュアルを参照してください。
以前のバージョンの Sun Cluster を実行している残りのノード上のクラスタソフトウェアを停止します。
phys-hahost2# scadmin stopnode |
アップグレードしたノードを起動します。
phys-hahost1# scadmin startcluster phys-hahost1 sc-cluster |
アップグレードしたノードがクラスタに参加すると、システムから、端末集配信装置との通信が無効であることを示す警告メッセージが報告されることがあります。この時点では、そうしたメッセージは異常を示すものではなく、無視してかまいません。また、Sun Cluster HA for SAP から生成されるエラーも無視してかまいません。
(Sun Cluster HA for SAP のみ) 次の各手順を行って SAP インスタンスを再構成します。
hareg(1M) コマンドを使って Sun Cluster HA for SAP データサービスを無効にします。
phys-hahost1# hareg -n sap |
hareg(1M) コマンドを使って Sun Cluster HA for SAP を無効にするときにエラーが生成される場合は、無視してください。
hadsconfig(1M) コマンドを実行して Sun Cluster HA for SAP の構成パラメータを復元します。
新しい構成パラメータの説明については、第 10 章「Sun Cluster HA for SAP のインストールと構成」を参照してください。また、手順 1 で保存した構成情報も参照してください。
phys-hahost1# hadsconfig |
この時点では、hadsconfig(1M) によってエラーが生成される場合は、無視してください。
構成パラメータを設定したら、hareg(1M) コマンドを使ってデータサービスをアクティブにします。
phys-hahost1# hareg -y sap |
ftp を使って構成ファイルをクラスタの他のノードに手作業でコピーします。
Sun Cluster 2.1 の構成ファイルを新しい Sun Cluster 2.2 のファイルで上書きします。
phys-hahost1# ftp phys-hahost2 ftp> put /etc/opt/SUNWscsap/hadsconf |
Sun Cluster 2.0 からのアップグレードで共有 CCD を使用する場合は、共有 CCD を更新します。
最初にクラスタに参加したホストから ccdadm(1M) コマンドを 1 度だけ実行してください。
phys-hahost1# cd /etc/opt/SUNWcluster/conf phys-hahost1# ccdadm sc-cluster -r ccd.database_post_sc2.0_upgrade |
データサービスを停止していた場合は、アップグレードしたノードからそれらのデータサービスを再起動します。
phys-hahost1# haswitch phys-hahost1 hahost1 hahost2 |
クラスタに Sun Cluster HA for SAP が含まれている場合は、次のコマンドを使って、このデータサービスを明示的に登録解除し、再び登録する必要があります。文字列 CI_logicalhost を、SAP セントラルインスタンスがインストールされている論理ホストの名前で置き換えます。
phys-hahost1# hareg -n sap phys-hahost1# hareg -u sap phys-hahost1# hareg -s -r sap -h CI_logicalhost phys-hahost1# hareg -y sap |
残りのノードをアップグレードします。
残りの Sun Cluster 2.0 または 2.1 のノードに対して 手順 3 から 手順 14 までの作業を繰り返してください。
全ノードをアップグレードしたら、それらのノードをクラスタに追加します。
phys-hahost2# scadmin startnode sc-cluster |
Sun Cluster Manager を構成して、起動します。
Sun Cluster Manager は、クラスタの監視に使用されます。使用方法については、『Sun Cluster 2.2 ご使用にあたって』と、『Sun Cluster 2.2 のシステム管理』の Sun Cluster Manager による Sun Cluster サーバーの監視についての説明を参照してください。
これで、Sun Cluster 2.0 または 2.1 から Sun Cluster 2.2 へのアップグレードは完了です。
次の各手順を使って、Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 の旧バージョンを Solaris 8 で動作する Sun Cluster 2.2 へアップグレードします。
Solaris 8 で動作する Sun Cluster 2.2 の旧バージョンから Solaris 8 で動作する Sun Cluster 2.2 の最新バージョンに移行する場合には、アップグレードは必要ありません。該当する Sun Cluster と Solaris のパッチをすべてのクラスタノードに適用してください。パッチは、サービスプロバイダか、サンのパッチ Web サイト hhttp://sunsolve.sun.com から入手できます。
ここでは、ボリュームマネージャとして Solstice DiskSuite を使用するクラスタに対し、Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 を Solaris 8 で動作する Sun Cluster 2.2 にアップグレードする手順を説明します。
アップグレードを始める前に、手順全体をよく理解しておく必要があります。参照のため、ボリュームマネージャのマニュアルを手元に用意してください。
このアップグレードを行うためには、クラスタからすべてのノードを切り離す (つまり、クラスタを停止する) 必要があります。クラスタが停止している間は、データやデータサービスにはアクセスできません。
アップグレードを始める前に、すべての構成情報と重要データの十分なバックアップを取ってください。クラスタは、安定した非縮退状態でなければなりません。
scinstall(1M) アップグレード手順では、ローカル以外のすべてのプライベートリンク IP アドレスが各ノードの /.rhosts ファイルに追加されます。ただし、これは root アクセスのみ可能です。
Solaris 2.6 と Solaris 8 では、DNS の動作が異なります。これは、デフォルトの bind バージョンがそれぞれのオペレーティング環境で異なるためです。そのため、一部の DNS 構成ファイルを変更する必要があります。詳細と手順については、DNS のマニュアルを参照してください。
この例では、クラスタは、管理ワークステーションを使った N+1 構成であるものとします。
(Sun Cluster HA for SAP のみ) hadsconfig(1M) コマンドを実行して現在の構成パラメータを取得します。
SAP インスタンス構成データはアップグレード時に消去されます。そのため、hadsconfig(1M) コマンドを実行して現在の SAP パラメータを控えておく必要があります。パラメータは後で手作業で復元します。Sun Cluster HA for SAP の新しい構成パラメータについては、第 10 章「Sun Cluster HA for SAP のインストールと構成」を参照してください。
phys-hahost1# hadsconfig |
すべてのデータサービスを停止します。
すべてのノードを停止して、クラスタを停止します。
すべてのノードで次のコマンドを実行します。
phys-hahost1# scadmin stopnode |
すべてのノードでオペレーティングシステムをアップグレードします。
オペレーティング環境のアップグレードについては、適切な Solaris インストールマニュアルの詳細な手順と本書の第 2 章「構成の計画」を参照してください。
NIS+ を使用している場合は、すべてのノードの /etc/nsswitch.conf ファイルを変更します。
「service」、「group」、「hosts」の参照は、次のように、最初に files に対して行われなければなりません。
hosts: files nisplus services: files nisplus group: files nisplus |
Solstice DiskSuite 4.2 を Solstice DiskSuite 4.2.1 にアップグレードします。
Solaris 8 では、Solstice DiskSuite 4.2.1 が必要です。
pkgadd(1M) を使って、Solstice DiskSuite メディアから Solstice DiskSuite 4.2.1 パッケージをインストールします。
pkgadd(1M) の操作では、いくつかのファイルがすでに存在することを示すメッセージが表示されます。pkgadd の各プロンプトで y を入力して新しいファイルをインストールしてください。
元の構成にメディエータが含まれている場合は、新しい SUNWmdm (メディエータ) パッケージを追加するまで古い SUNWmdm を削除しないでください。削除すると、すべてのデータにアクセスできなくなります。
該当する Solstice DiskSuite のパッチをインストールします。
すべてのノードを再起動します。
この時点ですべてのクラスタノードを再起動する必要があります。
(Sun Cluster HA for SAP のみ) 次の各手順を行います。
カスタマイズした hasap_start_all_instances や hasap_stop_all_instances スクリプトがある場合は、安全な場所に保存します。
Sun Cluster 2.2 のアップグレード時には古いスクリプトが削除されるため、カスタマイズ内容を維持するためにこれらのスクリプトを保存しておく必要があります。次のコマンドを使って、スクリプトを安全な場所にコピーしてください。これらのスクリプトは、アップグレードの後に 手順 9 で復元します。
phys-hahost1# cp /opt/SUNWcluster/ha/sap/hasap_start_all_instances /safe_place phys-hahost1# cp /opt/SUNWcluster/ha/sap/hasap_stop_all_instances /safe_place |
scinstall(1M) を使ってクラスタソフトウェアを更新する前に、すべてのノードから SUNWscsap パッケージを削除します。
SUNWscsap パッケージは scinstall(1M) によって自動的に更新されるわけではないため、ここでこのパッケージを削除します。更新されたパッケージは、手順 9 でインストールします。
phys-hahost1# pkgrm SUNWscsap |
すべてのノードで scinstall(1M) コマンドを実行し、Sun Cluster 2.2 CD-ROM を使ってクラスタソフトウェアを更新します。
scinstall(1M) を呼び出し、表示されるメニューから「Upgrade」を選択します。
phys-hahost1# cd /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Tools phys-hahost1# ./scinstall Removal of <SUNWscins> was successful. Installing: SUNWscins Installation of <SUNWscins> was successful. Assuming a default cluster name of sc-cluster Checking on installed package state............ ============ Main Menu ================= 1) Install/Upgrade - Install or Upgrade Server Packages or Install Client Packages. 2) Remove - Remove Server or Client Packages. 3) Change - Modify cluster or data service configuration 4) Verify - Verify installed package sets. 5) List - List installed package sets. 6) Quit - Quit this program. 7) Help - The help screen for this menu. Please choose one of the menu items: [7]: 1 ... ==== Install/Upgrade Software Selection Menu ======================= Upgrade to the latest Sun Cluster Server packages or select package sets for installation. The list of package sets depends on the Sun Cluster packages that are currently installed. Choose one: 1) Upgrade Upgrade to Sun Cluster 2.2 Server packages 2) Server Install the Sun Cluster packages needed on a server 3) Client Install the admin tools needed on an admin workstation 4) Server and Client Install both Client and Server packages 5) Close Exit this Menu 6) Quit Quit the Program Enter the number of the package set [6]: 1 What is the path to the CD-ROM image? [/cdrom/cdrom0]: . ** Upgrading from Sun Cluster 2.1 ** Removing "SUNWccm" ... done ... |
(Sun Cluster HA for SAP のみ) 次の各手順を行います。
SAP を使用するすべてのノードに Sun Cluster 2.2 CD-ROM から SUNWscsap パッケージを追加します。
pkgadd(1M) を使って、更新された SUNWscsap パッケージを追加し、手順 1 で削除したパッケージを置き換えます。pkgadd のプロセスで表示されるすべてのプロンプトに対し y を入力します。
phys-hahost1# pkgadd -d ¥ /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Product/ SUNWscsap |
SAP を使用するすべてのノードに 手順 1 で保存したスクリプトを復元します。
これらのスクリプトを /opt/SUNWcluster/ha/sap ディレクトリにコピーします。safe_place ディレクトリは、手順 1 でスクリプトを保存した先のディレクトリです。スクリプトを復元したら、ls -l コマンドを使って、スクリプトが実行可能か確認します。
phys-hahost1# cd /opt/SUNWcluster/ha/sap phys-hahost1# cp /safe_place/hasap_start_all_instances . phys-hahost1# cp /safe_place/hasap_stop_all_instances . phys-hahost1# ls -l /opt/SUNWcluster/ha/sap/hasap_st* -r-xr--r-- 1 root sys 18400 Feb 9 19:04 hasap_start_all_instances -r-xr--r-- 1 root sys 25963 Feb 9 19:04 hasap_stop_all_instances |
Sun Cluster SNMP を使用する場合は、Sun Cluster SNMP デーモンと Solaris SNMP (smond) で使用するポート番号を変更します。これは、すべてのノードに対して行う必要があります。
Sun Cluster SNMP が使用するデフォルトポートは、Solaris SNMP が使用するデフォルトのポート番号 (ポート 161) と同じです。『Sun Cluster 2.2 のシステム管理』の付録 (SNMP) にある手順を使って Sun Cluster SNMP のポート番号を変更します。
Sun Cluster の必須または推奨パッチがある場合は、これをすべてのノードにインストールします。
必須または推奨パッチは、サービスプロバイダかパッチ Web サイト http://sunsolve.sun.com から入手できます。パッチの README ファイルの説明に従ってパッチをインストールしてださい。
クラスタを起動し、クラスタにすべてのノードを追加します。
最初のノードで次のコマンドを実行してクラスタを起動します。
phys-hahost1# scadmin startcluster phys-hahost1 sc-cluster |
各ノード (1 つずつ順番に) で次のコマンドを実行してノードを 1 つずつクラスタに追加します。ただし、クラスタの再構成が終るのを待ってから次のノードに進んでください。
phys-hahost2# scadmin startnode |
必要ならデバイス ID を更新します。
クラスタの起動時に、無効なデバイス ID を意味するエラーメッセージが表示された場合は、次の手順に従ってデバイス ID を更新する必要があります。
任意のノードで /etc/did.conf ファイルのバックアップコピーを作成します。
ノード 0 から次のコマンドを実行して、関連するすべてのインスタンス番号をリストします。
phys-hahost1# scdidadm -l |
ノード 0 から次のコマンドを実行してデバイス ID を更新します。
これによって、ノード 0 の多重ホストディスクとローカルディスクのデバイスが再び初期設定されます。このコマンドは、ノード 0 として定義されたノードから実行する必要があります。すべての多重ホストディスクのインスタンス番号を指定してください。このコマンドは、クラスタの多重ホストディスクごとに 1 度だけ実行する必要があります。
scdidadm -R コマンドの実行は、極めて慎重に行う必要があります。大文字の R の代りに小文字の r を絶対に使用しないでください。小文字の r を使用すると、すべてのディスクに対しデバイス番号の再割り当てが行われ、データがアクセス不能になることがあります。詳細は、scdidadm(1M) コマンドを参照してください。
phys-hahost1# scdidadm -R instance_number1 ... phys-hahost1# scdidadm -R instance_number2 ... phys-hahost1# scdidadm -R instance_number3 ... |
scdidadm -R コマンドではノード 0 以外のクラスタノードにあるローカルディスクの再初期設定は行われませんが、Sun Cluster はローカルディスクのデバイス ID を使用しないため、これは問題ありません。ただし、ノード 0 以外のすべてのノードに対し、これに関連するエラーメッセージが表示されます。これらのエラーメッセージは無視してください。
すべてのクラスタノードを停止します。
すべてのクラスタノードを再起動します。
クラスタを起動し、クラスタにすべてのノードを追加します。
最初のノードでクラスタを起動します。
phys-hahost1# scadmin startcluster phys-hahost1 sc-cluster |
次に、次のコマンドを各ノード (1 つずつ順番に) で実行します。ただし、クラスタの再構成が終るのを待ってから次のノードに進んでください。
phys-hahost2# scadmin startnode |
アップグレード済みのノードをクラスタに追加するごとに、端末集配信装置との通信が無効であることを示す警告メッセージがいくつか表示されることがあります。これらのメッセージは予期されたものですので、この時点では無視してください。また、この時点では、Sun Cluster HA for SAP が生成するエラーも無視してください。
(Sun Cluster HA for SAP のみ) 次の各手順を行って SAP インスタンスを再構成します。
hadsconfig(1M) コマンドを実行して Sun Cluster HA for SAP の構成パラメータを復元します。
新しい構成パラメータの説明は、第 10 章「Sun Cluster HA for SAP のインストールと構成」を参照してください。また、手順 1 で保存した構成情報も参照してください。
phys-hahost1# hadsconfig |
この時点では、hadsconfig(1M) が生成するエラーは無視してください。
構成パラメータを設定したら、hareg(1M) を使ってデータサービスをアクティブにします。
phys-hahost1# hareg -y sap |
構成ファイルをクラスタの他のノードに手作業でコピーします。
次のようにして、古い Sun Cluster 2.2 構成ファイルを新しい Sun Cluster 2.2 ファイルで置き換えます。
phys-hahost1# ftp phys-hahost2 ftp> put /etc/opt/SUNWscsap/hadsconf |
データサービスを起動します。
すべてのデータサービスに対し次のコマンドを実行します。
phys-hahost1# hareg -s -r dataservice -h CI_logicalhost phys-hahost1# hareg -y dataservice |
Sun Cluster Manager を設定してから起動します。
Sun Cluster Manager はクラスタの監視に使用されます。これについては、『Sun Cluster 2.2 のシステム管理』第 2 章の Sun Cluster Manager に関する説明を参照してください。また、『Sun Cluster 2.2 ご使用にあたって』も参照してください。
これで、Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 の旧バージョンから Solaris 8 で動作する Sun Cluster 2.2 の最新バージョンへのアップグレードは終りです。
ここでは、VERITAS Volume Manager (VxVM) を使用するクラスタに対し、Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 を Solaris 8 で動作する Sun Cluster 2.2 にアップグレードする手順を説明します。ただし、VxVM クラスタ機能はある場合とない場合があります。この機能は Oracle Parallel Server で使用されます。
この手順は、VERITAS Volume Manager と Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 システムのソフトウェアを Solaris 8 で動作する Sun Cluster 2.2 の最新バージョンにアップグレードするための手順を述べたものです。
アップグレードを始める前に、手順全体をよく理解しておく必要があります。参照のため、ボリュームマネージャのマニュアルを手元に用意してください。
アップグレードを始める前に、すべての構成情報と重要データの十分なバックアップを取ってください。クラスタは、安定した非縮退状態でなければなりません。
カプセル化されたルートディスクをもつ VxVM が動作している場合は、Sun Cluster 2.2 をインストールする前にルートディスクのカプセル化を解除する必要があります。Sun Cluster 2.2 をインストールしたら、ディスクを再びカプセル化してください。ルートディスクのカプセル化やその解除を行う手順については、VxVM のマニュアルを参照してください。
scinstall(1M) アップグレード手順では、ローカル以外のすべてのプライベートリンク IP アドレスが各ノードの /.rhosts ファイルに追加されます。ただし、これは root アクセスのみ可能です。
Solaris 2.6 と Solaris 8 では、DNS の動作が異なります。これは、デフォルトの bind バージョンがそれぞれのオペレーティング環境で異なるためです。そのため、一部の DNS 構成ファイルを変更する必要があります。詳細については、DNS のマニュアルを参照してください。
この例では、クラスタは、管理ワークステーションを使った N+1 構成であるものとします。
(Sun Cluster HA for SAP のみ) hadsconfig(1M) コマンドを実行して現在の構成パラメータを取得します。
SAP インスタンス構成データはアップグレード時に消去されます。そのため、hadsconfig(1M) コマンドを実行して現在の SAP パラメータを控えておく必要があります。パラメータは後で手作業で復元します。Sun Cluster HA for SAP の新しい構成パラメータについては、第 10 章「Sun Cluster HA for SAP のインストールと構成」を参照してください。
phys-hahost1# hadsconfig |
最初にアップグレードするノードを選択し、そのノードのデータサービスをバックアップノードに切り替えます。
クラスタに OPS が含まれている場合は、OPS を停止します。
アップグレードするノードを停止します。
phys-hahost1# scadmin stopnode |
オペレーティング環境をアップグレードする場合は、VERITAS のマニュアルを参照してボリュームマネージャのアップグレードを開始します。
オペレーティング環境をアップグレードする前に、ボリュームマネージャ特有のタスクをいくつか行う必要があります。詳細は、VERITAS のマニュアルを参照してください。ボリュームマネージャのアップグレードの残りは、オペレーティング環境のアップグレードが終了した後で行います。
オペレーティング環境をアップグレードします。
オペレーティング環境のアップグレードについては、適切な Solaris インストールマニュアルの詳しい説明と本書の第 2 章「構成の計画」を参照してください。
NIS+ を使用している場合は、/etc/nsswitch.conf ファイルを変更します。
「service」、「group」、「hosts」の参照は、次のように、最初に files に対して行われなければなりません。
hosts: files nisplus services: files nisplus group: files nisplus |
VERITAS のマニュアルを参照して、ボリュームマネージャのアップグレードを完了します。
ノードを再起動します。
(Sun Cluster HA for SAP のみ) 次の各手順を行います。
カスタマイズした hasap_start_all_instances や hasap_stop_all_instances スクリプトがある場合は、安全な場所に保存します。
Sun Cluster 2.2 のアップグレード時には古いスクリプトが削除されるため、カスタマイズ内容を維持するためにこれらのスクリプトを保存しておく必要があります。次のコマンドを使って、スクリプトを安全な場所にコピーしてください。これらのスクリプトは、アップグレードの後に 手順 12 で復元します。
phys-hahost1# cp /opt/SUNWcluster/ha/sap/hasap_start_all_instances /safe_place phys-hahost1# cp /opt/SUNWcluster/ha/sap/hasap_stop_all_instances /safe_place |
scinstall(1M) を使ってクラスタソフトウェアを更新する前に、すべてのノードから SUNWscsap パッケージを削除します。
SUNWscsap パッケージは scinstall(1M) によって自動的に更新されるわけではないため、ここでこのパッケージを削除します。更新されたパッケージは、手順 12 でインストールします。
phys-hahost1# pkgrm SUNWscsap |
scinstall(1M) コマンドを実行し、Sun Cluster 2.2 CD-ROM を使ってクラスタソフトウェアを更新します。
scinstall(1M) を呼び出し、表示されるメニューから「Upgrade」を選択します。
phys-hahost1# cd /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Tools phys-hahost1# ./scinstall Removal of <SUNWscins> was successful. Installing: SUNWscins Installation of <SUNWscins> was successful. Assuming a default cluster name of sc-cluster Checking on installed package state............ ============ Main Menu ================= 1) Install/Upgrade - Install or Upgrade Server Packages or Install Client Packages. 2) Remove - Remove Server or Client Packages. 3) Change - Modify cluster or data service configuration 4) Verify - Verify installed package sets. 5) List - List installed package sets. 6) Quit - Quit this program. 7) Help - The help screen for this menu. Please choose one of the menu items: [7]: 1 ... ==== Install/Upgrade Software Selection Menu ======================= Upgrade to the latest Sun Cluster Server packages or select package sets for installation. The list of package sets depends on the Sun Cluster packages that are currently installed. Choose one: 1) Upgrade Upgrade to Sun Cluster 2.2 Server packages 2) Server Install the Sun Cluster packages needed on a server 3) Client Install the admin tools needed on an admin workstation 4) Server and Client Install both Client and Server packages 5) Close Exit this Menu 6) Quit Quit the Program Enter the number of the package set [6]: 1 What is the path to the CD-ROM image? [/cdrom/cdrom0]: . ** Upgrading from Sun Cluster 2.1 ** Removing "SUNWccm" ... done ... |
(Sun Cluster HA for SAP のみ) 次の各手順を行います。
SAP を使用するすべてのノードに Sun Cluster 2.2 CD-ROM から SUNWscsap パッケージを追加します。
pkgadd(1M) を使って更新された SUNWscsap パッケージを追加し、手順 1 で削除したパッケージを置き換えます。pkgadd のプロセスで表示されるすべてのプロンプトに対し y を入力します。
phys-hahost1# pkgadd -d ¥ /cdrom/multi_suncluster_sc_2_2/Sun_Cluster_2_2/Sol_2.x/Product/ SUNWscsap |
SAP を使用するすべてのノードに 手順 10 で保存したスクリプトを復元します。
これらのスクリプトを /opt/SUNWcluster/ha/sap ディレクトリにコピーします。safe_place ディレクトリは、手順 10 でスクリプトを保存した先のディレクトリです。スクリプトを復元したら、ls -l コマンドを使って、スクリプトが実行可能か確認します。
phys-hahost1# cd /opt/SUNWcluster/ha/sap phys-hahost1# cp /safe_place/hasap_start_all_instances . phys-hahost1# cp /safe_place/hasap_stop_all_instances . phys-hahost1# ls -l /opt/SUNWcluster/ha/sap/hasap_st* -r-xr--r-- 1 root sys 18400 Feb 9 19:04 hasap_start_all_instances -r-xr--r-- 1 root sys 25963 Feb 9 19:04 hasap_stop_all_instances |
クラスタに 3 つ以上のノードがある場合は、TC/SSP 情報を指定します。
TC/SSP 情報は、scinstall(1M) コマンドを最初に実行したときに /var/tmp/tc_ssp_info ファイルに自動的に保存されます。このファイルを他のすべてのクラスタノードの /var/tmp ディレクトリにコピーします。これによって、これらのノードをアップグレードするときにこの情報を再使用できます。TC/SSP 情報は、ここで指定することもできますし、後で scconf(1M) コマンドを使って指定することもできます。詳細は、scconf(1M) のマニュアルページを参照してください。
SC2.2 uses the terminal concentrator (or system service processor in the case of an E10000) for failure fencing. During the SC2.2 installation the IP address for the terminal concentrator along with the physical port numbers that each server is connected to is requested. This information can be changed using scconf. After the upgrade has completed you need to run scconf to specify terminal concentrator information for each server. This will need to be done on each server in the cluster. The specific commands that need to be run are: scconf clustername -t <nts name> -i <nts name|IP address> scconf clustername -H <node 0> -p <serial port for node 0> ¥ -d <other|E10000> -t <nts name> Repeat the second command for each node in the cluster. Repeat the first command if you have more than one terminal concentrator in your configuration. Or you can choose to set this up now. The information you will need is: +terminal concentrator/system service processor names +the architecture type (E10000 for SSP or other for tc) +the ip address for the terminal concentrator/system service processor (these will be looked up based on the name, you will need to confirm) +for terminal concentrators, you will need the physical ports the systems are connected to (physical ports (2,3,4... not the telnet ports (5002,...) Do you want to set the TC/SSP info now (yes/no) [no]? y |
scinstall(1M) コマンドから TC/SSP 情報の入力を要求されたら、tc_ssp_info ファイルの使用を指定することもできますし、対話型セッションを呼び出して必要な情報を入力することもできます。
このクラスタ例では、次の構成情報を使用するものとします。
クラスタ名: sc-cluster
クラスタのノード数: 2
ノード名: phys-hahost1 と phys-hahost2
論理ホスト名: hahost1 と hahost2
端末集配信装置名: cluster-tc
端末集配信装置の IP アドレス: 123.4.5.678
phys-hahost1 に接続される物理 TC ポート: 2
phys-hahost2 に接続される物理 TC ポート: 3
サーバーアーキテクチャと TC/SSP については、第 1 章「Sun Cluster 環境について」を参照してください。この例の構成は E10000 クラスタではないため、アーキテクチャに other を指定し、端末集配信装置を使用します。
What type of architecture does phys-hahost1 have? (E10000|other) [other] [?] other What is the name of the Terminal Concentrator connected to the serial port of phys-hahost1 [NO_NAME] [?] cluster-tc Is 123.4.5.678 the correct IP address for this Terminal Concentrator (yes|no) [yes] [?] yes Which physical port on the Terminal Concentrator is phys-hahost2 connected to [?] 2 What type of architecture does phys-hahost2 have? (E10000|other) [other] [?] other Which Terminal Concentrator is phys-hahost2 connected to: 0) cluster-tc 123.4.5.678 1) Create A New Terminal Concentrator Entry Select a device [?] 0 Which physical port on the Terminal Concentrator is phys-hahost2 connected to [?] 3 The terminal concentrator/system service processor (TC/SSP) information has been stored in file /var/tmp/tc_ssp_data. Please put a copy of this file into /var/tmp on the rest of the nodes in the cluster. This way you don't have to re-enter the TC/SSP values, but you will, however, still be prompted for the TC/SSP passwords. |
Sun Cluster SNMP を使用する場合は、Sun Cluster SNMP デーモンと Solaris SNMP (smond) で使用するポート番号を変更します。
Sun Cluster SNMP が使用するデフォルトポートは、Solaris SNMP が使用するデフォルトのポート番号 (ポート 161) と同じです。『Sun Cluster 2.2 のシステム管理』の付録 (SNMP) にある手順を使って Sun Cluster SNMP のポート番号を変更します。
Sun Cluster やボリュームマネージャの必須または推奨パッチがある場合は、これをインストールします。
必須または推奨パッチは、サービスプロバイダかパッチ Web サイト http://sunsolve.sun.com から入手できます。パッチの README ファイルの説明に従ってパッチをインストールしてださい。
ノードを再起動します。
この時点で再起動しなければなりません。
共有 CCD を使用している場合は、すべての論理ホストを保守モードにします。
phys-hahost2# haswitch -m hahost1 hahost2 |
クラスタに 3 つ以上のノードがある場合には、共有 CCD は使用されません。したがって、このようなクラスタでは、データサービスをこの時点で保守モードにする必要はありません。
Sun Cluster の旧バージョンが動作する残りの各ノードで、クラスタソトウェアを停止します。
phys-hahost2# scadmin stopnode |
アップグレード済みのノードを起動します。
phys-hahost1# scadmin startcluster phys-hahost1 sc-cluster |
アップグレード済みのノードをクラスタに追加するごとに、端末集配信装置との通信が無効であることを示す警告メッセージがいくつか表示されることがあります。これらのメッセージは予期されたものですので、この時点では無視してください。また、この時点では、Sun Cluster HA for SAP が生成するエラーも無視してください。
(Sun Cluster HA for SAP のみ) 次の各手順を行って SAP インスタンスを再構成します。
hadsconfig(1M) コマンドを実行して Sun Cluster HA for SAP の構成パラメータを復元します。
新しい構成パラメータの説明は、第 10 章「Sun Cluster HA for SAP のインストールと構成」を参照してください。また、手順 1 で保存した構成情報も参照してください。
phys-hahost1# hadsconfig |
この時点では、hadsconfig(1M) が生成するエラーは無視してください。
構成パラメータを設定したら、hareg(1M) を使ってデータサービスをアクティブにします。
phys-hahost1# hareg -y sap |
ftp を使って、構成ファイルをクラスタの他のノードに手作業でコピーします。
次のようにして、古い Sun Cluster 2.2 構成ファイルを新しい Sun Cluster 2.2 ファイルで置き換えます。
phys-hahost1# ftp phys-hahost2 ftp> put /etc/opt/SUNWscsap/hadsconf |
共有 CCD を使用している場合は、ここで更新します。
クラスタに最初に追加したホストで ccdadm(1M) コマンドを 1 度だけ実行します。
phys-hahost1# cd /etc/opt/SUNWcluster/conf phys-hahost1# ccdadm sc-cluster -r ccd.database_post_sc2.0_upgrade |
アップグレード済みのノードでデータサービスを再起動します。
データサービスごとに次のコマンドを実行します。
phys-hahost1# hareg -s -r dataservice -h CI_logicalhost phys-hahost1# hareg -y dataservice |
アップグレードする次のノードで、手順 4 から手順 15 を行います。
ノードごとにアップグレード手順を繰り返します。
各ノードをアップグレードしたら、そのノードをクラスタに追加します。
phys-hahost2# scadmin startnode sc-cluster |
Sun Cluster Manager を設定してから起動します。
Sun Cluster Manager はクラスタの監視に使用されます。これについては、『Sun Cluster 2.2 のシステム管理』第 2 章の Sun Cluster Manager に関する説明を参照してください。また、『Sun Cluster 2.2 ご使用にあたって』も参照してください。
これで、Solaris 2.6 または Solaris 7 で動作する Sun Cluster 2.2 の旧バージョンから Solaris 8 で動作する Sun Cluster 2.2 の最新バージョンへのアップグレードは終りです。