JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris Cluster ソフトウェアのインストール     Oracle Solaris Cluster 3.3 3/13 (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris Cluster 構成の計画

2.  グローバルクラスタノードへのソフトウェアのインストール

3.  グローバルクラスタの確立

新規グローバルクラスタまたは新規グローバルクラスタノードの確立

すべてのノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (scinstall)

すべてのノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (XML)

Oracle Solaris および Oracle Solaris Cluster ソフトウェアをインストールする方法 (JumpStart)

追加のグローバルクラスタノード用にクラスタを準備する方法

ノードまたはプライベートネットワークを追加する方法ときにプライベートネットワーク構成を変更する方法

追加のグローバルクラスタノードとして Oracle Solaris Cluster ソフトウェアを構成する方法 (scinstall)

追加のグローバルクラスタノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (XML)

グローバルクラスタへのノード追加後に定足数デバイスを更新する方法

定足数デバイスを構成する方法

定足数構成とインストールモードを確認する方法

プライベートホスト名を変更する方法

ノード間でのリソースグループの負荷分散の構成

ノードの負荷制限を構成する方法

リソースグループの優先度を設定する方法

リソースグループの負荷係数を設定する方法

リソースグループのプリエンプションモードを設定する方法

クラスタ内の少数のノードに負荷を集中させる方法

時間情報プロトコル (NTP) を構成する方法

クラスタプライベートインターコネクト上で IP セキュリティーアーキテクチャー (IPsec) を構成する方法

クラスタの妥当性を検査する方法

クラスタ構成の診断データを記録する方法

4.   Solaris Volume Manager ソフトウェアの構成

5.  クラスタファイルシステムの作成

6.  非大域ゾーンとゾーンクラスタの作成

7.  クラスタからのソフトウェアのアンインストール

索引

新規グローバルクラスタまたは新規グローバルクラスタノードの確立

このセクションでは、新しいグローバルクラスタを確立したり、既存のクラスタにノードを追加したりするための情報と手順について説明します。グローバルクラスタノードは、物理マシンの場合もあれば、Oracle VM Server for SPARC I/O ドメインの場合もあれば (SPARC のみ)、Oracle VM Server for SPARC ゲストドメインの場合もあります (SPARC のみ)。クラスタは、これらの種類のノードを任意に組み合わせて構成できます。これらのタスクを開始する前に、「ソフトウェアのインストール」で説明した手順に従って、Oracle Solaris OS、Oracle Solaris Cluster フレームワーク、およびその他の製品用のソフトウェアパッケージをインストールしていることを確認してください。

次のタスクマップに、新しいグローバルクラスタ、または既存のグローバルクラスタに追加されたノードに対して実行するタスクを示します。 ここに示す順に従って手順を実行します。

表 3-1 タスクマップ:新しいグローバルクラスタの確立

方法
手順
新しいグローバルクラスタを確立するには、次のいずれかの方法を使用します。
  • scinstall ユーティリティーを使用してクラスタを確立します。
  • XML 構成ファイルを使用してクラスタを確立します。
  • JumpStart インストールサーバーを設定します。続いて、インストールしたシステムのフラッシュアーカイブを作成します。最後に、scinstall JumpStart オプションを使用して、フラッシュアーカイブを各ノードにインストールし、クラスタを確立します。
定足数投票権を割り当て、クラスタがまだインストールモードである場合は、インストールモードを解除します。
定足数構成の妥当性を検査します。
(オプション) ノードのプライベートホスト名を変更します。
NTP 構成ファイルがまだ構成されていない場合は、このファイルを作成するか、または変更します。
(オプション) プライベートインターコネクトをセキュリティー保護するように IPsec を構成します。
Solaris Volume Manager を使用している場合は、ボリューム管理ソフトウェアを構成します。
必要に応じて、クラスタファイルシステムまたは高可用性ローカルファイルシステムを作成します。
他社製のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。
『Oracle Solaris Cluster Data Services Planning and Administration Guide 』

アプリケーションソフトウェアで提供されるドキュメント

クラスタの妥当性を検査します。
終了したクラスタ構成の基準値の記録を取ります。

表 3-2 タスクマップ:既存のグローバルクラスタにノードを追加する

方法
手順
clsetup コマンドを使用して、クラスタ認証済みノードリストに新規ノードを追加します。 また、必要であれば、クラスタインターコネクトを構成して、プライベートネットワークアドレス範囲を再構成します。
追加したノードに対応するために、必要に応じてクラスタインターコネクトとプライベートネットワークアドレス範囲を再構成します。
既存のグローバルクラスタにノードを追加するには、次のいずれかの方法を使用します。
  • JumpStart インストールサーバーを設定します。続いて、インストールしたシステムのフラッシュアーカイブを作成します。最後に、scinstall JumpStart オプションを使用して、クラスタに追加しているノードにフラッシュアーカイブをインストールします。
  • scinstall ユーティリティーを使用して、新しいノードで Oracle Solaris Cluster ソフトウェアを構成します。
  • XML 構成ファイルを使用して、新しいノードで Oracle Solaris Cluster ソフトウェアを構成します。
定足数構成情報を更新します。
定足数構成の妥当性を検査します。
(オプション) ノードのプライベートホスト名を変更します。
NTP 構成を変更します。
クラスタで IPsec が構成されている場合、追加したノードで IPsec を構成します。
Solaris Volume Manager を使用している場合は、ボリューム管理ソフトウェアを構成します。
必要に応じて、クラスタファイルシステムまたは高可用性ローカルファイルシステムを作成します。
他社製のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。
『Oracle Solaris Cluster Data Services Planning and Administration Guide 』

アプリケーションソフトウェアで提供されるドキュメント

クラスタの妥当性を検査します。
終了したクラスタ構成の基準値の記録を取ります。

すべてのノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (scinstall)

Oracle Solaris Cluster ソフトウェアをクラスタのすべてのノードで構成するには、グローバルクラスタの 1 つのノードからこの手順を実行します。


注 - この手順では、対話型の scinstall コマンドを使用します。インストールスクリプトを開発するときなど、非対話型の scinstall コマンドを使用する場合は、scinstall(1M) のマニュアルページを参照してください。

scinstall コマンドを実行する前に、手動またはサイレントモード形式の installer プログラムを使用して、Oracle Solaris Cluster ソフトウェアパッケージがノードにインストールされていることを確認します。インストールスクリプトから installer プログラムを実行する方法については、『Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX』の第 5 章「Installing in Silent Mode」を参照してください。


始める前に

次のタスクを実行します。

これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。

  1. Oracle Solaris Cluster ソフトウェアのインストール中にリモート構成を無効にした場合は、リモート構成を再度有効にします。

    すべてのクラスタノードへの スーパーユーザーのリモートシェル (rsh(1M)) またはセキュアシェル (ssh(1)) アクセス を有効にします。

  2. 新しいクラスタのプライベートインターコネクトでスイッチを使用している場合は、NDP (Neighbor Discovery Protocol) が無効になっていることを確認します。

    スイッチのドキュメントの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。

    クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。

    クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。

  3. 1 つのクラスタノードから scinstall ユーティリティーを開始します。
    phys-schost# /usr/cluster/bin/scinstall
  4. 「新しいクラスタの作成またはクラスタノードの追加」というオプションに対応する番号を入力し、Return キーを押します。
     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    「新しいクラスタとクラスタノード」メニューが表示されます。

  5. 「新しいクラスタの作成」オプションの番号を入力し、Return キーを押します。

    「通常」または「カスタム」モードメニューが表示されます。

  6. 「通常」または「カスタム」のいずれかのオプション番号を入力し、Return キーを押します。

    「新しいクラスタの作成」画面が表示されます。要件を読み、Control-D キーを押して操作を続けます。

  7. メニュープロンプトに従って、 構成計画ワークシートから回答を入力します。

    scinstall ユーティリティーは、すべてのクラスタノードのインストールと構成を行い、クラスタをリブートします。クラスタ内ですべてのノードが正常にブートされると、クラスタが確立されます。Oracle Solaris Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log. N ファイルに記録されます。

  8. 各ノードで、サービス管理機能 (Service Management Facility、SMF) のマルチユーザーサービスがオンラインになっていることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. 1 つのノードから、すべてのノードがクラスタに参加したことを確認します。
    phys-schost# clnode status

    出力は次のようになります。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    詳細は、clnode(1CL) のマニュアルページを参照してください。

  10. (省略可能) ノードの自動リブート機能を有効化します。

    少なくともディスクのいずれかが、クラスタ内の別のノードからアクセス可能である場合、モニターされる共有ディスクパスがすべて失敗すると、この機能はノードを自動的にリブートします。


    注 - 初期構成時に、検出されたすべてのデバイスについてディスクパスモニタリングがデフォルトで有効になります。


    1. 自動リブートを有効にします。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      設定するプロパティーを指定します。

      reboot_on_path_failure=enable

      モニターされる共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。

    2. ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  11. 高可用性ローカルファイルシステムで Oracle Solaris Cluster HA for NFS (HA for NFS) を使用する予定の場合は、ループバックファイルシステム (LOFS) が無効になっていることを確認してください。

    LOFS を無効にするには、クラスタの各ノードで /etc/system ファイルに次のエントリを追加します。

    exclude:lofs

    /etc/system ファイルに対する変更は、次回システムをリブートしたあとに有効になります。


    注 - 高可用性ローカルファイルシステムで HA for NFS を使用しており、かつ automountd を実行している場合は、LOFS を有効にすることはできません。LOFS によって HA for NFS のスイッチオーバーの問題が発生する可能性があります。高可用性ローカルファイルシステムに HA for NFS を追加することにした場合、次のいずれかの構成上の変更を行う必要があります。

    ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用性ローカルファイルシステムの HA for NFS を LOFS と共存させる必要がある場合は、LOFS を無効にするのではなく、他のいずれかの方法を使用してください。

    • LOFS を無効にする。

    • automountd デーモンを無効にする。

    • HA for NFS からエクスポートされた高可用性ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外する。これを選んだ場合、LOFS と automountd デーモンの両方を有効にしておくことができます。


    ループバックファイルシステムの詳細については、『Oracle Solaris の管理: デバイスとファイルシステム』の「ループバックファイルシステム」を参照してください。

例 3-1 すべてのノードでの Oracle Solaris Cluster ソフトウェアの構成

ここでは、scinstall を使用して 2 ノードクラスタ schost で構成タスクを完了したときに、ログに記録される scinstall 進行状況メッセージの例を示します。このクラスタは、「通常」モードで、scinstall ユーティリティーを使用することによって、phys-schost-1 からインストールされます。もう一つのクラスタノードは、phys-schost-2 です。アダプタ名は、bge2bge3 です。定足数デバイスの自動選択は有効です。

  Installation and Configuration

    Log file - /var/cluster/logs/install/scinstall.log.24747

    Configuring global device using lofi on phys-schost-1: done
    Starting discovery of the cluster transport configuration.
    The Oracle Solaris Cluster software is already installed on "phys-schost-1".
    The Oracle Solaris Cluster software is already installed on "phys-schost-2".
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:bge2  switch1  phys-schost-2:bge2
        phys-schost-1:bge3  switch2  phys-schost-2:bge3

    Completed discovery of the cluster transport configuration.

    Started cluster check on "phys-schost-1".
    Started cluster check on "phys-schost-2".

    cluster check completed with no errors or warnings for "phys-schost-1".
    cluster check completed with no errors or warnings for "phys-schost-2".

    Removing the downloaded files … done

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

Rebooting …

注意事項

構成の失敗 – 1 つ以上のノードがクラスタに参加できない場合、または間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正する方法ために Oracle Solaris Cluster ソフトウェアを構成解除する方法」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。そのあとで、この手順を再実行します。

次の手順

クラスタに定足数デバイスを構成する場合、「定足数デバイスを構成する方法」 を参照してください。

それ以外の場合は、「定足数構成とインストールモードを確認する方法」に進みます。

すべてのノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (XML)

XML クラスタ構成ファイルを使用して新規グローバルクラスタを構成するには、以下の手順を実行します。新しいクラスタは、Oracle Solaris Cluster 3.3 3/13 ソフトウェアを実行する既存のクラスタから複製できます。

この手順では、次のクラスタコンポーネントを構成します。

始める前に

次のタスクを実行します。

  1. 各潜在クラスタノードで Oracle Solaris Cluster 3.3 3/13 ソフトウェアがまだ構成されていないことを確認します。
    1. 新しいクラスタに構成するノードでスーパーユーザーになります。
    2. 潜在ノードで Oracle Solaris Cluster ソフトウェアがすでに構成されているか調べます。
      phys-schost# /usr/sbin/clinfo -n
      • コマンドが次のメッセージを返す場合は、手順 c に進みます。
        clinfo: node is not configured as part of acluster: Operation not applicable

        このメッセージは、潜在ノードで Oracle Solaris Cluster ソフトウェアがまだ構成されていないことを示します。

      • このコマンドでノード ID 番号が返される場合、この手順を実行しないでください。

        ノード ID が返されることは、Oracle Solaris Cluster ソフトウェアがすでにノードで構成されていることを示します。

        クラスタで旧バージョンの Oracle Solaris Cluster ソフトウェアを実行していて、Oracle Solaris Cluster 3.3 3/13 ソフトウェアをインストールする場合は、代わりに『Oracle Solaris Cluster Upgrade Guide 』に記載されているアップグレード手順を実行してください。

    3. 新しいクラスタで構成する残りの各ノードで手順 a および手順 b を繰り返します。

      潜在クラスタノードで Oracle Solaris Cluster ソフトウェアがまだ構成されていない場合は、手順 2 に進みます。

  2. 新しいクラスタのプライベートインターコネクトでスイッチを使用している場合は、NDP (Neighbor Discovery Protocol) が無効になっていることを確認します。

    スイッチのドキュメントの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。

    クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。

    クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。

  3. Oracle Solaris Cluster 3.3 3/13 ソフトウェアを実行している既存のクラスタを複製する場合は、そのクラスタ内のノードを使用して、クラスタ構成 XML ファイルを作成します。
    1. 複製するクラスタの有効なメンバーでスーパーユーザーになります。
    2. 既存のクラスタの構成情報をファイルにエクスポートします。
      phys-schost# cluster export -o clconfigfile
      -o

      出力先を指定します。

      clconfigfile

      クラスタ構成 XML ファイルの名前。指定するファイル名は、既存のファイルまたはコマンドで作成される新規ファイルになります。

      詳細は、cluster(1CL) のマニュアルページを参照してください。

    3. 新しいクラスタを構成するノードに構成ファイルをコピーします。

      クラスタノードとして構成する他のホストからアクセス可能なディレクトリであれば、任意のディレクトリにファイルを格納できます。

  4. 新しいクラスタに構成するノードでスーパーユーザーになります。
  5. 必要に応じてクラスタ構成 XML ファイルを変更します。
    1. クラスタ構成 XML ファイルを編集するために開きます。
      • 既存のクラスタを複製する場合、cluster export コマンドで作成したファイルを開きます。
      • 既存のクラスタを複製しない場合は、新しいファイルを作成します。

        clconfiguration(5CL)のマニュアルページに示した要素の階層に基づいてファイルを作成して下さい。クラスタノードとして構成する他のホストからアクセス可能なディレクトリであれば、任意のディレクトリにファイルを格納できます。

    2. XML 要素の値を作成するクラスタ構成を反映するように変更します。
      • クラスタを確立するには、クラスタ構成 XML ファイルで次のコンポーネントが有効な値を持つ必要があります。

        • クラスタ名

        • クラスタノード

        • クラスタトランスポート

      • デフォルトでは、クラスタは lofi デバイス上に構成されるグローバルデバイスの名前空間とともに作成されます。代わりに、専用ファイルシステムを使用してその上にグローバルデバイスを作成する必要がある場合は、lofi デバイスの代わりにパーティションを使用する各ノードの <propertyList> 要素に次のプロパティーを追加します。

        …
          <nodeList>
            <node name="node" id="N">
              <propertyList>
        …
                <property name="globaldevfs" value="/filesystem-name">
        …
              </propertyList>
            </node>
        …
      • 既存のクラスタからエクスポートした構成情報を変更する場合、新しいクラスタを反映するために変更の必要な一部の値 (ノード名など) が複数のクラスタオブジェクトに含まれています。

      クラスタ構成 XML ファイルの構造と内容の詳細については、clconfiguration(5CL)のマニュアルページを参照してください。

  6. クラスタ構成XMLファイルを確認します。
    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

    詳細については、xmllint(1) のマニュアルページを参照してください。

  7. クラスタ構成 XML ファイルの潜在ノードから、クラスタを作成します。
    phys-schost# cluster create -i clconfigfile
    -i clconfigfile

    入力ソースとして使用するクラスタ構成 XML ファイルの名前を指定します。

  8. 各ノードで、サービス管理機能 (Service Management Facility、SMF) のマルチユーザーサービスがオンラインになっていることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. 1 つのノードから、すべてのノードがクラスタに参加したことを確認します。
    phys-schost# clnode status

    出力は次のようになります。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    詳細は、clnode(1CL) のマニュアルページを参照してください。

  10. Oracle Solaris Cluster ソフトウェアをサポートするために必要なパッチをまだインストールしていない場合は、これらをすべてインストールします。

    パッチの場所とインストール方法については、『Oracle Solaris Cluster 3.3 3/13 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

  11. 高可用性ローカルファイルシステムで Oracle Solaris Cluster HA for NFS (HA for NFS) を使用する予定の場合は、ループバックファイルシステム (LOFS) が無効になっていることを確認してください。

    LOFS を無効にするには、クラスタの各ノードで /etc/system ファイルに次のエントリを追加します。

    exclude:lofs

    /etc/system ファイルに対する変更は、次回システムをリブートしたあとに有効になります。


    注 - 高可用性ローカルファイルシステムで HA for NFS を使用しており、かつ automountd を実行している場合は、LOFS を有効にすることはできません。LOFS によって HA for NFS のスイッチオーバーの問題が発生する可能性があります。高可用性ローカルファイルシステムに HA for NFS を追加することにした場合、次のいずれかの構成上の変更を行う必要があります。

    ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用性ローカルファイルシステムの HA for NFS を LOFS と共存させる必要がある場合は、LOFS を無効にするのではなく、他のいずれかの方法を使用してください。

    • LOFS を無効にする。

    • automountd デーモンを無効にする。

    • HA for NFS からエクスポートされた高可用性ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外する。これを選んだ場合、LOFS と automountd デーモンの両方を有効にしておくことができます。


    ループバックファイルシステムの詳細については、『Oracle Solaris の管理: デバイスとファイルシステム』の「ループバックファイルシステム」を参照してください。

  12. 既存のクラスタから定足数情報を複製するには、クラスタ構成 XML ファイルを使用して定足数デバイスを構成します。

    2 ノードクラスタを作成した場合、定足数デバイスを構成する必要があります。必要な定足数デバイスを作成するためにクラスタ構成 XML ファイルを使用しない場合は、代わりに 「定足数デバイスを構成する方法」に進みます。

    1. 定足数デバイスに定足数サーバーを使用する場合は、定足数サーバーが設定されて動作していることを確認します。

      「Quorum Server ソフトウェアをインストールおよび構成する方法」の手順に従います。

    2. 定足数デバイスに NAS デバイスを使用している場合は、NAS デバイスが設定されて動作していることを確認します。
      1. NAS デバイスを定足数デバイスとして使用するための要件を守ってください。

        『Oracle Solaris Cluster 3.3 3/13 With Network-Attached Storage Device Manual 』を参照してください。

      2. デバイスの手順に従って、NAS デバイスを設定してください。
    3. クラスタ構成 XML ファイル内の定足数構成情報が作成したクラスタの有効な値を反映していることを確認します。
    4. クラスタ構成 XML ファイルを変更した場合は、そのファイルを確認します。
      phys-schost# xmllint --valid --noout clconfigfile
    5. 定足数デバイスを構成します。
      phys-schost# clquorum add -i clconfigfile devicename
      devicename

      定足数デバイスとして構成するストレージデバイスの名前を指定します。

  13. クラスタのインストールモードを解除します。
    phys-schost# clquorum reset
  14. 構成されたクラスタメンバーでないマシンによるクラスタ構成へのアクセスを終了します。
    phys-schost# claccess deny-all
  15. (省略可能) モニターされる共有ディスクパスがすべて失敗した場合、自動ノードリブートを有効にします。

    注 - 初期構成時に、検出されたすべてのデバイスについてディスクパスモニタリングがデフォルトで有効になります。


    1. 自動リブートを有効にします。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      設定するプロパティーを指定します。

      reboot_on_path_failure=enable

      モニターされる共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。

    2. ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

例 3-2 すべてのノードで XML ファイルを使用して、Oracle Solaris Cluster ソフトウェアを構成する

次の例では、既存の 2 ノードクラスタのクラスタ構成と定足数構成を新しい 2 ノードクラスタに複製します。新しいクラスタには Oracle Solaris 10 OS がインストールされ、非大域ゾーンは構成されていません。クラスタ構成は、既存のクラスタノードである phys-oldhost-1 からクラスタ構成 XML ファイル clusterconf.xml にエクスポートされます。新しいクラスタのノード名は、phys-newhost-1 および phys-newhost-2 です。新しいクラスタで定足数デバイスとして構成されるデバイスは、d3 です。

この例で、プロンプト名 phys-newhost-N は、コマンドが両方のクラスタノードで実行されることを示しています。

phys-newhost-N# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
No errors are reported
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
Output shows that both nodes are online
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset

注意事項

構成の失敗 – 1 つ以上のノードがクラスタに参加できない場合、または間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正する方法ために Oracle Solaris Cluster ソフトウェアを構成解除する方法」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。そのあとで、この手順を再実行します。

次の手順

「定足数構成とインストールモードを確認する方法」に進みます。

参照

クラスタが完全に確立されたら、既存のクラスタから他のクラスタコンポーネントの構成を複製できます。まだ複製を実行していない場合は、複製する XML 要素の値をコンポーネントを追加するクラスタ構成を反映するように変更します。たとえば、リソースグループを複製する場合、ノード名が同じでないかぎり、<resourcegroupNodeList> エントリに、複製したクラスタからのノード名ではなく、新しいクラスタの有効なノード名が含まれることを確認してください。

クラスタコンポーネントを複製するには、複製するクラスタコンポーネントのオブジェクト指向コマンドの export サブコマンドを実行します。コマンド構文およびオプションの詳細については、複製するクラスタオブジェクトのマニュアルページを参照してください。次の表に、クラスタを確立したあとでクラスタ構成 XML ファイルから作成できるクラスタコンポーネントと、そのコンポーネントの複製に使用するコマンドのマニュアルページの一覧を示します。

クラスタコンポーネント
マニュアルページ
特記事項
デバイスグループ: Solaris Volume Manager
Solaris Volume Manager の場合、最初にクラスタ構成 XML ファイルで指定するディスクセットを作成します。
リソース
clresourceclressharedaddress、または clreslogicalhostname コマンドの -a オプションを使用すると、複製するリソースに関連したリソースタイプとリソースグループを複製することもできます。

それ以外の場合は、リソースを追加する前に、まずリソースタイプとリソースグループをクラスタに追加する必要があります。

共有アドレスリソース
論理ホスト名リソース
リソースタイプ
リソースグループ
NAS デバイス
デバイスのドキュメントの手順に従って、最初に NAS デバイスを設定する必要があります。
SNMP ホスト
clsnmphost create -i コマンドでは、-f オプションでユーザーのパスワードファイルを指定する必要があります。
SNMP ユーザー
クラスタオブジェクトでのシステムリソースをモニターするためのしきい値

Oracle Solaris および Oracle Solaris Cluster ソフトウェアをインストールする方法 (JumpStart)

この手順では、カスタム JumpStart インストール方法である scinstall(1M) を設定および使用する方法について説明します。この方法は、Oracle Solaris OS と Oracle Solaris Cluster ソフトウェアの両方をすべてのグローバルクラスタノードにインストールし、クラスタを確立します。この手順を使用して、既存のクラスタに新しいノードを追加することもできます。

始める前に

次のタスクを実行します。

これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。

  1. JumpStart インストールサーバーを設定します。

    JumpStart インストールサーバーが次の要件を満たしていることを確認します。

    • インストールサーバーがクラスタノードと同じサブネット上にあるか、クラスタノードが使用するサブネットの Oracle Solaris ブートサーバー上にあります。

    • インストールサーバー自体はクラスタノードではありません。

    • インストールサーバーによって、Oracle Solaris Cluster ソフトウェアがサポートする Oracle Solaris OS のリリースがインストールされます。

    • Oracle Solaris Cluster ソフトウェアの JumpStart インストール用のカスタム JumpStart ディレクトリが存在しています。この jumpstart-dir ディレクトリは次の要件を満たす必要があります。

      • check ユーティリティーのコピーを含んでいる。

      • JumpStart インストールサーバーにより読み取り用に NFS エクスポートされている。

    • 各新規クラスタノードが、Oracle Solaris Cluster インストール用に設定されたカスタム JumpStart ディレクトリを使用する、カスタム JumpStart インストールクライアントとして構成されています。

    ソフトウェアプラットフォームと OS のバージョンに該当する手順に従って、JumpStart インストールサーバーを設定します。『Oracle Solaris 10 1/13 インストールガイド: JumpStart インストール』の「ネットワーク上のシステム用のプロファイルサーバーの作成」を参照してください。

    setup_install_server(1M)add_install_client(1M) のマニュアルページも参照してください。

  2. 既存のクラスタに新しいノードをインストールする場合は、承認済みクラスタノードの一覧にそのノードを追加します。
    1. アクティブな別のクラスタノードに切り替えて、clsetup ユーティリティーを起動します。
    2. clsetup ユーティリティーを使用して、新しいノードの名前を承認済みクラスタノードの一覧に追加します。

    詳細については、『Oracle Solaris Cluster システム管理』の「既存のクラスタにノードを追加する方法」を参照してください。

  3. まだ行なっていない場合は、クラスタノードまたは同じサーバープラットフォームの別のマシンに、Oracle Solaris OS と必要なパッチをすべてインストールします。

    Oracle Solaris ソフトウェアがすでにサーバー上にインストールされている場合は、Oracle Solaris のインストールが Oracle Solaris Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定のほかのソフトウェアの要件を満たしていることを確認してください。Oracle Solaris Cluster ソフトウェアの要件を満たすように Oracle Solaris ソフトウェアをインストールする方法の詳細については、「Oracle Solaris ソフトウェアをインストールする方法」を参照してください。

    「Oracle Solaris ソフトウェアをインストールする方法」の手順に従ってください。

  4. (省略可能) SPARC: まだ行なっていない場合は、インストールしたシステムで、Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成します。

    「SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法」の手順に従ってください。

  5. まだ行なっていない場合は、インストールしたシステムで、Oracle Solaris Cluster ソフトウェアと必要なすべてのパッチをインストールします。

    「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする方法」の手順に従ってください。

    パッチの場所とインストール方法については、『Oracle Solaris Cluster 3.3 3/13 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

  6. システムのブート中に自動的に起動するように、共通エージェントコンテナ デーモンを有効にします。
    machine# cacaoadm enable
  7. インストールしたシステムで、クラスタで使用されるパブリック IP アドレスで /etc/inet/hosts ファイルを更新します。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。追加する必要のある IP アドレスを持つ Oracle Solaris Cluster コンポーネントの一覧については、「パブリックネットワーク IP アドレス」を参照してください。

  8. インストールしたシステムで、Oracle Java Web Console を構成されていない初期状態にリセットします。

    次のコマンドは、Web コンソールから構成情報を削除します。この構成情報の一部はインストールしたシステムに固有です。フラッシュアーカイブを作成する前に、この情報を削除する必要があります。それ以外の場合、クラスタノードに転送される構成情報によって、Web コンソールが起動しなくなったり、クラスタノードと正しくやり取りできなくなったりする可能性があります。

    # /usr/share/webconsole/private/bin/wcremove -i console

    構成解除された Web コンソールをクラスタノードにインストールし、Web コンソールをはじめて起動したあと、Web コンソールは自動的にその初期構成を実行し、クラスタノードの情報を使用します。

    wcremove コマンドの詳細については、『Oracle Solaris の管理: 基本管理』の「Oracle Java Web Console のユーザー ID」を参照してください。

  9. インストールしたシステムのフラッシュアーカイブを作成します。

    『Oracle Solaris 10 1/13 インストールガイド: フラッシュアーカイブ (作成とインストール)』の第 3 章「フラッシュアーカイブの作成 (タスク)」の手順に従ってください。

    machine# flarcreate -n name archive
    -n name

    フラッシュアーカイブに付ける名前。

    archive

    フラッシュアーカイブに付ける、フルパスを含んだファイル名。規則に基づき、ファイル名の末尾は .flar になります。

  10. フラッシュアーカイブが読み取り用に JumpStart インストールサーバーによって NFS エクスポートされていることを確認します。

    自動ファイル共有の詳細については、『Solaris のシステム管理 (ネットワークサービス)』の第 4 章「ネットワークファイルシステムの管理 (概要)」を参照してください。

    share(1M)dfstab(4) のマニュアルページも参照してください。

  11. JumpStart インストールサーバーで、スーパーユーザーになります。
  12. JumpStart インストールサーバーから、scinstall(1M) ユーティリティーを起動します。

    メディアパスで、arch sparc または x86 に置き換え、ver を Oracle Solaris 10 を表す 10 に置き換えます。

    installserver# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    
    installserver# ./scinstall

    scinstall のメインメニューが表示されます。

  13. 「このインストールサーバーから JumpStart できるようにクラスタを構成」というメニュー項目を選択します。

    このオプションは、カスタム JumpStart 終了スクリプトの構成に使用されます。JumpStart はこれらの終了スクリプトを使用して Oracle Solaris Cluster ソフトウェアをインストールします。

     *** Main Menu ***
     
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node 
    
          * ?) Help with menu options
          * q) Quit
     
        Option:  2
  14. メニュープロンプトに従って、 構成計画ワークシートから回答を入力します。

    scinstall コマンドは、構成情報を格納し、/jumpstart-dir /autoscinstall.d/3.2/ ディレクトリの autoscinstall.class デフォルト class ファイルをコピーします。このファイルは次の例のようになります。

    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add
  15. 必要に応じて autoscinstall.class ファイルに対する調整を行い、フラッシュアーカイブをインストールするように JumpStart を構成します。

    必要に応じて、Oracle Solaris OS をフラッシュアーカイブマシンにインストールしたとき、または scinstall ユーティリティーを実行したときに選択した構成に一致するように、エントリを変更します。

    1. グローバルデバイスの名前空間用に lofi デバイスを使用するには、/globaldevices パーティションの filesys エントリを削除します。
    2. autoscinstall.class ファイルの次のエントリを変更します。
      置換する既存のエントリ
      追加する新しいエントリ
      install_type
      initial_install
      install_type
      flash_install
      system_type
      standalone
      archive_location
      retrieval_type location

      archive_location キーワードとともに使用したときの retrieval_type および location の有効な値については、『Oracle Solaris 10 1/13 インストールガイド: JumpStart インストール』の「archive_location キーワード」を参照してください。

    3. 次のエントリのように、特定のパッケージをインストールするエントリをすべて削除します。
      cluster         SUNWCuser        add
      package         SUNWman          add
    4. 構成にその他の Oracle Solaris ソフトウェア要件がある場合は、それに応じて autoscinstall.class ファイルを変更します。

      autoscinstall.class ファイルは、End User Oracle Solaris ソフトウェアグループ (SUNWCuser) をインストールします。

    5. End User Oracle Solaris ソフトウェアグループ (SUNWCuser) をインストールする場合、必要となる可能性があるすべての追加 Oracle Solaris ソフトウェアパッケージを autoscinstall.class ファイルに追加します。

      次の表に、Oracle Solaris Cluster の一部の機能をサポートするために必要になる Oracle Solaris パッケージの一覧を示します。これらのパッケージは、End User Oracle Solaris ソフトウェアグループに含まれません。詳細については、「Oracle Solaris ソフトウェアグループの考慮事項」を参照してください。


      機能
      必須の Oracle Solaris ソフトウェアパッケージ
      scsnapshot
      SUNWp15u SUNWp15v SUNWp15p
      Oracle Solaris Cluster Manager
      SUNWapchr SUNWapchu

    次のいずれかの方法で、デフォルトの class ファイルを変更できます。

    • autoscinstall.class ファイルを直接編集します。これらの変更は、このカスタム JumpStart ディレクトリを使用するすべてのクラスタ内のすべてのノードに適用されます。

    • ほかのプロファイルを指すように rules ファイルを更新し、続いて check ユーティリティーを実行して rules ファイルを検証します。

    Oracle Solaris OS インストールプロファイルが最低限の Oracle Solaris Cluster ファイルシステム割り当て要件を満たすかぎり、Oracle Solaris Cluster ソフトウェアは、インストールプロファイルに対するその他の変更に制限を一切加えません。Oracle Solaris Cluster ソフトウェアをサポートするためのパーティション分割のガイドラインおよび要件については、「システムディスクパーティション」を参照してください。

    JumpStart のプロファイルの詳細については、『Oracle Solaris 10 1/13 インストールガイド: JumpStart インストール』の第 3 章「JumpStart インストールの準備 (タスク)」を参照してください。

  16. ほかのインストール後のタスクを実行するには、独自の終了スクリプトを設定します。

    独自の終了スクリプトは、scinstall コマンドでインストールされる標準の終了スクリプトのあとで実行します。JumpStart 終了スクリプトの作成については、『Oracle Solaris 10 1/13 インストールガイド: JumpStart インストール』の第 3 章「JumpStart インストールの準備 (タスク)」を参照してください。

    1. 依存関係のある Oracle Solaris パッケージがすべてデフォルトの class ファイルでインストールされることを確認します。

      手順 15 を参照してください。

    2. 終了スクリプトに finish という名前を付けます。
    3. finish スクリプトで実行するインストール後のタスクに変更を加えます。
    4. finish スクリプトを各 jumpstart-dir/autoscinstall.d/nodes/ node ディレクトリにコピーします。

      クラスタ内のノードごとに 1 つの node ディレクトリを作成します。または、この命名規則を使用して、共有 finish スクリプトへのシンボリックリンクを作成します。

  17. JumpStart インストールサーバーを終了します。
  18. 新しいクラスタのプライベートインターコネクトでスイッチを使用している場合は、NDP (Neighbor Discovery Protocol) が無効になっていることを確認します。

    スイッチのドキュメントの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。

    クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。

    クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。

  19. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。
    • Cluster Control Panel (CCP) ソフトウェアが管理コンソールにインストールされ構成されている場合は、cconsole(1M) ユーティリティーを使用して個々のコンソール画面を表示してください。

      スーパーユーザーとして、次のコマンドを使用して、cconsole ユーティリティーを起動します。

      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

      また、cconsole ユーティリティーを使用してマスターウィンドウを開き、ここでの入力を個々のすべてのコンソールウィンドウに同時に送信できます。

    • cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。
  20. 各ノードを停止します。
    phys-schost# shutdown -g0 -y -i0
  21. 各ノードをブートして JumpStart インストールを開始します。
    • SPARC ベースのシステムで、次を実行します。
      ok boot net - install

      注 - 上記コマンド内のダッシュ記号 (-) の両側は、空白文字で囲む必要があります。


    • x86 ベースのシステムで、次を実行します。
      1. いずれかのキーを押して、ブートシーケンスを開始します。
        Press any key to reboot.
        keystroke
      2. BIOS 情報画面が表示されたら、すぐに Esc+2 キーを押すか、F2 キーを押します。

        初期化シーケンスが完了すると、「BIOS セットアップユーティリティー」画面が表示されます。

      3. 「BIOS セットアップユーティリティー」メニューバーで、「ブート」メニュー項目に移動します。

        ブートデバイスの一覧が表示されます。

      4. JumpStart PXE インストールサーバーと同じネットワークに接続されている、一覧の IBA に移動し、それをブート順序の最上位に移します。

        IBA ブート選択肢の右側にある一番小さい数字は下位の Ethernet ポート番号に対応します。IBA ブート選択肢の右側にある大きい数字は上位の Ethernet ポート番号に対応します。

      5. 変更内容を保存して BIOS を終了します。

        ブートシーケンスが再度開始されます。さらに処理が進むと、GRUB メニューが表示されます。

      6. すぐに Oracle Solaris JumpStart エントリを選択して Enter を押します。

        注 - Oracle Solaris JumpStart エントリが表示された唯一のエントリである場合は、代わりに選択画面がタイムアウトするまで待機することもできます。30 秒以内に応答しない場合、システムは自動的にブートシーケンスを継続します。


        さらに処理が進むと、インストールタイプのメニューが表示されます。

      7. インストールタイプのメニューで、すぐにカスタム JumpStart を示すメニュー番号を入力します。

        注 - 30 秒のタイムアウト期間が経過するまでにカスタム JumpStart の番号を入力しないと、システムは自動的に Oracle Solaris の対話型インストールを開始します。


        JumpStart は Oracle Solaris OS と Oracle Solaris Cluster ソフトウェアを各ノードにインストールします。インストールが正常に完了すると、各ノードは新しいクラスタノードとして完全にインストールされます。Oracle Solaris Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log. N ファイルに記録されます。

      8. BIOS 画面がもう一度表示されたら、すぐに Esc+2 キーを押すか、F2 キーを押します。

        注 - この時点で BIOS を中断しない場合、自動的にインストールタイプのメニューに戻ります。そこで 30 秒以内に入力しない場合、システムは自動的に対話型インストールを開始します。


        さらに処理が進むと、BIOS セットアップユーティリティーが表示されます。

      9. メニューバーで、「ブート」メニューに移動します。

        ブートデバイスの一覧が表示されます。

      10. ハードドライブのエントリに移動して、これをブート順序の最上位に戻します。
      11. 変更内容を保存して BIOS を終了します。

        ブートシーケンスが再度開始されます。クラスタモードへのブートを完了するために、GRUB メニューで行う必要のある操作はこれ以上ありません。

  22. 各ノードで、サービス管理機能 (Service Management Facility、SMF) のマルチユーザーサービスがオンラインになっていることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  23. 新しいノードを既存のクラスタにインストールする場合は、既存のすべてのクラスタファイルシステムのマウントポイントを新しいノード上に作成します。
    1. アクティブな別のクラスタノードから、すべてのクラスタファイルシステムの名前を表示します。
      phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
    2. クラスタに追加したノード上で、クラスタ内のクラスタファイルシステムごとにマウントポイントを作成します。
      phys-schost-new# mkdir -p mountpoint

      たとえば、mount コマンドで返されるファイルシステム名が /global/dg-schost-1 である場合、クラスタに追加されるノードで、mkdir - p /global/dg-schost-1 を実行します。


      注 - 手順 27 でクラスタをリブートしたあとで、マウントポイントはアクティブになります。


  24. 高可用性ローカルファイルシステムで Oracle Solaris Cluster HA for NFS (HA for NFS) を使用する予定の場合は、ループバックファイルシステム (LOFS) が無効になっていることを確認してください。

    LOFS を無効にするには、クラスタの各ノードで /etc/system ファイルに次のエントリを追加します。

    exclude:lofs

    /etc/system ファイルに対する変更は、次回システムをリブートしたあとに有効になります。


    注 - 高可用性ローカルファイルシステムで HA for NFS を使用しており、かつ automountd を実行している場合は、LOFS を有効にすることはできません。LOFS によって HA for NFS のスイッチオーバーの問題が発生する可能性があります。高可用性ローカルファイルシステムに HA for NFS を追加することにした場合、次のいずれかの構成上の変更を行う必要があります。

    ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用性ローカルファイルシステムの HA for NFS を LOFS と共存させる必要がある場合は、LOFS を無効にするのではなく、他のいずれかの方法を使用してください。

    • LOFS を無効にする。

    • automountd デーモンを無効にする。

    • HA for NFS からエクスポートされた高可用性ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外する。これを選んだ場合、LOFS と automountd デーモンの両方を有効にしておくことができます。


    ループバックファイルシステムの詳細については、『Oracle Solaris の管理: デバイスとファイルシステム』の「ループバックファイルシステム」を参照してください。

  25. クラスタインターコネクトに次のアダプタのいずれかを使用する場合、各ノード上で /etc/system ファイルの関連エントリのコメントを解除します。
    アダプタ
    エントリ
    ipge
    set ipge:ipge_taskq_disable=1
    ixge
    set ixge:ixge_taskq_disable=1

    このエントリは、次のシステムリブート後に有効になります。

  26. x86: デフォルトのブートファイルを設定します。

    この値を設定すると、ログインプロンプトにアクセスできないときにノードをリブートできます。

    grub edit> kernel /platform/i86pc/multiboot kmdb
  27. クラスタのリブートが必要なタスクを実行した場合は、次の手順に従ってクラスタをリブートします。

    リブートが必要なタスクの例は次のとおりです。

    • 既存のクラスタへの新しいノードの追加

    • ノードまたはクラスタのリブートを必要とするパッチのインストール

    • 有効にするためにリブートの必要な構成の変更

    1. 1 つのノードで、スーパーユーザーになります。
    2. クラスタを停止します。
      phys-schost-1# cluster shutdown -y -g0 clustername

      注 - クラスタがシャットダウンするまで、最初にインストールしたクラスタノードをリブートしないでください。クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。まだインストールモードにある確立されたクラスタで、最初にインストールしたノードをリブートする前にクラスタをシャットダウンしていない場合、残りのクラスタノードが定足数を獲得できません。クラスタ全体が停止します。

      clsetup コマンドを初めて実行するまで、クラスタノードは、インストールモードのままになります。「定足数デバイスを構成する方法」の手順の間にこのコマンドを実行します。


    3. クラスタ内にある各ノードをリブートします。

    scinstall ユーティリティーは、すべてのクラスタノードのインストールと構成を行い、クラスタをリブートします。クラスタ内ですべてのノードが正常にブートされると、クラスタが確立されます。Oracle Solaris Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log. N ファイルに記録されます。

  28. (省略可能) 手順 27 を実行してノードをリブートしなかった場合は、各ノードで Oracle Java Web Console Web サーバーを手動で起動します。
    phys-schost# smcwebserver start

    詳細については、smcwebserver(1M) のマニュアルページを参照してください。

  29. 1 つのノードから、すべてのノードがクラスタに参加したことを確認します。
    phys-schost# clnode status

    出力は次のようになります。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    詳細は、clnode(1CL) のマニュアルページを参照してください。

  30. (省略可能) 各ノード上で、モニターされる共有ディスクパスがすべて失敗した場合、自動ノードリブートを有効にします。

    注 - 初期構成時に、検出されたすべてのデバイスについてディスクパスモニタリングがデフォルトで有効になります。


    1. 自動リブートを有効にします。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      設定するプロパティーを指定します。

      reboot_on_path_failure=enable

      モニターされる共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。

    2. ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

次の手順

2 ノードクラスタにノードを追加した場合は、「グローバルクラスタへのノード追加後に定足数デバイスを更新する方法」に進みます。

それ以外の場合は、次の該当する手順に進みます。

注意事項

無効化された scinstall オプションscinstall コマンドの JumpStart オプションの前にアスタリスクが付いていない場合、このオプションは無効になります。この状況は、JumpStart の設定が完了していないか、セットアップでエラーが発生したことを示します。この状況を修正するには、まず scinstall ユーティリティーを終了します。手順 1 から手順 16 までを繰り返して JumpStart の設定を修正し、scinstall ユーティリティーを再起動します。

追加のグローバルクラスタノード用にクラスタを準備する方法

以下の手順を実行して、既存のグローバルクラスタノードで新しいクラスタノードを追加するためにクラスタを準備します。

始める前に

次のタスクを実行します。

  1. Cluster Control Panel (CCP) を使用する場合、管理コンソールで構成ファイルを更新します。
    1. 追加するノードの名前を /etc/clusters ファイルのクラスタのエントリに追加します。
    2. 新しいノード名を持つエントリ、ノードのコンソールアクセスデバイスのホスト名、およびポート番号を、/etc/serialports ファイルに追加します。
  2. 新しいノードの名前をクラスタの承認済みノードリストに追加します。
    1. 任意のノードで、スーパーユーザーになります。
    2. clsetup ユーティリティーを起動します。
      phys-schost# clsetup

      メインメニューが表示されます。

    3. 「新規ノード」メニュー項目を選択します。
    4. 「追加されるマシンの名前を指定」メニュー項目を選択します。
    5. プロンプトに従って、ノードの名前を認識されているマシンのリストに追加します。

      clsetup ユーティリティーは、タスクがエラーなしで完了した場合、「コマンドが正常に完了しました」というメッセージを表示します。

    6. clsetup ユーティリティーを終了します。
  3. 単一ノードクラスタにノードを追加する場合、インターコネクト構成を表示して、2 つのクラスタインターコネクトがすでに存在することを確認します。
    phys-schost# clinterconnect show

    少なくとも 2 つのケーブルまたは 2 つのアダプタを構成しなければなりません。

    • 出力に 2 つのケーブルまたは 2 つのアダプタの構成情報が表示される場合は、手順 4 に進んでください。
    • 出力にケーブルまたはアダプタの構成情報が表示されない場合、または 1 つのケーブルまたはアダプタだけの構成情報が表示される場合は、新しいクラスタインターコネクトを構成してください。
      1. 1 つのノードで clsetup ユーティリティーを起動します。
        phys-schost# clsetup
      2. 「クラスタインターコネクト」メニュー項目を選択します。
      3. 「トランスポートケーブルを追加」メニュー項目を選択します。

        指示通りにクラスタに追加するノードの名前、トランスポートアダプタの名前、およびトランスポートスイッチを使用するかどうかを指定します。

      4. 必要に応じて、手順 c を繰り返して、2 番目のクラスタインターコネクトを構成します。
      5. 完了後 clsetup ユーティリティーを終了します。
      6. クラスタに 2 つのクラスタインターコネクトが構成されていることを確認します。
        phys-schost# clinterconnect show

        コマンド出力は、少なくとも 2 つのクラスタインターコネクトの構成情報を表示する必要があります。

  4. プライベートネットワーク構成で、追加するノードおよびプライベートネットワークをサポートできることを確認します。
    1. 現在のプライベートネットワーク構成がサポートするノード、プライベートネットワーク、およびゾーンクラスタの最大数を表示します。
      phys-schost# cluster show-netprops

      次に出力例を示します。

      === Private Network ===                        
      
      private_netaddr:                                172.16.0.0
        private_netmask:                                255.255.240.0
        max_nodes:                                      64
        max_privatenets:                                10
        max_zoneclusters:                               12
    2. 現在のプライベートネットワークで非大域ゾーンおよびプライベートネットワークを含めたノードの数の増加に対応できるかどうかを判断します。

次の手順

新しいクラスタノードで Oracle Solaris Cluster ソフトウェアを構成します。「追加のグローバルクラスタノードとして Oracle Solaris Cluster ソフトウェアを構成する方法 (scinstall)」または 「追加のグローバルクラスタノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (XML)」に進みます。

ノードまたはプライベートネットワークを追加する方法ときにプライベートネットワーク構成を変更する方法

このタスクを実行してグローバルクラスタのプライベート IP アドレス範囲を変更し、次の 1 つ以上のクラスタコンポーネントにおける増加に対応します。

また、この手順を使用して、プライベート IP アドレスの範囲を小さくすることもできます。


注 - この手順では、クラスタ全体をシャットダウンする必要があります。ゾーンクラスタのサポートの追加など、ネットマスクだけを変更する必要がある場合、この手順は実行しないでください。 その代わり、ゾーンクラスタの予想数を指定するため、クラスタモードで動作しているグローバルクラスタノードから次のコマンドを実行します。

phys-schost# cluster set-netprops num_zoneclusters=N

このコマンドはクラスタのシャットダウンを要求しません。


始める前に

すべてのクラスタノードで スーパーユーザーのリモートシェル (rsh(1M)) またはセキュアシェル (ssh(1)) アクセス が有効になっていることを確認してください。

  1. 各クラスタのノードのスーパーユーザーになります。
  2. 1 つのノードから、clsetup ユーティリティーを起動します。
    # clsetup

    clsetup のメインメニューが表示されます。

  3. 各リソースグループをオフラインに切り替えます。

    ノードに非大域ゾーンが含まれている場合、ゾーン内のリソースグループもすべてオフラインに切り替えられます。

    1. リソースグループのオプションに対応する番号を入力し、Return キーを押します。

      リソースグループメニューが表示されます。

    2. リソースグループをオンライン/オフライン化、またはスイッチオーバーするオプションに対応する番号を入力し、Return キーを押します。
    3. プロンプトに従って、リソースグループをすべてオフラインにして、管理されていない状態にします。
    4. すべてのリソースグループがオフラインになったら、q を入力して「リソースグループメニュー」に戻ります。
  4. クラスタ内のすべてのリソースを無効にします。
    1. リソースを有効化または無効化するオプションに対応する番号を入力し、Return キーを押します。
    2. 無効にするリソースを選択し、プロンプトの指示に従います。
    3. 無効にするリソースごとに上記の手順を繰り返します。
    4. すべてのリソースが無効になったら、q を入力して「リソースグループメニュー」に戻ります。
  5. clsetup ユーティリティーを終了します。
  6. すべてのノード上のすべてのリソースが Offline になっており、そのすべてのリソースグループが Unmanaged 状態であることを確認します。
    # cluster status -t resource,resourcegroup
    -t

    指定したクラスタオブジェクトへの出力を制限します

    resource

    リソースを指定します

    resourcegroup

    リソースグループを指定します

  7. ノードのどれか 1 つでクラスタを停止します。
    # cluster shutdown -g0 -y
    -g

    待機時間を秒単位で指定します。

    -y

    シャットダウンの確認を促すプロンプトを発生させないようにします。

  8. 各ノードを非クラスタモードでブートします。
    • SPARC ベースのシステムで、次のコマンドを実行します。
      ok boot -x
    • x86 ベースのシステムで、次のコマンドを実行します。
      1. GRUB メニューで矢印キーを使用して該当する Oracle Solaris エントリを選択し、e と入力してコマンドを編集します。

        GRUB ベースのブートの詳細については、『Oracle Solaris の管理: 基本管理』の「GRUB を使用して x86 システムをブートする (タスクマップ)」を参照してください。

      2. ブートパラメータ画面で矢印キーを使用して kernel エントリを選択し、e と入力してエントリを編集します。
      3. コマンドに -x を追加して、システムが非クラスタモードでブートするように指定します。
      4. Enter キーを押して変更を承諾し、ブートパラメータ画面に戻ります。

        画面には編集されたコマンドが表示されます。

      5. b と入力して、ノードを非クラスタモードでブートします。

        注 - カーネルブートパラメータコマンドへのこの変更は、システムをブートすると無効になります。次にノードをリブートする際には、ノードはクラスタモードでブートします。非クラスタモードでブートするには、上記の手順を実行してもう一度カーネルのブートパラメータコマンドに -x オプションを追加してください。


  9. 1 つのノードから、clsetup ユーティリティーを起動します。

    非クラスタモードで動作している場合、clsetup ユーティリティーは非クラスタモード動作用のメインメニューを表示します。

  10. クラスタトランスポート用のネットワークアドレス指定と範囲の変更のオプションに対応する番号を入力して、Return キーを押します。

    clsetup ユーティリティーは現在のプライベートネットワーク構成を表示し、この構成を変更するかどうかを尋ねます。

  11. プライベートネットワーク IP アドレスか IP アドレス範囲のいずれかを変更するには、yes と入力し、Return キーを押します。

    clsetup ユーティリティーはデフォルトのプライベートネットワーク IP アドレスである 172.16.0.0 を表示し、このデフォルトをそのまま使用してもよいかどうかを尋ねます。

  12. プライベートネットワーク IP アドレスを変更するか、そのまま使用します。
    • デフォルトのプライベートネットワーク IP アドレスをそのまま使用し、IP アドレス範囲の変更に進むには、yes と入力し、Return キーを押します。

      clsetup ユーティリティーはデフォルトのネットマスクをそのまま使用してもよいかどうかを尋ねます。次の手順に進んで、応答を入力します。

    • デフォルトのプライベートネットワークを変更するには、次の下位手順を実行します。
      1. clsetup ユーティリティーの、デフォルトのアドレスをそのまま使用してもよいかどうかに関する質問に対しては no と入力し、Return キーを押します。

        clsetup ユーティリティーは、新しいプライベートネットワーク IP アドレスを入力するプロンプトを表示します。

      2. 新しい IP アドレスを入力し、Return キーを押します。

        clsetup ユーティリティーはデフォルトのネットマスクを表示し、デフォルトのネットマスクをそのまま使用してもよいかどうかを尋ねます。

  13. デフォルトのプライベートネットワーク IP アドレス範囲を変更するか、そのまま使用します。

    デフォルトのネットマスクは 255.255.240.0 です。このデフォルトの IP アドレス範囲は、クラスタ内で最大 64 のノード、最大 12 のゾーンクラスタ、および最大 10 のプライベートネットワークをサポートします。

    • デフォルトの IP アドレス範囲をそのまま使用するには、「yes」と入力して、Return キーを押します。

      次の手順に進みます。

    • IP アドレス範囲を変更するには、次の下位手順を実行します。
      1. clsetup ユーティリティーの、デフォルトのアドレス範囲をそのまま使用してもよいかどうかに関する質問に対しては no と入力し、Return キーを押します。

        デフォルトのネットマスクを使用しない場合、clsetup ユーティリティーは、ユーザーがクラスタで構成する予定のノード、プライベートネットワーク、およびゾーンクラスタの数を入力するプロンプトを表示します。

      2. クラスタで構成する予定のノード、プライベートネットワーク、およびゾーンクラスタの数を入力します。

        これらの数から、clsetup ユーティリティーは 2 つの推奨ネットマスクを計算します。

        • 第一のネットマスクは、ユーザーが指定したノード、プライベートネットワーク、およびゾーンクラスタの数をサポートする、最低限のネットマスクです。

        • 第二のネットマスクは、将来ありうる成長に対応するため、ユーザーが指定したノード、プライベートネットワーク、およびゾーンクラスタの数の 2 倍をサポートします。

      3. 計算されたネットマスクのいずれかを指定するか、ノード、プライベートネットワーク、およびゾーンクラスタの予定数をサポートする別のネットマスクを指定します。
  14. 更新の継続に関する clsetup ユーティリティーの質問に対しては、yes と入力します。
  15. 完了後 clsetup ユーティリティーを終了します。
  16. 各ノードをリブートしてクラスタに戻します。
    1. 各ノードを停止します。
      # shutdown -g0 -y
    2. 各ノードをクラスタモードでブートします。
  17. 1 つのノードから、clsetup ユーティリティーを起動します。
    # clsetup

    clsetup のメインメニューが表示されます。

  18. すべての無効リソースを再度有効にします。
    1. リソースグループのオプションに対応する番号を入力し、Return キーを押します。

      リソースグループメニューが表示されます。

    2. リソースを有効化または無効化するオプションに対応する番号を入力し、Return キーを押します。
    3. 有効にするリソースを選択し、プロンプトの指示に従います。
    4. 無効になっている各リソースに対して、この手順を繰り返します。
    5. すべてのリソースが再び有効になったら、 q を入力して「リソースグループメニュー」に戻ります。
  19. 各リソースグループをオンラインに戻します。

    ノードに非大域ゾーンが含まれる場合は、それらのゾーン内にあるリソースグループもすべてオンラインにします。

    1. リソースグループをオンライン/オフライン化、またはスイッチオーバーするオプションに対応する番号を入力し、Return キーを押します。
    2. プロンプトに従って、各リソースグループを管理状態におき、リソースグループをオンラインに戻します。
  20. すべてのリソースグループがオンラインに戻ったら、clsetup ユーティリティーを終了します。

    q を入力して各サブメニューを取り消すか、Ctrl-C を押してください。

次の手順

既存のクラスタにノードを追加するには、次のいずれかの手順に進みます。

クラスタノード上に非大域ゾーンを作成するには、「グローバルクラスタノード上での非大域ゾーンの構成」に進みます。

追加のグローバルクラスタノードとして Oracle Solaris Cluster ソフトウェアを構成する方法 (scinstall)

この手順を実行して、新しいノードを既存のグローバルクラスタに追加します。JumpStart を使用して新しいノードを追加するには、代わりに 「Oracle Solaris および Oracle Solaris Cluster ソフトウェアをインストールする方法 (JumpStart)」の手順に従ってください。


注 - この手順では、対話型の scinstall コマンドを使用します。インストールスクリプトを開発するときなど、非対話型の scinstall コマンドを使用する場合は、scinstall(1M) のマニュアルページを参照してください。

scinstall コマンドを実行する前に、手動またはサイレントモード形式の installer プログラムを使用して、Oracle Solaris Cluster ソフトウェアパッケージがノードにインストールされていることを確認します。インストールスクリプトから installer プログラムを実行する方法については、『Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX』の第 5 章「Installing in Silent Mode」を参照してください。


始める前に

次のタスクを実行します。

これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。

  1. 構成するクラスタノードで、スーパーユーザーになります。
  2. scinstall ユーティリティーを起動します。
    phys-schost-new# /usr/cluster/bin/scinstall

    scinstall のメインメニューが表示されます。

  3. 「新しいクラスタの作成またはクラスタノードの追加」というオプションに対応する番号を入力し、Return キーを押します。
      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    「新しいクラスタとクラスタノード」メニューが表示されます。

  4. 「このマシンを既存のクラスタ内にノードとして追加」オプションに対応する番号を入力し、Return キーを押します。
  5. メニュープロンプトに従って、 構成計画ワークシートから回答を入力します。

    scinstall ユーティリティーがノードを構成し、クラスタのノードをブートします。

  6. DVD-ROM ドライブから DVD-ROM を取り出します。
    1. DVD-ROM が使用されていないことを確認し、DVD-ROM 上にないディレクトリに移動します。
    2. DVD-ROM を取り出します。
      phys-schost# eject cdrom
  7. 他のノードでもこの手順を繰り返して、すべての追加ノードの構成が完了するまでクラスタに追加します。
  8. 各ノードで、サービス管理機能 (Service Management Facility、SMF) のマルチユーザーサービスがオンラインになっていることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. 有効なクラスタメンバーから、他のノードがクラスタに参加するのを防ぎます。
    phys-schost# claccess deny-all

    あるいは、clsetup ユーティリティーも使用できます。手順については、『Oracle Solaris Cluster システム管理』の「既存のクラスタにノードを追加する方法」を参照してください。

  10. 1 つのノードから、すべてのノードがクラスタに参加したことを確認します。
    phys-schost# clnode status

    出力は次のようになります。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    詳細は、clnode(1CL) のマニュアルページを参照してください。

  11. 必要なパッチがすべてインストールされていることを確認します。
    phys-schost# showrev -p
  12. (省略可能) モニターされる共有ディスクパスがすべて失敗した場合、自動ノードリブートを有効にします。

    注 - 初期構成時に、検出されたすべてのデバイスについてディスクパスモニタリングがデフォルトで有効になります。


    1. 自動リブートを有効にします。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      設定するプロパティーを指定します。

      reboot_on_path_failure=enable

      モニターされる共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。

    2. ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  13. 高可用性ローカルファイルシステムで Oracle Solaris Cluster HA for NFS (HA for NFS) を使用する予定の場合は、ループバックファイルシステム (LOFS) が無効になっていることを確認してください。

    LOFS を無効にするには、クラスタの各ノードで /etc/system ファイルに次のエントリを追加します。

    exclude:lofs

    /etc/system ファイルに対する変更は、次回システムをリブートしたあとに有効になります。


    注 - 高可用性ローカルファイルシステムで HA for NFS を使用しており、かつ automountd を実行している場合は、LOFS を有効にすることはできません。LOFS によって HA for NFS のスイッチオーバーの問題が発生する可能性があります。高可用性ローカルファイルシステムに HA for NFS を追加することにした場合、次のいずれかの構成上の変更を行う必要があります。

    ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用性ローカルファイルシステムの HA for NFS を LOFS と共存させる必要がある場合は、LOFS を無効にするのではなく、他のいずれかの方法を使用してください。

    • LOFS を無効にする。

    • automountd デーモンを無効にする。

    • HA for NFS からエクスポートされた高可用性ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外する。これを選んだ場合、LOFS と automountd デーモンの両方を有効にしておくことができます。


    ループバックファイルシステムの詳細については、『Oracle Solaris の管理: デバイスとファイルシステム』の「ループバックファイルシステム」を参照してください。

例 3-3 追加ノードでの Oracle Solaris Cluster ソフトウェアの構成

次の例は、クラスタ schost に追加されたノード phys-schost-3 を示しています。スポンサーノードは、phys-schost-1 です。

*** Adding a Node to an Existing Cluster ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=bge2 -A trtype=dlpi,name=bge3 
-m endpoint=:bge2,endpoint=switch1 -m endpoint=:bge3,endpoint=switch2


Checking device to use for global devices file system ... done

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "bge2" to the cluster configuration ... done
Adding adapter "bge3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Copying the Common Agent Container keys from "phys-schost-1" ... done


Setting the node ID for "phys-schost-3" ... done (id=1)

Setting the major number for the "did" driver ... 
Obtaining the major number for the "did" driver from "phys-schost-1" ... done
"did" driver major number set to 300

Checking for global devices global file system ... done
Updating vfstab ... done

Verifying that NTP is configured ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... 
done

Adding clusternode entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done
The "local-mac-address?" parameter setting has been changed to "true".

Ensure network routing is disabled ... done

Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Rebooting ... 

注意事項

構成の失敗 – 1 つ以上のノードがクラスタに参加できない場合、または間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正する方法ために Oracle Solaris Cluster ソフトウェアを構成解除する方法」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。そのあとで、この手順を再実行します。

次の手順

定足数デバイスを使用する既存のクラスタにノードを追加した場合は、「グローバルクラスタへのノード追加後に定足数デバイスを更新する方法」に進みます。

それ以外の場合は、「定足数構成とインストールモードを確認する方法」に進みます。

追加のグローバルクラスタノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (XML)

XML クラスタ構成ファイルを使用して新規グローバルクラスタノードを構成するには、以下の手順を実行します。新しいノードは、Oracle Solaris Cluster 3.3 3/13 ソフトウェアを実行する既存のクラスタノードから複製できます。

この手順では、次のクラスタコンポーネントを構成します。

始める前に

次のタスクを実行します。

  1. クラスタに追加する予定の潜在ノード上で Oracle Solaris Cluster ソフトウェアがまだ構成されていないことを確認します。
    1. 作成するノード上でスーパーユーザーになります。
    2. 潜在ノードで Oracle Solaris Cluster ソフトウェアが構成されているか調べます。
      phys-schost-new# /usr/sbin/clinfo -n
      • コマンドが失敗する場合は、手順 2 に進みます。

        Oracle Solaris Cluster ソフトウェアは、ノードでまだ構成されていません。クラスタにノードを追加できます。

      • コマンドがノード ID 番号を返した場合は、手順 cに進みます。

        Oracle Solaris Cluster ソフトウェアは、ノードですでに構成されています。別のクラスタにノードを追加する前に、既存のクラスタ構成情報を削除する必要があります。

    3. 作成するノードを非クラスタモードでブートします。
      • SPARC ベースのシステムで、次のコマンドを実行します。
        ok boot -x
      • x86 ベースのシステムで、次のコマンドを実行します。
        1. GRUB メニューで矢印キーを使用して該当する Oracle Solaris エントリを選択し、e と入力してコマンドを編集します。

          GRUB ベースのブートの詳細については、『Oracle Solaris の管理: 基本管理』の「GRUB を使用して x86 システムをブートする (タスクマップ)」を参照してください。

        2. ブートパラメータ画面で矢印キーを使用して kernel エントリを選択し、e と入力してエントリを編集します。
        3. コマンドに -x を追加して、システムが非クラスタモードでブートするように指定します。
        4. Enter キーを押して変更を承諾し、ブートパラメータ画面に戻ります。

          画面には編集されたコマンドが表示されます。

        5. b と入力して、ノードを非クラスタモードでブートします。

          注 - カーネルブートパラメータコマンドへのこの変更は、システムをブートすると無効になります。次にノードをリブートする際には、ノードはクラスタモードでブートします。非クラスタモードでブートするには、上記の手順を実行してもう一度カーネルのブートパラメータコマンドに -x オプションを追加してください。


    4. 潜在ノードから Oracle Solaris Cluster ソフトウェアを構成解除します。
      phys-schost-new# /usr/cluster/bin/clnode remove
  2. Oracle Solaris Cluster 3.3 3/13 ソフトウェアを実行するノードを複製する場合は、クラスタ構成 XML ファイルを作成します。
    1. 複製するクラスタノードでスーパーユーザーになります。
    2. 既存のノードの構成情報をファイルにエクスポートします。
      phys-schost# clnode export -o clconfigfile
      -o

      出力先を指定します。

      clconfigfile

      クラスタ構成 XML ファイルの名前。指定するファイル名は、既存のファイルまたはコマンドで作成される新規ファイルになります。

      詳細は、clnode(1CL) のマニュアルページを参照してください。

    3. クラスタ構成 XML ファイルを新しいクラスタノードとして構成するノードにコピーします。
  3. 作成するノード上でスーパーユーザーになります。
  4. 必要に応じてクラスタ構成 XML ファイルを変更します。
    1. クラスタ構成 XML ファイルを編集するために開きます。
      • 既存のノードを複製する場合、clnode export コマンドで作成したファイルを開きます。
      • 既存のノードを複製しない場合は、新しいファイルを作成します。

        clconfiguration(5CL)のマニュアルページに示した要素の階層に基づいてファイルを作成して下さい。このファイルは任意のディレクトリに格納できます。

    2. XML 要素の値を作成するノード構成を反映するように変更します。

      クラスタ構成 XML ファイルの構造と内容の詳細については、clconfiguration(5CL)のマニュアルページを参照してください。

  5. クラスタ構成XMLファイルを確認します。
    phys-schost-new# xmllint --valid --noout clconfigfile
  6. 新しいクラスタノードを構成します。
    phys-schost-new# clnode add -n sponsornode -i clconfigfile
    -n sponsornode

    既存のクラスタメンバーの名前を新しいノードのスポンサーの役割を果たすように指定します。

    -i clconfigfile

    入力ソースとして使用するクラスタ構成 XML ファイルの名前を指定します。

  7. (省略可能) モニターされる共有ディスクパスがすべて失敗した場合、自動ノードリブートを有効にします。

    注 - 初期構成時に、検出されたすべてのデバイスについてディスクパスモニタリングがデフォルトで有効になります。


    1. 自動リブートを有効にします。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      設定するプロパティーを指定します。

      reboot_on_path_failure=enable

      モニターされる共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。

    2. ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

注意事項

構成の失敗 – 1 つ以上のノードがクラスタに参加できない場合、または間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正する方法ために Oracle Solaris Cluster ソフトウェアを構成解除する方法」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。そのあとで、この手順を再実行します。

次の手順

定足数デバイスを使用する既存のクラスタに新しいノードを追加した場合は、「グローバルクラスタへのノード追加後に定足数デバイスを更新する方法」に進みます。

それ以外の場合は、「定足数構成とインストールモードを確認する方法」に進みます。

グローバルクラスタへのノード追加後に定足数デバイスを更新する方法

グローバルクラスタにノードを追加したら、共有ディスク、NAS デバイス、定足数サーバー、またはこれらの組み合わせのどれを使用しているかにかかわらず、定足数デバイスの構成情報を更新する必要があります。これを行うには、定足数デバイスをすべて削除して、グローバルデバイスの名前空間を更新します。必要に応じて、使用を継続する定足数デバイスを再構成することもできます。これにより、それぞれの定足数デバイスに新しいノードが登録され、クラスタ内の新しいノード数に基づいて、定足数デバイスの投票数が再計算されます。

新しく構成された SCSI 定足数デバイスは、SCSI-3 予約に設定されます。

始める前に

追加されたノードへの Oracle Solaris Cluster ソフトウェアのインストールが完了したことを確認します。

  1. クラスタの任意のノードで、スーパーユーザーになります。
  2. クラスタノードがすべてオンラインであることを確認します。
    phys-schost# cluster status -t node
  3. 現在の定足数構成を表示します。

    コマンド出力にそれぞれの定足数デバイスとノードの一覧が表示されます。次の出力例は、現在の SCSI 定足数デバイス d3 を示しています。

    phys-schost# clquorum list
    d3
    …
  4. それぞれの定足数デバイスの名前が表示されていることに注意してください。
  5. 元の定足数デバイスを削除します。

    構成する定足数デバイスごとにこの手順を実行します。

    phys-schost# clquorum remove devicename
    devicename

    定足数デバイスの名前を指定します。

  6. 元の定足数デバイスがすべて削除されたことを確認します。

    定足数デバイスの削除が成功した場合、定足数デバイスの一覧は表示されません。

    phys-schost# clquorum status
  7. グローバルデバイスの名前空間を更新します。
    phys-schost# cldevice populate

    注 - この手順はノードのパニックを防ぐために必要です。


  8. 各ノードで、定足数デバイスを追加する前に cldevice populate コマンドが処理を完了していることを確認します。

    cldevice populate コマンドは、1 つのノードからのみ発行されても、リモートからすべてのノードで実行されます。 cldevice populate コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。

    phys-schost# ps -ef | grep scgdevs
  9. (省略可能) 定足数デバイスを追加します。

    もともと定足数デバイスとして構成されていたデバイスと同じデバイスを構成するか、構成する新しい共有デバイスを選択することができます。

    1. (省略可能) 定足数デバイスとして構成する新しい共有デバイスを選択する場合は、システムがチェックするすべてのデバイスを表示します。

      それ以外の場合は、手順 c に進みます。

      phys-schost# cldevice list -v

      出力は次のようになります。

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0 
      …
    2. 出力から、定足数デバイスとして構成する共有デバイスを選択します。
    3. この共有デバイスを定足数デバイスとして構成します。
      phys-schost# clquorum add -t type devicename
      -t type

      定足数デバイスの種類を指定します。このオプションを指定しない場合、デフォルトの種類である shared_disk が使用されます。

    4. 構成する定足数デバイスごとにこの手順を繰り返します。
    5. 新しい定足数構成を確認します。
      phys-schost# clquorum list

      出力には、それぞれの定足数デバイスとノードの一覧が表示されるはずです。

例 3-4 2 ノードクラスタへのノードの追加後に SCSI 定足数デバイスを更新する

次の例では、元の SCSI 定足数デバイス d2 を特定し、この定足数デバイスを削除し、使用できる共有デバイスの一覧を表示し、グローバルデバイスの名前空間を更新し、d3 を新しい SCSI 定足数デバイスとして構成して、新しいデバイスを検証します。

phys-schost# clquorum list
d2
phys-schost-1
phys-schost-2

phys-schost# clquorum remove d2
phys-schost# clquorum status
…
--- Quorum Votes by Device ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------

phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
…
d3                  phys-schost-2:/dev/rdsk/c1t1d0
d3                  phys-schost-1:/dev/rdsk/c1t1d0
…
phys-schost# cldevice populate
phys-schost# ps -ef - grep scgdevs
phys-schost# clquorum add d3
phys-schost# clquorum list
d3
phys-schost-1
phys-schost-2

次の手順

「定足数構成とインストールモードを確認する方法」に進みます。

定足数デバイスを構成する方法


注 - 次の場合は定足数デバイスを構成する必要はありません。

代わりに、「定足数構成とインストールモードを確認する方法」に進みます。


次の手順は、新しいクラスタが完全に形成された後に一度だけ実行します。この手順で定足数投票を割り当て、クラスタのインストールモードを解除します。

始める前に

  1. 次の両方の条件が当てはまる場合、各クラスタノードでパブリックネットワーク用のネットマスクファイルエントリを変更します。
    • 定足数サーバーを使用する場合。

    • パブリックネットワークが、classless inter domain routing (CIDR) とも称せられる可変長のサブネットマスキングを使用する場合。

    定足数サーバーを使用するが、パブリックネットワークが RFC 791 で定義されたようにクラスフルサブネットを使用する場合、この手順を実行する必要はありません。

    1. /etc/inet/netmasks ファイルにクラスタが使用する各パブリックサブネットのエントリを追加します。

      パブリックネットワークの IP アドレスとネットマスクを含むエントリの例を次に示します。

      10.11.30.0    255.255.255.0
    2. それぞれの /etc/hostname.adapter ファイルに netmask + broadcast + を追加します。
      nodename netmask + broadcast +
  2. 1 つのノードで、スーパーユーザーになります。
  3. クラスタノードがすべてオンラインであることを確認します。
    phys-schost# cluster status -t node
  4. 共有ディスクを定足数デバイスとして使用するには、デバイスのクラスタノードへの接続を確認し、構成するデバイスを選択します。
    1. クラスタの 1 つのノードから、システムがチェックするすべてのデバイスの一覧を表示します。

      このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。

      phys-schost-1# cldevice list -v

      出力は次のようになります。

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0
      …
    2. 出力にクラスタノードとストレージデバイス間のすべての接続が表示されていることを確認します。
    3. 定足数デバイスとして構成する各共有ディスクのグローバルデバイス ID 名を決定します。

      注 - 共有ディスクを選択した場合は、その共有ディスクが定足数デバイスとして使用する権限を持つ必要があります。定足数デバイスの選択の詳細については、「定足数デバイス」を参照してください。


      手順 ascdidadm の出力を使用して、定足数デバイスとして構成する各共有ディスクのデバイス ID 名を識別します。たとえば、手順 a の出力はグローバルデバイス d3phys-schost-1phys-schost-2 によって共有されていることを示しています。

  5. SCSI プロトコルをサポートしない共有ディスクを使用する場合は、その共有ディスクに対してフェンシングが無効になっているか確認してください。
    1. 個々のディスクのフェンシング設定が表示されます。
      phys-schost# cldevice show device
      
      === DID Device Instances ===
      DID Device Name:                                      /dev/did/rdsk/dN
      …
        default_fencing:                                     nofencing
      • ディスクのフェンシングが nofencing または nofencing-noscrub に設定されている場合は、そのディスクのフェンシングは無効化されます。手順 6 に進みます。
      • ディスクのフェンシングが pathcount または scsi に設定されている場合は、そのディスクのフェンシングを無効化します。手順 c に進みます。
      • ディスクのフェンシングが global に設定されている場合は、フェンシングもグローバルに無効化するかどうかを決定します。手順 b に進みます。

        代わりに、単に各ディスクのフェンシングを無効化することもできます (そのディスクの global_fencing プロパティーは、どのような値が設定されていてもオーバーライドされます)。手順 c に進んで、各ディスクのフェンシングを無効化します。

    2. フェンシングをグローバルに無効化するかどうかを決定します。
      phys-schost# cluster show -t global
      
      === Cluster ===
      Cluster name:                                         cluster
      …
         global_fencing:                                      nofencing
      • グローバルフェンシングが nofencing または nofencing-noscrub に設定されている場合は、default_fencing プロパティーが global に設定されている共有ディスクのフェンシングが無効化されます。手順 6 に進みます。
      • グローバルフェンシングが pathcount または prefer3 に設定されている場合は、共有ディスクのフェンシングを無効化します。手順 c に進みます。

      注 - 各ディスクの default_fencing プロパティーが global に設定されている場合は、クラスタ全体の global_fencing プロパティーが nofencing または nofencing-noscrub に設定されている場合にのみ、各ディスクのフェンシングが無効化されます。global_fencing プロパティーをフェンシングを有効化する値に変更すると、default_fencing プロパティーが global に設定されているすべてのディスクのフェンシングが有効化されます。


    3. 共有ディスクのフェンシングを無効化します。
      phys-schost# cldevice set \
      -p default_fencing=nofencing-noscrub device
    4. 共有ディスクのフェンシングが無効になっていることを確認します。
      phys-schost# cldevice show device
  6. clsetup ユーティリティーを起動します。
    phys-schost# clsetup

    「初期クラスタ設定」画面が表示されます。


    注 - 代わりに「メインメニュー」が表示された場合は、クラスタの初期設定はすでに正しく行われています。手順 11 に進みます。


  7. 定足数デバイスを追加しますか ?」と尋ねるプロンプトに答えます。
    • クラスタが 2 ノードクラスタの場合、1 つ以上の共有定足数デバイスを構成する必要があります。1 つ以上の定足数デバイスを構成するには、「Yes」 と入力します。
    • クラスタに 3 つ以上のノードがある場合、定足数デバイス構成はオプションです。
      • 追加の定足数デバイスを構成しない場合は、「No」 と入力します。次に、手順 10 にスキップします。
      • 1 つ以上の定足数デバイスを構成するには、「Yes」 と入力します。続いて手順 8 に進みます。
  8. 定足数デバイスとして構成するデバイスの種類を指定します。
    定足数デバイスの種類
    説明
    shared_disk
    以下の共有 LUN
    • 共有 SCSI ディスク

    • Serial Attached Technology Attachment (SATA) ストレージ

    • Sun NAS

    • Sun ZFS Storage Appliance

    quorum_server
    定足数サーバー
  9. 定足数デバイスとして構成するデバイスの名前を指定します。

    定足数サーバーの場合、次の情報も指定します。

    • 定足数サーバーのホストコンピュータの IP アドレス

    • クラスタノードとやり取りする際に定足数サーバーが使用するポート番号

  10. 「installmode」をリセットしますか ?」というプロンプトが表示されたら、Yes と入力します。

    clsetup ユーティリティーによって、クラスタの定足数構成と投票数が設定されたあと、「クラスタの初期化は完了しました。」というメッセージが表示されます。ユーティリティーは、「メインメニュー」に戻ります。

  11. clsetup ユーティリティーを終了します。

次の手順

定足数構成とインストールモードが無効になっていることを確認します。「定足数構成とインストールモードを確認する方法」に進みます。

注意事項

中断された clsetup 処理 - 定足数設定プロセスが中断されるか、完了に失敗した場合は、clsetup を再実行してください。

定足投票数の変更 – 定足数デバイスに対するノード接続の数をあとで増減させる場合、定足投票数が自動的に再計算されることはありません。各定足数デバイスを一度に 1 つずつ取り外してもう一度構成に追加することにより、正しい定足数投票をもう一度確立できます。2 ノードクラスタの場合、定足数デバイスを取り外して、もとの定足数デバイスに戻す前に一時的に新しい定足数デバイスを追加します。次に一時的に追加した定足数デバイスを取り外します。『Oracle Solaris Cluster システム管理』の第 6 章「定足数の管理」の「定足数デバイスのノードリストを変更する」手順を参照してください。

到達不可能な定足数デバイス – クラスタノードで定足数デバイスが到達不可能というメッセージが表示される場合、またはクラスタノードで「CMM: 定足数デバイスを獲得できません」というエラーメッセージが表示される場合、定足数デバイスまたは定足数デバイスへのパスに問題がある可能性があります。定足数デバイスおよび定足数デバイスへのパスが機能していることを確認してください。

引き続き問題が発生する場合、別の定足数デバイスを使用します。また、同じ定足数デバイスを使用する場合は、定足数のタイムアウトを次のように高い値に増やします。


注 - Oracle Real Application Clusters (Oracle RAC) の場合は、デフォルトの定足数タイムアウトである 25 秒を変更しないでください。一部のスプリットブレインシナリオでは、タイムアウト時間を長くすると、VIP リソースのタイムアウトが原因で Oracle RAC VIP フェイルオーバーが失敗する可能性があります。使用している定足数デバイスがデフォルトの 25 秒のタイムアウトに適合しない場合は、別の定足数デバイスを使用してください。


定足数構成とインストールモードを確認する方法

定足数を構成した場合に定足数の構成が正常に終了したことを確認し、クラスタのインストールモードが無効になっていることを確認するには、この手順を実行します。

これらのコマンドを実行するために、スーパーユーザーである必要はありません。

  1. 任意のグローバルノードから、デバイスとノードの定足数構成を確認します。
    phys-schost% clquorum list

    出力には、それぞれの定足数デバイスとノードの一覧が表示されます。

  2. 任意のノードから、クラスタのインストールモードが無効になっていることを確認します。
    phys-schost% cluster show -t global | grep installmode
      installmode:                                    disabled

    クラスタのインストールと作成が完了しました。

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

参照

クラスタ構成のバックアップを取ります。

クラスタ構成のバックアップを保存しておけば、クラスタ構成の回復がより簡単になります。詳細は、『Oracle Solaris Cluster システム管理』の「クラスタ構成をバックアップする方法」を参照してください。

プライベートホスト名を変更する方法

このタスクは、Oracle Solaris Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid -priv) を使用しない場合に実行します。


注 - この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。


クラスタの 1 つのアクティブなノードで次の手順を実行します。

  1. グローバルクラスタノード上でスーパーユーザーになります。
  2. clsetup ユーティリティーを起動します。
    phys-schost# clsetup

    clsetup のメインメニューが表示されます。

  3. 「プライベートホスト名」オプションの番号を入力し、Return キーを押します。

    「プライベートホスト名」メニューが表示されます。

  4. 「プライベートホスト名を変更」オプションの番号を入力し、Return キーを押します。
  5. プロンプトに従って、プライベートホスト名を変更します。

    変更するプライベートホスト名ごとに繰り返します。

  6. 新しいプライベートホスト名を確認します。
    phys-schost# clnode show -t node | grep privatehostname
      privatehostname:                                clusternode1-priv
      privatehostname:                                clusternode2-priv
      privatehostname:                                clusternode3-priv

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

ノード間でのリソースグループの負荷分散の構成

負荷制限を設定することにより、ノードまたはゾーン間でのリソースグループの自動負荷分散を有効にすることができます。リソースグループに負荷係数を割り当てると、その負荷係数はノードの定義済み負荷制限に対応します。

デフォルトの動作では、リソースグループの負荷は、すべての使用可能なノードに均等に分散されます。各リソースグループはそのノードリストのノード上で起動されます。Resource Group Manager (RGM) は、構成済みの負荷分散ポリシーをもっとも満たしているノードを選択します。RGM によってリソースグループがノードに割り当てられると、各ノードのリソースグループの負荷係数が合計され、合計負荷が算出されます。 次に、合計負荷がそのノードの負荷制限と比較されます。

負荷制限は、グローバルクラスタまたはゾーンクラスタで構成できます。

各ノードでの負荷分散を制御するために設定する係数には、負荷制限、リソースグループ優先度、およびプリエンプションモードがあります。グローバルクラスタでは、Concentrate_load プロパティーを設定することで、負荷制限を超過しない範囲で可能な最小限のノードにリソースグループの負荷を集中させるか、使用可能なすべてのノードにできるだけ均等に負荷を分散させるか、優先する負荷分散ポリシーを選択できます。デフォルトの動作は、リソースグループの負荷を分散させます。各リソースグループはまだ、負荷係数および負荷制限の設定とは関係なく、そのノードリスト内のノード上でのみ実行するように制限されています。


注 - コマンド行、Oracle Solaris Cluster Manager インタフェース、または clsetup ユーティリティーを使用して、リソースグループの負荷分散を構成できます。次の手順は、clsetup ユーティリティーを使用して、リソースグループの負荷分散を構成する方法を示したものです。コマンド行を使用してこれらの手順を実行する方法については、『Oracle Solaris Cluster システム管理』の「負荷制限の構成」を参照してください。


ここでは、次の手順について説明します。

ノードの負荷制限を構成する方法

各クラスタノードまたはゾーンには、それ自体の一連の負荷制限を設定できます。リソースグループに負荷係数を割り当てると、その負荷係数はノードの定義済み負荷制限に対応します。弱い負荷制限 (超過できる) を設定することも、強い負荷制限 (超過できない) を設定することもできます。

  1. クラスタのアクティブなノードの 1 つでスーパーユーザーになります。
  2. clsetup ユーティリティーを起動します。
    phys-schost# clsetup

    clsetup メニューが表示されます。

  3. 「その他のクラスタタスク」メニュー項目を選択します。

    「ほかのクラスタタスクメニュー」が表示されます。

  4. 「リソースグループの負荷分散の管理」メニュー項目を選択します。

    「リソースグループ負荷分散管理メニュー」が表示されます。

  5. 「負荷制限の管理」メニュー項目を選択します。

    「負荷制限の管理」メニューが表示されます。

  6. yes と入力し、Return キーを押して続行します。
  7. 実行する操作に対応するオプション番号を入力し、Return キーを押します。

    負荷制限を作成、負荷制限を変更、または負荷制限を削除できます。

  8. 負荷制限を作成することにした場合、負荷制限を設定するノードに対応するオプション番号を選択します。

    2 番目のノードで負荷制限を設定する場合は、2 番目のノードに対応するオプション番号を選択して、Return キーを押します。負荷制限を構成するすべてのノードを選択したあとで、q と入力して Return キーを押します。

  9. yes と入力して Return キーを押し、手順 8 で選択したノードを確定します。
  10. 負荷制限の名前を入力して Return キーを押します。

    たとえば、負荷制限の名前として mem_load と入力します。

  11. 弱い制限値を指定するかどうかについて yes または no を入力し、Return キーを押します。

    yes と入力した場合は、弱い制限値を入力して Enter キーを押します。

  12. 強い制限値を指定するかどうかについて yes または no を入力し、Return キーを押します。

    yes と入力した場合は、強い制限値を入力して Enter キーを押します。

  13. yes と入力して Return キーを押し、負荷制限の作成を開始します。
  14. yes と入力して更新を開始し、Return キーを押します。

    コマンドが正常に完了しました」というメッセージが、選択したノードの弱い制限値および強い制限値とともに表示されます。Return キーを押して続行します。

  15. clsetup ユーティリティーのプロンプトに従って、負荷制限を変更または削除できます。

    q と入力し Return キーを押して、前のメニューに戻ります。

リソースグループの優先度を設定する方法

高い優先度を持つようにリソースグループを構成すると、特定のノードから移動させられる可能性が低くなります。負荷制限を超過した場合、優先度の低いリソースグループを強制的にオフラインにすることができます。

  1. クラスタのアクティブなノードの 1 つでスーパーユーザーになります。
  2. clsetup ユーティリティーを起動します。
    phys-schost# clsetup

    clsetup メニューが表示されます。

  3. 「その他のクラスタタスク」メニュー項目を選択します。

    「ほかのクラスタタスクメニュー」が表示されます。

  4. 「リソースグループの負荷分散の管理」メニュー項目を選択します。

    「リソースグループ負荷分散管理メニュー」が表示されます。

  5. 「リソースグループごとの優先順位の設定」メニュー項目を選択します。

    「リソースグループの優先順位の設定」メニューが表示されます。

  6. yes と入力し、Return キーを押します。
  7. リソースグループに対応するオプションを入力し、Return キーを押します。

    既存の優先度の値が表示されます。デフォルトの優先度の値は 500 です。

  8. 新しい優先度の値を入力し、Return キーを押します。
  9. yes と入力して入力を確認し、Return キーを押します。
  10. Return キーを押して前のメニューに戻ります。

    「リソースグループ負荷分散管理メニュー」が表示されます。

リソースグループの負荷係数を設定する方法

負荷係数とは、負荷制限に関して負荷に割り当てる値です。負荷係数はリソースグループに割り当てられ、これらの負荷係数はノードの定義済みの負荷制限に対応します。

  1. クラスタのアクティブなノードの 1 つでスーパーユーザーになります。
  2. clsetup ユーティリティーを起動します。
    phys-schost# clsetup

    clsetup メニューが表示されます。

  3. 「その他のクラスタタスク」メニュー項目を選択します。

    「ほかのクラスタタスクメニュー」が表示されます。

  4. 「リソースグループの負荷分散の管理」メニュー項目を選択します。

    「リソースグループ負荷分散管理メニュー」が表示されます。

  5. 「リソースグループごとの負荷係数の設定」メニュー項目を選択します。

    「リソースグループの負荷係数の設定」メニューが表示されます。

  6. yes と入力し、Return キーを押します。
  7. リソースグループのオプションの番号を入力し、Return キーを押します。
  8. 適切な負荷係数を入力します。

    たとえば、mem_load@50 と入力することにより、選択したリソースグループに対して mem_load という負荷係数を設定できます。終了したら、Ctrl-D を押します。

  9. Return キーを押して更新を開始します。
  10. Return キーを押して前のメニューに戻ります。

    「リソースグループ負荷分散管理メニュー」が表示されます。

リソースグループのプリエンプションモードを設定する方法

preemption_mode プロパティーは、リソースグループが、ノードの過負荷のために、優先度の高いリソースグループによってノードから横取りされるかどうかを指定します。このプロパティーはノード間でリソースグループを移動するコストを示します。

  1. クラスタのアクティブなノードの 1 つでスーパーユーザーになります。
  2. clsetup ユーティリティーを起動します。
    phys-schost# clsetup

    clsetup メニューが表示されます。

  3. 「その他のクラスタタスク」メニュー項目を選択します。

    「ほかのクラスタタスクメニュー」が表示されます。

  4. 「リソースグループの負荷分散の管理」メニュー項目を選択します。

    「リソースグループ負荷分散管理メニュー」が表示されます。

  5. 「リソースグループごとのプリエンプションモードの設定」メニュー項目を選択します。

    「リソースグループのプリエンプションモードの設定」メニューが表示されます。

  6. yes と入力し、Return キーを押して続行します。
  7. リソースグループのオプションの番号を入力し、Return キーを押します。

    リソースグループにプリエンプションモードが設定されている場合は、次のように表示されます。

    The preemption mode property of "rg11" is currently set to the following: preemption mode:  Has_Cost
  8. プリエンプションモードのオプションの番号を入力し、Return キーを押します。

    選択肢は Has_costNo_costNever の 3 つです。

  9. yes と入力して更新を開始し、Return キーを押します。
  10. Return キーを押して前のメニューに戻ります。

    「リソースグループ負荷分散管理メニュー」が表示されます。

クラスタ内の少数のノードに負荷を集中させる方法

Concentrate_load プロパティーを false に設定すると、クラスタは、利用できるすべてのノードにわたって均等にリソースグループの負荷を分散させます。このプロパティーを True に設定すると、クラスタは、負荷制限を超過しない範囲で可能な最小限のノードにリソースグループの負荷を集中させようとします。デフォルトでは、Concentrate_load プロパティーは False に設定されています。Concentrate_load プロパティーを設定できるのはグローバルクラスタ内だけであり、ゾーンクラスタでこのプロパティーを設定することはできません。ゾーンクラスタでは、デフォルト設定は常に False です。

  1. クラスタのアクティブなノードの 1 つでスーパーユーザーになります。
  2. clsetup ユーティリティーを起動します。
    phys-schost# clsetup

    clsetup メニューが表示されます。

  3. 「その他のクラスタタスク」メニュー項目を選択します。

    「ほかのクラスタタスクメニュー」が表示されます。

  4. 「クラスタの concentrate_load プロパティーを設定します」メニュー項目を選択します。

    「クラスタの負荷集中プロパティーの設定」メニューが表示されます。

  5. yes と入力し、Return キーを押します。

    TRUE または FALSE の現在の値が表示されます。

  6. yes と入力して値を変更し、Return キーを押します。
  7. yes と入力して更新を開始し、Return キーを押します。
  8. Return キーを押して前のメニューに戻ります。

    「ほかのクラスタタスクメニュー」が表示されます。

時間情報プロトコル (NTP) を構成する方法


注 - Oracle Solaris Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールした場合は、この手順を実行する必要はありません。次の手順を決めます。


次のタスクのいずれかを実行したあとで、このタスクを実行して NTP 構成ファイルを作成または変更します。

単一ノードクラスタにノードを追加した場合、使用する NTP 構成ファイルが元のクラスタノードおよび新しいノードにコピーされていることを確認する必要があります。

  1. クラスタノード上でスーパーユーザーになります。
  2. 独自の /etc/inet/ntp.conf ファイルがある場合は、クラスタのノードにファイルをコピーします。
  3. インストールする独自の /etc/inet/ntp.conf ファイルがない場合は、NTP 構成ファイルとして /etc/inet/ntp.conf.cluster ファイルを使用します。

    注 - ntp.conf.cluster ファイルの名前を ntp.conf に変更しないでください。


    /etc/inet/ntp.conf.cluster ファイルがノード上に存在しない場合、以前にインストールした Oracle Solaris Cluster ソフトウェアの /etc/inet/ntp.conf ファイルが存在する可能性があります。/etc/inet/ntp.conf ファイルがまだノード上に存在していない場合、Oracle Solaris Cluster ソフトウェアは NTP 構成ファイルとして /etc/inet/ntp.conf.cluster ファイルを作成します。この場合は代わりに、その ntp.conf ファイルで次の編集を実行します。

    1. 任意のテキストエディタを使用して、クラスタの 1 つのノードで、NTP 構成ファイルを編集するために開きます。
    2. 各クラスタノードのプライベートホスト名用のエントリが存在することを確認します。

      ノードのプライベートホスト名を変更した場合、新しいプライベートホスト名が NTP 構成ファイルに含まれていることを確認します。

    3. 必要に応じて、NTP 要件を満たすようにその他の変更を行います。
    4. クラスタ内のすべてのノードに NTP 構成ファイルをコピーします。

      NTP 構成ファイルの内容はすべてのノードで同一にする必要があります。

  4. 各ノードで NTP デーモンを停止します。

    各ノードでコマンドが正しく完了するまで待機してから、手順 5 に進みます。

    phys-schost# svcadm disable ntp
  5. 各ノードで NTP デーモンを再起動します。
    • ntp.conf.cluster ファイルを使用する場合は、次のコマンドを実行します。
      phys-schost# /etc/init.d/xntpd.cluster start

      xntpd.cluster 起動スクリプトは、最初に /etc/inet/ntp.conf ファイルを検索します。

      • ntp.conf ファイルが存在する場合、スクリプトは NTP デーモンを起動せずにすぐに終了します。

      • ntp.conf ファイルは存在しないが ntp.conf.cluster ファイルは存在する場合、スクリプトは NTP デーモンを起動します。この場合、スクリプトは ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。

    • ntp.conf ファイルを使用する場合は、次のコマンドを実行します。
      phys-schost# svcadm enable ntp

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

クラスタプライベートインターコネクト上で IP セキュリティーアーキテクチャー (IPsec) を構成する方法

clprivnet インタフェースで、クラスタインターコネクト上でのセキュアな TCP/IP 通信を提供するために、IP セキュリティーアーキテクチャー (IPsec) を構成できます。

IPsec については、『Oracle Solaris の管理: IP サービス』のパート IV「IP セキュリティー」と、ipsecconf(1M) のマニュアルページを参照してください。clprivnet インタフェースについては、clprivnet(7) のマニュアルページを参照してください。

IPsec を使用するように構成する各グローバルクラスタ投票ノードで、次の手順を実行します。

  1. スーパーユーザーになります。
  2. 各ノードで、ノードの clprivnet インタフェースの IP アドレスを調べます。
    phys-schost# ifconfig clprivnet0
  3. 各ノードで、/etc/inet/ipsecinit.conf ポリシーファイルを構成し、IPsec を使用するプライベートインターコネクトの IP アドレスの各ペア間に、セキュリティーアソシエーション (SA) を追加します。

    『Oracle Solaris の管理: IP サービス』の「IPsec で 2 つのシステム間のトラフィックを保護するには」の説明に従ってください。さらに、次のガイドラインに従ってください。

    • これらのアドレスの構成パラメータの値がすべてのパートナーノードで一貫していることを確認します。

    • 構成ファイルで個別の行として各ポリシーを構成します。

    • リブートせずに IPsec を実装するには、「リブートしない IPsec によるトラフィックのセキュリティー保護」の手順例の説明に従ってください。

    sa unique ポリシーの詳細については、ipsecconf(1M) のマニュアルページを参照してください。

    1. それぞれのファイルで、IPsec を使用するクラスタ内の clprivnet IP アドレスごとに 1 つのエントリを追加します。

      ローカルノードの clprivnet IP アドレスを含めます。

    2. VNIC を使用する場合は、VNIC が使用する各物理インタフェースの IP アドレスにも 1 つのエントリを追加します。
    3. (省略可能) すべてのリンクでデータのストライプ化を有効にするには、sa unique ポリシーをエントリに含めます。

      この機能を使用すると、ドライバは、クラスタプライベートネットワークの帯域幅を最適に利用することができるため、非常にきめ細かな分散を行うことができ、スループットも向上します。clprivnet インタフェースは、パケットのセキュリティーパラメータインデックス (SPI) を使用してトラフィックをストライプ化します。

  4. 各ノードで、/etc/inet/ike/config ファイルを編集して p2_idletime_secs パラメータを設定します。

    クラスタトランスポート用に構成されたポリシールールにこのエントリを追加します。この設定により、クラスタノードがリブートするときに再生成されるセキュリティーアソシエーションの時間が指定され、リブートしたノードがクラスタに再度参加できる速度が制限されます。30 秒の値が適切です。

    phys-schost# vi /etc/inet/ike/config
    …
    {
        label "clust-priv-interconnect1-clust-priv-interconnect2"
    …
    p2_idletime_secs 30
    }
    …

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

それ以外の場合は、ハードウェアおよびソフトウェアのインストールと構成のタスクをすべて完了したら、クラスタを検証します。「クラスタの妥当性を検査する方法」に進みます。

クラスタの妥当性を検査する方法

クラスタのすべての構成を完了したら、cluster check コマンドを使用して、クラスタの構成と機能を検証します。詳細は、cluster(1CL) のマニュアルページを参照してください。


ヒント - 今後の参照またはトラブルシューティングが容易になるように、実行する検証ごとに、-o outputdir オプションを使用してログファイルのサブディレクトリを指定します。既存のサブディレクトリ名を再使用すると、そのサブディレクトリにある既存のファイルすべてが削除されます。そのため、今後の参照のためにログファイルを使用できるようにするには、実行するクラスタチェックごとに固有のサブディレクトリ名を指定します。


始める前に

クラスタ内のすべてのハードウェアおよびソフトウェアコンポーネント (ファームウェアとパッチを含む) のインストールと構成を完了したことを確認します。

  1. 各クラスタのノードのスーパーユーザーになります。
  2. 最新のチェックがあることを確認します。

    My Oracle Support の「パッチと更新版」タブを参照します。詳細検索を使用して、「製品」に「Solaris Cluster」を選択し、「説明」フィールドに「check」と指定して、check を含む Oracle Solaris Cluster パッチを探します。まだクラスタにインストールされていないパッチをすべて適用します。

  3. 基本の妥当性検査を実行します。
    # cluster check -v -o outputdir
    -v

    冗長モード

    -o outputdir

    outputdir サブディレクトリに出力をリダイレクトします。

    このコマンドによって、すべての使用可能な基本検査が実行されます。クラスタ機能には影響はありません。

  4. インタラクティブな妥当性検査を実行します。
    # cluster check -v -k interactive -o outputdir
    -k interactive

    実行するインタラクティブな妥当性検査を指定します。

    このコマンドで、すべての使用可能なインタラクティブ検査が実行され、クラスタについて必要な情報の入力が求められます。クラスタ機能には影響はありません。

  5. 機能の妥当性検査を実行します。
    1. 非冗長モードですべての使用可能な機能検査一覧が表示されます。
      # cluster list-checks -k functional
    2. どの機能検査が、本稼働環境でクラスタの可用性またはサービスを中断する可能性がある処理を実行するかを判断してください。

      たとえば、機能検査によって、ノードパニックまたは他のノードへのフェイルオーバーがトリガーされる可能性があります。

      # cluster list-checks -v -C checkID
      -C checkID

      特定の検査を指定します。

    3. クラスタの機能を中断するような機能検査を実行する場合、クラスタが本稼働状態から除外されるようにします。
    4. 機能検査を開始します。
      # cluster check -v -k functional -C checkid -o outputdir
      -k functional

      実行する機能の妥当性検査を指定します。

      検査の実行に必要な情報を確認し、実行に必要な情報または操作を求めるプロンプトに入力を行います。

    5. 実行する残りの機能検査ごとに、手順 c手順 d を繰り返します。

      注 - 記録を保存するために、実行する検査ごとに固有の outputdir サブディレクトリ名を指定します。outputdir 名を再利用する場合、新しい検査の出力によって、再利用した outputdir サブディレクトリの既存の内容が上書きされます。


例 3-5 インタラクティブな妥当性検査のリスト

クラスタで実行するために使用できるすべてインタラクティブな妥当性検査の例を以下に示します。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

例 3-6 機能の妥当性検査の実行

まず、次の例は機能検査の詳細なリストを示します。検査 F6968101 の詳細な説明が表示されます。この説明で、検査によってクラスタサービスが中断されることがわかります。クラスタは稼働状態ではなくなります。機能検査が実行され、funct.test.F6968101.12Jan2011 サブディレクトリに詳細な出力が記録されます。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

次の手順

クラスタを稼動させる前に、将来の診断のためにクラスタ構成の基準値レコードを作成します。「クラスタ構成の診断データを記録する方法」に進みます。

クラスタ構成の診断データを記録する方法

グローバルクラスタの構成が完了したら、本番稼動させる前に、Oracle Explorer ユーティリティーを使用して、クラスタに関するベースライン情報を記録します。このデータは、将来、クラスタのトラブルシューティングが必要になった場合に使用できます。

  1. スーパーユーザーになります。
  2. Oracle Explorer ソフトウェアがまだインストールされていない場合は、インストールします。

    Services Tools Bundle には、Oracle Explorer パッケージの SUNWexploSUNWexplu が含まれています。ソフトウェアのダウンロードとインストールについては、http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html を参照してください。

  3. クラスタ内の各ノードで explorer ユーティリティーを実行します。

    プラットフォームに適したコマンドを使用します。たとえば、Oracle の Sun Fire T1000 サーバー上で情報を収集するには、次のコマンドを実行します。

    # explorer -i -w default,Tx000

    詳細については、/opt/SUNWexplo/man/man1m/ ディレクトリにある explorer(1M) のマニュアルページと、My Oracle Support の Note 1153444.1 経由で入手可能な 『Oracle Explorer Data Collector のユーザーガイド』を参照してください。

    https://support.oracle.com

    explorer の出力ファイルは、/opt/SUNWexplo/output/ ディレクトリに explorer.hostid.hostname-date.tar.gz として保存されます。

  4. クラスタ全体が停止した場合は、ファイルをアクセスできる場所に保存します。
  5. すべての explorer ファイルを、お住まいの地域の Oracle Explorer データベースエイリアスに電子メールで送信します。

    FTP または HTTPS を使用して Oracle Explorer ファイルを送信するには、Oracle Explorer Data Collector のユーザーガイドの手順に従ってください。

    Oracle Explorer データベースは、ユーザーのクラスタの技術的な問題を診断するためにデータが必要な場合に、ユーザーの explorer 出力を Oracle の技術サポートが使用できるようにします。