Sun Cluster ソフトウェアのインストール (Solaris OS 版)

グローバルクラスタノード上での非大域ゾーンの設定

このセクションでは、次に示すグローバルクラスタノード上でのグローバル以外のゾーンの作成手順について説明します。

Procedureグローバルクラスタノードに非大域ゾーンを作成する

グローバルクラスタに作成する非大域ゾーンごとに、この手順を実行してください。


注 –

ゾーンのインストールの詳細は、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』を参照してください。


ノードがクラスタモードまたは非クラスタモードで起動される間に、クラスタノードに Solaris 10 非大域ゾーン (以下単に「ゾーン」と呼ぶ) を設定することができます。

始める前に

次の作業を実行します。

詳細については、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンの構成要素」を参照してください。

  1. 非投票ノードを作成するグローバルクラスタノードでスーパーユーザーになります。

    大域ゾーンで作業してください。

  2. Solaris 10 OS の場合、各ノードでサービス管理機能 (Service Management Facility、SMF) 用のマルチユーザーサービスがオンラインであることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. 新しいゾーンを構成、インストール、および起動します。


    注 –

    グローバルクラスタの非投票ノードでリソースグループ機能をサポートするには、autoboot プロパティーを true に設定にします。


    Solaris のマニュアルの手順に従ってください。

    1. 『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の第 18 章「非大域ゾーンの計画と構成 (手順)」の手順を実行します。

    2. 『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンのインストールと起動」の手順を実行します。

    3. 『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンの起動方法」の手順を実行します。

  4. ゾーンが ready 状態であることを確認します。


    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
    
  5. ip-type プロパティーが exclusive に設定されている完全ルートゾーンの場合: ゾーンで論理ホスト名リソースをホストする可能性がある場合は、大域ゾーンからメソッドディレクトリをマウントするファイルシステムリソースを構成します。


    phys-schost# zonecfg -z sczone
    zonecfg:sczone> add fs
    zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm
    zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm
    zonecfg:sczone:fs> set type=lofs
    zonecfg:sczone:fs> end
    zonecfg:sczone> exit
    
  6. (省略可能) 共有 IP ゾーンでは、プライベート IP アドレスとプライベートホスト名をゾーンに割り当てます。

    次のコマンドは、クラスタのプライベート IP アドレスの範囲から、使用可能な IP アドレスを選択し、割り当てます。またこのコマンドは、指定されたプライベートホスト名、またはホスト別名をゾーンに割り当て、割り当てられたプライベート IP アドレスにそれをマッピングします。


    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    
    -p

    プロパティーを指定します。

    zprivatehostname=hostalias

    ゾーンプライベートホスト名、またはホスト別名を指定します。

    node

    ノードの名前。

    zone

    グローバルクラスタの非投票ノードの名前。

  7. 初期内部ゾーン構成を実行します。

    『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「初期内部ゾーン構成を実行する」の手順に従います。次のどちらかの方法を選択します。

    • ゾーンにログインします。

    • /etc/sysidcfg ファイルを使用します。

  8. 非投票ノードで、nsswitch.conf ファイルを変更します。

    これらの変更により、クラスタ固有のホスト名と IP アドレスの検索をゾーンが解決できるようになります。

    1. ゾーンにログインします。


      phys-schost# zlogin -c zonename
      
    2. 編集するため /etc/nsswitch.conf ファイルを開きます。


      sczone# vi /etc/nsswitch.conf
      
    3. hosts エントリと netmasks エントリのルックアップの先頭に、cluster スイッチを追加し、その後に files スイッチを追加します。

      変更されたエントリは次のようになるはずです。


      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
    4. ほかのすべてのエントリでは、files スイッチが、エントリに一覧表示される最初のスイッチになるようにする必要があります。

    5. ゾーンを終了します。

  9. 排他的 IP ゾーンを作成した場合は、そのゾーン上の /etc/hostname.interface ファイルごとに IPMP グループを構成します。

    ゾーン内のデータサービストラフィックに使用されているパブリックネットワークアダプタごとに、IPMP グループを設定します。この情報は、大域ゾーンから継承されません。クラスタでの IPMP グループの設定については、「パブリックネットワーク」を参照してください。

  10. ゾーンにより使用されるすべての論理ホスト名リソースの名前とアドレスのマッピングを設定します。

    1. 名前とアドレスのマッピングを、ゾーン上の /etc/inet/hosts ファイルに追加します。

      この情報は、大域ゾーンから継承されません。

    2. ネームサーバーを使用している場合は、名前とアドレスのマッピングを追加します。

次の手順

非大域ゾーンにアプリケーションをインストールするには、スタンドアロンシステムの場合と同じ手順を実行します。非大域ゾーンにソフトウェアをインストールする手順については、アプリケーションのインストールマニュアルを参照してください。また、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンがインストールされている Solaris システムでのパッケージとパッチの追加および削除 (作業マップ)」も参照してください。

非大域ゾーンにデータサービスをインストールして設定する場合は、個々のデータサービスの Sun Cluster マニュアルを参照してください。

Procedureグローバル以外のゾーンに使用されているクラスタファイルシステムのHAStoragePlus リソースの構成方法

この手順を使用してクラスタファイルシステムをクラスタノード上で構成される native ブランドグローバル以外のゾーンで使用できるようにします。


注 –

グローバル以外のゾーンの native ブランドのみでこの手順を使用します。 solaris8 ブランドまたはゾーンクラスタで使用される クラスタ ブランドといった他のグローバル以外のゾーンのブランドでこの作業を実行できません。


  1. グローバルクラスタの 1 つのノード上で、スーパーユーザーになるか、 solaris.cluster.modify RBAC 承認を提供するロールを想定します。

  2. native ブランドグローバル以外のゾーンのノードリストを使用して、リソースグループを作成します。

    • 次のコマンドを使用して、ファイルオーバーリソースグループを作成します。


      phys-schost# clresourcegroup create -n node:zone[,…] resource-group
      
      -n node:zone

      リソースグループノードリストにグローバル以外のゾーンの名前を指定します。

      リソースグループ

      作成するリソースグループの名前。

    • 次のコマンドを使用してスケーラブルなリソースグループを作成します。


      phys-schost# clresourcegroup create -S -n node:zone[,…] resource-group
      
      -S

      リソースグループがスケーラブルであることを指定します。

  3. HAStoragePlus リソースタイプを登録します。


    phys-schost# clresourcetype register SUNW.HAStoragePlus
    
  4. ノードリストのグローバル以外のゾーンがある各グローバルクラスタノード上で、クラスタファイルシステムエントリを /etc/vfstab ファイルに追加します。

    クラスタファイルシステムの /etc/vfstab ファイルのエントリにマウントオプションの グローバル キーワードを含める必要があります。.

    詳細については、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』「Sample Entries in /etc/vfstab for Cluster File Systems」 を参照してください。

  5. HAStoragePlus リソースを作成し、ファイルシステムマウントポイントを定義します。


    phys-schost# clresource create -g resource-group -t SUNW.HAStoragePlus \
    -p FileSystemMountPoints="mount-point-list" hasp-resource
    
    -g resource-group

    新しいリソースが追加されるリソースグループの名前を指定します。

    -p FileSystemMountPoints="mount-point-list"

    リソースに 1 つ以上のファイルシステムマウントポイントを指定します。

    hasp-resource

    作成する HAStoragePlus リソース名

    リソースは有効状態で作成されます。

  6. resource-group にリソースを追加し、hasp-resource上にリソースの依存関係を設定します。.

    リソースグループに追加するリソースが複数ある場合、リソースごとに別のコマンドを使用してください。


    phys-schost# clresource create -g resource-group -t resource-type \
    -p Network_resources_used=hasp-resource resource
    
    -t resource-type

    リソースを作成するリソースの種類を指定します。

    -p Network_resources_used=hasp-resource

    リソースが HAStoragePlus リソース、 hasp-resourceに対して依存関係を持つことを指定します。.

    resource

    作成するリソース名。

  7. オンラインにし、HAStoragePlus リソースを含めるリソースグループを管理状態にします。.


    phys-schost# clresourcegroup online -M resource-group
    
    -M

    リソースグループが管理されていることを指定します。


例 7–1 グローバル以外のゾーンに使用されているクラスタファイルシステムの HAStoragePlus リソースの構成

次の例では、HA-Apache データサービスを管理するフェイルオーバーリソースグループ cfs-rg を作成します。リソースグループノードリストには、2 つのグローバル以外のゾーン、phys-schost-1 上の sczone1 および phys-schost-2 上の sczone1 が含まれます。 リソースグループには、HAStoragePlus リソース、hasp-rsおよび data-service リソース、apache-rsが含まれます。 ファイルシステムマウントポイントは、/global/local-fs/apacheです。


phys-schost-1# clresourcegroup create -n phys-schost-1:sczone1,phys-schost-2:sczone1 cfs-rg
phys-schost-1# clresourcetype register SUNW.HAStoragePlus

Add the cluster file system entry to the /etc/vfstab file on phys-schost-1
phys-schost-1# vi /etc/vfstab
#device            device         mount          FS    fsck    mount    mount
#to mount          to fsck        point          type  pass    at boot  options
#
/dev/md/kappa-1/dsk/d0 /dev/md/kappa-1/rdsk/d0 /global/local-fs/apache ufs 5 yes logging,global
Add the cluster file system entry to the /etc/vfstab file on phys-schost-2
phys-schost-2# vi /etc/vfstab

…
phys-schost-1# clresource create -g cfs-rg -t SUNW.HAStoragePlus \
-p FileSystemMountPoints="/global/local-fs/apache" hasp-rs
phys-schost-1# clresource create -g cfs-rg -t SUNW.apache \
-p Network_resources_used=hasp-rs apache-rs
phys-schost-1# clresourcegroup online -M cfs-rg