Sun Cluster ソフトウェアのインストール (Solaris OS 版)

第 7 章 グローバル以外のゾーンおよびゾーンクラスタの作成

この章では、次の項目について説明します。

グローバルクラスタノード上での非大域ゾーンの設定

このセクションでは、次に示すグローバルクラスタノード上でのグローバル以外のゾーンの作成手順について説明します。

Procedureグローバルクラスタノードに非大域ゾーンを作成する

グローバルクラスタに作成する非大域ゾーンごとに、この手順を実行してください。


注 –

ゾーンのインストールの詳細は、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』を参照してください。


ノードがクラスタモードまたは非クラスタモードで起動される間に、クラスタノードに Solaris 10 非大域ゾーン (以下単に「ゾーン」と呼ぶ) を設定することができます。

始める前に

次の作業を実行します。

詳細については、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンの構成要素」を参照してください。

  1. 非投票ノードを作成するグローバルクラスタノードでスーパーユーザーになります。

    大域ゾーンで作業してください。

  2. Solaris 10 OS の場合、各ノードでサービス管理機能 (Service Management Facility、SMF) 用のマルチユーザーサービスがオンラインであることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. 新しいゾーンを構成、インストール、および起動します。


    注 –

    グローバルクラスタの非投票ノードでリソースグループ機能をサポートするには、autoboot プロパティーを true に設定にします。


    Solaris のマニュアルの手順に従ってください。

    1. 『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の第 18 章「非大域ゾーンの計画と構成 (手順)」の手順を実行します。

    2. 『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンのインストールと起動」の手順を実行します。

    3. 『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンの起動方法」の手順を実行します。

  4. ゾーンが ready 状態であることを確認します。


    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
    
  5. ip-type プロパティーが exclusive に設定されている完全ルートゾーンの場合: ゾーンで論理ホスト名リソースをホストする可能性がある場合は、大域ゾーンからメソッドディレクトリをマウントするファイルシステムリソースを構成します。


    phys-schost# zonecfg -z sczone
    zonecfg:sczone> add fs
    zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm
    zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm
    zonecfg:sczone:fs> set type=lofs
    zonecfg:sczone:fs> end
    zonecfg:sczone> exit
    
  6. (省略可能) 共有 IP ゾーンでは、プライベート IP アドレスとプライベートホスト名をゾーンに割り当てます。

    次のコマンドは、クラスタのプライベート IP アドレスの範囲から、使用可能な IP アドレスを選択し、割り当てます。またこのコマンドは、指定されたプライベートホスト名、またはホスト別名をゾーンに割り当て、割り当てられたプライベート IP アドレスにそれをマッピングします。


    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    
    -p

    プロパティーを指定します。

    zprivatehostname=hostalias

    ゾーンプライベートホスト名、またはホスト別名を指定します。

    node

    ノードの名前。

    zone

    グローバルクラスタの非投票ノードの名前。

  7. 初期内部ゾーン構成を実行します。

    『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「初期内部ゾーン構成を実行する」の手順に従います。次のどちらかの方法を選択します。

    • ゾーンにログインします。

    • /etc/sysidcfg ファイルを使用します。

  8. 非投票ノードで、nsswitch.conf ファイルを変更します。

    これらの変更により、クラスタ固有のホスト名と IP アドレスの検索をゾーンが解決できるようになります。

    1. ゾーンにログインします。


      phys-schost# zlogin -c zonename
      
    2. 編集するため /etc/nsswitch.conf ファイルを開きます。


      sczone# vi /etc/nsswitch.conf
      
    3. hosts エントリと netmasks エントリのルックアップの先頭に、cluster スイッチを追加し、その後に files スイッチを追加します。

      変更されたエントリは次のようになるはずです。


      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
    4. ほかのすべてのエントリでは、files スイッチが、エントリに一覧表示される最初のスイッチになるようにする必要があります。

    5. ゾーンを終了します。

  9. 排他的 IP ゾーンを作成した場合は、そのゾーン上の /etc/hostname.interface ファイルごとに IPMP グループを構成します。

    ゾーン内のデータサービストラフィックに使用されているパブリックネットワークアダプタごとに、IPMP グループを設定します。この情報は、大域ゾーンから継承されません。クラスタでの IPMP グループの設定については、「パブリックネットワーク」を参照してください。

  10. ゾーンにより使用されるすべての論理ホスト名リソースの名前とアドレスのマッピングを設定します。

    1. 名前とアドレスのマッピングを、ゾーン上の /etc/inet/hosts ファイルに追加します。

      この情報は、大域ゾーンから継承されません。

    2. ネームサーバーを使用している場合は、名前とアドレスのマッピングを追加します。

次の手順

非大域ゾーンにアプリケーションをインストールするには、スタンドアロンシステムの場合と同じ手順を実行します。非大域ゾーンにソフトウェアをインストールする手順については、アプリケーションのインストールマニュアルを参照してください。また、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンがインストールされている Solaris システムでのパッケージとパッチの追加および削除 (作業マップ)」も参照してください。

非大域ゾーンにデータサービスをインストールして設定する場合は、個々のデータサービスの Sun Cluster マニュアルを参照してください。

Procedureグローバル以外のゾーンに使用されているクラスタファイルシステムのHAStoragePlus リソースの構成方法

この手順を使用してクラスタファイルシステムをクラスタノード上で構成される native ブランドグローバル以外のゾーンで使用できるようにします。


注 –

グローバル以外のゾーンの native ブランドのみでこの手順を使用します。 solaris8 ブランドまたはゾーンクラスタで使用される クラスタ ブランドといった他のグローバル以外のゾーンのブランドでこの作業を実行できません。


  1. グローバルクラスタの 1 つのノード上で、スーパーユーザーになるか、 solaris.cluster.modify RBAC 承認を提供するロールを想定します。

  2. native ブランドグローバル以外のゾーンのノードリストを使用して、リソースグループを作成します。

    • 次のコマンドを使用して、ファイルオーバーリソースグループを作成します。


      phys-schost# clresourcegroup create -n node:zone[,…] resource-group
      
      -n node:zone

      リソースグループノードリストにグローバル以外のゾーンの名前を指定します。

      リソースグループ

      作成するリソースグループの名前。

    • 次のコマンドを使用してスケーラブルなリソースグループを作成します。


      phys-schost# clresourcegroup create -S -n node:zone[,…] resource-group
      
      -S

      リソースグループがスケーラブルであることを指定します。

  3. HAStoragePlus リソースタイプを登録します。


    phys-schost# clresourcetype register SUNW.HAStoragePlus
    
  4. ノードリストのグローバル以外のゾーンがある各グローバルクラスタノード上で、クラスタファイルシステムエントリを /etc/vfstab ファイルに追加します。

    クラスタファイルシステムの /etc/vfstab ファイルのエントリにマウントオプションの グローバル キーワードを含める必要があります。.

    詳細については、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』「Sample Entries in /etc/vfstab for Cluster File Systems」 を参照してください。

  5. HAStoragePlus リソースを作成し、ファイルシステムマウントポイントを定義します。


    phys-schost# clresource create -g resource-group -t SUNW.HAStoragePlus \
    -p FileSystemMountPoints="mount-point-list" hasp-resource
    
    -g resource-group

    新しいリソースが追加されるリソースグループの名前を指定します。

    -p FileSystemMountPoints="mount-point-list"

    リソースに 1 つ以上のファイルシステムマウントポイントを指定します。

    hasp-resource

    作成する HAStoragePlus リソース名

    リソースは有効状態で作成されます。

  6. resource-group にリソースを追加し、hasp-resource上にリソースの依存関係を設定します。.

    リソースグループに追加するリソースが複数ある場合、リソースごとに別のコマンドを使用してください。


    phys-schost# clresource create -g resource-group -t resource-type \
    -p Network_resources_used=hasp-resource resource
    
    -t resource-type

    リソースを作成するリソースの種類を指定します。

    -p Network_resources_used=hasp-resource

    リソースが HAStoragePlus リソース、 hasp-resourceに対して依存関係を持つことを指定します。.

    resource

    作成するリソース名。

  7. オンラインにし、HAStoragePlus リソースを含めるリソースグループを管理状態にします。.


    phys-schost# clresourcegroup online -M resource-group
    
    -M

    リソースグループが管理されていることを指定します。


例 7–1 グローバル以外のゾーンに使用されているクラスタファイルシステムの HAStoragePlus リソースの構成

次の例では、HA-Apache データサービスを管理するフェイルオーバーリソースグループ cfs-rg を作成します。リソースグループノードリストには、2 つのグローバル以外のゾーン、phys-schost-1 上の sczone1 および phys-schost-2 上の sczone1 が含まれます。 リソースグループには、HAStoragePlus リソース、hasp-rsおよび data-service リソース、apache-rsが含まれます。 ファイルシステムマウントポイントは、/global/local-fs/apacheです。


phys-schost-1# clresourcegroup create -n phys-schost-1:sczone1,phys-schost-2:sczone1 cfs-rg
phys-schost-1# clresourcetype register SUNW.HAStoragePlus

Add the cluster file system entry to the /etc/vfstab file on phys-schost-1
phys-schost-1# vi /etc/vfstab
#device            device         mount          FS    fsck    mount    mount
#to mount          to fsck        point          type  pass    at boot  options
#
/dev/md/kappa-1/dsk/d0 /dev/md/kappa-1/rdsk/d0 /global/local-fs/apache ufs 5 yes logging,global
Add the cluster file system entry to the /etc/vfstab file on phys-schost-2
phys-schost-2# vi /etc/vfstab

…
phys-schost-1# clresource create -g cfs-rg -t SUNW.HAStoragePlus \
-p FileSystemMountPoints="/global/local-fs/apache" hasp-rs
phys-schost-1# clresource create -g cfs-rg -t SUNW.apache \
-p Network_resources_used=hasp-rs apache-rs
phys-schost-1# clresourcegroup online -M cfs-rg



ゾーンクラスタの設定

この節では、非大域ゾーンのクラスタを設定する手順について説明します。

clzonecluster ユーティリティーの概要

clzonecluster ユーティリティーを使用すると、ゾーンクラスタを作成、変更、および削除できます。また、clzonecluster ユーティリティーでは、ゾーンクラスタをアクティブに管理できます。たとえば、clzonecluster ユーティリティーは、ゾーンクラスタの起動と停止の両方を実行できます。clzonecluster ユーティリティーの進捗メッセージは、コンソールに出力されますが、ログファイルには保存されません。

このユーティリティーは、zonecfg ユーティリティーと同様に、次のレベルの範囲で動作します。

ゾーンクラスタの確立

この節では、非大域ゾーンのクラスタを設定する方法を説明します。

Procedureゾーンクラスタを作成する

非大域ゾーンのクラスタを作成するには、この手順を実行してください。

始める前に
  1. グローバルクラスタのアクティブなメンバーノードで、スーパーユーザーになります。


    注 –

    グローバルクラスタのノードから、次の手順のステップをすべて実行します。


  2. グローバルクラスタのそのノードが、クラスタモードである必要があります。

    いずれかのノードが非クラスタモードであった場合でも、行った変更は、そのノードがクラスタモードに復帰した際に伝播されます。そのため、一部のグローバルクラスタノードが非クラスタモードであった場合でも、ゾーンクラスタを作成できます。これらのノードがクラスタモードに復帰すると、それらのノード上でゾーンクラスタ作成手順が自動的に実行されます。


    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. ゾーンクラスタを作成します。


    注 –

    デフォルトでは、疎ルートゾーンが作成されます。完全ルートゾーンを作成するには、create コマンドに -b オプションを追加します。



    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> create
    
    Set the zone path for the entire zone cluster
    clzc:zoneclustername> set zonepath=/zones/zoneclustername
    
    Add the first node and specify node-specific settings
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode1
    clzc:zoneclustername:node> set hostname=hostname1
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    Add authorization for the public-network addresses that the zone cluster is allowed to use
    clzc: zoneclustername> add net
    clzc: zoneclustername:net> set address=ipaddress1
    clzc: zoneclustername:net> end
    
    Set the root password globally for all nodes in the zone cluster
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set root_password=encrypted_password
    clzc:zoneclustername:sysid> end
    
    Save the configuration and exit the utility
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    
  4. (省略可能) ゾーンクラスタに 1 つ以上のノードを追加します。


    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode2
    clzc:zoneclustername:node> set hostname=hostname2
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    
  5. ゾーンクラスタ構成を検証します。

    指定したリソースが使用可能かどうかを確認するには、verify サブコマンドを使用します。clzonecluster verify コマンドが成功した場合は、何も出力されません。


    phys-schost-1# clzonecluster verify zoneclustername
    phys-schost-1# clzonecluster status zoneclustername
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1        Offline   Configured
              basenode2    zone-2        Offline   Configured
  6. クラスタをインストールして起動します。


    phys-schost-1# clzonecluster install zoneclustername
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zoneclustername"...
    
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zoneclustername
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zoneclustername"...

例 7–2 ゾーンクラスタ作成用の設定ファイル

次に、ゾーンクラスタを作成する際に clzonecluster ユーティリティーと組み合わせて使用できるコマンドファイルの内容の例を示します。このファイルには、通常は手動で入力する一連の clzonecluster コマンドが含まれています。

次の構成では、グローバルクラスタノード phys-schost-1 にゾーンクラスタ sczone が作成されます。ゾーンクラスタは、ゾーンパスとパブリック IP アドレス 172.16.2.2 として /zones/sczone を使用します。ゾーンクラスタの第 1 のノードにホスト名 zc-host-1 が割り当てられ、ネットワークアドレス 172.16.0.1 および bge0 アダプタを使用します。ゾーンクラスタの第 2 のノードは、グローバルクラスタノード phys-schost-2 に作成されます。このゾーンクラスタの第 2 のノードには、ホスト名 zc-host-2 が割り当てられ、ネットワークアドレス 172.16.0.2 および bge1 アダプタを使用します。

create
set zonepath=/zones/sczone
add net
set address=172.16.2.2
end
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=bge0
end
end
add sysid
set root_password=encrypted_password
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=bge1
end
end
commit
exit


例 7–3 設定ファイルを使用してゾーンクラスタを作成する

次に、設定ファイル sczone-config を使用して、グローバルクラスタノード phys-schost-1 に新しいゾーンクラスタ sczone を作成するコマンドの例を示します。ゾーンクラスタノードのホスト名は、zc-host-1 zc-host-2 です。


phys-schost-1# clzonecluster configure -f sczone-config sczone
phys-schost-1# clzonecluster verify sczone
phys-schost-1# clzonecluster install sczone
Waiting for zone install commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster boot sczone
Waiting for zone boot commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster status sczone
=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name        Zone HostName    Status    Zone Status
----      ---------        -------------    ------    -----------
sczone    phys-schost-1    zc-host-1        Offline   Running
          phys-schost-2    zc-host-2        Offline   Running

次の手順

ゾーンクラスタにファイルシステムの使用を追加する方法については、「ゾーンクラスタにファイルシステムを追加する」を参照してください。

ゾーンクラスタにグローバルストレージデバイスの使用を追加する方法については、「ゾーンクラスタにストレージデバイスを追加する」を参照してください。

ゾーンクラスタにファイルシステムを追加する

この節では、ゾーンクラスタで使用するファイルシステムを追加する手順について説明します。

ファイルシステムをゾーンクラスタに追加し、オンラインにしたら、ファイルシステムはそのゾーンクラスタ内からの使用を承認されます。使用するファイルシステムをマウントするには、SUNW.HAStoragePlus または SUNW.ScalMountPoint といったクラスタリソースを使用することでファイルシステムを構成します。


注 –

clzonecluster コマンドを使用して、単一のグローバルクラスタノードにマウントされているローカルファイルシステムをゾーンクラスタに追加することはできません。その代わりに zonecfg コマンドを、スタンドアロンシステムの場合と同様の方法で使用してください。ローカルファイルシステムは、クラスタ制御の対象にはなりません。

クラスタファイルシステムは、ゾーンクラスタには追加できません。


この節では、次の手順について説明します。

その他、ゾーンクラスタで高可用性のZFS ストレージプールを構成するには、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。

Procedureゾーンクラスタにローカルファイルシステムを追加する方法

この手順を実行して、ゾーンクラスタで使用できるよう、グローバルクラスタ上にローカルのファイルシステムを追加します。


注 –

ゾーンクラスタに ZFS プールを追加する場合は、この手順ではなく、「ゾーンクラスタに ZFS ストレージプールを追加する」で説明する手順を実行してください。

その他、ゾーンクラスタで高可用性のZFS ストレージプールを構成するには、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。


  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。


    注 –

    .グローバルクラスタのノードから手続の全ステップを実行します。


  2. グローバルクラスタ上で、ゾーンクラスタで使用するファイルシステムを作成します。

    ファイルシステムが共有ディスクに作成されていることを確認します。

  3. ゾーンクラスタノードをホストするグローバルクラスタの各ノード上で、 ゾーンクラスタにマウントするファイルシステムの /etc/vfstab ファイルにエントリを追加します。


    phys-schost# vi /etc/vfstab
    
  4. ファイルシステムをゾーンクラスタ構成に追加します。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=disk-device-name
    clzc:zoneclustername:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:fs> set type=FS-type
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    
    dir=mountpoint

    ファイルシステムのマウントポイントを指定する

    special=disk-device-name

    ディスクデバイスの名前を指定する

    raw=raw-disk-device-name

    raw ディスクデバイスの名前を指定する

    type=FS-type

    ファイルシステムの種類を指定する

  5. ファイルシステムが追加されたことを確認します。


    phys-schost# clzonecluster show -v zoneclustername
    

例 7–4 ローカルのファイルシステムをゾーンクラスタに追加する

この例では、 sczone ゾーンクラスタで使用できるようにローカルのファイルシステム /global/oracle/d1 を追加します。


phys-schost-1# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 5 no logging

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   []
…

次の手順

HAStoragePlus リソースを使用して、高可用性のファイルシステムを構成します。HAStoragePlus リソースは、ファイルシステムを使用するよう構成されているアプリケーションを現在ホストするゾーンクラスタノードへのファイルシステムのマウントを管理します。 『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』「Enabling Highly Available Local File Systems」を参照してください。

Procedureゾーンクラスタに ZFS ストレージプールを追加する

ゾーンクラスタで使用する ZFS ストレージプールを追加するには、この手順を実行してください。


注 –

ゾーンクラスタで高可用性のZFS ストレージプールを構成するには、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。


  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。


    注 –

    グローバルゾーンのノードからこの手順の全ステップを実行してください。


  2. グローバルクラスタ上で、ZFS ストレージプールを作成します。


    注 –

    ゾーンクラスタのすべてのノードに接続されている共用ディスク上で、プールが接続されている必要があります。


    ZFS プールを作成する手順については、『Solaris ZFS 管理ガイド』 を参照してください。

  3. プールをゾーンクラスタ構成に追加します。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add dataset
    clzc:zoneclustername:dataset> set name=ZFSpoolname
    clzc:zoneclustername:dataset> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    
  4. ファイルシステムが追加されたことを確認します。


    phys-schost# clzonecluster show -v zoneclustername
    

例 7–5 ゾーンクラスタに ZFS ストレージプールを追加する

次に、ゾーンクラスタ sczone に追加された ZFS ストレージプール zpool1 の例を示します。


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

次の手順

HAStoragePlus リソースを使用して、高可用性の ZFS ストレージプールを構成します。 HAStoragePlus リソースは、ファイルシステムを使用するよう構成されているアプリケーションを現在ホストするゾーンクラスタノードへのファイルシステム (プールにある) のマウントを管理します。 『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』「Enabling Highly Available Local File Systems」を参照してください。

Procedureゾーンクラスタに QFS 共有ファイルシステムを追加する

ゾーンクラスタで使用する Sun QFS 共有ファイルシステムを追加するには、この手順を実行してください。


注 –

この時点では、QFS 共有ファイルシステムは、Oracle Real Application Clusters (RAC) で構成されたクラスタでの使用のみがサポートされています。Oracle RAC で構成されていないクラスタの場合は、高可用性ローカルファイルシステムとして構成された単一マシン QFS ファイルシステムを使用できます。


  1. 目的のゾーンクラスタをホストしているグローバルクラスタの投票ノードで、スーパーユーザーになります。


    注 –

    グローバルクラスタの投票ノードからこの手順の全ステップを実行します。


  2. グローバルクラスタ上で、ゾーンクラスタで使用する QFS 共有ファイルシステムを構成します。

    Sun Cluster を使用して Sun QFS ファイルシステムを構成するの共有ファイルシステムの手順を実行します。

  3. ゾーンクラスタノードをホストするグローバルクラスタの各ノード上で、ゾーンクラスタにマウントするファイルシステムの /etc/vfstab ファイルにエントリを追加してください。


    phys-schost# vi /etc/vfstab
    
  4. ゾーンクラスタ構成にファイルシステムを追加します。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=QFSfilesystemname
    clzc:zoneclustername:fs> set type=samfs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    
  5. ファイルシステムが追加されたことを確認します。


    phys-schost# clzonecluster show -v zoneclustername
    

例 7–6 ゾーンクラスタに QFS 共有ファイルシステムを追加する

次に、ゾーンクラスタ sczone に追加された QFS 共有ファイルシステム Data-cz1 の例を示します。グローバルクラスタ側からは、ファイルシステムのマウントポイントは /zones/sczone/root/db_qfs/Data1 です。ここで、/zones/sczone/root/ はゾーンのルートパスです。ゾーンクラスタノードからは、ファイルシステムのマウントポイントは /db_qfs/Data1 です。


phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
Data-cz1    -    /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data1
clzc:sczone:fs> set special=Data-cz1
clzc:sczone:fs> set type=samfs
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      samfs
    options:                                   []
…

ゾーンクラスタにストレージデバイスを追加する

この節では、ゾーンクラスタによるグローバルストレージデバイスの直接使用を追加する方法について説明します。グローバルデバイスは、クラスタ内の複数のノードが、一度に 1 つずつ、または同時にアクセスできるデバイスです。

デバイスをゾーンクラスタに追加すると、そのデバイスはそのゾーンクラスタの内部からのみ見えるようになります。

ここでは、次の手順について説明します。

Procedureゾーンクラスタに個別のメタデバイスを追加する (Solaris ボリュームマネージャー)

ゾーンクラスタに Solaris ボリュームマネージャー ディスクセットの個別のメタデバイスを追加するには、この手順を実行してください。

  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  2. ゾーンクラスタに追加するメタデバイスのあるディスクセットを識別し、それがオンラインかどうかを判定します。


    phys-schost# cldevicegroup status
    
  3. 追加するディスクセットがオンラインでない場合は、オンラインにします。


    phys-schost# cldevicegroup online diskset
    
  4. 追加するディスクセットに対応するセット番号を判定します。


    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
    
  5. ゾーンクラスタで使用するメタデバイスを追加します。

    set match= エントリごとに個別の add device セッションを使用します。


    注 –

    パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。



    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    
    match=/dev/md/diskset/*dsk/metadevice

    メタデバイスのフル論理デバイスパスを指定する

    match=/dev/md/shared/N/*dsk/metadevice

    ディスクセット番号のフル物理デバイスパスを指定する

  6. ゾーンクラスタを再起動します。

    変更は、ゾーンクラスタの再起動後に有効になります。


    phys-schost# clzonecluster reboot zoneclustername
    

例 7–7 ゾーンクラスタにメタデバイスを追加する

次は、ディスクセット oraset のメタデバイス d1sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

Procedureゾーンクラスタにディスクセットを追加する (Solaris ボリュームマネージャー)

ゾーンクラスタに Solaris ボリュームマネージャー ディスクセット全体を追加するには、この手順を実行してください。

  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  2. ゾーンクラスタに追加するディスクセットを識別し、それがオンラインかどうかを判定します。


    phys-schost# cldevicegroup status
    
  3. 追加するディスクセットがオンラインでない場合は、オンラインにします。


    phys-schost# cldevicegroup online diskset
    
  4. 追加するディスクセットに対応するセット番号を判定します。


    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
    
  5. ゾーンクラスタで使用するディスクセットを追加します。

    set match= エントリごとに個別の add device セッションを使用します。


    注 –

    パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。



    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    
    match=/dev/md/diskset/*dsk/*

    ディスクセットのフル論理デバイスパスを指定する

    match=/dev/md/shared/N/*dsk/*

    ディスクセット番号のフル物理デバイスパスを指定する

  6. ゾーンクラスタを再起動します。

    変更は、ゾーンクラスタの再起動後に有効になります。


    phys-schost# clzonecluster reboot zoneclustername
    

例 7–8 ゾーンクラスタにディスクセットを追加する

次に、ディスクセット orasetsczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/*
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

Procedureゾーンクラスタに DID デバイスを追加する

ゾーンクラスタに DID デバイスを追加するには、この手順を実行してください。

  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  2. ゾーンクラスタに追加する DID デバイスを識別します。

    追加するデバイスは、ゾーンクラスタのすべてのノードに接続します。


    phys-schost# cldevice list -v
    
  3. ゾーンクラスタで使用する DID デバイスを追加します。


    注 –

    パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。



    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    
    match=/dev/did/*dsk/dNs*

    DID デバイスのフルデバイスパスを指定する

  4. ゾーンクラスタを再起動します。

    変更は、ゾーンクラスタの再起動後に有効になります。


    phys-schost# clzonecluster reboot zoneclustername
    

例 7–9 ゾーンクラスタに DID デバイスを追加する

次に、DID デバイス d10sczone ゾーンクラスタに追加する例を示します。


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/did/*dsk/d10s*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

Procedureゾーンクラスタに raw ディスクデバイスを追加する

  1. ゾーンクラスタノードに raw ディスクデバイス (cNtXdYsZ) をエクスポートするには、非大域ゾーンのその他のブランドに通常エクスポートする場合と同様に、zonecfg コマンドを使用します。

    このようなデバイスは、clzonecluster コマンドによって制御されませんが、ノードのローカルデバイスとして扱われます。非大域ゾーンへの raw ディスクデバイスのエクスポートについては、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「zonecfg を使用して raw デバイスおよびブロックデバイスをインポートする方法」を参照してください。