JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris Cluster ソフトウェアのインストール     Oracle Solaris Cluster (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris Cluster 構成を計画する

2.  グローバルクラスタノードへのソフトウェアのインストール

3.  グローバルクラスタの確立

4.  Solaris ボリュームマネージャー ソフトウェアの構成

5.  Veritas Volume Manager をインストールして構成する

6.  クラスタファイルシステムの作成

7.  非大域ゾーンおよびゾーンクラスタの作成

グローバルクラスタノード上での非大域ゾーンの設定

グローバルクラスタノードに非大域ゾーンを作成する

グローバル以外のゾーンに使用されているクラスタファイルシステムのHAStoragePlus リソースの構成方法

ゾーンクラスタの設定

clzonecluster ユーティリティーの概要

ゾーンクラスタの確立

ゾーンクラスタで Trusted Extensions を使用する準備をする

ゾーンクラスタを作成する

ゾーンクラスタにファイルシステムを追加する

ゾーンクラスタにローカルファイルシステムを追加する

ゾーンクラスタに ZFS ストレージプールを追加する

ゾーンクラスタに QFS 共有ファイルシステムを追加する

クラスタファイルシステムをゾーンクラスタに追加する

Oracle ACFS ファイルシステムをゾーンクラスタに追加する

ゾーンクラスタにストレージデバイスを追加する

ゾーンクラスタに個別のメタデバイスを追加する (Solaris ボリュームマネージャー)

ゾーンクラスタにディスクセットを追加する (Solaris ボリュームマネージャー)

ゾーンクラスタに DID デバイスを追加する

ゾーンクラスタに raw ディスクデバイスを追加する

8.  Oracle Solaris Cluster モジュールの Sun Management Center へのインストール

9.  クラスタからのソフトウェアのアンインストール

A.  Oracle Solaris Cluster のインストールと構成のためのワークシート

索引

ゾーンクラスタの設定

この節では、ゾーンクラスタと呼ばれる、Solaris Containers の非大域ゾーンのクラスタ構成手順について説明します。

clzonecluster ユーティリティーの概要

clzonecluster ユーティリティーを使用すると、ゾーンクラスタを作成、変更、および削除できます。また、clzonecluster ユーティリティーでは、ゾーンクラスタをアクティブに管理できます。たとえば、clzonecluster ユーティリティーは、ゾーンクラスタの起動と停止の両方を実行できます。clzonecluster ユーティリティーの進捗メッセージは、コンソールに出力されますが、ログファイルには保存されません。

このユーティリティーは、zonecfg ユーティリティーと同様に、次のレベルの範囲で動作します。

ゾーンクラスタの確立

この節では、非大域ゾーンのクラスタを設定する方法を説明します。

ゾーンクラスタで Trusted Extensions を使用する準備をする

この手順では、ゾーンクラスタで Oracle Solaris の Trusted Extensions 機能を使用したり、Trusted Extensions 機能を有効にしたりするために、グローバルクラスタの準備をします。

Trusted Extensions を有効にする計画がない場合は、「ゾーンクラスタを作成する」に進みます。

グローバルクラスタ内の各ノード上で次の手順を実行します。

始める前に

次の作業を実行します。

  1. グローバルクラスタのノードのスーパーユーザーになります。
  2. Trusted Extensions の zoneshare および zoneunshare スクリプトを無効にします。

    Trusted Extensions の zoneshare および zoneunshare スクリプトは、システム上のホームディレクトリをエクスポートする機能をサポートします。 Oracle Solaris Cluster 構成ではこの機能はサポートされません。

    この機能を無効にするには、/bin/true ユーティリティーへのシンボリックリンクで各スクリプトを置き換えます。 これは各グローバルクラスタノード上で行います。

    phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true
    phys-schost# ln -x /usr/lib/zones/zoneunshare /bin/true
  3. グローバルクラスタにある論理ホスト名共有 IP アドレスをすべて設定します。

    『Oracle Solaris Trusted Extensions 構成ガイド』の「txzonemgr スクリプトを実行する」を参照してください。

  4. 管理コンソールが /etc/security/tsol/tnrhdb ファイルで admin_low として定義されていることを確認します。
    ipaddress:admin_low
  5. エントリに -failover オプションが含まれている /etc/hostname.interface ファイルがないことを確認します。

    -failover オプションが含まれているエントリからそのオプションを削除します。

  6. /etc/security/tsol/tnrhdb ファイルを変更して、グローバルクラスタコンポーネントとの通信を承認します。

    『Oracle Solaris Trusted Extensions 管理の手順』の「遠隔ホストテンプレートを構築する」で説明されているように Solaris 管理コンソールのセキュリティーテンプレートウィザードを使用して、次の作業を実行します。

    • クラスタコンポーネントで使用されている IP アドレスの新しいエントリを作成し、各エントリに CIPSO テンプレートを割り当てます。

      グローバルクラスタノードの /etc/inet/hosts ファイルに存在する次の IP アドレスごとに、エントリを追加します。

      • それぞれのグローバルクラスタノードのプライベート IP アドレス

      • グローバルクラスタ内のすべての cl_privnet IP アドレス

      • グローバルクラスタのそれぞれの論理ホスト名パブリック IP アドレス

      • グローバルクラスタのそれぞれの共有アドレスパブリック IP アドレス

      エントリは次のようになります。

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • エントリを追加して、デフォルトのテンプレートを内部にします。

      0.0.0.0:internal

    CIPSO テンプレートについては、『Oracle Solaris Trusted Extensions 構成ガイド』の「解釈ドメインの構成」を参照してください。

  7. Trusted Extensions SMF サービスを有効にし、グローバルクラスタノードを再起動します。
    phys-schost# svcadm enable -s svc:/system/labeld:default
    phys-schost# shutdown -g0 -y -i6

    詳細は、『Oracle Solaris Trusted Extensions 構成ガイド』の「Trusted Extensions の有効化」を参照してください。

  8. Trusted Extensions SMF サービスが有効になっていることを確認します。
    phys-schost# svcs labeld
    STATE          STIME    FMRI
    online         17:52:55 svc:/system/labeld:default
  9. グローバルクラスタ内の残りの各ノードで、手順 1 から手順 8 までを繰り返します。

    すべてのグローバルクラスタノードで SMF サービスが有効になっているときは、グローバルクラスタのノードごとにこの手順の残りを実行します。

  10. 各グローバルクラスタノードの /etc/inet/hosts ファイルに、Trusted Extensions 対応の LDAP サーバーの IP アドレスを追加します。

    LDAP サーバーは、大域ゾーンとゾーンクラスタのノードで使用されます。

  11. LDAP サーバーによるグローバルクラスタノードへの遠隔ログインを有効にします。
    1. /etc/default/login ファイルで、CONSOLE エントリをコメントアウトします。
    2. 遠隔ログインを有効にします。
      phys-schost# svcadm enable rlogin
    3. /etc/pam.conf ファイルを変更します。

      アカウント管理エントリを変更するには、次に示すように、Tab を追加して allow_remote または allow_unlabeled とそれぞれ入力します。

      other   account requisite       pam_roles.so.1        Tab  allow_remote
      other   account required        pam_unix_account.so.1 Tab  allow_unlabeled
  12. /etc/nsswitch.ldap ファイルを変更します。
    • passwd および group ルックアップエントリで、ルックアップの順序の最初に files があることを確認します。

      …
      passwd:      files ldap
      group:       files ldap
      …
    • hosts および netmasks ルックアップエントリで、ルックアップの順序の最初に cluster があることを確認します。

      …
      hosts:       cluster files ldap
      …
      netmasks:    cluster files ldap
      …
  13. グローバルクラスタノードを LDAP クライアントにします。

    『Oracle Solaris Trusted Extensions 構成ガイド』の「Trusted Extensions で大域ゾーンを LDAP クライアントにする」を参照してください。

  14. /etc/security/tsol/tnzonecfg ファイルに Trusted Extensions ユーザーを追加します。

    『Solaris Trusted Extensions Installation and Configuration for Solaris 10 11/06 and Solaris 10 8/07 Releases』の「Creating Roles and Users in Trusted Extensions」で説明されているように、Solaris 管理コンソールのユーザー追加ウィザードを使用します。

次の手順

ゾーンクラスタを作成します。「ゾーンクラスタを作成する」に進みます。

ゾーンクラスタを作成する

非大域ゾーンのクラスタを作成するには、この手順を実行してください。

始める前に

  1. グローバルクラスタのアクティブなメンバーノードで、スーパーユーザーになります。

    注 - グローバルクラスタのノードから、次の手順のステップをすべて実行します。


  2. グローバルクラスタのそのノードが、クラスタモードである必要があります。

    いずれかのノードが非クラスタモードであった場合でも、行った変更は、そのノードがクラスタモードに復帰した際に伝播されます。そのため、一部のグローバルクラスタノードが非クラスタモードであった場合でも、ゾーンクラスタを作成できます。これらのノードがクラスタモードに復帰すると、それらのノード上でゾーンクラスタ作成手順が自動的に実行されます。

    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. ゾーンクラスタを作成します。

    次の注意事項を守ってください。

    • Trusted Extensions が有効になっている場合、zoneclustername は、ゾーンクラスタに割り当てる Trusted Extensions セキュリティーラベルと同じ名前である必要があります。 これらのセキュリティーラベルは、グローバルクラスタの /etc/security/tsol/tnrhtp ファイルで構成されます。

    • デフォルトでは、疎ルートゾーンが作成されます。完全ルートゾーンを作成するには、create コマンドに -b オプションを追加します。

    • 各ゾーンクラスタノードの IP アドレスおよび NIC の指定は任意です。

    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> create
    
    Set the zone path for the entire zone cluster
    clzc:zoneclustername> set zonepath=/zones/zoneclustername
    
    Add the first node and specify node-specific settings
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode1
    clzc:zoneclustername:node> set hostname=hostname1
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    
    Add authorization for the public-network addresses that the zone cluster is allowed to use
    clzc: zoneclustername> add net
    clzc: zoneclustername:net> set address=ipaddress1
    clzc: zoneclustername:net> end
    
    Set the root password globally for all nodes in the zone cluster
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set root_password=encrypted_password
    clzc:zoneclustername:sysid> end
    
    Save the configuration and exit the utility
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  4. Trusted Extensions が有効になっている場合は、/var/tsol/doors ファイルシステムを設定し、ネームサービスプロパティーを NONE に設定します。
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=/var/tsol/doors
    clzc:zoneclustername:fs> set special=/var/tsol/doors
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> add options ro
    clzc:zoneclustername:fs> end
    
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  5. (省略可能) ゾーンクラスタに 1 つ以上のノードを追加します。
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode2
    clzc:zoneclustername:node> set hostname=hostname2
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  6. Trusted Extensions が有効になっている場合は、各グローバルクラスタノードで、/zones/zoneclustername/root/etc/sysidcfg ファイルの次のエントリを追加または変更します。
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set name_service=LDAP
    clzc:zoneclustername:sysid> set domain_name=domainorg.domainsuffix
    clzc:zoneclustername:sysid> set proxy_dn="cn=proxyagent,ou=profile,dc=domainorg,dc=domainsuffix"
    clzc:zoneclustername:sysid> set proxy_password="proxypassword"
    clzc:zoneclustername:sysid> set profile=ldap-server
    clzc:zoneclustername:sysid> set profile_server=txldapserver_ipaddress
    clzc:zoneclustername:sysid> end
    
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  7. ゾーンクラスタ構成を検証します。

    指定したリソースが使用可能かどうかを確認するには、verify サブコマンドを使用します。clzonecluster verify コマンドが成功した場合は、何も出力されません。

    phys-schost-1# clzonecluster verify zoneclustername
    phys-schost-1# clzonecluster status zoneclustername
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1        Offline   Configured
              basenode2    zone-2        Offline   Configured
  8. ゾーンクラスタをインストールします。
    phys-schost-1# clzonecluster install zoneclustername
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zoneclustername"...
  9. ゾーンクラスタを起動します。
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zoneclustername
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zoneclustername"...
  10. Trusted Extensions を使用する場合は、ゾーンクラスタに対する IP アドレスのマッピングを完了します。

    ゾーンクラスタの各ノードで次の手順を実行します。

    1. グローバルクラスタのノードから、そのノードの ID を表示します。
      phys-schost# cat /etc/cluster/nodeid
      N
    2. 同じグローバルクラスタノードでゾーンクラスタノードにログインします。

      ログイン前に、SMF サービスがインポートされ、すべてのサービスが実行中であることを確認します。

    3. このゾーンクラスタノードでプライベートインターコネクトに対して使用されている IP アドレスを判別します。

      クラスタソフトウェアがゾーンクラスタを構成するとき、クラスタソフトウェアは自動的にこれらの IP アドレスを割り当てます。

      ifconfig -a の出力で、ゾーンクラスタに属する clprivnet0 論理インターフェースを見つけてください。 inet の値は、このゾーンクラスタでのクラスタのプライベートインターコネクトの使用をサポートするために割り当てられた IP アドレスです。

      zc1# ifconfig -a
      lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
              zone zc1
              inet 127.0.0.1 netmask ff000000
      bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
              inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:3:ba:19:fa:b7
      ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4
              inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:14:4f:24:74:d8
      ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4
              zone zc1
              inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255
      clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23
              ether 0:0:0:0:0:2
      clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              zone zc1
              inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
    4. ゾーンクラスタノードの /etc/inet/hosts ファイルに、ゾーンクラスタノードの IP アドレスを追加します。
      • プライベートインターコネクトのホスト名。clusternode N-priv で、N はグローバルクラスタノードの ID です。

        172.16.0.22    clusternodeN-priv 
      • ゾーンクラスタの作成時に、clzonecluster コマンドに指定されたそれぞれの net リソース。

    5. 残りのゾーンクラスタノードで繰り返します。
  11. /etc/security/tsol/tnrhdb ファイルを変更して、ゾーンクラスタコンポーネントとの通信を承認します。

    『Oracle Solaris Trusted Extensions 管理の手順』の「遠隔ホストテンプレートを構築する」で説明されているように Solaris 管理コンソールのセキュリティーテンプレートウィザードを使用して、次の作業を実行します。

    • ゾーンクラスタコンポーネントで使用されている IP アドレスの新しいエントリを作成し、各エントリに CIPSO テンプレートを割り当てます。

      ゾーンクラスタノードの /etc/inet/hosts ファイルに存在する次の IP アドレスごとに、エントリを追加します。

      • それぞれのゾーンクラスタノードのプライベート IP アドレス

      • ゾーンクラスタのすべての cl_privnet IP アドレス

      • ゾーンクラスタのそれぞれの論理ホスト名パブリック IP アドレス

      • ゾーンクラスタのそれぞれの共有アドレスパブリック IP アドレス

      エントリは次のようになります。

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • エントリを追加して、デフォルトのテンプレートを内部にします。

      0.0.0.0:internal

    CIPSO テンプレートについては、『Oracle Solaris Trusted Extensions 構成ガイド』の「解釈ドメインの構成」を参照してください。

  12. すべてのゾーンクラスタノードを変更したら、グローバルクラスタノードを再起動して、ゾーンクラスタ /etc/inet/hosts ファイルの変更を初期化します。
    phys-schost# init -g0 -y -i6
  13. DNS およびゾーンクラスタノードへの rlogin アクセスを有効にします。

    ゾーンクラスタの各ノードで次のコマンドを実行します。

    phys-schost# zlogin zcnode
    zcnode# svcadm enable svc:/network/dns/client:default
    zcnode# svcadm enable svc:/network/login:rlogin
    zcnode# reboot

例 7-2 ゾーンクラスタ作成用の設定ファイル

次に、ゾーンクラスタを作成する際に clzonecluster ユーティリティーと組み合わせて使用できるコマンドファイルの内容の例を示します。このファイルには、通常は手動で入力する一連の clzonecluster コマンドが含まれています。

次の構成では、グローバルクラスタノード phys-schost-1 にゾーンクラスタ sczone が作成されます。ゾーンクラスタは、ゾーンパスとパブリック IP アドレス 172.16.2.2 として /zones/sczone を使用します。ゾーンクラスタの第 1 のノードにホスト名 zc-host-1 が割り当てられ、ネットワークアドレス 172.16.0.1 および bge0 アダプタを使用します。ゾーンクラスタの第 2 のノードは、グローバルクラスタノード phys-schost-2 に作成されます。このゾーンクラスタの第 2 のノードには、ホスト名 zc-host-2 が割り当てられ、ネットワークアドレス 172.16.0.2 および bge1 アダプタを使用します。

create
set zonepath=/zones/sczone
add net
set address=172.16.2.2
end
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=bge0
end
end
add sysid
set root_password=encrypted_password
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=bge1
end
end
commit
exit

例 7-3 設定ファイルを使用してゾーンクラスタを作成する

次に、設定ファイル sczone-config を使用して、グローバルクラスタノード phys-schost-1 に新しいゾーンクラスタ sczone を作成するコマンドの例を示します。ゾーンクラスタノードのホスト名は、zc-host-1 zc-host-2 です。

phys-schost-1# clzonecluster configure -f sczone-config sczone
phys-schost-1# clzonecluster verify sczone
phys-schost-1# clzonecluster install sczone
Waiting for zone install commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster boot sczone
Waiting for zone boot commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster status sczone
=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name        Zone HostName    Status    Zone Status
----      ---------        -------------    ------    -----------
sczone    phys-schost-1    zc-host-1        Offline   Running
          phys-schost-2    zc-host-2        Offline   Running

次の手順

ゾーンクラスタにファイルシステムの使用を追加する方法については、「ゾーンクラスタにファイルシステムを追加する」を参照してください。

ゾーンクラスタにグローバルストレージデバイスの使用を追加する方法については、「ゾーンクラスタにストレージデバイスを追加する」を参照してください。

参照

ゾーンクラスタのパッチ処理を行うには、『Oracle Solaris Cluster システム管理』の第 11 章「Oracle Solaris Cluster ソフトウェアとファームウェアのパッチ」の手順を参照してください。次の手順では、必要に応じてゾーンクラスタに固有の手順も記載されています。

ゾーンクラスタにファイルシステムを追加する

この節では、ゾーンクラスタで使用するファイルシステムを追加する手順について説明します。

ファイルシステムをゾーンクラスタに追加し、オンラインにしたら、ファイルシステムはそのゾーンクラスタ内からの使用を承認されます。使用するファイルシステムをマウントするには、SUNW.HAStoragePlus または SUNW.ScalMountPoint といったクラスタリソースを使用することでファイルシステムを構成します。

この節では、次の手順について説明します。

その他、ゾーンクラスタで高可用性の ZFS ストレージプールを構成するには、『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。

ゾーンクラスタにローカルファイルシステムを追加する

この手順を実行して、ゾーンクラスタで使用できるよう、グローバルクラスタ上にローカルのファイルシステムを追加します。


注 - ゾーンクラスタに ZFS プールを追加する場合は、この手順ではなく、「ゾーンクラスタに ZFS ストレージプールを追加する」で説明する手順を実行してください。

また、ゾーンクラスタで高可用性の ZFS ストレージプールを構成するには、『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。


  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    注 - .グローバルクラスタのノードから手続の全ステップを実行します。


  2. グローバルクラスタ上で、ゾーンクラスタで使用するファイルシステムを作成します。

    ファイルシステムが共有ディスクに作成されていることを確認します。

  3. ファイルシステムをゾーンクラスタ構成に追加します。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=disk-device-name
    clzc:zoneclustername:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:fs> set type=FS-type
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=mountpoint

    ファイルシステムのマウントポイントを指定する

    special=disk-device-name

    ディスクデバイスの名前を指定する

    raw=raw-disk-device-name

    raw ディスクデバイスの名前を指定する

    type=FS-type

    ファイルシステムの種類を指定する


    注 - UFS および VxFS ファイルシステムのロギングを有効にします。


  4. ファイルシステムが追加されたことを確認します。
    phys-schost# clzonecluster show -v zoneclustername

例 7-4 ローカルのファイルシステムをゾーンクラスタに追加する

この例では、 sczone ゾーンクラスタで使用できるようにローカルのファイルシステム /global/oracle/d1 を追加します。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

次の手順

HAStoragePlus リソースを使用して、高可用性のファイルシステムを構成します。HAStoragePlus リソースは、ファイルシステムを使用するよう構成されているアプリケーションを現在ホストするゾーンクラスタノードへのファイルシステムのマウントを管理します。 『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「Enabling Highly Available Local File Systems」を参照してください。

ゾーンクラスタに ZFS ストレージプールを追加する

ゾーンクラスタで使用する ZFS ストレージプールを追加するには、この手順を実行してください。


注 - ゾーンクラスタで高可用性の ZFS ストレージプールを構成するには、『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available」を参照してください。


  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    注 - 大域ゾーンのノードからこの手順の全ステップを実行してください。


  2. グローバルクラスタ上で、ZFS ストレージプールを作成します。

    注 - ゾーンクラスタのすべてのノードに接続されている共用ディスク上で、プールが接続されている必要があります。


    ZFS プールを作成する手順については、『Oracle Solaris ZFS 管理ガイド』を参照してください。

  3. プールをゾーンクラスタ構成に追加します。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add dataset
    clzc:zoneclustername:dataset> set name=ZFSpoolname
    clzc:zoneclustername:dataset> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  4. ファイルシステムが追加されたことを確認します。
    phys-schost# clzonecluster show -v zoneclustername

例 7-5 ゾーンクラスタに ZFS ストレージプールを追加する

次に、ゾーンクラスタ sczone に追加された ZFS ストレージプール zpool1 の例を示します。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

次の手順

HAStoragePlus リソースを使用して、高可用性の ZFS ストレージプールを構成します。 HAStoragePlus リソースは、ファイルシステムを使用するよう構成されているアプリケーションを現在ホストするゾーンクラスタノードへのファイルシステム (プールにある) のマウントを管理します。 『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「Enabling Highly Available Local File Systems」を参照してください。

ゾーンクラスタに QFS 共有ファイルシステムを追加する

ゾーンクラスタで使用する Sun QFS 共有ファイルシステムを追加するには、この手順を実行してください。


注 - この時点では、QFS 共有ファイルシステムは、Oracle Real Application Clusters (RAC) で構成されたクラスタでの使用のみがサポートされています。Oracle RAC で構成されていないクラスタの場合は、高可用性ローカルファイルシステムとして構成された単一マシン QFS ファイルシステムを使用できます。


  1. 目的のゾーンクラスタをホストしているグローバルクラスタの投票ノードで、スーパーユーザーになります。

    注 - グローバルクラスタの投票ノードからこの手順の全ステップを実行します。


  2. グローバルクラスタ上で、ゾーンクラスタで使用する QFS 共有ファイルシステムを構成します。

    Sun Cluster を使用して Sun QFS ファイルシステムを構成するの共有ファイルシステムの手順を実行します。

  3. ゾーンクラスタノードをホストするグローバルクラスタの各ノード上で、ゾーンクラスタにマウントするファイルシステムの /etc/vfstab ファイルにエントリを追加してください。
    phys-schost# vi /etc/vfstab
  4. QFS 共有ファイルシステムをループバックファイルシステムとしてゾーンクラスタに追加する場合は、手順 6 に進みます。
  5. ゾーンクラスタ構成にファイルシステムを追加します。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=QFSfilesystemname
    clzc:zoneclustername:fs> set type=samfs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit

    手順 7 に進みます。

  6. QFS ファイルシステムをゾーンクラスタのループバックファイルシステムとして構成します。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=lofs-mountpoint
    clzc:zoneclustername:fs> set special=QFS-mountpoint
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  7. ファイルシステムが追加されたことを確認します。
    phys-schost# clzonecluster show -v zoneclustername

例 7-6 ゾーンクラスタに QFS 共有ファイルシステムを直接マウントとして追加する

次に、ゾーンクラスタ sczone に追加された QFS 共有ファイルシステム Data-cz1 の例を示します。グローバルクラスタ側からは、ファイルシステムのマウントポイントは /zones/sczone/root/db_qfs/Data1 です。ここで、/zones/sczone/root/ はゾーンのルートパスです。ゾーンクラスタノードからは、ファイルシステムのマウントポイントは /db_qfs/Data1 です。

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
Data-cz1    -    /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data1
clzc:sczone:fs> set special=Data-cz1
clzc:sczone:fs> set type=samfs
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      samfs
    options:                                   []
…

例 7-7 ゾーンクラスタに QFS 共有ファイルシステムをループバックファイルシステムとして追加する

次に、ゾーンクラスタ sczone に追加されたマウントポイント /db_qfs/Data1 を使用した QFS 共有ファイルシステムの例を示します。 このファイルシステムは、マウントポイント /db_qfs/Data-cz1 でループバックマウント機構を使用してゾーンクラスタに対して使用できます。

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
Data-cz1    -    /db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data-cz1
clzc:sczone:fs> set special=/db_qfs/Data
clzc:sczone:fs> set type=lofs
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      lofs
    options:                                   []
    cluster-control:                           [true]
…

クラスタファイルシステムをゾーンクラスタに追加する

ゾーンクラスタで使用するクラスタファイルシステムを追加するには、この手順を実行してください。

  1. 目的のゾーンクラスタをホストしているグローバルクラスタの投票ノードで、スーパーユーザーになります。

    注 - グローバルクラスタの投票ノードからこの手順の全ステップを実行します。


  2. グローバルクラスタ上で、ゾーンクラスタで使用するクラスタファイルシステムを構成します。
  3. ゾーンクラスタノードをホストするグローバルクラスタの各ノード上で、ゾーンクラスタにマウントするファイルシステムの /etc/vfstab ファイルにエントリを追加してください。
    phys-schost# vi /etc/vfstab
    …
    /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
  4. クラスタファイルシステムをゾーンクラスタのループバックファイルシステムとして構成します。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=zonecluster-lofs-mountpoint
    clzc:zoneclustername:fs> set special=globalcluster-mountpoint
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=zonecluster-lofs-mountpoint

    ゾーンクラスタでクラスタファイルシステムを使用できるように、LOFS のファイルシステムマウントポイントを指定します。

    special=globalcluster-mountpoint

    グローバルクラスタの元のクラスタファイルシステムのファイルシステムマウントポイントを指定します。

    ループバックファイルシステムの作成については、『Solaris のシステム管理 (デバイスとファイルシステム)』の「LOFS ファイルシステムを作成およびマウントする方法」を参照してください。

  5. LOFS ファイルシステムが追加されたことを確認します。
    phys-schost# clzonecluster show -v zoneclustername

例 7-8 クラスタファイルシステムをゾーンクラスタに追加する

次に、マウントポイント /global/apache を持つクラスタファイルシステムをゾーンクラスタに追加する例を示します。 このファイルシステムは、マウントポイント /zone/apache でループバックマウント機構を使用してゾーンクラスタに対して使用できます。

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging

phys-schost-1# clzonecluster configure zoneclustername
clzc:zoneclustername> add fs
clzc:zoneclustername:fs> set dir=/zone/apache
clzc:zoneclustername:fs> set special=/global/apache
clzc:zoneclustername:fs> set type=lofs
clzc:zoneclustername:fs> end
clzc:zoneclustername> verify
clzc:zoneclustername> commit
clzc:zoneclustername> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /zone/apache
    special:                                   /global/apache
    raw:                                       
    type:                                      lofs
    options:                                   []
    cluster-control:                           true
…

次の手順

HAStoragePlus リソースを使用して、ゾーンクラスタで使用できるようにクラスタファイルシステムを構成します。 HAStoragePlus リソースは、グローバルクラスタのファイルシステムをマウントしたあと、ファイルシステムを使用するよう構成されているアプリケーションを現在ホストしているゾーンクラスタノードでループバックマウントを実行することによって管理します。 詳細は、『Oracle Solaris Cluster Data Services Planning and Administration Guide』の「Configuring an HAStoragePlus Resource for Cluster File Systems」を参照してください。

Oracle ACFS ファイルシステムをゾーンクラスタに追加する

ゾーンクラスタで使用する Oracle ACFS ファイルシステムを追加するには、この手順を実行してください。

始める前に

Oracle ACFS ファイルシステムが作成され、ゾーンクラスタから使用できる状態になっていることを確認します。「Oracle ACFS ファイルシステムを作成する」を参照してください。

  1. スーパーユーザーになるか、RBAC の承認 solaris.cluster.admin および solaris.cluster.modify を提供する役割になります。
  2. Oracle ACFS ファイルシステムをゾーンクラスタに追加します。

    いずれかのノードの大域ゾーンから、次のステップを実行します。

    # clzonecluster configure zonecluster
    clzc:zonecluster> add fs
    clzc:zonecluster:fs> set dir=mountpoint
    clzc:zonecluster:fs> set special=/dev/asm/volume-dev-path
    clzc:zonecluster:fs> set type=acfs
    clzc:zonecluster:fs> end
    clzc:zonecluster> exit
  3. ファイルシステムがゾーンクラスタに追加されていることを確認します。
    # clzonecluster show zonecluster
    …
       Resource Name:                fs
       dir:                          mountpoint
       special                       /dev/asm/volume-dev-path
       raw:
       type:                         acfs
       options:                      []
       cluster-control:              true
    …

ゾーンクラスタにストレージデバイスを追加する

この節では、ゾーンクラスタによるグローバルストレージデバイスの直接使用を追加する方法について説明します。グローバルデバイスは、クラスタ内の複数のノードが、一度に 1 つずつ、または同時にアクセスできるデバイスです。

デバイスをゾーンクラスタに追加すると、そのデバイスはそのゾーンクラスタの内部からのみ見えるようになります。

ここでは、次の手順について説明します。

ゾーンクラスタに個別のメタデバイスを追加する (Solaris ボリュームマネージャー)

ゾーンクラスタに Solaris ボリュームマネージャー ディスクセットの個別のメタデバイスを追加するには、この手順を実行してください。

  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  2. ゾーンクラスタに追加するメタデバイスのあるディスクセットを識別し、それがオンラインかどうかを判定します。
    phys-schost# cldevicegroup status
  3. 追加するディスクセットがオンラインでない場合は、オンラインにします。
    phys-schost# cldevicegroup online diskset
  4. 追加するディスクセットに対応するセット番号を判定します。
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
  5. ゾーンクラスタで使用するメタデバイスを追加します。

    set match= エントリごとに個別の add device セッションを使用します。


    注 - パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/md/diskset/*dsk/metadevice

    メタデバイスのフル論理デバイスパスを指定する

    match=/dev/md/shared/N/*dsk/metadevice

    ディスクセット番号のフル物理デバイスパスを指定する

  6. ゾーンクラスタを再起動します。

    変更は、ゾーンクラスタの再起動後に有効になります。

    phys-schost# clzonecluster reboot zoneclustername

例 7-9 ゾーンクラスタにメタデバイスを追加する

次は、ディスクセット oraset のメタデバイス d1sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

ゾーンクラスタにディスクセットを追加する (Solaris ボリュームマネージャー)

ゾーンクラスタに Solaris ボリュームマネージャー ディスクセット全体を追加するには、この手順を実行してください。

  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  2. ゾーンクラスタに追加するディスクセットを識別し、それがオンラインかどうかを判定します。
    phys-schost# cldevicegroup status
  3. 追加するディスクセットがオンラインでない場合は、オンラインにします。
    phys-schost# cldevicegroup online diskset
  4. 追加するディスクセットに対応するセット番号を判定します。
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
  5. ゾーンクラスタで使用するディスクセットを追加します。

    set match= エントリごとに個別の add device セッションを使用します。


    注 - パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/md/diskset/*dsk/*

    ディスクセットのフル論理デバイスパスを指定する

    match=/dev/md/shared/N/*dsk/*

    ディスクセット番号のフル物理デバイスパスを指定する

  6. ゾーンクラスタを再起動します。

    変更は、ゾーンクラスタの再起動後に有効になります。

    phys-schost# clzonecluster reboot zoneclustername

例 7-10 ゾーンクラスタにディスクセットを追加する

次に、ディスクセット orasetsczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/*
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

ゾーンクラスタに DID デバイスを追加する

ゾーンクラスタに DID デバイスを追加するには、この手順を実行してください。

  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  2. ゾーンクラスタに追加する DID デバイスを識別します。

    追加するデバイスは、ゾーンクラスタのすべてのノードに接続します。

    phys-schost# cldevice list -v
  3. ゾーンクラスタで使用する DID デバイスを追加します。

    注 - パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/did/*dsk/dNs*

    DID デバイスのフルデバイスパスを指定する

  4. ゾーンクラスタを再起動します。

    変更は、ゾーンクラスタの再起動後に有効になります。

    phys-schost# clzonecluster reboot zoneclustername

例 7-11 ゾーンクラスタに DID デバイスを追加する

次に、DID デバイス d10sczone ゾーンクラスタに追加する例を示します。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/did/*dsk/d10s*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

ゾーンクラスタに raw ディスクデバイスを追加する