Sun Cluster ソフトウェアのインストール (Solaris OS 版)

第 6 章 クラスタファイルシステム、非大域ゾーン、およびゾーンクラスタの作成

この章では、次の項目について説明します。

クラスタファイルシステムの作成

この節では、データサービスをサポートするために、クラスタファイルシステムを作成する手順について説明します。

Procedureクラスタファイルシステムを追加する

この手順は作成するクラスタファイルシステムごとに実行します。ローカルファイルシステムと違って、クラスタファイルシステムはグローバルクラスタ内のどのノードからでもアクセスできます。


注 –

クラスタファイルシステムを作成する代わりに、高可用性ローカルファイルシステムを使用して、データサービスをサポートすることもできます。データサービスをサポートするために、クラスタファイルシステムを作成するか、高可用性ローカルファイルシステムを使用するかの選択については、そのデータサービスのマニュアルを参照してください。高可用性ローカルファイルシステムの作成に関する一般情報については、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』「Enabling Highly Available Local File Systems」を参照してください。

クラスタファイルシステムは、ゾーンクラスタには追加できません。


始める前に

次の作業を実行します。

  1. クラスタ内にある任意のノード上でスーパーユーザーになります。

    Solaris の場合、クラスタに非大域ゾーンが設定されているときは、大域ゾーンでこの手順を実行する必要があります。


    ヒント –

    ファイルシステムを迅速に作成するには、ファイルシステムを作成するグローバルデバイスの現在の主ノードでスーパーユーザーになります。


  2. ファイルシステムを作成する。


    注意 – 注意 –

    ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。


    • UFS ファイルシステムの場合は、newfs(1M) コマンドを使用します。


      phys-schost# newfs raw-disk-device
      

      下の表に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。

      ボリューム管理ソフトウェア 

      ディスクデバイス名の例 

      説明 

      Solaris ボリュームマネージャー 

      /dev/md/nfs/rdsk/d1

      nfs ディスクセット内の raw ディスクデバイス d1

      Veritas Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      oradg ディスクセット内の raw デバイス vol01

      なし 

      /dev/global/rdsk/d1s3

      raw ディスクデバイス d1s3

    • SPARC: Veritas File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。

  3. クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントのディレクトリを作成します。

    そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。


    ヒント –

    管理を行いやすくするには、マウントポイントを /global/device-group/ ディレクトリに作成します。この場所を使用すると、グローバルに利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。



    phys-schost# mkdir -p /global/device-group/mountpoint/
    
    device-group

    デバイスが含まれるデバイスグループ名に対応するディレクトリ名を指定します。

    mountpoint

    クラスタファイルシステムのマウント先のディレクトリ名を指定します。

  4. クラスタ内の各ノードで、マウントポイント用の /etc/vfstabファイルにエントリを追加します。

    詳細については、vfstab(4) のマニュアルページを参照してください。


    注 –

    クラスタに非大域ゾーンが設定されている場合は、大域ゾーンのクラスタファイルシステムを必ず大域ゾーンのルートディレクトリのパスにマウントしてください。


    1. 各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。


      注 –

      Solaris ボリュームマネージャー トランザクションボリュームには、logging マウントオプションは使用しないでください。トランザクションボリュームでは、独自のロギングが実行されます。

      さらに、 Solaris ボリュームマネージャー トランザクションボリュームロギング は、Solaris 10 OS から削除されました。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。


    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. 各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。

    4. 各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動され、/global/oracle/ がマウントされたあとにのみ、phys-schost-2 を起動し、/global/oracle/logs/ をマウントできます。

  5. クラスタ内の任意のノードで、構成の確認ユーティリティーを実行します。


    phys-schost# sccheck
    

    設定確認ユーティリティは、マウントポイントが存在することを確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。エラーが発生していない場合は、何も戻されません。

    詳細は、sccheck(1M)マニュアルページを参照してください。

  6. クラスタファイルシステムをマウントします。


    phys-schost# mount /global/device-group/mountpoint/
    
    • UFS の場合は、クラスタ内の任意のノードから、クラスタファイルシステムをマウントします。

    • SPARC: VxFS の場合、ファイルシステムを正しく確実にマウントするために、device-group の現在のマスターからクラスタファイルシステムをマウントします。

      さらに、VxFS ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。


      注 –

      VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。


  7. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    df コマンドまたは mount コマンドのいずれかを使用し、マウントされたファイルシステムの一覧を表示します。詳細は、df(1M) マニュアルページまたは mount(1M) マニュアルページを参照してください。

    Solaris 10 OS の場合、クラスタファイルシステムは大域ゾーンおよび非大域ゾーンの両方からアクセスできます。


例 6–1 クラスタファイルシステムの作成

次に、Solaris ボリュームマネージャー ボリューム /dev/md/oracle/rdsk/d1 上に、UFS クラスタファイルシステムを作成する例を示します。各ノードの vfstab ファイルにクラスタファイルシステムのエントリが追加されます。次に 1 つのノードから sccheck コマンドが実行されます。設定確認プロセスが正しく終了すると、1 つのノードからクラスタファイルシステムがマウントされ、全ノードで確認されます。


phys-schost# newfs /dev/md/oracle/rdsk/d1
…
phys-schost# mkdir -p /global/oracle/d1
phys-schost# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
…
phys-schost# sccheck
phys-schost# mount /global/oracle/d1
phys-schost# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2005

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

グローバルクラスタノード上での非大域ゾーンの設定

この節では、グローバルクラスタノード上に非大域ゾーンを作成する手順について説明します。

Procedureグローバルクラスタノードに非大域ゾーンを作成する

グローバルクラスタに作成する非大域ゾーンごとに、この手順を実行してください。


注 –

ゾーンのインストールの詳細は、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones 』を参照してください。


ノードがクラスタモードまたは非クラスタモードで起動される間に、クラスタノードに Solaris 10 非大域ゾーン (以下単に「ゾーン」と呼ぶ) を設定することができます。

始める前に

次の作業を実行します。

詳細については、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「Zone Components」を参照してください。

  1. 非投票ノードを作成するグローバルクラスタノードでスーパーユーザーになります。

    大域ゾーンで作業してください。

  2. Solaris 10 OS の場合は、各ノードでサービス管理機能 (Service Management Facility、SMF) のマルチユーザーサービスがオンラインになっていることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインになるまで待ちます。


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. 新しいゾーンを構成、インストール、および起動します。


    注 –

    グローバルクラスタの非投票ノードでリソースグループ機能をサポートするには、autoboot プロパティーを true に設定にします。


    Solaris のマニュアルの手順に従ってください。

    1. 『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』の第 18 章「Planning and Configuring Non-Global Zones (Tasks)」の手順を実行します。

    2. 『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「Installing and Booting Zones」の手順を実行します。

    3. 『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「How to Boot a Zone」の手順を実行します。

  4. ゾーンが ready 状態であることを確認します。


    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
    
  5. ip-type プロパティーが exclusive に設定されている完全ルートゾーンの場合: ゾーンで論理ホスト名リソースをホストする可能性がある場合は、大域ゾーンからメソッドディレクトリをマウントするファイルシステムリソースを構成します。


    phys-schost# zonecfg -z sczone
    zonecfg:sczone> add fs
    zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm
    zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm
    zonecfg:sczone:fs> set type=lofs
    zonecfg:sczone:fs> end
    zonecfg:sczone> exit
    
  6. (省略可能) 共有 IP ゾーンでは、プライベート IP アドレスとプライベートホスト名をゾーンに割り当てます。

    次のコマンドは、クラスタのプライベート IP アドレスの範囲から、使用可能な IP アドレスを選択し、割り当てます。またこのコマンドは、指定されたプライベートホスト名、またはホスト別名をゾーンに割り当て、割り当てられたプライベート IP アドレスにそれをマッピングします。


    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    
    -p

    プロパティーを指定します。

    zprivatehostname=hostalias

    ゾーンプライベートホスト名、またはホスト別名を指定します。

    node

    ノードの名前。

    zone

    グローバルクラスタの非投票ノードの名前。

  7. 初期内部ゾーン構成を実行します。

    『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「Performing the Initial Internal Zone Configuration」の手順に従います。次のどちらかの方法を選択します。

    • ゾーンにログインします。

    • /etc/sysidcfg ファイルを使用します。

  8. 非投票ノードで、nsswitch.conf ファイルを変更します。

    これらの変更により、クラスタ固有のホスト名と IP アドレスの検索をゾーンが解決できるようになります。

    1. ゾーンにログインします。


      phys-schost# zlogin -c zonename
      
    2. 編集するため /etc/nsswitch.conf ファイルを開きます。


      sczone# vi /etc/nsswitch.conf
      
    3. hosts エントリと netmasks エントリのルックアップの先頭に、cluster スイッチを追加し、その後に files スイッチを追加します。

      変更されたエントリは次のようになるはずです。


      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
    4. ほかのすべてのエントリでは、files スイッチが、エントリに一覧表示される最初のスイッチになるようにする必要があります。

    5. ゾーンを終了します。

  9. 排他的 IP ゾーンを作成した場合は、そのゾーン上の /etc/hostname.interface ファイルごとに IPMP グループを構成します。

    ゾーン内のデータサービストラフィックに使用されているパブリックネットワークアダプタごとに、IPMP グループを設定します。この情報は、大域ゾーンから継承されません。クラスタでの IPMP グループの設定については、「パブリックネットワーク」を参照してください。

  10. ゾーンにより使用されるすべての論理ホスト名リソースの名前とアドレスのマッピングを設定します。

    1. 名前とアドレスのマッピングを、ゾーン上の /etc/inet/hosts ファイルに追加します。

      この情報は、大域ゾーンから継承されません。

    2. ネームサーバーを使用している場合は、名前とアドレスのマッピングを追加します。

次の手順

非大域ゾーンにアプリケーションをインストールするには、スタンドアロンシステムの場合と同じ手順を実行します。非大域ゾーンにソフトウェアをインストールする手順については、アプリケーションのインストールマニュアルを参照してください。また、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「Adding and Removing Packages and Patches on a Solaris System With Zones Installed (Task Map)」も参照してください。

非大域ゾーンにデータサービスをインストールして設定する場合は、個々のデータサービスの Sun Cluster マニュアルを参照してください。

ゾーンクラスタの設定

この節では、非大域ゾーンのクラスタを設定する手順について説明します。

clzonecluster ユーティリティーの概要

clzonecluster ユーティリティーを使用すると、ゾーンクラスタを作成、変更、および削除できます。また、clzonecluster ユーティリティーでは、ゾーンクラスタをアクティブに管理できます。たとえば、clzonecluster ユーティリティーは、ゾーンクラスタの起動と停止の両方を実行できます。clzonecluster ユーティリティーの進捗メッセージは、コンソールに出力されますが、ログファイルには保存されません。

このユーティリティーは、zonecfg ユーティリティーと同様に、次のレベルの範囲で動作します。

ゾーンクラスタの確立

この節では、非大域ゾーンのクラスタを設定する方法を説明します。

Procedureゾーンクラスタを作成する

非大域ゾーンのクラスタを作成するには、この手順を実行してください。

始める前に
  1. グローバルクラスタのアクティブなメンバーノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  2. グローバルクラスタのそのノードが、クラスタモードである必要があります。

    いずれかのノードが非クラスタモードであった場合でも、行った変更は、そのノードがクラスタモードに復帰した際に伝播されます。そのため、一部のグローバルクラスタノードが非クラスタモードであった場合でも、ゾーンクラスタを作成できます。これらのノードがクラスタモードに復帰すると、それらのノード上でゾーンクラスタ作成手順が自動的に実行されます。


    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. ゾーンクラスタを作成します。


    注 –

    デフォルトでは、疎ルートゾーンが作成されます。完全ルートゾーンを作成するには、create コマンドに -b オプションを追加します。



    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> create
    
    Set the zone path for the entire zone cluster
    clzc:zoneclustername> set zonepath=/zones/zoneclustername
    
    Add the first node and specify node-specific settings
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode1
    clzc:zoneclustername:node> set hostname=hostname1
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    
    Set the root password globally for all nodes in the zone cluster
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set root_password=encrypted_password
    clzc:zoneclustername:sysid> end
    
    Save the configuration and exit the utility
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    
  4. (省略可能) ゾーンクラスタに 1 つ以上のノードを追加します。


    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode2
    clzc:zoneclustername:node> set hostname=hostname2
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> exit
    
  5. ゾーンクラスタ構成を検証します。

    指定したリソースが使用可能かどうかを確認するには、verify サブコマンドを使用します。clzonecluster verify コマンドが成功した場合は、何も出力されません。


    phys-schost-1# clzonecluster verify zoneclustername
    phys-schost-1# clzonecluster status zoneclustername
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1        Offline   Running
              basenode2    zone-2        Offline   Running
  6. クラスタをインストールして起動します。


    phys-schost-1# clzonecluster install zoneclustername
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zoneclustername"...
    
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zoneclustername
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zoneclustername"...

例 6–2 ゾーンクラスタ作成用の設定ファイル

次に、ゾーンクラスタを作成する際に clzonecluster ユーティリティーと組み合わせて使用できるコマンドファイルの内容の例を示します。このファイルには、通常は手動で入力する一連の clzonecluster コマンドが含まれています。

次の構成では、グローバルクラスタノード phys-schost-1 にゾーンクラスタ sczone が作成されます。このゾーンクラスタは、ゾーンパスとして /zones/sczone を使用します。このゾーンクラスタの最初のノードは、ホスト名 zc-host-1 を割り当てられ、パブリックネットワークアドレス 172.16.0.1bge0 アダプタを使用します。ゾーンクラスタの第 2 のノードは、グローバルクラスタノード phys-schost-2 に作成されます。この第 2 のゾーンクラスタノードは、ホスト名 zc-host-2 を割り当てられ、パブリックネットワークアドレス 172.16.0.2bge1 アダプタを使用します。

create
set zonepath=/zones/sczone
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=bge0
end
end
add sysid
set root_password=encrypted_password
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=bge1
end
end
commit
exit


例 6–3 設定ファイルを使用してゾーンクラスタを作成する

次に、設定ファイル sczone-config を使用して、グローバルクラスタノード phys-schost-1 に新しいゾーンクラスタ sczone を作成するコマンドの例を示します。ゾーンクラスタノードのホスト名は、zc-host-1 zc-host-2 です。


phys-schost-1# clzonecluster configure -f sczone-config sczone
phys-schost-1# clzonecluster verify sczone
phys-schost-1# clzonecluster install sczone
Waiting for zone install commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster boot sczone
Waiting for zone boot commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster status sczone
=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name        Zone HostName    Status    Zone Status
----      ---------        -------------    ------    -----------
sczone    phys-schost-1    zc-host-1        Offline   Running
          phys-schost-2    zc-host-2        Offline   Running

次の手順

ゾーンクラスタにファイルシステムの使用を追加する方法については、「ゾーンクラスタにファイルシステムを追加する」を参照してください。

ゾーンクラスタにグローバルストレージデバイスの使用を追加する方法については、「ゾーンクラスタにストレージデバイスを追加する」を参照してください。

ゾーンクラスタにファイルシステムを追加する

この節では、ゾーンクラスタで使用するファイルシステムを追加する手順について説明します。

ファイルシステムをゾーンクラスタに追加し、オンラインにすると、そのファイルシステムは、そのゾーンクラスタ内部から見えるようになります。


注 –

clzonecluster コマンドを使用して、単一のグローバルクラスタノードにマウントされているローカルファイルシステムをゾーンクラスタに追加することはできません。その代わりに zonecfg コマンドを、スタンドアロンシステムの場合と同様の方法で使用してください。ローカルファイルシステムは、クラスタ制御の対象にはなりません。

クラスタファイルシステムは、ゾーンクラスタには追加できません。


この節では、次の手順について説明します。

Procedureゾーンクラスタに高可用性ローカルファイルシステムを追加する

グローバルクラスタ上で、ゾーンクラスタが使用する高可用性ローカルファイルシステムを追加するには、この手順を実行してください。


注 –

ゾーンクラスタに ZFS プールを追加する場合は、この手順ではなく、「ゾーンクラスタに ZFS ストレージプールを追加する」で説明する手順を実行してください。


  1. グローバルクラスタ上で、ゾーンクラスタで使用する高可用性ローカルファイルシステムを設定します。

    『Sun Cluster Data Services Planning and Administration Guide for Solaris OS 』「Enabling Highly Available Local File Systems」を参照してください。

  2. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  3. ゾーンクラスタにマウントするファイルシステムの /etc/vfstab エントリを表示します。


    phys-schost# vi /etc/vfstab
    
  4. ファイルシステムをゾーンクラスタ構成に追加します。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=disk-device-name
    clzc:zoneclustername:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:fs> set type=FS-type
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> exit
    
    dir=mountpoint

    ファイルシステムのマウントポイントを指定する

    special=disk-device-name

    ディスクデバイスの名前を指定する

    raw=raw-disk-device-name

    raw ディスクデバイスの名前を指定する

    type=FS-type

    ファイルシステムの種類を指定する

  5. ファイルシステムが追加されたことを確認します。


    phys-schost# clzonecluster show -v zoneclustername
    

例 6–4 ゾーンクラスタに高可用性ローカルファイルシステムを追加する

ここでは、sczone ゾーンクラスタで使用する高可用性ローカルファイルシステム /global/oracle/d1 を追加する例を示します。


phys-schost-1# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 5 no logging

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> end
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   []
…

Procedureゾーンクラスタに ZFS ストレージプールを追加する

ゾーンクラスタで使用する ZFS ストレージプールを追加するには、この手順を実行してください。

  1. グローバルクラスタで ZFS ストレージプールを設定します。


    注 –

    ゾーンクラスタのすべてのノードに接続されている共用ディスク上で、プールが接続されている必要があります。


    ZFS プールの作成手順については、『Solaris ZFS Administration Guide 』を参照してください。

  2. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

  3. プールをゾーンクラスタ構成に追加します。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add dataset
    clzc:zoneclustername:dataset> set name=ZFSpoolname
    clzc:zoneclustername:dataset> end
    clzc:zoneclustername> exit
    
  4. ファイルシステムが追加されたことを確認します。


    phys-schost# clzonecluster show -v zoneclustername
    

例 6–5 ゾーンクラスタに ZFS ストレージプールを追加する

次に、ゾーンクラスタ sczone に追加された ZFS ストレージプール zpool1 の例を示します。


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

Procedureゾーンクラスタに QFS 共有ファイルシステムを追加する

ゾーンクラスタで使用する Sun StorageTek QFS 共有ファイルシステムを追加するには、この手順を実行してください。


注 –

この時点では、QFS 共有ファイルシステムは、Oracle Real Application Clusters (RAC) で構成されたクラスタでの使用のみがサポートされています。Oracle RAC で構成されていないクラスタの場合は、高可用性ローカルファイルシステムとして構成された単一マシン QFS ファイルシステムを使用できます。


  1. グローバルクラスタ上で、ゾーンクラスタで使用する QFS 共有ファイルシステムを構成します。

    手順については、『Sun Cluster Data Service for Oracle RAC Guide for Solaris OS 』「Tasks for Configuring the Sun StorEdge QFS Shared File System for Oracle Files」の説明に従ってください。

  2. 目的のゾーンクラスタをホストしているグローバルクラスタの投票ノードで、スーパーユーザーになります。

    この手順の残りすべてのステップは、グローバルクラスタの 1 つの投票ノードから実行します。

  3. ゾーンクラスタにマウントするファイルシステムの /etc/vfstab エントリを表示します。

    このエントリの情報を使用して、ゾーンクラスタ構成に対してファイルシステムを指定します。


    phys-schost# vi /etc/vfstab
    
  4. ゾーンクラスタ構成にファイルシステムを追加します。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=QFSfilesystemname
    clzc:zoneclustername:fs> set type=samfs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> exit
    
  5. ファイルシステムが追加されたことを確認します。


    phys-schost# clzonecluster show -v zoneclustername
    

例 6–6 ゾーンクラスタに QFS 共有ファイルシステムを追加する

次に、ゾーンクラスタ sczone に追加された QFS 共有ファイルシステム Data-cz1 の例を示します。グローバルクラスタ側からは、ファイルシステムのマウントポイントは /zones/sczone/root/db_qfs/Data1 です。ここで、/zones/sczone/root/ はゾーンのルートパスです。ゾーンクラスタノード側からは、ファイルシステムのマウントポイントは db_qfs/Data1 です。


phys-schost-1# vi /etc/vfstab
#device           device        mount   FS      fsck    mount     mount
#to mount         to fsck       point   type    pass    at boot   options
#                     
Data-cz1          -            /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data1
clzc:sczone:fs> set special=Data-cz1
clzc:sczone:fs> set type=samfs
clzc:sczone:fs> end
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      samfs
    options:                                   []
…

ゾーンクラスタにストレージデバイスを追加する

この節では、ゾーンクラスタによるグローバルストレージデバイスの直接使用を追加する方法について説明します。グローバルデバイスは、クラスタ内の複数のノードが、一度に 1 つずつ、または同時にアクセスできるデバイスです。

デバイスをゾーンクラスタに追加すると、そのデバイスはそのゾーンクラスタの内部からのみ見えるようになります。

ここでは、次の手順について説明します。

Procedureゾーンクラスタに個別のメタデバイスを追加する (Solaris ボリュームマネージャー)

ゾーンクラスタに Solaris ボリュームマネージャー ディスクセットの個別のメタデバイスを追加するには、この手順を実行してください。

  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  2. ゾーンクラスタに追加するメタデバイスのあるディスクセットを識別し、それがオンラインかどうかを判定します。


    phys-schost# cldevicegroup status
    
  3. 追加するディスクセットがオンラインでない場合は、オンラインにします。


    phys-schost# cldevicegroup online diskset
    
  4. 追加するディスクセットに対応するセット番号を判定します。


    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
    
  5. ゾーンクラスタで使用するメタデバイスを追加します。

    set match= エントリごとに個別の add device セッションを使用します。


    注 –

    パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。



    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername:> exit
    
    match=/dev/md/diskset/*dsk/metadevice

    メタデバイスのフル論理デバイスパスを指定する

    match=/dev/md/shared/N/*dsk/metadevice

    ディスクセット番号のフル物理デバイスパスを指定する

  6. ゾーンクラスタを再起動します。

    変更は、ゾーンクラスタの再起動後に有効になります。


    phys-schost# clzonecluster reboot zoneclustername
    

例 6–7 ゾーンクラスタにメタデバイスを追加する

次は、ディスクセット oraset のメタデバイス d1sczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1
clzc:sczone:device> end
clzc:sczone:> exit

phys-schost-1# clzonecluster reboot sczone

Procedureゾーンクラスタにディスクセットを追加する (Solaris ボリュームマネージャー)

ゾーンクラスタに Solaris ボリュームマネージャー ディスクセット全体を追加するには、この手順を実行してください。

  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  2. ゾーンクラスタに追加するディスクセットを識別し、それがオンラインかどうかを判定します。


    phys-schost# cldevicegroup status
    
  3. 追加するディスクセットがオンラインでない場合は、オンラインにします。


    phys-schost# cldevicegroup online diskset
    
  4. 追加するディスクセットに対応するセット番号を判定します。


    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
    
  5. ゾーンクラスタで使用するディスクセットを追加します。

    set match= エントリごとに個別の add device セッションを使用します。


    注 –

    パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。



    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername:> exit
    
    match=/dev/md/diskset/*dsk/*

    ディスクセットのフル論理デバイスパスを指定する

    match=/dev/md/shared/N/*dsk/*

    ディスクセット番号のフル物理デバイスパスを指定する

  6. ゾーンクラスタを再起動します。

    変更は、ゾーンクラスタの再起動後に有効になります。


    phys-schost# clzonecluster reboot zoneclustername
    

例 6–8 ゾーンクラスタにディスクセットを追加する

次に、ディスクセット orasetsczone ゾーンクラスタに追加する例を示します。ディスクセットのセット番号は 3 です。


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/*
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/*
clzc:sczone:device> end
clzc:sczone:> exit

phys-schost-1# clzonecluster reboot sczone

Procedureゾーンクラスタに DID デバイスを追加する

ゾーンクラスタに DID デバイスを追加するには、この手順を実行してください。

  1. 目的のゾーンクラスタをホストしているグローバルクラスタのノードで、スーパーユーザーになります。

    この手順のすべてのステップは、グローバルクラスタの 1 つのノードから実行します。

  2. ゾーンクラスタに追加する DID デバイスを識別します。

    追加するデバイスは、ゾーンクラスタのすべてのノードに接続します。


    phys-schost# cldevice list -v
    
  3. ゾーンクラスタで使用する DID デバイスを追加します。


    注 –

    パス名には、ワイルドカード文字としてアスタリスク (*) を使用します。



    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs*
    clzc:zoneclustername:device> end
    clzc:zoneclustername:> exit
    
    match=/dev/did/*dsk/dNs*

    DID デバイスのフルデバイスパスを指定する

  4. ゾーンクラスタを再起動します。

    変更は、ゾーンクラスタの再起動後に有効になります。


    phys-schost# clzonecluster reboot zoneclustername
    

例 6–9 ゾーンクラスタに DID デバイスを追加する

次に、DID デバイス d10sczone ゾーンクラスタに追加する例を示します。


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/did/*dsk/d10s*
clzc:sczone:device> end
clzc:sczone:> exit

phys-schost-1# clzonecluster reboot sczone

Procedureゾーンクラスタに raw ディスクデバイスを追加する

  1. ゾーンクラスタノードに raw ディスクデバイス (cNtXdYsZ) をエクスポートするには、非大域ゾーンのその他のブランドに通常エクスポートする場合と同様に、zonecfg コマンドを使用します。

    このようなデバイスは、clzonecluster コマンドによって制御されませんが、ノードのローカルデバイスとして扱われます。非大域ゾーンへの raw ディスクデバイスのエクスポートについては、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「How to Import Raw and Block Devices by Using zonecfg」を参照してください。