Sun Cluster ソフトウェアのインストール (Solaris OS 版)

第 6 章 クラスタファイルシステムおよび非大域ゾーンの作成

この章では次の手順について説明します。

クラスタファイルシステムの作成

この節では、データサービスをサポートするために、クラスタファイルシステムを作成する手順について説明します。

Procedureクラスタファイルシステムを追加する

この手順は作成するクラスタファイルシステムごとに実行します。ローカルシステムと違って、クラスタファイルシステムはクラスタ内のどのノードからでもアクセスできます。


注 –

クラスタファイルシステムを作成する代わりに、高可用性ローカルファイルシステムを使用して、データサービスをサポートすることもできます。データサービスをサポートするために、クラスタファイルシステムを作成するか、高可用性ローカルファイルシステムを使用するかの選択については、そのデータサービスのマニュアルを参照してください。高可用性ローカルファイルシステムの作成に関する一般情報については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』「高可用性ローカルファイルシステムの有効化」を参照してください。


始める前に

次の作業を実行します。

  1. クラスタ内にある任意のノード上でスーパーユーザーになります。

    Solaris の場合、クラスタに非大域ゾーンが設定されているときは、大域ゾーンでこの手順を実行する必要があります。


    ヒント –

    ファイルシステムを迅速に作成するには、ファイルシステムを作成するグローバルデバイスの現在の主ノードでスーパーユーザーになります。


  2. ファイルシステムを作成します。


    注意 – 注意 –

    ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。


    • UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。


      phys-schost# newfs raw-disk-device
      

      下の表 に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。

      ボリュームマネージャー 

      ディスクデバイス名の例 

      説明 

      Solaris ボリュームマネージャー 

      /dev/md/nfs/rdsk/d1

      nfs ディスクセット内の raw ディスクデバイス d1

      VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      oradg ディスクセット内の raw デバイス vol01

      なし 

      /dev/global/rdsk/d1s3

      raw ディスクデバイス d1s3

    • SPARC: VERITAS File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。

  3. クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントのディレクトリを作成します。

    そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。


    ヒント –

    管理を行いやすくするには、マウントポイントを /global/device-group/ ディレクトリに作成します。この場所を使用すると、グローバルに利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。



    phys-schost# mkdir -p /global/device-group/mountpoint/
    
    device-group

    デバイスが含まれるデバイスグループ名に対応するディレクトリ名を指定します。

    mountpoint

    クラスタファイルシステムのマウント先のディレクトリ名を指定します。

  4. クラスタ内にある各ノード上で、/etc/vfstab ファイルにマウントポイント用のエントリを追加します。

    詳細については、vfstab(4) のマニュアルページを参照してください。


    注 –

    クラスタに非大域ゾーンが設定されている場合は、大域ゾーンのクラスタファイルシステムを必ず大域ゾーンのルートディレクトリのパスにマウントしてください。


    1. 各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。


      注 –

      Solaris ボリュームマネージャー トランザクションボリュームには決して logging マウントオプションを使用しないでください。トランザクションボリュームは、独自のロギングを提供します。

      さらに、Solaris ボリュームマネージャー トランザクションボリュームロギング は Solaris 10 OS から削除されています。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。


    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. 各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。

    4. 各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle をマウントしたあとにのみ phys-schost-2 が起動して /global/oracle/logs をマウントできます。

  5. クラスタ内の任意のノードで設定確認ユーティリティを実行します。


    phys-schost# sccheck
    

    設定確認ユーティリティは、マウントポイントが存在することを確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。エラーが発生していない場合は、何も戻されません。

    詳細については、sccheck(1M) のマニュアルページを参照してください。

  6. クラスタファイルシステムをマウントします。


    phys-schost# mount /global/device-group/mountpoint/
    
    • UFS の場合は、クラスタ内の任意のノードからクラスタファイルシステムをマウントします。

    • SPARC: VxFS の場合、ファイルシステムを正しく確実にマウントするために、device-group の現在のマスターからクラスタファイルシステムをマウントします。

      さらに、ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。


      注 –

      VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。


  7. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    df コマンドまたは mount コマンドのいずれかを使用し、マウントされたファイルシステムの一覧を表示します。詳細は、df(1M) のマニュアルページまたは mount(1M) のマニュアルページを参照してください。

    Solaris 10 OS の場合、クラスタファイルシステムは大域ゾーンおよび非大域ゾーンの両方からアクセスできます。


例 6–1 クラスタファイルシステムの作成

次に、Solaris ボリュームマネージャー ボリューム /dev/md/oracle/rdsk/d1 上に UFS クラスタファイルシステムを作成する例を示します。各ノードの vfstab ファイルにクラスタファイルシステムのエントリが追加されます。次に 1 つのノードから sccheck コマンドが実行されます。設定確認プロセスが正しく終了すると、1 つのノードからクラスタファイルシステムがマウントされ、全ノードで確認されます。


phys-schost# newfs /dev/md/oracle/rdsk/d1
…
phys-schost# mkdir -p /global/oracle/d1
phys-schost# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
…
phys-schost# sccheck
phys-schost# mount /global/oracle/d1
phys-schost# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2005

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

クラスタノードでの非大域ゾーンの設定

この節では、クラスタノードに非大域ゾーンを作成する手順について説明します。

Procedureクラスタノードに非大域ゾーンを作成する

クラスタに作成する非大域ゾーンごとにこの手順を実行してください。


注 –

ゾーンのインストールについては、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』を参照してください。


ノードがクラスタモードまたは非クラスタモードで起動される間に、クラスタノードに Solaris 10 非大域ゾーン (以下単に「ゾーン」と呼ぶ) を設定することができます。

始める前に

次の作業を実行します。

詳細は、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンの構成要素」を参照してください。

  1. 非大域ゾーンを作成しているノードでスーパーユーザーになります。

    大域ゾーンにいる必要があります。

  2. Solaris 10 OS の場合、各ノードで Service Management Facility (SMF) のマルチユーザーサービスがオンラインであることを確認してください。

    ノードでサービスがまだオンラインでない場合は、状態がオンラインになるのを待ってから、次の手順に進んでください。


    phys-schost# svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. 新しいゾーンを構成、インストール、および起動します。


    注 –

    非大域ゾーンでリソースグループの機能をサポートするには、autoboot プロパティーを true に設定する必要があります。


    次のマニュアルの手順に従ってください。

    1. 『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の第 18 章「非大域ゾーンの計画と構成 (手順)」の手順を実行します。

    2. 『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンのインストールと起動」の手順を実行します。

    3. 『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンの起動方法」の手順を実行します。

  4. ゾーンが ready 状態にあることを確認します。


    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
    
  5. (省略可能) プライベート IP アドレスとプライベートホスト名をゾーンに割り当てます。

    次のコマンドにより、クラスタのプライベート IP アドレス範囲から使用できる IP アドレスが選択され、割り当てられます。また、このコマンドにより、指定されたプライベート ホスト名、またはホストの別名がゾーンに割り当てられ、割り当てられたプライベート IP アドレスにマッピングされます。


    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    
    -p

    プロパティーを指定します。

    zprivatehostname=hostalias

    ゾーンのプライベートホスト名、またはホストの別名を指定します。

    node

    ノードの名前。

    zone

    非大域ゾーンの名前。

  6. 初期内部ゾーン構成を実行します。

    『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「初期内部ゾーン構成を実行する」の手順に従います。次のどちらかの方法を選択します。

    • ゾーンにログインします。

    • /etc/sysidcfg ファイルを使用します。

  7. 非大域ゾーンで、nsswitch.conf ファイルを変更します。

    ゾーンを有効にして、クラスタ固有のホスト名と IP アドレスを解決するために、これらの変更を行う必要があります。

    1. ゾーンにログインします。


      phys-schost# zogin -c zonename
      
    2. /etc/nsswitch.conf ファイルを編集用に開きます。


      phys-schost# vi /etc/nsswitch.conf
      
    3. hosts および netmasks エントリの先頭に cluster スイッチを追加します。

      変更したエントリは、次のようになります。


      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
次の手順

非大域ゾーンにアプリケーションをインストールするには、スタンドアロンシステムの場合と同じ手順を実行します。非大域ゾーンにソフトウェアをインストールする手順については、アプリケーションのインストールマニュアルを参照してください。また、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』「ゾーンがインストールされている Solaris システムでのパッケージとパッチの追加および削除 (作業マップ)」も参照してください。

非大域ゾーンにデータサービスをインストールして設定する場合は、個々のデータサービスの Sun Cluster マニュアルを参照してください。