Sun Cluster ソフトウェアのインストール (Solaris OS 版)

第 6 章 クラスタファイルシステムおよび非大域ゾーンの作成

この章では次の手順について説明します。

クラスタファイルシステムの作成

この節では、データサービスをサポートするために、クラスタファイルシステムを作成する手順について説明します。

Procedureクラスタファイルシステムを追加する

この手順は作成するクラスタファイルシステムごとに実行します。ローカルシステムと違って、クラスタファイルシステムはクラスタ内のどのノードからでもアクセスできます。


注 –

クラスタファイルシステムを作成する代わりに、高可用性ローカルファイルシステムを使用して、データサービスをサポートすることもできます。データサービスをサポートするために、クラスタファイルシステムを作成するか、高可用性ローカルファイルシステムを使用するかの選択については、そのデータサービスのマニュアルを参照してください。高可用性ローカルファイルシステムの作成に関する一般情報については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』「高可用性ローカルファイルシステムの有効化」を参照してください。


始める前に

次の作業を実行します。

  1. クラスタ内にある任意のノード上でスーパーユーザーになります。

    Solaris の場合、クラスタに非大域ゾーンが設定されているときは、大域ゾーンでこの手順を実行する必要があります。


    ヒント –

    ファイルシステムを迅速に作成するには、ファイルシステムを作成するグローバルデバイスの現在の主ノードでスーパーユーザーになります。


  2. ファイルシステムを作成する。


    Caution – Caution –

    ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。


    • UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。


      phys-schost# newfs raw-disk-device
      

      下の表 に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。

      ボリューム管理ソフトウェア 

      ディスクデバイス名の例 

      説明 

      Solaris Volume Manager 

      /dev/md/nfs/rdsk/d1

      nfs ディスクセット内の raw ディスクデバイス d1

      VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      oradg ディスクセット内の raw デバイス vol01

      ありません 

      /dev/global/rdsk/d1s3

      raw ディスクデバイス d1s3

    • SPARC:VERITAS File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。

  3. クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントのディレクトリを作成します。

    そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。


    ヒント –

    管理を行いやすくするには、マウントポイントを /global/device-group/ ディレクトリに作成します。この場所を使用すると、グローバルに利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。



    phys-schost# mkdir -p /global/device-group/mountpoint/
    
    device-group

    デバイスが含まれるデバイスグループ名に対応するディレクトリ名を指定します。

    mountpoint

    クラスタファイルシステムのマウント先のディレクトリ名を指定します。

  4. クラスタ内の各ノードで、マウントポイント用の /etc/vfstabファイルにエントリを追加します。

    詳細については、vfstab(4) のマニュアルページを参照してください。


    注 –

    クラスタに非大域ゾーンが設定されている場合は、大域ゾーンのクラスタファイルシステムを必ず大域ゾーンのルートディレクトリのパスにマウントしてください。


    1. 各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。


      注 –

      Solaris Volume Manager のトランザクションボリュームに、 logging マウントオプションを使用しないでください。トランザクションボリュームは独自のロギングを提供します。

      さらに、 Solaris Volume Manager トランザクションボリュームロギング は Solaris 10 OS から削除されています。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。


    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. 各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。

    4. 各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle をマウントしたあとにのみ phys-schost-2 が起動して /global/oracle/logs をマウントできます。

  5. クラスタ内の任意のノードで、構成の確認ユーティリティーを実行します。


    phys-schost# sccheck
    

    設定確認ユーティリティは、マウントポイントが存在することを確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。エラーが発生していない場合は、何も戻されません。

    詳細については、sccheck(1M) のマニュアルページを参照してください。

  6. クラスタファイルシステムをマウントします。


    phys-schost# mount /global/device-group/mountpoint/
    
    • UFS の場合は、クラスタ内の任意のノードからクラスタファイルシステムをマウントします。

    • SPARC:VxFS の場合、ファイルシステムを正しく確実にマウントするために、device-group の現在のマスターからクラスタファイルシステムをマウントします。

      さらに、VxFS ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。


      注 –

      VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。


  7. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    df コマンドまたは mount コマンドのいずれかを使用し、マウントされたファイルシステムの一覧を表示します。詳細は、df(1M) のマニュアルページまたは mount(1M) のマニュアルページを参照してください。

    Solaris 10 OS の場合、クラスタファイルシステムは大域ゾーンおよび非大域ゾーンの両方からアクセスできます。


例 6–1 クラスタファイルシステムの作成

次に、Solaris Volume Manager ボリューム /dev/md/oracle/rdsk/d1 上に UFS クラスタファイルシステムを作成する例を示します。各ノードの vfstab ファイルにクラスタファイルシステムのエントリが追加されます。次に 1 つのノードから sccheck コマンドが実行されます。設定確認プロセスが正しく終了すると、1 つのノードからクラスタファイルシステムがマウントされ、全ノードで確認されます。


phys-schost# newfs /dev/md/oracle/rdsk/d1
…
phys-schost# mkdir -p /global/oracle/d1
phys-schost# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
…
phys-schost# sccheck
phys-schost# mount /global/oracle/d1
phys-schost# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2005

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

クラスタノードでの非大域ゾーンの設定

この節では、クラスタノードに非大域ゾーンを作成する手順について説明します。

Procedureクラスタノードに非大域ゾーンを作成する

クラスタに作成する非大域ゾーンごとにこの手順を実行してください。


注 –

ゾーンのインストールの詳細は、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』を参照してください。


ノードがクラスタモードまたは非クラスタモードで起動される間に、クラスタノードに Solaris 10 非大域ゾーン (以下単に「ゾーン」と呼ぶ) を設定することができます。

始める前に

次の作業を実行します。

詳細については、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「Zone Components」を参照してください。

  1. 作成する非大域ゾーンのあるノードでスーパーユーザーになります。

    ユーザーは大域ゾーン内に存在する必要があります。

  2. Solaris 10 OS では、各ノードで、Service Management Facility (SMF) 用のマルチユーザーサービスがオンラインであることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインになるまで待ちます。


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. 新しいゾーンを構成、インストール、および起動します。


    注 –

    非大域ゾーン内でリソースグループの機能をサポートするには、autoboot プロパティーを true に設定します。


    次のマニュアルの手順に従ってください。

    1. 『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』の第 18 章「Planning and Configuring Non-Global Zones (Tasks)」の手順を実行します。

    2. 『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「Installing and Booting Zones」の手順を実行します。

    3. 『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「How to Boot a Zone」の手順を実行します。

  4. ゾーンが ready 状態であることを確認します。


    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
    
  5. (省略可能) ゾーンに、プライベート IP アドレスとプライベートホスト名を割り当てます。

    次のコマンドは、クラスタのプライベート IP アドレスの範囲から、使用可能な IP アドレスを選択し、割り当てます。またこのコマンドは、指定されたプライベートホスト名、またはホスト別名をゾーンに割り当て、割り当てられたプライベート IP アドレスにそれをマッピングします。


    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    
    -p

    プロパティーを指定します。

    zprivatehostname=hostalias

    ゾーンプライベートホスト名、またはホスト別名を指定します。

    node

    ノードの名前。

    zone

    非大域ゾーンの名前。

  6. 初期内部ゾーン構成を実行します。

    『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「Performing the Initial Internal Zone Configuration」の手順に従います。次のどちらかの方法を選択します。

    • ゾーンにログインする

    • /etc/sysidcfg ファイルを使用する

  7. 非大域ゾーンで、nsswitch.conf ファイルを変更します。

    これらの変更は、クラスタ固有のホスト名と IP アドレスの検索をゾーンが解決できるようにするため行います。

    1. ゾーンにログインします。


      phys-schost# zogin -c zonename
      
    2. 編集するため /etc/nsswitch.conf ファイルを開きます。


      phys-schost# vi /etc/nsswitch.conf
      
    3. hosts エントリと netmasks エントリのルックアップの先頭に、cluster スイッチを追加します。

      変更されたエントリは次のようになります。


      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
次の手順

非大域ゾーンにアプリケーションをインストールするには、スタンドアロンシステムの場合と同じ手順を実行します。非大域ゾーンにソフトウェアをインストールする手順については、アプリケーションのインストールマニュアルを参照してください。また、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』「Adding and Removing Packages and Patches on a Solaris System With Zones Installed (Task Map)」も参照してください。

非大域ゾーンにデータサービスをインストールして設定する場合は、個々のデータサービスの Sun Cluster マニュアルを参照してください。