Sun Cluster ソフトウェアのインストール (Solaris OS 版)

クラスタファイルシステムを追加する

次の手順は、追加するクラスタファイルシステムごとに行います。 クラスタファイルシステムは、クラスタ内のすべてのノードからアクセスできます。


注意 – 注意 –

ファイルシステムを作成するとき、ディスク上のデータは破壊されます。 必ず、正しいディスクデバイス名を指定してください。 間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。


SunPlex Manager を使用してデータサービスをインストールした場合、1 つまたは複数のクラスタファイルシステム上に SunPlex Manager がすでに作成されています。

  1. ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。

    ボリューム管理ソフトウェアのインストール手順については、Solstice DiskSuite/Solaris Volume Manager ソフトウェアのインストールと構成 SPARC: VxVM ソフトウェアのインストールと構成 を参照してください。

  2. クラスタ内にある任意のノード上でスーパーユーザーになります。


    ヒント –

    ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノードでスーパーユーザーになります。


  3. ファイルシステムを作成します。

    • UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。


      # newfs raw-disk-device
      

    • SPARC: VxFS ファイルシステムの場合、VxFS のマニュアルに記載されている手順に従います。

    下の表 に、引数 raw-disk-device の名前の例を挙げます。 命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。

    ボリュームマネージャ 

    ディスクデバイス名の例 

    説明 

    Solstice DiskSuite または Solaris Volume Manager 

    /dev/md/nfs/rdsk/d1

    nfs ディスクセット内の raw デバイス d1

    SPARC: VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg ディスクセット内の raw デバイス vol01

    なし 

    /dev/global/rdsk/d1s3

    raw ディスクデバイス d1s3

  4. クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントディレクトリを作成します。

    そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。


    ヒント –

    管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。 この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    デバイスが属するデバイスグループ名に対応するディレクトリの名前。

    mountpoint

    クラスタファイルシステムをマウントするディレクトリの名前。

  5. クラスタ内の各ノードで、マウントポイント用の /etc/vfstabファイルにエントリを追加します。

    詳細については、vfstab(4) のマニュアルページを参照してください。

    1. 各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。 必要なマウントオプションのリストについては、表 2–11 または表 2–12 を参照してください。


      注 –

      ロギングはすべてのクラスタファイルシステムに必要です。 Solstice DiskSuite トランスメタデバイスや Solaris Volume Manager トランザクショナルボリュームには、logging マウントオプションを使用しないでください。 トランスメタデバイスおよびトランザクショナルボリュームは、独自のロギングを提供します。

      さらに、 Solaris Volume Managertransactional-volume logging (旧 Solstice DiskSuite trans-metadevice logging) は、将来の Solaris リリースで、Solaris オペレーティング環境から削除される予定です。 Solaris UFS logging は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。


      表 2–11 UFS クラスタファイルシステムのマウントオプション

      マウントオプション 

      説明 

      global

      必須。 このオプションを選択すると、クラスタ内のすべてのノードでファイルシステムが表示されます。

      logging

      必須。 このオプションを選択すると、ロギングが有効になります。

      forcedirectio

      Oracle Parallel Server/Real Application Clusters RDBMS データファイル、ログファイル、および制御ファイルのホストとなるクラスタファイルシステムでは必須


      注 –

      Oracle Parallel Server/Real Application Clusters SPARC ベースクラスタでのみ使用できます。


      syncdir

      任意syncdir を指定した場合、write() システムコールにおいて、ファイルシステムが POSIX に準拠して動作することが保証されます。 write() が成功した場合、このマウントオプションにより、ディスク上に十分な空間が確保されます。

      syncdir を指定しない場合、ファイルシステムの動作は UFS ファイルシステムと同じです。 syncdir を指定しない場合、ディスクブロックを割り当てる (つまり、データをファイルに追加するような) 書き込みの性能が大幅に向上します。 しかし、syncdir を指定しない場合、ファイルを閉じるまでは空間不足 (ENOSPC) の状態が判明しません。

      この場合、ファイルを閉じるときに ENOSPC 状態になるのは、フェイルオーバー後の短い間だけです。 syncdir を指定した場合、POSIX の動作と同様、空間不足状態はファイルを閉じる前に見つかります。


      注 –

      onerror=umount または onerror=lock マウントオプションは使用しないでください。 これらのマウントオプションは、次のような理由からクラスタファイルシステムではサポートされていません。

      • onerror=umount または onerror=lock マウントオプションを使用すると、クラスタファイルシステムがロックされたり、アクセスできなくなる場合があります。 この状況は、クラスタファイルシステムのファイルが破壊された場合に、発生することがあります。

      • onerror=umount または onerror=lock マウントオプションを使用すると、クラスタファイルシステムがマウントできなくなる場合があります。 この状況により、クラスタファイルシステムを使用するアプリケーションがハングアップし、アプリケーションを終了できなくなる場合があります。

      これらの状態から復旧するには、ノードの再起動が必要になることがあります。

      Sun Cluster ソフトウェアでサポートされているのは、onerror=panic マウントオプションだけです。 /etc/vfstab ファイルで onerror=panic マウントオプションを指定する必要はありません。 他の onerror マウントオプションが指定されていない場合は、このマウントオプションがデフォルト値として使用されます。


      UFS マウントポイントの詳細については、mount_ufs(1M) のマニュアルページを参照してください。

      表 2–12 SPARC: VxFS クラスタファイルシステムのマウントオプション

      マウントオプション 

      説明 

      大域 (global)

      必須 このオプションを選択すると、クラスタ内のすべてのノードでファイルシステムが表示されます。

      log

      必須 このオプションを選択すると、ロギングが有効になります。

      VxFS マウントオプションの詳細については、VxFS mount_vxfs のマニュアルページおよび『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタファイルシステムの管理の概要」を参照してください。

    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. 各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。

    4. 各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs にマウントすると仮定します。 この構成では、phys-schost-1 が起動して /global/oracle をマウントした後にのみ、 phys-schost-2 が起動して /global/oracle/logs をマウントできます。

  6. クラスタ内の任意のノードで sccheck(1M) ユーティリティーを実行します。

    sccheck ユーティリティーは、マウントポイントの存在を確認します。 また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。


     # sccheck
    

    エラーが発生していない場合は、何も戻されません。

  7. クラスタファイルシステムをマウントします。


    # mount /global/device-group/mountpoint
    

    • UFS の場合は、クラスタ内の任意のノードからクラスタファイルシステムをマウントします。

    • SPARC: VERITAS File System (VxFS) の場合は、確実にファイルシステムをマウントするために、device-group のカレントマスターからクラスタファイルシステムをマウントします。 さらに、ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。


      注 –

      VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。


  8. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。

  9. IP ネットワークマルチパスグループを構成します。

    インターネットプロトコル (IP) マルチパスグループを構成する に進みます。

例—クラスタファイルシステムを作成する

次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。


# newfs /dev/md/oracle/rdsk/d1
…
 
(各ノード上で)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(保存と終了)
 
(1 つのノード上で)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000