Sun Cluster 3.0 のシステム管理

クラスタファイルシステムを追加する

次の作業は、Sun Cluster の初期インストール後に作成する各クラスタファイルシステムごとに実行してください。


注意 - 注意 -

必ず正しいディスクデバイス名を指定してください。クラスタファイルシステムを作成すると、ディスク上のデータはすべて消去されます。デバイス名を誤って指定すると、本来消去する必要のないデータを失うことになります。


クラスタファイルシステムを追加するには以下が必要です。

  1. クラスタの任意のノードでスーパーユーザーになります。


    ヒント -

    ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノードでスーパーユーザーになります。


  2. newfs(1M) コマンドを使用してファイルシステムを作成します。


    # newfs raw-disk-device
    

    表 3-3 に、引数 raw-disk-device の名前の例を挙げます。命名規則は各ボリューム管理ソフトウェアごとに異なるので注意してください。

    表 3-3 raw ディスクデバイス名の例

    使用中のボリューム管理ソフトウェア 

    使用可能なディスクデバイス名 

    説明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle メタセット内部の raw ディスクデバイス d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg ディスクグループ内部の raw ディスクデバイス vol01

    なし 

    /dev/global/rdsk/d1s3

    ブロックスライス d1s3 の raw ディスクデバイス

  3. クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントディレクトリを作成します。

    クラスタファイルシステムにアクセスしないノードがある場合でも、マウントポイントは各ノードごとに必要です。


    # mkdir -p /global/device-group/mount-point
    
    device-group

    デバイスが含まれるデバイスグループ名に対応するディレクトリ名を指定します。

    mount-point

    クラスタファイルシステムのマウント先のディレクトリ名を指定します。


    ヒント -

    管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。これによって、広域に利用できるクラスタファイルシステムをローカルファイルシステムから簡単に判別できるようになります。


  4. クラスタ内の各ノードで、/etc/vfstab ファイルにマウントポイントのエントリを追加します。

    1. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    2. 次の必須マウントオプションを使用します。

      • global マウントオプションは、すべてのクラスタファイルシステムに必要です。このオプションにより、ファイルシステムをクラスタファイルシステムとして扱うように指定します。

      • ファイルシステムロギングは、すべてのクラスタファイルシステムに必要です。UFS ロギングは、Solaris DiskSuite メタトランスデバイスを使用して実行するか、直接 Solaris UFS マウントオプションを使用して実行できます。ただし、これらの方法は組み合わせて使用するべきではありません。Solaris UFS ロギングを直接使用する場合は、logging マウントオプションを使用する必要があります。一方、メタトランスファイルシステムロギングを使用する場合は、他のマウントオプションは不要です。

    3. 各クラスタファイルシステムについて、/etc/vfstab エントリの情報が、このエントリを持つ各ノードで同一であることを確認します。

    4. ファイルシステムの起動順序の依存関係に注意します。

      通常、クラスタファイルシステムについては、マウントポイントを入れ子にしないでください。たとえば、phys-schost-1/global/oracle にディスクデバイス d0 をマウントし、phys-schost-2/global/oracle/logs にディスクデバイス d1 をマウントするとします。この構成では、phys-schost-1 が起動して /global/oracle をマウントした後でなければ、phys-schost-2 が起動して /global/oracle/logs をマウントすることはできません。

    5. 各ノードの /etc/vfstab ファイルのエントリに、共通デバイスが同じ順序で記述されていることを確認します。

      たとえば、phys-schost-1phys-schost-2 がデバイス d0d1d2 に物理的に接続されている場合は、各 /etc/vfstab ファイルのエントリは d0d1d2 の順に記載されている必要があります。

    詳細は、vfstab(4) のマニュアルページを参照してください。

  5. クラスタ内の任意のノードで、マウントポイントが存在していること、および /etc/vfstab ファイルのエントリがクラスタ内のすべてのノードで正しいことを確認します。


    # sccheck
    

    エラーがない場合は何も表示されません。

  6. クラスタ内の任意のノードから、クラスタファイルシステムをマウントします。


    # mount /global/device-group/mount-point
    
  7. クラスタの各ノードで、クラスタファイルシステムがマウントされていることを確認します。

    df(1M) または mount(1M) のどちらかのコマンドを使用して、マウントされたファイルシステムの一覧を表示できます。

例 - クラスタファイルシステムの追加

次に、Solstice DiskSuite メタデバイス /dev/md/oracle/rdsk/d1 上に UFS クラスタファイルシステムを作成する例を示します。


# newfs /dev/md/oracle/rdsk/d1
...
 
[各ノードで実行する]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device           device       mount   FS      fsck    mount   mount
#to mount        to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
[保存して終了する]
 
[任意のノードで実行する]
# sccheck
 
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999