次の 手順 2、手順 4、および 手順 8 への変更は Sun Cluster 3.0 5/02 リリースから導入され、以降のすべての Sun Cluster 3.0 ソフトウェアの更新に適用されます。
次の手順は、追加するクラスタファイルシステムごとに行います。
ファイルシステムを作成するとき、ディスク上のデータは破壊されます。正しいディスクデバイス名を指定していることを確認してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。
SunPlex Manager を使用してデータサービスをインストールした場合、クラスタファイルシステムを作成した共有ディスクに十分な大きさがあった場合には、1 つまたは複数のクラスタファイルシステムがすでに存在しています。
ボリュームマネージャソフトウェアがインストールおよび構成されていることを確認します。
ボリュームマネージャのインストール手順については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「Solstice DiskSuite ソフトウェアのインストールと構成」と「VxVM ソフトウェアのインストールと構成」を参照してください。
VERITAS File System (VxFS) ソフトウェアをインストールする予定があるかどうかを確認します。
インストールする予定がない場合、手順 3 に進みます。
インストールする予定の場合、次の手順を行います。
クラスタ内にある任意のノード上でスーパーユーザーになります。
より早くファイルシステムを作成するためには、ファイルシステムを作成する予定の広域デバイスの現在の主ノード上でスーパーユーザーになります。
ファイルシステムを作成します。
VxFS ファイルシステムの場合、VxFS のマニュアルに記載されている手順に従います。
UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。
# newfs raw-disk-device |
次の表に、raw-disk-device 引数の名前の例を示します。命名規則はボリュームマネージャごとに異なるので注意してください。
表 4-3 raw ディスクデバイス名の例
ボリュームマネージャ |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle ディスクセット内の raw デバイス d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクセット内の raw デバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
クラスタ内にある各ノード上で、クラスタファイルシステムごとにマウントポイントを作成します。
ノード上でクラスタファイルシステムがアクセスされない場合でも、マウントポイントはノードごとに必要です。
管理しやすくするために、マウントポイントは /global/device-group ディレクトリに作成します。この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。
# mkdir -p /global/device-group/mountpoint |
デバイスが属するデバイスグループ名に対応するディレクトリの名前。
クラスタファイルシステムをマウントするディレクトリの名前。
クラスタ内にある各ノード上で、/etc/vfstab ファイルにマウントポイント用のエントリを追加します。
次の必須マウントオプションを使用します。
ロギングはすべてのクラスタファイルシステムに必要です。
Solaris UFS logging - global,logging マウントオプションを使用します。UFS マウントポイントの詳細については、mount_ufs(1M) のマニュアルページを参照してください。
syncdir マウントオプションは UFS クラスタファイルシステムには必要ありません。syncdir を指定した場合は、write() システムコールにおいてファイルシステムが POSIX に準拠して動作することが保証される、つまり、write() が成功した場合はディスク上に空間が確実に確保されます。syncdir を指定しない場合、ファイルシステムの動作は UFS ファイルシステムと同じです。syncdir を指定しない場合、ディスクブロックを割り当てる (つまり、データをファイルに追加するような) 書き込みの性能が大幅に向上します。しかし、syncdir を指定しない場合、ファイルを閉じるまでは空間不足 (ENOSPC) の状態が判明しません。この場合、ファイルを閉じるときに ENOSPC 状態になるのは、フェイルオーバー後の短い間だけです。syncdir (つまり、POSIX の動作) を指定した場合、空間不足状態はファイルを閉じる前に見つかります。
Solstice DiskSuite トランスメタデバイス - global マウントオプションを使用します。logging マウントオプションは使用しません。trans メタデバイスを設定する方法については、Solstice DiskSuite のマニュアルを参照してください。
VxFS ロギング - global, log マウントオプションを使用します。VxFS マウントオプションの詳細については、mount_vxfs(1M) のマニュアルページを参照してください。
クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。
クラスタファイルシステムごとに、各ノードの /etc/vfstab ファイルにあるエントリの情報が同じであることを確認します。
各ノードの /etc/vfstab ファイルにあるエントリのデバイスの順番が同じであることを確認します。
ファイルシステムの起動順の依存関係を検査します。
たとえば、phys-schost-1 がディスクデバイス d0 を /global/oracle にマウントし、phys-schost-2 がディスクデバイス d1 を /global/oracle/logs にマウントすると仮定します。この構成では、phys-schost-2 が /global/oracle/logs を起動およびマウントできるのは、phys-schost-1 が /global/oracle を起動およびマウントした後だけです。
詳細については、vfstab(4) のマニュアルページを参照してください。
クラスタ内にある任意のノード上で、マウントポイントが存在し、クラスタ内にあるすべてのノード上で /etc/vfstab ファイルのエントリが正しいことを確認します。
# sccheck |
エラーが発生していない場合は、何も戻されません。
クラスタ内にある任意のノードから、クラスタファイルシステムをマウントします。
# mount /global/device-group/mountpoint |
VERITAS File System (VxFS) の場合、ファイルシステムを正しく確実にマウントするには、device-group の現在のマスターからファイルシステムをマウントします。さらに、ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。
クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。
マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。
Sun Cluster 環境で VxFS クラスタファイルシステムを管理する場合、管理コマンドを実行できるのは、VxFS クラスタファイルシステムがマウントされている主ノードだけです。
クラスタノードが複数のパブリックサブネットに接続されているかどうかを確認します。
接続されている場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「追加のパブリックネットワークアダプタを構成する」に進んで、追加のパブリックネットワークアダプタを構成します。
接続されていない場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「パブリックネットワーク管理 (PNM) を構成する」に進んで PNM を構成し、NAFO グループを設定します。
次の例では、UFS クラスタファイルシステムを Solstice DiskSuite メタデバイス /dev/md/oracle/rdsk/d1 上に作成します。
# newfs /dev/md/oracle/rdsk/d1 ... (各ノード上で実行する) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (保存して終了する) (1 つのノード上で実行する) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2000 |