次の手順は、追加するクラスタファイルシステムごとに行います。
ファイルシステムを作成するとき、ディスク上のデータは破壊されます。正しいディスクデバイス名を指定していることを確認してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。
SunPlex Manager を使用してデータサービスをインストールした場合、1 つまたは複数のクラスタファイルシステム上に SunPlex Manager がすでに作成されています。
ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。
ボリューム管理ソフトウェアのインストール手順については、Solstice DiskSuite/Solaris Volume Manager ソフトウェアのインストールと構成か VxVM ソフトウェアのインストールと構成を参照してください。
クラスタ内にある任意のノード上でスーパーユーザーになります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノード上でスーパーユーザーになります。
ファイルシステムを作成します。
VxFS ファイルシステムの場合、 VxFS のマニュアルに記載されている手順に従います。
UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。
# newfs raw-disk-device |
下の表 に、引数 raw-disk-device の名前の例を挙げます。命名規則はボリュームマネージャごとに異なるので注意してください。
ボリュームマネージャ |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solstice DiskSuite/Solaris Volume Manager |
/dev/md/oracle/rdsk/d1 |
oracle ディスクセット内の raw デバイス d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクセット内の raw デバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
クラスタ内にある各ノード上で、クラスタファイルシステムごとにマウントポイントを作成します。
ノード上でクラスタファイルシステムがアクセスされない場合でも、マウントポイントはノードごとに必要です。
管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。
# mkdir -p /global/device-group/mountpoint |
デバイスが属するデバイスグループ名に対応するディレクトリの名前。
クラスタファイルシステムをマウントするディレクトリの名前。
クラスタ内の各ノードで、マウントポイント用の /etc/vfstab ファイルにエントリを追加します。
詳細については、vfstab(4) のマニュアルページを参照してください。
ロギングはすべてのクラスタファイルシステムに必要です。
Solaris UFS ロギング – global と logging マウントオプションを使用します。Oracle Parallel Server/Real Application Clusters RDBMS データファイル、ログファイル、および制御ファイルによる使用については、forcedirectio マウントオプションも使用します。 UFS マウントポイントの詳細については、mount_ufs(1M) のマニュアルページを参照してください。
syncdir マウントオプションは UFS クラスタファイルシステムには必要ありません。
syncdir を指定した場合、write() システムコールにおいて、ファイルシステムが POSIX に準拠して動作することが保証されます。write() が成功した場合、このマウントオプションにより、ディスク上に十分な空間が確保されます。
syncdir を指定しない場合、ファイルシステムの動作は UFS ファイルシステムと同じです。syncdir を指定しない場合、ディスクブロックを割り当てる (つまり、データをファイルに追加するような) 書き込みの性能が大幅に向上します。しかし、syncdir を指定しない場合、ファイルを閉じるまでは空間不足 (ENOSPC) の状態が判明しません。
この場合、ファイルを閉じるときに ENOSPC 状態になるのは、フェイルオーバー後の短い間だけです。syncdir (つまり、POSIX の動作) を指定した場合、空間不足状態はファイルを閉じる前に見つかります。
Solstice DiskSuite トランスメタデバイスまたは Solaris Volume Manager トランザクショナルボリューム – global マウントオプションのみを使用します。logging は、使用しません。
Solaris Volume Managerトランザクションボリュームロギング (旧 Solstice DiskSuite トランスメタデバイスロギング) は、将来の Solaris リリースで、Solaris オペレーティング環境から削除される予定です。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。
トランスメタデバイスの設定方法については、Solstice DiskSuite のマニュアルを参照してください。また、トランザクショナルボリュームの設定方法については、Solaris Volume Manager のマニュアルを参照してください。
VxFS ロギング – global と log マウントオプションを使用します。VxFS マウントオプションの詳細については、VxFS mount_vxfs のマニュアルページおよび『Sun Cluster 3.1 10/03 のシステム管理』の「クラスタファイルシステムの管理の概要」を参照してください。
クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。
クラスタファイルシステムごとに、各ノードの /etc/vfstab ファイルにあるエントリの情報が同じであることを確認します。
各ノードの /etc/vfstab ファイルにあるエントリのデバイスの順番が同じであることを確認します。
ファイルシステムの起動順の依存関係を検査します。
たとえば、phys-schost-1 がディスクデバイス d0 を /global/oracle にマウントし、phys-schost-2 がディスクデバイス d1 を /global/oracle/logs にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle をマウントした後にのみ、 phys-schost-2 が起動して /global/oracle/logs をマウントできます。
クラスタ内の任意のノードで、マウントポイントが存在することを確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。
# sccheck |
エラーが発生していない場合は、何も戻されません。
クラスタ内にある任意のノードから、クラスタファイルシステムをマウントします。
# mount /global/device-group/mountpoint |
VERITAS File System (VxFS) の場合、ファイルシステムのマウントを正しく行うためには、device-group の現在のマスターからマウントしてください。さらに、VxFS ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。
クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。
マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。
VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。
IP マルチパスグループを構成します。
次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。
# newfs /dev/md/oracle/rdsk/d1 … (各ノード上で実行する) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (保存して終了する) (1 つのノード上で実行する) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |