追加する各クラスタファイルシステムについて次の作業を行います。
ファイルシステムを作成すると、ディスク上のデータはすべて失われます。必ず、正しいディスクデバイス名を指定してください。誤ったデバイス名を指定した場合、その内容は、新しいファイルシステムが作成されたときに消去されます。
SunPlex Manager を使用してデータサービスをインストールした場合は、クラスタファイルシステムがすでに自動的に作成されています (十分な共有ディスクが存在する場合)。
ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。
ボリューム管理ソフトウェアのインストール方法については、「Solstice DiskSuite の構成」か 「VxVM ソフトウェアのインストールと構成」を参照してください。
クラスタ内の任意のノードでスーパーユーザーになります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノードでスーパーユーザーになります。
newfs(1M) コマンドを使用してファイルシステムを作成します。
# newfs raw-disk-device |
次の表に、引数 raw-disk-device の名前の例を示します。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。
表 2-7 raw ディスクデバイス名のサンプル
ボリューム管理ソフトウェア |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle ディスクセット内の raw ディスクデバイス d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクグループ内の raw ディスクデバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
クラスタ内の各ノードに、クラスタファイルシステムのマウントポイントディレクトリを作成します。
特定のノードではクラスタファイルシステムがアクセスされない場合でも、各ノードにマウントポイントが必要です。
管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。この場所を使用することで、広域的に使用できるクラスタファイルシステムと、ローカルファイルシステムを簡単に区別できるようになります。
# mkdir -p /global/device-group/mountpoint |
デバイスが含まれるデバイスグループの名前に対応するディレクトリ名を指定します。
クラスタファイルシステムをマウントするディレクトリ名を指定します。
クラスタ内の各ノードで、マウントポイント用の /etc/vfstab ファイルにエントリを追加します。
以下の必須マウントオプションを使用します。
ロギングはすべてのクラスタファイルシステムに必要です。
Solaris UFS ロギング - マウントオプション global と logging を使用します。UFS マウントオプションの詳細は、mount_ufs(1M) のマニュアルページを参照してください。
syncdir マウントオプションは、UFS クラスタファイルシステムでは必要ありません。syncdir を指定すると、POSIX に準拠したファイルシステムの動作が保証されます。指定しない場合は、UFS ファイルシステムと同じ動作になります。syncdir を指定しないと、ディスクブロックを割り当てる書き込み処理のパフォーマンスを大幅に向上できます (ファイルにデータを追加する場合など)。ただし、場合によっては、syncdir を指定しないと、ファイルを閉じるまで容量不足の状態を検出できません。syncdir を指定しないことで生じる問題はほとんどありません。syncdir (および POSIX 動作) を指定すると、ファイルを閉じる前に容量不足の状態を検出できます。
Solstice DiskSuite トランスメタデバイス - global マウントオプションを使用します (logging マウントオプションは使用しないでください)。トランスメタデバイスの設定方法については、Solstice DiskSuite のマニュアルを参照してください。
クラスタファイルシステムを自動的にマウントするには、「mount at boot」フィールドを「yes」に設定します。
各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。
各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。
ファイルシステムの起動順序の依存関係を確認します。
たとえば、phys-schost-1 が /global/oracle にディスクデバイス d0 をマウントし、phys-schost-2 が /global/oracle/logs にディスクデバイス d1 をマウントするとします。この構成では、phys-schost-1 が起動して /global/oracle をマウントした後にのみ、phys-schost-2 が起動して /global/oracle/logs をマウントできます。
詳細については、vfstab(4) のマニュアルページを参照してください。
クラスタ内の任意のノードで、マウントポイントが存在していること、およびクラスタ内のすべてのノードで /etc/vfstab ファイルのエントリが正しいことを確認します。
# sccheck |
エラーがない場合は、何も表示されません。
クラスタ内の任意のノードから、クラスタファイルシステムをマウントします。
# mount /global/device-group/mountpoint |
クラスタの各ノードで、クラスタファイルシステムがマウントされていることを確認します。
df(1M) または mount(1M) のいずれかのコマンドを使用し、マウントされたファイルシステムの一覧を表示します。
クラスタノードが複数のパブリックサブネットに接続されているかどうかを確認します。
接続されている場合は、「追加のパブリックネットワークアダプタを構成する」へ進み、追加のパブリックネットワークアダプタを構成してください。
接続されていない場合は、「パブリックネットワーク管理 (PNM) を構成する」へ進み、PNM の構成と NAFO グループの設定を行ってください。
次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。
# newfs /dev/md/oracle/rdsk/d1 ... (各ノードで実行) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (保存して終了) (1 つのノードで実行) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2000 |