次の作業は、Sun Cluster の初期インストール後に作成する各クラスタファイルシステムごとに実行してください。
必ず正しいディスクデバイス名を指定してください。クラスタファイルシステムを作成すると、ディスク上のデータはすべて消去されます。デバイス名を誤って指定すると、本来消去する必要のないデータを失うことになります。
クラスタファイルシステムを追加するには以下が必要です。
クラスタ内のノードでのスーパーユーザー特権。
クラスタファイルシステムの作成先にデバイスグループ (Solstice DiskSuite デバイスグループまたは VxVM デバイスグループ)、またはブロックディスクスライス。
クラスタの任意のノードでスーパーユーザーになります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノードでスーパーユーザーになります。
newfs(1M) コマンドを使用してファイルシステムを作成します。
# newfs raw-disk-device |
表 3-3 に、引数 raw-disk-device の名前の例を挙げます。命名規則は各ボリューム管理ソフトウェアごとに異なるので注意してください。
表 3-3 raw ディスクデバイス名の例
使用中のボリューム管理ソフトウェア |
使用可能なディスクデバイス名 |
説明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle メタセット内部の raw ディスクデバイス d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクグループ内部の raw ディスクデバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
ブロックスライス d1s3 の raw ディスクデバイス |
クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントディレクトリを作成します。
クラスタファイルシステムにアクセスしないノードがある場合でも、マウントポイントは各ノードごとに必要です。
# mkdir -p /global/device-group/mount-point |
デバイスが含まれるデバイスグループ名に対応するディレクトリ名を指定します。
クラスタファイルシステムのマウント先のディレクトリ名を指定します。
管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。これを使用することによって、広域に利用できるクラスタファイルシステムを、ローカルファイルシステムから簡単に判別できるようになります。
クラスタ内の各ノードで、/etc/vfstab ファイルにマウントポイントのエントリを追加します。
次の必須マウントオプションを使用します。
すべてのクラスタファイルシステムのロギングが必要です。
Solaris UFS ロギング - global または logging マウントオプションを使用します。UFS マウントオプションの詳細については、mount_ufs のマニュアルページを参照してください。
syncdir マウントオプションは、UFS クラスタファイルシステムには必要ありません。syncdir を指定すると、ファイルシステムは POSIX に準拠する動作になります。指定しないと、ファイルシステムは UFS に準拠する動作になります。syncdir を指定しないと、ディスクブロックを割り当てるような書き込み (ファイルにデータを追加するなど) の性能が著しく改善される可能性があります。しかし、syncdir を指定しない場合、ファイルを閉じるまでは、容量不足の状態を発見できない可能性もあります。syncdir を指定しない場合でも、この問題が発生するのは稀です。syncdir (および POSIX 準拠の動作) を指定した場合、容量不足の状態はファイルを閉じる前に発見できます。
Solstice DiskSuite のトランスメタデバイス - global マウントオプションを使用します (logging マウントオプションは使用しません)。トランスメタデバイスの設定については、Solstice DiskSuite のマニュアルを参照してください。
クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。
各クラスタファイルシステムについて、/etc/vfstab エントリの情報が、各ノードで同一であることを確認します。
各ノードの /etc/vfstab ファイルのエントリにおいて、デバイスが同じ順序で並んでいることを確認します。
ファイルシステムの起動順序の依存関係を確認します。
たとえば、phys-schost-1 が /global/oracle にディスクデバイス d0 をマウントし、phys-schost-2 が /global/oracle/logs にディスクデバイス d1 をマウントするとします。この構成では、phys-schost-1 が起動して /global/oracle をマウントした後でなければ、phys-schost-2 が起動して /global/oracle/logs をマウントすることはできません。
詳細は、vfstab(4) のマニュアルページを参照してください。
クラスタ内の任意のノードで、マウントポイントが存在していること、および /etc/vfstab ファイルのエントリがクラスタ内のすべてのノードで正しいことを確認します。
# sccheck |
エラーがない場合は何も表示されません。
クラスタ内の任意のノードから、クラスタファイルシステムをマウントします。
# mount /global/device-group/mount-point |
クラスタの各ノードで、クラスタファイルシステムがマウントされていることを確認します。
df(1M) または mount(1M) のどちらかのコマンドを使用して、マウントされたファイルシステムの一覧を表示できます。
次に、Solstice DiskSuite メタデバイス /dev/md/oracle/rdsk/d1 上に UFS クラスタファイルシステムを作成する例を示します。
# newfs /dev/md/oracle/rdsk/d1 ... [各ノードで実行する] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [保存して終了する] [任意のノードで実行する] # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun May 3 08:56:16 2001 |