この手順は作成するクラスタファイルシステムごとに実行します。ローカルシステムと違って、クラスタファイルシステムはクラスタ内のどのノードからでもアクセスできます。
クラスタファイルシステムを作成する代わりに、高可用性ローカルファイルシステムを使用して、データサービスをサポートすることもできます。データサービスをサポートするために、クラスタファイルシステムを作成するか、高可用性ローカルファイルシステムを使用するかの選択については、そのデータサービスのマニュアルを参照してください。高可用性ローカルファイルシステムの作成に関する一般情報については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「高可用性ローカルファイルシステムの有効化」を参照してください。
次の作業を実行します。
Solaris OS、Sun Cluster フレームワーク、および その他の製品のソフトウェアパッケージを 「ソフトウェアをインストールする」に記載されたとおりにインストールしたことを確認します。
新しいクラスタまたはクラスタノードを 「新規クラスタまたは新規クラスタノードの確立」に記載されたとおりに確立したことを確認します。
ボリュームマネージャーを使用している場合は、ボリューム管理ソフトウェアがインストールされて、設定されていることを確認します。ボリュームマネージャーのインストール手順については、「Solaris Volume Manager ソフトウェアの構成」または 「VxVM ソフトウェアのインストールと構成」を参照してください。
VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを行う必要があります。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「VERITAS Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
作成するクラスタファイルシステムごとに使用するマウントオプションを決めます。「クラスタファイルシステムのマウントオプションの選択」を参照してください。
クラスタ内にある任意のノード上でスーパーユーザーになります。
Solaris の場合、クラスタに非大域ゾーンが設定されているときは、大域ゾーンでこの手順を実行する必要があります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成するグローバルデバイスの現在の主ノードでスーパーユーザーになります。
ファイルシステムを作成する。
ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。
UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。
phys-schost# newfs raw-disk-device |
下の表 に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。
ボリューム管理ソフトウェア |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
nfs ディスクセット内の raw ディスクデバイス d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクセット内の raw デバイス vol01 |
ありません |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
SPARC:VERITAS File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。
クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントのディレクトリを作成します。
そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。
管理を行いやすくするには、マウントポイントを /global/device-group/ ディレクトリに作成します。この場所を使用すると、グローバルに利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。
phys-schost# mkdir -p /global/device-group/mountpoint/ |
デバイスが含まれるデバイスグループ名に対応するディレクトリ名を指定します。
クラスタファイルシステムのマウント先のディレクトリ名を指定します。
クラスタ内の各ノードで、マウントポイント用の /etc/vfstabファイルにエントリを追加します。
詳細については、vfstab(4) のマニュアルページを参照してください。
クラスタに非大域ゾーンが設定されている場合は、大域ゾーンのクラスタファイルシステムを必ず大域ゾーンのルートディレクトリのパスにマウントしてください。
各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。
Solaris Volume Manager のトランザクションボリュームに、 logging マウントオプションを使用しないでください。トランザクションボリュームは独自のロギングを提供します。
さらに、 Solaris Volume Manager トランザクションボリュームロギング は Solaris 10 OS から削除されています。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。
クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。
各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。
各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。
ファイルシステムの起動順の依存関係を検査します。
たとえば、phys-schost-1 がディスクデバイス d0 を /global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1 を /global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle をマウントしたあとにのみ phys-schost-2 が起動して /global/oracle/logs をマウントできます。
クラスタ内の任意のノードで、構成の確認ユーティリティーを実行します。
phys-schost# sccheck |
設定確認ユーティリティは、マウントポイントが存在することを確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。エラーが発生していない場合は、何も戻されません。
詳細については、sccheck(1M) のマニュアルページを参照してください。
クラスタファイルシステムをマウントします。
phys-schost# mount /global/device-group/mountpoint/ |
UFS の場合は、クラスタ内の任意のノードからクラスタファイルシステムをマウントします。
SPARC:VxFS の場合、ファイルシステムを正しく確実にマウントするために、device-group の現在のマスターからクラスタファイルシステムをマウントします。
さらに、VxFS ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。
VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。
クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。
df コマンドまたは mount コマンドのいずれかを使用し、マウントされたファイルシステムの一覧を表示します。詳細は、df(1M) のマニュアルページまたは mount(1M) のマニュアルページを参照してください。
Solaris 10 OS の場合、クラスタファイルシステムは大域ゾーンおよび非大域ゾーンの両方からアクセスできます。
次に、Solaris Volume Manager ボリューム /dev/md/oracle/rdsk/d1 上に UFS クラスタファイルシステムを作成する例を示します。各ノードの vfstab ファイルにクラスタファイルシステムのエントリが追加されます。次に 1 つのノードから sccheck コマンドが実行されます。設定確認プロセスが正しく終了すると、1 つのノードからクラスタファイルシステムがマウントされ、全ノードで確認されます。
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# sccheck phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005 |
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
ノードに非大域ゾーンを作成する場合は、「クラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC:Sun Management Centerをクラスタを監視するように設定する場合は、「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび 『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。