この章では次の手順について説明します。
この節では、データサービスをサポートするために、クラスタファイルシステムを作成する手順について説明します。
この手順は作成するクラスタファイルシステムごとに実行します。ローカルシステムと違って、クラスタファイルシステムはクラスタ内のどのノードからでもアクセスできます。
クラスタファイルシステムを作成する代わりに、高可用性ローカルファイルシステムを使用して、データサービスをサポートすることもできます。データサービスをサポートするために、クラスタファイルシステムを作成するか、高可用性ローカルファイルシステムを使用するかの選択については、そのデータサービスのマニュアルを参照してください。高可用性ローカルファイルシステムの作成に関する一般情報については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「高可用性ローカルファイルシステムの有効化」を参照してください。
次の作業を実行します。
Solaris OS、Sun Cluster フレームワーク、および その他の製品のソフトウェアパッケージを 「ソフトウェアをインストールする」に記載されたとおりにインストールしたことを確認します。
新しいクラスタまたはクラスタノードを 「新規クラスタまたは新規クラスタノードの確立」に記載されたとおりに確立したことを確認します。
ボリュームマネージャーを使用している場合は、ボリューム管理ソフトウェアがインストールされて、設定されていることを確認します。ボリュームマネージャーのインストール手順については、「Solaris Volume Manager ソフトウェアの構成」または 「VxVM ソフトウェアのインストールと構成」を参照してください。
VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを行う必要があります。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「VERITAS Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
作成するクラスタファイルシステムごとに使用するマウントオプションを決めます。「クラスタファイルシステムのマウントオプションの選択」を参照してください。
クラスタ内にある任意のノード上でスーパーユーザーになります。
Solaris の場合、クラスタに非大域ゾーンが設定されているときは、大域ゾーンでこの手順を実行する必要があります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成するグローバルデバイスの現在の主ノードでスーパーユーザーになります。
ファイルシステムを作成する。
ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。
UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。
phys-schost# newfs raw-disk-device |
下の表 に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。
ボリューム管理ソフトウェア |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
nfs ディスクセット内の raw ディスクデバイス d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクセット内の raw デバイス vol01 |
ありません |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
SPARC:VERITAS File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。
クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントのディレクトリを作成します。
そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。
管理を行いやすくするには、マウントポイントを /global/device-group/ ディレクトリに作成します。この場所を使用すると、グローバルに利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。
phys-schost# mkdir -p /global/device-group/mountpoint/ |
デバイスが含まれるデバイスグループ名に対応するディレクトリ名を指定します。
クラスタファイルシステムのマウント先のディレクトリ名を指定します。
クラスタ内の各ノードで、マウントポイント用の /etc/vfstabファイルにエントリを追加します。
詳細については、vfstab(4) のマニュアルページを参照してください。
クラスタに非大域ゾーンが設定されている場合は、大域ゾーンのクラスタファイルシステムを必ず大域ゾーンのルートディレクトリのパスにマウントしてください。
各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。
Solaris Volume Manager のトランザクションボリュームに、 logging マウントオプションを使用しないでください。トランザクションボリュームは独自のロギングを提供します。
さらに、 Solaris Volume Manager トランザクションボリュームロギング は Solaris 10 OS から削除されています。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。
クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。
各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。
各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。
ファイルシステムの起動順の依存関係を検査します。
たとえば、phys-schost-1 がディスクデバイス d0 を /global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1 を /global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle をマウントしたあとにのみ phys-schost-2 が起動して /global/oracle/logs をマウントできます。
クラスタ内の任意のノードで、構成の確認ユーティリティーを実行します。
phys-schost# sccheck |
設定確認ユーティリティは、マウントポイントが存在することを確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。エラーが発生していない場合は、何も戻されません。
詳細については、sccheck(1M) のマニュアルページを参照してください。
クラスタファイルシステムをマウントします。
phys-schost# mount /global/device-group/mountpoint/ |
UFS の場合は、クラスタ内の任意のノードからクラスタファイルシステムをマウントします。
SPARC:VxFS の場合、ファイルシステムを正しく確実にマウントするために、device-group の現在のマスターからクラスタファイルシステムをマウントします。
さらに、VxFS ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。
VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。
クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。
df コマンドまたは mount コマンドのいずれかを使用し、マウントされたファイルシステムの一覧を表示します。詳細は、df(1M) のマニュアルページまたは mount(1M) のマニュアルページを参照してください。
Solaris 10 OS の場合、クラスタファイルシステムは大域ゾーンおよび非大域ゾーンの両方からアクセスできます。
次に、Solaris Volume Manager ボリューム /dev/md/oracle/rdsk/d1 上に UFS クラスタファイルシステムを作成する例を示します。各ノードの vfstab ファイルにクラスタファイルシステムのエントリが追加されます。次に 1 つのノードから sccheck コマンドが実行されます。設定確認プロセスが正しく終了すると、1 つのノードからクラスタファイルシステムがマウントされ、全ノードで確認されます。
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# sccheck phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005 |
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
ノードに非大域ゾーンを作成する場合は、「クラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC:Sun Management Centerをクラスタを監視するように設定する場合は、「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび 『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
この節では、クラスタノードに非大域ゾーンを作成する手順について説明します。
クラスタに作成する非大域ゾーンごとにこの手順を実行してください。
ゾーンのインストールの詳細は、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』を参照してください。
ノードがクラスタモードまたは非クラスタモードで起動される間に、クラスタノードに Solaris 10 非大域ゾーン (以下単に「ゾーン」と呼ぶ) を設定することができます。
ノードが非クラスタモードで起動される間にゾーンを作成する場合、クラスタソフトウェアは、ノードがクラスタに参加するときにゾーンを検出します。
ノードがクラスタモードで起動される間にゾーンを作成または削除する場合、クラスタソフトウェアはリソースグループのマスターとなるゾーンのリストを動的に変更します。
次の作業を実行します。
非大域ゾーンの設定を計画します。「クラスタ内の非大域ゾーンのガイドライン」の要件および制限事項を守ります。
次の情報を用意します。
作成する非大域ゾーンの合計数。
各ゾーンで使用する公開アダプタおよび公開 IP アドレス。
各ゾーンのゾーンパス。このパスは、クラスタファイルシステムや高可用性ローカルファイルシステムではなく、ローカルファイルシステムでなければなりません。
各ゾーンに表示される 1 つ以上のデバイス。
(必要な場合) 各ゾーンに割り当てる名前。
ゾーンにプライベート IP アドレスを割り当てる場合、クラスタ IP アドレスの範囲が設定する追加のプライベート IP アドレスをサポートしていることを確認してください。cluster show-netprops コマンドを使用して、現在のプライベートネットワーク構成を表示します。
現在の IP アドレス範囲が設定する追加のプライベート IP アドレスをサポートするのに十分でない場合は、「ノードまたはプライベートネットワークを追加するときにプライベートネットワーク構成を変更する」の手順に従って、プライベート IP アドレスの範囲を再設定します。
詳細については、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』の「Zone Components」を参照してください。
作成する非大域ゾーンのあるノードでスーパーユーザーになります。
ユーザーは大域ゾーン内に存在する必要があります。
Solaris 10 OS では、各ノードで、Service Management Facility (SMF) 用のマルチユーザーサービスがオンラインであることを確認します。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインになるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
新しいゾーンを構成、インストール、および起動します。
非大域ゾーン内でリソースグループの機能をサポートするには、autoboot プロパティーを true に設定します。
次のマニュアルの手順に従ってください。
ゾーンが ready 状態であることを確認します。
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
(省略可能) ゾーンに、プライベート IP アドレスとプライベートホスト名を割り当てます。
次のコマンドは、クラスタのプライベート IP アドレスの範囲から、使用可能な IP アドレスを選択し、割り当てます。またこのコマンドは、指定されたプライベートホスト名、またはホスト別名をゾーンに割り当て、割り当てられたプライベート IP アドレスにそれをマッピングします。
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
プロパティーを指定します。
ゾーンプライベートホスト名、またはホスト別名を指定します。
ノードの名前。
非大域ゾーンの名前。
初期内部ゾーン構成を実行します。
『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』の「Performing the Initial Internal Zone Configuration」の手順に従います。次のどちらかの方法を選択します。
ゾーンにログインする
/etc/sysidcfg ファイルを使用する
非大域ゾーンで、nsswitch.conf ファイルを変更します。
これらの変更は、クラスタ固有のホスト名と IP アドレスの検索をゾーンが解決できるようにするため行います。
非大域ゾーンにアプリケーションをインストールするには、スタンドアロンシステムの場合と同じ手順を実行します。非大域ゾーンにソフトウェアをインストールする手順については、アプリケーションのインストールマニュアルを参照してください。また、『System Administration Guide: Solaris Containers-Resource Management and Solaris Zones』の「Adding and Removing Packages and Patches on a Solaris System With Zones Installed (Task Map)」も参照してください。
非大域ゾーンにデータサービスをインストールして設定する場合は、個々のデータサービスの Sun Cluster マニュアルを参照してください。