この章では次の手順について説明します。
この節では、データサービスをサポートするために、クラスタファイルシステムを作成する手順について説明します。
この手順は作成するクラスタファイルシステムごとに実行します。ローカルシステムと違って、クラスタファイルシステムはクラスタ内のどのノードからでもアクセスできます。
クラスタファイルシステムを作成する代わりに、高可用性ローカルファイルシステムを使用して、データサービスをサポートすることもできます。データサービスをサポートするために、クラスタファイルシステムを作成するか、高可用性ローカルファイルシステムを使用するかの選択については、そのデータサービスのマニュアルを参照してください。高可用性ローカルファイルシステムの作成に関する一般情報については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「高可用性ローカルファイルシステムの有効化」を参照してください。
次の作業を実行します。
Solaris OS、Sun Cluster フレームワーク、および その他の製品のソフトウェアパッケージを 「ソフトウェアのインストール」に記載されたとおりにインストールしたことを確認します。
新しいクラスタまたはクラスタノードを 「新規クラスタまたは新規クラスタノードの確立」に記載されたとおりに確立したことを確認します。
ボリュームマネージャーを使用している場合は、ボリューム管理ソフトウェアがインストールされて、設定されていることを確認します。ボリュームマネージャーのインストール手順については、「Solaris ボリュームマネージャー ソフトウェアの構成」または「VxVM ソフトウェアのインストールと構成」を参照してください。
VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを行う必要があります。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「VERITAS Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
作成するクラスタファイルシステムごとに使用するマウントオプションを決めます。「クラスタファイルシステムのマウントオプションの選択」を参照してください。
クラスタ内にある任意のノード上でスーパーユーザーになります。
Solaris の場合、クラスタに非大域ゾーンが設定されているときは、大域ゾーンでこの手順を実行する必要があります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成するグローバルデバイスの現在の主ノードでスーパーユーザーになります。
ファイルシステムを作成します。
ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。
UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。
phys-schost# newfs raw-disk-device |
下の表 に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。
ボリュームマネージャー |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solaris ボリュームマネージャー |
/dev/md/nfs/rdsk/d1 |
nfs ディスクセット内の raw ディスクデバイス d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクセット内の raw デバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
SPARC: VERITAS File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。
クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントのディレクトリを作成します。
そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。
管理を行いやすくするには、マウントポイントを /global/device-group/ ディレクトリに作成します。この場所を使用すると、グローバルに利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。
phys-schost# mkdir -p /global/device-group/mountpoint/ |
デバイスが含まれるデバイスグループ名に対応するディレクトリ名を指定します。
クラスタファイルシステムのマウント先のディレクトリ名を指定します。
クラスタ内にある各ノード上で、/etc/vfstab ファイルにマウントポイント用のエントリを追加します。
詳細については、vfstab(4) のマニュアルページを参照してください。
クラスタに非大域ゾーンが設定されている場合は、大域ゾーンのクラスタファイルシステムを必ず大域ゾーンのルートディレクトリのパスにマウントしてください。
各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。
Solaris ボリュームマネージャー トランザクションボリュームには決して logging マウントオプションを使用しないでください。トランザクションボリュームは、独自のロギングを提供します。
さらに、Solaris ボリュームマネージャー トランザクションボリュームロギング は Solaris 10 OS から削除されています。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。
クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。
各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。
各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。
ファイルシステムの起動順の依存関係を検査します。
たとえば、phys-schost-1 がディスクデバイス d0 を /global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1 を /global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle をマウントしたあとにのみ phys-schost-2 が起動して /global/oracle/logs をマウントできます。
クラスタ内の任意のノードで設定確認ユーティリティを実行します。
phys-schost# sccheck |
設定確認ユーティリティは、マウントポイントが存在することを確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。エラーが発生していない場合は、何も戻されません。
詳細については、sccheck(1M) のマニュアルページを参照してください。
クラスタファイルシステムをマウントします。
phys-schost# mount /global/device-group/mountpoint/ |
クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。
df コマンドまたは mount コマンドのいずれかを使用し、マウントされたファイルシステムの一覧を表示します。詳細は、df(1M) のマニュアルページまたは mount(1M) のマニュアルページを参照してください。
Solaris 10 OS の場合、クラスタファイルシステムは大域ゾーンおよび非大域ゾーンの両方からアクセスできます。
次に、Solaris ボリュームマネージャー ボリューム /dev/md/oracle/rdsk/d1 上に UFS クラスタファイルシステムを作成する例を示します。各ノードの vfstab ファイルにクラスタファイルシステムのエントリが追加されます。次に 1 つのノードから sccheck コマンドが実行されます。設定確認プロセスが正しく終了すると、1 つのノードからクラスタファイルシステムがマウントされ、全ノードで確認されます。
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# sccheck phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005 |
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
ノードに非大域ゾーンを作成する場合は、「クラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC: Sun Management Centerをクラスタを監視するように設定する場合は、「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
この節では、クラスタノードに非大域ゾーンを作成する手順について説明します。
クラスタに作成する非大域ゾーンごとにこの手順を実行してください。
ゾーンのインストールについては、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』を参照してください。
ノードがクラスタモードまたは非クラスタモードで起動される間に、クラスタノードに Solaris 10 非大域ゾーン (以下単に「ゾーン」と呼ぶ) を設定することができます。
ノードが非クラスタモードで起動される間にゾーンを作成する場合、クラスタソフトウェアは、ノードがクラスタに参加するときにゾーンを検出します。
ノードがクラスタモードで起動される間にゾーンを作成または削除する場合、クラスタソフトウェアはリソースグループのマスターとなるゾーンのリストを動的に変更します。
次の作業を実行します。
非大域ゾーンの設定を計画します。「クラスタ内の非大域ゾーンのガイドライン」の要件および制限事項を守ります。
次の情報を用意します。
作成する非大域ゾーンの合計数。
各ゾーンで使用する公開アダプタおよび公開 IP アドレス。
各ゾーンのゾーンパス。このパスは、クラスタファイルシステムや高可用性ローカルファイルシステムではなく、ローカルファイルシステムでなければなりません。
各ゾーンに表示される 1 つ以上のデバイス。
(必要な場合) 各ゾーンに割り当てる名前。
ゾーンにプライベート IP アドレスを割り当てる場合、クラスタ IP アドレスの範囲が設定する追加のプライベート IP アドレスをサポートしていることを確認してください。cluster show-netprops コマンドを使用して、現在のプライベートネットワーク構成を表示します。
現在の IP アドレス範囲が設定する追加のプライベート IP アドレスをサポートするのに十分でない場合は、「ノードまたはプライベートネットワークを追加するときにプライベートネットワーク構成を変更する」の手順に従って、プライベート IP アドレスの範囲を再設定します。
詳細は、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「ゾーンの構成要素」を参照してください。
非大域ゾーンを作成しているノードでスーパーユーザーになります。
大域ゾーンにいる必要があります。
Solaris 10 OS の場合、各ノードで Service Management Facility (SMF) のマルチユーザーサービスがオンラインであることを確認してください。
ノードでサービスがまだオンラインでない場合は、状態がオンラインになるのを待ってから、次の手順に進んでください。
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
新しいゾーンを構成、インストール、および起動します。
非大域ゾーンでリソースグループの機能をサポートするには、autoboot プロパティーを true に設定する必要があります。
次のマニュアルの手順に従ってください。
ゾーンが ready 状態にあることを確認します。
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
(省略可能) プライベート IP アドレスとプライベートホスト名をゾーンに割り当てます。
次のコマンドにより、クラスタのプライベート IP アドレス範囲から使用できる IP アドレスが選択され、割り当てられます。また、このコマンドにより、指定されたプライベート ホスト名、またはホストの別名がゾーンに割り当てられ、割り当てられたプライベート IP アドレスにマッピングされます。
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
プロパティーを指定します。
ゾーンのプライベートホスト名、またはホストの別名を指定します。
ノードの名前。
非大域ゾーンの名前。
初期内部ゾーン構成を実行します。
『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「初期内部ゾーン構成を実行する」の手順に従います。次のどちらかの方法を選択します。
ゾーンにログインします。
/etc/sysidcfg ファイルを使用します。
非大域ゾーンで、nsswitch.conf ファイルを変更します。
ゾーンを有効にして、クラスタ固有のホスト名と IP アドレスを解決するために、これらの変更を行う必要があります。
非大域ゾーンにアプリケーションをインストールするには、スタンドアロンシステムの場合と同じ手順を実行します。非大域ゾーンにソフトウェアをインストールする手順については、アプリケーションのインストールマニュアルを参照してください。また、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「ゾーンがインストールされている Solaris システムでのパッケージとパッチの追加および削除 (作業マップ)」も参照してください。
非大域ゾーンにデータサービスをインストールして設定する場合は、個々のデータサービスの Sun Cluster マニュアルを参照してください。