Sun Cluster 2.2 のシステム管理

Sun Cluster 環境での Solstice DiskSuite の使用

この節では、Solstice DiskSuite による次に示すデバイスの管理について説明します。

Solstice DiskSuite オブジェクトの管理についての詳細は、Solstice DiskSuite のマニュアルを参照してください。

メタデバイスとディスクセットの管理

メタデバイスとディスクセットは、Solstice DiskSuite のコマンド行ユーティリティ、または DiskSuite Tool (metatool(1M)) の GUI を使用して管理します。

Solstice DiskSuite のマニュアルを使用して Sun Cluster 構成内のディスクセットとメタデバイスを管理する場合は、あらかじめこの章の情報に目を通してください。

ディスクセットは、ディスクをグループにしたものです。ディスクセットの主な管理作業として、ディスクの追加と削除が挙げられます。

ディスクセットに含めたディスクを使用する前に、そのディスクのスライスを使用するメタデバイスを設定する必要があります。メタデバイスは、連結、ストライプ、ミラー、UFS ロギングデバイス (トランスデバイスとも呼ばれる) のどれかです。また、メタデバイスにエラーが発生した場合に代替デバイスとして機能する、スライスを含むホットスペアプールを作成することもできます。


注 -

メタデバイス名は、d から始まり、その後に番号が続きます。Sun Cluster 構成のデフォルトでは、128 (0 〜 127) の一意のメタデバイスが存在します。ユーザーが作成する各 UFS ロギングデバイスは、少なくても 7 つのメタデバイス名を使用します。したがって、大規模な Sun Cluster 構成では、128 を超えるデフォルトメタデバイス名が必要になることもあります。デフォルトの数を変更する方法については、Solstice DiskSuite のマニュアルを参照してください。ホットスペアプール名は、hsp で始まり、その後に番号が続きます。使用できるホットスペアプールは、最高 1000 (hsp000hsp999) です。


ディスクセットについて

この節では、ディスクセットの概要、ディスクセットと論理ホストとの関係の概要、論理ホストに対応するディスクセットにディスクの追加と削除を行う方法について説明します。

Sun Cluster の論理ホストは、物理ホストにマスターされます。論理ホストのディスクセットにアクセスできるのは、論理ホストをマスターしている物理ホストだけです。物理ホストが論理ホストのディスクセットをマスターする場合、そのディスクセットの所有権があると言います。ディスクセットの所有権は、通常、Sun Cluster によって管理されます。しかし、論理ホストが保守状態 (hastat(1M) コマンドで報告される) の場合は、DiskSuite の metaset -t コマンドを使用して、ディスクセットの所有権を手動で取得できます。論理ホストをサービスに戻す前に、metaset -r コマンドを使用してディスクセットの所有権を解放してください。


注 -

論理ホストが稼動している場合は、metaset(1M) コマンドの -t (所有権を取得する) または -r (所有権を解放する) オプションによるディスクセット管理は行わないでください。これらのオプションは Sun Cluster ソフトウェアによって内部的に使用され、クラスタノード間で調整されるべきものです。


ディスクセットへのディスクの追加

ディスクセットに追加されるディスクがサブミラーとして使用される場合、ミラー化が行えるように、2 台の多重ホストディスク拡張装置で 2 つのディスクが使用できるようにする必要があります。ただし、ディスクがホットスペアとして使用される場合は、単一のディスクを追加できます。

ディスクセットにディスクを追加するには (Solstice DiskSuite)

  1. ディスクにデータが存在しないことを確認します。

    パーティションテーブルが作成し直され、ディスク上にメタデバイス状態データベースの複製の領域が割り当てられるため、この確認は必ず行なってください。

  2. 多重ホストディスク拡張装置にディスクデバイスを挿入します。

    ディスク拡張装置のハードウェアマニュアルに示されたディスクの追加と取り外しの方法に従ってください。

  3. ディスクセットにディスクを追加します。

    コマンドの構文を次に示します。diskset には、ディスクの追加先であるディスクセットの名前を指定します。drive には、ディスクの DID 名を dN (Sun Cluster を新たにインストールする場合) または cNtYdZ (HA 1.3 からアップグレードする場合) の形式で指定します。


    # metaset -s diskset -a drive
    
  4. metaset(1M) コマンドでディスクセットにディスクを追加した後、scadmin(1M) コマンドを使用して、追加されたディスクに対してフェイルファストの予約と有効化を行います。


    phys-hahost1# scadmin reserve drivename
    

ディスクセットからのディスクの削除

ディスクセットに含まれるディスクは、ディスク上のスライスがメタデバイスやホットスペアプールで使用中でないかぎり、任意の時点で削除できます。

ディスクセットからディスクを削除するには (Solstice DiskSuite)

  1. metastat(1M) コマンドを使用して、メタデバイスまたはホットスペアとして使用されているスライスが存在しないことを確認します。

  2. metaset(1M) コマンドを使用して、ディスクセットから目的のディスクを削除します。

    このコマンドの構文を次に示します。diskset には、取り外す (障害が発生した) ディスクを含むディスクセットの名前を指定します。drive には、ディスクの DID 名を dN (Sun Cluster を新たにインストールする場合) または cNtYdZ (HA 1.3 からアップグレードする場合) の形式で指定します。


    # metaset -s diskset -d drive
    

    この処理は、構成のサイズとディスクの数に応じて 15 分以上かかります。

多重ホストメタデバイスの管理

次の節では、Sun Cluster の多重ホスト環境でのメタデバイスの管理と、単一ホスト環境での管理の違いについて述べます。

次の節では、特に記述がないかぎり、Solstice DiskSuite のマニュアルに示されている方法を使用できます。


注 -

Solstice DiskSuite のマニュアルの操作説明は、単一ホスト構成だけを対象としています。


次の節では、作業に使用する Solstice DiskSuite コマンド行プログラムについて説明しています。特に指示がないかぎり、これらの作業は metatool(1M) の GUI を使用しても行えます。metatool(1M) を実行する場合は、ディスクセット名を指定できるように -s オプションを使用してください。

メタデバイスの管理

「監視ユーティリティ」で説明しているように、メタデバイスを管理するには、操作中に起こるメタデバイスのエラーを絶えず監視する必要があります。

hastat(1M) によってディスクセットの問題が報告された場合は、metastat(1M) コマンドを使用してエラーが発生したメタデバイスを特定してください。

metastat(1M) または metatool(1M) を実行するには、ディスクセット名を指定できるように -s オプションを使用する必要があります。


注 -

メタデバイス構成を変更する場合は、その構成情報を保存しておいてください。metastat -p を使用して md.tab ファイル内の情報に似た出力を作成し、続いてその出力を保存してください。パーティション分割情報の保存については、「ディスクパーティション情報の保存 (Solstice DiskSuite)」を参照してください。


ディスクへのミラーの追加

ミラー化されたメタデバイスは、Sun Cluster の可用性の高いアプリケーションに使用されるロギング UFS ファイルシステムの一部として使用できます。

ディスクセットに含まれるディスク上のアイドル状態のスライスは、metainit(1M) コマンドを使用してメタデバイスに組み込むことができます。

ディスクセットのミラーの削除

Sun Cluster の可用性の高いデータベースアプリケーションは、ミラー化された raw メタデバイスを使用してデータベースを格納できます。これらのミラーについては、各論理ホストの dfstab.logicalhost ファイルや vfstab ファイルには示されていませんが、関連する Sun Cluster データベース構成ファイルには出現します。これらの構成ファイルのミラーは削除する必要があります。このためには、まず Sun Cluster データベースシステムがミラーを使用するのを停止します。続いて、metaclear(1M) コマンドを使用してミラーを削除します。

サブミラーのオフライン化

SPARCstorage Array を使用している場合は、SPARCstorage Array のディスクの交換または追加を行う前に、そのトレー上のメタデバイスをすべてオフラインにする必要があります。

対称構成では、2 つのディスクセットのそれぞれのディスクが SPARCstorage Array の同じトレーに存在する可能性があるため、保守のためにサブミラーをオフラインにするのは困難です。トレーを取り外す前に、各ディスクセットのメタデバイスをオフラインにする必要があります。

トレー内の各ディスクのサブミラーをすべてオフラインにするには、metaoffline(1M) コマンドを使用します。

新しいメタデバイスの作成

ディスクセットにディスクを追加した後、metainit(1M) または metatool(1M) を使用して新しいメタデバイスを作成してください。新しいデバイスがホットスペアの場合、metahs(1M) コマンドを使用して、ホットスペアプールにホットスペアを入れてください。

エラーが発生したコンポーネントの交換

エラーが発生したメタデバイスコンポーネントを交換するには、metareplace(1M) コマンドを使用します。

代替のスライス (またはディスク) は、使用可能な状態でなければなりません。これは、使用されていない既存のデバイスでも、ディスクセットに追加した新しいデバイスでもかまいません。

metareplace -e コマンドを使用して、(シャーシの停電などが原因の) 一時エラーが起きるドライブをサービスに戻すこともできます。

メタデバイスの削除

メタデバイスを削除する前に、Sun Cluster HA for NFS によって使用されているコンポーネントがメタデバイス内に存在しないことを確認してください。その後、metaclear(1M) コマンドを使用してメタデバイスを削除してください。

メタデバイスの拡張

メタデバイスを拡張するには、別々の多重ホストディスク拡張装置で少なくても 2 つのスライス (ディスク) が使用できるようにする必要があります。新しい 2 つのスライスはそれぞれ、metainit(1M) コマンドを使用して別々のサブミラーに追加します。続いて、growfs(1M) コマンドを使用してファイルシステムを拡張できます。


注意 - 注意 -

growfs(1M) コマンドの実行中、クライアントサービスが停止する場合があります。


ファイルシステムを拡張している間にテイクオーバーが発生すると、ファイルシステムは拡張されません。テイクオーバーが終了した後で、growfs(1M) コマンドを再実行する必要があります。


注 -

/logicalhost/statmon が含まれるファイルシステムの拡張は行えません。statd(1M) プログラムはこのディレクトリを変更するため、ファイルシステムの拡張が行われている間は長時間ブロックされます。このため、ネットワークファイルのロックプロトコルに予測できない影響が出る場合があります。これは、Sun Cluster HA for NFS を使用した構成だけの問題です。


ホットスペアプールの管理

ホットスペアデバイスは、それらが使用中でないかぎり、いつでもスペアプールに追加または削除できます。また、新しいスペアプールを作成し、metahs(1M) コマンドを使用してそれらをサブミラーに関連付けることができます。

UFS ログの管理

多重ホストディスク上の UFS ログはすべてミラー化されます。サブミラーに障害が発生すると、そのサブミラーはエラーが発生したコンポーネントとして報告されます。サブミラーの障害は、metareplace(1M) または metatool(1M) を使用して修復してください。

UFS ログが入ったミラー全体に障害が発生した場合は、ファイルシステムのマウントを解除します。次に、アクセス可能なデータのバックアップ、エラーの修復、ファイルシステムの修復 (fsck(1M) を使用) を行います。その後ファイルシステムをマウントし直す必要があります。

論理ホストへの UFS ロギングの追加

フェイルオーバーまたは haswitch(1M) タイムアウトの基準を満たすため、論理ホスト内の UFS ファイルシステムは、すべてロギング UFS システムでなければなりません。ロギング UFS システムにより、高速のスイッチオーバーとテイクオーバーが容易になります。

ロギング UFS ファイルシステムは、ミラー化されたロギングデバイスと UFS マスターファイルシステムを使用して、トランスデバイスを作成することにより設定します。ロギングデバイスと UFS マスターデバイスは共にミラー化する必要があります。

通常、ディスクセット内の各ドライブのスライス 6 は、UFS ログとして使用できます。スライスは、UFS ログサブミラーに使用できます。スライスが希望するログサイズよりも小さい場合は、複数のスライスを連結できます。通常、UFS ログには 100M バイトあたり 1M バイトが適切です (最大 64M バイト)。ログスライスのドライブが、UFS マスターデバイスのドライブと異なることが理想的です。


注 -

UFS ログ用の領域を確保するためにディスクのパーティション分割を再度行う必要がある場合は、シリンダ 0 から始まる最低 2M バイトの既存のスライス 7 を保持してください。スライス 7 は、メタデバイス状態データベースの複製に必要な領域として予約されています。TagFlag フィールドは (format(1M) コマンドで報告されるように)、スライス 7 用に保持する必要があります。TagFlag フィールドは、最初の構成が確立されると、metaset(1M) コマンドにより正しく設定されます。


トランスデバイスが構成された後で、newfs(1M) を使用してトランスデバイス上に UFS ファイルシステムを作成してください。

newfs 処理が終了した後、論理ホストの vfstab ファイルに UFS ファイルシステムを追加してください。/etc/opt/SUNWcluster/conf/hanfs/vfstab.logicalhost ファイルを編集して、管理情報と多重ホスト UFS ファイルシステム情報を更新します。

すべてのクラスタノードの vfstab.logicalhost ファイルに同じ情報が入っていることを確認してください。クラスタ内のすべてのノードで vfstab.logicalhost ファイルを同時に編集するには、cconsole(1) 機能を使用してください。

次に、管理ファイルシステムとその他 4 つの UFS ファイルシステムの情報が入った vfstab.logicalhost ファイルの例を示します。


#device                 device                   mount       FS  fsck  mount mount
#to mount                to fsck                    point       type pass  all   options# 
/dev/md/hahost1/dsk/d11  /dev/md/hahost1/rdsk/d11 /hahost1    ufs  1     no   -
/dev/md/hahost1/dsk/d1   /dev/md/hahost1/rdsk/d1  /hahost1/1  ufs  1     no   -
/dev/md/hahost1/dsk/d2   /dev/md/hahost1/rdsk/d2  /hahost1/2  ufs  1     no   -
/dev/md/hahost1/dsk/d3   /dev/md/hahostt1/rdsk/d3 /hahost1/3  ufs  1     no   -
/dev/md/hahost1/dsk/d4   /dev/md/hahost1/rdsk/d4  /hahost1/4  ufs  1     no   -

ファイルシステムが Sun Cluster HA for NFS によって共有される場合は、『Sun Cluster 2.2 ソフトウェアのインストール』の第 11 章で説明されている、NFS ファイルシステムを共有する方法に従ってください。

新しいファイルシステムは、メンバーシップモニターの次の再構成時に自動的にマウントされます。メンバーシップの再構成を強制するには、次のコマンドを使用してください。


# haswitch -r

ローカルメタデバイスの管理

ローカルディスクはミラー化できます。一方のミラーに障害が発生した場合は、Solstice DiskSuite のマニュアルに示された方法でそのミラーを交換し、新たに追加したディスクと正常なディスクとの同期をとり直してください。

サポートされていない (障害を起こす) メタデバイスアクション

次のメタデバイスアクションは、Sun Cluster 構成でサポートされていません。