Oracle® Solaris Cluster 4.3 システム管理

印刷ビューの終了

更新: 2016 年 7 月
 
 

ゾーンクラスタからファイルシステムを削除する

ファイルシステムをゾーンクラスタにエクスポートするには、直接マウントまたはループバックマウントを使用します。

ゾーンクラスタでは、次の直接マウントがサポートされます。

  • UFS ローカルファイルシステム

  • StorageTek QFS スタンドアロンファイルシステム

  • StorageTek QFS 共有ファイルシステム (Oracle RAC のサポートに使用する場合)

  • Oracle Solaris ZFS (データセットとしてエクスポート)

  • サポートされている NAS デバイスの NFS

ゾーンクラスタでは、次のループバックマウントを管理できます。

  • UFS ローカルファイルシステム

  • StorageTek QFS スタンドアロンファイルシステム

  • StorageTek QFS 共有ファイルシステム (Oracle RAC のサポートに使用する場合のみ)

  • UFS クラスタファイルシステム

ファイルシステムのマウントを管理する HAStoragePlus または ScalMountPoint リソースを構成します。ファイルシステムをゾーンクラスタに追加する手順については、Oracle Solaris Cluster 4.3 ソフトウェアのインストール の ゾーンクラスタにファイルシステムを追加するを参照してください。

ファイルシステムの mountpoint プロパティーが none または legacy に設定されているか、その canmount プロパティーが off に設定されている場合、HAStoragePlus リソースは ZFS ファイルシステムをモニターしません。ほかのすべての ZFS ファイルシステムでは、HAStoragePlus リソースの障害モニターが、システムがマウントされているかどうかを確認します。ファイルシステムがマウントされている場合、HAStoragePlus リソースは ReadOnly/ReadWrite と呼ばれる IOOption プロパティーの値に応じてファイルシステムの読み書きを行うことで、ファイルシステムのアクセシビリティーをプローブします。

ZFS ファイルシステムがマウントされていないか、ファイルシステムのプローブが失敗した場合、リソース障害モニターは失敗し、リソースは Faulted に設定されます。RGM はファイルシステムを再起動しようとします (リソースの retry_count および retry_interval プロパティーによって決定される)。先に説明した mountpoint プロパティーと canmount プロパティーの特定の設定が有効でない場合は、このアクションによってファイルシステムが再マウントされます。障害モニターが引き続き失敗し、retry_interval 内に retry_count を超えた場合、RGM はリソースを別のノードにフェイルオーバーします。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。


注 -  Oracle Solaris Cluster Manager ブラウザインタフェースを使用して、ゾーンクラスタからファイルシステムを削除することもできます。「ゾーンクラスタ」をクリックし、そのページに移動するゾーンクラスタの名前をクリックして、「Solaris リソース」タブをクリックし、ゾーンクラスタコンポーネントを管理します。Oracle Solaris Cluster Manager のログイン手順については、Oracle Solaris Cluster Manager にアクセスする方法を参照してください。
  1. そのゾーンクラスタをホストしているグローバルクラスタのノードで、root 役割になります。

    この手順のいくつかのステップはグローバルクラスタのノードから行います。他のステップは、ゾーンクラスタのノードから実行されます。

  2. 削除するファイルシステムに関連するリソースを削除します。
    1. 削除するゾーンクラスタのファイルシステム用に構成されている Oracle Solaris Cluster リソースタイプ (HAStoragePlusSUNW.ScalMountPoint など) を特定し、削除します。
      phys-schost# clresource delete -F -Z zone-cluster-name fs_zone_resources
    2. 削除するファイルシステム用のグローバルクラスタ内に構成されている SUNW.qfs タイプの Oracle Solaris Cluster リソースがあれば、そのリソースを特定し、削除します。
      phys-schost# clresource delete -F fs_global_resources

      –F オプションを指定すると、前もって無効にしていないリソースも含め、指定したリソースがすべて強制的に削除されるため、このオプションは注意して使用してください。すべての指定リソースが、ほかのリソースのリソース関係設定から削除されるため、クラスタ内のサービスが失われることがあります。削除されていない依存リソースは、無効な状態やエラー状態になる可能性があります。詳細は、clresource(1CL) のマニュアルページを参照してください。


    ヒント  -  削除したリソースのリソースグループがあとで空になると、そのリソースグループを安全に削除できます。
  3. ファイルシステムのマウントポイントディレクトリのパスを調べます。

    例を示します。

    phys-schost# clzonecluster configure zone-cluster-name
  4. ファイルシステムをゾーンクラスタの構成から削除します。
    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> remove fs dir=filesystemdirectory
    clzc:zone-cluster-name> commit

    ファイルシステムのマウントポイントは、dir= で指定します。

  5. ファイルシステムが削除されたことを確認します。
    phys-schost# clzonecluster show –v zone-cluster-name
使用例 85  ゾーンクラスタ内の高可用性ローカルファイルシステムの削除

この例は、sczone というゾーンクラスタ内に構成された、マウントポイントディレクトリ (/local/ufs-1) のあるファイルシステムを削除する方法を示しています。リソースは hasp-rs で、そのタイプは HAStoragePlus です。

phys-schost# clzonecluster show -v sczone
...
Resource Name:                           fs
dir:                                     /local/ufs-1
special:                                 /dev/md/ds1/dsk/d0
raw:                                     /dev/md/ds1/rdsk/d0
type:                                    ufs
options:                                 [logging]
...
phys-schost# clresource delete -F -Z sczone hasp-rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove fs dir=/local/ufs-1
clzc:sczone> commit
phys-schost# clzonecluster show -v sczone
使用例 86  ゾーンクラスタ内の高可用性 ZFS ファイルシステムの削除

この例は、リソース hasp-rs、タイプ SUNW.HAStoragePlussczone ゾーンクラスタ内で構成された、HAzpool という ZFS プール内の ZFS ファイルシステムを削除する方法を示します。

phys-schost# clzonecluster show -v sczone
...
Resource Name:                           dataset
name:                                     HAzpool
...
phys-schost# clresource delete -F -Z sczone hasp-rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove dataset name=HAzpool
clzc:sczone> commit
phys-schost# clzonecluster show -v sczone