ファイルシステムをゾーンクラスタにエクスポートするには、直接マウントまたはループバックマウントを使用します。
ゾーンクラスタでは、次の直接マウントがサポートされます。
UFS ローカルファイルシステム
StorageTek QFS スタンドアロンファイルシステム
StorageTek QFS 共有ファイルシステム (Oracle RAC のサポートに使用する場合)
Oracle Solaris ZFS (データセットとしてエクスポート)
サポートされている NAS デバイスの NFS
ゾーンクラスタでは、次のループバックマウントを管理できます。
UFS ローカルファイルシステム
StorageTek QFS スタンドアロンファイルシステム
StorageTek QFS 共有ファイルシステム (Oracle RAC のサポートに使用する場合のみ)
UFS クラスタファイルシステム
ファイルシステムのマウントを管理する HAStoragePlus または ScalMountPoint リソースを構成します。ファイルシステムをゾーンクラスタに追加する手順については、Oracle Solaris Cluster 4.3 ソフトウェアのインストール の ゾーンクラスタにファイルシステムを追加するを参照してください。
ファイルシステムの mountpoint プロパティーが none または legacy に設定されているか、その canmount プロパティーが off に設定されている場合、HAStoragePlus リソースは ZFS ファイルシステムをモニターしません。ほかのすべての ZFS ファイルシステムでは、HAStoragePlus リソースの障害モニターが、システムがマウントされているかどうかを確認します。ファイルシステムがマウントされている場合、HAStoragePlus リソースは ReadOnly/ReadWrite と呼ばれる IOOption プロパティーの値に応じてファイルシステムの読み書きを行うことで、ファイルシステムのアクセシビリティーをプローブします。
ZFS ファイルシステムがマウントされていないか、ファイルシステムのプローブが失敗した場合、リソース障害モニターは失敗し、リソースは Faulted に設定されます。RGM はファイルシステムを再起動しようとします (リソースの retry_count および retry_interval プロパティーによって決定される)。先に説明した mountpoint プロパティーと canmount プロパティーの特定の設定が有効でない場合は、このアクションによってファイルシステムが再マウントされます。障害モニターが引き続き失敗し、retry_interval 内に retry_count を超えた場合、RGM はリソースを別のノードにフェイルオーバーします。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
この手順のいくつかのステップはグローバルクラスタのノードから行います。他のステップは、ゾーンクラスタのノードから実行されます。
phys-schost# clresource delete -F -Z zone-cluster-name fs_zone_resources
phys-schost# clresource delete -F fs_global_resources
–F オプションを指定すると、前もって無効にしていないリソースも含め、指定したリソースがすべて強制的に削除されるため、このオプションは注意して使用してください。すべての指定リソースが、ほかのリソースのリソース関係設定から削除されるため、クラスタ内のサービスが失われることがあります。削除されていない依存リソースは、無効な状態やエラー状態になる可能性があります。詳細は、clresource(1CL) のマニュアルページを参照してください。
例を示します。
phys-schost# clzonecluster configure zone-cluster-name
phys-schost# clzonecluster configure zone-cluster-name
clzc:zone-cluster-name> remove fs dir=filesystemdirectory
clzc:zone-cluster-name> commit
ファイルシステムのマウントポイントは、dir= で指定します。
phys-schost# clzonecluster show –v zone-cluster-name
この例は、sczone というゾーンクラスタ内に構成された、マウントポイントディレクトリ (/local/ufs-1) のあるファイルシステムを削除する方法を示しています。リソースは hasp-rs で、そのタイプは HAStoragePlus です。
phys-schost# clzonecluster show -v sczone ... Resource Name: fs dir: /local/ufs-1 special: /dev/md/ds1/dsk/d0 raw: /dev/md/ds1/rdsk/d0 type: ufs options: [logging] ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove fs dir=/local/ufs-1 clzc:sczone> commit phys-schost# clzonecluster show -v sczone使用例 86 ゾーンクラスタ内の高可用性 ZFS ファイルシステムの削除
この例は、リソース hasp-rs、タイプ SUNW.HAStoragePlus の sczone ゾーンクラスタ内で構成された、HAzpool という ZFS プール内の ZFS ファイルシステムを削除する方法を示します。
phys-schost# clzonecluster show -v sczone ... Resource Name: dataset name: HAzpool ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove dataset name=HAzpool clzc:sczone> commit phys-schost# clzonecluster show -v sczone