本节介绍了添加供区域群集使用的文件系统的过程。
在将某个文件系统添加到区域群集并使其联机之后,将授权在该区域群集中使用文件系统。要挂载文件系统以供使用,可通过使用群集资源(例如 SUNW.HAStoragePlus 或 SUNW.ScalMountPoint)来配置文件系统。
不能使用 clzonecluster 命令将挂载到单个全局群集节点上的本地文件系统添加到区域群集中,而是应当像在独立系统中通常那样使用 zonecfg 命令。本地文件系统将不受群集控制。
您不能向区域群集中添加群集文件系统。
本节包含以下过程:
此外,要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available”。
执行此过程可在全局群集上添加供区域群集使用的本地文件系统。
要向区域群集中添加 ZFS 池,请改为执行如何向区域群集中添加 ZFS 存储池中的过程。
此外,要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available”。
成为可托管区域群集的全局群集节点上的超级用户。
请从全局群集的某个节点执行此过程的所有步骤。
在全局群集上,创建要在区域群集中使用的文件系统。
确保在共享磁盘上创建了文件系统。
在托管区域群集节点的全局群集的每个节点上,向要在区域群集上挂载的文件系统的 /etc/vfstab 文件添加条目。
phys-schost# vi /etc/vfstab |
将该文件系统添加到区域群集配置中。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=disk-device-name clzc:zoneclustername:fs> set raw=raw-disk-device-name clzc:zoneclustername:fs> set type=FS-type clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
指定文件系统挂载点
指定磁盘设备的名称
指定原始磁盘设备的名称
指定文件系统的类型
检验是否添加了该文件系统。
phys-schost# clzonecluster show -v zoneclustername |
此示例将添加供 sczone 区域群集使用的本地文件系统 /global/oracle/d1。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 5 no logging phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [] … |
通过使用 HAStoragePlus 资源将文件系统配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“Enabling Highly Available Local File Systems”。
执行此过程可添加供区域群集使用的 ZFS 存储池。
要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available”。
成为可托管区域群集的全局群集节点上的超级用户。
从全局区域的节点执行此过程的所有步骤。
在全局群集上创建 ZFS 存储池。
请确保该池连接到与区域群集的所有节点相连的共享磁盘。
有关创建 ZFS 池的过程,请参见《Solaris ZFS 管理指南》。
将该池添加到区域群集配置中。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add dataset clzc:zoneclustername:dataset> set name=ZFSpoolname clzc:zoneclustername:dataset> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
检验是否添加了该文件系统。
phys-schost# clzonecluster show -v zoneclustername |
以下示例显示了将 ZFS 存储池 zpool1 添加到区域群集 sczone 中的过程。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 … |
通过使用 HAStoragePlus 资源将 ZFS 存储池配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上的池中的文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“Enabling Highly Available Local File Systems”。
执行此过程可添加供区域群集使用的 Sun QFS 共享文件系统。
目前,仅支持在通过 Oracle Real Application Clusters (RAC) 配置的群集中使用 QFS 共享文件系统。在不是通过 Oracle RAC 配置的群集上,可以使用配置为高可用性本地文件系统的单机 QFS 文件系统。
成为可托管区域群集的全局群集投票节点上的超级用户。
从全局群集的投票节点执行此过程的所有步骤。
在全局群集上,配置要在区域群集中使用的 QFS 共享文件系统。
请遵循使用 Sun Cluster 配置 Sun QFS 文件系统中用于共享文件系统的过程。
在托管区域群集节点的全局群集的每个节点上,向要在区域群集上挂载的文件系统的 /etc/vfstab 文件添加条目。
phys-schost# vi /etc/vfstab |
将该文件系统添加到区域群集配置中。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=QFSfilesystemname clzc:zoneclustername:fs> set type=samfs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
检验是否添加了该文件系统。
phys-schost# clzonecluster show -v zoneclustername |
以下示例显示了将 QFS 共享文件系统 Data-cz1 添加到区域群集 sczone 中的过程。在全局群集中,该文件系统的挂载点为 /zones/sczone/root/db_qfs/Data1,其中 /zones/sczone/root/ 是区域的根路径。在区域群集节点内,该文件系统的挂载点为 /db_qfs/Data1。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: samfs options: [] … |