跳过导航链接 | |
退出打印视图 | |
Oracle Solaris Cluster 系统管理指南 Oracle Solaris Cluster 4.1 (简体中文) |
1. Oracle Solaris Cluster 管理介绍
2. Oracle Solaris Cluster 和 RBAC
Solaris Volume Manager 的全局设备许可
管理 EMC Symmetrix Remote Data Facility 复制设备
示例:为 Oracle Solaris Cluster 配置 SRDF 复制组
如何添加和注册设备组 (Solaris Volume Manager)
如何删除和取消注册设备组 (Solaris Volume Manager)
如何将节点从设备组中删除 (Solaris Volume Manager)
如何启用节点在所有受监视的共享磁盘路径均发生故障时自动重新引导的功能
群集文件系统是通过全局方式使用的文件系统,可以从群集的任一节点对其进行读取或访问。
表 5-4 任务列表:管理群集文件系统
|
首次安装 Oracle Solaris Cluster 后,为所创建的每个群集文件系统执行此任务。
注意 - 请确保指定了正确的磁盘设备名称。创建群集文件系统会损坏磁盘上的所有数据。如果指定的设备名称不正确,则会擦除您可能并不打算删除的数据。 |
在添加其他群集文件系统之前,请确保具备以下先决条件:
已在群集的一个节点上建立 root 角色特权。
已在群集中安装并配置卷管理器软件。
存在可在其上创建群集文件系统的一个设备组(例如 Solaris Volume Manager 设备组)或块磁盘分片。
如果曾使用 Oracle Solaris Cluster Manager 安装数据服务,假如用以创建群集文件系统的共享磁盘充足,则系统中已存在一个或多个群集文件系统。
phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。
此过程提供了 Oracle Solaris Cluster 命令的长格式。此外,大多数命令还有短形式。这些命令除了名称长短的不同以外,其功能都是相同的。
提示 - 要更快地创建文件系统,请在您要为其创建文件系统的全局设备的当前主节点上成为 root 角色。
Caution - 创建文件系统时,会毁坏该磁盘上的所有数据。请确保指定的磁盘设备名称是正确的。如果指定的设备名称不正确,可能会删除不打算删除的数据。 |
phys-schost# newfs raw-disk-device
下表显示了 raw-disk-device 参数的名称示例。请注意,卷管理器的命名规则各不相同。
|
每个节点上都需要一个挂载点,即使不在该节点上访问群集文件系统也是如此。
提示 - 为了便于管理,请在 /global/device-group/ 目录中创建挂载点。该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。
phys-schost# mkdir -p /global/device-group/mount-point/
与包含该设备的设备组的名称相对应的目录名。
要在其上挂载群集文件系统的目录的名称。
例如,考虑如下情形:phys-schost-1 将磁盘设备 d0 挂载到 /global/oracle/ 上,phys-schost-2 将磁盘设备 d1 挂载到 /global/oracle/logs/ 上。根据此配置,只有在 phys-schost-1 引导并挂载了 /global/oracle/ 之后,phys-schost-2 才能引导并挂载 /global/oracle/logs/。
phys-schost# cluster check -k vfstab
配置检查实用程序将检验挂载点是否存在。该实用程序还将检验群集的所有节点上的 /etc/vfstab 文件条目是否正确。如果没有错误发生,则不返回任何输出。
有关更多信息,请参见 cluster(1CL) 手册页。
phys-schost# mount /global/device-group/mountpoint/
可以使用 df 命令或 mount 命令列出已挂载的文件系统。有关更多信息,请参见 df(1M) 手册页或 mount(1M) 手册页。
示例 5-22 创建 UFS 群集文件系统
以下示例将在 Solaris Volume Manager 卷 /dev/md/oracle/rdsk/d1 上创建一个 UFS 群集文件系统。在每个节点上的 vfstab 文件中,都将添加一个与该群集文件系统对应的条目。随后,将从一个节点运行 cluster check 命令。在配置检查过程成功完成之后,将从一个节点上挂载该群集文件系统并在所有节点上对其进行验证。
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# cluster check -k vfstab phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005
您只需卸载群集文件系统就可以将其删除。如果还要移除或删除数据,请从系统中删除底层的磁盘设备(或元设备或卷)。
注 - 当您运行 cluster shutdown 来停止整个群集时,作为系统关闭过程的一部分,群集文件系统会自动卸载。运行 shutdown 来停止单个节点时,将不会卸载群集文件系统。但是,如果只有正关闭的节点与磁盘相连,则对该磁盘上的群集文件系统进行的任何访问尝试均会导致出错。
在卸载群集文件系统之前,请确保具备以下先决条件:
已在群集的一个节点上建立 root 角色特权。
文件系统不能处于忙状态。如果有用户在文件系统的某个目录下工作,或有程序打开了该文件系统中的某个文件,则该文件系统被认为处于忙状态。这个用户或程序可能运行在群集中的任一节点上。
# mount -v
# fuser -c [ -u ] mountpoint
报告有关用作文件系统的安装点的文件及安装的文件系统中任何文件的信息。
(可选)显示每个进程 ID 的用户登录名称。
指定您要停止其进程的群集文件系统的名称。
请使用停止进程的首选方法。根据需要,请使用以下命令强制终止与群集文件系统相关的进程。
# fuser -c -k mountpoint
系统将向每个使用群集文件系统的进程发出 SIGKILL 命令。
# fuser -c mountpoint
# umount mountpoint
指定要卸载的群集文件系统的名称。该名称既可以是安装群集文件系统的目录的名称,也可以是文件系统的设备名称路径。
对于任何群集节点,只要其 /etc/vfstab 文件中有此群集文件系统的条目,就要在该群集节点上执行此步骤。
有关详细信息,请参阅卷管理器文档。
示例 5-23 删除群集文件系统
以下示例删除了挂载在 Solaris Volume Manager 元设备或卷 /dev/md/oracle/rdsk/d1 上的 UFS 群集文件系统。
# mount -v ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles # fuser -c /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c -k /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c /global/oracle/d1 /global/oracle/d1: # umount /global/oracle/d1 (On each node, remove the highlighted entry:) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [Save and exit.]
要删除群集文件系统中的数据,请删除基础设备。有关详细信息,请参阅卷管理器文档。
cluster(1CL) 实用程序检验 /etc/vfstab 文件中群集文件系统条目的语法。如果不出现错误,则不返回任何内容。
注 - 进行了影响设备或卷管理组件的群集配置更改(如删除群集文件系统)后,请运行 cluster check 命令。