任务 |
有关说明,请转到... |
---|---|
首次安装 Sun Cluster 后添加群集文件系统 - 使用 newfs 和 mkdir | |
删除群集文件系统 - 使用 fuser 和 umount | |
检查群集中的全局安装点在各节点是否一致 - 使用 sccheck |
首次安装 Sun Cluster 后,为所创建的每个群集文件系统执行此任务。
请确保指定了正确的磁盘设备名称。 创建群集文件系统会损坏磁盘上的所有数据。 如果指定的设备名称不正确,将删除您可能不打算删除的数据。
添加其他群集文件系统的先决条件如下:
群集中某个节点的超级用户特权。
必须在群集上安装和配置卷管理器软件。
必须存在设备组(Solstice DiskSuite 设备组或 VxVM 设备组)或块磁盘片,以便在其上创建群集文件系统。
如果安装数据服务时使用了 SunPlex Manger,并且有足够的共享磁盘用来创建群集文件系统,则一个或多个群集文件系统业已存在。
成为群集中任一节点上的超级用户。
要更快地创建文件系统,请成为要为其创建文件系统的全局设备的当前主节点上的超级用户。
使用 newfs(1M) 命令创建文件系统。
# newfs raw-disk-device |
下表显示了 raw-disk-device 变量名称的示例。请注意,卷管理器的命名惯例各不相同。
表 3-4 原始磁盘设备名称示例
如果您的卷管理器是... |
则磁盘设备的名称可能是... |
说明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle 磁盘集中的原始磁盘设备 d1。 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁盘组中的原始磁盘设备 vol01。 |
无 |
/dev/global/rdsk/d1s3 |
块片 d1s3 中的原始磁盘设备。 |
在群集中的每一节点上,创建群集文件系统的安装点目录。
每个节点上都需要一个安装点;即使不在某个节点上访问群集文件系统也不例外。
为便于管理,请在 /global/device-group 目录中创建安装点。 使用此位置,您可以很容易地将本地文件系统和群集文件系统区别开来,后者在全局范围内都可用。
# mkdir -p /global/device-group/mountpoint |
与包含该设备的设备组的名称相对应的目录名。
要在其上安装群集文件系统的目录名。
在群集中的每个节点上,为安装点的 /etc/vfstab 文件添加一个条目。
使用下列必需的安装选项。
对于所有群集文件系统,登录是必需的。
Solaris UFS logging - 使用 global,logging 安装选项。 有关 UFS 安装选项的详细信息,请参阅 mount_ufs(1M) 手册页。
UFS 群集文件系统不需要 syncdir 安装选项。 如果指定了 syncdir,就可以保证文件系统的行为与 POSIX 一致。 如果不指定,您会看到与 UFS 文件系统一样的行为。 如果不指定 syncdir,可以显著改善分配磁盘块(如向文件附加数据时)的写入性能。但是,在某些情况下,如果不指定 syncdir,则只能在关闭一个文件后才发现空间不足。 在不指定 syncdir 的情况下很少会出现问题。 指定了 syncdir(和 POSIX 行为)之后,空间不足的情况应该在关闭文件之前就已发现了。
Solstice DiskSuite trans 元设备 - 使用 global 安装选项(而不使用 logging 安装选项)。 有关设置 trans 元设备的信息,请参阅 Solstice DiskSuite 文档。
VxFS logging - 使用 global, log 安装选项。 有关 VxFS 安装选项的详细信息,请参阅 mount_ufs(1M) 手册页。
要自动安装群集文件系统,请将 mount at boot 字段设置为 yes。
请确保每个群集文件系统的 /etc/vfstab 条目中的信息在每个节点上完全相同。
请确保在每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。
检查文件系统的引导顺序相关性。
例如,假定出现以下情况:phys-schost-1 将磁盘设备 d0 安装在 /global/oracle 上,而 phys-schost-2 将磁盘设备 d1 安装在 /global/oracle/logs 上。 根据此配置,只有在 phys-schost-1 引导并安装了 /global/oracle 之后,phys-schost-2 才可以引导并安装 /global/oracle/logs。
有关详细信息,请参阅 vfstab(4) 手册页。
在群集的每个节点上,检验安装点是否存在以及群集的所有节点上的 /etc/vfstab 文件条目是否正确。
# sccheck |
如果没有错误,则不返回任何信息。
从群集中的任何节点,安装群集文件系统。
# mount /global/device-group/mountpoint |
在群集的每个节点上检验是否已安装群集文件系统。
可以使用命令 df(1M) 或者 mount(1M) 来列出已安装的文件系统。
要在 Sun Cluster 环境中管理 VxFS 群集文件系统,请只从安装有 VxFS 群集文件系统的那个主节点运行管理命令。
以下示例在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 上创建一个 UFS 群集文件系统。
# newfs /dev/md/oracle/rdsk/d1 ... [on each node:] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [save and exit] [on one node:] # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2001 |
您只需卸载群集文件系统就可以将其删除。 如果还想删除数据,请从系统中删除基础磁盘设备(或元设备或卷)。
当运行 scshutdown(1M) 关闭整个群集时,系统将关闭,其中就包括群集文件系统的自动卸载。 运行 shutdown 来关闭单个节点时,不会卸载群集文件系统。 但是,如果只有正被关闭的节点与磁盘相连,则任何对该磁盘上的群集文件系统的尝试访问均会导致出错。
卸载群集文件系统的先决条件如下:
群集中的节点的超级用户特权。
文件系统不能处于忙状态。 如果文件系统的目录中有一个用户,或者程序在该文件系统中打开了一个文件,则该文件系统被认为处于忙状态。 这个用户或程序可能运行在群集中的任一节点上。
成为群集中任一节点上的超级用户。
确定已安装的群集文件系统。
# mount -v |
在各节点上,列出所有正使用群集文件系统的进程,这样,您就知道将要停止哪些进程。
# fuser -c [ -u ] mountpoint |
报告有关用作文件系统安装点的文件以及那些已安装的文件系统中的任何文件的信息。
(可选)显示每个进程 ID 的用户登录名称。
指定您要停止其进程的群集文件系统的名称。
在每个节点上,停止群集文件系统的所有进程。
请使用停止进程的首选方法。 根据需要,请使用以下命令强制终止与群集文件系统相关的进程。
# fuser -c -k mountpoint |
向使用群集文件系统的每个进程发出 SIGKILL 命令。
在每个节点上,确保无任何进程正在使用群集文件系统。
# fuser -c mountpoint |
仅从一个节点卸载群集文件系统。
# umount mountpoint |
指定要卸载的群集文件系统的名称。 该名称既可以是安装群集文件系统的目录名称,也可以是群集文件系统的设备名称路径。
(可选)编辑 /etc/vfstab 文件以删除正在被删除的群集文件系统的条目。
对于任何群集节点,只要其 /etc/vfstab 文件中有此群集文件系统的条目,就要在该群集节点上执行此步骤。
(可选)删除磁盘设备 group/metadevice/plex。
有关详细信息,请参阅卷管理器文档。
以下示例删除安装在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 上的 UFS 群集文件系统。
# mount -v ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 1999 # fuser -c /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c -k /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c /global/oracle/d1 /global/oracle/d1: # umount /global/oracle/d1 (on each node, remove the highlighted entry:) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [Save and exit.] |
要删除群集文件系统中的数据,请删除基础设备。 有关详细信息,请参阅卷管理器文档。
sccheck(1M) 实用程序可检验 /etc/vfstab 文件中群集文件系统条目的语法。如果没有错误,则不返回任何信息。
在进行了影响设备或卷管理组件的群集配置更改(如删除群集文件系统)后,请运行 sccheck。