首次安装 Sun Cluster 后,为所创建的每个群集文件系统执行此任务。
请确保指定了正确的磁盘设备名称。 创建群集文件系统会损坏磁盘上的所有数据。 如果指定的设备名称不正确,将删除您可能不打算删除的数据。
添加其它群集文件系统的先决条件如下:
群集中的节点的超级用户特权。
必须在群集上安装和配置卷管理器软件。
必须存在设备组(Solstice DiskSuite/Solaris Volume Manager 设备组或 VxVM 设备组)或块磁盘片,以便在其上创建群集文件系统。
如果安装数据服务时使用了 SunPlex Manger,并且有足够的共享磁盘用来创建群集文件系统,则一个或多个群集文件系统业已存在。
成为群集中任一节点上的超级用户。
要更快地创建文件系统,请成为要为其创建文件系统的全局设备的当前主节点的超级用户。
使用 newfs 命令创建文件系统。
newfs 命令仅适用于创建新的 UFS 文件系统。 要创建新的 VxFS 文件系统,请按 VxFS 文档中所述的过程进行操作。
# newfs raw-disk-device |
下表显示了 raw-disk-device 变量名称的示例。 请注意,卷管理器的命名规则各不相同。
表 4–4 原始磁盘设备名样例
如果您的卷管理器是… |
则磁盘设备的名称可能是… |
说明 |
---|---|---|
Solstice DiskSuite/Solaris Volume Manager |
/dev/md/oracle/rdsk/d1 |
oracle 磁盘集中的原始磁盘设备 d1。 |
SPARC:VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁盘组中的原始磁盘设备 vol01。 |
无 |
/dev/global/rdsk/d1s3 |
块片 d1s3 中的原始磁盘设备。 |
在群集中的每一节点上,创建群集文件系统的安装点目录。
每个节点上均需要装载点,即使节点上的群集文件系统不会被访问。
为便于管理,请在 /global/device-group 目录中创建安装点。 使用此位置,您可以很容易地将本地文件系统和群集文件系统区别开来,后者在全局范围内都可用。
# mkdir -p /global/device-group/mountpoint |
与包含该设备的设备组的名称相对应的目录名。
要在其上安装群集文件系统的目录的名称。
在群集中的每个节点上,为安装点的 /etc/vfstab 文件添加一个条目。
使用下列必需的安装选项。
对于所有群集文件系统,记录是必需的。
Solaris UFS logging – 使用 global,logging 安装选项。 有关 UFS 安装选项的详细信息,请参阅 mount_ufs(1M) 手册页。
对于 UFS 群集文件系统,不需要 syncdir 装载选项。 如果指定了 syncdir,就可以保证文件系统的行为与 POSIX 一致。 如果不指定,您会看到与 UFS 文件系统一样的行为。 如果未指定 syncdir,则可以显著改善分配磁盘块(如向文件附加数据时)的写入性能。 但是,在某些情况下,如果没有 syncdir,空间不足的情况在文件关闭前就无法发现。 如果不指定 syncdir,出现问题的情况就会很少。 如果具有 syncdir(和 POSIX 行为),空间不足的情况在文件关闭前就可以发现。
Solstice DiskSuite/Solaris Volume Manager trans 元设备或事务卷– 使用 global 安装选项(不要使用 logging 安装选项)。 有关设置 trans 元设备和事务卷的信息,请参阅 Solstice DiskSuite/Solaris Volume Manager 文档。
在以后的 Solaris 版本中,计划将事务卷从 Solaris 操作环境中取消。 自 Solaris 8 版本开始提供的 Solaris UFS 记录可以提供相同的功能,但是可以提高性能并降低系统管理的要求和开销。
VxFS 记录 – 使用 global 和 log 装载选项。 有关详细信息,请参阅 VxFS 软件附带的 mount_vxfs 手册页。
要自动装载群集文件系统,请将 mount at boot 字段设置为 yes。
请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在每个节点上是完全相同的。
请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。
检查文件系统的引导顺序相关性。
例如,假定出现以下情况:phys-schost-1 将磁盘设备 d0 安装于 /global/oracle,而 phys-schost-2 将磁盘设备 d1 安装于 /global/oracle/logs。 此时,只有在 phys-schost-1 引导并安装了 /global/oracle 之后,phys-schost-2 才能引导并安装 /global/oracle/logs。
有关详细信息,请参阅 vfstab(4) 手册页。
在群集的每个节点上,检验是否存在安装点以及群集的所有节点上的 /etc/vfstab 文件条目是否正确。
# sccheck |
如果没有错误,则不返回任何信息。
从群集中的任一节点,装载群集文件系统。
# mount /global/device-group/mountpoint |
在群集的每个节点上检验是否已装载群集文件系统。
可以使用 df 或 mount 命令来列出已装载的文件系统。
要在 Sun Cluster 环境中管理 VxFS 群集文件系统,请只从安装有 VxFS 群集文件系统的那个主节点运行管理命令。
以下示例在 Solstice DiskSuite/Solaris Volume Manager 元设备 /dev/md/oracle/rdsk/d1 上创建一个 UFS 群集文件系统。
# newfs /dev/md/oracle/rdsk/d1 ... [在每个节点上:] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [保存并退出] [在一个节点上:] # sccheck # mount /dev/md/oracle/dsk/d1 /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2001 |