首次安装 Sun Cluster 后,为所创建的每个群集文件系统执行此任务。
请确保指定了正确的磁盘设备名称。创建群集文件系统会损坏磁盘上的所有数据。如果指定的设备名称不正确,则会擦除您可能并不打算删除的数据。
在添加其他群集文件系统之前,请确保具备以下先决条件:
已在群集的一个节点上建立超级用户权限。
已在群集中安装并配置卷管理器软件。
存在一个设备组(Solaris Volume Manager 设备组或 VxVM 设备组)或块磁盘片,可供在其上创建群集文件系统。
如果曾使用 Sun Cluster Manager 安装数据服务,假如用以创建群集文件系统的共享磁盘充足,则系统中已存在一个或多个群集文件系统。
phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。
此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B。
成为群集中任一节点上的超级用户。
要更快地创建文件系统,请成为要为其创建文件系统的全局设备的当前主节点的超级用户。
使用 newfs 命令创建文件系统。
newfs 命令仅适用于创建新的 UFS 文件系统。要创建新的 VxFS 文件系统,请按 VxFS 文档中所述的过程操作。
# newfs raw-disk-device |
下表显示了 raw-disk-device 参数名称的示例。请注意,卷管理器的命名规则各不相同。
卷管理器 |
磁盘设备名称 |
描述 |
---|---|---|
Solaris Volume Manager |
/dev/md/oracle/rdsk/d1 |
oracle 磁盘集中的原始磁盘设备 d1。 |
SPARC:Veritas Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁盘组中的原始磁盘设备 vol01。 |
无 |
/dev/global/rdsk/d1s3 |
块片 d1s3 的原始磁盘设备。 |
在群集中的每一节点上创建群集文件系统的挂载点目录。
每个节点上均需要挂载点,即使不在该节点上访问群集文件系统也是如此。
为了便于管理,请在 /global/ devicegroup 目录中创建挂载点。使用此位置,您可以很容易地将本地文件系统和群集文件系统区别开来,后者在全局范围内都可用。
# mkdir -p /global/devicegroup mountpoint |
与包含该设备的设备组的名称相对应的目录名。
要在其上挂载群集文件系统的目录的名称。
在群集中的每个节点上,在 /etc/vfstab 文件中为挂载点添加一个条目。
使用下列必需的挂载选项。
对于所有群集文件系统,记录是必需的。
Solaris UFS 日志记录-使用 global 和 logging 挂载选项。有关 UFS 挂载选项的更多信息,请参见 mount_ufs(1M) 手册页。
对于 UFS 群集文件系统,不需要 syncdir 挂载选项。如果指定 syncdir,则可保证文件系统的行为符合 POSIX。否则,您将看到与 UFS 文件系统一样的行为。如果不指定 syncdir,则分配磁盘块的写入性能(例如,向文件附加数据时)会显著提高。但是,在某些情况下,如果不指定 syncdir,就无法在文件关闭前发现空间不足的情况。在不指定 syncdir 的情况下很少会出现问题。如果具有 syncdir(和 POSIX 行为),就可以在文件关闭前发现空间不足的情况。
Solaris Volume Manager 事务卷-使用 global 挂载选项(不使用 logging 挂载选项)。有关设置事务卷的信息,请参见 Solaris Volume Manager 文档。
在以后的 Solaris 软件发行版中,事务卷按计划将从 Solaris OS 中删除。“Solaris UFS 日志记录”可提供相同的功能,而且性能更加出众,系统管理要求和系统开销更低。
VxFS 日志记录-使用 global 和 log 挂载选项。有关更多信息,请参见 VxFS 软件附带的 mount_vxfs 手册页。
要自动挂载群集文件系统,请将 mount at boot 字段设置为 yes。
请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在每个节点上是完全相同的。
请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。
检查文件系统的引导顺序依赖性。
例如,考虑如下情形: phys-schost-1 将磁盘设备 d0 挂载在 /global/oracle 上,而 phys-schost-2 将磁盘设备 d1 挂载在 /global/oracle/logs 上。此时,只有在 phys-schost-1 引导并挂载了 /global/oracle 之后,phys-schost-2 才能引导并挂载 /global/oracle/logs。
有关详细信息,请参见 vfstab(4) 手册页。
在群集的任一节点上,检验挂载点是否存在以及群集的所有节点上的 /etc/vfstab 文件条目是否都正确。
# sccheck |
如果不出现错误,则不返回任何内容。
从群集中的任一节点,挂载群集文件系统。
# mount /global/devicegroup mountpoint |
在群集的每个节点上检验是否已挂载群集文件系统。
可以使用 df 或 mount 命令来列出已挂载的文件系统。
要在 Sun Cluster 环境中管理 VxFS 群集文件系统,请只从挂载有 VxFS 群集文件系统的那个主节点运行管理命令。
以下示例显示了在 Solaris Volume Manager 元设备或卷 /dev/md/oracle/rdsk/d1 上创建 UFS 群集文件系统的过程。
# newfs /dev/md/oracle/rdsk/d1 ... [on each node:] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [save and exit] [on one node:] # sccheck # mount /dev/md/oracle/dsk/d1 /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2001 |