对初始 Sun Cluster 安装后创建的每个群集文件系统都执行此任务。
请确保指定正确的磁盘设备名 称。创建一个群集文件系统会损坏磁盘上的所有数据。如果指定的设备名称不正确,则会擦除您不想删除的数据。
添加更多群集文件系统的先决条件如下:
一个群集节点上的超级用户特权。
一个设备组(Solstice DiskSuite 设备组或 VxVM 设备组)或要在其上创建群集文件系统的块磁盘片。
成为群集中任一节点上的超级用户。
要更块地创建文件系统,请成为您要为其创建文件系统的全局设备的当前主上的超级用户。
使用 newfs(1M) 命令创建一个文件系统。
# newfs raw-disk-device |
表 3-3 列举 raw-disk-device(原始磁盘设备)变量名称的一些示例。请注意,卷管理器的命名惯例各不相同。
表 3-3 原始磁盘设备名称样例
如果您的卷管理器是 ... |
则磁盘设备名称可能是 ... |
说明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle 元集中的原始磁盘设备 d1。 |
VERITAS 卷管理器 |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁盘组中的原始磁盘设备 vol01。 |
无 |
/dev/global/rdsk/d1s3 |
块片 d1s3 中的的原始磁盘设备。 |
在群集中的每一节点上,创建群集文件系统的一个安装点目录。
每个节点上都需要一个安装点;即使不在某个节点上访问群集文件系统,也需在此节点上安装。
# mkdir -p /global/device-group/mount-point |
与设备所在的设备组的名称对应的目录的名称
要在其上安装群集文件系统的目录的名称
为便于管理,请在 /global/device-group 目录 中创建安装点。这可使您易于区别群集文件系统(全局可用)与本地文件系统。
在群集中的每个节点上,为安装点的 /etc/vfstab 文件添加一个条目。
要自动安装一个群集文件系统,请将 mount at boot 字段设置为 yes。
使用以下要求具备的安装点:
所有群集文件系统都要求有 global 安装 选项。此选项将文件系统标识为一个群集文件系统。
所有的群集文件系统都要求有文件系统记录。UFS 记录可以通过 使用 Solstice DiskSuite 元转换设备来进行,也可直接通过 Solaris UFS 安装选项进行。但 是,这两种方法不能合并使用。如果直接使用 Solaris UFS 记 录,则应使用 logging 安装选项。否则,如果使用了元传输文件 系统记录,则不需要其他安装点。
对于每个群集文件系统,请确保在每个拥有 /etc/vfstab 条目的节 点上,/etc/vfstab 条目中的信息相同。
注意文件系统对引导次序的依赖性。
通常,不应当嵌套群集文件系统的安装点。例如,试考虑以下情况,phys-schost-1 将磁盘设 备 d0 安装在 /global/oracle上,而 phys-schost-2 将磁盘 设备 d1 安装在 /global/oracle/logs 上。在这种配置 中,只有在 phys-schost-1 引导并 安装 /global/oracle 后,phys-schost-2 才能 引导并安装 /global/oracle/logs。
确保每个节点的 /etc/vfstab 文件列表普通设备中的 条目次序相同。
例如,如果 phys-schost-1 和 phys-schost-2 与 d0、d1 和 d2 有 一个物理连接,则其各自的 /etc/vfstab 文件中的条目应当排列 为 d0、d1 和 d2。
有关详细信息,请参考 vfstab(4) 手册而。
在群集的每个节点上,检验是否存在安装点以及群集的所有节点上 的 /etc/vfstab 文件条目是否正确。
# sccheck |
如果没有错误,则不返回任何信息。
从群集中的任一节点上,安装群集文件系统。
# mount /global/device-group/mount-point |
在群集的每个节点上检验是否已安装群集文件系统。
可以使用命令 df(1M) 或者 mount(1M) 来列出安装的文件系统。
以下示例在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 上创建 UFS 群集文件系统。
# newfs /dev/md/oracle/rdsk/d1 ... [on each node:] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [save and exit] [on one node:] # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 1999 |