Sun Cluster 3.0 12/01 软件安装指南

如何添加群集文件系统

对您添加的每个群集文件系统执行该过程。


小心:小心:

创建文件系统时,会毁坏该磁盘上的所有数据。 请确保指定了正确的磁盘设备名称。 如果指定的设备名称不正确,则会擦除您可能并不打算删除的数据。


当使用 SunPlex Manager 安装数据服务时,如果要创建群集文件系统的共享磁盘上有足够的空间,则预先就已存在一个以上的群集文件系统。

  1. 请确保已安装和配置卷管理器软件。

    有关卷管理器的安装过程,请参阅"安装和配置 Solstice DiskSuite 软件""安装和配置 VxVM 软件"

  2. 是否要安装 VERITAS File System (VxFS) 软件?

    • 如果是,请遵循 VxFS 安装文档中的过程在群集的每个节点上安装 VxFS 软件。

    • 否则转到步骤 3

  3. 成为群集中任一节点上的超级用户。


    提示:

    为了加快文件系统的创建速度,可成为要为其创建文件系统的当前主要全局设备的超级用户。


  4. 使用 newfs(1M) 命令创建文件系统。


    # newfs raw-disk-device
    

    下表显示 raw-disk-device 变量的名称示例。请注意,卷管理器的命名惯例各不相同。

    表 2-11 原始磁盘设备名称样例

    卷管理器 

    磁盘设备名称样例 

    说明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 磁盘集中的原始磁盘设备 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 磁盘组中的原始磁盘设备 vol01

    无 

    /dev/global/rdsk/d1s3

    原始磁盘设备 d1s3

  5. 在群集中的每个节点中,为群集文件系统创建一个安装点目录。

    每个节点上都需要一个安装点;即使不在该节点上访问群集文件系统,也是如此。


    提示:

    为便于管理,请在 /global/device-group 目录中创建安装点。该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    目录名,此名称与该设备所在的设备组的名称相对应

    mountpoint

    目录名,群集文件系统将装在该目录中

  6. 在群集中的每个节点上,在 /etc/vfstab 文件中添加一个安装点项。

    1. 使用下列必需的安装选项。

      对于所有群集文件系统,登录是必需的。

      • Solaris UFS logging - 使用 global,logging 安装选项。有关 UFS 安装选项的详细信息,请参阅 mount_ufs(1M) 手册页。


        注意:

        对于 UFS 群集文件系统,不需要 syncdir 安装选项。如果指定了 syncdir,则可以确保文件系统行为将符合 POSIX 规定。如果不指定,您会看到与 UFS 文件系统一样的行为。 如果未指定 syncdir,则可以显著改善分配磁盘块(如向文件附加数据时)的写入性能。但是,在某些情况下,如果未指定 syncdir,就只能在关闭一个文件后才能发现空间不足的情形。 不过,因未指定 syncdir 而出现问题的情形相当少。 如果具有 syncdir(和 POSIX 行为),空间不足的情况在文件关闭前就可以发现。


      • Solstice DiskSuite trans 元设备 - 使用 global 安装选项(而不使用 logging 安装选项)。有关设置 trans 元设备的信息,请参阅 Solstice DiskSuite 文档。

      • VxFS 记录 - 使用 global, log 安装选项。有关 VxFS 安装选项的详细信息,请参阅 mount_vxfs(1M) 手册页。

    2. 要自动安装群集文件系统,请将 mount at boot 字段设置为 yes

    3. 请确保对于每个群集文件系统,其 /etc/vfstab 项中的信息在每个节点上是完全相同的。

    4. 请确保每个节点的 /etc/vfstab 文件中的项都以相同顺序列出设备。

    5. 检查文件系统的引导顺序相关性。

      例如,假定出现以下情况:phys-schost-1 将磁盘设备 d0 安装于 /global/oracle 上,而 phys-schost-2 将磁盘设备 d1 安装在 /global/oracle/logs 上。此时,只有在 phys-schost-1 引导并安装了 /global/oracle 之后,phys-schost-2 才能引导并安装 /global/oracle/logs

    有关详细信息,请参阅 vfstab(4) 手册页。

  7. 在群集的每个节点上,检验是否存在安装点以及群集的所有节点上的 /etc/vfstab 文件项是否正确。


    # sccheck
    

    如果不出现错误,则不返回任何内容。

  8. 从群集中的任一节点,安装群集文件系统。


    # mount /global/device-group/mountpoint
    

  9. 在群集的每个节点上检验是否已安装群集文件系统。

    可以使用 df(1M) 或 mount(1M) 命令来列出安装的文件系统。

    要在 Sun Cluster 环境中管理 VxFS 群集文件系统,只需从主节点(即 VxFS 群集文件系统安装所在的节点)运行管理命令。

  10. 您的群集节点是否与多个公共子网相连?

示例 - 创建群集文件系统

以下示例在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 上创建 UFS 群集文件系统。


# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000