Sun Cluster 3.0 U1 安装指南

如何添加群集文件系统

对您添加的每个群集文件系统执行该过程。


小心:小心:

创建文件系统时,会毁坏该磁盘上的所有数据。所以,务必指定正确的磁盘设备名称。如果指定的设备名称不正确,则会擦除您可能并不打算删除的数据。


当使用 SunPlex Manager 安装数据服务时,如果要创建群集文件系统的共享磁盘上有足够的空间,则预先就已存在一个以上的群集文件系统。

  1. 请确保已安装和配置卷管理器软件。

    有关卷管理器的安装过程,请参阅" 安装并且配置 Solstice DiskSuite 软件""安装并且配置 VxVM 软件"

  2. 成为群集中任一节点上的超级用户。


    提示:

    为了加快文件系统的创建速度,可成为要为其创建文件系统的当前主要全局设备的超级用户。


  3. 使用 newfs(1M) 命令创建文件系统。


    # newfs 原始磁盘设备
    

    下表显示原始-磁盘-设备变量的名称示例。请注意,卷管理器的命名惯例各不相同。

    表 2-7 原始磁盘设备名称样例

    卷管理器 

    样本磁盘设备名称 

    说明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 磁盘集中的原始磁盘设备 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 磁盘组中的原始磁盘设备 vol01

    无 

    /dev/global/rdsk/d1s3

    原始磁盘设备 d1s3

  4. 在群集中的每个节点中,为群集文件系统创建一个安装点目录。

    每个节点上都需要一个安装点;即使不在某个节点上访问群集文件系统,也需在此节点上安装。


    提示:

    为了便于管理,请在 /global/device-group 目录中创建安装点。该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    目录名,此名称与该设备所在的设备组的名称相对应

    mountpoint

    目录名,群集文件系统将装在该目录中

  5. 在群集中的每个节点上,为安装点的 /etc/vfstab 文件添加一个条目。

    1. 使用下列必需的安装选项。

      登录对于所有群集文件系统是必需的。

      • Solaris UFS logging - 使用 global,logging 安装选项。有关 UFS 安装选项的详细信息,请参阅 mount_ufs(1M) 手册页。


        注意:

        对于 UFS 群集文件系统,不需要 syncdir 安装选项。如果指定了 syncdir,就可以保证与 POSIX 相容的文件系统行为。如果不指定,您会看到与 UFS 文件系统一样的行为。如果不指定 syncdir,可以显著改善分配磁盘块(如向文件附加数据时)的写入性能。但是,在某些情况下,如果不指定 syncdir,就只能在关闭一个文件后才发现空间不足。在不指定 syncdir 时出现问题的情形是很少见的。如果有 syncdir(和 POSIX 行为),空间不够的情况应该在关闭前就已发现了。


      • Solstice DiskSuite trans 元设备 - 使用 global 安装选项(而不使用 logging 安装选项)。有关设置 trans 元设备的信息,请参阅 Solstice DiskSuite 文档。

    2. 要自动安装群集文件系统,请将在引导时安装字段设置为

    3. 请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在每个节点中是完全相同的。

    4. 请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。

    5. 检查文件系统的引导顺序相关性。

      例如,假定出现以下情况:phys-schost-1 将磁盘设备 d0 安装在 /global/oracle 上,而 phys-schost-2 将磁盘设备 d1 安装在 /global/oracle/logs 上。此时,只有在 phys-schost-1 引导并安装了 /global/oracle 之后,phys-schost-2 才能引导并安装 /global/oracle/logs

    有关详细信息,请参阅 vfstab(4) 手册页。

  6. 在群集的每个节点上,检验是否存在安装点以及群集的所有节点上的 /etc/vfstab 文件条目是否正确。


    # sccheck
    

    如果不出现错误,则不返回任何内容。

  7. 从群集中的任何节点,安装群集文件系统。


    # mount /global/device-group/mountpoint
    

  8. 在群集的每个节点上检验是否已安装群集文件系统。</para>

    可以使用命令 df(1M) 或者 mount(1M) 来列出安装的文件系统。

  9. 您的群集节点是否与多个公共子网相连?

示例 - 创建一个群集文件系统

以下示例说明如何在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 上创建一个 UFS 群集文件系统。


# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000