Sun Cluster 系统管理指南(适用于 Solaris OS)

Procedure如何添加群集文件系统

首次安装 Sun Cluster 后,为所创建的每个群集文件系统执行此任务。


注意 – 注意 –

请确保指定了正确的磁盘设备名称。创建群集文件系统会损坏磁盘上的所有数据。如果指定的设备名称不正确,则会擦除您可能并不打算删除的数据。


在添加其他群集文件系统之前,请确保具备以下先决条件:

如果曾使用 Sun Cluster Manager 安装数据服务,假如用以创建群集文件系统的共享磁盘充足,则系统中已存在一个或多个群集文件系统。

phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。

此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B

  1. 成为群集中任一节点上的超级用户。


    提示 –

    要更快地创建文件系统,请成为要为其创建文件系统的全局设备的当前主节点的超级用户。


  2. 使用 newfs 命令创建文件系统。


    注 –

    newfs 命令仅适用于创建新的 UFS 文件系统。要创建新的 VxFS 文件系统,请按 VxFS 文档中所述的过程操作。



    # newfs raw-disk-device
    

    下表显示了 raw-disk-device 参数名称的示例。请注意,卷管理器的命名规则各不相同。

    卷管理器 

    磁盘设备名称 

    描述 

    Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    oracle 磁盘集中的原始磁盘设备 d1

    SPARC:Veritas Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 磁盘组中的原始磁盘设备 vol01

    无 

    /dev/global/rdsk/d1s3

    块片 d1s3 的原始磁盘设备。

  3. 在群集中的每一节点上创建群集文件系统的挂载点目录。

    每个节点上均需要挂载点,即使不在该节点上访问群集文件系统也是如此。


    提示 –

    为了便于管理,请在 /global/ devicegroup 目录中创建挂载点。使用此位置,您可以很容易地将本地文件系统和群集文件系统区别开来,后者在全局范围内都可用。



    # mkdir -p /global/devicegroup mountpoint
    
    devicegroup

    与包含该设备的设备组的名称相对应的目录名。

    mountpoint

    要在其上挂载群集文件系统的目录的名称。

  4. 在群集中的每个节点上,在 /etc/vfstab 文件中为挂载点添加一个条目。

    1. 使用下列必需的挂载选项。


      注 –

      对于所有群集文件系统,记录是必需的。


      • Solaris UFS 日志记录-使用 global 和 logging 挂载选项。有关 UFS 挂载选项的更多信息,请参见 mount_ufs(1M) 手册页。


        注 –

        对于 UFS 群集文件系统,不需要 syncdir 挂载选项。如果指定 syncdir,则可保证文件系统的行为符合 POSIX。否则,您将看到与 UFS 文件系统一样的行为。如果不指定 syncdir,则分配磁盘块的写入性能(例如,向文件附加数据时)会显著提高。但是,在某些情况下,如果不指定 syncdir,就无法在文件关闭前发现空间不足的情况。在不指定 syncdir 的情况下很少会出现问题。如果具有 syncdir(和 POSIX 行为),就可以在文件关闭前发现空间不足的情况。


      • Solaris Volume Manager 事务卷-使用 global 挂载选项(不使用 logging 挂载选项)。有关设置事务卷的信息,请参见 Solaris Volume Manager 文档。


        注 –

        在以后的 Solaris 软件发行版中,事务卷按计划将从 Solaris OS 中删除。“Solaris UFS 日志记录”可提供相同的功能,而且性能更加出众,系统管理要求和系统开销更低。


      • VxFS 日志记录-使用 globallog 挂载选项。有关更多信息,请参见 VxFS 软件附带的 mount_vxfs 手册页。

    2. 要自动挂载群集文件系统,请将 mount at boot 字段设置为 yes

    3. 请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在每个节点上是完全相同的。

    4. 请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。

    5. 检查文件系统的引导顺序依赖性。

      例如,考虑如下情形: phys-schost-1 将磁盘设备 d0 挂载在 /global/oracle 上,而 phys-schost-2 将磁盘设备 d1 挂载在 /global/oracle/logs 上。此时,只有在 phys-schost-1 引导并挂载了 /global/oracle 之后,phys-schost-2 才能引导并挂载 /global/oracle/logs

    有关详细信息,请参见 vfstab(4) 手册页。

  5. 在群集的任一节点上,检验挂载点是否存在以及群集的所有节点上的 /etc/vfstab 文件条目是否都正确。


    # sccheck
    

    如果不出现错误,则不返回任何内容。

  6. 从群集中的任一节点,挂载群集文件系统。


    # mount /global/devicegroup mountpoint
    
  7. 在群集的每个节点上检验是否已挂载群集文件系统。

    可以使用 dfmount 命令来列出已挂载的文件系统。

    要在 Sun Cluster 环境中管理 VxFS 群集文件系统,请只从挂载有 VxFS 群集文件系统的那个主节点运行管理命令。


示例 5–42 添加群集文件系统

以下示例显示了在 Solaris Volume Manager 元设备或卷 /dev/md/oracle/rdsk/d1 上创建 UFS 群集文件系统的过程。


# newfs /dev/md/oracle/rdsk/d1
...
 
[on each node:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
# /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[save and exit]
 
[on one node:]
# sccheck
# mount /dev/md/oracle/dsk/d1 /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
on Sun Oct 3 08:56:16 2001