为添加的每个群集文件系统执行该任务。
创建文件系统会破坏磁盘中的数据。确认指定了正确的磁盘设备名称。如果指定了错误的设备名称,则当创建新文件系统时删除其内容。
成为群集中任一节点的超级用户。
为了快速创建文件系统,可成为正在为其创建文件系统的当前主要全局设备的超级用户。
使用 newfs(1M)命令创建一个文件系统。
# newfs raw-disk-device |
下表显示 raw-disk-device 变量的名称的示例。注意:每个卷管理器的命名惯例是不同的。
表 2-3 样本原始磁盘设备名称
卷管理器 |
样本磁盘设备名称 |
描述 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle 磁盘集中的原始磁盘设备 d1 |
VERITAS 卷管理器 |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁盘组中的原始磁盘设备 vol01 |
无 |
/dev/global/rdsk/d1s3 |
原始磁盘设备 d1s3 |
在群集中的每个节点中,为群集文件系统创建一个安装点目录。
在每个节点中都必须要有一个安装点,即使将不在节点中访问群集文件系统。
# mkdir -p /global/device-group/mount-point |
对应于包含该设备的设备组的名称的目录的名称
在其中安装群集文件系统的目录的名称
为了易于管理,在 /global/device-group 目录中创建安装点。该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。
在群集中的每个节点上,在安装点的 /etc/vfstab 文件中添加一项。
syncdir 安装选项不是群集文件系统必需的。如果指定了 syncdir,就可以保证 POSIX-compliant 相容文件系统的行为。如果不指定,您会看到与 UFS 文件系统一样的行为。不指定 syncdir 可以显著改善分配磁盘块(如向文件中添加数据时)的写入的性能。但是,在某些情况下,如果不指定 syncdir,就只能在关闭一个文件后才发现空间不足。在不指定 syncdir 时出现问题的情形是很少见的。如果有 syncdir(和 POSIX 行为),空间不够的情况应该在关闭前就 已发现了。
要自动安装群集文件系统,请将在引导时安装字段设置为是。
如果正在使用 Solaris UFS logging,可使用全局,登录安装选项。
如果群集文件系统使用一个 Solstice DiskSuite trans 元设备,则使用 globle 安装选项(不要使用 logging 安装选项)。有关设置 trans 元设备的信息,请参阅 Solstice DiskSuite 文档。
登录对于所有群集文件系统是必需的。
请确保对于每个群集文件系统,其 /etc/vfstab 项中的信息在每个节点中是完全相同的。
检查文件系统的引导顺序相关性。
例如,考虑 phys-schost-q 在 /global/oracle 中安装磁盘设备 d0,以及 phys-schost-2 在/global/oracle/logs中安装磁盘设备 d1 的情形。通过该配置,phys-schost-2 只能在 phys-schost-1 引导和安装/global/oracle 后引导和安装/global/oracle/logs。
确认每个的 /etc/vfstab 文件中的项以相同的顺序列出设备。
有关详细信息,请参阅 vfstab(4) 手册页。
在群集中的任一节点中,验证安装点存在并且 /etc/vfstab 文件项在群集的所有节点上都正确。
# sccheck |
如果不出现错误,则不返回任何内容。
从群集中的任一节点中,安装群集文件系统。
# mount /global/device-group/mount-point |
在群集的每个节点中,验证已安装群集文件系统。
可以使用 df(1M) 或 mount(1M)命令列出已安装的文件系统。
下面的示例在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 中创建 UFS 群集文件系统。
# newfs /dev/md/oracle/rdsk/d1 ... (on each node:) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node:) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 1999 |
如果群集节点与多个公共子网连接,要配置附加公共网络适配器,请转到"如何配置附加公共网络适配器"。
否则,要配置 PNM 并且设置 NAFO 组,请转到"如何配置“公共网络管理”(PNM)"。