下表列出配置群集所执行的任务。开始执行这些任务前,确保您已完成以下任务。
群集框架安装,其内容参见"安装软件"
卷管理器的安装和配置,其内容参见" 安装并且配置 Solstice DiskSuite 软件"或"安装并且配置 VxVM 软件"
任务 |
有关说明,请转到... |
---|---|
创建并安装群集文件系统。 | |
(可选) 配置附加公共网络适配器。 | |
配置公共网络管理 (PNM) 并且设置 NAFO 组 | |
(可选) 更改节点的专用主机名。 | |
编辑 /etc/inet/ntp.conf 文件以更新节点名称条目。 | |
(可选) 将 Sun Cluster 模块安装到 Sun Management Center 软件。 |
"为 Sun Management Center 安装 Sun Cluster 模块" Sun Management Center 文档 |
安装第三方应用程序并且配置应用程序、数据服务以及资源组。 |
Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide Sun Cluster 3.0 发行说明中的"数据服务配置工作表和示例" 第三方应用程序文档 |
对您添加的每个群集文件系统执行该过程。
创建文件系统时,会毁坏该磁盘上的所有数据。所以,务必指定正确的磁盘设备名称。如果指定的设备名称不正确,则会擦除您可能并不打算删除的数据。
当使用 SunPlex Manager 安装数据服务时,如果要创建群集文件系统的共享磁盘上有足够的空间,则预先就已存在一个以上的群集文件系统。
请确保已安装和配置卷管理器软件。
有关卷管理器的安装过程,请参阅" 安装并且配置 Solstice DiskSuite 软件"或"安装并且配置 VxVM 软件"。
成为群集中任一节点上的超级用户。
为了加快文件系统的创建速度,可成为要为其创建文件系统的当前主要全局设备的超级用户。
使用 newfs(1M) 命令创建文件系统。
# newfs 原始磁盘设备 |
下表显示原始-磁盘-设备变量的名称示例。请注意,卷管理器的命名惯例各不相同。
表 2-7 原始磁盘设备名称样例
卷管理器 |
样本磁盘设备名称 |
说明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle 磁盘集中的原始磁盘设备 d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁盘组中的原始磁盘设备 vol01 |
无 |
/dev/global/rdsk/d1s3 |
原始磁盘设备 d1s3 |
在群集中的每个节点中,为群集文件系统创建一个安装点目录。
每个节点上都需要一个安装点;即使不在某个节点上访问群集文件系统,也需在此节点上安装。
为了便于管理,请在 /global/device-group 目录中创建安装点。该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。
# mkdir -p /global/device-group/mountpoint |
目录名,此名称与该设备所在的设备组的名称相对应
目录名,群集文件系统将装在该目录中
在群集中的每个节点上,为安装点的 /etc/vfstab 文件添加一个条目。
使用下列必需的安装选项。
登录对于所有群集文件系统是必需的。
Solaris UFS logging - 使用 global,logging 安装选项。有关 UFS 安装选项的详细信息,请参阅 mount_ufs(1M) 手册页。
对于 UFS 群集文件系统,不需要 syncdir 安装选项。如果指定了 syncdir,就可以保证与 POSIX 相容的文件系统行为。如果不指定,您会看到与 UFS 文件系统一样的行为。如果不指定 syncdir,可以显著改善分配磁盘块(如向文件附加数据时)的写入性能。但是,在某些情况下,如果不指定 syncdir,就只能在关闭一个文件后才发现空间不足。在不指定 syncdir 时出现问题的情形是很少见的。如果有 syncdir(和 POSIX 行为),空间不够的情况应该在关闭前就已发现了。
Solstice DiskSuite trans 元设备 - 使用 global 安装选项(而不使用 logging 安装选项)。有关设置 trans 元设备的信息,请参阅 Solstice DiskSuite 文档。
要自动安装群集文件系统,请将在引导时安装字段设置为是
请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在每个节点中是完全相同的。
请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。
检查文件系统的引导顺序相关性。
例如,假定出现以下情况:phys-schost-1 将磁盘设备 d0 安装在 /global/oracle 上,而 phys-schost-2 将磁盘设备 d1 安装在 /global/oracle/logs 上。此时,只有在 phys-schost-1 引导并安装了 /global/oracle 之后,phys-schost-2 才能引导并安装 /global/oracle/logs。
有关详细信息,请参阅 vfstab(4) 手册页。
在群集的每个节点上,检验是否存在安装点以及群集的所有节点上的 /etc/vfstab 文件条目是否正确。
# sccheck |
如果不出现错误,则不返回任何内容。
从群集中的任何节点,安装群集文件系统。
# mount /global/device-group/mountpoint |
在群集的每个节点上检验是否已安装群集文件系统。</para>
可以使用命令 df(1M) 或者 mount(1M) 来列出安装的文件系统。
您的群集节点是否与多个公共子网相连?
如果是,则转到"如何配置附加公共网络适配器"以配置其它公共网络适配器。
如果否,则转到"如何配置"公共网络管理"(PNM)"以配置 PNM 并设置 NAFO 组。
以下示例说明如何在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 上创建一个 UFS 群集文件系统。
# newfs /dev/md/oracle/rdsk/d1 ... (on each node) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2000 |
如果群集中的节点与多个公共子网连接,则可以为次级子网配置附加公共网络适配器。该任务为可选。
只配置公共网络适配器,而不是专用网适配器。
您可以从 《Sun Cluster 3.0 发行说明》中获得已完成的"公共网络工作表"。
成为该节点的超级用户,以便配置附加公共网络适配器。
创建一个名为 /etc/hostname.adapter 的文件,其中 adapter 为适配器名称。
在每个 NAFO 组中,对于组中一个适配器,只应存在一个 /etc/hostname.adapter 文件。
输入 /etc/hostname.adapter 文件中公共网络适配卡 IP 地址的主机名。
以下示例显示为适配器 hme3 创建的文件 /etc/hostname.hme3,其中包含主机名 phys-schost-1。
# vi /etc/hostname.hme3 phys-schost-1 |
在每个群集节点中,确保 /etc/inet/hosts 文件包含分配给公共网络适配卡的 IP 地址和对应的主机名。
以下示例显示 phys-schost-1 的条目。
# vi /etc/inet/hosts ... 192.29.75.101 phys-schost-1 ... |
如果使用命名服务,则该信息还应存在于命名服务数据库中。
在每个群集节点上,打开适配器。
# ifconfig adapter plumb # ifconfig adapter hostname netmask + broadcast + -trailers up |
检验适配器的配置是否正确。
# ifconfig 适配器 |
输出应包含适配器的正确 IP 地址。
配置 PNM 并设置 NAFO 组。
要由"资源组管理器"(RGM) 管理的每个公共网络适配器必须属于一个 NAFO 组。
对群集的每个节点执行该任务。
所有公共网络适配器必须属于一个"网络适配器失败"(NAFO) 组。而且,对于每个子网,每个节点只能有一个 NAFO 组。
您可以从 《Sun Cluster 3.0 发行说明》中获得已完成的"公共网络工作表"。
成为该节点上的超级用户,以配置 NAFO 组。
创建 NAFO 组。
# pnmset -c nafo-group -o create adapter [adapter ...] |
配置 NAFO 组 nafo-group
创建包含一个或多个公共网络适配器的新 NAFO 组
有关详细信息,请参阅 pnmset(1M) 手册页。
检验 NAFO 组的状态。
# pnmstat -l |
有关详细信息,请参阅 pnmstat(1M) 手册页。
您是否打算更改任何专用主机名?
如果是,则转到"如何更改专用主机名"。
如果否,则转到"如何更新网络时间协议 (NTP)"以更新 /etc/inet/ntp.conf 文件。
以下示例说明如何创建 NAFO 组 nafo0,该组使用公共网络适配器 qfe1 和 qfe5。
# pnmset -c nafo0 -o create qfe1 qfe5 # pnmstat -l group adapters status fo_time act_adp nafo0 qfe1:qfe5 OK NEVER qfe5 nafo1 qfe6 OK NEVER qfe6 |
如果不希望使用在 Sun Cluster 软件安装期间分配的缺省专用主机名(clusternodenodeid-priv),则执行该任务。
已配置并启动应用程序和数据服务后,请不要执行该任务。否则,在重命名旧的专用主机名后,应用程序或数据服务可能仍使用旧的专用主机名,从而造成主机名冲突。如果有一些应用程序或数据服务正在运行,则停止它们,然后再执行该过程。
成为群集中一个节点上的超级用户。
启动 scsetup(1M) 实用程序。
# scsetup |
要处理专用主机名,请输入 5 (专用主机名)。
要更改专用主机名,请输入 1 (更改专用主机名)。
按照提示更改专用主机名。对于每个要更改的专用主机名,请重复该过程。
检验新的专用主机名。
# scconf -pv | grep "private hostname" (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
更新 /etc/inet/ntp.conf 文件。
对每个节点执行该任务。
成为群集节点的超级用户。
编辑 /etc/inet/ntp.conf 文件。
作为标准群集安装的一部分,scinstall(1M) 命令会将模板文件 ntp.cluster 复制到 /etc/inet/ntp.conf 中。但是,如果在安装 Sun Cluster 软件前,就已存在一个 ntp.conf 文件,则该现有文件将保持不变。如果通过其它方式安装群集软件包(如直接使用 pkgadd(1M)),则需要配置 NTP。
删除不由群集使用的专用主机名的所有条目。
如果 ntp.conf 文件包含不存在的专用主机名,则重新引导节点时,在节点尝试联系这些专用主机名时将出现一些错误消息。
如果在 Sun Cluster 软件安装后更改了专用主机名,请通过新的专用主机名来更新每个文件条目。
如果需要,可进行一些其它修改以满足 NTP 要求。
在群集内配置 NTP 或任何时间同步设备时,主要要求是必须将所有群集节点同步成同一时间。考虑在节点之间同步时间的辅助单独节点的时间准确性。只要满足该基本同步要求,您可以按最大程度满足您个人需要的方式来自由配置 NTP。
有关群集时间的详细信息,请参阅《Sun Cluster 3.0 U1 概念》。有关如何配置 Sun Cluster 配置的 NTP 的指导信息,请参阅 ntp.cluster 模板。
重新启动 NTP 守护程序。
# /etc/init.d/xntpd stop # /etc/init.d/xntpd start |
您是否打算使用 Sun Management Center 来配置资源组或监视群集?
如果否,请安装第三方应用程序,注册资源类型,设置资源组并配置数据服务。请参阅随应用程序软件提供的文档和《Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide》。