本章提供了 Sun Cluster 3.0 5/02 更新版中新增的数据服务安装信息和配置信息。此信息是对《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》的补充。有关安装新的群集框架的信息,请参阅第 4 章,安装。
本章对下列主题进行了充实:
以下信息适用于本更新版和所有后续更新版。
Sun Cluster HA for SAP 一章已更新,其中包括有关支持将 SAP 作为可缩放服务的过程。请参阅附录 B,安装和配置 Sun Cluster HA for SAP。
Sun Cluster HA for SAP 一章已更新,其中包括有关如何设置锁定文件的过程。请参阅"设置锁定文件"。
Sun Cluster 3.0 5/02 更新版中新增了以下功能。该功能适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
在群集引导或服务故障转移到其他节点后,可能需要等一会儿才可以使用全局设备和群集文件系统。但是,对于数据服务来说,则可在其所依赖的全局设备和群集文件系统实现联机之前即运行其 START 方法。在此实例中,START 方法超时,因此您必须重置数据服务所使用的资源组的状态并手动重新启动该数据服务。资源组类型 HAStorage 和 HAStoragePlus 会监视全局设备和群集文件系统,并使同一资源组中其他资源的 START 方法处于等待状态,直到全局设备和群集文件系统可用为止。(要确定应使用哪种资源类型,请参阅《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中的"Recommendations"。)为避免一些不必要的管理任务,请为所有资源组(只要这些资源组的数据服务资源是依赖于全局设备或群集文件系统)设置 HAStorage 或 HAStoragePlus。
要创建 HAStoragePlus 资源类型,请参阅"如何设置 HAStoragePlus 资源类型 (5/02)"。
Sun Cluster 3.0 5/02 更新版中新增了以下功能。该功能适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
通过 HAStoragePlus 资源类型,可使本地文件系统在 Sun Cluster 环境中具有高可用性。本地文件系统的所有分区必须驻留在启用了相似性切换功能的全局磁盘组中,同时必须对 Sun Cluster 环境进行配置,使之适应故障转移。这将使用户能够实现以下目的:即让多主机磁盘上的任何文件系统都可通过与多主机磁盘直接相连的任何主机进行访问。(无法通过 HAStoragePlus 使根文件系统具有高可用性。)
强烈建议您在某些 I/O 密集型数据服务中使用具有高可用性的本地文件系统。此外,在此类数据服务的"Registration"和"Configuration"等过程中还增加了有关配置 HAStoragePlus 资源类型的内容。有关为此类数据服务设置 HAStoragePlus 资源类型的过程,请参阅《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中的以下各节。
有关为其他数据服务设置 HAStoragePlus 资源类型的过程,请参阅"如何设置 HAStoragePlus 资源类型 (5/02)"。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
Sun Cluster 3.0 5/02 中新增了 HAStoragePlus 资源类型。这一新的资源类型与 HAStorage 具有相同的功能,可以使资源组和磁盘设备组的启动同步。此外,HAStoragePlus 还具有一项功能,即可使本地文件系统具有高可用性。(有关使本地文件系统具有高可用性的背景信息,请参阅"启用具有高可用性的本地文件系统"。)要使用这两项功能,请设置 HAStoragePlus 资源类型。
要设置 HAStoragePlus,本地文件系统的所有分区必须驻留在启用了相似性切换功能的全局磁盘组中,同时必须对 Sun Cluster 环境进行配置,使之适应故障转移。
以下示例使用了一项简单的 NFS 服务,该服务对本地安装的 /global/local-fs/nfs/export/home 目录中的起始目录数据对外实行共享。此示例假定以下条件:
使用安装点 /global/local-fs/nfs 将 UFS 本地文件系统安装到 Sun Cluster 全局设备分区中。
/global/local-fs/nfs 文件系统的 /etc/vfstab 条目应将该文件系统指定为本地文件系统,并且将安装引导标志指定为无。
PathPrefix 目录(HA-NFS 将此目录用于维护管理信息和状态信息)位于所要安装的文件系统所在的根目录中(例如,/global/local-fs/nfs)。
成为某个群集成员的超级用户。
确定是否已注册资源类型。
使用以下命令可打印出已注册资源类型的列表。
# scrgadm -p | egrep Type |
如果需要,则注册资源类型。
# scrgadm -a -t SUNW.nfs |
创建故障转移资源组 nfs-r
# scrgadm -a -g nfs-rg -y PathPrefix=/global/local-fs/nfs |
创建 SUNW.LogicalHostname 类型的逻辑主机资源。
# scrgadm -a -j nfs-lh-rs -g nfs-rg -L -l log-nfs |
在群集中为 HAStoragePlus 资源类型注册。
# scrgadm -a -t SUNW.HAStoragePlus |
创建类型为 SUNW.HAStoragePlus 的资源 nfs-hastp-rs。
# scrgadm -a -j nfs-hastp-rs -g nfs-rg -t SUNW.HAStoragePlus \ -x FilesystemMountPoints=/global/local-fs/nfs \ -x AffinityOn=TRUE |
在某个群集节点上使资源组 nfs-rg 实现联机。
该节点将成为 /global/local-fs/nfs 文件系统的基础全局设备分区的主节点。文件系统 /global/local-fs/nfs 此时就会从本地安装到该节点上。
# scswitch -Z -g nfs-rg |
在群集中为 SUNW.NFS 资源类型注册。创建 SUNW.nfs 类型的资源 nfs-rs,并指定与其相关的资源为 nfs-hastp-rs。
dfstab.nfs-rs 将出现在 /global/local-fs/nfs/SUNW.nfs 中。
# scrgadm -a -t SUNW.nfs # scrgadm -a -g nfs-rg -j nfs-rs -t SUNW.nfs \ -y Resource_dependencies=nfs-hastp-rs |
必须先使 nfs-hastp-rs 资源联机,然后才可在 nfs 资源中进行上述的资源相关性设置。
使资源 nfs-rs 联机。
# scswitch -Z -g nfs-rg |
这样,只要将服务迁移到新的节点上,/global/local-fs/nfs 的主 I/O 路径就将始终处于联机状态,并与 NFS 服务器处于相同的位置。在启动 NFS 服务器之前,文件系统 /global/local-fs/nfs 会从本地进行安装。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。将 Sun Cluster HA for Oracle 作为一项故障转移数据服务进行注册和配置。您必须注册该数据服务,并为 Oracle 服务器和侦听程序配置相应的资源组和资源。有关资源和资源组的详细信息,请参阅《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中的"Planning for Sun Cluster Data Services"以及《Sun Cluster 3.0 12/01 概念》文档。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。此过程说明如何使用 scrgadm 命令来注册和配置 Sun Cluster HA for Oracle。
此过程谈到了 HAStoragePlus 资源类型的创建。该资源类型可以使 HAStoragePlus 和数据服务实现同步操作,并且使您能够使用具有高可用性的本地文件系统。Sun Cluster HA for Oracle 属于磁盘密集型数据服务,因此应该配置 HAStoragePlus 资源类型。
有关背景信息,请参阅"SUNW.HAStoragePlus(5)"手册页和第 5 页的"资源组和磁盘设备组之间的关系"。
通过其他选项也可以注册和配置数据服务。有关这些选项的详细信息,请参阅第 10 页的"数据服务资源管理工具"。
为执行此过程,您必须掌握以下信息:
控制数据服务的群集节点的名称。
客户用于访问数据服务的网络资源。通常是在安装群集时设置此 IP 地址。有关网络资源的详细信息,请参阅《Sun Cluster 3.0 12/01 概念》文档。
到所要配置的资源的 Oracle 应用程序二进制的路径。
在任何一个群集成员上执行此过程。
成为某个群集成员的超级用户。
运行 scrgadm 命令,以对数据服务的资源类型进行注册。
对于 Sun Cluster HA for Oracle,需要注册两种资源类型(SUNW.oracle_server 和 SUNW.oracle_listener),如下所示:
# scrgadm -a -t SUNW.oracle_server # scrgadm -a -t SUNW.oracle_listener |
添加数据服务资源类型。
为数据服务指定预定义的资源类型名称。
创建故障转移资源组,以保留网络资源和应用程序资源。
您也可以使用 -h 选项选定可用来运行该数据服务的节点集,如下所示:
# scrgadm -a -g resource-group [-h nodelist] |
指定资源组的名称。可以选用此名称,但对于群集中的所有资源组来说,该名称必须是唯一的。
指定一个可选的、用逗号分隔的物理节点名称或 ID 列表,其中的节点名称或 ID 可标识潜在主。在故障转移过程中,将按此处的顺序来将节点选为主节点。
使用 -h 选项可以指定节点列表的顺序。如果群集中的所有节点都是潜在的主节点,则不必使用 -h 选项。
检验是否已将您所使用的全部网络资源都添加到了名称服务数据库中。
在 Sun Cluster 的安装过程中应该已经执行了此项检验。
请确保所有网络资源都已存在于服务器和客户机的 /etc/hosts 文件中,以避免因查找名称服务而导致任何故障。
将网络资源添加到故障转移资源组中。
# scrgadm -a -L -g resource-group -l logical-hostname [-n netiflist] |
指定网络资源。该网络资源为客户在访问 Sun Cluster HA for Oracle 时所使用的逻辑主机名或共享地址(IP 地址)。
指定一个可选的、用逗号分隔的列表,该列表标识了各节点上的 NAFO 组。在资源组的 nodelist 中存在的所有节点在 netiflist 中也必须存在。如果不指定此选项,则 scrgadm(1M) 将尝试在子网中查找网络适配器,而 hostname 列表将使用它来在 nodelist 中标识每个节点。例如:-n nafo0@nodename,nafo0@nodename2。
在群集中为 HAStoragePlus 资源类型注册。
# scrgadm -a -t SUNW.HAStoragePlus |
创建 HAStoragePlus 类型的资源 oracle-hastp-rs。
# scrgadm -a -j oracle-hastp-rs -g oracle-rg -t SUNW.HAStoragePlus \ [如果您的数据库是在某个原始设备上,请指定全局设备路径。] -x GlobalDevicePaths=ora-set1,/dev/global/dsk/dl \ [如果您的数据库是在某个"群集文件服务"中,则请指定 全局文件系统安装点。] -x FilesystemMountPoints=/global/ora-inst,/global/ora-data/logs \ [如果您的数据库是在某个具有高可用性的本地文件系统中,则请指定本地文件系统安装点。] -x FilesystemMountPoints=/local/ora-data \ [将 AffinityOn 设置为 true。] -x AffinityOn=TRUE |
必须将 AffinityOn 设置为 TRUE,并且本地文件系统必须驻留在全局磁盘组中,以便进行故障转移。
运行 scrgadm 命令,以完成以下任务并使资源组 oracle-rg 在一个群集节点上实现联机。
使资源组处于受管状态。
使资源组联机。
此节点将成为设备组 ora-set1 和原始设备 /dev/global/dsk/d1 的主节点。与诸如 /global/ora-inst 和 /global/ora-data/logs 之类的文件系统有关的设备组将随之成为该节点上的主设备组。
# scrgadm -Z -g oracle-rg |
在故障转移资源组中创建 Oracle 应用程序资源。
# scrgadm -a -j resource -g resource-group \ -t SUNW.oracle_server \ -x Connect_string=user/passwd \ -x ORACLE_SID=instance \ -x ORACLE_HOME=Oracle-home \ -x Alert_log_file=path-to-log \ -y resource_dependencies=storageplus-resource # scrgadm -a -j resource -g resource-group \ -t SUNW.oracle_listener \ -x LISTENER_NAME=listener \ -x ORACLE_HOME=Oracle-home \ -y resource_dependencies=storageplus-resource |
指定所要添加的资源的名称。
指定要将资源置于其中的那个资源组的名称。
指定所要添加的资源的类型。
在 $ORACLE_HOME 下设置服务器消息日志的路径。
指定故障监视器连接到数据库时所要使用的用户名和口令。这些设置必须与您在《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》的第 23 页上的"How to Set Up Oracle Database Permissions"中所设置的权限一致。如果使用 Solaris 授权,则键入一个斜杠 (/),而不使用用户名和口令。
设置 Oracle 系统标识符。
设置 Oracle 侦听程序实例的名称。此名称必须与 listener.ora 中的对应条目相匹配。
将路径设置为 Oracle 起始目录。
当 Oracle 服务器资源中发生故障并导致重新启动时,整个资源组将会重新启动。即使该资源组中的任何其他资源(如 Apache 或 DNS)未发生故障,它们也会重新启动。要防止其他资源随 Oracle 服务器资源一起重新启动,请将它们放在单独的资源组中。
另外,您也可以设置那些属于 Oracle 数据服务的附加扩展特性,以覆盖其缺省值。有关扩展特定的列表,请参阅《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中的"Configuring Sun Cluster HA for Oracle Extension Properties"。
以下示例说明如何在双节点群集中注册 Sun Cluster HA for Oracle。
Cluster Information Node names: phys-schost-1, phys-schost-2 Logical Hostname: schost-1 Resource group: resource-group-1 (failover resource group) Oracle Resources: oracle-server-1, oracle-listener-1 Oracle Instances: ora-lsnr (listener), ora-srvr (server) (Add the failover resource group to contain all of the resources.) # scrgadm -a -g resource-group-1 (Add the logical hostname resource to the resource group.) # scrgadm -a -L -g resource-group-1 -l schost-1 (Register the Oracle resource types) # scrgadm -a -t SUNW.oracle_server # scrgadm -a -t SUNW.oracle_listener (Add the Oracle application resources to the resource group.) # scrgadm -a -j oracle-server-1 -g resource-group-1 \ -t SUNW.oracle_server -x ORACLE_HOME=/global/oracle \ -x Alert_log_file=/global/oracle/message-log \ -x ORACLE_SID=ora-srvr -x Connect_string=scott/tiger # scrgadm -a -j oracle-listener-1 -g resource-group-1 \ -t SUNW.oracle_listener -x ORACLE_HOME=/global/oracle \ -x LISTENER_NAME=ora-lsnr (Bring the resource group online.) # scswitch -Z -g resource-group-1 |
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。使用这一节中的过程可以注册和配置 Sun Cluster HA for Sybase ASE 数据服务。将 Sun Cluster HA for Sybase ASE 作为故障转移数据服务进行注册和配置。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。此过程说明如何使用 scrgadm(1M) 命令注册和配置 Sun Cluster HA for Sybase ASE。
此过程谈到了 HAStoragePlus 资源类型的创建。该资源类型可以使 HAStorage 和 Sun Cluster HA for Sybase ASE 实现同步操作,并且使您能够使用具有高可用性的本地文件系统。Sun Cluster HA for Sybase ASE 属于磁盘密集型的数据服务,因此应该配置 HAStoragePlus 资源类型。
有关 HAStoragePlus 资源类型的详细信息,请参阅 SUNW.HAStoragePlus(5) 手册页和第 5 页的"资源组和磁盘设备组之间的关系"。
通过其他选项也可以注册和配置数据服务。有关这些选项的详细信息,请参阅第 10 页的"数据服务资源管理工具"。
控制数据服务的群集节点的名称。
客户用于访问数据服务的网络资源。通常是在安装群集时配置 IP 地址。有关详细信息,请参阅《Sun Cluster 3.0 12/01 软件安装指南》中关于规划 Sun Cluster 环境以及如何安装 Solaris 操作环境的章节。
到所安装的 Sybase ASE 应用程序的路径。
请在某个群集成员上执行以下步骤:
成为某个群集成员的超级用户。
运行 scrgadm 命令,为 Sun Cluster HA for Sybase ASE 注册资源类型。
# scrgadm -a -t SUNW.sybase |
添加该数据服务的资源类型。
指定为数据服务预定义的资源类型的名称。
创建故障转移资源组,以保留网络资源和应用程序资源。
您也可以使用 -h 选项选定可用来运行该数据服务的节点集,如下所示:
# scrgadm -a -g resource-group [-h nodelist] |
指定资源组的名称。可以选用此名称,但对于群集中的所有资源组来说,该名称必须是唯一的。
指定一个可选的、用逗号分隔的物理节点名称或 ID 列表,其中的节点名称或 ID 可标识潜在主。在故障转移过程中,将按此处的顺序来将节点选为主节点。
使用 -h 选项可以指定节点列表的顺序。如果群集中的所有节点都是潜在的主节点,则不必使用 -h 选项。
检验是否已将您所使用的全部网络资源都添加到了名称服务数据库中。
在 Sun Cluster 的安装过程中应该已经执行了此项检验。
请确保所有网络资源都已存在于服务器和客户机的 /etc/hosts 文件中,以避免因查找名称服务而导致任何故障。
将网络资源添加到故障转移资源组中。
# scrgadm -a -L -g resource-group -l logical-hostname [-n netiflist] |
指定网络资源。该网络资源为客户在访问 Sun Cluster HA for Oracle 时所使用的逻辑主机名或共享地址(IP 地址)。
指定一个可选的、用逗号分隔的列表,该列表标识了各节点上的 NAFO 组。在资源组的 nodelist 中存在的所有节点在 netiflist 中也必须存在。如果不指定此选项,则 scrgadm(1M) 将尝试在子网中查找网络适配器,而 hostname 列表将使用它来在 nodelist 中标识每个节点。例如:-n nafo0@nodename,nafo0@nodename2。
在群集中为 HAStoragePlus 资源类型注册。
# scrgadm -a -t SUNW.HAStoragePlus |
创建 HAStoragePlus 类型的资源 sybase-hastp-rs。
# scrgadm -a -j sybase-hastp-rs -g sybase-rg \ -t SUNW.HAStoragePlus \ -x GlobalDevicePaths=sybase-set1,/dev/global/dsk/dl \ -x FilesystemMountPoints=/global/sybase-inst \ -x AffinityOn=TRUE |
必须将 AffinityOn 设置为 TRUE,并且本地文件系统必须驻留在全局磁盘组中,以便进行故障转移。
运行 scrgadm 命令,以完成以下任务并在某个群集节点上使资源组 sybase-rg 联机。
使资源组处于受管状态。
使资源组联机
此节点将成为设备组 sybase-set1 和原始设备 /dev/global/dsk/d1 的主节点。与类似 /global/sybase-inst 的文件系统有关的设备组也将随之成为该节点上的主设备组。
# scrgadm -Z -g sybase-rg |
在故障转移资源组中创建 Sybase ASE 应用程序资源。
# scrgadm -a -j resource -g resource-group \ -t SUNW.sybase \ -x Environment_File=environment-file-path \ -x Adaptive_Server_Name=adaptive-server-name \ -x Backup_Server_Name=backup-server-name \ -x Text_Server_Name=text-server-name \ -x Monitor_Server_Name=monitor-server-name \ -x Adaptive_Server_Log_File=log-file-path \ -x Stop_File=stop-file-path \ -x Connect_string=user/passwd \ -y resource_dependencies=storageplus-resource |
指定所要添加的资源名称。
指定供 RGM 放置资源的那个资源组的名称。
指定所要添加的资源类型。
设置环境文件的名称。
设置适配服务器的名称。
设置备份服务器的名称。
设置文本服务器的名称。
设置监视服务器的名称。
设置到适配服务器的日志文件的路径。
设置到停止文件的路径。
指定故障监视器连接到数据库时所要使用的用户名和口令。
您不必指定那些具有缺省值的扩展特性。有关详细信息,请参阅《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中的"Configuring Sun Cluster HA for Sybase ASE Extension Properties"。
启用资源和故障监视。
# scswitch -Z -g resource-group |
对 Sun Cluster HA for Sybase ASE 进行了注册和配置后,请转到《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中的"How to Verify the Sun Cluster HA for Sybase ASE Installation"。
以下信息适用于本更新版和所有后续更新版。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
具有高可用性的本地文件系统 - 通过 HAStoragePlus,可以将本地文件系统集成到 Sun Cluster 环境中,从而使本地文件系统具有高可用性。HAStoragePlus 提供了诸如检验、安装和卸载等附加文件系统功能,从而使 Sun Cluster 能利用本地文件系统进行故障转移。为实现故障转移,本地文件系统必须驻留在启用了相似性切换功能的全局磁盘组中。
有关如何使用 HAStoragePlus 资源类型的信息,请参阅有关数据服务的各个章节或"启用具有高可用性的本地文件系统"。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
借助资源类型 HAStoragePlus,可以在经配置可进行故障转移的 Sun Cluster 环境中使用具有高可用性的本地文件系统。Sun Cluster 3.0 5/02 支持该资源类型。有关设置 HAStoragePlus 资源类型的信息,请参阅"启用具有高可用性的本地文件系统"。
有关如何创建群集文件系统的信息,请参阅《Sun Cluster 3.0 12/01 软件安装指南》中有关规划的那一章。
以下信息适用于本更新版和所有后续版本。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。可以利用 HAStorage 和 HAStoragePlus 资源类型来配置以下选项。
协调磁盘设备和资源组的引导顺序,具体方法是使 HAStorage 或 HAStoragePlus 资源所在的资源组中的其他资源的 START 方法处于等待状态,直到磁盘设备资源变得可用
在将 AffinityOn 设置为 True 的情况下,强制将资源组和磁盘设备组放在同一节点上,从而提高磁盘密集型数据服务的性能
此外,HAStoragePlus 还能够安装所有被发现仍处于卸载状态的群集文件系统。有关详细信息,请参阅《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中的"Planning the Cluster File System Configuration"。
如果在 HAStorage 或 HAStoragePlus 资源处于联机状态下时将设备组切换到了另外一个节点,则 AffinityOn 将不会产生任何影响,并且资源组不会随该设备组迁移。但是,在将资源组切换到另外一个节点的情况下,如果将 AffinityOn 设置为 True,则会导致设备组随资源组一起迁移到该新节点。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
要确定应在数据服务资源组中创建 HAStorage 资源还是 HAStoragePlus 资源,请考虑以下条件。
确定是要使用 HAStorage 还是 HAStoragePlus。
如果您使用的是 Sun Cluster 3.0 12/01 软件版本或或更早的版本,则使用 HAStorage。
如果您使用的是 Sun Cluster 3.0 5/02 软件版本,则使用 HAStoragePlus。(如果您需要在本地将任何一个文件系统集成到配置了故障转移功能的 Sun Cluster 中,则必须将版本升级到 Sun Cluster 3.0 5/02 并使用 HAStoragePlus 资源类型。有关详细信息,请参阅《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中的"Planning the Cluster File System Configuration"。)
如果某个数据服务资源组有一个节点列表,而该列表中的有些节点尚未直接与存储器连接,则您必须在资源组中配置 HAStorage 或 HAStoragePlus 资源,并且必须进行设置,使其他数据服务资源都与 HAStorage 或 HAStoragePlus 资源相关。满足此项要求之后,就可协调存储器和数据服务之间的引导顺序。
如果您的数据服务属于磁盘密集型的数据服务(如 Sun Cluster HA for Oracle 和 Sun Cluster HA for NFS),请确保执行以下任务:
将 HAStorage 或 HAStoragePlus 资源添加到数据服务资源组中。
使 HAStorage 或 HAStoragePlus 资源联机。
对数据服务资源进行设置,使其与 HAStorage 或 HAStoragePlus 资源相关。
将 AffinityOn 设置为 True。
在执行这些任务时,资源组和磁盘设备组位于在同一节点上。
如果数据服务不属于磁盘密集型,例如在启动时读取其所有文件的数据服务(例如,Sun Cluster HA for DNS),则配置 HAStorage 或 HAStoragePlus 资源类型为可选步骤。
有关具体建议,请参阅本文档中涉及数据服务的各有关章节。
有关磁盘设备组和资源组之间的关系的信息,请参阅"使资源组和磁盘设备组的启动同步"。SUNW.HAStorage(5) 和 SUNW.HAStoragePlus(5) 手册页提供了其他的一些详细信息。
有关以本地模式安装 VxFS 之类的文件系统的过程,请参阅"启用具有高可用性的本地文件系统"。SUNW.HAStoragePlus 手册页提供了其他的一些详细信息。
Sun Cluster 3.0 5/02 更新版中新增了以下功能。该功能适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
Prioritized Service Management (RGOffload) 允许群集为关键的数据服务自动释放某个节点上的资源。如果启动关键的故障转移数据服务时需要先将非关键的、可缩放的数据服务或故障转移数据服务脱机,则请使用 RGOffload。利用 RGOffload 可以卸载包含非关键数据服务的资源组。
关键数据服务必须是故障转移数据服务。 所要卸载的数据服务既可以是故障转移数据服务,又可以是可缩放的数据服务。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
成为某个群集成员的超级用户。
确定是否已注册 RGOffload 资源类型。
以下命令将打印一个资源类型列表。
# scrgadm -p|egrep SUNW.RGOffload |
如果需要,注册此资源类型。
# scrgadm -a -t SUNW.RGOffload |
在 RGOffload 资源所要卸载的每个资源组中,将 Desired_primaries 设置为 0。
# scrgadm -c -g offload-rg -y Desired_primaries=0 |
将 RGOffload 资源添加到关键的故障转移资源组中,并设置扩展特性。
请勿将一个资源组放在多个资源的 rg_to_offload 列表中。如果将一个资源组放在多个 rg_to_offload 列表中,可能会使该资源组脱机然后再返回联机状态,并反复重复此过程。
有关扩展特性的说明,请参阅"配置 RGOffload 扩展特性 (5/02)"。
# scrgadm -aj rgoffload-resource -t SUNW.RGOffload -g critical-rg \ -x rg_to_offload=offload-rg-1, offload-rg-2, ... \ -x continue_to_offload=TRUE -x max_offload_retry=15 |
此处列出的是除 rg_to_offload 以外的扩展特性及其缺省值。rg_to_offload 是一个用逗号分隔的资源组列表,其中各个资源组之间相互保持独立。此列表中不能包含那个正要向其中添加 RGOffload 资源的资源组。
启用 RGOffload 资源。
# scswitch -ej rgoffload-resource |
设置关键的故障转移资源,使其与 RGOffload 资源相关。
# scrgadm -c -j critical-resource \ -y Resource_dependencies=rgoffload-resource |
也可以使用 Resource_dependencies_weak。如果对 RGOffload 资源类型使用 Resource_dependencies_weak,则即使在卸载 offload-rg 时出现错误,也能启动关键的故障转移资源。
使所要卸载的资源组联机。
# scswitch -z -g offload-rg, offload-rg-2, ... -h nodelist |
在关键资源组已经脱机的所有节点上,该资源组将保持联机状态。故障监视器可防止该资源组在具有以下特点的节点上运行:其中的关键资源组仍处于联机状态。
由于所要卸载的资源组的 Desired_primaries 已设置为 0(请参阅步骤 4),-Z 选项不能使这些资源组联机。
如果关键的故障转移资源组没有联机,将使它联机。
# scswitch -Z -g critical-rg |
此示例说明如何配置 RGOffload 资源 (rgofl)、含有 RGOffload 资源 (oracle_rg) 的关键资源组以及在关键资源组联机时被卸载的可缩放资源组 (IWS-SC, IWS-SC-2)。此示例中的关键资源为 oracle-server-rs。
在此示例中,可以在任何一个群集 triped 节点上控制 oracle_rg、IWS-SC 和 IWS-SC-2:phys-triped-1、phys-triped-2 和 phys-triped-3。
[Determine whether the SUNW.RGOffload resource type is registered.] # scrgadm -p|egrep SUNW.RGOffload [If needed, register the resource type.] # scrgadm -a -t SUNW.RGOffload [Set the Desired_primaries to zero in each resource group to be offloaded by the RGOffload resource.] |
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
通常,在创建 RGOffload 资源时使用命令行 scrgadm -x parameter=value 来配置扩展特性。关于所有 Sun Cluster 标准特性的详细信息,请参阅《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中的"Standard Properties"。
表 5-1介绍了可为 RGOffload 配置的各种扩展特性。"可调"条目说明何时可以更新此特性。
表 5-1 RGOffload 扩展特性
名称/数据类型 |
缺省值 |
---|---|
rg_to_offload(字符串) |
当在某个节点上启动关键的故障转移资源组时,要在此节点上卸载的资源组的列表(用逗号分隔)。此列表不应含有相互依赖的资源组。此特性没有缺省值,因此必须进行设置。
RGOffload 不检查 rg_to_offload 扩展特性中所设置的资源组列表中的相关性循环。例如,如果资源组 RG-B 在某个方面与 RG-A 相关,则 RG-A 和 RG-B 都不应包含在 rg_to_offload 中。
缺省值:无 可调: 任何时候 |
continue_to_offload(布尔值) |
此布尔值表示:在卸载某个资源组时出错以后,是否继续卸载 rg_to_offload 列表中剩余的资源组。
此特性仅用于 START 方法。
缺省值:True 可调: 任何时候 |
max_offload_retry(整数) |
在由于重新配置群集或资源组而引起故障之后,在启动期间尝试卸载资源组的次数。在连续两次重试之间有 10 秒钟的间隔。
设置 max_offload_retry,使得(所要卸载的资源组的数量 * max_offload_retry * 10 秒)小于 RGOffload 资源的 Start_timeout。如果此数目接近或大于 Start_timeout 的数目,则 RGOffload 资源的 START 方法可能会在完成最大卸载尝试次数之前便超时。
此特性仅用于 START 方法。
缺省值:15 可调: 任何时候 |
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
通过 RGOffload 资源的故障监视器探测,可使 rg_to_offload 扩展特性中指定的资源组在控制关键资源的节点上保持脱机状态。在每个探测周期内,故障监视器将检验所要卸载的资源组 (offload-rg) 在控制关键资源的节点上是否为脱机状态。如果 offload-rg 在控制关键资源的节点上处于联机状态,则故障监视器将在除控制关键资源的那个节点之外的某个节点上尝试启动 offload-rg,从而使得 offload-rg 在控制关键资源的那个节点上脱机。
因为 offload-rg 的 desired_primaries 被设置为 0,所以在后来变得可用的节点上不会再启动已卸载的资源组。因此,在使 offload-rg 在控制关键资源的那个节点上保持脱机的同时,RGOffload 故障监视器会在尽可能多的主节点上尝试启动 offload-rg,直到达到 maximum_primaries 的限制。
RGOffload 会尝试启动所有已卸载的资源组,除非它们处在维护状态或不受管理的状态。要将资源组置于不受管理的状态,请使用 scswitch 命令。
# scswitch -u -g resourcegroup |
在每个 Thorough_probe_interval 之后都将调用故障监视器探测周期。
以下信息适用于本更新版和所有后续更新版。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
iPlanet Directory Server 随 Solaris 9 操作环境一起提供。如果使用的是 Solaris 9,请用 Solaris 9 CD-ROM 安装 iPlanet Directory Server。
在群集的所有节点上安装 iPlanet Directory Server 软件包(如果尚未安装的话)。
在群集文件系统中标识一个位置,您将在其中存放所有目录服务器(例如,/global/nsldap)。
如果需要,可为此文件系统单独创建一个目录。
在所有节点上,创建一个从 /var/ds5 到此目录的链接。如果节点上已存在 /var/ds5,则请先删除它,然后再创建该链接。
# rmdir /var/ds5 # ln -s /global/nsldap /var/ds5 |
在任意一个节点上,以常用的方式建立目录服务器。
# directoryserver setup |
在此节点上,将自动创建 /usr/iplanet/ds5/slapd-instance-name 链接。在所有其他节点上,需要手动创建此链接。
在下面的示例中,dixon-1 是 Directory Server 的名称。
# ln -s /var/ds5/slapd-dixon-1 /usr/iplanet/ds5/slapd-dixon-1 |
当 setup 命令提示您输入服务器名时,请提供逻辑主机名。
要想能正常地实现故障转移功能,必须执行此步骤。
对于您所指定的逻辑主机来说,它在用于运行 directoryserver setup 命令的那个节点上必须处于联机状态。在安装 iPlanet Directory Server 结束时将自动启动 iPlanet Directory Server,但如果逻辑主机在该节点上处于脱机状态,则它将无法自动启动。因此,必须是这种状态。
如果提示您输入逻辑主机名,请选择逻辑主机名以及计算机域名,例如,phys-schost-1.example.com。
当 setup 命令提示您输入完整的服务器名时,请提供与网络资源相关的主机名。
如果提示您输入将用作 iPlanet Directory Server 管理服务器的那个 IP 地址,请指定欲在其中运行 directoryserver setup 的那个群集节点的 IP 地址。
设置 iPlanet Directory Server 管理服务器。这是整个安装过程的一部分。您为此服务器指定的 IP 地址必须是物理群集节点的地址,而不是将用于故障转移的逻辑主机的名称。
在配置并激活了网络资源以后,请转至《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中的"How to Configure iPlanet Directory Server"。
以下信息适用于本更新版和所有后续更新版。
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
此过程介绍了如何对 iPlanet Web Server 的一个实例进行配置,使之具有高可用性。使用 NetscapeTM 浏览器与此过程交互。
在执行此过程之前要注意以下几点。
在开始之前,要确保已在一台计算机上(该计算机能够访问此群集所在的网络)安装了此浏览器。您可以在某个群集节点上安装此浏览器,也可以在此群集的管理工作站上安装此浏览器。
配置文件可以驻留在本地文件系统中,也可驻留在群集文件系统中。
必须在所有群集节点上都安装任何有助于保障实例安全的认证。在此次安装中,还涉及在每个节点上运行管理控制台。因此,如果群集中有节点 n1、n2、n3 和 n4,则安装步骤如下所述:
在节点 n1 上运行管理服务器。
从 Web 浏览器连接到管理服务器,如下所示:http://n1.域:端口(例如,http://n1.example.com:8888)。或者,也可以是您所指定的管理服务器端口。通常,此端口为 8888。
安装认证。
停止节点 n1 上的管理服务器,然后从节点 n2 运行该管理服务器。
从 Web 浏览器连接到新的管理服务器,如下所示:http://n2.域:端口,例如,http://n2.example.com:8888。
对节点 n3 和节点 n4 重复上述步骤。
在注意了以上几点之后,完成以下步骤:
在所有节点的本地磁盘上创建一个目录,以保存日志、错误文件和 iPlanet Web Server 所管理的 PID 文件。
为使 iPlanet 能工作正常,这些文件应当位于群集的各个节点上,而不在群集文件系统中。
在本地磁盘上选择一个位置。对于群集中的所有节点来说,该位置应该相同。使用 mkdir -p 命令创建目录。使 nobody 成为此目录的属主。
以下示例说明了如何完成此步骤。
phys-schost-1# mkdir -p /var/pathname/http-instance/logs/ |
如果您预先估计错误日志和 PID 文件会很大,请不要将它们放在 /var 下面的目录中,因为它们可能会使此目录中的内容超负荷。相反,应该在一个有足够空间的分区内创建目录,以处理大文件。
从管理工作站或群集节点启动 Netscape 浏览器。
在某个群集节点上,转至目录 https-admserv,然后启动 iPlanet 管理服务器。
# cd https-admserv # ./start |
在 Netscape 浏览器中输入 iPlanet 管理服务器的 URL。
此 URL 由物理主机名和端口号组成(例如,n1.example.com:8888),而物理主机名和端口号是在服务器安装过程的步骤 4 中由 iPlanet 安装脚本建立的。在此过程中,当您执行步骤 2时,./start 命令将显示此管理 URL。
根据提示使用用户 ID 和口令登录到 iPlanet 管理服务器界面。该用户 ID 和口令是您在服务器安装过程的步骤 6 中指定的。
在能用管理服务器的地方使用管理服务器(否则手动进行更改)来完成以下操作:
在 Sun Cluster 3.0 5/02 更新版中进行了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。
"资源组特性"列表中已增添了一项新的资源组特性,即 Auto_start_on_new_cluster。
表 5-2 资源组特性
特性名称 |
说明 |
---|---|
Auto_start_on_new_cluster(布尔值) |
如果使用此特性,则可在形成新的群集时禁用"资源组"的自动启动。
缺省值为 TRUE。如果将其设置为 TRUE,则"资源组管理器"会在重新引导群集时尝试自动启动资源组,以实现 Desired_primaries。如果设置为 FALSE,则重新引导群集时"资源组"将不会自动启动。
类别: 可选 缺省值:True 可调: 任何时候 |