表 1–2 提供了管理群集的起点。
表 1–2 Sun Cluster 3.1 4/04 管理工具
任务 |
工具 |
文档 |
---|---|---|
远程登录群集 |
使用 ccp 命令来启动群集控制面板 (CCP)。 接着,选择以下图标之一: cconsole(1M)、crlogin(1M) 或 ctelnet(1M)。 | |
交互式配置群集 |
启动scsetup( 1M) 实用程序。 | |
显示 Sun Cluster 发行版本号和版本信息 |
使用 scinstall (1M) 命令并使用选项 -p 或 -pv。 | |
显示安装的资源、资源组和资源类型 注意: 在执行 scrgadm 时,资源类型、资源组和资源特性的名称不区分大小写。 |
使用 scrgadm(1M) -p 命令。 | |
以图形方式监视群集组件 |
使用 SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模块(只能在基于 SPARC 的系统上的 Sun Cluster 中使用)。 |
SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模块的联机帮助 |
以图形方式管理某些群集组件 |
使用 SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模块(只能在基于 SPARC 的系统上的 Sun Cluster 中使用)。 |
SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模块的联机帮助 |
检查群集组件的状态 |
使用 scstat( 1M) 命令。 | |
检查公共网络上 IP 网络多路径组的状态 |
使用scstat( 1M) 命令并使用 -i 选项。 | |
查看群集配置 |
使用 scconf( 1M) -p 命令。 | |
检查全局安装点 |
使用 sccheck( 1M) 命令。 | |
查看 Sun Cluster 系统消息 |
检查 /var/adm/messages 文件。 |
Solaris 9 系统管理员文档集 System Administration Guide: Advanced Administration 中的 “Viewing System Messages” |
监视 Solstice DiskSuite 的状态 |
使用 metastat 命令。 |
Solstice DiskSuite/Solaris Volume Manager 文档 |
监视 VERITAS Volume Manager 的状态(如果运行 Solaris 8) |
使用 vxstat 或 vxva 命令。 |
VERITAS Volume Manager 文档 |
监视 Solaris 卷管理器的状态(如果运行 Solaris 9) |
使用 svmstat 命令 |
群集控制面板 (CCP) 为 cconsole(1M)、crlogin(1M) 和 ctelnet(1M) 工具提供了启动板。 这三种工具都启动到一组指定的节点的一个多窗口连接。 这个多窗口连接由指定的每个节点的主窗口和一个公共窗口组成。 公共窗口中的输入信息被发送到主窗口中的每一个窗口中,这样,您就可以在群集的所有节点上同时运行这些命令。 有关详细信息,请参阅 ccp( 1M) 和 cconsole( 1M) 手册页。
检验启动 CCP 前是否满足以下前提条件。
在管理控制台上安装 SUNWccon 软件包。
确保管理控制台上的 PATH 变量包括 Sun Cluster 工具目录: /opt/SUNWcluster/bin 和 /usr/cluster/bin。 可以通过设置 $CLUSTER_HOME 环境变量为工具目录另指定一个位置。
如果使用终端集中器,请配置 clusters 文件、serialports 文件和 nsswitch.conf 文件。 这些文件既可以是 /etc 文件,也可以是 NIS/NIS+ 数据库。 有关详细信息,请参阅 clusters( 4) 和 serialports( 4)。
请确定是否拥有 Sun Enterprise 10000 server平台。
如果没有,请继续执行步骤 3。
如果有,则登录到系统服务处理器 (SSP) 并使用 netcon 命令进行连接。 建立连接之后,键入 Shift~@ 解除对控制台的锁定并获得写访问权。
启动 CCP 启动板。
从管理控制台,键入以下命令。
# ccp clustername |
显示 CCP 启动板。
要启动与群集的远程会话,请单击 CCP 启动板中的 cconsole、crlogin 或 ctelnet 图标。
您还可以从命令行启动 cconsole、crlogin 或 ctelnet 会话。
通过 scsetup( 1M) 实用程序,您可以采用交互方式为群集配置定额、资源组、群集传输、专用主机名、设备组和新的节点选项。
成为群集中任一节点上的超级用户。
进入 scsetup 实用程序。
# scsetup |
显示“Main Menu”。
从菜单中选择配置。 按照屏幕上的说明完成任务。
有关详细信息,请参阅 scsetup 联机帮助。
显示 Sun Cluster 修补程序号。
Sun Cluster 的更新发行版本由主产品修补程序号和更新版本来标识。
% showrev -p |
显示 Sun Cluster 发行版本号以及所有 Sun Cluster 软件包的版本信息。
% scinstall -pv |
以下示例说明群集的发行版本号。
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
以下示例显示了群集的发行版本信息和所有软件包的版本信息。
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
您还可以使用 SunPlex Manager GUI 来完成此过程。 请参阅第 10 章,使用图形用户界面管理 Sun Cluster。 有关详细信息,请参阅 SunPlex Manager 的联机帮助。
执行此步骤不需要作为超级用户登录。
显示群集的已配置资源类型、资源组和资源。
% scrgadm -p |
以下示例显示了为群集 schost 配置的资源类型 (RT Name)、资源组 (RG Name) 和资源 (RS Name)。
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
您还可以使用 SunPlex Manager GUI 来完成此过程。 有关详细信息,请参阅 SunPlex Manager 的联机帮助。
执行此步骤不需要作为超级用户登录。
检查群集组件的状态。
% scstat -p |
以下是由 scstat( 1M) 返回的群集组件状态信息的示例。
% scstat -p -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online Cluster node: phys-schost-3 Online Cluster node: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster Transport Paths -- Endpoint Endpoint Status -------- -------- ------ Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online ... -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d2s2 1 1 Online Device votes: /dev/did/rdsk/d8s2 1 1 Online ... -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: rmt/2 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: rmt/2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline ------------------------------------------------------------------ -- Resource Groups and Resources -- Group Name Resources ---------- --------- Resources: test-rg test_1 Resources: real-property-rg - Resources: failover-rg - Resources: descript-rg-1 - ... -- Resource Groups -- Group Name Node Name State ---------- --------- ----- Group: test-rg phys-schost-1 Offline Group: test-rg phys-schost-2 Offline ... -- Resources -- Resource Name Node Name State Status Message ------------- --------- ----- -------------- Resource: test_1 phys-schost-1 Offline Offline Resource: test_1 phys-schost-2 Offline Offline ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
您还可以使用 SunPlex Manager GUI 来完成此过程。 有关详细信息,请参阅 SunPlex Manager 的联机帮助。
执行此步骤不需要作为超级用户登录。
要检查 IP 网络多路径组的状态,请使用 scstat(1M) 命令。
以下是由 scstat 返回的群集组件状态信息的示例。
% scstat -i ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
您还可以使用 SunPlex Manager GUI 来完成此过程。 有关详细信息,请参阅 SunPlex Manager 的联机帮助。
执行此步骤不需要作为超级用户登录。
查看群集配置
% scconf -p |
要使用 scconf 命令显示详细信息,请使用冗余选项。 有关详细信息,请参阅 scconf( 1M) 手册页。
以下示例列出了群集配置。
% scconf -p Cluster name: cluster-1 Cluster ID: 0x3908EE1C Cluster install mode: disabled Cluster private net: 172.16.0.0 Cluster private netmask: 255.255.0.0 Cluster new node authentication: unix Cluster new node list: <NULL - Allow any node> Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster node name: phys-schost-1 Node ID: 1 Node enabled: yes Node private hostname: clusternode1-priv Node quorum vote count: 1 Node reservation key: 0x3908EE1C00000001 Node transport adapters: hme1 qfe1 qfe2 Node transport adapter: hme1 Adapter enabled: yes Adapter transport type: dlpi Adapter property: device_name=hme Adapter property: device_instance=1 Adapter property: dlpi_heartbeat_timeout=10000 ... Cluster transport junctions: hub0 hub1 hub2 Cluster transport junction: hub0 Junction enabled: yes Junction type: switch Junction port names: 1 2 3 4 ... Junction port: 1 Port enabled: yes Junction port: 2 Port enabled: yes ... Cluster transport cables Endpoint Endpoint State -------- -------- ----- Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum devices: d2 d8 Quorum device name: d2 Quorum device votes: 1 Quorum device enabled: yes Quorum device name: /dev/did/rdsk/d2s2 Quorum device hosts (enabled): phys-schost-1 phys-schost-2 Quorum device hosts (disabled): ... Device group name: schost-3 Device group type: SVM Device group failback enabled: no Device group node list: phys-schost-3, phys-schost-4 Diskset name: schost-3 |
sccheck( 1M) 命令会运行一组检查来验证群集正常运行所需的基本配置。 如果所有检查均未失败,sccheck 将返回到 shell 提示符。 如果某项检查失败,sccheck 将在指定输出目录或缺省输出目录中生成报告。 如果对多个节点运行 sccheck, sccheck 将为每个节点和多个节点的检查分别生成一个报告。
sccheck 命令按以下两个步骤运行: 数据收集和数据分析。 数据收集可能会耗费较长的时间,具体时间取决于系统配置。 您可以在冗余模式下用 -v1 标志调用 sccheck 来打印进度信息,还可以在高度冗余模式下用 - v2 标志运行 sccheck 来打印较为详细的进度信息(尤其是在收集数据的过程中)。
在执行可能导致设备、卷管理组件或 Sun Cluster 的配置发生更改的管理过程之后,都应运行 sccheck。
以下示例显示了在冗余模式下运行 sccheck 来检查通过所有检查的 phys-schost-1 和 phys-schost-2 节点。
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
以下示例显示了群集中缺少安装点 /global/phys-schost-1 的 suncluster 节点 phys-schost-2。 创建的报告位于 /var/cluster/sccheck/myReports/ 输出目录中。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) 命令包括对 /etc/vfstab 文件的检查,以确认群集文件系统及其全局安装点的配置错误。
在进行了影响到设备或卷管理组件的群集配置更改后,请运行 sccheck。
以下示例显示了群集中缺少安装点 /global/schost-1 的suncluster 节点 phs-schost-2。 报告被发送到输出目录 /var/cluster/sccheck/myReports/。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |