表 1–2 提供了管理群集的起点。
表 1–2 Sun Cluster 3.1 4/04 管理工具|
任务 |
工具 |
文档 |
|---|---|---|
|
远程登录群集 |
使用 ccp 命令来启动群集控制面板 (CCP)。 接着,选择以下图标之一: cconsole(1M)、crlogin(1M) 或 ctelnet(1M)。 | |
|
交互式配置群集 |
启动scsetup( 1M) 实用程序。 | |
|
显示 Sun Cluster 发行版本号和版本信息 |
使用 scinstall (1M) 命令并使用选项 -p 或 -pv。 | |
|
显示安装的资源、资源组和资源类型 注意: 在执行 scrgadm 时,资源类型、资源组和资源特性的名称不区分大小写。 |
使用 scrgadm(1M) -p 命令。 | |
|
以图形方式监视群集组件 |
使用 SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模块(只能在基于 SPARC 的系统上的 Sun Cluster 中使用)。 |
SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模块的联机帮助 |
|
以图形方式管理某些群集组件 |
使用 SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模块(只能在基于 SPARC 的系统上的 Sun Cluster 中使用)。 |
SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模块的联机帮助 |
|
检查群集组件的状态 |
使用 scstat( 1M) 命令。 | |
|
检查公共网络上 IP 网络多路径组的状态 |
使用scstat( 1M) 命令并使用 -i 选项。 | |
|
查看群集配置 |
使用 scconf( 1M) -p 命令。 | |
|
检查全局安装点 |
使用 sccheck( 1M) 命令。 | |
|
查看 Sun Cluster 系统消息 |
检查 /var/adm/messages 文件。 |
Solaris 9 系统管理员文档集 System Administration Guide: Advanced Administration 中的 “Viewing System Messages” |
|
监视 Solstice DiskSuite 的状态 |
使用 metastat 命令。 |
Solstice DiskSuite/Solaris Volume Manager 文档 |
|
监视 VERITAS Volume Manager 的状态(如果运行 Solaris 8) |
使用 vxstat 或 vxva 命令。 |
VERITAS Volume Manager 文档 |
|
监视 Solaris 卷管理器的状态(如果运行 Solaris 9) |
使用 svmstat 命令 |
群集控制面板 (CCP) 为 cconsole(1M)、crlogin(1M) 和 ctelnet(1M) 工具提供了启动板。 这三种工具都启动到一组指定的节点的一个多窗口连接。 这个多窗口连接由指定的每个节点的主窗口和一个公共窗口组成。 公共窗口中的输入信息被发送到主窗口中的每一个窗口中,这样,您就可以在群集的所有节点上同时运行这些命令。 有关详细信息,请参阅 ccp( 1M) 和 cconsole( 1M) 手册页。
检验启动 CCP 前是否满足以下前提条件。
在管理控制台上安装 SUNWccon 软件包。
确保管理控制台上的 PATH 变量包括 Sun Cluster 工具目录: /opt/SUNWcluster/bin 和 /usr/cluster/bin。 可以通过设置 $CLUSTER_HOME 环境变量为工具目录另指定一个位置。
如果使用终端集中器,请配置 clusters 文件、serialports 文件和 nsswitch.conf 文件。 这些文件既可以是 /etc 文件,也可以是 NIS/NIS+ 数据库。 有关详细信息,请参阅 clusters( 4) 和 serialports( 4)。
请确定是否拥有 Sun Enterprise 10000 server平台。
如果没有,请继续执行步骤 3。
如果有,则登录到系统服务处理器 (SSP) 并使用 netcon 命令进行连接。 建立连接之后,键入 Shift~@ 解除对控制台的锁定并获得写访问权。
启动 CCP 启动板。
从管理控制台,键入以下命令。
# ccp clustername |
显示 CCP 启动板。
要启动与群集的远程会话,请单击 CCP 启动板中的 cconsole、crlogin 或 ctelnet 图标。
您还可以从命令行启动 cconsole、crlogin 或 ctelnet 会话。
通过 scsetup( 1M) 实用程序,您可以采用交互方式为群集配置定额、资源组、群集传输、专用主机名、设备组和新的节点选项。
成为群集中任一节点上的超级用户。
进入 scsetup 实用程序。
# scsetup |
显示“Main Menu”。
从菜单中选择配置。 按照屏幕上的说明完成任务。
有关详细信息,请参阅 scsetup 联机帮助。
显示 Sun Cluster 修补程序号。
Sun Cluster 的更新发行版本由主产品修补程序号和更新版本来标识。
% showrev -p |
显示 Sun Cluster 发行版本号以及所有 Sun Cluster 软件包的版本信息。
% scinstall -pv |
以下示例说明群集的发行版本号。
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
以下示例显示了群集的发行版本信息和所有软件包的版本信息。
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
您还可以使用 SunPlex Manager GUI 来完成此过程。 请参阅第 10 章,使用图形用户界面管理 Sun Cluster。 有关详细信息,请参阅 SunPlex Manager 的联机帮助。
执行此步骤不需要作为超级用户登录。
显示群集的已配置资源类型、资源组和资源。
% scrgadm -p |
以下示例显示了为群集 schost 配置的资源类型 (RT Name)、资源组 (RG Name) 和资源 (RS Name)。
% scrgadm -p
RT Name: SUNW.SharedAddress
RT Description: HA Shared Address Resource Type
RT Name: SUNW.LogicalHostname
RT Description: Logical Hostname Resource Type
RG Name: schost-sa-1
RG Description:
RS Name: schost-1
RS Description:
RS Type: SUNW.SharedAddress
RS Resource Group: schost-sa-1
RG Name: schost-lh-1
RG Description:
RS Name: schost-3
RS Description:
RS Type: SUNW.LogicalHostname
RS Resource Group: schost-lh-1
|
您还可以使用 SunPlex Manager GUI 来完成此过程。 有关详细信息,请参阅 SunPlex Manager 的联机帮助。
执行此步骤不需要作为超级用户登录。
检查群集组件的状态。
% scstat -p |
以下是由 scstat( 1M) 返回的群集组件状态信息的示例。
% scstat -p
-- Cluster Nodes --
Node name Status
--------- ------
Cluster node: phys-schost-1 Online
Cluster node: phys-schost-2 Online
Cluster node: phys-schost-3 Online
Cluster node: phys-schost-4 Online
------------------------------------------------------------------
-- Cluster Transport Paths --
Endpoint Endpoint Status
-------- -------- ------
Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online
...
------------------------------------------------------------------
-- Quorum Summary --
Quorum votes possible: 6
Quorum votes needed: 4
Quorum votes present: 6
-- Quorum Votes by Node --
Node Name Present Possible Status
--------- ------- -------- ------
Node votes: phys-schost-1 1 1 Online
Node votes: phys-schost-2 1 1 Online
...
-- Quorum Votes by Device --
Device Name Present Possible Status
----------- ------- -------- ------
Device votes: /dev/did/rdsk/d2s2 1 1 Online
Device votes: /dev/did/rdsk/d8s2 1 1 Online
...
-- Device Group Servers --
Device Group Primary Secondary
------------ ------- ---------
Device group servers: rmt/1 - -
Device group servers: rmt/2 - -
Device group servers: schost-1 phys-schost-2 phys-schost-1
Device group servers: schost-3 - -
-- Device Group Status --
Device Group Status
------------ ------
Device group status: rmt/1 Offline
Device group status: rmt/2 Offline
Device group status: schost-1 Online
Device group status: schost-3 Offline
------------------------------------------------------------------
-- Resource Groups and Resources --
Group Name Resources
---------- ---------
Resources: test-rg test_1
Resources: real-property-rg -
Resources: failover-rg -
Resources: descript-rg-1 -
...
-- Resource Groups --
Group Name Node Name State
---------- --------- -----
Group: test-rg phys-schost-1 Offline
Group: test-rg phys-schost-2 Offline
...
-- Resources --
Resource Name Node Name State Status Message
------------- --------- ----- --------------
Resource: test_1 phys-schost-1 Offline Offline
Resource: test_1 phys-schost-2 Offline Offline
-----------------------------------------------------------------
-- IPMP Groups --
Node Name Group Status Adapter Status
--------- ----- ------ ------- ------
IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online
IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online
------------------------------------------------------------------
|
您还可以使用 SunPlex Manager GUI 来完成此过程。 有关详细信息,请参阅 SunPlex Manager 的联机帮助。
执行此步骤不需要作为超级用户登录。
要检查 IP 网络多路径组的状态,请使用 scstat(1M) 命令。
以下是由 scstat 返回的群集组件状态信息的示例。
% scstat -i
-----------------------------------------------------------------
-- IPMP Groups --
Node Name Group Status Adapter Status
--------- ----- ------ ------- ------
IPMP Group: phys-schost-1 sc_ipmp1 Online qfe2 Online
IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online
IPMP Group: phys-schost-2 sc_ipmp1 Online qfe2 Online
IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online
------------------------------------------------------------------
|
您还可以使用 SunPlex Manager GUI 来完成此过程。 有关详细信息,请参阅 SunPlex Manager 的联机帮助。
执行此步骤不需要作为超级用户登录。
查看群集配置
% scconf -p |
要使用 scconf 命令显示详细信息,请使用冗余选项。 有关详细信息,请参阅 scconf( 1M) 手册页。
以下示例列出了群集配置。
% scconf -p
Cluster name: cluster-1
Cluster ID: 0x3908EE1C
Cluster install mode: disabled
Cluster private net: 172.16.0.0
Cluster private netmask: 255.255.0.0
Cluster new node authentication: unix
Cluster new node list: <NULL - Allow any node>
Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3
phys-schost-4
Cluster node name: phys-schost-1
Node ID: 1
Node enabled: yes
Node private hostname: clusternode1-priv
Node quorum vote count: 1
Node reservation key: 0x3908EE1C00000001
Node transport adapters: hme1 qfe1 qfe2
Node transport adapter: hme1
Adapter enabled: yes
Adapter transport type: dlpi
Adapter property: device_name=hme
Adapter property: device_instance=1
Adapter property: dlpi_heartbeat_timeout=10000
...
Cluster transport junctions: hub0 hub1 hub2
Cluster transport junction: hub0
Junction enabled: yes
Junction type: switch
Junction port names: 1 2 3 4
...
Junction port: 1
Port enabled: yes
Junction port: 2
Port enabled: yes
...
Cluster transport cables
Endpoint Endpoint State
-------- -------- -----
Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled
Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled
Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled
Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled
...
Quorum devices: d2 d8
Quorum device name: d2
Quorum device votes: 1
Quorum device enabled: yes
Quorum device name: /dev/did/rdsk/d2s2
Quorum device hosts (enabled): phys-schost-1
phys-schost-2
Quorum device hosts (disabled):
...
Device group name: schost-3
Device group type: SVM
Device group failback enabled: no
Device group node list: phys-schost-3, phys-schost-4
Diskset name: schost-3
|
sccheck( 1M) 命令会运行一组检查来验证群集正常运行所需的基本配置。 如果所有检查均未失败,sccheck 将返回到 shell 提示符。 如果某项检查失败,sccheck 将在指定输出目录或缺省输出目录中生成报告。 如果对多个节点运行 sccheck, sccheck 将为每个节点和多个节点的检查分别生成一个报告。
sccheck 命令按以下两个步骤运行: 数据收集和数据分析。 数据收集可能会耗费较长的时间,具体时间取决于系统配置。 您可以在冗余模式下用 -v1 标志调用 sccheck 来打印进度信息,还可以在高度冗余模式下用 - v2 标志运行 sccheck 来打印较为详细的进度信息(尤其是在收集数据的过程中)。
在执行可能导致设备、卷管理组件或 Sun Cluster 的配置发生更改的管理过程之后,都应运行 sccheck。
以下示例显示了在冗余模式下运行 sccheck 来检查通过所有检查的 phys-schost-1 和 phys-schost-2 节点。
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
以下示例显示了群集中缺少安装点 /global/phys-schost-1 的 suncluster 节点 phys-schost-2。 创建的报告位于 /var/cluster/sccheck/myReports/ 输出目录中。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) 命令包括对 /etc/vfstab 文件的检查,以确认群集文件系统及其全局安装点的配置错误。
在进行了影响到设备或卷管理组件的群集配置更改后,请运行 sccheck。
以下示例显示了群集中缺少安装点 /global/schost-1 的suncluster 节点 phs-schost-2。 报告被发送到输出目录 /var/cluster/sccheck/myReports/。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |