Sun Cluster 系统管理指南(适用于 Solaris OS)

开始管理群集

表 1–2 提供了管理群集的起点。


注 –

仅从全局群集投票节点运行的 Sun Cluster 命令在用于区域群集时无效。有关命令在区域中的有效用法的信息,请参见相应的 Sun Cluster 手册页。


表 1–2 Sun Cluster 3.2 管理工具

任务 

工具 

指导 

远程登录群集 

使用 ccp 命令启动 Cluster Control Panel (CCP)。然后,选择下列图标之一:cconsole、crlogin、cssh 或 ctelnet。

如何远程登录到群集

如何安全地连接到群集控制台

以交互方式配置群集 

启动 clzonecluster(1CL) 实用程序或 clsetup(1CL) 实用程序。

如何访问群集配置实用程序

显示 Sun Cluster 发行版本号和版本信息 

clnode(1CL) 命令与 show-rev --v -node 子命令和选项配合使用。

如何显示 Sun Cluster 发行版本信息和版本信息

显示已安装的资源、资源组和资源类型 

使用以下命令显示资源信息: 

如何显示已配置的资源类型、资源组和资源

以图形方式监视群集组件 

使用 Sun Cluster Manager。 

参见联机帮助 

以图形方式管理某些群集组件 

使用 Sun Cluster Manager 或 Sun Management Center 的 Sun Cluster 模块(Sun Management Center 仅可在基于 SPARC 的系统上与 Sun Cluster 一起使用)。 

有关 Sun Cluster Manager 的信息,请参见联机帮助。 

有关 Sun Management Center 的信息,请参见 Sun Management Center 相关文档。 

检查群集组件状态 

cluster(1CL) 命令与 status 子命令配合使用。

如何检查群集组件的状态

检查公共网络上 IP 网络多路径 (IPMP) 组的状态 

对于全局群集,请将 clnode(1CL) status 命令与 -m 选项配合使用。

对于区域群集,请使用 clzonecluster(1CL) show 命令。

如何检查公共网络的状态

查看群集配置 

对于全局群集,请将 cluster(1CL) 命令与 show 子命令配合使用。

对于区域群集,请将 clzonecluster(1CL) 命令与 show 子命令配合使用。

如何查看群集配置

检查全局挂载点或检验群集配置 

对于全局群集,请将 cluster(1CL)cluster (1CL) 命令与 check 子命令配合使用。

对于区域群集,请使用 clzonecluster(1CL) verify 命令。

如何验证基本群集配置

查看 Sun Cluster 命令日志的内容 

检查 /var/cluster/logs/ commandlog 文件。

如何查看 Sun Cluster 命令日志的内容

查看 Sun Cluster 系统消息 

检查 /var/adm/messages 文件。

《系统管理指南:高级管理》中的“查看系统消息”

监视 Solstice DiskSuite 的状态 

使用 metastat 命令。

Solaris Volume Manager文档 

在运行 Solaris 9 或 Solaris 10 时监视 Solaris Volume Manager 的状态 

使用 metastat 命令。

《Solaris Volume Manager Administration Guide》

Procedure如何远程登录到群集

Cluster Control Panel (CCP) 为 cconsolecrlogincsshctelnet 工具提供了启动板。所有工具均会启动一个多窗口连接以连接到一组指定的节点。此多窗口连接由每个指定节点的主窗口和一个公共窗口组成。输入到公共窗口中的信息会被发送到每一个主窗口,从而可在群集的所有节点上同时运行命令。

您还可以从命令行启动 cconsolecrlogincsshctelnet 会话。

默认情况下,cconsole 实用程序通过 telnet 连接到节点控制台。要与控制台建立安全 Shell 连接,请在 cconsole 窗口的 "Options" 菜单中选中 "Use SSH" 复选框。或者,在发出 ccpcconsole 命令时指定 -s 选项。

有关更多信息,请参见ccp(1M)cconsole(1M) 手册页。

phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。

此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B

开始之前

启动 CCP 前,请验证是否满足以下前提条件:

  1. 如果您使用的是 Sun Enterprise 10000 服务器平台,请登录系统服务处理器 (System Service Processor, SSP)。

    1. 使用 netcon 命令进行连接。

    2. 建立连接之后,键入 Shift~@ 解除对控制台的锁定并获得写访问权。

  2. 从管理控制台启动 CCP 启动板。


    phys-schost# ccp clustername
    

    将显示 CCP 启动板。

  3. 要启动与群集的远程会话,请单击 CCP 启动板中的 cconsole、crlogin、cssh 或 ctelnet 图标。

Procedure如何安全地连接到群集控制台

执行此过程可建立与群集节点控制台的安全 shell 连接。

开始之前

如果使用的是终端集中器,请配置 clusters 文件、serialports 文件和 nsswitch.conf 文件。这些文件既可以是 /etc 文件,也可以是 NIS 或 NIS+ 数据库。


注 –

serialports 文件中,指定可用来与每个控制台访问设备建立安全连接的端口号。用于安全 shell 连接的默认端口号是 22。


有关更多信息,请参见 clusters(4)serialports(4) 手册页。

  1. 成为管理控制台上的超级用户。

  2. 使用安全模式启动 cconsole 实用程序。


    # cconsole -s [-l username] [-p ssh-port]
    
    -s

    启用安全 shell 连接。

    -lusername

    指定用于远程连接的用户名。如果未指定 -l 选项,系统会使用启动 cconsole 实用程序的用户名。

    -p ssh-port

    指定要使用的安全 shell 端口号。如果未指定 -p 选项,系统会使用默认端口号 22 建立安全连接。

Procedure如何访问群集配置实用程序

使用 clsetup 实用程序,可以通过交互方式为全局群集配置法定、资源组、群集传输、专用主机名、设备组和新节点选项。clzonecluster 实用程序可对区域群集执行类似的配置任务。有关更多信息,请参见 clsetup(1CL)clzonecluster(1CL) 手册页。

phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。

此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B

  1. 成为全局群集的活动成员节点上的超级用户。从全局群集的节点执行此过程中的所有步骤。

  2. 启动配置实用程序。


    phys-schost# clsetup
    
    • 对于全局群集,使用 clsetup 命令启动该实用程序。


      phys-schost# clsetup
      

      显示“Main Menu”。

    • 对于区域群集,使用 clzonecluster 命令启动该实用程序。本示例中的区域群集是 sczone


      phys-schost# clzonecluster configure sczone
      

      您可以使用以下选项查看该实用程序中的可用操作:


      clzc:sczone> ? 
      
  3. 从菜单中选择配置。按照屏幕上的说明完成任务。有关详细信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》中的“配置区域群集”中的说明。

另请参见

有关更多信息,请参见 clsetupclzonecluster 联机帮助。

Procedure如何显示 Sun Cluster 修补程序信息

您无需以超级用户的身份登录即可执行此过程。

phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。

此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B

  1. 显示 Sun Cluster 修补程序信息:


    phys-schost# showrev -p
    

    Sun Cluster 的更新发行版由主产品修补程序号和更新版本来标识。


示例 1–1 显示 Sun Cluster 修补程序信息

以下示例显示了有关修补程序 110648-05 的信息。


phys-schost# showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

Procedure如何显示 Sun Cluster 发行版本信息和版本信息

您无需以超级用户的身份登录即可执行此过程。从全局群集的节点执行此过程中的所有步骤。

phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。

此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B

  1. 显示 Sun Cluster 发行版本信息和版本信息:


    phys-schost# clnode show-rev -v -node
    

    该命令显示了 Sun Cluster 的发行版本号和所有 Sun Cluster 软件包的版本字符串。


示例 1–2 显示 Sun Cluster 发行版本信息和版本信息

以下示例显示了群集的发行版本信息和所有软件包的版本信息。


phys-schost# clnode show-rev
3.2

phys-schost#% clnode show-rev -v
Sun Cluster 3.2 for Solaris 9 sparc

SUNWscr:       3.2.0,REV=2006.02.17.18.11
SUNWscu:       3.2.0,REV=2006.02.17.18.11
SUNWsczu:      3.2.0,REV=2006.02.17.18.11
SUNWscsck:     3.2.0,REV=2006.02.17.18.11
SUNWscnm:      3.2.0,REV=2006.02.17.18.11
SUNWscdev:     3.2.0,REV=2006.02.17.18.11
SUNWscgds:     3.2.0,REV=2006.02.17.18.11
SUNWscman:     3.2.0,REV=2005.10.18.08.42
SUNWscsal:     3.2.0,REV=2006.02.17.18.11
SUNWscsam:     3.2.0,REV=2006.02.17.18.11
SUNWscvm:      3.2.0,REV=2006.02.17.18.11
SUNWmdm:       3.2.0,REV=2006.02.17.18.11
SUNWscmasa:    3.2.0,REV=2006.02.17.18.11
SUNWscmautil:  3.2.0,REV=2006.02.17.18.11
SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11
SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11
SUNWscva:      3.2.0,REV=2006.02.17.18.11
SUNWscspm:     3.2.0,REV=2006.02.17.18.11
SUNWscspmu:    3.2.0,REV=2006.02.17.18.11
SUNWscspmr:    3.2.0,REV=2006.02.17.18.11
SUNWscderby:   3.2.0,REV=2006.02.17.18.11
SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11
SUNWscrsm:     3.2.0,REV=2006.02.17.18.11
SUNWcsc:       3.2.0,REV=2006.02.21.10.16
SUNWcscspm:    3.2.0,REV=2006.02.21.10.16
SUNWcscspmu:   3.2.0,REV=2006.02.21.10.16
SUNWdsc:       3.2.0,REV=2006.02.21.10.09
SUNWdscspm:    3.2.0,REV=2006.02.21.10.09
SUNWdscspmu:   3.2.0,REV=2006.02.21.10.09
SUNWesc:       3.2.0,REV=2006.02.21.10.11
SUNWescspm:    3.2.0,REV=2006.02.21.10.11
SUNWescspmu:   3.2.0,REV=2006.02.21.10.11
SUNWfsc:       3.2.0,REV=2006.02.21.10.06
SUNWfscspm:    3.2.0,REV=2006.02.21.10.06
SUNWfscspmu:   3.2.0,REV=2006.02.21.10.06
SUNWhsc:       3.2.0,REV=2006.02.21.10.20
SUNWhscspm:    3.2.0,REV=2006.02.21.10.20
SUNWhscspmu:   3.2.0,REV=2006.02.21.10.20
SUNWjsc:       3.2.0,REV=2006.02.21.10.22
SUNWjscman:    3.2.0,REV=2006.02.21.10.22
SUNWjscspm:    3.2.0,REV=2006.02.21.10.22
SUNWjscspmu:   3.2.0,REV=2006.02.21.10.22
SUNWksc:       3.2.0,REV=2006.02.21.10.14
SUNWkscspm:    3.2.0,REV=2006.02.21.10.14
SUNWkscspmu:   3.2.0,REV=2006.02.21.10.14

Procedure如何显示已配置的资源类型、资源组和资源

还可以使用 Sun Cluster Manager GUI 完成此过程。有关更多信息,请参阅第 13 章或参见 Sun Cluster Manager 联机帮助。

phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。

此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B

开始之前

超级用户以外的用户需要具有 solaris.cluster.read RBAC 授权才能使用该子命令。

  1. 显示群集的已配置资源类型、资源组和资源。从全局群集的节点执行此过程中的所有步骤。


    phys-schost# cluster show -t resource,resourcetype,resourcegroup
    

    要获取各个资源、资源组和资源类型的信息,请将 show 子命令与下列命令之一配合使用:

    • resource

    • resource group

    • resourcetype


示例 1–3 显示已配置的资源类型、资源组和资源

以下示例显示了为群集 schost 配置的资源类型 (RT Name)、资源组 (RG Name) 和资源 (RS Name)。


phys-schost# cluster show -t resource,resourcetype,resourcegroup


=== Registered Resource Types ===

Resource Type:                                  SUNW.qfs
  RT_description:                                  SAM-QFS Agent on SunCluster
  RT_version:                                      3.1
  API_version:                                     3
  RT_basedir:                                      /opt/SUNWsamfs/sc/bin
  Single_instance:                                 False
  Proxy:                                           False
  Init_nodes:                                      All potential masters
  Installed_nodes:                                 <All>
  Failover:                                        True
  Pkglist:                                         <NULL>
  RT_system:                                       False

=== Resource Groups and Resources ===

Resource Group:                                 qfs-rg
  RG_description:                                  <NULL>
  RG_mode:                                         Failover
  RG_state:                                        Managed
  Failback:                                        False
  Nodelist:                                        phys-schost-2 phys-schost-1

  --- Resources for Group qfs-rg ---

  Resource:                                     qfs-res
    Type:                                          SUNW.qfs
    Type_version:                                  3.1
    Group:                                         qfs-rg
    R_description:                                 
    Resource_project_name:                         default
    Enabled{phys-schost-2}:                        True
    Enabled{phys-schost-1}:                        True
    Monitored{phys-schost-2}:                      True
    Monitored{phys-schost-1}:                      True

Procedure如何检查群集组件的状态

还可以使用 Sun Cluster Manager GUI 完成此过程。有关详细信息,请参见 Sun Cluster Manager 联机帮助。


注 –

cluster status 命令还可以显示区域群集的状态。


phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。

此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B

开始之前

超级用户以外的用户需要具有 solaris.cluster.read RBAC 授权才能使用 status 子命令。

  1. 检查群集组件的状态。从全局群集的节点执行此过程中的所有步骤。


    phys-schost# cluster status
    

示例 1–4 检查群集组件的状态

以下示例提供了一个由 cluster(1CL) status 所返回的群集组件的状态信息样例。


phys-schost# cluster status
=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
phys-schost-1                                   Online
phys-schost-2                                   Online


=== Cluster Transport Paths ===

Endpoint1               Endpoint2               Status
---------               ---------               ------
phys-schost-1:qfe1      phys-schost-4:qfe1      Path online
phys-schost-1:hme1      phys-schost-4:hme1      Path online


=== Cluster Quorum ===

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            3        3         4


--- Quorum Votes by Node ---

Node Name       Present       Possible       Status
---------       -------       --------       ------
phys-schost-1   1             1              Online
phys-schost-2   1             1              Online


--- Quorum Votes by Device ---

Device Name           Present      Possible          Status
-----------               -------      --------      ------
/dev/did/rdsk/d2s2      1            1                Online
/dev/did/rdsk/d8s2      0            1                Offline


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name     Primary          Secondary    Status
-----------------     -------          ---------    ------
schost-2              phys-schost-2     -           Degraded


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
schost-2            -             -                -


=== Cluster Resource Groups ===

Group Name        Node Name      Suspended      Status
----------        ---------      ---------      ------
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Online

test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Error--stop failed

test-rg           phys-schost-1       No             Online
                  phys-schost-2       No             Online


=== Cluster Resources ===

Resource Name     Node Name     Status               Message
-------------     ---------     ------               -------
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Online          Online

test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Stop failed     Faulted

test_1            phys-schost-1      Online          Online
                  phys-schost-2      Online          Online


Device Instance             Node                     Status
---------------             ----                     ------
/dev/did/rdsk/d2            phys-schost-1            Ok

/dev/did/rdsk/d3            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d4            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d6            phys-schost-2            Ok



=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name   Zone HostName   Status    Zone Status
----      ---------   -------------   ------    -----------
sczone    schost-1    sczone-1        Online    Running
          schost-2    sczone-2        Online    Running

Procedure如何检查公共网络的状态

您还可以使用 Sun Cluster Manager GUI 完成此过程。有关详细信息,请参见 Sun Cluster Manager 联机帮助。

phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。

此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B

要检查 IP 网络多路径组的状态,请将 clnode(1CL) 命令与 status 子命令配合使用。

开始之前

超级用户以外的用户需要具有 solaris.cluster.read RBAC 授权才能使用该子命令。

  1. 检查群集组件的状态。从全局群集的节点执行此过程中的所有步骤。


    phys-schost# clnode status -m
    

示例 1–5 检查公共网络状态

以下示例提供了一个由 clnode status 命令返回的群集组件状态信息的样例。


% clnode status -m
--- Node IPMP Group Status ---

Node Name         Group Name    Status    Adapter    Status
---------         ----------    ------    -------    ------
phys-schost-1     test-rg       Online    qfe1       Online
phys-schost-2     test-rg       Online    qfe1       Online 

Procedure如何查看群集配置

还可以使用 Sun Cluster Manager GUI 执行此过程。有关详细信息,请参见 Sun Cluster Manager 联机帮助。

phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。

此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B

开始之前

超级用户以外的用户需要具有 solaris.cluster.read RBAC 授权才能使用 status 子命令。

  1. 查看全局群集或区域群集的配置。从全局群集的节点执行此过程中的所有步骤。


    % cluster show

    从全局群集投票节点运行 cluster show 命令可显示有关群集的详细配置信息以及区域群集的信息(如果已配置这些群集)。

    您还可以使用 clzonecluster show 命令仅查看区域群集的配置信息。区域群集的属性包括区域群集名称、IP 类型、自动引导和区域路径。show 子命令在区域群集内部运行,并且仅适用于该特定区域群集。从区域群集节点运行 clzonecluster show 命令时,将仅检索有关对该特定区域群集可见的对象的状态。

    要显示有关 cluster 命令的更多信息,请使用详细 (verbose) 选项。有关详细信息,请参见 cluster(1CL) 手册页。有关 clzonecluster 的更多信息,请参见 clzonecluster(1CL) 手册页。


示例 1–6 查看全局群集配置

以下示例列出了有关全局群集的配置信息。如果您配置了区域群集,则也会列出相应的信息。


phys-schost# cluster show

=== Cluster ===                                

Cluster Name:                                   cluster-1
  installmode:                                     disabled
  heartbeat_timeout:                               10000
  heartbeat_quantum:                               1000
  private_netaddr:                                 172.16.0.0
  private_netmask:                                 255.255.248.0
  max_nodes:                                       64
  max_privatenets:                                 10
  global_fencing:                                  Unknown
  Node List:                                       phys-schost-1
  Node Zones:                                      phys_schost-2:za

  === Host Access Control ===                  

  Cluster name:                                 clustser-1
    Allowed hosts:                                 phys-schost-1, phys-schost-2:za
    Authentication Protocol:                       sys

  === Cluster Nodes ===                        

  Node Name:                                    phys-schost-1
    Node ID:                                       1
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode1-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              3
    defaultpsetmin:                                1
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000001
    Transport Adapter List:                        qfe3, hme0

    --- Transport Adapters for phys-schost-1 ---    

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.1
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.129
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-1 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-1 ---

    --- SNMP User Configuration on phys-schost-1 ---

    SNMP User Name:                             foo
      Authentication Protocol:                     MD5
      Default User:                                No

  Node Name:                                    phys-schost-2:za
    Node ID:                                       2
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode2-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              1
    defaultpsetmin:                                2
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000002
    Transport Adapter List:                        hme0, qfe3

    --- Transport Adapters for phys-schost-2 ---    

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.130
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.2
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-2 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-2 ---

    --- SNMP User Configuration on phys-schost-2 ---

  === Transport Cables ===                     

  Transport Cable:                              phys-schost-1:qfe3,switch2@1
    Cable Endpoint1:                               phys-schost-1:qfe3
    Cable Endpoint2:                               switch2@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-1:hme0,switch1@1
    Cable Endpoint1:                               phys-schost-1:hme0
    Cable Endpoint2:                               switch1@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:hme0,switch1@2
    Cable Endpoint1:                               phys-schost-2:hme0
    Cable Endpoint2:                               switch1@2
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:qfe3,switch2@2
    Cable Endpoint1:                               phys-schost-2:qfe3
    Cable Endpoint2:                               switch2@2
    Cable State:                                   Enabled

  === Transport Switches ===                   

  Transport Switch:                             switch2
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled

  Transport Switch:                             switch1
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled


  === Quorum Devices ===                       

  Quorum Device Name:                           d3
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   /dev/did/rdsk/d3s2
    Type:                                          scsi
    Access Mode:                                   scsi2
    Hosts (enabled):                               phys-schost-1, phys-schost-2

  Quorum Device Name:                           qs1
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   qs1
    Type:                                          quorum_server
    Hosts (enabled):                               phys-schost-1, phys-schost-2
    Quorum Server Host:                            10.11.114.83
    Port:                                          9000


  === Device Groups ===                        

  Device Group Name:                            testdg3
    Type:                                          SVM
    failback:                                      no
    Node List:                                     phys-schost-1, phys-schost-2
    preferenced:                                   yes
    numsecondaries:                                1
    diskset name:                                  testdg3

  === Registered Resource Types ===            

  Resource Type:                                SUNW.LogicalHostname:2
    RT_description:                                Logical Hostname Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hafoip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.SharedAddress:2
    RT_description:                                HA Shared Address Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hascip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    <Unknown>
    Installed_nodes:                              <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.HAStoragePlus:4
    RT_description:                                HA Storage Plus
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hastorageplus
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscu
    RT_system:                                     False

  Resource Type:                                SUNW.haderby
    RT_description:                                haderby server for Sun Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/haderby
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscderby
    RT_system:                                     False

  Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Sun Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWsctelemetry
    RT_system:                                     False

  === Resource Groups and Resources ===        

  Resource Group:                               HA_RG
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group HA_RG ---          

    Resource:                                   HA_R
      Type:                                        SUNW.HAStoragePlus:4
      Type_version:                                4
      Group:                                       HA_RG
      R_description:                               
      Resource_project_name:                       SCSLM_HA_RG
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-db-rg
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-db-rg ---       

    Resource:                                   cl-db-rs
      Type:                                        SUNW.haderby
      Type_version:                                1
      Group:                                       cl-db-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-tlmtry-rg
    RG_description:                                <Null>
    RG_mode:                                       Scalable
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-tlmtry-rg ---   

    Resource:                                   cl-tlmtry-rs
      Type:                                        SUNW.sctelemetry
      Type_version:                                1
      Group:                                       cl-tlmtry-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  === DID Device Instances ===                 

  DID Device Name:                              /dev/did/rdsk/d1
    Full Device Path:                              phys-schost-1:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d2
    Full Device Path:                              phys-schost-1:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d3
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t1d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t1d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d4
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t2d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d5
    Full Device Path:                              phys-schost-2:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d6
    Full Device Path:                              phys-schost-2:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  === NAS Devices ===                          

  Nas Device:                                   nas_filer1
    Type:                                          netapp
    User ID:                                       root

  Nas Device:                                   nas2
    Type:                                          netapp
    User ID:                                       llai


示例 1–7 查看区域群集配置

以下示例列出了区域群集配置的属性。


% clzonecluster show
=== Zone Clusters ===

Zone Cluster Name:                              sczone
  zonename:                                        sczone
  zonepath:                                        /zones/sczone
  autoboot:                                        TRUE
  ip-type:                                         shared
  enable_priv_net:                                 TRUE

  --- Solaris Resources for sczone ---

  Resource Name:                                net
    address:                                       172.16.0.1
    physical:                                      auto

  Resource Name:                                net
    address:                                       172.16.0.2
    physical:                                      auto

  Resource Name:                                fs
    dir:                                           /gz/db_qfs/CrsHome
    special:                                       CrsHome
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/CrsData
    special:                                       CrsData
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/OraHome
    special:                                       OraHome
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/OraData
    special:                                       OraData
    raw:
    type:                                          samfs
    options:                                       []


  --- Zone Cluster Nodes for sczone ---

  Node Name:                                    sczone-1
    physical-host:                                 sczone-1
    hostname:                                      lzzone-1

  Node Name:                                    sczone-2
    physical-host:                                 sczone-2
    hostname:                                      lzzone-2

Procedure如何验证基本群集配置

cluster(1CL) 命令使用 check 命令验证全局群集正常工作所需的基本配置。如果所有检查均未失败,cluster check 将返回到 shell 提示符。如果某项检查失败,cluster check 将在指定的输出目录或默认输出目录中生成报告。如果对多个节点运行 cluster checkcluster check 将分别针对每个节点生成一个报告并针对多个节点的检查生成一个报告。也可使用 cluster list-checks 命令显示所有可用群集检查的列表。

可在详细模式下运行带有 -v 标志的 cluster check 命令,以显示进度信息。


注 –

在执行可能导致设备、卷管理组件或 Sun Cluster 的配置发生更改的管理过程之后,应运行 cluster check


在全局群集投票节点上运行 clzonecluster(1CL) 命令时,将运行一组检查,以验证区域群集正常工作所需的配置。如果所有检查都通过,clzonecluster verify 将返回到 shell 提示符,您可以放心地安装该区域群集。如果某项检查失败,则 clzonecluster verify 将报告检验失败的全局群集节点。如果对多个节点运行 clzonecluster verify,将针对每个节点和多个节点的检查分别生成一个报告。不允许在区域群集内部运行 verify 子命令。

  1. 成为全局群集的活动成员节点上的超级用户。从全局群集的节点执行此过程中的所有步骤。


    phys-schost# su
    
  2. 检验群集配置。

    • 检验全局群集的配置。


      phys-schost# cluster check
      
    • 检验区域群集的配置以了解是否可以安装区域群集。


      phys-schost# clzonecluster verify zoneclustername
      

示例 1–8 检查全局群集配置并且所有检查均通过

以下示例显示了针对节点 phys-schost-1phys-schost-2 在详细模式下运行的 cluster check,其中节点通过了所有检查。


phys-schost# cluster check -v -h phys-schost-1,  
     phys-schost-2

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished
# 


示例 1–9 检查全局群集配置并且某项检查未通过

以下示例显示,群集 suncluster 中的节点 phys-schost-2 缺少挂载点 /global/phys-schost-1。将在输出目录 /var/cluster/logs/cluster_check/<timestamp> 中创建报告。


phys-schost# cluster check -v -h phys-schost-1, 
phys-schost-2 -o
     /var/cluster/logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

Procedure如何检查全局挂载点

cluster(1CL) 命令会执行多项检查,以确定 /etc/vfstab 文件中是否存在与群集文件系统及其全局挂载点有关的配置错误。


注 –

在进行了影响到设备或卷管理组件的群集配置更改后,请运行 cluster check


  1. 成为全局群集的活动成员节点上的超级用户。从全局群集的节点执行此过程中的所有步骤。


    % su
    
  2. 检验全局群集配置。


    phys-schost# cluster check
    

示例 1–10 检查全局挂载点

以下示例显示,群集 suncluster 中的节点 phys-schost-2 缺少挂载点 /global/schost-1。报告将发送到输出目录 /var/cluster/logs/cluster_check/<timestamp>/


phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as a Sun Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node.  
Only servers that have been qualified with Sun Cluster 3.x are supported as 
Sun Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Sun Microsystems representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Sun Cluster 3.x.
...
#

Procedure如何查看 Sun Cluster 命令日志的内容

/var/cluster/logs/commandlog ASCII 文本文件包含在群集中执行的选定 Sun Cluster 命令的记录。一旦设置群集,系统会自动启动对命令的日志记录,并在您关闭群集时结束。在所有已启动并以群集模式引导的节点上,系统都会记录命令。

不在该文件中记录的命令包括那些显示群集配置和当前状态的命令。

在该文件中记录的命令包括那些配置和更改群集当前状态的命令:

commandlog 文件中的记录可包含下列元素:

默认情况下,系统每周定期对 commandlog 文件进行一次归档。要更改 commandlog 文件的归档策略,请在群集的每个节点上运行 crontab 命令。有关更多信息,请参见 crontab(1) 手册页。

在任意给定时刻,Sun Cluster 软件最多可在每个群集节点上维护八个先前归档的 commandlog 文件。当周的 commandlog 文件名为 commandlog。时间最近的完整的周归档文件名为 commandlog.0。时间最早的完整的周归档文件名为 commandlog.7

    查看当周 commandlog 文件的内容,一次显示一屏。


    phys-schost# more /var/cluster/logs/commandlog
    

示例 1–11 查看 Sun Cluster 命令日志的内容

以下示例显示了通过执行 more 命令显示的 commandlog 文件内容。


more -lines10 /var/cluster/logs/commandlog
11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup
11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1"
11/11/2006 09:43:36 phys-schost-1 5758 root END 0
11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y
"RG_description=Department Shared Address RG" "app-sa-1"
11/11/2006 09:43:37 phys-schost-1 5760 root END 0
11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1"
11/11/2006 09:44:15 phys-schost-1 5810 root END 0
11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320
12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1"
-y "RG_description=Joe Bloggs Shared Address RG"
12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0