JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris Cluster 시스템 관리 설명서     Oracle Solaris Cluster 4.1 (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris Cluster 관리 방법 소개

Oracle Solaris Cluster 관리 개요

영역 클러스터 작업

Oracle Solaris OS 기능 제한 사항

관리 도구

명령줄 인터페이스

클러스터 관리 준비

Oracle Solaris Cluster 하드웨어 구성 문서화

관리 콘솔 사용

클러스터 백업

클러스터 관리 시작

클러스터에 원격 로그인

클러스터 콘솔에 보안 연결을 설정하는 방법

클러스터 구성 유틸리티에 액세스하는 방법

Oracle Solaris Cluster 릴리스 및 버전 정보를 표시하는 방법

구성된 자원 유형, 자원 그룹 및 자원을 표시하는 방법

클러스터 구성 요소의 상태를 확인하는 방법

공용 네트워크의 상태를 확인하는 방법

클러스터 구성을 보는 방법

기본 클러스터 구성을 검증하는 방법

전역 마운트 지점을 확인하는 방법

Oracle Solaris Cluster 명령 로그 내용을 보는 방법

2.  Oracle Solaris Cluster 및 RBAC

3.  클러스터 종료 및 부트

4.  데이터 복제 접근 방식

5.  전역 장치, 디스크 경로 모니터링 및 클러스터 파일 시스템 관리

6.  쿼럼 관리

7.  클러스터 상호 연결 및 공용 네트워크 관리

8.  노드 추가 및 제거

9.  클러스터 관리

10.  CPU 사용 제어 구성

11.  소프트웨어 업데이트

12.  클러스터 백업 및 복원

A.  예

색인

클러스터 관리 시작

표 1-2에서는 클러스터 관리의 시작 위치를 제공합니다.

표 1-2 Oracle Solaris Cluster 관리 도구

작업
도구
지침
클러스터에 원격 로그인
클러스터에 원격으로 로그인하려면 명령줄에서 Oracle Solaris pconsole 유틸리티를 사용합니다.
대화식으로 클러스터 구성
clzonecluster 명령 또는 clsetup 유틸리티를 사용합니다.
Oracle Solaris Cluster 릴리스 번호 및 버전 정보 표시
clnode 명령을 show-rev -v -node 하위 명령 및 옵션과 함께 사용합니다.
설치된 자원, 자원 그룹 및 자원 유형 표시
다음 명령을 사용하여 자원 정보를 표시합니다.
  • clresource

  • clresourcegroup

  • clresourcetype

클러스터 구성 요소의 상태 확인
cluster 명령을 status 하위 명령과 함께 사용합니다.
공용 네트워크에서 IP 네트워크 다중 경로 그룹의 상태 확인
전역 클러스터의 경우 clnode status 명령을 -m 옵션과 함께 사용합니다.

영역 클러스터의 경우 clzonecluster 명령을 show 하위 명령과 함께 사용합니다.

클러스터 구성을 보십시오.
전역 클러스터의 경우 cluster 명령을 show 하위 명령과 함께 사용합니다.

영역 클러스터의 경우 clzonecluster 명령을 show 하위 명령과 함께 사용합니다.

구성된 NAS 장치 보기 및 표시
전역 클러스터 또는 영역 클러스터의 경우 clzonecluster 명령을 show 하위 명령과 함께 사용합니다.
전역 마운트 지점 또는 클러스터 구성 확인
전역 클러스터의 경우 cluster 명령을 check 하위 명령과 함께 사용합니다.

영역 클러스터의 경우 clzonecluster verify 명령을 사용합니다.

Oracle Solaris Cluster 명령 로그의 내용 보기
/var/cluster/logs/ commandlog 파일을 검사합니다.
Oracle Solaris Cluster 시스템 메시지 보기
/var/adm/messages 파일을 검사합니다.
Solaris Volume Manager 상태 모니터링
metastat 명령을 사용합니다.

클러스터에 원격 로그인

명령줄에서 병렬 콘솔 액세스(pconsole) 유틸리티를 사용하여 클러스터에 원격으로 로그인할 수 있습니다. pconsole 유틸리티는 Oracle Solaris terminal/pconsole 패키지의 일부입니다. pkg install terminal/pconsole을 실행하여 패키지를 설치합니다. pconsole 유틸리티는 사용자가 명령줄에 지정하는 각 원격 호스트에 대해 호스트 단말기 창을 만듭니다. 또한 중앙(마스터) 콘솔 창을 열어서 거기에 입력한 내용을 각 연결로 전파합니다.

pconsole 유틸리티는 X Windows 내에서 또는 콘솔 모드로 실행할 수 있습니다. 클러스터의 관리 콘솔로 사용할 시스템에 pconsole을 설치합니다. 터미널 서버에서 IP 주소에 특정 포트 번호를 연결할 수 있는 경우 호스트 이름이나 IP 주소 외에도 terminal-server:portnumber로 포트 번호를 지정할 수 있습니다.

자세한 내용은 pconsole(1) 매뉴얼 페이지를 참조하십시오.

클러스터 콘솔에 보안 연결을 설정하는 방법

단말기 집중 장치 또는 시스템 컨트롤러가 ssh를 지원하는 경우 pconsole 유틸리티를 사용하여 해당 시스템의 콘솔에 연결할 수 있습니다. pconsole 유틸리티는 Oracle Solaris terminal/pconsole 패키지의 일부로, 패키지를 설치할 때 함께 설치됩니다. pconsole 유틸리티는 사용자가 명령줄에 지정하는 각 원격 호스트에 대해 호스트 단말기 창을 만듭니다. 또한 중앙(마스터) 콘솔 창을 열어서 거기에 입력한 내용을 각 연결로 전파합니다. 자세한 내용은 pconsole(1) 매뉴얼 페이지를 참조하십시오.

클러스터 구성 유틸리티에 액세스하는 방법

clsetup 유틸리티를 사용하면 대화식으로 영역 클러스터를 만들고 전역 클러스터에 대한 쿼럼, 리소스 그룹, 클러스터 전송, 개인 호스트 이름, 장치 그룹 및 새 노드 옵션을 구성할 수 있습니다. clzonecluster 유틸리티는 영역 클러스터에 대해 이와 유사한 구성 작업을 수행합니다. 자세한 내용은 clsetup(1CL)clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 전역 클러스터의 활성 구성원 노드에서 root 역할로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 구성 유틸리티를 시작합니다.
    phys-schost# clsetup
    • 전역 클러스터의 경우 clsetup 명령을 사용하여 유틸리티를 시작합니다.
      phys-schost# clsetup

      q가 표시됩니다.

    • 영역 클러스터의 경우 clzonecluster 명령을 사용하여 유틸리티를 시작합니다. 이 예에서 영역 클러스터는 sczone입니다.
      phys-schost# clzonecluster configure sczone

      다음 옵션을 사용하여 유틸리티에서 사용 가능한 작업을 볼 수 있습니다.

      clzc:sczone> ? 

    또한 대화식 clsetup 유틸리티를 사용하여 클러스터 범위에서 영역 클러스터를 만들거나 파일 시스템 또는 저장 장치를 추가할 수 있습니다. 다른 모든 영역 클러스터 구성 작업은 clzonecluster configure 명령으로 수행합니다. clsetup 유틸리티 사용에 대한 지침은 Oracle Solaris Cluster 소프트웨어 설치 설명서를 참조하십시오.

  3. 메뉴에서 구성을 선택합니다.

    화면의 지시에 따라 작업을 완료하십시오. 자세한 내용은 Oracle Solaris Cluster 소프트웨어 설치 설명서의 영역 클러스터 만들기 및 구성에 있는 지침을 참조하십시오.

참조

자세한 내용은 clsetup 또는 clzonecluster 매뉴얼 페이지를 참조하십시오.

Oracle Solaris Cluster 릴리스 및 버전 정보를 표시하는 방법

이 절차를 수행하기 위해 root 역할로 로그인할 필요는 없습니다. 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

예 1-1 Oracle Solaris Cluster 릴리스 및 버전 정보 표시

다음 예에서는 클러스터의 릴리스 정보 및 Oracle Solaris Cluster 4.1과 함께 제공된 패키지의 버전 정보를 표시합니다.

phys-schost# clnode show-rev
4.1

phys-schost#% clnode show-rev -v

Oracle Solaris Cluster 4.1 for Solaris 11 sparc
ha-cluster/data-service/apache                             :4.1-0.18
ha-cluster/data-service/dhcp                               :4.1-0.18
ha-cluster/data-service/dns                                :4.1-0.18
ha-cluster/data-service/glassfish-message-queue            :4.1-0.18
ha-cluster/data-service/ha-ldom                            :4.1-0.18
ha-cluster/data-service/ha-zones                           :4.1-0.18
ha-cluster/data-service/iplanet-web-server                 :4.1-0.18
ha-cluster/data-service/nfs                                :4.1-0.18
ha-cluster/data-service/oracle-database                    :4.1-0.18
ha-cluster/data-service/oracle-external-proxy              :4.1-0.18
ha-cluster/data-service/oracle-http-server                 :4.1-0.18
ha-cluster/data-service/oracle-pmn-server                  :4.1-0.18
ha-cluster/data-service/oracle-traffic-director            :4.1-0.18
ha-cluster/data-service/peoplesoft                         :4.1-0.18
ha-cluster/data-service/sapnetweaver                       :4.1-0.18
ha-cluster/data-service/tomcat                             :4.1-0.18
ha-cluster/data-service/weblogic                           :4.1-0.18
ha-cluster/developer/agent-builder                         :4.1-0.18
ha-cluster/developer/api                                   :4.1-0.18
ha-cluster/geo/geo-framework                               :4.1-0.18
ha-cluster/geo/manual                                      :4.1-0.18
ha-cluster/geo/replication/availability-suite              :4.1-0.18
ha-cluster/geo/replication/data-guard                      :4.1-0.18
ha-cluster/geo/replication/sbp                             :4.1-0.18
ha-cluster/geo/replication/srdf                            :4.1-0.18
ha-cluster/geo/replication/zfs-sa                          :4.1-0.18
ha-cluster/group-package/ha-cluster-data-services-full     :4.1-0.18
ha-cluster/group-package/ha-cluster-framework-full         :4.1-0.18
ha-cluster/group-package/ha-cluster-framework-l10n         :4.1-0.18
ha-cluster/group-package/ha-cluster-framework-minimal      :4.1-0.18
ha-cluster/group-package/ha-cluster-framework-scm          :4.1-0.18
ha-cluster/group-package/ha-cluster-framework-slm          :4.1-0.18
ha-cluster/group-package/ha-cluster-full                   :4.1-0.18
ha-cluster/group-package/ha-cluster-geo-full               :4.1-0.18
ha-cluster/group-package/ha-cluster-geo-incorporation      :4.1-0.18
ha-cluster/group-package/ha-cluster-incorporation          :4.1-0.18
ha-cluster/group-package/ha-cluster-minimal                :4.1-0.18
ha-cluster/group-package/ha-cluster-quorum-server-full     :4.1-0.18
ha-cluster/group-package/ha-cluster-quorum-server-l10n     :4.1-0.18
ha-cluster/ha-service/derby                                :4.1-0.18
ha-cluster/ha-service/gds                                  :4.1-0.18
ha-cluster/ha-service/logical-hostname                     :4.1-0.18
ha-cluster/ha-service/smf-proxy                            :4.1-0.18
ha-cluster/ha-service/telemetry                            :4.1-0.18
ha-cluster/library/cacao                                   :4.1-0.18
ha-cluster/library/ucmm                                    :4.1-0.18
ha-cluster/locale                                          :4.1-0.18
ha-cluster/release/name                                    :4.1-0.18
ha-cluster/service/management                              :4.1-0.18
ha-cluster/service/management/slm                          :4.1-0.18
ha-cluster/service/quorum-server                           :4.1-0.18
ha-cluster/service/quorum-server/locale                    :4.1-0.18
ha-cluster/service/quorum-server/manual/locale             :4.1-0.18
ha-cluster/storage/svm-mediator                            :4.1-0.18
ha-cluster/system/cfgchk                                   :4.1-0.18
ha-cluster/system/core                                     :4.1-0.18
ha-cluster/system/dsconfig-wizard                          :4.1-0.18
ha-cluster/system/install                                  :4.1-0.18
ha-cluster/system/manual                                   :4.1-0.18
ha-cluster/system/manual/data-services                     :4.1-0.18
ha-cluster/system/manual/locale                            :4.1-0.18

구성된 자원 유형, 자원 그룹 및 자원을 표시하는 방법

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

시작하기 전에

root 역할이 아닌 사용자로 이 하위 명령을 사용하려면 solaris.cluster.read RBAC 권한 부여가 필요합니다.

예 1-2 구성된 자원 유형, 자원 그룹 및 자원 표시

다음 예에서는 클러스터 schost에 대해 구성된 자원 유형(RT Name), 자원 그룹(RG Name) 및 자원(RS Name)을 보여 줍니다.

phys-schost# cluster show -t resource,resourcetype,resourcegroup


=== Registered Resource Types ===

Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True

 === Resource Groups and Resources ===

Resource Group:                                 tel-rg
  RG_description:                                  <NULL>
  RG_mode:                                         Failover
  RG_state:                                        Managed
  Failback:                                        False
  Nodelist:                                        phys-schost-2 phys-schost-1

  --- Resources for Group tel-rg ---

  Resource:                                     tel-res
    Type:                                          SUNW.sctelemetry
    Type_version:                                  4.0
    Group:                                         tel-rg
    R_description:                                 
    Resource_project_name:                         default
    Enabled{phys-schost-2}:                        True
    Enabled{phys-schost-1}:                        True
    Monitored{phys-schost-2}:                      True
    Monitored{phys-schost-1}:                      True

클러스터 구성 요소의 상태를 확인하는 방법

cluster status 명령은 영역 클러스터의 상태를 보여줍니다.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

시작하기 전에

root 역할이 아닌 사용자로 status 하위 명령을 사용하려면 solaris.cluster.read RBAC 권한 부여가 필요합니다.

예 1-3 클러스터 구성 요소의 상태 확인

다음 예에서는 cluster status 명령으로 반환된 클러스터 구성 요소에 대한 상태 정보 샘플을 제공합니다.

phys-schost# cluster status
=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
phys-schost-1                                   Online
phys-schost-2                                   Online


=== Cluster Transport Paths ===

Endpoint1              Endpoint2              Status
---------              ---------              ------
phys-schost-1:nge1     phys-schost-4:nge1     Path online
phys-schost-1:e1000g1  phys-schost-4:e1000g1  Path online


=== Cluster Quorum ===

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            3        3         4


--- Quorum Votes by Node ---

Node Name       Present       Possible       Status
---------       -------       --------       ------
phys-schost-1   1             1              Online
phys-schost-2   1             1              Online


--- Quorum Votes by Device ---

Device Name           Present      Possible      Status
-----------           -------      --------      ------
/dev/did/rdsk/d2s2    1            1             Online
/dev/did/rdsk/d8s2    0            1             Offline


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name     Primary          Secondary    Status
-----------------     -------          ---------    ------
schost-2              phys-schost-2     -           Degraded


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
schost-2            -             -                -


=== Cluster Resource Groups ===

Group Name        Node Name           Suspended      Status
----------        ---------           ---------      ------
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Online

test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Error--stop failed

test-rg           phys-schost-1       No             Online
                  phys-schost-2       No             Online


=== Cluster Resources ===

Resource Name     Node Name          Status          Message
-------------     ---------          ------          -------
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Online          Online

test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Stop failed     Faulted

test_1            phys-schost-1      Online          Online
                  phys-schost-2      Online          Online


Device Instance             Node                     Status
---------------             ----                     ------
/dev/did/rdsk/d2            phys-schost-1            Ok

/dev/did/rdsk/d3            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d4            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d6            phys-schost-2            Ok



=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name   Zone HostName   Status    Zone Status
----      ---------   -------------   ------    -----------
sczone    schost-1    sczone-1        Online    Running
          schost-2    sczone-2        Online    Running

공용 네트워크의 상태를 확인하는 방법

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

IP Network Multipathing 그룹의 상태를 확인하려면 clnode status 명령과 함께 사용합니다.

시작하기 전에

root 역할이 아닌 사용자로 이 하위 명령을 사용하려면 solaris.cluster.read RBAC 권한 부여가 필요합니다.

예 1-4 공용 네트워크 상태 확인

다음 예에서는 clnode status 명령으로 반환된 클러스터 구성 요소에 대한 상태 정보 샘플을 제공합니다.

% clnode status -m
--- Node IPMP Group Status ---

Node Name         Group Name    Status    Adapter    Status
---------         ----------    ------    -------    ------
phys-schost-1     test-rg       Online    nge2       Online
phys-schost-2     test-rg       Online    nge3       Online 

클러스터 구성을 보는 방법

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

시작하기 전에

root 역할이 아닌 사용자로 status 하위 명령을 사용하려면 solaris.cluster.read RBAC 권한 부여가 필요합니다.

예 1-5 전역 클러스터 구성 보기

다음 예에서는 전역 클러스터에 대한 구성 정보를 나열합니다. 영역 클러스터가 구성되어 있으면 해당 정보도 나열됩니다.

phys-schost# cluster show
=== Cluster ===                                

Cluster Name:                                   cluster-1
  clusterid:                                       0x4DA2C888
  installmode:                                     disabled
  heartbeat_timeout:                               10000
  heartbeat_quantum:                               1000
  private_netaddr:                                 172.11.0.0
  private_netmask:                                 255.255.248.0
  max_nodes:                                       64
  max_privatenets:                                 10
  num_zoneclusters:                                12
  udp_session_timeout:                             480
  concentrate_load:                                False
  global_fencing:                                  prefer3
  Node List:                                       phys-schost-1
  Node Zones:                                      phys_schost-2:za

  === Host Access Control ===                  

  Cluster name:                                 clustser-1
    Allowed hosts:                                 phys-schost-1, phys-schost-2:za
    Authentication Protocol:                       sys

  === Cluster Nodes ===                        

  Node Name:                                    phys-schost-1
    Node ID:                                       1
    Enabled:                                       yes
    privatehostname:                               clusternode1-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              3
    defaultpsetmin:                                1
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000001
    Transport Adapter List:                        net1, net3

    --- Transport Adapters for phys-schost-1 ---    

    Transport Adapter:                          net1
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               net
      Adapter Property(device_instance):           1
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.1
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          net3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               net
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.129
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-1 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-1 ---

    --- SNMP User Configuration on phys-schost-1 ---

    SNMP User Name:                             foo
      Authentication Protocol:                     MD5
      Default User:                                No

  Node Name:                                    phys-schost-2:za
    Node ID:                                       2
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode2-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              1
    defaultpsetmin:                                2
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000002
    Transport Adapter List:                        e1000g1, nge1

    --- Transport Adapters for phys-schost-2 ---    

    Transport Adapter:                          e1000g1
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               e1000g
      Adapter Property(device_instance):           2
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.130
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          nge1
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               nge
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.2
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-2 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-2 ---

    --- SNMP User Configuration on phys-schost-2 ---

  === Transport Cables ===                     

  Transport Cable:                              phys-schost-1:e1000g1,switch2@1
    Cable Endpoint1:                               phys-schost-1:e1000g1
    Cable Endpoint2:                               switch2@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-1:nge1,switch1@1
    Cable Endpoint1:                               phys-schost-1:nge1
    Cable Endpoint2:                               switch1@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:nge1,switch1@2
    Cable Endpoint1:                               phys-schost-2:nge1
    Cable Endpoint2:                               switch1@2
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:e1000g1,switch2@2
    Cable Endpoint1:                               phys-schost-2:e1000g1
    Cable Endpoint2:                               switch2@2
    Cable State:                                   Enabled

  === Transport Switches ===                   

  Transport Switch:                             switch2
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled

  Transport Switch:                             switch1
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled


  === Quorum Devices ===                       

  Quorum Device Name:                           d3
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   /dev/did/rdsk/d3s2
    Type:                                          shared_disk
    Access Mode:                                   scsi3
    Hosts (enabled):                               phys-schost-1, phys-schost-2

  Quorum Device Name:                           qs1
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   qs1
    Type:                                          quorum_server
    Hosts (enabled):                               phys-schost-1, phys-schost-2
    Quorum Server Host:                            10.11.114.83
    Port:                                          9000


  === Device Groups ===                        

  Device Group Name:                            testdg3
    Type:                                          SVM
    failback:                                      no
    Node List:                                     phys-schost-1, phys-schost-2
    preferenced:                                   yes
    numsecondaries:                                1
    diskset name:                                  testdg3

  === Registered Resource Types ===            

  Resource Type:                                SUNW.LogicalHostname:2
    RT_description:                                Logical Hostname Resource Type
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hafoip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True

  Resource Type:                                SUNW.SharedAddress:2
    RT_description:                                HA Shared Address Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hascip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    <Unknown>
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  Resource Type:                                SUNW.HAStoragePlus:4
    RT_description:                                HA Storage Plus
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hastorageplus
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  Resource Type:                                SUNW.haderby
    RT_description:                                haderby server for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/haderby
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  === Resource Groups and Resources ===        

  Resource Group:                               HA_RG
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group HA_RG ---          

    Resource:                                   HA_R
      Type:                                        SUNW.HAStoragePlus:4
      Type_version:                                4
      Group:                                       HA_RG
      R_description:                               
      Resource_project_name:                       SCSLM_HA_RG
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-db-rg
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-db-rg ---       

    Resource:                                   cl-db-rs
      Type:                                        SUNW.haderby
      Type_version:                                1
      Group:                                       cl-db-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-tlmtry-rg
    RG_description:                                <Null>
    RG_mode:                                       Scalable
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-tlmtry-rg ---   

    Resource:                                   cl-tlmtry-rs
      Type:                                        SUNW.sctelemetry
      Type_version:                                1
      Group:                                       cl-tlmtry-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  === DID Device Instances ===                 

  DID Device Name:                              /dev/did/rdsk/d1
    Full Device Path:                              phys-schost-1:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d2
    Full Device Path:                              phys-schost-1:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d3
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t1d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t1d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d4
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t2d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d5
    Full Device Path:                              phys-schost-2:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d6
    Full Device Path:                              phys-schost-2:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  === NAS Devices ===                          

  Nas Device:                                   nas_filer1
    Type:                                          sun_uss
    nodeIPs{phys-schost-2}:                        10.134.112.112
    nodeIPs{phys-schost-1                          10.134.112.113
    User ID:                                       root

예 1-6 영역 클러스터 구성 보기

다음 예에서는 RAC가 포함된 영역 클러스터 구성의 등록 정보를 나열합니다.

% clzonecluster show
=== Zone Clusters ===

Zone Cluster Name:                              sczone
  zonename:                                        sczone
  zonepath:                                        /zones/sczone
  autoboot:                                        TRUE
  ip-type:                                         shared
  enable_priv_net:                                 TRUE

  --- Solaris Resources for sczone ---

  Resource Name:                                net
    address:                                       172.16.0.1
    physical:                                      auto

  Resource Name:                                net
    address:                                       172.16.0.2
    physical:                                      auto


 Resource Name:                                 fs
   dir:                                            /local/ufs-1
   special:                                        /dev/md/ds1/dsk/d0
   raw:                                            /dev/md/ds1/rdsk/d0
   type:                                           ufs
   options:                                        [logging]

   --- Zone Cluster Nodes for sczone ---

  Node Name:                                    sczone-1
    physical-host:                                 sczone-1
    hostname:                                      lzzone-1

  Node Name:                                    sczone-2
    physical-host:                                 sczone-2
    hostname:                                      lzzone-2

clnasdevice show 하위 명령을 사용하여 전역 또는 영역 클러스터에 대해 구성된 NAS 장치를 볼 수도 있습니다. 자세한 내용은 clnasdevice(1CL) 매뉴얼 페이지를 참조하십시오.

기본 클러스터 구성을 검증하는 방법

cluster 명령은 check 하위 명령을 사용하여 전역 클러스터가 제대로 작동하는 데 필요한 기본 구성을 검증합니다. 모든 검사가 성공하면 cluster check가 셸 프롬프트로 돌아갑니다. 검사가 실패하면 cluster check에서 지정된 출력 디렉토리 또는 기본 출력 디렉토리에 보고서를 생성합니다. 둘 이상의 노드에 대해 cluster check를 실행하면 cluster check에서 각 노드에 대한 보고서와 다중 노드 검사에 대한 보고서를 생성합니다. cluster list-checks 명령을 사용하여 사용 가능한 모든 클러스터 검사 목록을 표시할 수도 있습니다.

사용자 상호 작용 없이 실행되는 기본 검사뿐만 아니라 대화식 검사 및 기능 검사도 실행할 수 있습니다. 기본 검사는 -k keyword 옵션을 지정하지 않으면 실행됩니다.

-v 플래그를 사용하여 자세한 표시 모드로 cluster check 명령을 실행하면 진행률 정보를 표시할 수 있습니다.


주 - 장치, 볼륨 관리 구성 요소 또는 Oracle Solaris Cluster 구성을 변경할 수 있는 관리 절차를 수행한 후 cluster check 명령을 실행합니다.


전역 클러스터 노드에서 clzonecluster(1CL) 명령을 실행하면 검사 세트가 실행되어 영역 클러스터가 제대로 작동하는 데 필요한 구성이 검증됩니다. 모든 검사를 통과하면 clzonecluster verify가 셸 프롬프트로 돌아가며 영역 클러스터를 안전하게 설치할 수 있습니다. 검사가 실패하면 clzonecluster verify에서 확인이 실패한 전역 클러스터 노드에 대해 보고합니다. 둘 이상의 노드에 대해 clzonecluster verify 명령을 실행하면 각 노드에 대한 보고서와 다중 노드 검사에 대한 보고서가 생성됩니다. verify 하위 명령은 영역 클러스트 내에서 사용할 수 없습니다.

  1. 전역 클러스터의 활성 구성원 노드에서 root 역할로 전환합니다.
    phys-schost# su

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 최신 검사가 있는지 확인합니다.
    1. My Oracle Support의 Patches & Updates(패치 & 업데이트) 탭으로 이동합니다.
    2. Advanced Search(고급 검색)에서 Product(제품)로 Solaris Cluster를 선택하고 Description(설명) 필드에 check를 입력합니다.

      검색에서 check가 포함된 Oracle Solaris Cluster 소프트웨어 업데이트를 찾습니다.

    3. 아직 클러스터에 설치되지 않은 소프트웨어 업데이트를 적용합니다.
  3. 기본 유효성 검사를 실행합니다.
    phys-schost# cluster check -v -o outputdir
    -v

    자세한 표시 모드입니다.

    -o outputdir

    outputdir 하위 디렉토리로 출력을 리디렉션합니다.

    이 명령은 사용 가능한 모든 기본 검사를 실행합니다. 클러스터 기능은 영향을 받지 않습니다.

  4. 대화식 유효성 검사를 실행합니다.
    phys-schost# cluster check -v -k interactive -o outputdir
    -k interactive

    실행 중인 대화식 유효성 검사를 지정합니다.

    이 명령은 사용 가능한 대화식 검사를 모두 실행하고 클러스터에 대해 필요한 정보를 요구합니다. 클러스터 기능은 영향을 받지 않습니다.

  5. 기능 유효성 검사를 실행합니다.
    1. 간단한 표시 모드로 사용 가능한 기능 검사를 모두 나열합니다.
      phys-schost# cluster list-checks -k functional
    2. 기능 검사에서 생산 환경의 클러스터 가용성 또는 서비스를 방해하는 작업을 수행하는지 확인합니다.

      예를 들어 기능 검사를 수행하면 노드 패닉이 발생하거나 다른 노드로 페일오버될 있습니다.

      phys-schost# cluster list-checks -v -C check-ID
      -C check-ID

      특정 검사를 지정합니다.

    3. 수행하려는 기능 검사에서 클러스터 작동을 방해할 수 있는 경우 클러스터가 생산 환경에 없는지 확인합니다.
    4. 기능 검사를 시작합니다.
      phys-schost# cluster check -v -k functional -C check-ID -o outputdir
      -k functional

      실행 중인 기능 유효성 검사를 지정합니다.

      검사에서 표시되는 메시지에 응답하여 검사가 실행되도록 하고 모든 정보 또는 수행해야 하는 작업을 확인합니다.

    5. 나머지 각 기능 검사를 실행하려면 단계 c단계 d를 반복합니다.

      주 - 레코드 유지를 위해 실행한 각 검사에 대해 고유한 outputdir 하위 디렉토리 이름을 지정합니다. outputdir 이름을 다시 사용하면 새 검사의 출력이 다시 사용된 outputdir 하위 디렉토리의 기존 내용을 덮어씁니다.


  6. 영역 클러스터의 구성을 검사하여 영역 클러스터를 설치할 수 있는지 여부를 확인합니다.
    phys-schost# clzonecluster verify zoneclustername
  7. 향후 진단을 위해 클러스터 구성을 기록해 둡니다.

    Oracle Solaris Cluster 소프트웨어 설치 설명서의 클러스터 구성의 진단 데이터를 기록하는 방법을 참조하십시오.

예 1-7 모든 기본 검사를 통과한 상태에서 전역 클러스터 구성 검사

다음 예에서는 모든 검사를 통과한 phys-schost-1phys-schost-2 노드에 대해 세부 정보 표시 모드로 실행되는 cluster check를 보여 줍니다.

phys-schost# cluster check -v -h phys-schost-1, phys-schost-2

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished
# 

예 1-8 대화식 유효성 검사 나열

다음 예에는 클러스터에서 실행하는 데 사용할 수 있는 모든 대화식 검사가 나열되어 있습니다. 예제 출력에서는 가능한 검사의 표본 추출을 보여 주며 실제로 사용 가능한 검사는 각 구성에 따라 다릅니다.

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

예 1-9 기능 유효성 검사 실행

다음 예에서는 먼저 자세한 기능 검사 목록을 보여 줍니다. 그런 다음 F6968101 검사에 대한 자세한 설명을 나열하며, 검사에 의해 클러스터 서비스가 중단됨을 나타냅니다. 클러스터는 생산 환경에서 가져옵니다. 그러면 기능 검사가 실행되고 자세한 출력이 funct.test.F6968101.12Jan2011 하위 디렉토리에 기록됩니다. 예제 출력에서는 가능한 검사의 표본 추출을 보여 주며 실제로 사용 가능한 검사는 각 구성에 따라 다릅니다.

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

예 1-10 실패한 검사가 있는 상태에서 전역 클러스터 구성 검사

다음 예에서는 /global/phys-schost-1 마운트 지점이 없는 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. 보고서는 /var/cluster/logs/cluster_check/<timestamp> 출력 디렉토리에 만들어집니다.

phys-schost# cluster check -v -h phys-schost-1, 
phys-schost-2 -o  /var/cluster/logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris  Cluster 4.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

전역 마운트 지점을 확인하는 방법

cluster 명령에는 /etc/vfstab 파일에서 클러스터 파일 시스템과 전역 마운트 지점의 구성 오류를 검사하는 검사가 포함됩니다. 자세한 내용은 cluster(1CL) 매뉴얼 페이지를 참조하십시오.


주 - 장치 또는 볼륨 관리 구성 요소에 영향을 주는 클러스터 구성을 변경한 후 cluster check를 실행합니다.


  1. 전역 클러스터의 활성 구성원 노드에서 root 역할로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

    % su
  2. 전역 클러스터 구성을 확인합니다.
    phys-schost# cluster check

예 1-11 전역 마운트 지점 검사

다음 예에서는 /global/schost-1 마운트 지점이 없는 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. 보고서는 /var/cluster/logs/cluster_check/<timestamp>/ 출력 디렉토리로 전송됩니다.

phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o
/var/cluster//logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris Cluster 4.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as an Oracle Solaris Cluster 4.x node.
ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 4.x node.  
Only servers that have been qualified with Oracle Solaris Cluster 4.0 are supported as 
Oracle Solaris Cluster 4.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Oracle representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Oracle Solaris Cluster 4.x.
...
#

Oracle Solaris Cluster 명령 로그 내용을 보는 방법

/var/cluster/logs/commandlog ASCII 텍스트 파일에는 클러스터에서 실행되는 선택된 Oracle Solaris Cluster 명령이 기록되어 있습니다. 명령의 기록은 클러스터를 설정할 때 자동으로 시작되어 클러스터를 종료할 때 끝납니다. 명령은 클러스터 모드로 실행되고 부트된 모든 노드에 기록됩니다.

이 파일에 기록되지 않은 명령에는 클러스터의 구성 및 현재 상태를 표시하는 명령이 포함되어 있습니다.

이 파일에 기록된 명령에는 클러스터의 현재 상태를 구성하고 변경하는 명령이 포함되어 있습니다.

commandlog 파일의 기록에는 다음 요소가 포함될 수 있습니다.

기본적으로 commandlog 파일은 일주일에 한 번씩 저장됩니다. commandlog 파일에 대한 아카이빙 정책을 변경하려면, 클러스터의 각 노드에서 crontab 명령을 사용합니다. 자세한 내용은 crontab(1) 매뉴얼 페이지를 참조하십시오.

Oracle Solaris Cluster 소프트웨어는 모든 지정된 시간에 최대 8개의 사전 저장된 commandlog 파일을 각 클러스터 노드에 유지합니다. 현재 주간의 commandlog 파일 이름은 commandlog입니다. 가장 최근 주간의 파일 이름은 commandlog.0입니다. 가장 오래된 주간의 파일 이름은 commandlog.7입니다.

예 1-12 Oracle Solaris Cluster 명령 로그의 내용 보기

다음 예에서는 more 명령을 실행하여 표시된 commandlog 파일의 내용을 보여 줍니다.

more -lines10 /var/cluster/logs/commandlog
11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup
11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1"
11/11/2006 09:43:36 phys-schost-1 5758 root END 0
11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y
"RG_description=Department Shared Address RG" "app-sa-1"
11/11/2006 09:43:37 phys-schost-1 5760 root END 0
11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1"
11/11/2006 09:44:15 phys-schost-1 5810 root END 0
11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320
12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1"
-y "RG_description=Joe Bloggs Shared Address RG"
12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0