Oracle® Solaris Cluster 소프트웨어 설치 설명서

인쇄 보기 종료

업데이트 날짜: 2014년 9월
 
 

모든 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(XML)

XML 클러스터 구성 파일을 사용하여 새 전역 클러스터를 구성하려면 이 절차를 수행합니다. 새 클러스터는 Oracle Solaris Cluster 4.1 소프트웨어가 실행되는 기존 클러스터와 중복될 수 있습니다.

이 절차에서는 다음과 같은 클러스터 구성 요소를 구성합니다.

  • 클러스터 이름

  • 클러스터 노드 멤버쉽

  • 클러스터 상호 연결

시작하기 전에

다음 작업을 수행합니다.

  • Oracle Solaris Cluster 소프트웨어를 지원하는 Oracle Solaris OS가 설치되어 있는지 확인하십시오.

    노드에 Oracle Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Oracle Solaris 소프트웨어가 Oracle Solaris Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Oracle Solaris Cluster 소프트웨어 요구 사항을 충족하도록 Oracle Solaris 소프트웨어를 설치하는 방법은 Oracle Solaris 소프트웨어를 설치하는 방법을 참조하십시오.

  • NWAM이 사용 안함으로 설정되었는지 확인합니다. 지침은 Oracle Solaris Cluster 소프트웨어 패키지를 설치하는 방법을 참조하십시오.

  • SPARC: Oracle VM Server for SPARC I/O 도메인 또는 게스트 도메인을 클러스터 노드로 구성하려는 경우 Oracle VM Server for SPARC 소프트웨어가 각 물리적 시스템에 설치되어 있으며 도메인이 Oracle Solaris Cluster 요구 사항을 충족하는지 확인합니다. Oracle VM Server for SPARC 소프트웨어 설치 및 도메인을 만드는 방법을 참조하십시오.

  • 태그가 지정된 VLAN 어댑터로 사용할 어댑터가 구성되어 있고 해당 VLAN ID를 가지고 있는지 확인합니다.

  • Oracle Solaris Cluster 4.2 소프트웨어 및 업데이트가 구성할 각 노드에 설치되어 있는지 확인합니다. Oracle Solaris Cluster 소프트웨어 패키지를 설치하는 방법을 참조하십시오.

  1. Oracle Solaris Cluster 4.2 소프트웨어가 각각의 잠재적 클러스터 노드에 아직 구성되어 있지 않은지 확인합니다.
    1. 새 클러스터에 구성할 잠재적 노드에서 root 역할을 수행합니다.
    2. Oracle Solaris Cluster 소프트웨어가 잠재적 노드에 이미 구성되어 있는지 여부를 확인합니다.
      phys-schost# /usr/sbin/clinfo -n
      • 명령에서 다음 메시지를 반환하는 경우 c단계로 계속 진행합니다.
        clinfo: node is not configured as part of a cluster: Operation not applicable

        이 메시지는 Oracle Solaris Cluster 소프트웨어가 잠재적 노드에 아직 구성되어 있지 않음을 나타냅니다.

      • 명령에서 노드 ID 번호를 반환하는 경우 이 절차를 수행하지 마십시오.

        노드 ID 반환은 Oracle Solaris Cluster 소프트웨어가 노드에 이미 구성되어 있음을 나타냅니다.

        클러스터에서 이전 버전의 Oracle Solaris Cluster 소프트웨어를 실행 중이며 사용자가 Oracle Solaris Cluster 4.2 소프트웨어를 설치할 경우 대신 Oracle Solaris Cluster Upgrade Guide 의 업그레이드 절차를 수행합니다.

    3. 새 클러스터에 구성할 나머지 잠재적 노드 각각에서 a단계와 b단계를 반복합니다.

      Oracle Solaris Cluster 소프트웨어가 잠재적 클러스터 노드에 아직 구성되지 않은 경우 2단계로 계속 진행합니다.

  2. 클러스터의 모든 노드에서 RPC용 TCP 래퍼가 사용 안함으로 설정되었는지 확인합니다.

    Oracle Solaris의 RPC용 TCP 래퍼 기능은 클러스터 구성에 필요한 노드 간 통신을 막습니다.

    1. 각 노드에서 RPC용 TCP 래퍼의 상태를 표시합니다.

      다음 예제 명령 출력에 표시된 대로 config/enable_tcpwrapperstrue로 설정하면 TCP 래퍼가 사용으로 설정됩니다.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. RPC용 TCP 래퍼가 노드에 사용으로 설정된 경우 TCP 래퍼를 사용 안함으로 설정하고 RPC 바인드 서비스를 새로 고칩니다.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bind
  3. 새 클러스터의 개인 상호 연결에서 스위치를 사용하고 있는 경우 인접 노드 탐색 프로토콜(Neighbor Discovery Protocol, NDP)이 비활성화되었는지 확인합니다.

    사용하는 스위치의 설명서에 포함된 절차에 따라 NDP가 사용으로 설정되어 있는지 확인하고 그럴 경우 NDP를 사용 안함으로 설정합니다.

    클러스터 구성 중에 소프트웨어에서 개인 상호 연결에 트래픽이 없는지 검사합니다. 개인 상호 연결에서 트래픽을 검사할 때 NDP가 개인 어댑터에 패키지를 보내면 상호 연결은 개인 상호 연결이 아닌 것으로 간주되고 클러스터 구성은 중단됩니다. 따라서 클러스터 생성 중에는 NDP를 비활성화해야 합니다.

    클러스터가 설정된 후 NDP 기능을 사용하려면 개인 상호 연결 스위치에서 NDP를 다시 활성화할 수 있습니다.

  4. Oracle Solaris Cluster 4.2 소프트웨어를 실행하는 기존 클러스터를 복제하려는 경우 해당 클러스터의 노드를 사용하여 클러스터 구성 XML 파일을 만듭니다.
    1. 복제할 클러스터의 활성 구성원에서 root 역할을 수행합니다.
    2. 기존 클러스터의 구성 정보를 파일로 내보냅니다.
      phys-schost# cluster export -o clconfigfile
      –o

      출력 대상을 지정합니다.

      clconfigfile

      클러스터 구성 XML 파일의 이름입니다. 지정한 파일 이름은 기존 파일 또는 명령에서 만들 새 파일이 될 수 있습니다.

      자세한 내용은 cluster(1CL) 매뉴얼 페이지를 참조하십시오.

    3. 새 클러스터를 구성할 잠재적 노드로 구성 파일을 복사합니다.

      클러스터 노드로 구성할 다른 호스트에서 액세스할 수 있는 디렉토리에 파일을 저장할 수 있습니다.

  5. 새 클러스터를 구성할 잠재적 노드에서 root 역할을 수행합니다.
  6. 필요에 따라 클러스터 구성 XML 파일을 수정하거나 만듭니다.

    XML 요소의 값을 넣거나 수정하여 만들려는 클러스터 구성을 반영합니다.

    • 기존 클러스터를 복제하려는 경우 cluster export 명령으로 만든 파일을 엽니다.

    • 기존 클러스터를 복제하지 않으려는 경우 새 파일을 만듭니다.

      파일은 clconfiguration(5CL) 매뉴얼 페이지에 표시된 요소 계층을 기반으로 합니다. 클러스터 노드로 구성할 다른 호스트에서 액세스할 수 있는 디렉토리에 파일을 저장할 수 있습니다.

    • 클러스터를 설정하려면 다음 구성 요소의 올바른 값이 클러스터 구성 XML 파일에 있어야 합니다.

      • 클러스터 이름

      • 클러스터 노드

      • 클러스터 전송

    • 기존 클러스터에서 내보낸 구성 정보를 수정할 경우 새 클러스터를 반영하도록 변경해야 하는 일부 값(예: 노드 이름)이 둘 이상의 클러스터 객체에 대한 정의에 사용됩니다.

    클러스터 구성 XML 파일의 구조 및 내용에 대한 자세한 내용은 clconfiguration(5CL) 매뉴얼 페이지를 참조하십시오.

  7. 클러스터 구성 XML 파일의 유효성을 검사합니다.
    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

    자세한 내용은 xmllint(1) 매뉴얼 페이지를 참조하십시오.

  8. 클러스터 구성 XML 파일이 포함된 잠재적 노드에서 클러스터를 만듭니다.
    phys-schost# cluster create -i clconfigfile
    –i clconfigfile

    입력 소스로 사용할 클러스터 구성 XML 파일의 이름을 지정합니다.

  9. 각 노드에서 SMF(서비스 관리 기능)에 대한 다중 사용자 서비스가 온라인 상태인지 확인합니다.

    노드에 대해 서비스가 아직 온라인 상태가 아닌 경우 온라인 상태가 될 때까지 기다린 후 다음 단계로 진행합니다.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. 한 노드에서 모든 노드가 클러스터를 결합했는지 확인합니다.
    phys-schost# clnode status

    다음과 비슷한 결과가 출력됩니다:

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

  11. Oracle Solaris Cluster 소프트웨어에 필요한 업데이트를 수행합니다.

    소프트웨어 업데이트에 대한 지침은 Oracle Solaris Cluster 시스템 관리 설명서 의 11 장, 소프트웨어 업데이트를 참조하십시오.

  12. RPC에 TCP 래퍼를 사용하려면 각 클러스터 노드에서 /etc/hosts.allow 파일에 모든 clprivnet0 IP 주소를 추가합니다.

    이와 같이 /etc/hosts.allow 파일에 추가하지 않으면 TCP 래퍼가 클러스터 관리 유틸리티에 대해 RPC를 통한 노드 간 통신을 막습니다.

    1. 각 노드에서 노드의 모든 clprivnet0 장치에 대한 IP 주소를 표시합니다.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 각 클러스터 노드에서 클러스터의 모든 clprivnet0 장치의 IP 주소를 /etc/hosts.allow 파일에 추가합니다.
  13. 고가용성 로컬 파일 시스템에서 HA for NFS 데이터 서비스(HA for NFS)를 사용하려면 HA for NFS에서 내보낸 고가용성 로컬 파일 시스템에 포함된 모든 공유 사항을 automounter 맵에서 제외시킵니다.

    automounter 맵 수정에 대한 자세한 내용은 Oracle Solaris 11.2의 네트워크 파일 시스템 관리 의 맵 관련 관리 작업을 참조하십시오.

  14. 기존 클러스터에서 쿼럼 정보를 복제하려면 클러스터 구성 XML 파일을 사용하여 쿼럼 장치를 구성합니다.

    2 노드 클러스터를 만든 경우 쿼럼 장치를 구성해야 합니다. 필요한 쿼럼 장치를 만드는 데 클러스터 구성 XML 파일을 사용하지 않으려면 쿼럼 장치를 구성하는 방법으로 이동합니다.

    1. 쿼럼 장치에 쿼럼 서버를 사용하고 있는 경우 쿼럼 서버가 설정되어 실행 중인지 확인합니다.

      Oracle Solaris Cluster 쿼럼 서버 소프트웨어를 설치하고 구성하는 방법의 지침에 따릅니다.

    2. 쿼럼 장치에 NAS 장치를 사용하고 있는 경우 NAS 장치가 설정되어 작동 중인지 확인합니다.
      1. NAS 장치를 쿼럼 장치로 사용할 때의 요구 사항을 준수하십시오.

        Oracle Solaris Cluster With Network-Attached Storage Device Manual 을 참조하십시오.

      2. 사용 중인 장치의 설명서에 있는 지침에 따라 NAS 장치를 설정합니다.
    3. 클러스터 구성 XML 파일의 쿼럼 구성 정보에 만든 클러스터에 유효한 값이 반영되는지 확인합니다.
    4. 클러스터 구성 XML 파일을 변경한 경우 파일의 유효성을 검사합니다.
      phys-schost# xmllint --valid --noout clconfigfile
    5. 쿼럼 장치를 구성합니다.
      phys-schost# clquorum add -i clconfigfile device-name
      device-name

      쿼럼 장치로 구성할 장치의 이름을 지정합니다.

  15. 설치 모드에서 클러스터를 제거합니다.
    phys-schost# clquorum reset
  16. 클러스터 구성원으로 구성되지 않은 시스템에서 클러스터 구성에 대한 액세스를 닫습니다.
    phys-schost# claccess deny-all
  17. (옵션) 모니터링된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.

    주 -  처음 구성 시 검색된 모든 장치에 대해 디스크 경로 모니터링이 기본값으로 사용으로 설정됩니다.
    1. 자동 재부트를 사용으로 설정합니다.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      설정할 등록 정보를 지정합니다.

      reboot_on_path_failure=enable

      모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.
      phys-schost# clnode show
      === Cluster Nodes ===
      
      Node Name:                                      node
      …
      reboot_on_path_failure:                          enabled
      …
예 3-2  XML 파일을 사용하여 모든 노드에 Oracle Solaris Cluster 소프트웨어 구성

다음 예에서는 기존 2 노드 클러스터의 클러스터 구성 및 쿼럼 구성을 새로운 2 노드 클러스터에 복제합니다. 새 클러스터가 Solaris 11.1 OS로 설치됩니다. 기존 클러스터 노드 phys-oldhost-1에서 클러스터 구성 XML 파일 clusterconf.xml로 클러스터 구성을 내보냅니다. 새 클러스터의 노드 이름은 phys-newhost-1phys-newhost-2입니다. 새 클러스터에서 쿼럼 장치로 구성되는 장치는 d3입니다.

이 예에서 프롬프트 이름 phys-newhost-N은 명령이 두 클러스터 노드에서 모두 수행됨을 나타냅니다.

phys-newhost-N# /usr/sbin/clinfo -n
clinfo: node is not configured as part of a cluster: Operation not applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
No errors are reported
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
Output shows that both nodes are online
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset

추가 구성 요소 구성

클러스터가 완전히 설정된 후 기존 클러스터에서 다른 클러스터 구성 요소의 구성을 복제할 수 있습니다. 아직 수행하지 않은 경우 복제하려는 XML 요소의 값을 수정하여 구성 요소를 추가할 클러스터 구성을 반영합니다. 예를 들어, 리소스 그룹을 복제하려면 resourcegroupNodeList 항목이 새 클러스터에 유효한 노드 이름은 포함하며 복제한 클러스터의 노드 이름은 포함하지 않는지(노드 이름이 동일하지 않은 경우) 확인합니다.

클러스터 구성 요소를 복제하려면 복제할 클러스터 구성 요소에 대해 객체 지향 명령의 export 하위 명령을 실행합니다. 명령 구문 및 옵션에 대한 자세한 내용은 복제할 클러스터 객체에 대한 매뉴얼 페이지를 참조하십시오.

다음은 클러스터가 설정된 후 클러스터 구성 XML 파일에서 만들 수 있는 클러스터 구성 요소 목록을 설명합니다. 구성 요소를 복제하는 데 사용할 명령에 대한 매뉴얼 페이지를 포함합니다.

  • 장치 그룹: Solaris Volume Manager: cldevicegroup(1CL)

    Solaris Volume Manager의 경우 먼저 클러스터 구성 XML 파일에 지정된 디스크 세트를 만듭니다.

  • Resource Group Manager 구성 요소

    clresource, clressharedaddress 또는 clreslogicalhostname 명령의 –a 옵션을 사용하면 복제하는 리소스와 연결된 리소스 유형 및 리소스 그룹을 복제할 수도 있습니다. 그렇지 않으면 자원을 추가하기 전에 먼저 자원 유형 및 자원 그룹을 클러스터에 추가해야 합니다.

  • NAS 장치: clnasdevice(1CL)

    먼저 장치 설명서에 따라 NAS 장치를 설정해야 합니다.

  • SNMP 호스트: clsnmphost(1CL)

    clsnmphost create -i 명령을 사용하려면 –f 옵션을 사용하여 사용자 암호 파일을 지정해야 합니다.

  • SNMP 사용자: clsnmpuser(1CL)

  • 클러스터 객체의 시스템 리소스를 모니터하기 위한 임계값: cltelemetryattribute(1CL)

문제 해결

구성 실패 – 하나 이상의 노드에서 클러스터를 결합할 수 없거나 잘못된 구성 정보가 지정된 경우 먼저 이 절차를 다시 수행하십시오. 그래도 문제가 해결되지 않으면 잘못 구성된 각 노드에서 Oracle Solaris Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법의 절차를 수행하여 해당 노드를 클러스터 구성에서 제거합니다. Oracle Solaris Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음 이 절차를 다시 수행합니다.

다음 단계

쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.