JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris Cluster 소프트웨어 설치 설명서     Oracle Solaris Cluster 4.0 (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris Cluster 구성 계획

2.  전역 클러스터 노드에 소프트웨어 설치

3.  전역 클러스터 설정

새 전역 클러스터 또는 새 전역 클러스터 노드 설정

모든 노드에 Oracle Solaris Cluster 소프트웨어 구성(scinstall)

모든 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(scinstall)

모든 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(XML)

Oracle Solaris 및 Oracle Solaris Cluster 소프트웨어 설치 및 구성(자동 설치 프로그램)

Oracle Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치 및 구성하는 방법(자동 설치 프로그램)

클러스터에서 전역 클러스터 노드 추가를 준비하는 방법

노드 또는 개인 네트워크를 추가할 때 개인 네트워크 구성을 변경하는 방법

Configuring Oracle Solaris Cluster Software on Additional Global-Cluster Nodes (scinstall)

추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(scinstall)

추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(XML 파일)

전역 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법

쿼럼 장치를 구성하는 방법

쿼럼 구성 및 설치 모드를 확인하는 방법

개인 호스트 이름을 변경하는 방법

NTP(Network Time Protocol) 구성

고유의 /etc/inet/ntp.conf 파일을 사용하는 방법

단일 노드 클러스터에 노드를 추가한 후에 NTP를 설치하는 방법

개인 호스트 이름을 변경한 후에 NTP를 업데이트하는 방법

클러스터의 유효성을 검사하는 방법

클러스터 구성의 진단 데이터를 기록하는 방법

4.  Solaris Volume Manager 소프트웨어 구성

5.  클러스터 파일 시스템 만들기

6.  영역 클러스터 만들기

7.  클러스터에서 소프트웨어 제거

색인

새 전역 클러스터 또는 새 전역 클러스터 노드 설정

이 절에서는 새 전역 클러스터를 설정하거나 기존 클러스터에 노드를 추가하는 절차 및 관련 정보를 제공합니다. 전역 클러스터 노드는 물리적 시스템, Oracle VM Server for SPARC I/O 도메인 또는 Oracle VM Server for SPARC 게스트 도메인이 될 수 있습니다. 클러스터는 이러한 유형의 노드 조합으로 구성될 수 있습니다. 이러한 작업을 수행하기 전에 소프트웨어 설치에 설명된 대로 Oracle Solaris OS용 소프트웨어 패키지, Oracle Solaris Cluster 프레임워크 및 기타 제품을 설치했는지 확인합니다.

다음 작업 맵에는 새 전역 클러스터 또는 기존 전역 클러스터에 추가할 노드에 대해 수행할 작업이 나열되어 있습니다. 표시된 순서대로 절차를 완료하십시오.

표 3-1 작업 맵: 새 전역 클러스터 설정

방법
지침
다음 방법 중 하나를 사용하여 새 전역 클러스터를 설정합니다.
  • scinstall 유틸리티를 사용하여 클러스터를 설정합니다.
  • XML 구성 파일을 사용하여 클러스터를 설정합니다.
  • AI(자동 설치 프로그램) 설치 서버를 설정합니다. 그런 다음 scinstall AI 옵션을 사용하여 각 노드에 소프트웨어를 설치하고 클러스터를 설정합니다.
이 작업을 아직 수행하지 않은 경우 쿼럼 투표를 할당하고 설치 모드에서 클러스터를 제거합니다.
쿼럼 구성의 유효성을 검사합니다.
(선택 사항) 노드의 개인 호스트 이름을 변경합니다.
아직 구성하지 않은 경우 NTP 구성 파일을 만들거나 수정합니다.
볼륨 관리자를 사용하는 경우 볼륨 관리 소프트웨어를 설치합니다.
필요에 따라 클러스터 파일 시스템 또는 가용성이 높은 로컬 파일 시스템을 만듭니다.
타사 응용 프로그램을 설치하고 자원 유형을 등록하며 자원 그룹을 설정하고 데이터 서비스를 구성합니다.
Oracle Solaris Cluster Data Services Planning and Administration Guide

응용 프로그램 소프트웨어와 함께 제공되는 설명서

클러스터의 유효성을 검사합니다.
완료된 클러스터 구성의 기본 기록을 가져옵니다.

표 3-2 작업 맵: 기존 전역 클러스터에 노드 추가

방법
지침
clsetup 명령을 사용하여 클러스터 인증 노드 목록에 새 노드를 추가합니다. 필요한 경우 클러스터 상호 연결을 구성하고 개인 네트워크 주소 범위도 다시 구성합니다.
추가된 노드를 수용하도록 필요에 따라 클러스터 상호 연결 및 개인 네트워크 주소 범위를 다시 구성합니다.
다음 방법 중 하나를 사용하여 기존 전역 클러스터에 노드를 추가합니다.
  • scinstall 유틸리티를 사용하여 새 노드에 Oracle Solaris Cluster 소프트웨어를 구성합니다.
  • XML 구성 파일을 사용하여 새 노드에 Oracle Solaris Cluster 소프트웨어를 구성합니다.
쿼럼 구성 정보를 업데이트합니다.
쿼럼 구성의 유효성을 검사합니다.
(선택 사항) 노드의 개인 호스트 이름을 변경합니다.
NTP 구성을 수정합니다.
볼륨 관리자를 사용하는 경우 볼륨 관리 소프트웨어를 설치합니다.
필요에 따라 클러스터 파일 시스템 또는 가용성이 높은 로컬 파일 시스템을 만듭니다.
타사 응용 프로그램을 설치하고 자원 유형을 등록하며 자원 그룹을 설정하고 데이터 서비스를 구성합니다.
Oracle Solaris Cluster Data Services Planning and Administration Guide

응용 프로그램 소프트웨어와 함께 제공되는 설명서

클러스터의 유효성을 검사합니다.
완료된 클러스터 구성의 기본 기록을 가져옵니다.

모든 노드에 Oracle Solaris Cluster 소프트웨어 구성(scinstall)

scinstall 유틸리티는 표준 또는 사용자 정의의 두 가지 설치 모드로 실행됩니다. Oracle Solaris Cluster 소프트웨어 표준 설치의 경우 scinstall에서 다음 구성 기본값을 자동으로 지정합니다.

개인 네트워크 주소

172.16.0.0

개인 네트워크 넷마스크

255.255.240.0

클러스터 전송 어댑터

정확히 2개의 어댑터

클러스터 전송 스위치

switch1switch2

전역 보호(fencing)

활성화

설치 보안(DES)

제한됨

표준 모드 또는 사용자 정의 모드 설치를 계획하려면 다음 클러스터 구성 워크시트 중 하나를 완료합니다.

모든 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(scinstall)

클러스터의 모든 노드에 Oracle Solaris Cluster 소프트웨어를 구성하려면 전역 클러스터의 한 노드에서 이 절차를 수행합니다.


주 - 이 절차에서는 대화식 scinstall 명령을 사용합니다. 설치 스크립트를 개발하는 경우처럼 비대화식 scinstall 명령을 사용하는 방법은 scinstall(1M) 매뉴얼 페이지를 참조하십시오.


이 절차에서 대화식 scinstall 유틸리티를 사용하려면 다음 지침을 준수하십시오.

시작하기 전에

다음 작업을 수행합니다.

  1. 새 클러스터의 개인 상호 연결에서 스위치를 사용하고 있는 경우 인접 노드 탐색 프로토콜(Neighbor Discovery Protocol, NDP)이 비활성화되었는지 확인합니다.

    사용하는 스위치의 설명서에 포함된 절차에 따라 NDP가 사용으로 설정되어 있는지 확인하고 그럴 경우 NDP를 사용 안함으로 설정합니다.

    클러스터 구성 중에 소프트웨어에서 개인 상호 연결에 트래픽이 없는지 검사합니다. 개인 상호 연결에서 트래픽을 검사할 때 NDP가 개인 어댑터에 패키지를 보내면 상호 연결은 개인 상호 연결이 아닌 것으로 간주되고 클러스터 구성은 중단됩니다. 따라서 클러스터 생성 중에는 NDP를 비활성화해야 합니다.

    클러스터가 설정된 후 NDP 기능을 사용하려면 개인 상호 연결 스위치에서 NDP를 다시 활성화할 수 있습니다.

  2. 클러스터에 구성할 각 노드에서 수퍼유저로 전환합니다.

    다른 방법으로, 사용자 계정이 System Administrator 프로파일에 지정된 경우 프로파일 쉘을 통해 비루트로 명령을 실행하거나 pfexec 명령을 사용하여 앞에 접두어를 붙입니다.

  3. 클러스터의 모든 노드에서 RPC용 TCP 래퍼가 사용 안함으로 설정되었는지 확인합니다.

    Oracle Solaris의 RPC용 TCP 래퍼 기능은 클러스터 구성에 필요한 노드 간 통신을 막습니다.

    1. 각 노드에서 RPC용 TCP 래퍼의 상태를 표시합니다.

      다음 예제 명령 출력에 표시된 대로 config/enable_tcpwrapperstrue로 설정하면 TCP 래퍼가 사용으로 설정됩니다.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. RPC용 TCP 래퍼가 노드에 사용으로 설정된 경우 TCP 래퍼를 사용 안함으로 설정하고 RPC 바인드 서비스를 새로 고칩니다.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  4. 공용 네트워크 인터페이스를 준비합니다.
    1. 각 공용 네트워크 인터페이스에 대한 정적 IP 주소를 만듭니다.
      # ipadm create-ip interface
      # ipadm create-addr -T static -a local=address/prefix-length addrobj

      자세한 내용은 Oracle Solaris 관리: 네트워크 인터페이스 및 네트워크 가상화의 IP 인터페이스를 구성하는 방법을 참조하십시오.

    2. (옵션) 공용 네트워크 인터페이스에 대한 IPMP 그룹을 만듭니다.

      초기 클러스터 구성 중, non-link-local IPv6 공용 네트워크 인터페이스가 클러스터에 존재하지 않는 경우 IPMP 그룹이 일치하는 서브넷에 따라 자동으로 생성됩니다. 이러한 그룹은 인터페이스 모니터링을 위해 전이성 프로브를 사용하고 테스트 주소는 필요하지 않습니다.

      이러한 자동으로 생성된 IPMP 그룹이 사용자 요구를 충족하지 않는 경우 또는 사용자 구성에 하나 이상의 non-link-local IPv6 공용 네트워크 인터페이스가 있기 때문에 IPMP 그룹이 생성되지 않는 경우 다음 중 하나를 수행합니다.

      • 클러스터를 설정하기 전에 필요한 IPMP 그룹을 만듭니다.
      • 클러스터가 설정된 후에 ipadm 명령을 사용하여 IPMP 그룹을 편집합니다.

      자세한 내용은 Oracle Solaris 관리: 네트워크 인터페이스 및 네트워크 가상화의 IPMP 그룹 구성을 참조하십시오.

  5. 한 클러스터 노드에서 scinstall 유틸리티를 시작합니다.
    phys-schost# scinstall
  6. 새 클러스터 만들기 또는 클러스터 노드 추가에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.
     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    New Cluster and Cluster Node(새 클러스터 및 클러스터 노드) 메뉴가 표시됩니다.

  7. 새 클러스터 만들기에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.

    Typical or Custom Mode(일반 또는 사용자 정의 모드) 메뉴가 표시됩니다.

  8. 표준 또는 사용자 정의에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.

    Create a New Cluster(새 클러스터 만들기) 화면이 표시됩니다. 요구 사항을 읽은 다음 Ctrl-D를 눌러 계속합니다.

  9. 메뉴 프롬프트에 따라 구성 계획 워크시트에 답변을 입력합니다.

    scinstall 유틸리티는 모든 클러스터 노드를 설치 및 구성하고 클러스터를 재부트합니다. 모든 노드가 성공적으로 클러스터에 부트되면 클러스터가 설정됩니다. Oracle Solaris Cluster 설치 출력은 /var/cluster/logs/install/scinstall.log. N 파일에 기록됩니다.

  10. 각 노드에서 SMF(Service Management Facility)에 대한 다중 사용자 서비스가 온라인 상태인지 확인합니다.

    노드에 대해 서비스가 아직 온라인 상태가 아닌 경우 온라인 상태가 될 때까지 기다린 후 다음 단계로 진행합니다.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  11. 한 노드에서 모든 노드가 클러스터에 조인했는지 확인합니다.
    phys-schost# clnode status

    다음과 비슷한 결과가 출력됩니다:

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

  12. 클러스터를 installmode에서 제외합니다.
    phys-schost# clquorum reset
  13. (옵션) 자동 노드 재부트 기능을 활성화합니다.

    클러스터의 서로 다른 노드에서 하나 이상의 디스크에 액세스할 수 있는 경우 이 기능을 사용하면 모니터링된 모든 공유 디스크 경로에서 오류가 발생할 때 노드가 자동으로 재부트됩니다.

    1. 자동 재부트를 활성화합니다.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      설정할 등록 정보를 지정합니다.

      reboot_on_path_failure=enable

      모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  14. RPC에 TCP 래퍼를 사용하려면 각 클러스터 노드에서 /etc/hosts.allow 파일에 모든 clprivnet0 IP 주소를 추가합니다.

    이와 같이 /etc/hosts.allow 파일에 추가하지 않으면 TCP 래퍼가 클러스터 관리 유틸리티에 대해 RPC를 통한 노드 간 통신을 막습니다.

    1. 각 노드에서 노드의 모든 clprivnet0 장치에 대한 IP 주소를 표시합니다.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 각 클러스터 노드에서 클러스터의 모든 clprivnet0 장치의 IP 주소를 /etc/hosts.allow 파일에 추가합니다.
  15. 고가용성 로컬 파일 시스템에서 HA for NFS 데이터 서비스(HA for NFS)를 사용하려면 HA for NFS에서 내보낸 고가용성 로컬 파일 시스템에 포함된 모든 공유 사항을 automounter 맵에서 제외시킵니다.

    automounter 맵 수정에 대한 자세한 내용은 Oracle Solaris 관리: 네트워크 서비스의 맵 관련 관리 작업을 참조하십시오.

예 3-1 모든 노드에 Oracle Solaris Cluster 소프트웨어 구성

다음 예에서는 scinstall이 2 노드 클러스터 schost에서 구성 작업을 완료하면 기록되는 scinstall 진행률 메시지를 보여 줍니다. 클러스터는 표준 모드로 scinstall 유틸리티를 사용하여 phys-schost-1에서 설치됩니다. 다른 클러스터 노드는 phys-schost-2입니다. 어댑터 이름은 net2net3입니다. 쿼럼 장치의 자동 선택이 활성화되어 있습니다.

    Log file - /var/cluster/logs/install/scinstall.log.24747

   Configuring global device using lofi on pred1: done
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:net2  switch1  phys-schost-2:net2
        phys-schost-1:net3  switch2  phys-schost-2:net3

    Completed discovery of the cluster transport configuration.

    Started cluster check on "phys-schost-1".
    Started cluster check on "phys-schost-2".

    cluster check completed with no errors or warnings for "phys-schost-1".
    cluster check completed with no errors or warnings for "phys-schost-2".

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

일반 오류

구성 실패 – 하나 이상의 노드에서 클러스터를 결합할 수 없거나 잘못된 구성 정보가 지정된 경우 먼저 이 절차를 다시 실행하십시오. 그래도 문제가 해결되지 않으면 잘못 구성된 각 노드에서 Oracle Solaris Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법의 절차를 수행하여 해당 노드를 클러스터 구성에서 제거합니다. Oracle Solaris Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음 이 절차를 다시 수행합니다.

다음 순서

클러스터에 쿼럼 장치를 구성하려면 쿼럼 장치를 구성하는 방법으로 이동합니다.

그렇지 않으면 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.

모든 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(XML)

XML 클러스터 구성 파일을 사용하여 새 전역 클러스터를 구성하려면 이 절차를 수행합니다. 새 클러스터는 Oracle Solaris Cluster 4.0 소프트웨어가 실행되는 기존 클러스터와 중복될 수 있습니다.

이 절차에서는 다음과 같은 클러스터 구성 요소를 구성합니다.

시작하기 전에

다음 작업을 수행합니다.

  1. Oracle Solaris Cluster 4.0 소프트웨어가 각각의 잠재적 클러스터 노드에 아직 구성되어 있지 않은지 확인합니다.
    1. 새 클러스터에 구성할 잠재적 노드에서 수퍼유저로 전환합니다.
    2. Oracle Solaris Cluster 소프트웨어가 잠재적 노드에 이미 구성되어 있는지 여부를 확인합니다.
      phys-schost# /usr/sbin/clinfo -n
      • 명령에서 다음 메시지를 반환하는 경우 c단계로 계속 진행합니다.
        clinfo: node is not configured as part of acluster: Operation not applicable

        이 메시지는 Oracle Solaris Cluster 소프트웨어가 잠재적 노드에 아직 구성되어 있지 않음을 나타냅니다.

      • 명령에서 노드 ID 번호를 반환하는 경우 이 절차를 수행하지 마십시오.

        노드 ID 반환은 Oracle Solaris Cluster 소프트웨어가 노드에 이미 구성되어 있음을 나타냅니다.

    3. 새 클러스터에 구성할 나머지 잠재적 노드 각각에서 a단계와 b단계를 반복합니다.

      Oracle Solaris Cluster 소프트웨어가 잠재적 클러스터 노드에 아직 구성되지 않은 경우 2단계로 계속 진행합니다.

  2. 클러스터의 모든 노드에서 RPC용 TCP 래퍼가 사용 안함으로 설정되었는지 확인합니다.

    Oracle Solaris의 RPC용 TCP 래퍼 기능은 클러스터 구성에 필요한 노드 간 통신을 막습니다.

    1. 각 노드에서 RPC용 TCP 래퍼의 상태를 표시합니다.

      다음 예제 명령 출력에 표시된 대로 config/enable_tcpwrapperstrue로 설정하면 TCP 래퍼가 사용으로 설정됩니다.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. RPC용 TCP 래퍼가 노드에 사용으로 설정된 경우 TCP 래퍼를 사용 안함으로 설정하고 RPC 바인드 서비스를 새로 고칩니다.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  3. 새 클러스터의 개인 상호 연결에서 스위치를 사용하고 있는 경우 인접 노드 탐색 프로토콜(Neighbor Discovery Protocol, NDP)이 비활성화되었는지 확인합니다.

    사용하는 스위치의 설명서에 포함된 절차에 따라 NDP가 사용으로 설정되어 있는지 확인하고 그럴 경우 NDP를 사용 안함으로 설정합니다.

    클러스터 구성 중에 소프트웨어에서 개인 상호 연결에 트래픽이 없는지 검사합니다. 개인 상호 연결에서 트래픽을 검사할 때 NDP가 개인 어댑터에 패키지를 보내면 상호 연결은 개인 상호 연결이 아닌 것으로 간주되고 클러스터 구성은 중단됩니다. 따라서 클러스터 생성 중에는 NDP를 비활성화해야 합니다.

    클러스터가 설정된 후 NDP 기능을 사용하려면 개인 상호 연결 스위치에서 NDP를 다시 활성화할 수 있습니다.

  4. Oracle Solaris Cluster 4.0 소프트웨어를 실행하는 기존 클러스터를 복제하려는 경우 해당 클러스터의 노드를 사용하여 클러스터 구성 XML 파일을 만듭니다.
    1. 복제할 클러스터의 활성 구성원에서 수퍼유저로 전환합니다.
    2. 기존 클러스터의 구성 정보를 파일로 내보냅니다.
      phys-schost# cluster export -o clconfigfile
      -o

      출력 대상을 지정합니다.

      clconfigfile

      클러스터 구성 XML 파일의 이름입니다. 지정한 파일 이름은 기존 파일 또는 명령에서 만들 새 파일이 될 수 있습니다.

      자세한 내용은 cluster(1CL) 매뉴얼 페이지를 참조하십시오.

    3. 새 클러스터를 구성할 잠재적 노드로 구성 파일을 복사합니다.

      클러스터 노드로 구성할 다른 호스트에서 액세스할 수 있는 디렉토리에 파일을 저장할 수 있습니다.

  5. 새 클러스터를 구성할 잠재적 노드에서 수퍼유저로 전환합니다.
  6. 필요에 따라 클러스터 구성 XML 파일을 수정하거나 만듭니다.

    XML 요소의 값을 넣거나 수정하여 만들려는 클러스터 구성을 반영합니다.

    • 기존 클러스터를 복제하려는 경우 cluster export 명령으로 만든 파일을 엽니다.

    • 기존 클러스터를 복제하지 않으려는 경우 새 파일을 만듭니다.

      파일은 clconfiguration(5CL) 매뉴얼 페이지에 표시된 요소 계층을 기반으로 합니다. 클러스터 노드로 구성할 다른 호스트에서 액세스할 수 있는 디렉토리에 파일을 저장할 수 있습니다.

    • 클러스터를 설정하려면 다음 구성 요소의 올바른 값이 클러스터 구성 XML 파일에 있어야 합니다.

      • 클러스터 이름

      • 클러스터 노드

      • 클러스터 전송

    • 기존 클러스터에서 내보낸 구성 정보를 수정할 경우 새 클러스터를 반영하도록 변경해야 하는 일부 값(예: 노드 이름)이 둘 이상의 클러스터 객체에 대한 정의에 사용됩니다.

    클러스터 구성 XML 파일의 구조 및 내용에 대한 자세한 내용은 clconfiguration(5CL) 매뉴얼 페이지를 참조하십시오.

  7. 클러스터 구성 XML 파일의 유효성을 검사합니다.
    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

    자세한 내용은 xmllint(1) 매뉴얼 페이지를 참조하십시오.

  8. 클러스터 구성 XML 파일이 포함된 잠재적 노드에서 클러스터를 만듭니다.
    phys-schost# cluster create -i clconfigfile
    -i clconfigfile

    입력 소스로 사용할 클러스터 구성 XML 파일의 이름을 지정합니다.

  9. 각 노드에서 SMF(Service Management Facility)에 대한 다중 사용자 서비스가 온라인 상태인지 확인합니다.

    노드에 대해 서비스가 아직 온라인 상태가 아닌 경우 온라인 상태가 될 때까지 기다린 후 다음 단계로 진행합니다.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. 한 노드에서 모든 노드가 클러스터에 조인했는지 확인합니다.
    phys-schost# clnode status

    다음과 비슷한 결과가 출력됩니다:

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

  11. Oracle Solaris Cluster 소프트웨어에 필요한 업데이트를 수행합니다.

    설치 지침은 Oracle Solaris Cluster 시스템 관리 설명서의 11 장, 소프트웨어 업데이트를 참조하십시오.

  12. RPC에 TCP 래퍼를 사용하려면 각 클러스터 노드에서 /etc/hosts.allow 파일에 모든 clprivnet0 IP 주소를 추가합니다.

    이와 같이 /etc/hosts.allow 파일에 추가하지 않으면 TCP 래퍼가 클러스터 관리 유틸리티에 대해 RPC를 통한 노드 간 통신을 막습니다.

    1. 각 노드에서 노드의 모든 clprivnet0 장치에 대한 IP 주소를 표시합니다.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 각 클러스터 노드에서 클러스터의 모든 clprivnet0 장치의 IP 주소를 /etc/hosts.allow 파일에 추가합니다.
  13. 고가용성 로컬 파일 시스템에서 HA for NFS 데이터 서비스(HA for NFS)를 사용하려면 HA for NFS에서 내보낸 고가용성 로컬 파일 시스템에 포함된 모든 공유 사항을 automounter 맵에서 제외시킵니다.

    automounter 맵 수정에 대한 자세한 내용은 Oracle Solaris 관리: 네트워크 서비스의 맵 관련 관리 작업을 참조하십시오.

  14. 기존 클러스터에서 쿼럼 정보를 복제하려면 클러스터 구성 XML 파일을 사용하여 쿼럼 장치를 구성합니다.

    2 노드 클러스터를 만든 경우 쿼럼 장치를 구성해야 합니다. 필요한 쿼럼 장치를 만드는 데 클러스터 구성 XML 파일을 사용하지 않으려면 쿼럼 장치를 구성하는 방법으로 이동합니다.

    1. 쿼럼 장치에 쿼럼 서버를 사용하고 있는 경우 쿼럼 서버가 설정되어 실행 중인지 확인합니다.

      Oracle Solaris Cluster 쿼럼 서버 소프트웨어를 설치하고 구성하는 방법의 지침에 따릅니다.

    2. 쿼럼 장치에 NAS 장치를 사용하고 있는 경우 NAS 장치가 설정되어 작동 중인지 확인합니다.
      1. NAS 장치를 쿼럼 장치로 사용할 때의 요구 사항을 준수하십시오.

        Oracle Solaris Cluster With Network-Attached Storage Device Manual을 참조하십시오.

      2. 사용 중인 장치의 설명서에 있는 지침에 따라 NAS 장치를 설정합니다.
    3. 클러스터 구성 XML 파일의 쿼럼 구성 정보에 만든 클러스터에 유효한 값이 반영되는지 확인합니다.
    4. 클러스터 구성 XML 파일을 변경한 경우 파일의 유효성을 검사합니다.
      phys-schost# xmllint --valid --noout clconfigfile
    5. 쿼럼 장치를 구성합니다.
      phys-schost# clquorum add -i clconfigfile device-name
      device-name

      쿼럼 장치로 구성할 장치의 이름을 지정합니다.

  15. 설치 모드에서 클러스터를 제거합니다.
    phys-schost# clquorum reset
  16. 클러스터 구성원으로 구성되지 않은 시스템에서 클러스터 구성에 대한 액세스를 닫습니다.
    phys-schost# claccess deny-all
  17. (옵션) 모니터링된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.
    1. 자동 재부트를 활성화합니다.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      설정할 등록 정보를 지정합니다.

      reboot_on_path_failure=enable

      모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

예 3-2 XML 파일을 사용하여 모든 노드에 Oracle Solaris Cluster 소프트웨어 구성

다음 예에서는 기존 2 노드 클러스터의 클러스터 구성 및 쿼럼 구성을 새로운 2 노드 클러스터에 복제합니다. 새 클러스터가 Solaris 11 OS로 설치됩니다. 클러스터 구성은 기존 클러스터 노드 phys-oldhost-1에서 클러스터 구성 XML 파일 clusterconf.xml로 내보냅니다. 새 클러스터의 노드 이름은 phys-newhost-1phys-newhost-2입니다. 새 클러스터에서 쿼럼 장치로 구성되는 장치는 d3입니다.

이 예에서 프롬프트 이름 phys-newhost-N은 명령이 두 클러스터 노드에서 모두 수행됨을 나타냅니다.

phys-newhost-N# /usr/sbin/clinfo -n
clinfo: node is not configured as part of a cluster: Operation not applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
No errors are reported
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
Output shows that both nodes are online
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset
추가 구성 요소 구성

클러스터가 완전히 설정된 후 기존 클러스터에서 다른 클러스터 구성 요소의 구성을 복제할 수 있습니다. 아직 수행하지 않은 경우 복제하려는 XML 요소의 값을 수정하여 구성 요소를 추가할 클러스터 구성을 반영합니다. 예를 들어 자원 그룹을 복제하려면 <resourcegroupNodeList> 항목에 새 클러스터에 유효한 노드 이름이 있으며 노드 이름이 동일하지 않는 한 복제한 클러스터의 노드 이름이 아닌지 확인합니다.

클러스터 구성 요소를 복제하려면 복제할 클러스터 구성 요소에 대해 객체 지향 명령의 export 하위 명령을 실행합니다. 명령 구문 및 옵션에 대한 자세한 내용은 복제할 클러스터 객체에 대한 매뉴얼 페이지를 참조하십시오.

다음은 클러스터가 설정된 후 클러스터 구성 XML 파일에서 만들 수 있는 클러스터 구성 요소 목록을 설명합니다. 구성 요소를 복제하는 데 사용할 명령에 대한 매뉴얼 페이지를 포함합니다.

일반 오류

구성 실패 – 하나 이상의 노드에서 클러스터를 결합할 수 없거나 잘못된 구성 정보가 지정된 경우 먼저 이 절차를 다시 실행하십시오. 그래도 문제가 해결되지 않으면 잘못 구성된 각 노드에서 Oracle Solaris Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법의 절차를 수행하여 해당 노드를 클러스터 구성에서 제거합니다. Oracle Solaris Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음 이 절차를 다시 수행합니다.

다음 순서

쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.

Oracle Solaris 및 Oracle Solaris Cluster 소프트웨어 설치 및 구성(자동 설치 프로그램)

클러스터의 scinstall AI(자동 설치 프로그램) 설치 중, 다음 방법 중 하나로 Oracle Solaris 소프트웨어 설치를 실행하도록 선택합니다.

Oracle Solaris 소프트웨어의 대화식 설치에 대한 자세한 내용은 Oracle Solaris 11 시스템의 텍스트 설치 프로그램으로 설치를 참조하십시오.

scinstall 유틸리티는 표준 또는 사용자 정의의 두 가지 설치 모드로 실행됩니다. Oracle Solaris Cluster 소프트웨어 표준 설치의 경우 scinstall에서 다음 구성 기본값을 자동으로 지정합니다.

개인 네트워크 주소

172.16.0.0

개인 네트워크 넷마스크

255.255.240.0

클러스터 전송 어댑터

정확히 2개의 어댑터

클러스터 전송 스위치

switch1switch2

전역 보호(fencing)

활성화

설치 보안(DES)

제한됨

표준 모드 또는 사용자 정의 모드 설치를 계획하려면 다음 클러스터 구성 워크시트 중 하나를 완료합니다.

Oracle Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치 및 구성하는 방법(자동 설치 프로그램)

이 절차에서는 scinstall(1M) 사용자 정의 자동 설치 프로그램 설치 방법을 설정하고 사용하는 방법에 대해 설명합니다. 이 방법에서는 모든 전역 클러스터 노드의 Oracle Solaris OS 및 Oracle Solaris Cluster 프레임워크와 데이터 서비스 소프트웨어를 동일한 작업으로 설치하고 클러스터를 설정합니다. 이러한 노드는 물리적 시스템, (SPARC만 해당) Oracle VM Server for SPARC I/O 도메인이나 게스트 도메인 또는 이러한 노드 유형의 조합이 될 수 있습니다.


주 - 물리적으로 클러스터링된 시스템에 Oracle VM Server for SPARC가 구성된 경우에는 I/O 도메인이나 게스트 도메인에만 Oracle Solaris Cluster 소프트웨어를 설치합니다.


이 절차에서 대화식 scinstall 유틸리티를 사용하려면 다음 지침을 준수하십시오.

시작하기 전에

다음 작업을 수행합니다.

  1. AI(자동 설치 프로그램) 설치 서버 및 DHCP 서버를 설정합니다.

    AI 설치 서버가 다음 요구 사항을 충족하는지 확인합니다.

    • 설치 서버가 클러스터 노드와 동일한 서브넷에 있습니다.

    • 설치 서버 자체가 클러스터 노드가 아닙니다.

    • 설치 서버가 Oracle Solaris Cluster 소프트웨어에서 지원하는 Oracle Solaris OS 릴리스를 실행합니다.

    • 각각의 새 클러스터 노드가 Oracle Solaris Cluster 설치를 위해 설정한 사용자 정의 AI 디렉토리를 사용하는 사용자 정의 AI 설치 클라이언트로 구성됩니다.

    소프트웨어 플랫폼 및 OS 버전에 대한 해당 지침에 따라 AI 설치 서버 및 DHCP 서버를 설정합니다. Oracle Solaris 11 시스템의 8 장, 설치 서버 설정Oracle Solaris 관리: IP 서비스의 제II부, DHCP를 참조하십시오.

  2. AI 설치 서버에서 수퍼유저로 전환합니다.
  3. AI 설치 서버에서 Oracle Solaris Cluster AI 지원 패키지를 설치합니다.
    1. solarisha-cluster 게시자가 유효한지 확인합니다.
      installserver# pkg publisher
      PUBLISHER        TYPE     STATUS   URI
      solaris          origin   online   solaris-repository
      ha-cluster       origin   online   ha-cluster-repository
    2. 클러스터 AI 지원 패키지를 설치합니다.
      installserver# pkg install ha-cluster/system/install
  4. AI 설치 서버에서 scinstall 유틸리티를 시작합니다.
    installserver# /usr/cluster/bin/scinstall

    scinstall 주 메뉴가 표시됩니다.

  5. 이 자동 설치 프로그램 설치 서버 메뉴 항목에서 [클러스터 설치 및 구성]을 선택합니다.
     *** Main Menu ***
     
        Please select from one of the following (*) options:
    
          * 1) Install and configure a cluster from this Automated Installer install server
          * 2) Print release information for this Automated Installer install server 
    
          * ?) Help with menu options
          * q) Quit
     
        Option:  1
  6. 메뉴 프롬프트에 따라 구성 계획 워크시트에 답변을 입력합니다.
  7. 다른 설치 후 작업을 수행하려면 고유의 AI 매니페스트를 설정합니다.

    Oracle Solaris 11 시스템의 13 장, 처음 부트 중 사용자 정의 스크립트 실행을 참조하십시오.

  8. AI 설치 서버를 종료합니다.
  9. 클러스터 관리 콘솔을 사용하고 있는 경우 클러스터의 각 노드에 대해 콘솔 화면을 표시합니다.
    • pconsole 소프트웨어를 관리 콘솔에 설치 및 구성한 경우 pconsole 유틸리티를 사용하여 개별 콘솔 화면을 표시합니다.

      수퍼유저로 다음 명령을 사용하여 pconsole 유틸리티를 시작합니다.

      adminconsole# pconsole host[:port] […]  &

      pconsole 유틸리티를 사용하면 사용자 입력을 모든 개별 콘솔 창으로 동시에 전송할 수 있는 마스터 창도 열립니다.

    • pconsole 유틸리티를 사용하지 않는 경우 각 노드의 콘솔에 개별적으로 연결합니다.
  10. 클러스터의 모든 노드에서 RPC용 TCP 래퍼가 사용 안함으로 설정되었는지 확인합니다.

    Oracle Solaris의 RPC용 TCP 래퍼 기능은 클러스터 구성에 필요한 노드 간 통신을 막습니다.

    1. 각 노드에서 RPC용 TCP 래퍼의 상태를 표시합니다.

      다음 예제 명령 출력에 표시된 대로 config/enable_tcpwrapperstrue로 설정하면 TCP 래퍼가 사용으로 설정됩니다.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. RPC용 TCP 래퍼가 노드에 사용으로 설정된 경우 TCP 래퍼를 사용 안함으로 설정하고 RPC 바인드 서비스를 새로 고칩니다.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  11. 각 노드를 종료 후 부트하여 AI 설치를 시작합니다.

    Oracle Solaris 소프트웨어가 기본 구성으로 설치됩니다.


    주 - Oracle Solaris 설치를 사용자 정의하려면 이 방법을 사용할 수 없습니다. Oracle Solaris 대화식 설치를 선택하면 자동 설치 프로그램을 무시하고 Oracle Solaris Cluster 소프트웨어가 설치 및 구성되지 않습니다. 설치 중 Oracle Solaris를 사용자 정의하려면 Oracle Solaris 소프트웨어를 설치하는 방법의 지침을 따른 다음 Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법의 지침에 따라 클러스터를 설치 및 구성하십시오.


    • SPARC:
      1. 각 노드를 종료합니다.
        phys-schost# shutdown -g0 -y -i0
      2. 다음 명령으로 노드를 부트합니다.
        ok boot net:dhcp - install

        주 - 명령의 양쪽에 대시(-)를 표시하고 대시의 앞뒤를 한 칸씩 띄우십시오.


    • x86:
      1. 노드를 재부트합니다.
        # reboot -p
      2. PXE 부트 중 Ctrl-N을 누릅니다.

        GRUB 메뉴가 다음과 비슷한 두 메뉴 항목으로 표시됩니다.

        Oracle Solaris 11 11/11 Text Installer and command line
        Oracle Solaris 11 11/11 Automated Install
      3. Automated Install(자동 설치) 항목을 즉시 선택하고 Enter 키를 누릅니다.

        주 - Automated Install(자동 설치) 항목을 20초 내에 선택하지 않으면 기본 대화식 텍스트 설치 프로그램 방법으로 설치가 진행됩니다. 그러면 Oracle Solaris Cluster 소프트웨어를 설치 및 구성할 수 없습니다.


        각 노드에 새 부트 환경(BE)이 생성되고 자동 설치 프로그램이 Oracle Solaris OS 및 Oracle Solaris Cluster 소프트웨어를 설치합니다. 설치가 완료되면 각 노드가 새 클러스터 노드로 완전히 설치됩니다. Oracle Solaris Cluster 설치 출력은 각 노드의 /var/cluster/logs/install/scinstall.log. N 파일에 기록됩니다.

  12. 각 노드에서 SMF(Service Management Facility)에 대한 다중 사용자 서비스가 온라인 상태인지 확인합니다.

    노드에 대해 서비스가 아직 온라인 상태가 아닌 경우 온라인 상태가 될 때까지 기다린 후 다음 단계로 진행합니다.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  13. 각 노드에서 설치된 BE를 활성화하고 클러스터 모드로 부트합니다.
    1. 설치된 BE를 활성화합니다.
      # beadm activate BE-name
    2. 노드를 종료합니다.
      # shutdown -y -g0 -i0

      주 - reboot 또는 halt 명령을 사용하지 마십시오. 이러한 명령은 새 BE를 활성화하지 않습니다.


    3. 클러스터 모드로 노드를 부트합니다.
  14. 고가용성 로컬 파일 시스템에서 HA for NFS 데이터 서비스(HA for NFS)를 사용하려면 HA for NFS에서 내보낸 고가용성 로컬 파일 시스템에 포함된 모든 공유 사항을 automounter 맵에서 제외시킵니다.

    automounter 맵 수정에 대한 자세한 내용은 Oracle Solaris 관리: 네트워크 서비스의 맵 관련 관리 작업을 참조하십시오.

  15. x86: 기본 부트 파일을 설정합니다.

    이 값의 설정을 사용하면 로그인 프롬프트에 액세스할 수 없는 경우 노드를 재부트할 수 있습니다.

    grub edit> kernel /platform/i86pc/kernel/amd64/unix -B $ZFS-BOOTFS -k

    자세한 내용은 x86 플랫폼에서 Oracle Solaris 부트 및 종료의 커널 디버거(kmdb)를 사용으로 설정하여 시스템을 부트하는 방법을 참조하십시오.

  16. 클러스터 재부트가 필요한 작업을 수행한 경우 클러스터를 재부트합니다.

    다음 작업은 재부트가 필요합니다.

    • 노드나 클러스터 재부트가 필요한 소프트웨어 업데이트 설치

    • 활성화하려면 재부트가 필요한 구성 변경

    1. 한 노드에서 수퍼유저로 전환합니다.
    2. 클러스터를 종료합니다.
      phys-schost-1# cluster shutdown -y -g0 cluster-name

      주 - 처음으로 설치된 클러스터 노드는 클러스터가 종료된 다음에 재부트하십시오. 클러스터 설치 모드가 비활성화될 때까지는 클러스터를 설정한, 처음 설치된 노드에만 쿼럼 투표가 있습니다. 계속 설치 모드에 있는 설정된 클러스터에서, 처음 설치된 노드가 재부트되기 전에 클러스터가 종료되지 않으면 나머지 클러스터 노드에서 쿼럼을 얻을 수 없습니다. 그러면 전체 클러스터가 종료됩니다.

      클러스터 노드는 처음으로 clsetup 명령을 실행할 때까지 설치 모드로 유지됩니다. 쿼럼 장치를 구성하는 방법 절차를 수행하는 동안 이 명령을 실행합니다.


    3. 클러스터의 각 노드를 재부트하십시오.

    모든 노드가 성공적으로 클러스터에 부트되면 클러스터가 설정됩니다. Oracle Solaris Cluster 설치 출력은 /var/cluster/logs/install/scinstall.log. N 파일에 기록됩니다.

  17. 한 노드에서 모든 노드가 클러스터에 조인했는지 확인합니다.
    phys-schost# clnode status

    다음과 비슷한 결과가 출력됩니다:

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

  18. RPC에 TCP 래퍼를 사용하려면 각 클러스터 노드에서 /etc/hosts.allow 파일에 모든 clprivnet0 IP 주소를 추가합니다.

    이와 같이 /etc/hosts.allow 파일에 추가하지 않으면 TCP 래퍼가 클러스터 관리 유틸리티에 대해 RPC를 통한 노드 간 통신을 막습니다.

    1. 각 노드에서 노드의 모든 clprivnet0 장치에 대한 IP 주소를 표시합니다.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 각 클러스터 노드에서 클러스터의 모든 clprivnet0 장치의 IP 주소를 /etc/hosts.allow 파일에 추가합니다.
  19. (옵션) 각 노드에서 모니터링된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.
    1. 자동 재부트를 활성화합니다.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p
      설정할 등록 정보를 지정합니다.
      reboot_on_path_failure=enable

      모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

다음 순서

1. 클러스터 구성에 맞게 다음 절차를 모두 수행합니다.

2. 아직 구성되지 않은 경우 쿼럼을 구성하고 설치 후 작업을 수행합니다.

일반 오류

사용 안함으로 설정된 scinstall 옵션scinstall 명령의 AI 옵션 앞에 별표가 없는 경우 해당 옵션은 사용 안함으로 설정된 것입니다. 이 상태는 AI 설정이 완료되지 않았거나 설정에 오류가 있음을 나타냅니다. 이 상태를 해결하려면 먼저 scinstall 유틸리티를 종료합니다. 단계 1부터 단계 7까지를 반복하여 AI 설정을 수정한 다음 scinstall 유틸리티를 다시 시작합니다.

클러스터에서 전역 클러스터 노드 추가를 준비하는 방법

새 클러스터 노드를 추가하기 위해 클러스터를 준비하려면 기존 전역 클러스터 노드에서 이 절차를 수행합니다.

시작하기 전에

다음 작업을 수행합니다.

  1. 새 노드 이름을 클러스터의 인증된 노드 목록에 추가합니다.
    1. 임의 노드에서 수퍼유저로 전환합니다.
    2. clsetup 유틸리티를 시작합니다.
      phys-schost# clsetup

      주 메뉴가 표시됩니다.

    3. New Nodes(새 노드) 메뉴 항목을 선택합니다.
    4. Specify the Name of a Machine Which May Add Itself(추가할 시스템 이름 지정) 메뉴 항목을 선택합니다.
    5. 화면에 표시되는 메시지에 따라 인식된 시스템 목록에 노드 이름을 추가합니다.

      작업이 오류 없이 완료된 경우 clsetup 유틸리티에 명령이 성공적으로 완료되었습니다라는 메시지가 표시됩니다.

    6. clsetup 유틸리티를 종료합니다.
  2. 단일 노드 클러스터에 노드를 추가하는 경우 상호 연결 구성을 표시하여 두 개의 클러스터 상호 연결이 이미 있는지 확인합니다.
    phys-schost# clinterconnect show

    노드를 추가하려면 최소한 두 개의 케이블 또는 두 개의 어댑터가 구성되어 있어야 합니다.

    • 출력에 두 개의 케이블 또는 두 개의 어댑터에 대한 구성 정보가 표시되면 단계 3으로 계속 진행합니다.
    • 출력에 케이블 또는 어댑터에 대한 구성 정보가 표시되지 않거나 하나의 케이블 또는 어댑터에 대해서만 구성 정보가 표시되면 새 클러스터 상호 연결을 구성합니다.
      1. 한 노드에서 clsetup 유틸리티를 시작합니다.
        phys-schost# clsetup
      2. Cluster Interconnect(클러스터 상호 연결) 메뉴 항목을 선택합니다.
      3. Add a Transport Cable(전송 케이블 추가) 메뉴 항목을 선택합니다.

        지시에 따라 클러스터에 추가할 노드의 이름, 전송 어댑터 이름, 전송 스위치 사용 여부를 지정합니다.

      4. 필요한 경우 단계 c를 반복하여 두번째 클러스터 상호 연결을 구성합니다.
      5. 완료되면 clsetup 유틸리티를 종료합니다.
      6. 클러스터에 두 개의 클러스터 상호 연결이 구성되어 있는지 확인합니다.
        phys-schost# clinterconnect show

        이 명령은 최소한 두 개의 클러스터 상호 연결에 대한 구성 정보를 출력해야 합니다.

  3. 추가할 노드 및 개인 네트워크를 개인 네트워크 구성에서 지원하는지 확인합니다.
    1. 현재 개인 네트워크 구성에서 지원하는 노드, 개인 네트워크 및 영역 클러스터의 최대 수를 표시합니다.
      phys-schost# cluster show-netprops

      출력이 다음과 같이 표시됩니다.

      === Private Network ===                        
      
      private_netaddr:                                172.16.0.0
        private_netmask:                                255.255.240.0
        max_nodes:                                      64
        max_privatenets:                                10
        max_zoneclusters:                               12
    2. 현재 개인 네트워크 구성이 비전역 영역 및 개인 네트워크를 포함하여 증가한 노드 수를 지원하는지 여부를 확인합니다.

다음 순서

새 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성합니다. 추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(scinstall) 또는 추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(XML 파일)으로 이동합니다.

노드 또는 개인 네트워크를 추가할 때 개인 네트워크 구성을 변경하는 방법

다음 클러스터 구성 요소 중 하나 이상에서 증가하는 범위를 수용하도록 전역 클러스터의 개인 IP 주소 범위를 변경하려면 이 작업을 수행합니다.

또한 이 절차를 사용하여 개인 IP 주소 범위를 감소시킬 수 있습니다.


주 - 이 절차에서는 전체 클러스터를 종료해야 합니다. 영역 클러스터에 대한 지원을 추가하는 경우처럼 넷마스크만 변경해야 하는 경우에는 이 절차를 수행하지 마십시오. 대신 클러스터 모드로 실행되는 전역 클러스터 노드에서 다음 명령을 실행하여 예상 영역 클러스터 수를 지정하십시오.

phys-schost# cluster set-netprops num_zoneclusters=N

이 명령에서는 클러스터를 종료할 필요가 없습니다.


  1. 클러스터의 노드에서 수퍼유저로 전환합니다.
  2. 한 노드에서 clsetup 유틸리티를 시작합니다.
    # clsetup

    clsetup 주 메뉴가 표시됩니다.

  3. 각 자원 그룹을 오프라인으로 전환합니다.
    1. Resource Groups(자원 그룹) 메뉴 항목을 선택합니다.

      Resource Group(자원 그룹) 메뉴가 표시됩니다.

    2. Online/Offline or Switchover a Resource Group(자원 그룹 온라인/오프라인화 또는 스위치오버) 메뉴 항목을 선택합니다.
    3. 화면에 표시되는 메시지에 따라 모든 자원 그룹을 오프라인으로 전환하고 관리 해제 상태로 놓습니다.
    4. 모든 자원 그룹이 오프라인으로 전환되면 q를 입력하여 자원 그룹 메뉴로 돌아갑니다.
  4. 클러스터의 모든 자원을 사용 안함으로 설정합니다.
    1. Enable/Disable a Resource(자원 사용/사용 안함) 메뉴 항목을 선택합니다.
    2. 비활성화할 자원을 선택하고 화면에 표시되는 메시지에 따릅니다.
    3. 비활성화하려는 각 자원에 대해 위의 단계를 반복합니다.
    4. 모든 자원이 비활성화되면 q를 입력하여 자원 그룹 메뉴로 돌아갑니다.
  5. clsetup 유틸리티를 종료합니다.
  6. 모든 노드의 모든 자원이 Offline 상태이고 모든 자원 그룹이 Unmanaged 상태인지 확인합니다.
    # cluster status -t resource,resourcegroup
    -t

    지정된 클러스터 객체로 출력을 제한합니다.

    resource

    자원을 지정합니다.

    resourcegroup

    자원 그룹을 지정합니다.

  7. 하나의 노드에서 클러스터를 종료하십시오.
    # cluster shutdown -g0 -y
    -g

    대기 시간을 초 단위로 지정합니다.

    -y

    시스템 종료 확인을 요청하는 메시지가 나타나지 않도록 합니다.

  8. 각 노드를 비클러스터 모드로 부트합니다.
    • SPARC:
      ok boot -x
    • x86:
      1. GRUB 메뉴에서 화살표 키를 사용하여 적절한 Oracle Solaris 항목을 선택하고 e를 입력하여 해당 명령을 편집합니다.

        GRUB 기반 부트에 대한 자세한 내용은 x86 플랫폼에서 Oracle Solaris 부트 및 종료를 참조하십시오.

      2. 부트 매개 변수 화면에서 화살표 키를 사용하여 kernel 항목을 선택하고 e를 입력하여 항목을 편집합니다.
      3. 명령에 -x를 추가하여 시스템 부트를 비클러스터 모드로 지정합니다.
      4. Enter 키를 눌러 변경 사항을 적용하고 부트 매개 변수 화면으로 돌아갑니다.

        화면에 편집된 명령이 표시됩니다.

      5. b를 입력하여 비클러스터 모드로 노드를 부트합니다.

        주 - 커널 부트 매개 변수 명령에 대한 변경 사항은 시스템을 재부트하면 사라집니다. 다음에 노드를 재부트하면 클러스터 모드로 부트됩니다. 비클러스터 모드로 부트하려면 이 단계를 다시 실행하여 -x 옵션을 커널 부트 매개 변수 명령에 추가합니다.


  9. 한 노드에서 clsetup 유틸리티를 시작합니다.

    비클러스터 모드로 실행되는 경우 clsetup 유틸리티에 비클러스터 모드 작업을 위한 주 메뉴가 표시됩니다.

  10. Change Network Addressing and Ranges for the Cluster Transport(클러스터 전송에 대한 네트워크 주소 지정 및 범위 변경) 메뉴 항목을 선택합니다.

    clsetup 유틸리티에 현재의 개인 네트워크 구성이 표시되고 이 구성을 변경할지 묻는 메시지가 표시됩니다.

  11. 개인 네트워크 IP 주소 또는 IP 주소 범위를 변경하려면 yes를 입력하고 Enter 키를 누릅니다.

    clsetup 유틸리티에 기본 개인 네트워크 IP 주소(172.16.0.0)가 표시되고 이 기본값을 사용할지를 묻는 메시지가 표시됩니다.

  12. 해당 개인 네트워크 IP 주소를 변경하거나 사용합니다.
    • 기본 개인 네트워크 IP 주소를 사용하고 IP 주소 범위 변경을 진행하려면 yes를 입력하고 Enter 키를 누릅니다.
    • 기본 개인 네트워크 IP 주소를 변경하려면:
      1. clsetup 유틸리티에서 기본 주소를 사용할지를 물으면 그에 대한 응답으로 no를 입력한 후 Enter 키를 누릅니다.

        clsetup 유틸리티에 새 개인 네트워크 IP 주소를 묻는 메시지가 표시됩니다.

      2. 새 IP 주소를 입력하고 Enter 키를 누릅니다.

        clsetup 유틸리티에 기본 넷마스크가 표시되고 이 기본 넷마스크를 사용할지를 묻는 메시지가 표시됩니다.

  13. 기본 개인 네트워크 IP 주소 범위를 변경하거나 사용합니다.

    기본 넷마스크는 255.255.240.0입니다. 이 기본 IP 주소 범위는 클러스터에서 최대 64개의 노드, 12개의 영역 클러스터 및 10개의 개인 네트워크를 지원합니다.

    • 기본 IP 주소 범위를 사용하려면 yes를 입력하고 Enter 키를 누릅니다.
    • IP 주소 범위를 변경하려면:
      1. clsetup 유틸리티에서 기본 주소 범위를 사용할지를 물으면 그에 대한 응답으로 no를 입력한 후 Enter 키를 누릅니다.

        기본 넷마스크의 사용을 거부할 경우 클러스터에 구성할 노드, 개인 네트워크 및 영역 클러스터 수를 묻는 메시지가 clsetup 유틸리티에서 표시됩니다.

      2. 클러스터에 구성할 노드, 개인 네트워크 및 영역 클러스터의 수를 제공합니다.

        clsetup 유틸리티는 이러한 숫자로 계산하여 두 개의 넷마스크를 제안합니다.

        • 첫번째 넷마스크는 지정한 노드, 개인 네트워크 및 영역 클러스터 수를 지원하는 최소 넷마스크입니다.

        • 두번째 넷마스크는 지정한 노드, 개인 네트워크 및 영역 클러스터 수의 두 배를 지원하여 향후 확대될 경우에도 수용할 수 있도록 합니다.

      3. 계산된 넷마스크 중 하나를 지정하거나 예상 노드, 개인 네트워크 및 영역 클러스터 수를 지원하는 다른 넷마스크를 지정합니다.
  14. clsetup 유틸리티에서 업데이트를 진행할지를 물으면 그에 대한 응답으로 yes를 입력합니다.
  15. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  16. 각 노드를 클러스터로 다시 재부트합니다.
    1. 각 노드를 종료합니다.
      # shutdown -g0 -y
    2. 각 노드를 클러스터 모드로 부트하십시오.
  17. 한 노드에서 clsetup 유틸리티를 시작합니다.
    # clsetup

    clsetup 주 메뉴가 표시됩니다.

  18. 모든 비활성화된 자원을 다시 활성화합니다.
    1. Resource Groups(자원 그룹) 메뉴 항목을 선택합니다.

      Resource Group(자원 그룹) 메뉴가 표시됩니다.

    2. Enable/Disable a Resource(자원 사용/사용 안함) 메뉴 항목을 선택합니다.
    3. 활성화할 자원을 선택하고 화면에 표시되는 메시지에 따릅니다.
    4. 비활성화된 각 자원에 대해 반복합니다.
    5. 모든 자원이 다시 활성화되면 q를 입력하여 자원 그룹 메뉴로 돌아갑니다.
  19. 각 자원 그룹을 다시 온라인으로 전환합니다.

    노드에 비전역 영역이 포함된 경우 이 영역의 모든 자원 그룹도 온라인으로 전환됩니다.

    1. Online/Offline or Switchover a Resource Group(자원 그룹 온라인/오프라인화 또는 스위치오버) 메뉴 항목을 선택합니다.
    2. 화면에 표시되는 메시지에 따라 각 자원 그룹을 관리 상태로 변경한 다음 해당 자원 그룹을 온라인으로 전환합니다.
  20. 모든 자원 그룹이 다시 온라인으로 전환되면 clsetup 유틸리티를 종료합니다.

    q를 입력하여 각 하위 메뉴를 마치거나 Ctrl-C를 누릅니다.

다음 순서

기존 클러스터에 노드를 추가하려면 다음 절차 중 하나로 이동합니다.

Configuring Oracle Solaris Cluster Software on Additional Global-Cluster Nodes (scinstall)

scinstall 유틸리티는 표준 또는 사용자 정의의 두 가지 설치 모드로 실행됩니다. Oracle Solaris Cluster 소프트웨어의 표준 설치의 경우 scinstall이 자동으로 클러스터 전송 스위치를 switch1switch2로 지정합니다.

다음 구성 계획 워크시트 중 하나를 완성합니다. 계획 지침은 Oracle Solaris OS 계획Oracle Solaris Cluster 환경 계획을 참조하십시오.

추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(scinstall)

기존 전역 클러스터에 새 노드를 추가하려면 이 절차를 수행합니다. 자동 설치 프로그램을 사용하여 새 노드를 추가하려면 Oracle Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치 및 구성하는 방법(자동 설치 프로그램)의 지침을 따릅니다.


주 - 이 절차에서는 대화식 scinstall 명령을 사용합니다. 설치 스크립트를 개발하는 경우처럼 비대화식 scinstall 명령을 사용하는 방법은 scinstall(1M) 매뉴얼 페이지를 참조하십시오.


이 절차에서 대화식 scinstall 유틸리티를 사용하려면 다음 지침을 준수하십시오.

시작하기 전에

다음 작업을 수행합니다.

  1. 구성할 클러스터 노드에서 수퍼유저로 전환합니다.
  2. 클러스터의 모든 노드에서 RPC용 TCP 래퍼가 사용 안함으로 설정되었는지 확인합니다.

    Oracle Solaris의 RPC용 TCP 래퍼 기능은 클러스터 구성에 필요한 노드 간 통신을 막습니다.

    1. 각 노드에서 RPC용 TCP 래퍼의 상태를 표시합니다.

      다음 예제 명령 출력에 표시된 대로 config/enable_tcpwrapperstrue로 설정하면 TCP 래퍼가 사용으로 설정됩니다.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. RPC용 TCP 래퍼가 노드에 사용으로 설정된 경우 TCP 래퍼를 사용 안함으로 설정하고 RPC 바인드 서비스를 새로 고칩니다.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  3. 공용 네트워크 인터페이스를 준비합니다.
    1. 각 공용 네트워크 인터페이스에 대한 정적 IP 주소를 만듭니다.
      # ipadm create-ip interface
      # ipadm create-addr -T static -a local=address/prefix-length addrobj

      자세한 내용은 Oracle Solaris 관리: 네트워크 인터페이스 및 네트워크 가상화의 IP 인터페이스를 구성하는 방법을 참조하십시오.

    2. (옵션) 공용 네트워크 인터페이스에 대한 IPMP 그룹을 만듭니다.

      초기 클러스터 구성 중, non-link-local IPv6 공용 네트워크 인터페이스가 클러스터에 존재하지 않는 경우 IPMP 그룹이 일치하는 서브넷에 따라 자동으로 생성됩니다. 이러한 그룹은 인터페이스 모니터링을 위해 전이성 프로브를 사용하고 테스트 주소는 필요하지 않습니다.

      이러한 자동으로 생성된 IPMP 그룹이 사용자 요구를 충족하지 않는 경우 또는 사용자 구성에 하나 이상의 non-link-local IPv6 공용 네트워크 인터페이스가 있기 때문에 IPMP 그룹이 생성되지 않는 경우 다음 중 하나를 수행합니다.

      • 클러스터를 설정하기 전에 필요한 IPMP 그룹을 만듭니다.
      • 클러스터가 설정된 후에 ipadm 명령을 사용하여 IPMP 그룹을 편집합니다.

      자세한 내용은 Oracle Solaris 관리: 네트워크 인터페이스 및 네트워크 가상화의 IPMP 그룹 구성을 참조하십시오.

  4. scinstall 유틸리티를 시작합니다.
    phys-schost-new# /usr/cluster/bin/scinstall

    scinstall 주 메뉴가 표시됩니다.

  5. 새 클러스터 만들기 또는 클러스터 노드 추가에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.
      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    New Cluster and Cluster Node(새 클러스터 및 클러스터 노드) 메뉴가 표시됩니다.

  6. 이 시스템을 기존 클러스터의 노드로 추가합니다에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.
  7. 메뉴 프롬프트에 따라 구성 계획 워크시트에 답변을 입력합니다.

    scinstall 유틸리티가 노드를 구성하고 노드를 클러스터로 부트합니다.

  8. 추가 노드가 모두 구성될 때까지 클러스터에 추가할 다른 노드에 대해 이 절차를 반복합니다.
  9. 각 노드에서 SMF(Service Management Facility)에 대한 다중 사용자 서비스가 온라인 상태인지 확인합니다.

    노드에 대해 서비스가 아직 온라인 상태가 아닌 경우 온라인 상태가 될 때까지 기다린 후 다음 단계로 진행합니다.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. 활성 클러스터 구성원에서 다른 노드가 클러스터를 결합할 수 없도록 합니다.
    phys-schost# claccess deny-all

    또는 clsetup 유틸리티를 사용할 수 있습니다. 절차는 Oracle Solaris Cluster 시스템 관리 설명서의 기존 클러스터에 노드를 추가하는 방법을 참조하십시오.

  11. 한 노드에서 모든 노드가 클러스터에 조인했는지 확인합니다.
    phys-schost# clnode status

    다음과 비슷한 결과가 출력됩니다:

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

  12. TCP 래퍼가 클러스터에 사용된 경우 모든 추가된 노드에 대한 clprivnet0 IP 주소가 각 클러스터 노드의 /etc/hosts.allow 파일에 추가되었는지 확인합니다.

    이와 같이 /etc/hosts.allow 파일에 추가하지 않으면 TCP 래퍼가 클러스터 관리 유틸리티에 대해 RPC를 통한 노드 간 통신을 막습니다.

    1. 각 노드에서 clprivnet0 장치에 대한 IP 주소를 표시합니다.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 각 노드에서 클러스터의 모든 clprivnet0 장치의 IP 주소로 /etc/hosts.allow 파일을 편집합니다.
  13. 모든 필요한 소프트웨어 업데이트가 설치되어 있는지 확인합니다.
    phys-schost# pkg list
  14. (옵션) 모니터링된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.
    1. 자동 재부트를 활성화합니다.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      설정할 등록 정보를 지정합니다.

      reboot_on_path_failure=enable

      모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  15. 고가용성 로컬 파일 시스템에서 HA for NFS 데이터 서비스(HA for NFS)를 사용하려면 HA for NFS에서 내보낸 고가용성 로컬 파일 시스템에 포함된 모든 공유 사항을 automounter 맵에서 제외시킵니다.

    automounter 맵 수정에 대한 자세한 내용은 Oracle Solaris 관리: 네트워크 서비스의 맵 관련 관리 작업을 참조하십시오.

예 3-3 추가 노드에 Oracle Solaris Cluster 소프트웨어 구성

다음 예에서는 phys-schost-3 노드가 schost 클러스터에 추가되는 것을 보여 줍니다. 스폰서 노드는 phys-schost-1입니다.

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "net2" to the cluster configuration ... done
Adding adapter "net3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Setting the node ID for "phys-schost-3" ... done (id=1)

Verifying the major number for the "did" driver from "phys-schost-1" ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... done

Adding cluster node entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done

Ensure network routing is disabled ... done
Network routing has been disabled on this node by creating /etc/notrouter.
Having a cluster node act as a router is not supported by Oracle Solaris Cluster.
Please do not re-enable network routing.
Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Log file - /var/cluster/logs/install/scinstall.log.6952

Rebooting ... 

일반 오류

구성 실패 – 하나 이상의 노드에서 클러스터를 결합할 수 없거나 잘못된 구성 정보가 지정된 경우 먼저 이 절차를 다시 실행하십시오. 그래도 문제가 해결되지 않으면 잘못 구성된 각 노드에서 Oracle Solaris Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법의 절차를 수행하여 해당 노드를 클러스터 구성에서 제거합니다. Oracle Solaris Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음 이 절차를 다시 수행합니다.

다음 순서

쿼럼 장치를 사용하는 기존 클러스터에 노드를 추가한 경우 전역 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법으로 이동합니다.

그렇지 않으면 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.

추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(XML 파일)

XML 클러스터 구성 파일을 사용하여 새 전역 클러스터 노드를 구성하려면 이 절차를 수행합니다. 새 노드는 Oracle Solaris Cluster 4.0 소프트웨어가 실행되는 기존 클러스터 노드와 중복될 수 있습니다.

이 절차에서는 새 노드에 다음 클러스터 구성 요소를 구성합니다.

시작하기 전에

다음 작업을 수행합니다.

  1. Oracle Solaris Cluster 소프트웨어가 클러스터에 추가할 잠재적 노드에 아직 구성되지 않았는지 확인합니다.
    1. 잠재적 노드에서 수퍼유저로 전환합니다.
    2. Oracle Solaris Cluster 소프트웨어가 잠재적 노드에 구성되어 있는지 여부를 확인합니다.
      phys-schost-new# /usr/sbin/clinfo -n
      • 명령이 실패할 경우 단계 2로 이동합니다.

        Oracle Solaris Cluster 소프트웨어가 노드에 아직 구성되어 있지 않습니다. 클러스터에 잠재적 노드를 추가할 수 있습니다.

      • 명령이 노드 ID 번호를 반환하면 Oracle Solaris Cluster 소프트웨어가 노드에 이미 구성되어 있는 것입니다.

        다른 클러스터에 노드를 추가하기 전에 기존 클러스터 구성 정보를 제거해야 합니다.

    3. 잠재적 노드를 비클러스터 모드로 부트합니다.
      • SPARC:
        ok boot -x
      • x86:
        1. GRUB 메뉴에서 화살표 키를 사용하여 적절한 Oracle Solaris 항목을 선택하고 e를 입력하여 해당 명령을 편집합니다.

          GRUB 기반 부트에 대한 자세한 내용은 x86 플랫폼에서 Oracle Solaris 부트 및 종료를 참조하십시오.

        2. 부트 매개 변수 화면에서 화살표 키를 사용하여 kernel 항목을 선택하고 e를 입력하여 항목을 편집합니다.
        3. 명령에 -x를 추가하여 시스템 부트를 비클러스터 모드로 지정합니다.
        4. Enter 키를 눌러 변경 사항을 적용하고 부트 매개 변수 화면으로 돌아갑니다.

          화면에 편집된 명령이 표시됩니다.

        5. b를 입력하여 비클러스터 모드로 노드를 부트합니다.

          주 - 커널 부트 매개 변수 명령에 대한 변경 사항은 시스템을 재부트하면 사라집니다. 다음에 노드를 재부트하면 클러스터 모드로 부트됩니다. 비클러스터 모드로 부트하려면 이 단계를 다시 실행하여 -x 옵션을 커널 부트 매개 변수 명령에 추가합니다.


    4. 잠재적 노드에서 Oracle Solaris Cluster 소프트웨어를 구성 해제합니다.
      phys-schost-new# /usr/cluster/bin/clnode remove
  2. Oracle Solaris Cluster 4.0 소프트웨어가 실행되는 노드를 복제하려면 클러스터 구성 XML 파일을 만듭니다.
    1. 복제하려는 클러스터 노드에서 수퍼유저로 전환합니다.
    2. 기존 노드의 구성 정보를 파일로 내보냅니다.
      phys-schost# clnode export -o clconfigfile
      -o

      출력 대상을 지정합니다.

      clconfigfile

      클러스터 구성 XML 파일의 이름입니다. 지정한 파일 이름은 기존 파일 또는 명령에서 만들 새 파일이 될 수 있습니다.

      자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

    3. 클러스터 구성 XML 파일을 새 클러스터 노드로 구성할 잠재적 노드에 복사합니다.
  3. 잠재적 노드에서 수퍼유저로 전환합니다.
  4. 클러스터의 모든 노드에서 RPC용 TCP 래퍼가 사용 안함으로 설정되었는지 확인합니다.

    Oracle Solaris의 RPC용 TCP 래퍼 기능은 클러스터 구성에 필요한 노드 간 통신을 막습니다.

    1. 각 노드에서 RPC용 TCP 래퍼의 상태를 표시합니다.

      다음 예제 명령 출력에 표시된 대로 config/enable_tcpwrapperstrue로 설정하면 TCP 래퍼가 사용으로 설정됩니다.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. RPC용 TCP 래퍼가 노드에 사용으로 설정된 경우 TCP 래퍼를 사용 안함으로 설정하고 RPC 바인드 서비스를 새로 고칩니다.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  5. 필요에 따라 클러스터 구성 XML 파일을 수정하거나 만듭니다.
    • 기존 클러스터 노드를 복제하려면 clnode export 명령을 사용하여 만든 파일을 엽니다.

    • 기존 클러스터 노드를 복제하지 않으려는 경우 새 파일을 만듭니다.

      파일은 clconfiguration(5CL) 매뉴얼 페이지에 표시된 요소 계층을 기반으로 합니다. 모든 디렉토리에 파일을 저장할 수 있습니다.

    • XML 요소의 값을 수정하여 만들려는 노드 구성을 반영합니다.

      클러스터 구성 XML 파일의 구조 및 내용에 대한 자세한 내용은 clconfiguration(5CL) 매뉴얼 페이지를 참조하십시오.

  6. 클러스터 구성 XML 파일의 유효성을 검사합니다.
    phys-schost-new# xmllint --valid --noout clconfigfile
  7. 새 클러스터 노드를 구성합니다.
    phys-schost-new# clnode add -n sponsor-node -i clconfigfile
    -n sponsor-node

    새 노드에 대한 스폰서로 작동하도록 기존 클러스터 구성원의 이름을 지정합니다.

    -i clconfigfile

    입력 소스로 사용할 클러스터 구성 XML 파일의 이름을 지정합니다.

  8. TCP 래퍼가 클러스터에 사용된 경우 모든 추가된 노드에 대한 clprivnet0 IP 주소가 각 클러스터 노드의 /etc/hosts.allow 파일에 추가되었는지 확인합니다.

    이와 같이 /etc/hosts.allow 파일에 추가하지 않으면 TCP 래퍼가 클러스터 관리 유틸리티에 대해 RPC를 통한 노드 간 통신을 막습니다.

    1. 각 노드에서 clprivnet0 장치에 대한 IP 주소를 표시합니다.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 각 노드에서 클러스터의 모든 clprivnet0 장치의 IP 주소로 /etc/hosts.allow 파일을 편집합니다.
  9. (옵션) 모니터링된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.
    1. 자동 재부트를 활성화합니다.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      설정할 등록 정보를 지정합니다.

      reboot_on_path_failure=enable

      모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

일반 오류

구성 실패 – 하나 이상의 노드에서 클러스터를 결합할 수 없거나 잘못된 구성 정보가 지정된 경우 먼저 이 절차를 다시 실행하십시오. 그래도 문제가 해결되지 않으면 잘못 구성된 각 노드에서 Oracle Solaris Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법의 절차를 수행하여 해당 노드를 클러스터 구성에서 제거합니다. Oracle Solaris Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음 이 절차를 다시 수행합니다.

다음 순서

쿼럼 장치를 사용하는 클러스터에 노드를 추가한 경우 전역 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법으로 이동합니다.

그렇지 않으면 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.

전역 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법

전역 클러스터에 노드를 추가한 경우 공유 디스크, NAS 장치, 쿼럼 서버 또는 조합을 사용하는지 여부에 관계없이 쿼럼 장치의 구성 정보를 업데이트해야 합니다. 이를 수행하려면 모든 쿼럼 장치를 제거하고 전역 장치 이름 공간을 업데이트합니다. 계속 사용하려는 쿼럼 장치를 선택적으로 재구성할 수 있습니다. 이 업데이트로 각 쿼럼 장치에 새 노드가 등록되고 각 장치는 클러스터의 새 노드 수를 기반으로 해당 투표 수를 다시 계산할 수 있습니다.

새로 구성된 SCSI 쿼럼 장치는 SCSI-3 예약으로 설정됩니다.

시작하기 전에

추가된 노드에서 Oracle Solaris Cluster 소프트웨어 설치를 완료했는지 확인합니다.

  1. 클러스터의 임의 노드에서 수퍼유저로 전환합니다.
  2. 모든 클러스터 노드가 온라인 상태인지 확인합니다.
    phys-schost# cluster status -t node
  3. 현재 쿼럼 구성을 확인합니다.

    명령 출력에는 각 쿼럼 장치와 각 노드가 나열됩니다. 다음 출력 예에서는 현재 SCSI 쿼럼 장치 d3을 보여 줍니다.

    phys-schost# clquorum list
    d3
    …
  4. 나열된 각 쿼럼 장치의 이름을 적어둡니다.
  5. 원본 쿼럼 장치를 제거합니다.

    구성되는 각 쿼럼 장치에 대해 이 단계를 수행합니다.

    phys-schost# clquorum remove device-name
    device-name

    쿼럼 장치의 이름을 지정합니다.

  6. 원본 쿼럼 장치가 모두 제거되었는지 확인합니다.

    쿼럼 장치가 성공적으로 제거되면 쿼럼 장치가 나열되지 않습니다.

    phys-schost# clquorum status
  7. 전역 장치 이름 공간을 업데이트합니다.
    phys-schost# cldevice populate

    주 - 이 단계는 잠재적 노드 패닉을 예방하는 데 필수적입니다.


  8. 쿼럼 장치를 추가하기 전에 각 노드에서 cldevice populate 명령의 처리가 완료되었는지 확인합니다.

    cldevice populate 명령은 하나의 노드에서만 실행해도 모든 노드에서 원격으로 실행됩니다. cldevice populate 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행합니다.

    phys-schost# ps -ef | grep scgdevs
  9. (옵션) 쿼럼 장치를 추가합니다.

    처음에 쿼럼 장치로 구성된 것과 동일한 장치를 구성하거나 구성할 새 공유 장치를 선택할 수 있습니다.

    1. (옵션) 새 공유 장치를 쿼럼 장치로 구성하도록 선택하려면 시스템에서 검사한 모든 장치를 표시하고 출력에서 공유 장치를 선택합니다.
      phys-schost# cldevice list -v

      다음과 비슷한 결과가 출력됩니다:

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0 
      …
    2. 공유 장치를 쿼럼 장치로 구성합니다.
      phys-schost# clquorum add -t type device-name
      -t type

      쿼럼 장치의 유형을 지정합니다. 이 옵션을 지정하지 않으면 기본 유형 shared_disk가 사용됩니다.

    3. 구성할 각 쿼럼 장치에 대해 반복합니다.
    4. 새 쿼럼 구성을 확인합니다.
      phys-schost# clquorum list

      각 쿼럼 장치 및 각 노드가 출력되어야 합니다.

예 3-4 2 노드 클러스터에 노드를 추가한 후 SCSI 쿼럼 장치 업데이트

다음 예에서는 원본 SCSI 쿼럼 장치 d2를 식별하고 해당 쿼럼 장치를 제거하여 사용 가능한 공유 장치를 나열하며 전역 장치 이름 공간을 업데이트하고 d3을 새 SCSI 쿼럼 장치로 구성한 후 새 장치를 확인합니다.

phys-schost# clquorum list
d2
phys-schost-1
phys-schost-2

phys-schost# clquorum remove d2
phys-schost# clquorum status
…
--- Quorum Votes by Device ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------

phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
…
d3                  phys-schost-2:/dev/rdsk/c1t1d0
d3                  phys-schost-1:/dev/rdsk/c1t1d0
…
phys-schost# cldevice populate
phys-schost# ps -ef - grep scgdevs
phys-schost# clquorum add d3
phys-schost# clquorum list
d3
phys-schost-1
phys-schost-2

다음 순서

쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.

쿼럼 장치를 구성하는 방법


주 - 다음과 같은 환경에서는 쿼럼 장치를 구성하지 않아도 됩니다.

클러스터를 설정할 때 자동 쿼럼 구성을 선택한 경우 이 절차를 수행하지 마십시오. 대신 쿼럼 구성 및 설치 모드를 확인하는 방법을 진행합니다.


이 절차는 새 클러스터가 완전히 구성된 후 한 번만 수행하면 됩니다. 이 절차를 사용하여 쿼럼 투표 수를 할당한 다음 설치 모드에서 클러스터를 제거합니다.

시작하기 전에

  1. 다음 조건이 모두 적용되면 공용 네트워크 주소에 올바른 접두어 길이가 설정되어 있는지 확인합니다.
    • 쿼럼 서버를 사용하려는 경우

    • 공용 네트워크에서 CIDR(Classless Inter Domain Routing)이라고도 하는 가변 길이 서브넷 마스크를 사용하는 경우

    # ipadm show-addr
        ADDROBJ           TYPE     STATE        ADDR
        lo0/v4            static   ok           127.0.0.1/8
        ipmp0/v4          static   ok           10.134.94.58/24 

    주 - 쿼럼 서버를 사용하지만 공용 네트워크에서 RFC 791에 정의된 classful 서브넷을 사용하는 경우 이 단계를 수행할 필요가 없습니다.


  2. 한 노드에서 수퍼유저로 전환합니다.

    다른 방법으로, 사용자 계정이 System Administrator 프로파일에 지정된 경우 프로파일 쉘을 통해 비루트로 명령을 실행하거나 pfexec 명령을 사용하여 앞에 접두어를 붙입니다.

  3. 모든 클러스터 노드가 온라인 상태인지 확인합니다.
    phys-schost# cluster status -t node
  4. 공유 디스크를 쿼럼 장치로 사용하려면 클러스터 노드와의 장치 연결을 확인하고 구성할 장치를 선택합니다.
    1. 시스템에서 검사한 모든 장치 목록을 클러스터의 한 노드에서 표시합니다.

      이 명령을 실행하기 위해 수퍼유저로 로그인할 필요가 없습니다.

      phys-schost-1# cldevice list -v

      다음과 비슷한 결과가 출력됩니다:

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0
      …
    2. 클러스터 노드 및 저장 장치 간의 모든 연결이 출력되는지 확인합니다.
    3. 쿼럼 장치로 구성할 각 공유 디스크의 전역 장치 ID를 확인합니다.

      주 - 선택한 공유 디스크가 쿼럼 장치로 사용하는 데 적합해야 합니다. 쿼럼 장치 선택에 대한 자세한 내용은 쿼럼 장치를 참조하십시오.


      단계 acldevice 출력을 사용하여 쿼럼 장치로 구성할 각 공유 디스크의 장치 ID를 식별합니다. 예를 들어 단계 a의 출력에는 전역 장치 d3phys-schost-1 phys-schost-2에서 공유되는 것으로 표시됩니다.

  5. SCSI 프로토콜을 지원하지 않는 공유 디스크를 사용하려면 해당 공유 디스크에 대해 보호(fencing)가 비활성화되어 있어야 합니다.
    1. 개별 디스크의 보호(fencing) 설정을 표시합니다.
      phys-schost# cldevice show device
      
      === DID Device Instances ===
      DID Device Name:                                      /dev/did/rdsk/dN
      …
        default_fencing:                                     nofencing
      • 디스크에 대한 보호(fencing)가 nofencing 또는 nofencing-noscrub으로 설정되어 있으면 해당 디스크에 대해 보호(fencing)가 비활성화됩니다. 단계 6으로 이동합니다.
      • 디스크에 대한 보호(fencing)가 pathcount 또는 scsi로 설정되어 있으면 해당 디스크에 대해 보호(fencing)를 사용 안함으로 설정합니다. 단계 c로 이동합니다.
      • 디스크에 대해 보호(fencing)가 global로 설정되어 있으면 보호(fencing)가 전역으로 비활성화되었는지 여부도 확인합니다. 단계 b로 이동합니다.

        또는 개별 디스크에 대해서만 보호(fencing)를 비활성화하여 global_fencing 등록 정보가 설정된 값에 관계없이 해당 디스크에 대한 값을 무시할 수 있습니다. 개별 디스크에 대해 보호(fencing)를 비활성화하려면 단계 c로 건너뛰십시오.

    2. 보호(fencing)가 전역으로 비활성화되었는지 여부를 확인합니다.
      phys-schost# cluster show -t global
      
      === Cluster ===
      Cluster name:                                         cluster
      …
         global_fencing:                                      nofencing
      • 전역 보호(fencing)가 nofencing 또는 nofencing-noscrub으로 설정되어 있으면 default_fencing 등록 정보가 global로 설정된 공유 디스크에 대한 보호(fencing)가 비활성화됩니다. 단계 6으로 이동합니다.
      • 전역 보호(fencing)가 pathcount 또는 prefer3으로 설정되어 있으면 공유 디스크에 대한 보호(fencing)를 사용 안함으로 설정합니다. 단계 c로 이동합니다.

      주 - 개별 디스크의 default_fencing 등록 정보가 global로 설정된 경우 해당 개별 디스크에 대한 보호(fencing)는 클러스터 전체의 global_fencing 등록 정보가 nofencing 또는 nofencing-noscrub으로 설정된 경우에만 비활성화됩니다. 보호(fencing)를 활성화하는 값으로 global_fencing 등록 정보를 변경하면 default_fencing 등록 정보가 global로 설정된 모든 디스크에 대해 보호(fencing)가 활성화됩니다.


    3. 공유 디스크에 대해 보호(fencing)를 비활성화합니다.
      phys-schost# cldevice set \
      -p default_fencing=nofencing-noscrub device
    4. 공유 디스크에 대해 보호(fencing)가 비활성화되어 있는지 확인합니다.
      phys-schost# cldevice show device
  6. clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    Initial Cluster Setup(초기 클러스터 설정) 화면이 표시됩니다.


    주 - 주 메뉴가 대신 표시되면 초기 클러스터 설정이 이미 성공적으로 수행된 것입니다. 단계 11로 건너뜁니다.


  7. 쿼럼 디스크를 추가할지 여부를 나타냅니다.
    • 클러스터가 2 노드 클러스터인 경우 하나 이상의 공유 쿼럼 장치를 구성해야 합니다. 하나 이상의 쿼럼 장치를 구성하려면 Yes를 입력합니다.
    • 클러스터에 세 개 이상의 노드가 있으면 쿼럼 장치 구성은 선택 사항입니다.
      • 추가 쿼럼 장치를 구성하지 않으려면 No를 입력합니다. 그런 다음 단계 10으로 건너뜁니다.
      • 추가 쿼럼 장치를 구성하려면 Yes를 입력합니다.
  8. 쿼럼 장치로 구성할 장치 유형을 지정합니다.
    쿼럼 장치 유형
    설명
    shared_disk
    다음 위치의 공유 LUN:
    • 공유 SCSI 디스크

    • SATA(Serial Attached Technology Attachment) 저장소

    • Sun ZFS 저장소 어플라이언스

    quorum_server
    쿼럼 서버
  9. 쿼럼 장치로 구성할 장치의 이름을 지정하고 필요한 추가 정보를 제공합니다.
    • 쿼럼 서버의 경우에도 다음 정보를 지정합니다.

      • 쿼럼 서버 호스트의 IP 주소

      • 클러스터 노드와 통신하기 위해 쿼럼 서버에서 사용하는 포트 번호

  10. installmode를 재설정할지 물으면 Yes를 입력합니다.

    clsetup 유틸리티에서 클러스터에 대해 쿼럼 구성 및 투표 수를 설정하면 클러스터 초기화가 완료되었습니다라는 메시지가 표시됩니다. 주 메뉴로 돌아갑니다.

  11. clsetup 유틸리티를 종료합니다.

다음 순서

쿼럼 구성을 확인하고 설치 모드가 비활성화되어 있는지 확인합니다. 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.

일반 오류

중단된 clsetup 처리 – 쿼럼 설치 프로세스가 중단되거나 성공적으로 완료되지 않으면 clsetup을 다시 실행합니다.

쿼럼 투표 수 변경 – 쿼럼 장치에 첨부되는 노드 수를 나중에 늘리거나 줄이면 쿼럼 투표 수가 자동으로 다시 계산되지 않습니다. 각 쿼럼 장치를 제거한 다음 한 번에 쿼럼 장치 하나씩 구성에 다시 추가하여 정확한 쿼럼 투표 수를 재설정할 수 있습니다. 2 노드 클러스터의 경우 원래 쿼럼 장치를 제거했다가 다시 추가하기 전에 새 쿼럼 장치를 임시로 추가합니다. 그런 다음 임시 쿼럼 장치를 제거합니다. Oracle Solaris Cluster 시스템 관리 설명서의 6 장, 쿼럼 관리에서 "How to Modify a Quorum Device Node List" 절차를 참조하십시오.

연결할 수 없는 쿼럼 장치 – 쿼럼 장치에 연경할 수 없다는 메시지가 클러스터 노드에 표시되거나 클러스터 노드 오류가 CMM: Unable to acquire the quorum device라는 메시지와 함께 표시되면 쿼럼 장치 또는 해당 장치 경로에 문제가 있을 수 있습니다. 쿼럼 장치와 해당 장치 경로가 작동하는지 확인하십시오.

문제가 지속되면 다른 쿼럼 장치를 사용하십시오. 또는 동일한 쿼럼 장치를 사용하려면 다음과 같이 쿼럼 시간 초과를 높은 값으로 늘리십시오.


주 - Oracle RAC(Oracle Real Application Clusters)의 경우 기본 쿼럼 시간 초과 25초를 변경하지 마십시오. 특정 정보 분리(split-brain) 시나리오에서는 시간 초과 기간이 길어지면 VIP 자원 시간이 초과되어 Oracle RAC VIP 페일오버가 실패할 수 있습니다. 사용 중인 쿼럼 장치에서 기본 25초 시간 초과를 준수하지 않는 경우 다른 쿼럼 장치를 사용하십시오.


쿼럼 구성 및 설치 모드를 확인하는 방법

쿼럼 구성이 성공적으로 완료되었는지, 클러스터 설치 모드가 사용 안함으로 설정된 상태인지 확인하려면 이 절차를 수행합니다.

이러한 명령을 실행하기 위해 수퍼유저로 전환할 필요는 없습니다.

  1. 전역 클러스터 노드에서 장치 및 노드 쿼럼 구성을 확인합니다.
    phys-schost$ clquorum list

    각 쿼럼 장치 및 각 노드가 출력됩니다.

  2. 임의 노드에서 클러스터 설치 모드가 비활성 상태인지 확인합니다.
    phys-schost$ cluster show -t global | grep installmode
      installmode:                                    disabled

    클러스터 설치 및 만들기가 완료되었습니다.

다음 순서

아래 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 확인합니다. 이 목록에서 둘 이상의 작업을 수행해야 하는 경우 해당 작업 중 첫번째 작업으로 이동합니다.

참조

클러스터 구성을 백업합니다.

클러스터 구성의 아카이브된 백업을 사용하면 클러스터 구성을 더 쉽게 복구할 수 있습니다. 자세한 내용은 Oracle Solaris Cluster 시스템 관리 설명서의 클러스터 구성을 백업하는 방법을 참조하십시오.

개인 호스트 이름을 변경하는 방법

Oracle Solaris Cluster 소프트웨어를 설치할 때 지정되는 기본 개인 호스트 이름 clusternodenodeID-priv를 사용하지 않으려면 이 작업을 수행합니다.


주 - 응용 프로그램과 데이터 서비스가 구성되어 시작된 후에는 이 절차를 수행하지 마십시오. 구성되어 시작된 후 이 작업을 수행하면 개인 호스트 이름이 변경된 후에도 응용 프로그램이나 데이터 서비스에서 이전의 개인 호스트 이름을 계속 사용하여 호스트 이름 충돌이 발생할 수 있습니다. 응용 프로그램이나 데이터 서비스가 실행되고 있으면 중지한 후 이 절차를 수행하십시오.


클러스터의 한 활성 노드에 대해 이 절차를 수행합니다.

  1. 전역 클러스터 노드에서 수퍼유저로 전환합니다.
  2. clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    clsetup 주 메뉴가 표시됩니다.

  3. 개인 호스트 이름에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.

    Private Hostname(개인 호스트 이름) 메뉴가 표시됩니다.

  4. 노드 개인 호스트이름 변경에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.
  5. 화면의 지시에 따라 개인 호스트 이름을 변경합니다.

    변경할 각 개인 호스트 이름에 대해 반복합니다.

  6. 새 개인 호스트 이름을 확인합니다.
    phys-schost# clnode show -t node | grep privatehostname
      privatehostname:                                clusternode1-priv
      privatehostname:                                clusternode2-priv
      privatehostname:                                clusternode3-priv

다음 순서

NTP 구성을 변경된 개인 호스트 이름으로 업데이트합니다. 개인 호스트 이름을 변경한 후에 NTP를 업데이트하는 방법으로 이동합니다.

NTP(Network Time Protocol) 구성

이 절에서는 다음 절차에 대해 설명합니다.

고유의 /etc/inet/ntp.conf 파일을 사용하는 방법


주 - Oracle Solaris Cluster 소프트웨어를 설치하기 전에 사용자 고유의 /etc/inet/ntp.conf 파일을 설치한 경우에는 이 절차를 수행할 필요가 없습니다. 클러스터의 유효성을 검사하는 방법으로 진행합니다.


  1. 클러스터 노드에서 수퍼유저로 전환합니다.
  2. 클러스터의 각 노드에 /etc/inet/ntp.conf 파일을 추가합니다.
  3. 각 노드에서 NTP 서비스의 상태를 확인합니다.
    phys-schost# svcs svc:/network/ntp:default
  4. 각 노드에서 NTP 데몬을 시작합니다.
    • NTP 서비스가 disabled인 경우 서비스를 사용으로 설정합니다.
      phys-schost# svcadm enable svc:/network/ntp:default
    • NTP 서비스가 online인 경우 서비스를 다시 시작합니다.
      phys-schost# svcadm restart svc:/network/ntp:default

다음 순서

아래 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 확인합니다. 이 목록에서 둘 이상의 작업을 수행해야 하는 경우 해당 작업 중 첫번째 작업으로 이동합니다.

단일 노드 클러스터에 노드를 추가한 후에 NTP를 설치하는 방법

단일 노드 클러스터에 노드를 추가한 경우에는 사용한 NTP 구성 파일이 새 노드 및 원래 클러스터 노드에 복사되었는지 확인해야 합니다.

  1. 클러스터 노드에서 수퍼유저로 전환합니다.
  2. 추가된 노드에서 원래 클러스터 노드로 /etc/inet/ntp.conf/etc/inet/ntp.conf.sc 파일을 복사합니다.

    이러한 파일은 추가된 노드가 클러스터로 구성되었을 때 추가된 노드에 생성되었습니다.

  3. 원래 클러스터 노드에서 /etc/inet/ntp.conf.sc 파일을 가리키는 /etc/inet/ntp.conf.include라는 심볼 링크를 만듭니다.
    phys-schost# ln -s /etc/inet/ntp.conf.sc /etc/inet/ntp.conf.include
  4. 각 노드에서 NTP 서비스의 상태를 확인합니다.
    phys-schost# svcs svc:/network/ntp:default
  5. 각 노드에서 NTP 데몬을 시작합니다.
    • NTP 서비스가 disabled인 경우 서비스를 사용으로 설정합니다.
      phys-schost# svcadm enable svc:/network/ntp:default
    • NTP 서비스가 online인 경우 서비스를 다시 시작합니다.
      phys-schost# svcadm restart svc:/network/ntp:default

다음 순서

아래 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 확인합니다. 이 목록에서 둘 이상의 작업을 수행해야 하는 경우 해당 작업 중 첫번째 작업으로 이동합니다.

개인 호스트 이름을 변경한 후에 NTP를 업데이트하는 방법

  1. 클러스터 노드에서 수퍼유저로 전환합니다.
  2. 클러스터의 각 노드에서 /etc/inet/ntp.conf.sc 파일을 변경된 개인 호스트 이름으로 업데이트합니다.
  3. 각 노드에서 NTP 서비스의 상태를 확인합니다.
    phys-schost# svcs svc:/network/ntp:default
  4. 각 노드에서 NTP 데몬을 시작합니다.
    • NTP 서비스가 disabled인 경우 서비스를 사용으로 설정합니다.
      phys-schost# svcadm enable svc:/network/ntp:default
    • NTP 서비스가 online인 경우 서비스를 다시 시작합니다.
      phys-schost# svcadm restart svc:/network/ntp:default

다음 순서

아래 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 확인합니다. 이 목록에서 둘 이상의 작업을 수행해야 하는 경우 해당 작업 중 첫번째 작업으로 이동합니다.

클러스터의 유효성을 검사하는 방법

클러스터의 모든 구성을 완료한 후 cluster check 명령을 사용하여 클러스터 구성 및 기능의 유효성을 검사합니다. 자세한 내용은 cluster(1CL) 매뉴얼 페이지를 참조하십시오.


참고 - 나중에 쉽게 참조하거나 문제를 해결하려면 각 유효성 검사를 실행할 때 -o outputdir 옵션을 사용하여 로그 파일의 하위 디렉토리를 지정합니다. 기존 하위 디렉토리 이름을 다시 사용하면 하위 디렉토리의 기존 파일이 모두 제거됩니다. 따라서 나중에 로그 파일을 참조하려면 실행되는 각 클러스터 검사에 대해 고유한 하위 디렉토리 이름을 지정합니다.


시작하기 전에

펌웨어 및 소프트웨어 업데이트를 포함하여 클러스터의 모든 하드웨어 및 소프트웨어 구성 요소의 설치와 구성을 완료했는지 확인합니다.

  1. 클러스터의 노드에서 수퍼유저로 전환합니다.
  2. 최신 검사가 있는지 확인합니다.
    1. My Oracle Support의 Patches & Updates(패치 & 업데이트) 탭으로 이동합니다.
    2. Advanced Search(고급 검색)에서 Product(제품)로 Solaris Cluster를 선택하고 Description(설명) 필드에 check를 입력합니다.

      검색에서 check가 포함된 Oracle Solaris Cluster 소프트웨어 업데이트를 찾습니다.

    3. 아직 클러스터에 설치되지 않은 소프트웨어 업데이트를 적용합니다.
  3. 기본 유효성 검사를 실행합니다.
    # cluster check -v -o outputdir
    -v

    상세 정보 모드입니다.

    -o outputdir

    outputdir 하위 디렉토리로 출력을 리디렉션합니다.

    이 명령은 사용 가능한 모든 기본 검사를 실행합니다. 클러스터 기능은 영향을 받지 않습니다.

  4. 대화식 유효성 검사를 실행합니다.
    # cluster check -v -k interactive -o outputdir
    -k interactive

    실행 중인 대화식 유효성 검사를 지정합니다.

    이 명령은 사용 가능한 대화식 검사를 모두 실행하고 클러스터에 대해 필요한 정보를 요구합니다. 클러스터 기능은 영향을 받지 않습니다.

  5. 기능 유효성 검사를 실행합니다.
    1. 간단한 표시 모드로 사용 가능한 기능 검사를 모두 나열합니다.
      # cluster list-checks -k functional
    2. 기능 검사에서 생산 환경의 클러스터 가용성 또는 서비스를 방해하는 작업을 수행하는지 확인합니다.

      예를 들어 기능 검사를 수행하면 노드 패닉이 발생하거나 다른 노드로 페일오버될 있습니다.

      # cluster list-checks -v -C check-ID
      -C check-ID

      특정 검사를 지정합니다.

    3. 수행하려는 기능 검사에서 클러스터 작동을 방해할 수 있는 경우 클러스터가 생산 환경에 없는지 확인합니다.
    4. 기능 검사를 시작합니다.
      # cluster check -v -k functional -C check-ID -o outputdir
      -k functional

      실행 중인 기능 유효성 검사를 지정합니다.

      검사에서 표시되는 메시지에 응답하여 검사가 실행되도록 하고 모든 정보 또는 수행해야 하는 작업을 확인합니다.

    5. 나머지 각 기능 검사를 실행하려면 단계 c단계 d를 반복합니다.

      주 - 레코드 유지를 위해 실행한 각 검사에 대해 고유한 outputdir 하위 디렉토리 이름을 지정합니다. outputdir 이름을 다시 사용하면 새 검사의 출력이 다시 사용된 outputdir 하위 디렉토리의 기존 내용을 덮어씁니다.


예 3-5 대화식 유효성 검사 나열

다음 예에는 클러스터에서 실행하는 데 사용할 수 있는 모든 대화식 검사가 나열되어 있습니다. 예제 출력에서는 가능한 검사의 표본 추출을 보여 주며 실제로 사용 가능한 검사는 각 구성에 따라 다릅니다.

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

예 3-6 기능 유효성 검사 실행

다음 예에서는 먼저 자세한 기능 검사 목록을 보여 줍니다. 그런 다음 F6968101 검사에 대한 자세한 설명을 나열하며, 검사에 의해 클러스터 서비스가 중단됨을 나타냅니다. 클러스터는 생산 환경에서 가져옵니다. 그러면 기능 검사가 실행되고 자세한 출력이 funct.test.F6968101.12Jan2011 하위 디렉토리에 기록됩니다. 예제 출력에서는 가능한 검사의 표본 추출을 보여 주며 실제로 사용 가능한 검사는 각 구성에 따라 다릅니다.

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

다음 순서

클러스터를 생산 환경으로 전환하기 전에 나중에 진단에 사용할 수 있도록 클러스터 구성의 기본 기록을 만듭니다. 클러스터 구성의 진단 데이터를 기록하는 방법으로 이동합니다.

클러스터 구성의 진단 데이터를 기록하는 방법

전역 클러스터 구성을 완료한 후 생산 환경으로 전환하기 전에 Oracle Explorer 유틸리티를 사용하여 클러스터에 대한 기본 정보를 기록합니다. 이 데이터는 나중에 클러스터 문제를 해결해야 할 경우에 사용할 수 있습니다.

  1. 수퍼유저로 전환합니다.
  2. 아직 설치되지 않은 경우 Oracle Explorer 소프트웨어를 설치합니다.

    서비스 도구 번들에는 Oracle Explorer 패키지 SUNWexploSUNWexplu가 들어 있습니다. 소프트웨어 다운로드 및 설치 정보는 http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html을 참조하십시오.

  3. 클러스터의 각 노드에서 explorer 유틸리티를 실행합니다.

    플랫폼에 적합한 명령을 사용합니다. 예를 들어, Oracle의 Sun Fire T1000 서버에 대한 정보를 수집하려면 다음 명령을 실행합니다.

    # explorer -i -w default,Tx000

    자세한 내용은 /opt/SUNWexplo/man/man1m/ 디렉토리의 explorer(1M) 매뉴얼 페이지와 My Oracle Support에서 노트 1153444.1을 통해 제공되는 Oracle Explorer Data Collector User Guide를 참조하십시오.

    https://support.oracle.com

    explorer 출력 파일은 /opt/SUNWexplo/output/ 디렉토리에 explorer.hostid. hostname-date.tar.gz로 저장됩니다.

  4. 전체 클러스터가 다운된 경우 액세스할 수 있는 위치에 파일을 저장합니다.
  5. 사용자의 거주 지역에 해당하는 Oracle Explorer 데이터베이스로 explorer 파일을 모두 전송합니다.

    Oracle Explorer Data Collector User's Guide의 절차에 따라 FTP 또는 HTTPS를 사용하여 Oracle Explorer 파일을 제출합니다.

    사용자 클러스터의 기술 문제를 진단하는 데 데이터가 필요한 경우 Oracle 기술 지원부는 Oracle Explorer 데이터베이스의 explorer 출력을 사용할 수 있습니다.