Solaris OS용 Sun Cluster 소프트웨어 설치 안내서

3장 클러스터 설정

이 장에서는 클러스터 또는 새 클러스터 노드의 설정 방법에 대한 절차를 제공합니다. 이 장에서 설명하는 절차는 다음과 같습니다.

새 클러스터 또는 새 클러스터 노드 설정

이 절에서는 새 클러스터를 설정하거나 기존 클러스터에 노드를 추가하는 것에 대한 정보 및 절차를 제공합니다. 이 작업을 수행하기 전에 소프트웨어 설치에서 설명한 바와 같이 Solaris OS용 소프트웨어 패키지, Sun Cluster 프레임워크 및 기타 제품이 설치되었는지 확인합니다.


주 –

또는 Sun N1TM Service Provisioning System용 Sun Cluster 플러그인을 배포하여 다중 노드 클러스터를 만들거나 기존 클러스터에 노드를 추가할 수 있습니다. 플러그인과 함께 제공된 설명서의 지침을 따릅니다. 이 정보는 에서도 확인할 수 있습니다.


다음 작업 맵에서는 수행할 작업을 나열합니다. 표시된 순서대로 절차를 완료하십시오.

표 3–1 작업 맵: 클러스터 설정

방법 

지침 

1. 다음 방법 중 하나를 사용하여 새 클러스터를 설정하거나 기존 클러스터에 노드를 추가합니다. 

  • (새 클러스터만 해당) scinstall 유틸리티를 사용하여 클러스터를 설정합니다.

모든 노드에 Sun Cluster 소프트웨어를 구성하는 방법(scinstall)

  • (새 클러스터만 해당) XML 구성 파일을 사용하여 클러스터를 설정합니다.

모든 노드에 Sun Cluster 소프트웨어를 구성하는 방법(XML)

  • (새 클러스터 또는 추가된 노드) JumpStart 설치 서버를 설정합니다. 그런 다음 설치된 시스템의 플래시 아카이브를 만듭니다. 마지막으로 scinstall JumpStart 옵션을 사용하여 플래시 아카이브를 각 노드에 설치하고 클러스터를 설정합니다.

Solaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)

  • (추가된 노드만 해당) clsetup 명령을 사용하여 클러스터 인증된 노드 목록에 새 노드를 추가합니다. 필요한 경우, 클러스터 상호 연결도 구성하고 개인 네트워크 주소 범위를 재구성합니다.

    scinstall 유틸리티 또는 XML 구성 파일을 사용하여 새 노드에 Sun Cluster 소프트웨어를 구성합니다.

추가 클러스터 노드를 위한 클러스터 준비 방법

노드 또는 개인 네트워크를 추가할 때 개인 네트워크 구성을 변경하는 방법

추가 클러스터 노드에 Sun Cluster 소프트웨어를 구성하는 방법(scinstall)

추가 클러스터 노드에 Sun Cluster 소프트웨어를 구성하는 방법(XML)

2. 클러스터에 노드를 추가한 경우, 쿼럼 구성 정보를 업데이트합니다. 

클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법

3. 쿼럼 투표가 지정되지 않고 설치 모드에서 클러스터가 제거되지 않은 경우 이 작업을 수행합니다. 

쿼럼 장치를 구성하는 방법

4. 쿼럼 구성을 확인합니다. 

쿼럼 구성 및 설치 모드 확인 방법

5. (선택 사항) 노드의 개인 호스트 이름을 변경합니다.

개인 호스트 이름을 변경하는 방법

6. NTP 구성 파일이 아직 구성되지 않은 경우, 구성 파일을 만들거나 수정합니다. 

NTP (Network Time Protocol)를 구성하는 방법

7. 볼륨 관리자를 사용하는 중이면 볼륨 관리 소프트웨어를 설치합니다. 

4 장, Solaris Volume Manager 소프트웨어 구성 또는 5 장, VERITAS Volume Manager 설치 및 구성

8. 필요에 따라 클러스터 파일 시스템이나 고가용성 로컬 파일 시스템을 만듭니다. 

클러스터 파일 시스템 만드는 방법 또는 Sun Cluster Data Services Planning and Administration Guide for Solaris OSEnabling Highly Available Local File Systems

9. (선택 사항) SPARC: 클러스터를 모니터링하도록 Sun Management Center를 구성합니다.

SPARC: Sun Management Center용 Sun Cluster 모듈 설치

10. 타사 응용 프로그램을 설치하고, 자원 유형을 등록하고, 자원 그룹을 설정하고, 데이터 서비스를 구성합니다. 

Sun Cluster Data Services Planning and Administration Guide for Solaris OS

응용 프로그램 소프트웨어와 함께 제공되는 설명서 

11. 완료된 클러스터 구성의 기본 기록을 가져옵니다. 

클러스터 구성의 진단 데이터를 기록하는 방법

Procedure모든 노드에 Sun Cluster 소프트웨어를 구성하는 방법(scinstall)

클러스터의 모든 노드에 Sun Cluster 소프트웨어를 구성하려면 클러스터 노드 중 하나에서 이 절차를 수행합니다.


주 –

이 절차에서는 대화식 scinstall 명령을 사용합니다. 설치 스크립트를 개발할 때와 같이 비대화식 scinstall 명령을 사용하려면 scinstall(1M) 매뉴얼 페이지를 참조하십시오.

scinstall 명령을 실행하기 전, 노드에 Sun Cluster 소프트웨어 패키지가 수동으로 설치되었는지 또는 Java ES installer 프로그램의 자동 모드를 사용하여 설치되었는지 확인합니다. 설치 스크립트에서 Java ES installer 프로그램을 실행하는 데 대한 자세한 내용은 Sun Java Enterprise System 5 Installation Guide for UNIX의 5 장, Installing in Silent Mode를 참조하십시오.


시작하기 전에

다음 작업을 수행합니다.

이번 절차에서는 아래 지침대로 대화식 scinstall 유틸리티를 사용합니다.

  1. Sun Cluster 소프트웨어를 설치하는 동안 원격 구성을 비활성화한 경우, 원격 구성을 다시 활성화합니다.

    모든 클러스터 노드에 수퍼유저를 위한 원격 쉘(rsh(1M)) 또는 보안 쉘(ssh(1)) 액세스 를 활성화합니다.

  2. 새 클러스터의 개인 상호 연결에서 스위치를 사용할 경우 인접 노드 탐색 프로토콜(Neighbor Discovery Protocol, NDP)이 비활성화되었는지 확인합니다.

    사용하는 스위치의 설명서에 나온 절차에 따라 NDP가 활성화되었는지 확인하고 활성화된 경우 NDP를 비활성화합니다.

    클러스터 구성 중에 소프트웨어가 개인 상호 연결에 트래픽이 없는지 검사합니다. 개인 상호 연결에서 트래픽을 검사하는 중에 NDP가 개인 어댑터에 패키지를 보낼 경우 상호 연결은 개인 상호 연결이 아닌 것으로 간주되고 클러스터 구성은 중단됩니다. 따라서 클러스터 생성 중에 NDP를 비활성화해야 합니다.

    클러스터가 설정된 후 NDP 기능을 사용하려는 경우 개인 상호 연결 스위치에서 NDP를 다시 활성화할 수 있습니다.

  3. 클러스터를 구성하려는 클러스터 노드에서 수퍼유저로 전환합니다.

  4. scinstall 유틸리티를 시작하십시오.


    phys-schost# /usr/cluster/bin/scinstall
    
  5. Create a New Cluster or Add a Cluster Node에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.


     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  1
    

    새 클러스터 및 클러스터 노드 메뉴가 표시됩니다.

  6. Create a New Cluster에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.

    일반 또는 사용자 정의 모드 메뉴가 표시됩니다.

  7. Typical 또는 Custom에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.

    "새 클러스터 생성" 화면이 표시됩니다. 요구 사항을 읽은 다음 Ctrl-D를 눌러 계속 진행합니다.

  8. 메뉴 프롬프트에 따라 구성 계획 워크시트에 답변을 입력합니다.

    scinstall 유틸리티가 모든 클러스터 노드를 설치 및 구성하고 클러스터를 재부트합니다. 모든 노드가 성공적으로 클러스터에 부트했을 때 클러스터가 설정됩니다. Sun Cluster 설치 출력이 /var/cluster/logs/install/scinstall.log.N 파일에 기록됩니다.

  9. Solaris 10 OS의 경우, 각 노드에서 서비스 관리 기능(Service Management Facility, SMF)의 다중 사용자 서비스가 온라인인지 확인합니다.

    서비스가 노드에 대해 아직 온라인 상태가 아니라면 다음 단계로 진행하기에 앞서 온라인 상태가 될 때까지 기다립니다.


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. 아무 노드에서나 수퍼유저로 전환합니다.

  11. 모든 노드가 클러스터에 연결되었는지 확인하십시오.


    phys-schost# clnode status
    

    다음과 비슷한 결과가 출력됩니다.


    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

  12. (옵션) 모니터링된 모든 디스크 경로가 실패할 경우, 자동 노드 재부트를 활성화합니다.

    1. 자동 재부트 기능을 활성화합니다.


      phys-schost# clnode set -p reboot_on_path_failure=enabled 
      
      -p

      설정하려는 등록 정보 지정

      reboot_on_path_failure=enable

      클러스터의 다른 노드에서 최소 한 개의 디스크에 액세스할 수 있는 상황에서, 모든 모니터되는 디스크 경로가 실패할 경우 해당 노드를 재부트하도록 지정합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  13. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하려면 루프백 파일 시스템(Loopback File System, LOFS)을 비활성화해야 합니다.

    LOFS를 비활성화하려면 다음 항목을 클러스터의 각 노드에서 /etc/system 파일에 추가합니다.


    exclude:lofs

    /etc/system 파일에 대한 변경 사항은 다음 번에 시스템이 부트된 후 적용됩니다.


    주 –

    고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하고 또한 automountd가 실행 중이라면 LOFS를 활성화할 수 없습니다. LOFS는 Sun Cluster HA for NFS에서 스위치오버 문제를 유발할 수 있습니다. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 추가하도록 선택한 경우 다음의 구성 중 하나를 변경해야 합니다.

    그러나, 클러스터에서 비전역 영역을 구성하는 경우, 모든 클러스터 노드에서 LOFS를 활성화해야 합니다. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS와 LOFS가 동시에 존재해야 하는 경우, LOFS를 비활성화하는 대신 다른 해결 방법을 사용하십시오.

    • LOFS를 비활성화합니다.

    • automountd 데몬을 비활성화합니다.

    • Sun Cluster HA for NFS에서 내보낸 가용성 높은 로컬 파일 시스템에 속한 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 사용 가능한 상태로 유지할 수 있습니다.


    루프백 파일 시스템에 대한 자세한 내용은 System Administration Guide: Devices and File SystemsThe Loopback File System(Solaris 9 또는 Solaris 10)을 참조하십시오.


예 3–1 모든 노드에서 Sun Cluster 소프트웨어 구성

다음은 scinstall이 2 노드 클러스터 schost에서 구성 작업을 완료할 때 기록되는 scinstall 진행률 메시지의 예입니다. 클러스터는 scinstall 일반 모드를 사용하여 phys-schost-1에서 설치됩니다. 기타 클러스터 노드는 phys-schost-2입니다. 어댑터 이름은 qfe2qfe3입니다. 쿼럼 장치의 자동 선택이 활성화됩니다.


  Installation and Configuration

    Log file - /var/cluster/logs/install/scinstall.log.24747

    Testing for "/globaldevices" on "phys-schost-1" … done
    Testing for "/globaldevices" on "phys-schost-2" … done
    Checking installation status … done

    The Sun Cluster software is already installed on "phys-schost-1".
    The Sun Cluster software is already installed on "phys-schost-2".
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:qfe2  switch1  phys-schost-2:qfe2
        phys-schost-1:qfe3  switch2  phys-schost-2:qfe3

    Completed discovery of the cluster transport configuration.

    Started sccheck on "phys-schost-1".
    Started sccheck on "phys-schost-2".

    sccheck completed with no errors or warnings for "phys-schost-1".
    sccheck completed with no errors or warnings for "phys-schost-2".

    Removing the downloaded files … done

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

Rebooting …

일반 오류

실패한 구성 - 클러스터와 한 개 이상의 노드를 결합할 수 없는 경우 또는 잘못된 구성 정보가 지정된 경우 맨 먼저 이 절차를 다시 실행합니다. 그래도 문제가 해결되지 않으면, 잘못 구성된 각 노드에서 Sun Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법을 수행하여 잘못 구성된 노드를 클러스터 구성에서 제거합니다. Sun Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음, 본 절차를 재실행합니다.

다음 순서

Procedure모든 노드에 Sun Cluster 소프트웨어를 구성하는 방법(XML)

XML 클러스터 구성 파일을 사용하여 새 클러스터를 구성하려면 이 절차를 수행합니다. 새 클러스터는 Sun Cluster 3.2 2/08 소프트웨어를 실행하는 기존 클러스터의 중복이 될 수 있습니다.

이 절차에서는 다음 클러스터 구성 요소를 구성합니다.

시작하기 전에

다음 작업을 수행하십시오.

  1. Sun Cluster 3.2 2/08 소프트웨어가 각 잠재적 클러스터 노드에 아직 구성되어있지 않은지 확인합니다.

    1. 새 클러스터의 구성하려는 잠재적 노드에서 수퍼유저로 전환합니다.

    2. Sun Cluster 소프트웨어가 잠재적 노드에 이미 구성되었는지 여부를 확인합니다.


      phys-schost# /usr/sbin/clinfo -n
      
      • 이 명령이 다음 메시지를 반환할 경우, 단계 c로 진행합니다.


        clinfo: node is not configured as part of acluster: Operation not applicable

        이 메시지는 Sun Cluster 소프트웨어가 잠재적 노드에 아직 구성되지 않았음을 나타냅니다.

      • 해당 명령이 노드 ID 번호를 반환할 경우 이 절차를 수행하지 마십시오.

        노드 ID의 반환은 Sun Cluster 소프트웨어가 노드에 이미 구성되었음을 나타냅니다.

        클러스터가 Sun Cluster 소프트웨어의 이전 버전을 실행 중이고 사용자가 Sun Cluster 3.2 2/08 소프트웨어를 설치하려는 경우, Sun Cluster Upgrade Guide for Solaris OS의 업그레이드 절차를 대신 수행합니다.

    3. 새 클러스터에 구성하려는 각각의 나머지 잠재적 노드에 단계 a와 단계 b를 반복합니다.

      Sun Cluster 소프트웨어가 잠재적 클러스터 노드에 아직 구성되지 않은 경우, 단계 2로 진행합니다.

  2. 새 클러스터의 개인 상호 연결에서 스위치를 사용할 경우 인접 노드 탐색 프로토콜(Neighbor Discovery Protocol, NDP)이 비활성화되었는지 확인합니다.

    사용하는 스위치의 설명서에 나온 절차에 따라 NDP가 활성화되었는지 확인하고 활성화된 경우 NDP를 비활성화합니다.

    클러스터 구성 중에 소프트웨어가 개인 상호 연결에 트래픽이 없는지 검사합니다. 개인 상호 연결에서 트래픽을 검사하는 중에 NDP가 개인 어댑터에 패키지를 보낼 경우 상호 연결은 개인 상호 연결이 아닌 것으로 간주되고 클러스터 구성은 중단됩니다. 따라서 클러스터 생성 중에 NDP를 비활성화해야 합니다.

    클러스터가 설정된 후 NDP 기능을 사용하려는 경우 개인 상호 연결 스위치에서 NDP를 다시 활성화할 수 있습니다.

  3. Sun Cluster 3.2 2/08 소프트웨어를 실행하는 기존 클러스터를 복제할 경우, 해당 클러스터의 노드를 사용하여 클러스터 구성 XML 파일을 생성합니다.

    1. 복제하려는 활성 클러스터 구성원의 수퍼유저로 전환합니다.

    2. 기존 클러스터의 구성 정보를 파일로 내보냅니다.


      phys-schost# cluster export -o clconfigfile
      
      -o

      출력 대상을 지정합니다.

      clconfigfile

      클러스터 구성 XML 파일의 이름입니다. 지정한 파일 이름은 기존 파일 또는 명령이 생성한 새 파일이 될 수 있습니다.

      자세한 내용은 cluster(1CL) 매뉴얼 페이지를 참조하십시오.

    3. 새 클러스터를 구성할 잠재적 노드에 구성 파일을 복사합니다.

      클러스터 노드로 구성할 다른 호스트에 액세스할 수 있는 디렉토리에 파일을 저장할 수 있습니다.

  4. 새 클러스터의 구성할 잠재적 노드에서 수퍼유저로 전환합니다.

  5. 필요한 경우 클러스터 구성 XML 파일을 수정합니다.

    1. 편집할 클러스터 구성 XML 파일을 엽니다.

      • 기존 클러스터를 복제할 경우, cluster export 명령을 사용하여 생성한 파일을 엽니다.

      • 기존 클러스터를 복제하지 않을 경우, 새 파일을 생성합니다.

        파일은 clconfiguration(5CL) 매뉴얼 페이지에 표시된 요소 계층을 기본으로 합니다. 클러스터 노드로 구성할 다른 호스트에 액세스할 수 있는 디렉토리에 파일을 저장할 수 있습니다.

    2. XML 요소의 값을 수정하여 생성하려는 클러스터 구성을 반영합니다.

      • 클러스터를 설정하려면 다음 구성 요소에 클러스터 구성 XML 파일에 유효한 값이 있어야 합니다.

        • 클러스터 이름

        • 클러스터 노드

        • 클러스터 전송

      • 클러스터는 분할 영역 /globaldevices가 클러스터 노드로 구성한 각 노드에 있다는 가정 하에 생성됩니다. 전역 장치 이름 공간이 이 분할 영역에 생성됩니다. 전역 장치를 만들 다른 파일 시스템 이름을 사용해야 할 경우, 다음 등록 정보를 /globaldevices라는 분할 영역이 없는 각 노드에 대한 <propertyList> 요소에 추가합니다.


        …
          <nodeList>
            <node name="node" id="N">
              <propertyList>
        …
                <property name="globaldevfs" value="/filesystem-name"/>
        …
              </propertyList>
            </node>
        …
      • 기존 클러스터에서 내보낸 구성 정보를 수정할 경우, 노드 이름과 같이 새 클러스터를 반영하도록 변경해야 할 일부 값이 둘 이상의 클러스터 객체의 정의에 사용됩니다.

      클러스터 구성 XML 파일의 구조 및 내용에 대한 자세한 내용은 clconfiguration(5CL) 매뉴얼 페이지를 참조하십시오.

  6. 클러스터 구성 XML 파일을 검증합니다.


    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile
    

    자세한 내용은 xmllint(1) 매뉴얼 페이지를 참조하십시오.

  7. 클러스터 구성 XML 파일이 들어 있는 잠재적 노드에서 클러스터를 생성합니다.


    phys-schost# cluster create -i clconfigfile
    
    -i clconfigfile

    클러스터 구성 XML 파일의 이름을 지정하여 입력 소스로 사용합니다.

  8. Solaris 10 OS의 경우, 각 노드에서 서비스 관리 기능(Service Management Facility, SMF)의 다중 사용자 서비스가 온라인인지 확인합니다.

    서비스가 노드에 대해 아직 온라인 상태가 아니라면 다음 단계로 진행하기에 앞서 온라인 상태가 될 때까지 기다립니다.


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. 아무 노드에서나 수퍼유저로 전환합니다.

  10. 모든 노드가 클러스터에 연결되었는지 확인하십시오.


    phys-schost# clnode status
    

    다음과 비슷한 결과가 출력됩니다.


    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

  11. Sun Cluster 소프트웨어 지원에 필요한 패치가 아직 설치되지 않은 경우에는 해당 패치를 설치합니다.

    패치 위치 및 설치 지침은 Sun Cluster 3.2 2/08 Release Notes for Solaris OSPatches and Required Firmware Levels를 참조하십시오.

  12. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하려면 루프백 파일 시스템(Loopback File System, LOFS)을 비활성화해야 합니다.

    LOFS를 비활성화하려면 다음 항목을 클러스터의 각 노드에서 /etc/system 파일에 추가합니다.


    exclude:lofs

    /etc/system 파일에 대한 변경 사항은 다음 번에 시스템이 부트된 후 적용됩니다.


    주 –

    고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하고 또한 automountd가 실행 중이라면 LOFS를 활성화할 수 없습니다. LOFS는 Sun Cluster HA for NFS에서 스위치오버 문제를 유발할 수 있습니다. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 추가하도록 선택한 경우 다음의 구성 중 하나를 변경해야 합니다.

    그러나, 클러스터에서 비전역 영역을 구성하는 경우, 모든 클러스터 노드에서 LOFS를 활성화해야 합니다. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS와 LOFS가 동시에 존재해야 하는 경우, LOFS를 비활성화하는 대신 다른 해결 방법을 사용하십시오.

    • LOFS를 비활성화합니다.

    • automountd 데몬을 비활성화합니다.

    • Sun Cluster HA for NFS에서 내보낸 가용성 높은 로컬 파일 시스템에 속한 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 사용 가능한 상태로 유지할 수 있습니다.


    루프백 파일 시스템에 대한 자세한 내용은 System Administration Guide: Devices and File SystemsThe Loopback File System(Solaris 9 또는 Solaris 10)을 참조하십시오.

  13. 기존 클러스터에서 쿼럼 정보를 복제하려면 클러스터 구성 XML 파일을 사용하여 쿼럼 장치를 구성합니다.

    2 노드 클러스터를 생성한 경우, 쿼럼 장치를 구성해야 합니다. 필요한 쿼럼 장치를 만드는 데 클러스터 구성 XML 파일을 사용하지 않도록 선택하는 경우, 쿼럼 장치를 구성하는 방법으로 이동합니다.

    1. 쿼럼 장치에 쿼럼 서버를 사용하는 경우, 쿼럼 서버가 설정되어 실행 중인지 확인합니다.

      쿼럼 서버 소프트웨어 설치 및 구성 방법의 지침을 따릅니다.

    2. 쿼럼 장치에 NAS 장치를 사용하는 경우 NAS 장치가 설정되어 작동하는지 확인합니다.

      1. 쿼럼 장치로 NAS 장치를 사용하기 위해 요구 사항을 준수합니다.

        Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS를 참조하십시오.

      2. NAS 장치를 설정하려면 사용 중인 장치의 문서에 있는 지침을 따릅니다.

    3. 클러스터 구성 XML 파일의 쿼럼 구성 정보가 생성한 클러스터에 대한 유효한 값을 반영하는지 확인합니다.

    4. 클러스터 구성 XML 파일을 변경한 경우, 파일을 검증합니다.


      phys-schost# xmllint --valid --noout clconfigfile
      
    5. 쿼럼 장치를 구성합니다.


      phys-schost# clquorum add -i clconfigfile devicename
      
      devicename

      쿼럼 장치로 구성할 장치 이름을 지정합니다.

  14. 설치 모드에서 클러스터를 제거합니다.


    phys-schost# clquorum reset
    
  15. 클러스터 구성원이 구성되지 않은 시스템에 의한 클러스터 구성 액세스를 종료합니다.


    phys-schost# claccess deny-all
    
  16. (옵션) 모니터된 모든 디스크 경로가 실패할 경우, 자동 노드 재부트를 활성화합니다.

    1. 자동 재부트 기능을 활성화합니다.


      phys-schost# clnode set -p reboot_on_path_failure=enabled 
      
      -p

      설정하려는 등록 정보 지정

      reboot_on_path_failure=enable

      클러스터의 다른 노드에서 최소 한 개의 디스크에 액세스할 수 있는 상황에서, 모든 모니터되는 디스크 경로가 실패할 경우 해당 노드를 재부트하도록 지정합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

예 3–2 XML 파일을 사용하여 모든 노드에 Sun Cluster 소프트웨어 구성

다음 예에서는 기존 2 노드 클러스터의 클러스터 구성 및 쿼럼 구성을 새 2 노드 클러스터에 복제합니다. 새 클러스터는 Solaris 10 OS로 설치되며 비전역 영역으로 구성되지는 않습니다. 클러스터 구성은 기존 클러스터 노드인 phys-oldhost-1에서 클러스터 구성 XML 파일인 clusterconf.xml로 내보내집니다. 새 클러스터의 노드 이름은 phys-newhost-1phys-newhost-2입니다. 새 클러스터의 쿼럼 장치로 구성된 장치는 d3입니다.

이 예의 프롬프트 이름 phys-newhost-N은 해당 명령이 두 클러스터 노드에서 실행되었음을 나타냅니다.


phys-newhost-N# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
No errors are reported
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server phys-newhost-N
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
Output shows that both nodes are online
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset

일반 오류

실패한 구성 - 클러스터와 한 개 이상의 노드를 결합할 수 없는 경우 또는 잘못된 구성 정보가 지정된 경우 맨 먼저 이 절차를 다시 실행합니다. 그래도 문제가 해결되지 않으면, 잘못 구성된 각 노드에서 Sun Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법을 수행하여 잘못 구성된 노드를 클러스터 구성에서 제거합니다. Sun Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음, 본 절차를 재실행합니다.

다음 순서

쿼럼 구성 및 설치 모드 확인 방법으로 이동합니다.

참조

클러스터가 완전히 설정된 후, 기존 클러스터에서 다른 클러스터 구성 요소의 구성을 복제할 수 있습니다. 그렇게 하지 않은 경우, 복제하려는 XML 요소의 값을 수정하여 구성 요소를 추가할 클러스터 구성을 반영합니다. 예를 들어, 자원 그룹을 복제할 경우, 노드 이름이 동일하지 않으면 <resourcegroupNodeList> 항목에 새 클러스터에 대한 유효한 노드 이름이 포함되어 있고 복제한 클러스터의 노드 이름이 없는지 확인합니다.

클러스터 구성 요소를 복제하려면 복제하려는 클러스터 구성 요소에 대한 객체 지향 명령의 export 하위 명령을 실행합니다. 명령 구문 및 옵션에 대한 자세한 내용은 복제하려는 클러스터 객체에 대한 매뉴얼 페이지를 참조하십시오. 다음 표는 클러스터가 설정된 후 클러스터 구성 XML 파일에서 생성할 수 있는 클러스터 구성 요소 및 구성 요소를 복제하는 데 사용할 명령에 대한 매뉴얼 페이지를 나열합니다.


주 –

이 표는 긴 형식의 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령 이름의 형태를 제외하면 이러한 명령은 동일한 것입니다. 명령 목록 및 단문형 명령에 대한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서의 부록 A, Sun Cluster 객체 지향 명령을 참조하십시오.


클러스터 구성 요소 

매뉴얼 페이지 

특별 지침 

장치 그룹: Solaris Volume Manager 및 VERITAS Volume Manager 

cldevicegroup(1CL)

Solaris Volume Manager의 경우, 먼저 클러스터 구성 XML 파일에서 지정한 디스크 세트를 생성합니다. 

VxVM의 경우, 먼저 VxVM 소프트웨어를 설치 및 구성하고 클러스터 구성 XML 파일에서 지정한 디스크 그룹을 생성합니다. 

자원 

clresource(1CL)

또한 clresource, clressharedaddress 또는 clreslogicalhostname 명령의 -a 옵션을 사용하여 복제할 자원에 관련된 자원 유형 및 자원 그룹을 복제할 수 있습니다.

그렇지 않으면, 자원을 추가하기 전에 먼저 클러스터에 자원 유형 및 자원 그룹을 추가해야 합니다. 

공유 주소 자원 

clressharedaddress(1CL)

논리 호스트 이름 자원 

clreslogicalhostname(1CL)

자원 유형 

clresourcetype(1CL)

자원 그룹 

clresourcegroup(1CL)

NAS 장치 

clnasdevice(1CL)

먼저 장치 설명서의 설명대로 NAS 장치를 설정해야 합니다. 

SNMP 호스트 

clsnmphost(1CL)

clsnmphost create -i 명령은 -f 옵션으로 사용자 암호 파일을 지정해야 합니다.

SNMP 사용자 

clsnmpuser(1CL)

 

클러스터 객체의 시스템 자원을 모니터링하기 위한 임계값 

cltelemetryattribute(1CL)

 

ProcedureSolaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)

이 절차에서는 scinstall(1M) 사용자 정의 JumpStart 설치 방법을 설정하고 사용하는 방법에 대해 설명합니다. 이 방법을 사용하면 모든 클러스터 노드에 Solaris OS 및 Sun Cluster 소프트웨어를 설치하고 클러스터를 설정합니다. 이 절차를 사용하여 기존 클러스터에 새 노드를 추가할 수도 있습니다.

시작하기 전에

다음 작업을 수행합니다.

이번 절차에서는 아래 지침대로 대화식 scinstall 유틸리티를 사용합니다.

  1. JumpStart 설치 서버를 설정합니다.

    JumpStart 설치 서버가 다음 요구 사항을 충족하는지 확인합니다.

    • 설치 서버는 클러스터 노드와 동일한 서브넷에 있거나 클러스터 노드가 사용하는 서브넷의 Solaris 부트 서버에 있습니다.

    • 설치 서버 자체는 클러스터 노드가 아닙니다.

    • 설치 서버가 Sun Cluster 소프트웨어가 지원하는 Solaris OS 릴리스를 설치합니다.

    • JumpStart를 사용하여 Sun Cluster 소프트웨어를 설치할 수 있도록 사용자 정의 JumpStart 디렉토리가 있어야 합니다. 이 jumpstart-dir 디렉토리는 다음 요구 사항을 충족해야 합니다.

      • check 유틸리티의 사본을 포함합니다.

      • JumpStart 설치 서버에서 읽을 수 있도록 NFS를 내보냅니다.

    • 새 클러스터 노드가 각각 사용자 정의 JumpStart 설치 클라이언트로 구성되어 Sun Cluster 설치를 위해 설정된 사용자 정의 JumpStart 디렉토리를 사용합니다.

    JumpStart 설치 서버를 설정하려면 소프트웨어 플랫폼 및 OS 버전에 대한 적절한 지침을 따릅니다. Solaris 9 9/04 Installation GuideCreating a Profile Server for Networked Systems 또는 Solaris 10 8/07 Installation Guide: Custom JumpStart and Advanced InstallationsCreating a Profile Server for Networked Systems를 참조하십시오.

    setup_install_server(1M)add_install_client(1M) 매뉴얼 페이지도 참조하십시오.

  2. 새 노드를 기존 클러스터에 설치하는 경우 인증된 클러스터 노드 목록에 노드를 추가합니다.

    1. 활성 상태인 다른 클러스터 노드로 전환하고 clsetup 유틸리티를 시작합니다.

    2. clsetup 유틸리티를 사용하여 인증된 클러스터 노드 목록에 새 노드 이름을 추가합니다.

    자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서권한이 부여된 노드 목록에 노드를 추가하는 방법을 참조하십시오.

  3. 같은 서버 플랫폼의 클러스터 노드 또는 다른 시스템에서 아직 설치되지 않은 경우 Solaris OS 및 필요한 패치를 설치합니다.

    서버에 Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Solaris 소프트웨어가 Sun Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Sun Cluster 소프트웨어 요구 사항에 맞게 Solaris 소프트웨어를 설치하는 데 대한 자세한 내용은 Solaris 소프트웨어를 설치하는 방법을 참조하십시오.

    Solaris 소프트웨어를 설치하는 방법의 절차를 수행합니다.

  4. 아직 수행하지 않은 경우, 설치된 시스템에 Sun Cluster 소프트웨어 및 필요한 패치를 설치합니다.

    Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지 설치 방법의 절차를 따릅니다.

    패치 위치 및 설치 지침은 Sun Cluster 3.2 2/08 Release Notes for Solaris OSPatches and Required Firmware Levels를 참조하십시오.

  5. 시스템을 부트하는 동안 자동으로 시작하도록 공통 에이전트 컨테이너 데몬을 활성화합니다.


    machine# cacaoadm enable
    
  6. 설치된 시스템에서, 클러스터에 사용된 모든 공용 IP 주소를 사용하여 /etc/inet/ipnodes 파일을 업데이트합니다.

    이름 지정 서비스 사용 여부와 관계없이 이 단계를 수행하십시오. IP 주소를 추가해야 하는 Sun Cluster 구성 요소 목록은 공용 네트워크 IP 주소를 참조하십시오.

  7. 설치된 시스템의 플래시 아카이브를 만듭니다.


    machine# flarcreate -n name archive
    
    -n name

    플래시 아카이브에 지정할 이름입니다.

    archive

    플래시 아카이브에 지정할 파일 이름(전체 경로 포함)입니다. 일반적으로 파일 이름은 .flar로 끝납니다.

    다음 설명서 중 하나의 절차를 수행합니다.

  8. 플래시 아카이브가 JumpStart 설치 서버에서 읽을 수 있도록 내보내기한 NFS인지 확인합니다.

    자동 파일 공유에 대한 자세한 내용은 System Administration Guide: Network ServicesManaging Network File Systems (Overview)(Solaris 9 또는 Solaris 10)를 참조하십시오.

    share(1M)dfstab(4) 매뉴얼 페이지도 참조하십시오.

  9. JumpStart 설치 서버에서 수퍼유저로 전환합니다.

  10. JumpStart 설치 서버에서 scinstall(1M) 유틸리티를 시작합니다.

    여기서 /export/suncluster/sc31/ 경로는 사용자가 만든 JumpStart 설치 디렉토리의 하나의 예로 사용됩니다. 매체 경로에서 archsparc 또는 x86(Solaris 10만 해당)으로 대체하고 ver을 Solaris 9의 경우는 9 Solaris 10의 경우에는 10으로 대체합니다.


    installserver# cd /export/suncluster/sc31/Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    installserver# ./scinstall
    

    scinstall 주 메뉴가 표시됩니다.

  11. Configure a Cluster to be JumpStarted From This Install Server에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.

    이 옵션은 사용자 정의 JumpStart 완료 옵션을 구성하는 데 사용됩니다. JumpStart는 이 완료 스크립트를 사용하여 Sun Cluster 소프트웨어를 설치합니다.


     *** Main Menu ***
     
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node 
    
          * ?) Help with menu options
          * q) Quit
     
        Option:  2
    
  12. 메뉴 프롬프트에 따라 구성 계획 워크시트에 답변을 입력합니다.

    scinstall 명령은 구성 정보를 저장하고 /jumpstart-dir/autoscinstall.d/3.2/ 디렉토리의 autoscinstall.class 기본 class 파일을 복사합니다. 이 파일은 다음 예와 유사합니다.


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add
  13. 필요한 경우, autoscinstall.class 파일을 수정하여 JumpStart가 플래시 아카이브를 설치하도록 구성합니다.

    1. 플래시 아카이브 시스템에 Solaris OS를 설치했거나 scinstall 유틸리티를 실행한 경우에는 선택한 구성에 맞게 항목을 수정합니다.

      예를 들어, 슬라이스 4를 전역 장치 파일 시스템에 지정했고 scinstall에 파일 시스템 이름을 /gdevs라고 지정한 경우에는 autoscinstall.class 파일의 /globaldevices 항목을 다음과 같이 변경합니다.


      filesys         rootdisk.s4 512  /gdevs
    2. autoscinstall.class 파일에서 다음 항목을 변경합니다.

      교체할 기존 항목 

      추가할 새 항목 

      install_type

      initial_install

      install_type

      flash_install

      system_type

      standalone

      archive_location

      retrieval_type location

      archive_location 키워드와 함께 사용할 때 retrieval_typelocation의 유효한 값에 대한 정보는 Solaris 9 9/04 Installation Guide 또는 Solaris 10 Installation Guide: Custom JumpStart and Advanced Installationsarchive_location 키워드를 참조하십시오.

    3. 다음 항목과 같이, 특정 패키지를 설치하는 모든 항목을 제거합니다.


      cluster         SUNWCuser        add
      package         SUNWman          add
    4. 구성에 추가 Solaris 소프트웨어 요구 사항이 있는 경우 autoscinstall.class 파일을 적절하게 변경합니다.

      autoscinstall.class 파일은 최종 사용자 Solaris 소프트웨어 그룹(SUNWCuser)을 설치합니다.

    5. 최종 사용자 Solaris 소프트웨어 그룹(SUNWCuser)을 설치하는 경우, 필요한 추가 Solaris 소프트웨어 패키지를 autoscinstall.class 파일에 추가합니다.

      다음 표에서는 일부 Sun Cluster 기능을 지원하는 데 필요한 Solaris 패키지를 나열합니다. 이러한 패키지는 최종 사용자 Solaris 소프트웨어 그룹에 포함되지 않습니다. 자세한 내용은 Solaris 소프트웨어 그룹에 대한 참고 사항을 참조하십시오.

      기능 

      필수 Solaris 소프트웨어 패키지 

      RSMAPI, RSMRDT 드라이버 또는 SCI-PCI 어댑터(SPARC 기반 클러스터 전용) 

      SPARC: Solaris 9: SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox

      Solaris 10: SUNWrsm SUNWrsmo

      Sun Cluster Manager(이전의 SunPlexTM Manager)

      SUNWapchr SUNWapchu

    기본 class 파일은 다음 중 한 가지 방법으로 변경할 수 있습니다.

    • autoscinstall.class 파일을 직접 편집합니다. 이 변경 사항은 이 사용자 정의 JumpStart 디렉토리를 사용하는 모든 클러스터의 모든 노드에 적용됩니다.

    • 다른 프로파일을 가리키도록 rules 파일을 업데이트한 다음 check 유틸리티를 실행하여 rules 파일을 검증합니다.

    Solaris OS 설치 프로파일이 Sun Cluster 파일 시스템의 최소 할당 요구 사항을 충족시키기만 하면 다른 제한 없이 Sun Cluster 소프트웨어에서 설치 프로파일을 변경할 수 있습니다. Sun Cluster 소프트웨어 지원에 대한 분할 영역 지침 및 요구 사항은 시스템 디스크 분할 영역을 참조하십시오.

    JumpStart 프로파일에 대한 자세한 내용은Solaris 9 9/04 Installation Guide의 26 장, Preparing Custom JumpStart Installations (Tasks) 또는 Solaris 10 8/07 Installation Guide: Custom JumpStart and Advanced Installations의 3 장, Preparing Custom JumpStart Installations (Tasks)를 참조하십시오.

  14. 다음 기능에 대한 필수 패키지를 설치하거나 기타 설치 후 작업을 수행하려면 사용자 finish 스크립트를 설정합니다.

    • Remote Shared Memory Application Programming Interface(RSMAPI)

    • 상호 연결 전송을 위한 SCI-PCI 어댑터

    • RSMRDT 드라이버


    주 –

    RSMRDT 드라이버는 RSM이 사용 가능한 Oracle9i 릴리스 2 SCI 구성을 실행하는 클러스터에서만 사용할 수 있습니다. 자세한 설치 및 구성 지침은 Oracle9i 릴리스 2 사용자 설명서를 참조하십시오.


    사용자 고유의 finish 스크립트는 scinstall 명령에 의해 설치되는 표준 finish 스크립트 다음에 실행됩니다. JumpStart finish 스크립트 만들기에 대한 자세한 내용은 Solaris 9 9/04 Installation Guide의 26 장, Preparing Custom JumpStart Installations (Tasks) 또는 Solaris 10 8/07 Installation Guide: Custom JumpStart and Advanced Installations의 3 장, Preparing Custom JumpStart Installations (Tasks)의 사용자 정의 JumpStart 설치 준비를 참조하십시오.

    1. 종속성 Solaris 패키지가 기본 class 파일에 설치되는지 확인합니다.

      단계 13을 참조하십시오.

    2. 완료 스크립트 이름을 finish로 지정하십시오.

    3. 사용하려는 기능을 지원하는 소프트웨어 패키지(다음 표에 나열됨)를 설치하도록 finish 스크립트를 수정합니다.

      기능 

      설치할 추가 Sun Cluster 3.2 2/08 패키지 

      RSMAPI 

      SUNWscrif

      SCI-PCI 어댑터 

      • Solaris 9: SUNWsci SUNWscid SUNWscidx

      • Solaris 10: SUNWscir SUNWsci SUNWscidr SUNWscid

      RSMRDT 드라이버 

      SUNWscrdt

      • 표에 나열된 순서대로 패키지를 설치합니다.

      • Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ 디렉토리입니다. 여기서 archsparc 또는 x86(Solaris 10에만 해당)이고 ver9(Solaris 9) 또는 10(Solaris 10)입니다. 에서 패키지를 설치합니다.

    4. finish 스크립트에서 수행할 다른 설치 후 작업을 위해 추가로 수정합니다.

    5. finish 스크립트를 각 jumpstart-dir/autoscinstall.d/nodes/node 디렉토리에 복사합니다.

      클러스터의 각 노드에 대해 node 디렉토리를 하나씩 만듭니다. 또는 이 이름 지정 규칙을 사용하여 공유 finish 스크립트에 대한 심볼릭 링크를 만들 수도 있습니다.

  15. JumpStart 설치 서버를 종료합니다.

  16. 새 클러스터의 개인 상호 연결에서 스위치를 사용할 경우 인접 노드 탐색 프로토콜(Neighbor Discovery Protocol, NDP)이 비활성화되었는지 확인합니다.

    사용하는 스위치의 설명서에 나온 절차에 따라 NDP가 활성화되었는지 확인하고 활성화된 경우 NDP를 비활성화합니다.

    클러스터 구성 중에 소프트웨어가 개인 상호 연결에 트래픽이 없는지 검사합니다. 개인 상호 연결에서 트래픽을 검사하는 중에 NDP가 개인 어댑터에 패키지를 보낼 경우 상호 연결은 개인 상호 연결이 아닌 것으로 간주되고 클러스터 구성은 중단됩니다. 따라서 클러스터 생성 중에 NDP를 비활성화해야 합니다.

    클러스터가 설정된 후 NDP 기능을 사용하려는 경우 개인 상호 연결 스위치에서 NDP를 다시 활성화할 수 있습니다.

  17. 클러스터 관리 콘솔을 사용할 경우에는 클러스터의 각 노드에 대한 콘솔 화면을 표시합니다.

    • 관리 콘솔에 클러스터 제어판(Cluster Control Panel, CCP) 소프트웨어가 설치 및 구성되어 있는 경우 cconsole(1M) 유틸리티를 사용하여 개별 콘솔 화면을 표시합니다.

      수퍼유저로서 cconsole 유틸리티를 시작하려면 다음 명령을 사용합니다.


      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
      

      cconsole 유틸리티는 사용자의 입력과 동시에 모든 개별 콘솔 창으로 전송할 수 있도록 마스터 창을 엽니다.

    • cconsole 유틸리티를 사용하지 않는 경우 각 노드의 콘솔에 개별적으로 연결합니다.

  18. 각 노드를 종료합니다.


    phys-schost# shutdown -g0 -y -i0
    
  19. 각 노드를 부트하여 JumpStart 설치를 시작합니다.

    • SPARC 기반 시스템에서는 다음을 수행합니다.


      ok boot net - install
      

      주 –

      명령의 양쪽에 대시(-)를 표시하고 대시의 앞뒤를 한 칸씩 띄우십시오.


    • x86 기반 시스템에서는 다음을 수행합니다.

      1. 부트 시퀀스를 시작하려면 아무 키나 누릅니다.


        Press any key to reboot.
        keystroke
        
      2. BIOS 정보 화면이 나타나면 즉시 Esc+2를 누르거나 F2 키를 누릅니다.

        설치 시퀀스가 완료되면 BIOS Setup Utility 화면이 나타납니다.

      3. BIOS Setup Utility 메뉴 표시줄에서 Boot 메뉴 항목으로 이동합니다.

        부트 장치의 목록이 표시됩니다.

      4. JumpStart PXE 설치 서버와 동일한 네트워크에 연결되어 있는 IBA 목록으로 이동하여 부트 순서의 상단으로 이동시킵니다.

        오른쪽에 가장 낮은 번호가 표시된 IBA 부트 선택 항목이 가장 낮은 번호의 이더넷 포트에 해당합니다. IBA 부트 선택 항목의 오른쪽에 표시된 번호가 높을수록 높은 번호의 이더넷 포트에 해당합니다.

      5. 변경 사항을 저장하고 BIOS를 종료합니다.

        부트 시퀀스가 다시 시작됩니다. 추가 처리 후, GRUB 메뉴가 표시됩니다.

      6. 즉시 Solaris JumpStart 항목을 선택하고 Enter를 누릅니다.


        주 –

        또는 Solaris JumpStart 항목이 목록의 유일한 항목인 경우, 선택 화면의 시간 제한이 초과될 때까지 기다릴 수 있습니다. 30초 내로 응답하지 않으면 시스템에서 부트 시퀀스가 자동으로 계속됩니다.



        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris_10 Jumpstart                                                    |
        |                                                                         |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        추가 처리 후, 설치 유형 메뉴가 표시됩니다.

      7. 설치 유형 메뉴에서 Custom JumpStart에 대한 메뉴 번호를 즉시 입력합니다.


        주 –

        30초 시간 초과 기간이 종료하기 전에 Custom JumpStart에 대한 번호를 입력하지 않을 경우, 시스템에서 Solaris 대화식 설치를 자동으로 시작합니다.



              Select the type of installation you want to perform:
        
                 1 Solaris Interactive
                 2 Custom JumpStart
                 3 Solaris Interactive Text (Desktop session)
                 4 Solaris Interactive Text (Console session)
                 5 Apply driver updates
                 6 Single user shell
        
                 Enter the number of your choice.
        2
        

        JumpStart가 각 노드에 Solaris OS와 Sun Cluster 소프트웨어를 설치합니다. 설치가 성공적으로 완료되면 각 노드가 새 클러스터 노드로 완전히 설치됩니다. Sun Cluster 설치 결과가 /var/cluster/logs/install/scinstall.log.N 파일에 기록됩니다.

      8. BIOS 화면이 다시 나타나면 즉시 Esc+2를 누르거나 F2 키를 누릅니다.


        주 –

        여기서 BIOS를 중단하지 않으면 설치 유형 메뉴로 자동으로 돌아갑니다. 30초 내에 입력한 선택 사항이 없을 경우, 시스템에서 자동으로 대화식 설치를 시작합니다.


        추가 처리 후, BIOS Setup Utility가 표시됩니다.

      9. 메뉴 표시줄에서 Boot 메뉴로 이동합니다.

        부트 장치의 목록이 표시됩니다.

      10. Hard Drive 항목으로 이동하여 부트 순서의 제일 처음으로 이동시킵니다.

      11. 변경 사항을 저장하고 BIOS를 종료합니다.

        부트 시퀀스가 다시 시작됩니다. 클러스터 모드로 부트를 완료하는 데 GRUB 메뉴와의 추가 상호 작용은 필요없습니다.

  20. Solaris 10 OS의 경우, 각 노드에서 서비스 관리 기능(Service Management Facility, SMF)의 다중 사용자 서비스가 온라인인지 확인합니다.

    서비스가 노드에 대해 아직 온라인 상태가 아니라면 다음 단계로 진행하기에 앞서 온라인 상태가 될 때까지 기다립니다.


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  21. 기존 클러스터에 새 노드를 설치하는 경우 모든 기존 클러스터 파일 시스템에 대해 새 노드에 마운트 지점을 만듭니다.

    1. 활성 상태인 다른 클러스터 노드에서 모든 클러스터 파일 시스템의 이름을 표시하십시오.


      phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. 클러스터에 추가하는 노드에서 클러스터의 각 파일 시스템에 대한 마운트 지점을 만드십시오.


      phys-schost-new# mkdir -p mountpoint
      

      예를 들어, mount 명령에서 반환되는 파일 시스템 이름이 /global/dg-schost-1이면 클러스터에 추가하는 노드에서 mkdir -p /global/dg-schost-1 명령을 실행합니다.


      주 –

      단계 25에서 클러스터를 재부트하면 마운트 지점이 활성화됩니다.


    3. 이미 클러스터에 있는 노드에 VERITAS Volume Manager(VxVM)가 설치된 경우에는 각 VxVM– 설치 노드에서 vxio 번호를 확인합니다.


      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
      
      • 동일한 vxio 번호가 각 VxVM 설치 노드에서 사용되는지 확인합니다.

      • 또한, VxVM이 설치되지 않은 각 노드에서 vxio 번호를 사용할 수 있는지 확인하십시오.

      • vxio 번호가 VxVM이 설치되지 않은 노드에서 이미 사용 중인 경우 해당 노드에서 이 번호를 해제합니다. 다른 번호를 사용하도록 /etc/name_to_major 항목을 변경합니다.

  22. (옵션) Sun Enterprise 10000 서버에서 동적 재구성을 사용하려면 클러스터의 각 노드에 있는 /etc/system 파일에 다음 항목을 추가합니다.


    set kernel_cage_enable=1

    다음에 시스템을 재부트하면 이 항목이 적용됩니다. Sun Cluster 구성에서 동적 재구성 작업을 수행하는 절차는 Solaris OS용 Sun Cluster 시스템 관리 안내서를 참조하십시오. 동적 재구성에 대한 자세한 내용은 서버 설명서를 참조하십시오.

  23. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하려면 루프백 파일 시스템(Loopback File System, LOFS)을 비활성화해야 합니다.

    LOFS를 비활성화하려면 다음 항목을 클러스터의 각 노드에서 /etc/system 파일에 추가합니다.


    exclude:lofs

    /etc/system 파일에 대한 변경 사항은 다음 번에 시스템이 부트된 후 적용됩니다.


    주 –

    고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하고 또한 automountd가 실행 중이라면 LOFS를 활성화할 수 없습니다. LOFS는 Sun Cluster HA for NFS에서 스위치오버 문제를 유발할 수 있습니다. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 추가하도록 선택한 경우 다음의 구성 중 하나를 변경해야 합니다.

    그러나, 클러스터에서 비전역 영역을 구성하는 경우, 모든 클러스터 노드에서 LOFS를 활성화해야 합니다. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS와 LOFS가 동시에 존재해야 하는 경우, LOFS를 비활성화하는 대신 다른 해결 방법을 사용하십시오.

    • LOFS를 비활성화합니다.

    • automountd 데몬을 비활성화합니다.

    • Sun Cluster HA for NFS에서 내보낸 가용성 높은 로컬 파일 시스템에 속한 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 사용 가능한 상태로 유지할 수 있습니다.


    루프백 파일 시스템에 대한 자세한 내용은 System Administration Guide: Devices and File SystemsThe Loopback File System(Solaris 9 또는 Solaris 10)을 참조하십시오.

  24. x86: 기본 부트 파일을 설정합니다.

    이 값 설정을 사용하면 로그인 프롬프트에 액세스할 수 없는 경우에 노드를 재부트할 수 있습니다.

    • Solaris 9 OS에서 기본값을 kadb로 설정합니다.


      phys-schost# eeprom boot-file=kadb
      
    • Solaris 10 OS의 GRUB 부트 매개 변수 메뉴에서 기본값을 kmdb로 설정합니다.


      grub edit> kernel /platform/i86pc/multiboot kmdb
      
  25. 클러스터 재부트가 필요한 작업을 수행한 경우에는 다음 단계에 따라 클러스터를 재부트합니다.

    다음은 재부트를 필요로 하는 몇 가지 작업입니다.

    • 기존 클러스터에 새 노드 추가

    • 노드 또는 클러스터 재부트를 필요로 하는 패치 설치

    • 재부트해야만 적용되는 구성 변경

    1. 아무 노드에서나 수퍼유저로 전환합니다.

    2. 클러스터를 종료합니다.


      phys-schost-1# cluster shutdown -y -g0 clustername
      

      주 –

      클러스터가 종료될 때까지 첫 번째로 설치된 클러스터 노드를 재부트하지 마십시오. 클러스터 설치 모드가 비활성화될 때까지 클러스터를 구성한 첫 번째 설치 노드만 쿼럼 투표를 갖습니다. 설치 모드에 있는 설정된 클러스터에서 첫 번째 설치 노드가 재부트되기 전에 클러스터가 종료되지 않으면 나머지 클러스터 노드가 쿼럼을 포함할 수 없습니다. 그러면 전체 클러스터 노드가 종료됩니다.

      clsetup 명령을 처음 실행할 때까지 클러스터 노드는 설치 모드로 남아 있습니다. 쿼럼 장치를 구성하는 방법 절차 중 이 명령을 실행합니다.


    3. 클러스터의 각 노드를 재부트하십시오.

      • SPARC 기반 시스템에서는 다음을 수행합니다.


        ok boot
        
      • x86 기반 시스템에서는 다음을 수행합니다.

        GRUB 메뉴가 나타나면 적절한 Solaris 항목을 선택하고 Enter 키를 누르십시오. GRUB 메뉴가 다음과 같이 나타납니다.


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        GRUB 기반 부트에 대한 자세한 내용은 System Administration Guide: Basic Administration의 11 장, GRUB Based Booting (Tasks)을 참조하십시오.

    scinstall 유틸리티가 모든 클러스터 노드를 설치 및 구성하고 클러스터를 재부트합니다. 모든 노드가 성공적으로 클러스터에 부트했을 때 클러스터가 설정됩니다. Sun Cluster 설치 출력이 /var/cluster/logs/install/scinstall.log.N 파일에 기록됩니다.

  26. (옵션) 노드를 재부트하기 위해 단계 25를 수행하지 않았을 경우, 각 노드의 Sun Java Web Console 웹 서버를 수동으로 시작합니다.


    phys-schost# smcwebserver start
    

    자세한 내용은 smcwebserver(1M) 매뉴얼 페이지를 참조하십시오.

  27. 아무 노드에서나 수퍼유저로 전환합니다.

  28. 모든 노드가 클러스터에 연결되었는지 확인하십시오.


    phys-schost# clnode status
    

    다음과 비슷한 결과가 출력됩니다.


    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

  29. (옵션) 모니터된 모든 디스크 경로가 실패할 경우, 각 노드에서 자동 노드 재부트를 활성화합니다.

    1. 자동 재부트 기능을 활성화합니다.


      phys-schost# clnode set -p reboot_on_path_failure=enabled 
      
      -p

      설정하려는 등록 정보 지정

      reboot_on_path_failure=enable

      클러스터의 다른 노드에서 최소 한 개의 디스크에 액세스할 수 있는 상황에서, 모든 모니터되는 디스크 경로가 실패할 경우 해당 노드를 재부트하도록 지정합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
다음 순서

2 노드 클러스터에 노드를 추가한 경우, 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법으로 이동하십시오.

그렇지 않으면, 다음 해당 절차로 이동합니다.

일반 오류

비활성화된 scinstall 옵션 - scinstall 명령의 JumpStart 옵션 앞에 별표(*)가 없는 경우, 이 옵션은 비활성 상태입니다. 이 조건은 JumpStart 설정이 완료되지 않았거나 설정 오류가 발생했음을 나타냅니다. 이 조건을 수정하려면 먼저 scinstall 유틸리티를 종료합니다. JumpStart 설정을 수정하려면 단계 1 ~ 단계 14를 반복한 다음 scinstall 유틸리티를 다시 시작합니다.

존재하지 않는 노드에 대한 오류 메시지 - 자체적으로 /etc/inet/ntp.conf 파일을 설치하지 않은 경우에는 scinstall 명령이 기본 ntp.conf 파일을 대신 설치합니다. 기본 파일에는 최대 노드 수에 대한 참조가 있습니다. 따라서 xntpd(1M) 데몬은 부트 과정에서 이러한 참조 중 일부에 대해 오류 메시지를 표시할 수 있습니다. 이 메시지는 무시해도 좋습니다. 그 밖에 다른 정상적인 클러스터 상태에서 이 메시지가 표시되지 않도록 하는 방법에 대해서는 NTP (Network Time Protocol)를 구성하는 방법을 참조하십시오.

Procedure추가 클러스터 노드를 위한 클러스터 준비 방법

새 클러스터 노드를 추가하기 위해 클러스터를 준비하려면 기존 클러스터 노드에서 이 절차를 수행합니다.

시작하기 전에

다음 작업을 수행합니다.

  1. CCP(Cluster Control Panel)를 사용할 경우, 관리 콘솔의 구성 파일을 업데이트합니다.

    1. /etc/clusters 파일의 클러스터 항목에 추가할 노드의 이름을 추가합니다.

    2. /etc/serialports 파일에 새 노드 이름을 포함하는 항목, 노드의 콘솔 액세스 장치의 호스트 이름 및 포트 번호를 추가합니다.

  2. 클러스터의 인증된 노드 목록에 새 노드의 이름을 추가합니다.

    1. 아무 노드에서나 수퍼유저로 전환합니다.

    2. clsetup 유틸리티를 시작합니다.


      phys-schost# clsetup
      

      주 메뉴가 표시됩니다.

    3. 메뉴 항목에서 새 노드를 선택하십시오.

    4. 스스로를 추가할 수 있는 시스템의 이름 지정 메뉴 항목을 선택하십시오.

    5. 화면에 표시되는 메시지에 따라 인식된 시스템 목록에 노드 이름을 추가합니다.

      오류 없이 작업이 완료된 경우 clsetup 유틸리티는 명령이 성공적으로 완료되었습니다라는 메시지를 표시합니다.

    6. clsetup 유틸리티를 종료합니다.

  3. 단일 노드 클러스터에 노드를 추가하는 중인 경우에는, 상호 연결 구성을 표시하여 두 클러스터의 상호 연결이 있는지 확인합니다.


    phys-schost# clinterconnect show
    

    노드를 추가하려면 적어도 두 개의 케이블 또는 두 개의 어댑터가 구성되어 있어야 합니다.

    • 두 개의 케이블 또는 두 개의 어댑터에 대한 구성 정보가 표시되면 단계 4로 진행합니다.

    • 케이블 또는 어댑터의 구성 정보가 출력되지 않거나 한 개의 케이블 또는 어댑터에 대해서만 구성 정보가 출력될 경우, 새 클러스터 상호 연결을 구성합니다.

      1. 한 노드에서 clsetup 유틸리티를 시작합니다.


        phys-schost# clsetup
        
      2. 클러스터 상호 연결 메뉴 항목을 선택합니다.

      3. 전송 케이블 추가 메뉴 항목을 선택합니다.

        화면 지시에 따라 클러스터에 추가할 노드의 이름, 전송 어댑터 이름, 전송 스위치 사용 여부 등을 지정합니다.

      4. 필요한 경우, 단계 c를 반복하여 두 번째 클러스터 상호 연결을 구성합니다.

      5. 구성이 완료되면 clsetup 유틸리티를 종료합니다.

      6. 클러스터에 두 개의 클러스터 상호 연결이 구성되어 있는지 확인합니다.


        phys-schost# clinterconnect show
        

        이 명령은 최소한 두 개의 클러스터 상호 연결에 대한 구성 정보를 출력해야 합니다.

  4. 추가하는 노드 및 개인 네트워크를 개인 네트워크 구성에서 지원하는지 확인합니다.

    1. 현재 개인 네트워크 구성이 지원하는 최대 노드 및 개인 네트워크 수를 표시합니다.


      phys-schost# cluster show-netprops
      

      다음과 유사하게 출력됩니다. 이는 기본값을 나타냅니다.


      === Private Network ===                        
      
      private_netaddr:                                172.16.0.0
        private_netmask:                                255.255.248.0
        max_nodes:                                      64
        max_privatenets:                                10
    2. 현재 개인 네트워크 구성이 비전역 영역 및 개인 네트워크를 포함하여 증가한 노드 수를 지원하는지 여부를 결정합니다.

다음 순서

새 클러스터 노드에 Sun Cluster 소프트웨어를 구성합니다. 추가 클러스터 노드에 Sun Cluster 소프트웨어를 구성하는 방법(scinstall) 또는 추가 클러스터 노드에 Sun Cluster 소프트웨어를 구성하는 방법(XML)으로 이동하십시오.

Procedure노드 또는 개인 네트워크를 추가할 때 개인 네트워크 구성을 변경하는 방법

노드 또는 비전역 영역 수 또는 개인 네트워크 수의 증가 또는 조합으로 수용하려면 이 작업을 수행하여 클러스터 개인 IP 주소 범위를 변경합니다. 또한 이 절차를 사용하여 개인 IP 주소 범위를 감소시킬 수 있습니다.


주 –

이 절차를 수행하려면 전체 클러스터를 종료해야 합니다.


시작하기 전에

모든 클러스터 노드에 대해 수퍼유저를 위한 원격 쉘(rsh(1M)) 또는 보안 쉘(ssh(1)) 액세스 가 활성화되었는지 확인합니다.

  1. 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. 하나의 노드에서 clsetup 유틸리티를 시작합니다.


    # clsetup
    

    clsetup 주 메뉴가 표시됩니다.

  3. 각 자원 그룹을 오프라인으로 전환하십시오.

    노드에 비전역 영역이 포함되어 있으면 영역 내 모든 자원 그룹도 오프라인으로 전환됩니다.

    1. 자원 그룹 옵션에 해당하는 번호를 입력하고 Enter 키를 누릅니다.

      자원 그룹 메뉴가 표시됩니다.

    2. 자원 그룹의 온라인/오프라인 또는 스위치 오버에 대한 옵션에 해당하는 번호를 입력하고 Enter 키를 누릅니다.

    3. 화면에 표시되는 메시지에 따라 모든 자원 그룹을 오프라인으로 전환하고 관리 해제 상태로 놓습니다.

    4. 모든 자원이 오프라인으로 전환되면 q를 입력하여 자원 그룹 메뉴로 돌아갑니다.

  4. 클러스터의 모든 자원을 비활성화하십시오.

    1. 자원 활성화/비활성화 옵션에 해당하는 번호를 입력하고 Enter 키를 누릅니다.

    2. 비활성화할 자원을 선택하고 화면에 표시되는 메시지를 따르십시오.

    3. 자원을 비활성화하려면 각 자원에 대해 위의 작업을 반복합니다.

    4. 모든 자원이 비활성화되면 q를 입력하여 자원 그룹 메뉴로 돌아갑니다.

  5. clsetup 유틸리티를 종료합니다.

  6. 모든 노드에서 모든 자원이 오프라인 상태이고 모든 자원 그룹이 관리 해제 상태인지 확인합니다.


    # cluster status -t resource,resourcegroup
    
    -t

    지정된 클러스터 객체로 출력 제한

    resource

    자원 지정

    resourcegroup

    자원 그룹 지정

  7. 하나의 노드에서 클러스터를 종료하십시오.


    # cluster shutdown -g0 -y
    
    -g

    대기 시간을 초 단위로 지정

    -y

    시스템 종료 확인을 요청하는 프롬프트가 나타나지 않도록 함

  8. 각 노드를 비클러스터 모드로 부트합니다.

    • SPARC 기반 시스템에서는 다음 명령을 수행하십시오.


      ok boot -x
      
    • x86 기반 시스템에서는 다음 명령을 수행하십시오.

      1. GRUB 메뉴에서 화살표 키를 사용하여 적절한 Solaris 항목을 선택하고 e를 입력하여 해당 명령을 편집합니다.

        GRUB 메뉴가 다음과 같이 나타납니다.


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +----------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                               |
        | Solaris failsafe                                                     |
        |                                                                      |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        GRUB 기반 부트에 대한 자세한 내용은 System Administration Guide: Basic Administration의 11 장, GRUB Based Booting (Tasks)을 참조하십시오.

      2. 부트 매개 변수 화면에서 화살표 키를 사용하여 kernel 항목을 선택하고 e를 입력하여 항목을 편집합니다.

        다음과 같이 GRUB 부트 매개 변수 화면이 나타납니다.


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot                                     |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.
      3. 명령에 -x를 추가하여 시스템 부트를 비클러스터 모드로 지정합니다.


        [ Minimal BASH-like line editing is supported. For the first word, TAB
        lists possible command completions. Anywhere else TAB lists the possible
        completions of a device/filename. ESC at any time exits. ]
        
        grub edit> kernel /platform/i86pc/multiboot -x
        
      4. Enter 키를 눌러 변경 사항을 수락하고 부트 매개 변수 화면으로 돌아갑니다.

        화면에 편집된 명령이 표시됩니다.


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot -x                                  |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.-
      5. 비클러스터 모드로 노드를 부트하려면 b를 입력합니다.


        주 –

        커널 부트 매개 변수 명령에 대한 변경 사항은 시스템을 재부트하면 사라집니다. 다음에 노드를 재부트하면 클러스터 모드로 부트됩니다. 대신 비클러스터 모드로 부트하려면 이 단계를 다시 수행하여 커널 부트 매개 변수 명령에 -x 옵션을 추가합니다.


  9. 하나의 노드에서 clsetup 유틸리티를 시작합니다.

    비클러스터 모드에서 실행하면 clsetup 유틸리티에 비클러스터 모드 작업을 위한 주 메뉴가 표시됩니다.

  10. IP 주소 범위 변경 옵션에 해당하는 번호를 입력하고 Enter 키를 누릅니다.

    clsetup 유틸리티에 현재의 개인 네트워크 구성이 표시되고 해당 구성을 변경할지 묻는 메시지가 표시됩니다.

  11. 개인 네트워크 IP 주소 또는 IP 주소 범위를 변경하려면 yes를 입력하고 Enter 키를 누릅니다.

    clsetup 유틸리티에 기본 개인 네트워크 IP 주소(172.16.0.0)가 표시되고 해당 기본값을 사용할 것인지 묻는 메시지가 표시됩니다.

  12. 해당 개인 네트워크 IP 주소를 변경하거나 사용합니다.

    • 기본 개인 네트워크 IP 주소를 사용하고 IP 주소 범위 변경을 진행하려면 yes를 입력하고 Enter 키를 누릅니다.

      clsetup 유틸리티가 기본 넷마스크를 사용할 것인지 묻습니다. 다음 단계로 건너뛰어 응답을 입력합니다.

    • 기본 개인 네트워크 IP 주소를 변경하려면 다음 단계를 수행합니다.

      1. clsetup 유틸리티에서 기본 주소를 사용할 것인지 물으면 그에 대한 응답으로 no를 입력한 후 Enter 키를 누릅니다.

        clsetup 유틸리티에 새 개인 네트워크 IP 주소를 묻는 메시지가 표시됩니다.

      2. 새 IP 주소를 입력하고 Enter 키를 누릅니다.

        clsetup 유틸리티에 기본 넷마스크가 표시되고 이 기본 넷마스크를 사용할 것인지 묻는 메시지가 표시됩니다.

  13. 기본 개인 네트워크 IP 주소 범위를 변경하거나 사용합니다.

    기본 넷마스크는 255.255.248.0입니다. 이 기본 IP 주소 범위는 클러스터에서 최대 64개의 노드와 최대 10개의 개인 네트워크를 지원합니다.

    • 기본 IP 주소 범위를 사용하려면 yes를 입력하고 Enter 키를 입력합니다.

      이제 다음 단계로 건너뜁니다.

    • IP 주소 범위를 변경하려면 다음 단계를 수행합니다.

      1. clsetup 유틸리티에서 기본 주소 범위를 사용할 것인지 물으면 그에 대한 응답으로 no를 입력한 후 Enter 키를 누릅니다.

        기본 넷마스크의 사용을 거부할 경우 클러스터에 구성하고자 하는 노드 및 개인 네트워크의 수를 묻는 메시지가 clsetup 유틸리티에서 표시됩니다.

      2. 클러스터에 구성할 노드 및 개인 네트워크의 수를 입력합니다.

        clsetup 유틸리티는 이 숫자를 가지고 두 개의 넷마스크를 제안하여 계산합니다.

        • 첫 번째 넷마스크는 지정한 수의 노드 및 개인 네트워크를 지원하는 최소 넷마스크입니다.

        • 두 번째 넷마스크는 지정한 노드 및 개인 네트워크 수의 두 배를 지원하여 차후 확대될 경우에도 수용할 수 있도록 합니다.

      3. 계산된 넷마스크 중 하나로 지정하거나 원하는 노드 및 개인 네트워크 수를 지원하는 다른 넷마스크를 지정합니다.

  14. clsetup 유틸리티가 업데이트를 진행할 것인지 물으면 그에 대한 응답으로 yes 를 입력합니다.

  15. 모두 완료되면 clsetup 유틸리티를 종료합니다.

  16. 각 노드를 클러스터로 재부트합니다.

    1. 각 노드를 종료합니다.


      # shutdown -g0 -y
      
    2. 각 노드를 클러스터 모드로 부트하십시오.

      • SPARC 기반 시스템에서는 다음을 수행합니다.


        ok boot
        
      • x86 기반 시스템에서는 다음을 수행합니다.

        GRUB 메뉴가 나타나면 적절한 Solaris 항목을 선택하고 Enter 키를 누르십시오. GRUB 메뉴가 다음과 같이 나타납니다.


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        GRUB 기반 부트에 대한 자세한 내용은 System Administration Guide: Basic Administration의 11 장, GRUB Based Booting (Tasks)을 참조하십시오.

  17. 하나의 노드에서 clsetup 유틸리티를 시작합니다.


    # clsetup
    

    clsetup 주 메뉴가 표시됩니다.

  18. 모든 비활성화된 자원을 재활성화합니다.

    1. 자원 그룹 옵션에 해당하는 번호를 입력하고 Enter 키를 누릅니다.

      자원 그룹 메뉴가 표시됩니다.

    2. 자원 활성화/비활성화 옵션에 해당하는 번호를 입력하고 Enter 키를 누릅니다.

    3. 활성화할 자원을 선택하고 화면에 표시되는 메시지를 따르십시오.

    4. 비활성화된 각 자원에 대하여 반복하십시오.

    5. 모든 자원이 다시 활성화되면 q를 입력하여 자원 그룹 메뉴로 돌아가십시오.

  19. 각 자원 그룹을 다시 온라인으로 전환합니다.

    노드에 비전역 영역이 포함된 경우 이 영역의 모든 자원 그룹도 온라인으로 전환됩니다.

    1. 자원 그룹의 온라인/오프라인 또는 스위치오버에 대한 옵션에 해당하는 번호를 입력하고 Enter 키를 누릅니다.

    2. 화면에 표시되는 메시지를 따라 각 자원 그룹을 관리 상태로 변경한 다음 해당 자원 그룹을 온라인으로 전환합니다.

  20. 모든 자원 그룹이 다시 온라인으로 전환되면 clsetup 유틸리티를 종료합니다.

    q를 입력하여 각 하위 메뉴를 마치거나 Ctrl-C를 누릅니다.

다음 순서

기존 클러스터에 노드를 추가하려면 다음 절차 중 하나로 이동하십시오.

클러스터 노드에 비전역 영역을 생성하려면 클러스터 노드에 비전역 영역 구성으로 이동하십시오.

Procedure추가 클러스터 노드에 Sun Cluster 소프트웨어를 구성하는 방법(scinstall)

기존 클러스터에 새 노드를 추가하려면 이 절차를 수행하십시오. JumpStart를 사용하여 새 노드를 추가하려면 Solaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)의 절차를 대신 수행합니다.


주 –

이 절차에서는 대화식 scinstall 명령을 사용합니다. 설치 스크립트를 개발할 때와 같이 비대화식 scinstall 명령을 사용하려면 scinstall(1M) 매뉴얼 페이지를 참조하십시오.

scinstall 명령을 실행하기 전, 노드에 Sun Cluster 소프트웨어 패키지가 수동으로 설치되었는지 또는 Java ES installer 프로그램의 자동 모드를 사용하여 설치되었는지 확인합니다. 설치 스크립트에서 Java ES installer 프로그램을 실행하는 데 대한 자세한 내용은 Sun Java Enterprise System 5 Installation Guide for UNIX의 5 장, Installing in Silent Mode를 참조하십시오.


시작하기 전에

다음 작업을 수행합니다.

이번 절차에서는 아래 지침대로 대화식 scinstall 유틸리티를 사용합니다.

  1. 계속할 클러스터 노드에서 수퍼유저로 전환합니다.

  2. scinstall 유틸리티를 시작하십시오.


    phys-schost-new# /usr/cluster/bin/scinstall
    

    scinstall 주 메뉴가 표시됩니다.

  3. Create a New Cluster or Add a Cluster Node에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.


      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1
    

    새 클러스터 및 클러스터 노드 메뉴가 표시됩니다.

  4. Add This Machine as a Node in an Existing Cluster에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.

  5. 메뉴 프롬프트에 따라 구성 계획 워크시트에 답변을 입력합니다.

    scinstall 유틸리티가 노드를 구성하고 노드를 클러스터로 부트합니다.

  6. DVD-ROM 드라이브에서 Sun Java Availability Suite DVD-ROM을 언로드합니다.

    1. DVD-ROM이 사용되고 있지 않음을 확인하려면 DVD-ROM에 존재하지 않는 디렉토리로 이동합니다.

    2. DVD-ROM을 꺼냅니다.


      phys-schost# eject cdrom
      
  7. 추가 노드가 모두 구성될 때까지 클러스터에 추가할 다른 노드에 대해 이 절차를 반복합니다.

  8. Solaris 10 OS의 경우, 각 노드에서 서비스 관리 기능(Service Management Facility, SMF)의 다중 사용자 서비스가 온라인인지 확인합니다.

    서비스가 노드에 대해 아직 온라인 상태가 아니라면 다음 단계로 진행하기에 앞서 온라인 상태가 될 때까지 기다립니다.


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. 활성화된 클러스터 구성원에서 다른 노드가 클러스터에 결합하지 않도록 합니다.


    phys-schost# claccess deny-all
    

    또는 clsetup 유틸리티를 사용할 수 있습니다. Solaris OS용 Sun Cluster 시스템 관리 안내서권한이 부여된 노드 목록에 노드를 추가하는 방법 절차를 참조하십시오.

  10. 아무 노드에서나 수퍼유저로 전환합니다.

  11. 모든 노드가 클러스터에 연결되었는지 확인하십시오.


    phys-schost# clnode status
    

    다음과 비슷한 결과가 출력됩니다.


    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

  12. 필요한 모든 패치가 설치되어 있는지 확인합니다.


    phys-schost# showrev -p
    
  13. (옵션) 모니터된 모든 디스크 경로가 실패할 경우, 자동 노드 재부트를 활성화합니다.

    1. 자동 재부트 기능을 활성화합니다.


      phys-schost# clnode set -p reboot_on_path_failure=enabled 
      
      -p

      설정하려는 등록 정보 지정

      reboot_on_path_failure=enable

      클러스터의 다른 노드에서 최소 한 개의 디스크에 액세스할 수 있는 상황에서, 모든 모니터되는 디스크 경로가 실패할 경우 해당 노드를 재부트하도록 지정합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  14. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하려면 루프백 파일 시스템(Loopback File System, LOFS)을 비활성화해야 합니다.

    LOFS를 비활성화하려면 다음 항목을 클러스터의 각 노드에서 /etc/system 파일에 추가합니다.


    exclude:lofs

    /etc/system 파일에 대한 변경 사항은 다음 번에 시스템이 부트된 후 적용됩니다.


    주 –

    고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하고 또한 automountd가 실행 중이라면 LOFS를 활성화할 수 없습니다. LOFS는 Sun Cluster HA for NFS에서 스위치오버 문제를 유발할 수 있습니다. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS를 추가하도록 선택한 경우 다음의 구성 중 하나를 변경해야 합니다.

    그러나, 클러스터에서 비전역 영역을 구성하는 경우, 모든 클러스터 노드에서 LOFS를 활성화해야 합니다. 고가용성 로컬 파일 시스템에서 Sun Cluster HA for NFS와 LOFS가 동시에 존재해야 하는 경우, LOFS를 비활성화하는 대신 다른 해결 방법을 사용하십시오.

    • LOFS를 비활성화합니다.

    • automountd 데몬을 비활성화합니다.

    • Sun Cluster HA for NFS에서 내보낸 가용성 높은 로컬 파일 시스템에 속한 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 사용 가능한 상태로 유지할 수 있습니다.


    루프백 파일 시스템에 대한 자세한 내용은 System Administration Guide: Devices and File SystemsThe Loopback File System(Solaris 9 또는 Solaris 10)을 참조하십시오.


예 3–3 추가 노드에 Sun Cluster 소프트웨어 구성

다음 예에서는 phys-schost-3 노드가 schost 클러스터에 추가되는 것을 보여줍니다. 스폰서 노드는 phys-schost-1입니다.


*** Adding a Node to an Existing Cluster ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 
-m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2


Checking device to use for global devices file system ... done

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "qfe2" to the cluster configuration ... done
Adding adapter "qfe3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Copying the Common Agent Container keys from "phys-schost-1" ... done


Setting the node ID for "phys-schost-3" ... done (id=1)

Setting the major number for the "did" driver ... 
Obtaining the major number for the "did" driver from "phys-schost-1" ... done
"did" driver major number set to 300

Checking for global devices global file system ... done
Updating vfstab ... done

Verifying that NTP is configured ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... 
done

Adding clusternode entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done
The "local-mac-address?" parameter setting has been changed to "true".

Ensure network routing is disabled ... done

Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Rebooting ... 

일반 오류

실패한 구성 - 클러스터와 한 개 이상의 노드를 결합할 수 없는 경우 또는 잘못된 구성 정보가 지정된 경우 맨 먼저 이 절차를 다시 실행합니다. 그래도 문제가 해결되지 않으면, 잘못 구성된 각 노드에서 Sun Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법을 수행하여 잘못 구성된 노드를 클러스터 구성에서 제거합니다. Sun Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음, 본 절차를 재실행합니다.

다음 순서

쿼럼 장치를 사용하는 기존 클러스터에 노드를 추가한 경우, 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법으로 이동하십시오.

그렇지 않으면 쿼럼 구성 및 설치 모드 확인 방법으로 이동합니다.

Procedure추가 클러스터 노드에 Sun Cluster 소프트웨어를 구성하는 방법(XML)

XML 클러스터 구성 파일을 사용하여 새 클러스터 노드를 구성하려면 이 절차를 수행하십시오. 새 노드는 Sun Cluster 3.2 2/08 소프트웨어를 실행하는 기존 클러스터 노드의 중복이 될 수 있습니다.

이 절차는 새 노드에 다음 클러스터 구성 요소를 구성합니다.

시작하기 전에

다음 작업을 수행하십시오.

  1. Sun Cluster 소프트웨어가 클러스터에 추가하려는 잠재적 노드에 구성되지 않았는지 확인합니다.

    1. 잠재적 노드에서 수퍼유저로 전환합니다.

    2. Sun Cluster 소프트웨어가 잠재적 노드에 구성되었는지 여부를 확인합니다.


      phys-schost-new# /usr/sbin/clinfo -n
      
      • 명령이 실패할 경우, 단계 2로 이동하십시오.

        Sun Cluster 소프트웨어가 노드에 아직 구성되지 않습니다. 클러스터에 잠재적 노드를 추가할 수 있습니다.

      • 명령이 노드 ID 번호를 반환할 경우, 단계 c로 진행합니다.

        Sun Cluster 소프트웨어가 노드에 이미 구성되었습니다. 다른 클러스터에 노드를 추가하기 전에 기존 클러스터 구성 정보를 제거해야 합니다.

    3. 잠재적 노드를 비클러스터 모드로 부트합니다.

      • SPARC 기반 시스템에서는 다음 명령을 수행하십시오.


        ok boot -x
        
      • x86 기반 시스템에서는 다음 명령을 수행하십시오.

        1. GRUB 메뉴에서 화살표 키를 사용하여 적절한 Solaris 항목을 선택하고 e를 입력하여 해당 명령을 편집합니다.

          GRUB 메뉴가 다음과 같이 나타납니다.


          GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
          +----------------------------------------------------------------------+
          | Solaris 10 /sol_10_x86                                               |
          | Solaris failsafe                                                     |
          |                                                                      |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press enter to boot the selected OS, 'e' to edit the
          commands before booting, or 'c' for a command-line.

          GRUB 기반 부트에 대한 자세한 내용은 System Administration Guide: Basic Administration의 11 장, GRUB Based Booting (Tasks)을 참조하십시오.

        2. 부트 매개 변수 화면에서 화살표 키를 사용하여 kernel 항목을 선택하고 e를 입력하여 항목을 편집합니다.

          다음과 같이 GRUB 부트 매개 변수 화면이 나타납니다.


          GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
          +----------------------------------------------------------------------+
          | root (hd0,0,a)                                                       |
          | kernel /platform/i86pc/multiboot                                     |
          | module /platform/i86pc/boot_archive                                  |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press 'b' to boot, 'e' to edit the selected command in the
          boot sequence, 'c' for a command-line, 'o' to open a new line
          after ('O' for before) the selected line, 'd' to remove the
          selected line, or escape to go back to the main menu.
        3. 명령에 -x를 추가하여 시스템 부트를 비클러스터 모드로 지정합니다.


          [ Minimal BASH-like line editing is supported. For the first word, TAB
          lists possible command completions. Anywhere else TAB lists the possible
          completions of a device/filename. ESC at any time exits. ]
          
          grub edit> kernel /platform/i86pc/multiboot -x
          
        4. Enter 키를 눌러 변경 사항을 수락하고 부트 매개 변수 화면으로 돌아갑니다.

          화면에 편집된 명령이 표시됩니다.


          GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
          +----------------------------------------------------------------------+
          | root (hd0,0,a)                                                       |
          | kernel /platform/i86pc/multiboot -x                                  |
          | module /platform/i86pc/boot_archive                                  |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press 'b' to boot, 'e' to edit the selected command in the
          boot sequence, 'c' for a command-line, 'o' to open a new line
          after ('O' for before) the selected line, 'd' to remove the
          selected line, or escape to go back to the main menu.-
        5. 비클러스터 모드로 노드를 부트하려면 b를 입력합니다.


          주 –

          커널 부트 매개 변수 명령에 대한 변경 사항은 시스템을 재부트하면 사라집니다. 다음에 노드를 재부트하면 클러스터 모드로 부트됩니다. 대신 비클러스터 모드로 부트하려면 이 단계를 다시 수행하여 커널 부트 매개 변수 명령에 -x 옵션을 추가합니다.


    4. 잠재적 노드에서 Sun Cluster 소프트웨어를 구성 해제합니다.


      phys-schost-new# /usr/cluster/bin/clnode remove
      
  2. Sun Cluster 3.2 2/08 소프트웨어를 실행하는 노드를 복제하려면 클러스터 구성 XML 파일을 생성합니다.

    1. 복제하려는 클러스터 노드에서 수퍼유저로 전환합니다.

    2. 기존 노드의 구성 정보를 파일로 내보냅니다.


      phys-schost# clnode export -o clconfigfile
      
      -o

      출력 대상을 지정합니다.

      clconfigfile

      클러스터 구성 XML 파일의 이름입니다. 지정한 파일 이름은 기존 파일 또는 명령이 생성한 새 파일이 될 수 있습니다.

      자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.

    3. 클러스터 구성 XML 파일을 새 클러스터 노드로 구성할 잠재적 노드에 복사합니다.

  3. 잠재적 노드에서 수퍼유저로 전환합니다.

  4. 필요한 경우 클러스터 구성 XML 파일을 수정합니다.

    1. 편집할 클러스터 구성 XML 파일을 엽니다.

      • 기존 클러스터 노드를 복제할 경우, clnode export 명령을 사용하여 생성한 파일을 엽니다.

      • 기존 클러스터 노드를 복제하지 않을 경우, 새 파일을 생성합니다.

        파일은 clconfiguration(5CL) 매뉴얼 페이지에 표시된 요소 계층을 기본으로 합니다. 모든 디렉토리에 파일을 저장할 수 있습니다.

    2. XML 요소의 값을 수정하여 생성하려는 노드 구성을 반영합니다.

      클러스터 구성 XML 파일의 구조 및 내용에 대한 자세한 내용은 clconfiguration(5CL) 매뉴얼 페이지를 참조하십시오.

  5. 클러스터 구성 XML 파일을 검증합니다.


    phys-schost-new# xmllint --valid --noout clconfigfile
    
  6. 새 클러스터 노드를 구성합니다.


    phys-schost-new# clnode add -n sponsornode -i clconfigfile
    
    -n sponsornode

    새 노드에 대한 스폰서로 작동하도록 기존 클러스터 구성원의 이름을 지정합니다.

    -i clconfigfile

    클러스터 구성 XML 파일의 이름을 지정하여 입력 소스로 사용합니다.

  7. (옵션) 모니터된 모든 디스크 경로가 실패할 경우, 자동 노드 재부트를 활성화합니다.

    1. 자동 재부트 기능을 활성화합니다.


      phys-schost# clnode set -p reboot_on_path_failure=enabled 
      
      -p

      설정하려는 등록 정보 지정

      reboot_on_path_failure=enable

      클러스터의 다른 노드에서 최소 한 개의 디스크에 액세스할 수 있는 상황에서, 모든 모니터되는 디스크 경로가 실패할 경우 해당 노드를 재부트하도록 지정합니다.

    2. 디스크 경로 실패 시 자동 재부트가 활성화되는지 확인합니다.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
일반 오류

실패한 구성 - 클러스터와 한 개 이상의 노드를 결합할 수 없는 경우 또는 잘못된 구성 정보가 지정된 경우 맨 먼저 이 절차를 다시 실행합니다. 그래도 문제가 해결되지 않으면, 잘못 구성된 각 노드에서 Sun Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법을 수행하여 잘못 구성된 노드를 클러스터 구성에서 제거합니다. Sun Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음, 본 절차를 재실행합니다.

다음 순서

쿼럼 장치를 사용하는 클러스터에 노드를 추가한 경우, 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법으로 이동하십시오.

그렇지 않으면 쿼럼 구성 및 설치 모드 확인 방법으로 이동합니다.

Procedure클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법

클러스터에 노드를 추가한 경우, SCSI 장치, NAS 장치, 쿼럼 서버 또는 조합으로 사용하는지와 상관없이 쿼럼 장치의 구성 정보를 업데이트해야 합니다. 이를 수행하려면 모든 쿼럼 장치를 제거하고 전역 장치 이름 공간을 업데이트합니다. 계속 사용하려는 쿼럼 장치를 선택적으로 재구성할 수 있습니다. 이는 각 쿼럼 장치에 새 노드를 등록합니다. 각 장치는 클러스터의 새 노드 수를 기반으로 해당 투표 수를 다시 계산할 수 있습니다.

새롭게 구성된 SCSI 쿼럼 장치가 SCSI-3 예약에 설정됩니다.

시작하기 전에

추가된 노드에서 Sun Cluster 소프트웨어의 설치가 완료되어야 합니다.

  1. 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. 현재 쿼럼 구성을 확인합니다.

    명령 출력은 각 쿼럼 장치 및 각 노드를 나열합니다. 다음 예에서는 현재 SCSI 쿼럼 장치d3가 표시됩니다.


    phys-schost# clquorum list
    d3
    …
  3. 나열된 각 쿼럼 장치의 이름을 적어둡니다.

  4. 기존 쿼럼 장치를 제거합니다.

    구성되는 쿼럼 장치마다 이 단계를 수행합니다.


    phys-schost# clquorum remove devicename
    
    devicename

    쿼럼 장치의 이름을 지정합니다.

  5. 기존 쿼럼 장치가 모두 제거되었는지 확인합니다.

    쿼럼 장치가 성공적으로 제거되면 쿼럼 장치가 나열되지 않습니다.


    phys-schost# clquorum status
    
  6. 전역 장치 이름 공간을 업데이트합니다.


    phys-schost# cldevice populate
    

    주 –

    이 단계는 잠재적 노드 패닉을 예방하는 데 필수적입니다.


  7. 쿼럼 장치를 추가하기 전에, 각 노드에서 cldevice populate 명령의 처리가 완료되었는지 확인합니다.

    cldevice populate 명령은 하나의 노드에서만 실행하더라도 모든 노드에서 원격으로 실행됩니다. cldevice populate 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행합니다.


    phys-schost# ps -ef | grep scgdevs
    
  8. (옵션) 쿼럼 장치를 추가합니다.

    원래 쿼럼 장치로 구성된 동일한 장치를 구성하거나, 구성할 새 공유 장치를 선택할 수 있습니다.

    1. (옵션) 쿼럼 장치로 구성할 새 공유 장치를 선택할 경우, 시스템에서 검사된 모든 장치를 표시합니다.

      그렇지 않으면 단계 c로 건너뜁니다.


      phys-schost# cldevice list -v
      

      다음과 비슷한 결과가 출력됩니다.


      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0 
      …
    2. 출력에서 쿼럼 장치로 구성할 공유 장치를 선택합니다.

    3. 공유 장치를 쿼럼 장치로 구성합니다.


      phys-schost# clquorum add -t type devicename
      
      -t type

      쿼럼 장치의 유형을 지정합니다. 이 옵션을 지정하지 않으면 기본 유형 scsi가 사용됩니다.

    4. 구성할 각 쿼럼 장치를 반복합니다.

    5. 새 쿼럼 구성을 확인합니다.


      phys-schost# clquorum list
      

      각 쿼럼 장치 및 각 노드가 출력되어야 합니다.


예 3–4 2 노드 클러스터에 노드를 추가한 후 SCSI 쿼럼 장치 업데이트

다음 예는 원본 SCSI 쿼럼 장치 d2를 식별하고 해당 쿼럼 장치를 제거하여 사용 가능한 공유 장치를 나열하고 전역 장치 이름 공간을 업데이트하고 새 SCSI 쿼럼 장치로 d3를 구성하여 새 장치를 확인합니다.


phys-schost# clquorum list
d2
phys-schost-1
phys-schost-2

phys-schost# clquorum remove d2
phys-schost# clquorum status
…
--- Quorum Votes by Device ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------
phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
…
d3                  phys-schost-2:/dev/rdsk/c1t1d0
d3                  phys-schost-1:/dev/rdsk/c1t1d0
…
phys-schost# cldevice populate
phys-schost# ps -ef - grep scgdevs
phys-schost# clquorum add d3
phys-schost# clquorum list
d3
phys-schost-1
phys-schost-2

다음 순서

쿼럼 구성 및 설치 모드 확인 방법으로 이동합니다.

Procedure쿼럼 장치를 구성하는 방법


주 –

다음 환경에서는 쿼럼 장치를 구성하지 않아도 됩니다.

대신 쿼럼 구성 및 설치 모드 확인 방법으로 진행합니다.


이 절차는 클러스터가 완전히 구성된 후에 한 번만 수행하면 됩니다. 이 절차를 사용하여 쿼럼 투표 수를 할당한 다음 설치 모드에서 클러스터를 제거합니다.

시작하기 전에

쿼럼 서버 또는 NAS 장치를 쿼럼 장치로 구성하려면 다음 준비를 실행합니다.

  1. 쿼럼 서버를 쿼럼 장치로서 사용하려면 쿼럼 서버와 통신하도록 클러스터를 준비하십시오.

    1. 쿼럼 서버 구성 파일인 /etc/scqsd/scqsd.conf를 편집합니다.

      Sun Cluster 소프트웨어를 설치할 경우 단일 기본 쿼럼 서버에 대한 정보를 포함하는 기본 구성 파일인 /etc/scqsd/scqsd.conf가 만들어집니다. /etc/scqsd/scqsd.conf 파일에서 각 줄의 형식은 다음과 같습니다.


      /usr/cluster/lib/sc/scqsd [-d quorumdirectory] [-i instancename] -p port
      
      /usr/cluster/lib/sc/scqsd

      Sun Cluster 소프트웨어를 설치한 전체 경로입니다. 이 값은 /usr/cluster/lib/sc/scqsd여야 합니다.

      -d quorumdirectory

      쿼럼 서버가 쿼럼 데이터를 저장할 수 있는 디렉토리에 대한 경로입니다.

      쿼럼 서버 프로세스는 이 디렉토리에서 클러스터당 하나의 파일을 만들어 클러스터별 쿼럼 정보를 저장합니다. 기본적으로 이 옵션의 값은 /var/scqsd입니다. 이 디렉토리는 구성하는 각 쿼럼 서버에 대해 고유해야 합니다.

      -i instancename

      쿼럼 서버 인스턴스에 대해 선택하는 고유한 이름입니다.

      -p port

      쿼럼 서버가 클러스터로부터 요청을 수신하는 포트 번호입니다. 기본 포트는 9000입니다.

      인스턴스 이름은 선택 사항입니다. 쿼럼 서버에 대한 이름을 지정할 경우 해당 이름은 시스템의 모든 쿼럼 서버에서 고유해야 합니다. 인스턴스 이름 옵션을 생략하도록 선택한 경우 쿼럼 서버가 수신하는 포트별로 쿼럼 서버를 참조해야 합니다.

    2. 공용 네트워크가 CIDR(Classless Inter-Domain Routing)이라고도 하는 가변 길이 서브넷 기능을 사용하는 경우 각 노드에서 다음 파일을 수정합니다.

      RFC 791에 정의된 Classful 서브넷을 사용하는 경우에는 본 단계를 수행할 필요가 없습니다.

      1. 클러스터가 사용하는 각 공용 서브넷의 항목을 /etc/inet/netmasks 파일에 추가합니다.

        다음은 공용 네트워크 IP 주소 및 넷마스크를 포함하는 항목의 예입니다.


        10.11.30.0	255.255.255.0
      2. /etc/hostname.adapter 파일의 호스트 이름 항목에 netmask + broadcast +를 추가합니다.


        nodename netmask + broadcast +
        
    3. 쿼럼 서버의 IP 주소가 클러스터의 각 노드에 있는 /etc/inet/hosts 또는 /etc/inet/ipnodes 파일에 포함되어 있는지 확인합니다.

    4. 이름 지정 서비스를 사용하는 경우 쿼럼 서버가 이름 대 주소 매핑에 포함되었는지 확인합니다.

  2. 아무 노드에서나 수퍼유저로 전환합니다.

  3. 공유된 SCSI 디스크를 쿼럼 장치로 사용하려면 클러스터 노드와의 장치 연결을 확인하고 구성할 장치를 선택합니다.

    1. 클러스터의 한 노드에서 시스템이 검사하는 모든 장치의 목록을 표시합니다.

      이 명령을 실행하기 위해 수퍼유저로 전환할 필요는 없습니다.


      phys-schost-1# cldevice list -v
      

      다음과 비슷한 결과가 출력됩니다.


      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0
      …
    2. 클러스터 노드 및 저장 장치 간의 모든 연결이 출력되는지 확인합니다.

    3. 쿼럼 장치로 구성할 각 공유 디스크의 전역 장치 ID 이름을 결정하십시오.


      주 –

      선택한 공유 디스크가 쿼럼 장치로 사용하는 데 적합해야 합니다. 쿼럼 장치 선택에 대한 자세한 내용은 쿼럼 장치를 참조하십시오.


      단계 ascdidadm 출력을 사용하여 쿼럼 장치로 구성 중인 공유 디스크 각각의 장치–ID 이름을 식별합니다. 예를 들어, 단계 a에서는 전역 장치 d2phys-schost-1phys-schost-2에서 공유하는 것으로 결과가 출력되었습니다.

  4. clsetup 유틸리티를 시작합니다.


    phys-schost# clsetup
    

    Initial Cluster Setup 화면이 표시됩니다.


    주 –

    주 메뉴가 표시되면 이 절차가 이미 성공적으로 수행되었습니다. 단계 9로 건너뜁니다.


  5. Do you want to add any quorum disks?라는 메시지에 응답합니다.

    • 클러스터가 2 노드 클러스터인 경우 하나 이상의 공유 쿼럼 장치를 구성해야 합니다. 하나 이상의 쿼럼 장치를 구성하려면 Yes를 입력합니다.

    • 클러스터에 세 개 이상의 노드가 있으면 쿼럼 장치 구성은 선택 사항입니다.

      • 추가 쿼럼 장치를 구성하지 않으려면 No를 입력합니다. 그런 다음, 단계 8로 건너뜁니다.

      • 추가 쿼럼 장치를 구성하려면 Yes를 입력합니다. 그런 다음, 단계 6을 진행합니다.

  6. 쿼럼 장치로 구성할 장치 유형을 지정합니다.

    쿼럼 장치 유형 

    설명 

    scsi

    Sun NAS 장치 또는 공유 SCSI 디스크 

    quorum_server

    쿼럼 서버 

    netapp_nas

    Network Appliance NAS 장치 

  7. 쿼럼 장치로 구성할 장치 이름을 지정합니다.

    • 쿼럼 서버의 경우에도 다음 정보를 지정합니다.

      • 쿼럼 서버 호스트의 IP 주소

      • 클러스터 노드와 통신하기 위해 쿼럼 서버에 의해 사용된 포트 번호

    • Network Appliance NAS 장치에 대해 다음 정보도 지정합니다.

      • NAS 장치 이름

      • NAS 장치의 LUN ID

  8. Is it okay to reset "installmode"?라는 메시지가 표시되면 Yes를 입력합니다.

    clsetup 유틸리티가 클러스터에 대한 쿼럼 구성 및 투표 수를 설정하면 Cluster initialization is complete라는 프롬프트가 표시됩니다. 주 메뉴로 돌아갑니다.

  9. clsetup 유틸리티를 종료합니다.

다음 순서

쿼럼 구성을 확인하고 설치 모드가 비활성화되어 있는지 확인합니다. 쿼럼 구성 및 설치 모드 확인 방법으로 이동합니다.

일반 오류

중단된 clsetup 처리 - 쿼럼 설정 프로세스를 성공적으로 완료하지 못하고 중단되거나 실패한 경우, clsetup을 다시 실행합니다.

쿼럼 투표 수 변경 - 나중에 쿼럼 장치에 대한 노드 연결 수를 증감시킬 경우, 쿼럼 투표 수는 자동으로 다시 계산되지 않습니다. 각 쿼럼 장치를 제거하여 정확한 쿼럼 투표 수를 재설정한 다음 한 번에 한 쿼럼씩 구성에 다시 추가할 수 있습니다. 2 노드 클러스터의 경우 원래 쿼럼 장치를 제거했다가 다시 추가하기 전에 새 쿼럼 장치를 임시로 추가합니다. 그런 다음 임시 쿼럼 장치를 제거합니다. Solaris OS용 Sun Cluster 시스템 관리 안내서의 6 장, 쿼럼 관리에서 “쿼럼 장치 노드 목록을 수정하는 방법” 절차를 참조하십시오.

Procedure쿼럼 구성 및 설치 모드 확인 방법

쿼럼 구성이 성공적으로 완료되었는지, 그리고 클러스터 설치 모드가 비활성 상태인지 확인하려면 이 절차를 수행합니다.

이러한 명령을 실행하기 위해 수퍼유저로 전환할 필요는 없습니다.

  1. 한 노드에서 장치 및 노드 쿼럼 구성을 확인하십시오.


    phys-schost% clquorum list
    

    각 쿼럼 장치 및 각 노드가 출력됩니다.

  2. 임의의 노드에서 클러스터 설치 모드가 비활성화되었는지 확인합니다.


    phys-schost% cluster show -t global | grep installmode
      installmode:                                    disabled

    클러스터 설치가 완료됩니다.

다음 순서

아래의 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 판별합니다. 이 목록의 작업 중에서 둘 이상의 작업을 수행해야 할 경우, 해당 작업 중 첫 번째 항목으로 이동합니다.

참조

클러스터 구성을 백업합니다. 아카이브된 클러스터 구성의 백업을 사용하면 쉽게 클러스터 구성을 복구할 수 있습니다. 자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서클러스터 구성을 백업하는 방법을 참조하십시오.

Procedure개인 호스트 이름을 변경하는 방법

Sun Cluster 소프트웨어를 설치할 때 기본적으로 할당되는 개인 호스트 이름(clusternodenodeid-priv)을 사용하지 않으려면 이 작업을 수행합니다.


주 –

응용 프로그램과 데이터 서비스가 구성되어 시작된 후에는 이 절차를 수행하지 마십시오. 구성되어 시작된 후에 이 작업을 수행하면 개인 호스트 이름이 변경된 후에도 응용 프로그램이나 데이터 서비스가 이전의 개인 호스트 이름을 계속 사용하게 되어 호스트 이름 충돌이 발생할 수 있습니다. 실행하고 있는 응용 프로그램이나 데이터 서비스가 있으면 중지시킨 후에 이 절차를 수행하십시오.


클러스터의 한 활성 노드에 대해 이 절차를 수행합니다.

  1. 클러스터 노드에서 수퍼유저로 전환합니다.

  2. clsetup 유틸리티를 시작합니다.


    phys-schost# clsetup
    

    clsetup 주 메뉴가 표시됩니다.

  3. Private Hostnames에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.

    개인 호스트 이름 메뉴가 표시됩니다.

  4. Change a Private Hostname에 대한 옵션 번호를 입력하고 Enter 키를 누릅니다.

  5. 화면의 지시에 따라 개인 호스트 이름을 변경하십시오.

    변경할 각 개인 호스트 이름에 대하여 반복하십시오.

  6. 새로운 개인 호스트 이름을 확인합니다.


    phys-schost# clnode show -t node | grep privatehostname
      privatehostname:                                clusternode1-priv
      privatehostname:                                clusternode2-priv
      privatehostname:                                clusternode3-priv
다음 순서

아래의 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 판별합니다. 이 목록의 작업 중에서 둘 이상의 작업을 수행해야 할 경우, 해당 작업 중 첫 번째 항목으로 이동합니다.

ProcedureNTP (Network Time Protocol)를 구성하는 방법


주 –

Sun Cluster 소프트웨어를 설치하기 전에 자체적으로 /etc/inet/ntp.conf 파일을 설치한 경우에는 이 절차를 수행할 필요가 없습니다. 다음 단계 결정:


다음 작업을 수행한 다음에는 이 작업을 수행하여 NTP 구성 파일을 만들거나 수정합니다.

단일 노드 클러스터에 노드를 추가한 경우에는 사용한 NTP 구성 파일이 새 노드 및 기존 클러스터 노드에 복사되었는지 확인해야 합니다.

클러스터에서 NTP를 구성할 때나 동기화 기능을 수행할 때는 기본적으로 모든 클러스터 노드가 동일한 시간으로 동기화되어 있어야 합니다. 노드 사이의 시간 동기화 다음으로 중요한 요구 사항은 각 노드 시간의 정확성입니다. 동기화에 대한 이러한 기본 요구 사항이 충족되면 사용자가 필요한 대로 NTP를 구성할 수 있습니다.

클러스터 시간에 대한 자세한 내용은 Sun Cluster Concepts Guide for Solaris OS를 참조하십시오. Sun Cluster 구성을 위해 NTP를 구성하는 방법은 /etc/inet/ntp.cluster 템플리트를 참조하십시오.

  1. 클러스터 노드에서 수퍼유저로 전환합니다.

  2. 사용자 자신의 /etc/inet/ntp.conf 파일이 없을 경우, 클러스터의 노드에 파일을 복사합니다.

  3. 설치할 사용자 고유의 /etc/inet/ntp.conf 파일이 없는 경우 /etc/inet/ntp.conf.cluster 파일을 NTP 구성 파일로 사용합니다.


    주 –

    ntp.conf.cluster 파일의 이름을 ntp.conf로 변경하지 마십시오.


    이 노드에 /etc/inet/ntp.conf.cluster 파일이 없을 경우에는 이전에 설치한 Sun Cluster 소프트웨어의 /etc/inet/ntp.conf 파일을 사용할 수 있습니다. Sun Cluster 소프트웨어는 /etc/inet/ntp.conf 파일이 노드에 아직 없는 경우 /etc/inet/ntp.conf.cluster 파일을 NTP 구성 파일로 만듭니다. 그러면 해당 ntp.conf 파일을 다음과 같이 수정하십시오.

    1. 원하는 텍스트 편집기를 사용하여 편집할 클러스터의 한 노드에서 NTP 구성 파일을 엽니다.

    2. 각 클러스터 노드의 개인 호스트 이름에 대한 항목이 있는지 확인하십시오.

      노드의 개인 호스트 이름을 변경했으면 NTP 구성 파일에 새로운 개인 호스트 이름이 포함되어야 합니다.

    3. NTP 요구 사항을 충족시키기 위해 필요한 경우 다른 항목을 수정하십시오.

    4. NTP 구성 파일을 클러스터의 모든 노드에 복사하십시오.

      모든 클러스터 노드에서 NTP 구성 파일의 내용이 동일해야 합니다.

  4. 각 노드에서 NTP 데몬을 중지합니다.

    단계 5로 진행하기 전에 명령이 각 노드에서 성공적으로 완료될 때까지 기다립니다.

    • SPARC: Solaris 9 OS의 경우, 다음 명령을 사용합니다.


      phys-schost# /etc/init.d/xntpd stop
      
    • Solaris 10 OS의 경우, 다음 명령을 사용합니다.


      phys-schost# svcadm disable ntp
      
  5. 각 노드에서 NTP 데몬을 다시 시작하십시오.

    • ntp.conf.cluster 파일을 사용할 경우, 다음 명령을 실행합니다.


      phys-schost# /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 시작 스크립트를 실행하면 먼저 /etc/inet/ntp.conf 파일을 찾습니다.

      • ntp.conf 파일이 있는 경우에는 NTP 데몬을 시작하지 않고 스크립트가 즉시 종료됩니다.

      • ntp.conf 파일은 없지만 ntp.conf.cluster 파일이 있는 경우 스크립트는 NTP 데몬을 시작합니다. 이 경우 스크립트는 ntp.conf.cluster 파일을 NTP 구성 파일로 사용합니다.

    • ntp.conf 파일을 사용할 경우 다음 명령 중 하나를 실행합니다.

      • SPARC: Solaris 9 OS의 경우, 다음 명령을 사용합니다.


        phys-schost# /etc/init.d/xntpd start
        
      • Solaris 10 OS의 경우, 다음 명령을 사용합니다.


        phys-schost# svcadm enable ntp
        
다음 순서

아래의 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 판별합니다. 이 목록의 작업 중에서 둘 이상의 작업을 수행해야 할 경우, 해당 작업 중 첫 번째 항목으로 이동합니다.

Procedure클러스터 구성의 진단 데이터를 기록하는 방법

클러스터 구성을 완료했지만 아직 작업 환경에 두지 않은 경우 Sun Explorer 유틸리티를 사용하여 클러스터에 대한 기본 정보를 기록합니다. 나중에 클러스터 문제를 해결해야 할 경우 이 데이터를 사용할 수 있습니다.

  1. 수퍼유저가 되도록 합니다.

  2. 클러스터의 각 노드에서 explorer 유틸리티를 실행합니다.

    플랫폼에 맞는 적절한 명령을 사용합니다.

    서버 

    명령 

    Sun Fire 3800부터 6800까지 

    # explorer -i -w default,scextended

    Sun Fire V1280 및 E2900 

    # explorer -i -w default,1280extended

    Sun Fire T1000 및 T2000 

    # explorer -i -w default,Tx000

    Sun Fire X4x00 및 X8x00 

    # explorer -i -w default,ipmi

    다른 모든 플랫폼 

    # explorer -i

    자세한 내용은 /opt/SUNWexplo/man/man1m/ 디렉토리의 explorer(1M) 매뉴얼 페이지 및 Sun Explorer User’s Guide를 참조하십시오.

    explorer 출력 파일은 /opt/SUNWexplo/output/ 디렉토리에 explorer.hostid.hostname-date.tar.gz로 저장됩니다.

  3. 전체 클러스터가 다운된 경우 액세스할 수 있는 위치에 파일을 저장합니다.

  4. 사용자의 거주 지역에 해당하는 Sun Explorer 데이터베이스 별칭에 전자 메일을 보내서 explorer 파일을 모두 전송합니다.

    사용자 클러스터의 기술 문제를 진단하는 데 데이터가 필요한 경우 Sun 기술 지원부는 이 데이터베이스에서 explorer 출력을 사용할 수 있습니다.

    위치 

    전자 우편 주소 

    북미, 중미 및 남미(AMER) 

    explorer-database-americas@sun.com

    유럽, 중동 및 아프리카(EMEA) 

    explorer-database-emea@sun.com

    아시아, 오스트레일리아, 뉴질랜드 및 태평양(APAC) 

    explorer-database-apac@sun.com