Sun Cluster 3.0 설치 안내서

클러스터 구성

다음 테이블은 클러스터를 구성하기 위해 수행하는 작업들을 나열한 것입니다.

표 2-2 작업 맵: 클러스터 구성

작업 

지시사항을 보려면, ...로 가십시오. 

사후 설치 설정 수행 

"사후 설치 설정 수행 방법"

Solstice DiskSuite 또는 VERITAS Volume Manager 볼륨 관리자 및 디바이스 그룹을 구성하십시오.  

"볼륨 관리자 구성 방법" 그리고 볼륨 관리자 문서

클러스터 파일 시스템을 작성한 후 마운트하십시오. 

"클러스터 파일 시스템 추가 방법"

(optional) 추가 공용 네트워크 어댑터를 구성하십시오.

"추가 공용 네트워크 어댑터 구성 방법"

PNM(Public Network Management) 및 NAFO 그룹을 구성하십시오.  

"PNM(Public Network Management) 구성 방법"

(optional) 노드의 개인용 호스트 이름을 변경하십시오.

"개인용 호스트 이름 변경 방법"

/etc/inet/ntp.conf 파일을 편집하여 노드 이름 항목을 갱신하십시오.

"NTP(Network Time Protocol) 갱신 방법"

(optional) Sun Cluster 모듈을 Sun Management Center 소프트웨어에 설치하십시오.

"Sun Cluster 모니터링을 위한 Sun Management Center 소프트에어 설치 요구사항" 및 Sun Management Center 문서

타사 응용프로그램을 설치하고 응용프로그램, 데이터 서비스 및 자원 그룹을 구성하십시오.  

Sun Cluster 3.0 Data Services Installation and Configuration Guide 및 타사 응용프로그램 문서

사후 설치 설정 수행 방법

클러스터가 완전하게 형성된 후에, 이 프로시저를 한번만 수행하십시오.

  1. 모든 노드가 클러스터를 연결하였는지 확인하십시오.

    1. 한 노드에서, 모든 노드가 클러스터를 조인하였는지 확인하기 위해 클러스터 노드 목록을 표시하십시오.

      수퍼유저로 로그인하지 않아도 이 명령을 실행할 수 있습니다.


      % scstat -n
      

      출력은 다음과 유사합니다.


      -- Cluster Nodes --
                         Node name      Status
                         ---------      ------
        Cluster node:    phys-schost-1  Online
        Cluster node:    phys-schost-2  Online
    2. 각 노드에서, 시스템이 확인하는 모든 디바이스들의 목록을 표시하여 클러스터 노드에 대한 연결을 확인하십시오.

      수퍼유저로 로그인하지 않아도 이 명령을 실행할 수 있습니다.


      % scdidadm -L
      

      각 노드에서의 목록은 동일해야 합니다. 출력은 다음과 유사합니다.


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      ...
    3. scdidadm 출력에서 정족수 디바이스로 구성할 각 공유 디스크의 글로벌 디바이스 ID(DID) 이름을 식별하십시오.

      예를 들어, 이전 부속단계의 출력은 글로벌 디바이스 d2phys-schost-1phys-schost-2에 의해 공유됨을 보여줍니다. 이 정보는 단계 4에서 필요합니다. 정족수 디바이스 계획에 대한 추가 정보는 "정족수 디바이스"의 내용을 참조하십시오.

  2. 클러스터의 한 노드에서 수퍼유저가 되어야 합니다.

  3. scsetup(1M) 유틸리티를 시작하십시오.


    # scsetup
    

    초기 클러스터 설정 화면이 표시됩니다.


    주 -

    기본 메뉴가 대신 표시되면, 이 프로시저는 이미 성공적으로 수행되었습니다.


  4. 프롬프트에 응답하십시오.

    1. 프롬프트 Do you want to add any quorum disks?에서, 클러스터가 2-노드 클러스터이면 최소한 하나의 공유 정족수 디바이스를 구성하십시오.

      2-노드 클러스터는 공유 정족수 디바이스가 구성될 때까지 설치 모드에 남아 있습니다. scsetup 유틸리티가 정족수 디바이스를 구성한 후, 메시지 Commandcompleted successfully가 표시됩니다. 클러스터에 세 개 이상의 노드가 있을 경우, 정족수 디바이스 구성은 선택적입니다.

    2. Is it okay to reset "installmode"? 프롬프트에서, Yes라고 응답하십시오.

      scsetup 유틸리티가 정족수 구성 및 클러스터에 대한 투표수를 구성한 후, 메시지 Cluster initialization is complete가 표시되고 유틸리티가 기본 메뉴로 돌아 갑니다.


    주 -

    정족수 설정 프로세스가 성공적으로 완료하는데 실패했거나 인터럽트된 경우, 단계 3단계 4를 다시 실행하십시오.


  5. 어느 노드에서, 클러스터 설치 모드를 사용할 수 없는지 확인하십시오.


    # scconf -p | grep "Cluster install mode:"
    Cluster install mode:                                  disabled

이동해야 할 곳

볼륨 관리자 소프트웨어를 구성하려면, "볼륨 관리자 구성 방법"로 가십시오.

볼륨 관리자 구성 방법

  1. 다음 정보를 사용할 수 있도록 하십시오.

    • 스토리지 디스크 드라이브의 맵핑

    • Sun Cluster 3.0 Release Notes에 있는 완성된 구성 계획 워크시트.

      • "로컬 파일 시스템 배치 워크시트"

      • "디스크 디바이스 그룹 구성 워크시트"

      • "볼륨 관리자 구성 워크시트"

      • "메타디바이스 워크시트(Solstice DiskSuite)"

      계획 지침에 대해서는 제 1 장의 내용을 참조하십시오.

  2. 볼륨 관리자에 대해서는 해당되는 구성 프로시저를 따르십시오.

    볼륨 관리자 

    문서 

    Solstice DiskSuite 

    부록 A

    Solstice DiskSuite 문서 

    VERITAS Volume Manager 

    부록 B

    VERITAS Volume Manager 문서 

이동해야 할 곳

볼륨 관리자를 구성한 후, 클러스터 파일 시스템을 작성하려면 "클러스터 파일 시스템 추가 방법"로 이동하십시오.

클러스터 파일 시스템 추가 방법

추가한 각 클러스터 파일 시스템에 대해 이 작업을 수행하십시오.


주의 - 주의 -

파일 시스템을 작성하면 디스크의 데이터가 소멸됩니다. 올바른 디스크 디바이스 이름을 지정하였는지 확인하십시오. 잘못된 디바이스 이름을 지정할 경우, 새로운 파일 시스템이 작성될 때 그 내용을 지웁니다.


  1. 클러스터의 노드에서 수퍼유저가 되어야 합니다.


    정보 -

    더 빠르게 파일 시스템을 작성하려면, 파일 시스템을 작성하는 글로벌 디바이스의 현재 1차 노드에서 수퍼유저가 되어야 합니다.


  2. newfs(1M) 명령을 사용하여 파일 시스템을 작성하십시오.


    # newfs raw-disk-device
    

    다음 테이블은 raw-disk-device 인수 이름의 예를 보여줍니다. 이름지정 규정은 각 볼륨 관리자마다 다릅니다.

    표 2-3 원래 디스크 디바이스 이름 샘플

    볼륨 관리자 

    디스크 디바이스 이름 샘플 

    설명 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 디스크세트 내의 원래 디스크 디바이스 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹 내의 원래 디스크 디바이스 vo101

    없음 

    /dev/global/rdsk/d1s3

    원래 디스크 디바이스 d1s3

  3. 각각의 클러스터 노드에서, 클러스터 파일 시스템마다 마운트 지점 디렉토리를 작성하십시오.

    마운트 지점은 클러스터 파일 시스템이 해당 노드에서 액세스되지 않을 경우에도 각 노드에서 필요합니다.


    # mkdir -p /global/device-group/mount-point
    
    device-group

    디바이스를 포함하는 디바이스 그룹의 이름에 해당되는 디렉토리 이름

    mount-point

    클러스터 파일 시스템을 마운트할 디렉토리 이름


    정보 -

    편리한 관리를 위해, /global/device-group 디렉토리에 마운트 지점을 작성하십시오. 이 위치는 클러스터 파일 시스템을 쉽게 구별할 수 있게 하고, 로컬 파일 시스템에서 글로벌로 사용가능합니다.


  4. 클러스터의 각 노드에서, 마운트 지점에 대해 항목을 /etc/vfstab 파일에 추가하십시오.


    주 -

    syncdir 마운트 옵션은 클러스터 파일 시스템에 대해 필수 옵션이 아닙니다. syncdir을 지정할 경우, POSIX를 준수하는 파일 시스템 동작이 보장됩니다. 그렇게 하지 않으면, UFS 파일 시스템에서와 같은 동작을 수반하게 됩니다. syncdir을 지정하지 않으면 데이터를 파일에 추가하는 것처럼, 디스크 블록을 할당하는 쓰기의 성능이 현저하게 향상될 수 있습니다. 그러나 일부 경우에 syncdir이 없으면, 파일을 닫을 때가지 공간 부족 상태를 발견하지 못합니다. syncdir을 지정하지 않을 경우, 문제점이 발생하는 경우가 거의 없습니다. syncdir(및 POSIX 동작)을 사용하면, 닫기 전에 공간 부족 상태가 발견되었을 것입니다.


    1. 클러스터 파일 시스템을 자동으로 마운트하려면, mount at boot 필드를 yes로 설정하십시오.

    2. 다음 필수 마운트 옵션을 사용하십시오.

      • Solaris UFS logging을 사용할 경우, global,logging 마운트 옵션을 사용하십시오.

      • 클러스터 파일 시스템이 Solstice DiskSuite trans 메타디바이스를 사용할 경우, global 마운트 옵션을 사용하십시오(logging 마운트 옵션을 사용하지 마십시오). trans 메타디바이스 설정에 대해서는 Solstice DiskSuite 문서를 참조하십시오


      주 -

      로그 기록은 모든 클러스터 파일 시스템에 필요합니다.


    3. 각 클러스터 파일 시스템에 대해, /etc/vfstab 항목의 정보가 각 노드에서 같은 지 확인하십시오.

    4. 파일 시스템의 시동 순서 종속성에 대해 확인하십시오.

      예를 들어, phys-schost-1이 디스크 디바이스 d0/global/oracle에 마운트하고, phys-schost-2가 디스크 디바이스 d1/global/oracle/logs에 마운트한다고 가정합니다. 이 구성에서, phys-schost-1이 시동되고 /global/oracle을 마운트한 후에만 phys-schost-2가 시동되고 /global/oracle/logs를 마운트할 수 있습니다.

    5. 각 노드의 /etc/vfstab 파일에 있는 항목들이 디바이스들을 동일한 순서대로 나열하는지 확인하십시오.

    세부사항은 vfstab(4) man 페이지를 참조하십시오.

  5. 클러스터의 임의의 노드에서, 마운트 지점이 존재하고 /etc/vfstab 파일 항목이 클러스터의 모든 노드에서 올바른지 확인하십시오.


    # sccheck
    

    어떤 오류도 발생하지 않으면, 어떤 것도 리턴되지 않습니다.

  6. 클러스터의 임의의 노드에서, 클러스터 파일 시스템을 마운트하십시오.


    # mount /global/device-group/mount-point
    
  7. 클러스터의 각 노드에서, 클러스터 파일 시스템이 마운트되었는지 확인하십시오.

    df(1M) 또는 mount(1M) 명령을 사용하여 마운트된 파일 시스템을 나열할 수 있습니다.

예-클러스터 파일 시스템 작성

다음 예는 Solstice DiskSuite 메타디바이스 /dev/md/oracle/rdsk/d1에서 UFS 클러스터 파일 시스템을 작성합니다.


# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node:)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node:)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999

이동해야 할 곳

클러스터 노드가 여러 개의 공용 서브넷에 연결되어 있는 경우, 추가 공용 네트워크 어댑터를 구성하려면 "추가 공용 네트워크 어댑터 구성 방법"로 이동하십시오.

그렇지 않고, PNM을 구성하고 NAFO 그룹을 설정하려면, "PNM(Public Network Management) 구성 방법"로 이동하십시오.

추가 공용 네트워크 어댑터 구성 방법

클러스터 노드가 여러 개의 공용 서브넷에 연결되어 있는 경우, 2차 서브넷에 대해 추가 공용 네트워크 어댑터를 구성할 수 있습니다. 그러나 2차 서브넷을 구성하는 것은 반드시 수행하지 않아도 됩니다.


주 -

사설 네트워크 어댑터가 아닌, 공용 네트워크 어댑터만을 구성하십시오.


  1. Sun Cluster 3.0 Release Notes에서 완료된 "공용 네트워크 워크시트"를 사용가능하게 하십시오.

  2. 추가 공용 네트워크 어댑터에 대해 구성될 노드에서 수퍼유저가 되어야 합니다.

  3. /etc/hostname.adapter 파일을 작성하십시오. adapter는 어댑터 이름입니다.


    주 -

    각 NAFO 그룹에서, /etc/hostname.adapter 파일은 그룹에서 단 하나의 어댑터에 대해 존재해야 합니다.


  4. /etc/hostname.adapter 파일에서 공용 네트워크 어댑터 IP 주소의 호스트 이름을 입력하십시오.

    예를 들어, 다음은 어댑터 hme3에 대해 작성된 /etc/hostname.hme3파일을 보여주며, 파일에는 호스트 이름 phys-schost-1이 들어 있습니다.


    # vi /etc/hostname.hme3
    phys-schost-1
  5. 각 클러스터 노드에서, /etc/inet/hosts 파일에, 공용 네트워크 어댑터에 할당된 IP 주소와 해당되는 호스트 이름이 포함되어 있는지 확인하십시오.

    예를 들어, 다음은 phys-schost-1 입력항목을 보여줍니다.


    # vi /etc/inet/hosts
    ...
    192.29.75.101 phys-schost-1
    ...


    주 -

    이름지정 서비스를 사용할 경우, 이 정보도 이름지정 서비스 데이터베이스에 존재해야 합니다.


  6. 각 클러스터 노드에서, 어댑터를 켜십시오.


    # ifconfig adapter plumb
    # ifconfig adapter hostname netmask + broadcast + -trailers up
    

  7. 어댑터가 올바로 구성되어 있는지 확인하십시오.


    # ifconfig adapter
    

    출력에는 어댑터에 대한 올바른 IP 주소가 포함되어 있어야 합니다.

이동해야 할 곳

자원 그룹 관리자(RGM)에 의해 관리될 각 공용 네트워크 어댑터는 NAFO 그룹에 속해야 합니다. PNM을 구성하고 NAFO 그룹을 설정하려면, "PNM(Public Network Management) 구성 방법"로 이동하십시오.

PNM(Public Network Management) 구성 방법

클러스터의 각 노드에서 이 작업을 수행하십시오.


주 -

모든 공용 네트워크 어댑터는 반드시 NAFO(Network Adapter Failover) 그룹에 속해야 합니다. 또한 각 노드에는 서브넷 당 단 하나의 NAFO 그룹만 있을 수 있습니다.


  1. Sun Cluster 3.0 Release Notes에서 완료된 "공용 네트워크 워크시트"를 사용가능하게 하십시오.

  2. NAFO 그룹에 대해 구성될 노드에서 수퍼유저가 되어야 합니다.

  3. NAFO 그룹을 작성하십시오.


    # pnmset -c nafo_group -o create adapter [adapter ...]
    -c nafo_group

    NAFO 그룹을 구성합니다 nafo_group

    -o create adapter

    하나 이상의 공용 네트워크 어댑터를 포함하는 새 NAFO 그룹을 작성합니다.

    자세한 정보는 pnmset(1M) man 페이지를 참조하십시오.

  4. NAFO 그룹의 상태를 확인하십시오.


    # pnmstat -l
    

    자세한 정보는 pnmstat(1M) man 페이지를 참조하십시오.

예-PNM 구성

다음 예는 NAFO 그룹 nafo0를 작성합니다. 이는 공용 네트워크 어댑터 qfe1qfe5를 사용합니다.


# pnmset -c nafo0 -o create qfe1 qfe5
# pnmstat -l
group  adapters       status  fo_time    act_adp
nafo0  qfe1:qfe5      OK      NEVER      qfe5
nafo1  qfe6           OK      NEVER      qfe6

이동해야 할 곳

개인용 호스트 이름을 변경하려면, "개인용 호스트 이름 변경 방법"로 이동하십시오. 그렇지 않고, /etc/inet/ntp.conf 파일을 갱신하려면, "NTP(Network Time Protocol) 갱신 방법"로 이동하십시오.

개인용 호스트 이름 변경 방법

Sun Cluster 소프트웨어 설치중 지정된 기본 개인용 호스트 이름(clusternodenodeid-priv)을 사용하지 않으려면 이 작업을 수행하십시오.


주 -

이 프로시저는 응용프로그램과 데이터 서비스가 구성되어 시작되고 나면 수행하지 않아야 합니다. 그렇지 않으면, 응용프로그램이나 데이터 서비스가 이름이 바뀐 후에도 이전의 개인용 호스트 이름을 계속 사용하게 되어 호스트 이름 충돌이 발생할 수도 있습니다. 응용프로그램이나 데이터 서비스가 실행 중이면, 이 프로시저를 수행하기 전에 정지하십시오.


  1. 클러스터 노드에서 수퍼유저가 되어야 합니다.

  2. scsetup(1M) 유틸리티를 시작하십시오.


    # scsetup
    
  3. 개인용 호스트 이름에 대해 작업하려면, 4(개인용 호스트 이름)를 입력하십시오.

  4. 개인용 호스트 이름을 변경하려면, 1(개인용 호스트 이름 변경)을 입력하십시오.

    개인용 호스트 이름을 변경하려면 프롬프트를 따르십시오. 변경할 각각의 개인용 호스트 이름마다 반복하십시오.

  5. 새로운 개인용 호스트 이름을 확인하십시오.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

이동해야 할 곳

/etc/inet/ntp.conf 파일을 갱신하려면, "NTP(Network Time Protocol) 갱신 방법"로 이동하십시오.

NTP(Network Time Protocol) 갱신 방법

각 노드에서 이 작업을 수행하십시오.

  1. 클러스터 노드에서 수퍼유저가 되어야 합니다.

  2. /etc/inet/ntp.conf 파일을 편집하십시오.

    scinstall(1M) 명령은 템플리트 파일 ntp.cluster를 표준 클러스터 설치의 일부로 /etc/inet/ntp.conf에 복사합니다. 하지만 Sun Cluster 설치 전에 ntp.conf 파일이 이미 존재하면, 그 기존 파일은 변경되지 않습니다. 다른 수단으로 클러스터 패키지가 설치된 경우(pkgadd(1M)의 직접적인 사용과 유사), NTP를 구성해야 합니다.

    1. 클러스터에서 사용되지 않는 개인용 호스트 이름에 대한 모든 항목을 제거하십시오.

      ntp.conf 파일에 존재하지 않는 개인용 호스트 이름이 포함되어 있으면, 노드가 다시 시동될 때, 해당되는 개인용 호스트 이름을 접속시키려는 노드의 시도에서 오류 메시지가 생성됩니다.

    2. Sun Cluster 소프트웨어 설치 후에 개인용 호스트 이름을 변경하였으면, 각 파일 항목을 새로운 개인용 호스트 이름으로 갱신하십시오.

    3. 필요하면, NTP 요구사항에 만족되도록 다른 수정을 수행하십시오.

      NTP를 구성할 때 또는 클러스터 내에서 동기화 기능 수행 시 기본 요구사항은 모든 클러스터 노드가 동시에 동기화되는 것입니다. 노드들 사이의 시간 동기화에 대한 보조로 개인 노드에서 시간의 정확성을 고려하십시오. 동기화에 대한 이러한 기본 요구사항이 만족되면 사용자가 필요한 대로 NTP를 구성할 수 있습니다.

      클러스터 시간에 관한 추가 정보는 Sun Cluster 3.0 Concepts를, Sun Cluster 구성에 맞는 NTP 구성 지침은 ntp.cluster 템플리트를 참조하십시오.

  3. NTP 디먼을 다시 시작하십시오.


    # /etc/init.d/xntpd stop
    # /etc/init.d/xntpd start
    

이동해야 할 곳

Sun Management Center 제품을 사용하여 자원 그룹을 구성하거나 클러스터를 모니터하려면, "Sun Cluster 모니터링을 위한 Sun Management Center 소프트에어 설치 요구사항"로 이동하십시오.

그렇지 않고, 타사 응용프로그램을 설치하려면 응용프로그램 소프트웨어와 함께 제공되는 문서와 Sun Cluster 3.0 Data Services Installation and Configuration Guide의 내용을 참조하십시오. 자원 유형을 등록하려면, 자원 그룹을 설정하고 데이터 서비스를 구성한 후 Sun Cluster 3.0 Data Services Installation and Configuration Guide의 내용을 참조하십시오.