Solaris OS용 Sun Cluster 소프트웨어 설치 안내서

클러스터 구성

이 절에서는 클러스터에 설치된 소프트웨어를 구성하는 절차와 정보를 제공합니다.

작업 맵: 클러스터 구성

다음 표는 클러스터를 구성하기 위해 수행할 작업 목록입니다. 이 작업을 수행하기 전에 다음 작업이 완료되었는지 확인하십시오.

표 2–10 작업 맵: 클러스터 구성

작업 

지침 

클러스터 파일 시스템을 만들고 마운트 

클러스터 파일 시스템을 추가하는 방법

IP Network Multipathing 그룹을 구성하십시오. 

Internet Protocol (IP) Network Multipathing 그룹을 구성하는 방법

(옵션) 노드의 개인 호스트 이름 변경

개인 호스트 이름을 변경하는 방법

NTP 구성 파일 만들기 또는 변경 

NTP (Network Time Protocol)를 구성하는 방법

(옵션) SPARC: Sun Management Center 소프트웨어에 Sun Cluster 모듈 설치

SPARC: Sun Management Center용 Sun Cluster 모듈 설치

Sun Management Center 설명서 

다른 회사 응용 프로그램을 설치하고 응용 프로그램, 데이터 서비스 및 자원 그룹 구성 

Sun Cluster Data Service Planning and Administration Guide for Solaris OS

다른 회사 응용 프로그램 설명서 

클러스터 파일 시스템을 추가하는 방법

추가하는 각 클러스터 파일 시스템에 대해 이 절차를 수행하십시오. 클러스터 파일 시스템은 클러스터의 모든 노드에서 액세스할 수 있습니다.


주의 – 주의 –

파일 시스템을 만들면 디스크의 데이터가 모두 삭제됩니다. 정확한 디스크 장치 이름을 지정해야 합니다. 잘못된 장치 이름을 지정하면 지우려고 하지 않은 데이터가 삭제됩니다.


SunPlex Manager를 사용하여 데이터 서비스를 설치한 경우 SunPlex Manager가 하나 이상의 클러스터 파일 시스템을 이미 만들었을 수 있습니다.

  1. 볼륨 관리자 소프트웨어를 설치하고 구성해야 합니다.

    볼륨 관리자 설치 절차는 Solstice DiskSuite/Solaris Volume Manager 소프트웨어 설치 및 구성 또는 SPARC: VxVM 소프트웨어 설치 및 구성 를 참조하십시오.

  2. 클러스터의 노드에서 수퍼유저가 됩니다.


    정보 –

    더 빨리 파일 시스템을 만들려면 파일 시스템을 만드는 현재 기본 전역 장치에서 수퍼유저가 됩니다.


  3. 파일 시스템을 만드십시오.

    • UFS 파일 시스템의 경우에는 newfs(1M) 명령을 사용하십시오.


      # newfs raw-disk-device
      

    • SPARC: VxFS 파일 시스템의 경우에는 VxFS 설명서에 있는 절차를 따르십시오.

    다음 표는 raw-disk-device 인자 이름의 예입니다. 이름 지정 규칙은 볼륨 관리자마다 다릅니다.

    볼륨 관리자 

    디스크 장치 이름 샘플 

    설명 

    Solstice DiskSuite 또는 Solaris Volume Manager 

    /dev/md/nfs/rdsk/d1

    nfs 디스크 세트에 있는 원시 디스크 장치 d1

    SPARC: VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹에 있는 원시 디스크 장치 vol01

    없음 

    /dev/global/rdsk/d1s3

    원시 디스크 장치 d1s3

  4. 클러스터의 각 노드에서 클러스터 파일 시스템에 대한 마운트 지점 디렉토리를 만듭니다.

    클러스터 파일 시스템이 노드에 액세스되지 않더라도 각 노드에 마운트 지점이 필요합니다.


    정보 –

    관리 작업을 쉽게 하려면 /global/device-group 디렉토리에 마운트 지점을 만드십시오. 이 위치를 사용하면 로컬 파일 시스템에서 전역으로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    장치를 포함하는 장치 그룹의 이름에 해당하는 디렉토리 이름

    mountpoint

    클러스터 파일 시스템을 마운트할 디렉토리 이름

  5. 클러스터의 각 노드에서 /etc/vfstab 파일에 마운트 지점에 대한 항목을 추가합니다.

    자세한 내용은 vfstab(4) 설명서 페이지를 참조하십시오.

    1. 각 항목에서 사용하는 파일 시스템 유형에 대한 필수 마운트 옵션을 지정합니다. 필수 마운트 옵션 목록은 표 2–11 또는 표 2–12를 참조하십시오.


      주 –

      모든 클러스터 파일 시스템에 로깅이 필요합니다. Solstice DiskSuite 트랜잭션 메타 장치 또는 Solaris Volume Manager 트랜잭션 볼륨에 대해서는 logging 마운트 옵션을 사용하지 마십시오. 트랜잭션 메타 장치 및 트랜잭션 볼륨은 자체 로깅을 제공합니다.

      또한, Solaris Volume Manager transactional-volume logging (이전의 Solstice DiskSuite trans-metadevice logging)은 이후의 Solaris 릴리스에서는 Solaris 운영 환경에서 제거될 예정입니다. Solaris UFS logging은 시스템 관리 요구 사항과 오버헤드는 줄이면서 기능은 동일하지만 보다 우수한 성능을 제공합니다.


      표 2–11 UFS 클러스터 파일 시스템에 대한 마운트 옵션

      마운트 옵션 

      설명 

      global

      필수. 이 옵션은 파일 시스템이 클러스터의 모든 노드에서 전역으로 볼 수 있게 합니다.

      logging

      필수. 이 옵션은 로깅을 활성화합니다.

      forcedirectio

      Oracle Parallel Server/Real Application Clusters RDBMS 데이터 파일, 로그 파일 및 제어 파일을 호스트하는 클러스터 파일 시스템에 필수입니다.


      주 –

      Oracle Parallel Server/Real Application Clusters는 SPARC 기반 클러스터에서만 지원됩니다.


      syncdir

      옵션. syncdir을 지정하면 write() 시스템 호출에 대해 POSIX 호환 파일 시스템 동작이 보장됩니다. write()가 성공할 경우 이 마운트 옵션을 사용하면 디스크에서 충분한 공간이 확보됩니다.

      syncdir 옵션을 지정하지 않으면 UFS 파일 시스템에서와 동일하게 작동합니다. syncdir 옵션을 지정하지 않으면 데이터를 파일에 추가하는 경우처럼 디스크 블록을 할당하는 쓰기 성능이 크게 향상됩니다. 그러나 syncdir 옵션을 지정하지 않으면 파일을 닫을 때까지 공간 부족 상태(ENOSPC)를 발견하지 못할 수 있습니다.

      ENOSPC는 페일오버가 발생한 후 매우 짧은 시간 동안만 표시된 후 닫힙니다. syncdir을 사용하면 POSIX가 함께 작동하여 파일을 닫기 전에 공간 부족 상태가 발견됩니다.


      주 –

      onerror=umount 또는 onerror=lock 마운트 옵션을 사용하지 마십시오. 이러한 마운트 옵션은 다음과 같은 이유로 클러스터 파일 시스템에 지원되지 않습니다.

      • onerror=umount 또는 onerror=lock 마운트 옵션을 사용하면 클러스터 파일 시스템이 잠기거나 액세스가 불가능할 수 있습니다. 이러한 조건은 클러스터 파일 시스템에서 파일 손상이 있는 경우에 발생할 수 있습니다.

      • onerror=umount 또는 onerror=lock 마운트 옵션은 클러스터 파일 시스템이 마운트되지 않게 할 수 있습니다. 이러한 조건에서는 응용 프로그램에서 클러스터 파일 시스템이 중지되거나 응용 프로그램이 종료되지 않을 수 있습니다.

      이러한 상태에서 복구하려면 노드를 재부트해야 할 수 있습니다.

      onerror=panic 마운트 옵션만 Sun Cluster 소프트웨어에서 지원됩니다. /etc/vfstab 파일에 onerror=panic 마운트 옵션을 지정할 필요는 없습니다. 이 마운트 옵션은 다른 onerror 마운트 옵션을 지정하지 않은 경우 이미 기본값으로 지정되어 있습니다.


      UFS 마운트 옵션에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.

      표 2–12 SPARC: VxFS 클러스터 파일 시스템에 대한 마운트 옵션

      마운트 옵션 

      설명 

      global

      필수. 이 옵션은 파일 시스템이 클러스터의 모든 노드에서 전역으로 볼 수 있게 합니다.

      log

      필수. 이 옵션은 로깅을 활성화합니다.

      VxFS 마운트 옵션에 대한 자세한 내용은 VxFS mount_vxfs 설명서 페이지 및 Solaris OS용 Sun Cluster 시스템 관리 안내서의 “클러스터 파일 시스템 관리 개요”를 참조하십시오.

    2. 클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.

    3. 각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.

    4. 각 노드의 /etc/vfstab 파일에 있는 장치 항목 순서가 동일한지 확인하십시오.

    5. 파일 시스템의 부트 순서 종속성을 확인하십시오.

      예를 들어, phys-schost-1/global/oracle에 디스크 장치 d0을 마운트하고 phys-schost-2/global/oracle/logs에 디스크 장치 d1을 마운트한다고 가정합니다. 이 구성에서는 phys-schost-1이 부트되어 /global/oracle을 마운트한 후에만 phys-schost-2가 부트되어 /global/oracle/logs를 마운트할 수 있습니다.

  6. 클러스터의 노드에서 sccheck (1M) 유틸리티를 실행합니다.

    sccheck 유틸리티는 마운트 지점이 있는지 확인합니다. 또한 /etc/vfstab 파일 항목이 클러스터의 모든 노드에서 올바른지 확인합니다.


     # sccheck
    

    오류가 발생하지 않으면 아무 것도 반환되지 않습니다.

  7. 클러스터 파일 시스템을 마운트합니다.


    # mount /global/device-group/mountpoint
    

    • UFS의 경우 클러스터의 노드에서 클러스터 파일 시스템을 마운트합니다.

    • SPARC: VERITAS File System (VxFS)의 경우 device-group의 현재 마스터에서 클러스터 파일 시스템을 마운트하여 파일 시스템이 성공적으로 마운트되는지 확인합니다. 또한, VxFS 파일 시스템을 마운트 해제할 때도 현재 device-group의 마스터에서 파일 시스템을 마운트 해제해야 성공적으로 해제됩니다.


      주 –

      Sun Cluster 환경에서 VxFS 클러스터 파일 시스템을 관리하려면 VxFS 클러스터 파일 시스템이 마운트되는 기본 노드에서만 관리 명령을 실행하십시오.


  8. 클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되는지 확인합니다.

    df(1M) 또는 mount(1M) 명령을 사용하면 마운트된 파일 시스템을 표시할 수 있습니다.

  9. IP Network Multipathing 그룹을 구성하십시오.

    Internet Protocol (IP) Network Multipathing 그룹을 구성하는 방법 로 이동하십시오.

예 – 클러스터 파일 시스템 만들기

다음은 Solstice DiskSuite 메타 장치 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 만드는 예입니다.


# newfs /dev/md/oracle/rdsk/d1
…
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

Internet Protocol (IP) Network Multipathing 그룹을 구성하는 방법

클러스터의 각 노드에서 이 작업을 수행하십시오. SunPlex Manager를 사용하여 Sun Cluster HA for Apache 또는 Sun Cluster HA for NFS를 설치한 경우 SunPlex Manager는 해당 데이터 서비스가 사용하는 공용 네트워크 어댑터에 대해 IP Network Multipathing 그룹을 구성합니다. 나머지 공용 네트워크 어댑터에 대해 IP Network Multipathing 그룹을 구성해야 합니다.


주 –

모든 공용 네트워크 어댑터가 IP Network Multipathing 그룹에 반드시 포함되어야 합니다.


  1. 작성한 독립 네트워크를 사용하십시오.

  2. IP Network Multipathing 그룹을 구성하십시오.

    IPv4 주소 절차는 IP Network Multipathing Administration Guide의 “Deploying Network Multipathing” (Solaris 8) 또는System Administration Guide: IP Services의 “Administering Network Multipathing (Task)” (Solaris 9)을 참조하십시오.

    추가 요구 사항에 따라 Sun Cluster 구성에 IP Network Multipathing 그룹을 구성하십시오.

    • 각 공용 네트워크 어댑터가 Multipathing 그룹에 포함되어야 합니다.

    • 두 개 이상의 어댑터를 포함하는 Multipathing 그룹의 경우 그룹의 각 어댑터에 대해 테스트 IP 주소를 구성해야 합니다. Multipathing 그룹에 어댑터가 하나만 포함되어 있는 경우 테스트 IP 주소를 구성하지 않아도 됩니다.

    • 동일한 multipathing 그룹에 포함된 모든 어댑터의 테스트 IP 주소가 하나의 IP 서브넷에 속해야 합니다.

    • 테스트 IP 주소는 가용성이 높지 않기 때문에 일반 응용 프로그램에서 사용하면 안 됩니다.

    • /etc/default/mpathd 파일에서 TRACK_INTERFACES_ONLY_WITH_GROUPS의 값을 yes에서 no로 변경하지 마십시오.

    • Multipathing 그룹의 이름에는 요구 사항이나 제한 사항이 없습니다.

  3. 개인 호스트 이름을 변경하시겠습니까?

  4. Sun Cluster 소프트웨어를 설치하기 전에 자신의 /etc/inet/ntp.conf 파일을 설치했습니까?

  5. SPARC 기반 시스템에서 Sun Cluster를 사용하고 Sun Management Center를 사용하여 클러스터를 모니터하시겠습니까?

개인 호스트 이름을 변경하는 방법

Sun Cluster 소프트웨어를 설치할 때 기본적으로 할당되는 개인 호스트 이름(clusternodenodeid-priv)을 사용하지 않으려면 이 작업을 수행하십시오.


주 –

응용 프로그램과 데이터 서비스가 구성되어 시작된 후에는 이 절차를 수행하지 마십시오. 구성되어 시작된 후에 이 작업을 수행하면 개인 호스트 이름이 변경된 후에도 응용 프로그램이나 데이터 서비스가 이전의 개인 호스트 이름을 계속 사용하게 되어 호스트 이름 충돌이 발생할 수 있습니다. 실행하고 있는 응용 프로그램이나 데이터 서비스가 있으면 중지시킨 후에 이 절차를 수행하십시오.


  1. 클러스터의 노드에서 수퍼유저가 되십시오.

  2. scsetup(1M) 유틸리티를 사용하십시오.


    # scsetup
    

  3. Main Menu에서 Private hostnames를 선택합니다.

  4. Private Hostname Menu에서 Change a private hostname을 선택합니다.

  5. 화면의 지시에 따라 개인 호스트 이름을 변경하십시오.

    변경할 각 개인 호스트 이름에 대하여 반복하십시오.

  6. 새 개인 호스트 이름을 확인하십시오.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

  7. Sun Cluster 소프트웨어를 설치하기 전에 자신의 /etc/inet/ntp.conf 파일을 설치했습니까?

  8. SPARC 기반 시스템에서 Sun Cluster를 사용하고 Sun Management Center를 사용하여 클러스터를 모니터하시겠습니까?

NTP (Network Time Protocol)를 구성하는 방법

Sun Cluster 소프트웨어를 설치한 후에 NTP 구성 파일을 만들거나 변경하려면 이 작업을 수행하십시오. 기존의 클러스터에 노드를 추가하는 경우 또는 클러스터 노드의 개인 호스트 이름을 변경하는 경우 NTP 구성 파일을 변경해야 합니다.

클러스터에서 NTP를 구성할 때나 동기화 기능을 수행할 때는 기본적으로 모든 클러스터 노드가 동일한 시간으로 동기화되어 있어야 합니다. 노드 사이의 시간 동기화 다음으로 중요한 요구 사항은 각 노드 시간의 정확성입니다. 동기화에 대한 이러한 기본 요구 사항이 충족되면 사용자가 필요한 대로 NTP를 구성할 수 있습니다.

클러스터 시간에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오. Sun Cluster 구성을 위해 NTP를 구성하는 방법은 /etc/inet/ntp.cluster 템플리트를 참조하십시오.

  1. Sun Cluster 소프트웨어를 설치하기 전에 자신의 /etc/inet/ntp.conf 파일을 설치했습니까?

    • 그러면 ntp.conf 파일을 변경하지 않아도 됩니다. 단계 8로 이동하십시오.

    • 아니면 단계 2로 이동하십시오.

  2. 클러스터 노드에서 수퍼유저가 되십시오.

  3. 클러스터 노드에 설치할 자신의 /etc/inet/ntp.conf 파일이 있습니까?

    • 아니면 단계 4로 이동합니다.

    • 그러면 클러스터의 노드에 /etc/inet/ntp.conf 파일을 복사한 다음 단계 6으로 이동하십시오.

  4. 클러스터의 한 노드에서 /etc/inet/ntp.conf.cluster 파일에 있는 개인 호스트 이름을 수정하십시오.


    주 –

    ntp.conf.cluster 파일의 이름을 ntp.conf로 변경하지 마십시오.


    이 노드에 /etc/inet/ntp.conf.cluster 파일이 없을 경우에는 이전에 설치한 Sun Cluster 소프트웨어의 /etc/inet/ntp.conf 파일을 사용할 수 있습니다. Sun Cluster 소프트웨어는 /etc/inet/ntp.conf 파일이 노드에 아직 없는 경우 /etc/inet/ntp.conf.cluster 파일을 NTP 구성 파일로 만듭니다. 그러면 해당 ntp.conf 파일을 다음과 같이 수정하십시오.

    1. 각 클러스터 노드의 개인 호스트 이름에 대한 항목이 있는지 확인하십시오.

      노드의 개인 호스트 이름을 변경했으면 NTP 구성 파일에 새로운 개인 호스트 이름이 포함되어야 합니다.

    2. 사용하지 않는 개인 호스트 이름은 제거하십시오.

      ntp.conf.cluster 파일에 존재하지 않는 개인 호스트 이름이 포함되어 있을 수 있습니다. 노드를 재부트하면 해당 노드가 이 존재하지 않는 개인 호스트 이름에 연결하려고 시도할 경우 오류 메시지가 표시됩니다.

    3. NTP 요구 사항을 충족시키기 위해 필요한 경우 다른 항목을 수정하십시오.

  5. NTP 구성 파일을 클러스터의 모든 노드에 복사하십시오.

    모든 클러스터 노드에서 NTP 구성 파일의 내용이 동일해야 합니다.

  6. 각 노드에서 NTP 데몬을 중지시키십시오.

    각 노드에서 중지 명령이 성공적으로 완료될 때까지 기다렸다가 단계 7로 이동하십시오.


    # /etc/init.d/xntpd stop
    

  7. 각 노드에서 NTP 데몬을 다시 시작하십시오.

    • ntp.conf.cluster 파일을 사용할 경우 다음 명령을 실행하십시오.


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 시작 스크립트를 실행하면 먼저 /etc/inet/ntp.conf 파일을 찾습니다. 이 파일이 있으면 NTP 데몬을 시작하지 않고 바로 스크립트가 종료됩니다. ntp.conf 파일은 없지만 ntp.conf.cluster 파일이 있는 경우 스크립트는 NTP 데몬을 시작합니다. 이 경우 스크립트는 ntp.conf.cluster 파일을 NTP 구성 파일로 사용합니다.

    • ntp.conf 파일을 사용하는 경우 다음 명령을 실행합니다.


      # /etc/init.d/xntpd start
      
  8. SPARC 기반 시스템에서 Sun Cluster를 사용하고 Sun Management Center를 사용하여 클러스터를 모니터하시겠습니까?