다음 표는 클러스터를 구성하기 위해 수행할 작업 목록입니다. 이 작업을 수행하기 전에 다음 작업이 완료되었는지 확인하십시오.
"소프트웨어 설치"에서 설명한 클러스터 프레임워크 설치
"Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성"에서 설명한 볼륨 관리자 설치 및 구성
작업 |
참고 항목 |
---|---|
클러스터 파일 시스템을 만들고 마운트. | |
추가 공용 네트워크 어댑터 구성(선택 사항). | |
PNM(Public Network Management) 및 NAFO 그룹 구성. | |
노드의 개인용 호스트 이름 변경(선택 사항). | |
/etc/inet/ntp.conf 파일을 편집하여 노드 이름 항목 갱신. | |
Sun Cluster 모듈을 Sun Management Center 소프트웨어에 설치(선택 사항). |
"Sun Management Center를 위한 Sun Cluster 모듈 설치" Sun Management Center 문서 |
다른 회사 응용프로그램을 설치하고 응용프로그램, 데이터 서비스 및 자원 그룹 구성. |
Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide Sun Cluster 3.0 릴리스 정보에 있는 "데이터 서비스 구성 워크시트 및 예" 다른 회사 응용프로그램 문서 |
추가하는 각 클러스터 파일 시스템에 대해 이 절차를 수행하십시오.
파일 시스템을 만들면 디스크의 데이터가 모두 삭제됩니다. 정확한 디스크 장치 이름을 지정해야 합니다. 잘못된 장치 이름을 지정하면 지우려고 하지 않은 데이터가 삭제됩니다.
SunPlex Manager를 사용하여 데이터 서비스를 설치한 경우에 클러스터 파일 시스템을 만들 충분한 공유 디스크가 있었으면 이미 하나 이상의 클러스터 파일 시스템이 있습니다.
볼륨 관리자 소프트웨어가 설치되어 구성되었는지 확인하십시오.
볼륨 관리자 설치 절차는 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성"을 참조하십시오.
VxFS(VERITAS File System) 소프트웨어를 설치하시겠습니까?
그러면 VxFS 설치 문서의 절차에 따라 클러스터의 각 노드에 VxFS 소프트웨어를 설치하십시오.
아니면 단계 3으로 이동하십시오.
클러스터의 노드에서 수퍼유저가 되십시오.
더 빠르게 파일 시스템을 만들려면 파일 시스템을 만들 대상 글로벌 장치의 현재 1차 노드에서 수퍼유저가 되십시오.
newfs(1M) 명령을 사용하여 파일 시스템을 만드십시오.
# newfs raw-disk-device |
다음 표는 raw-disk-device 인수에 사용되는 이름의 예입니다. 이름 지정 규칙은 볼륨 관리자마다 다릅니다.
표 2-11 원시 디스크 장치 이름 샘플
볼륨 관리자 |
디스크 장치 이름 샘플 |
설명 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle 디스크 세트에 있는 원시 디스크 장치 d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 디스크 그룹에 있는 원시 디스크 장치 vol01 |
없음 |
/dev/global/rdsk/d1s3 |
원시 디스크 장치 d1s3 |
클러스터의 각 노드에서 클러스터 파일 시스템에 대한 마운트 포인트 디렉토리를 만드십시오.
클러스터 파일 시스템이 액세스되지 않는 각 노드에도 마운트 포인트가 필요합니다.
관리 작업을 쉽게 하려면 /global/device-group 디렉토리에 마운트 포인트를 만드십시오. 이 위치를 사용하면 로컬 파일 시스템에서 글로벌로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.
# mkdir -p /global/device-group/mountpoint |
장치를 포함하는 장치 그룹의 이름에 해당하는 디렉토리 이름
클러스터 파일 시스템을 마운트할 디렉토리 이름
클러스터의 각 노드에서 /etc/vfstab 파일에 마운트 포인트에 대한 항목을 추가하십시오.
다음과 같은 필수 마운트 옵션을 사용하십시오.
모든 클러스터 파일 시스템에 로그 기록이 필요합니다.
Solaris UFS 로그 기록 - global,logging 마운트 옵션을 사용합니다. UFS 마운트 옵션에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.
UFS 클러스터 파일 시스템에는 syncdir 마운트 옵션을 지정할 필요가 없습니다. syncdir 옵션을 지정하면 파일 시스템이 POSIX와 호환되도록 작동합니다. 이 옵션을 지정하지 않으면 UFS 파일 시스템에서 보는 것처럼 작동합니다. syncdir 옵션을 지정하지 않으면 데이터를 파일에 추가하는 경우처럼 디스크 블록을 할당하는 쓰기 성능이 크게 향상됩니다. 그러나 syncdir 옵션을 지정하지 않으면 파일을 닫을 때까지 공간 부족 상태를 발견하지 못할 수 있습니다. syncdir 옵션을 지정하지 않아서 문제가 발생하는 경우는 거의 없습니다. syncdir(및 POSIX 호환 작동)을 사용하면 파일을 닫기 전에 공간 부족 상태가 발견됩니다.
Solstice DiskSuite 트랜스 메타 장치 - logging 마운트 옵션을 사용하지 않고 global 마운트 옵션을 사용합니다. 트랜스 메타 장치 설정 방법은 Solstice DiskSuite 문서를 참조하십시오.
VxFS 로그 기록 - global, log 마운트 옵션을 사용합니다. VxFS 마운트 옵션에 대한 자세한 내용은 mount_vxfs(1M) 설명서 페이지를 참조하십시오.
클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.
각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.
각 노드의 /etc/vfstab 파일에 있는 장치 항목 순서가 동일한지 확인하십시오.
파일 시스템의 부트 순서 의존성을 확인하십시오.
예를 들어, phys-schost-1이 /global/oracle의 디스크 장치 d0을 마운트하고 phys-schost-2가 /global/oracle/logs의 디스크 장치 d1을 마운트한다고 가정합니다. 이러한 구성에서는 phys-schost-1이 부트되어 /global/oracle을 마운트한 후에만 phys-schost-2가 부트하여 /global/oracle/logs를 마운트할 수 있습니다.
자세한 내용은 vfstab(4) 설명서 페이지를 참조하십시오.
클러스터의 노드에 마운트 포인트가 있는지 그리고 /etc/vfstab 파일 항목이 클러스터의 모든 노드에서 올바른지 확인하십시오.
# sccheck |
오류가 발생하지 않으면 아무 것도 반환되지 않습니다.
클러스터의 임의의 노드에서 클러스터 파일 시스템을 마운트하십시오.
# mount /global/device-group/mountpoint |
클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되었는지 확인하십시오.
df(1M) 또는 mount(1M) 명령을 사용하여 마운트된 파일 시스템을 표시할 수 있습니다.
Sun Cluster 환경에서 VxFS 클러스터 파일 시스템을 관리하려면 VxFS 클러스터 파일 시스템이 마운트된 1차 노드에서만 관리 명령을 실행하십시오.
클러스터 노드가 둘 이상의 공용 서브넷에 연결되어 있습니까?
그러면 "추가 공용 네트워크 어댑터를 구성하는 방법"으로 이동하여 공용 네트워크 어댑터를 추가로 구성하십시오.
아니면 "PNM(Public Network Management)을 구성하는 방법"으로 이동하여 PNM을 구성하고 NAFO 그룹을 설정하십시오.
다음은 Solstice DiskSuite 메타 장치 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 만드는 예입니다.
# newfs /dev/md/oracle/rdsk/d1 ... (각 노드에서) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (저장하고 종료) (한 노드에서) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2000 |
클러스터 노드가 두 개 이상의 공용 서브넷에 연결되어 있으면 2차 서브넷에 대해 추가로 공용 네트워크 어댑터를 구성할 수 있습니다. 이 작업은 선택 사항입니다.
독립 네트워크 어댑터가 아닌 공용 네트워크 어댑터만 구성하십시오.
Sun Cluster 3.0 릴리스 정보에서 완성된 "공용 네트워크 워크시트"를 준비하십시오.
추가 공용 네트워크 어댑터를 구성할 노드에서 수퍼유저가 되십시오.
/etc/hostname.adapter라는 파일을 만드십시오. 여기서 adapter는 어댑터 이름입니다.
각 NAFO 그룹에 어댑터 하나에 대한 /etc/hostname.adapter 파일만 있어야 합니다.
공용 네트워크 어댑터 IP 주소의 호스트 이름을 /etc/hostname.adapter 파일에 입력하십시오.
다음은 어댑터 hme3에 대하여 만든, 호스트 이름 phys-schost-1이 포함된 /etc/hostname.hme3 파일의 예입니다.
# vi /etc/hostname.hme3 phys-schost-1 |
각 클러스터 노드에서 공용 네트워크 어댑터에 할당된 IP 주소와 해당 호스트 이름이 /etc/inet/hosts 파일에 포함되어 있는지 확인하십시오.
다음은 phys-schost-1에 대한 항목의 예입니다.
# vi /etc/inet/hosts ... 192.29.75.101 phys-schost-1 ... |
이름 지정 서비스를 사용할 경우에는 이 정보가 이름 지정 서비스 데이터베이스에도 있어야 합니다.
각 클러스터 노드에서 어댑터를 켜십시오.
# ifconfig adapter plumb # ifconfig adapter hostname netmask + broadcast + -trailers up |
어댑터가 제대로 구성되었는지 확인하십시오.
# ifconfig adapter |
어댑터에 대한 올바른 IP 주소가 출력되어야 합니다.
PNM을 구성하고 NAFO 그룹을 설정하십시오.
"PNM(Public Network Management)을 구성하는 방법"으로 이동하십시오.
RGM(Resource Group Manager)에서 관리할 각 공용 네트워크 어댑터는 NAFO 그룹에 속해야 합니다.
클러스터의 각 노드에서 이 작업을 수행하십시오.
공용 네트워크 어댑터는 모두 NAFO(Network Adapter Failover) 그룹에 속해야 합니다. 또한 각 노드에서 서브넷마다 NAFO 그룹이 하나만 있을 수 있습니다.
Sun Cluster 3.0 릴리스 정보에서 완성된 "공용 네트워크 워크시트"를 준비하십시오.
NAFO 그룹을 구성하는 노드에서 수퍼유저가 되십시오.
NAFO 그룹을 만드십시오.
# pnmset -c nafo-group -o create adapter [adapter ...] |
NAFO 그룹 nafo-group을 구성합니다
하나 이상의 공용 네트워크 어댑터를 포함하는 새 NAFO 그룹을 만듭니다.
자세한 내용은 pnmset(1M) 설명서 페이지를 참조하십시오.
NAFO 그룹의 상태를 확인하십시오.
# pnmstat -l |
자세한 내용은 pnmstat(1M) 설명서 페이지를 참조하십시오.
개인용 호스트 이름을 변경하시겠습니까?
그러면 "개인용 호스트 이름을 변경하는 방법"으로 이동하십시오.
아니면 "NTP(Network Time Protocol)를 갱신하는 방법"으로 이동하여 /etc/inet/ntp.conf 파일을 갱신하십시오.
다음은 공용 네트워크 어댑터 qfe1 및 qfe5를 사용하는 NAFO 그룹 nafo0을 만드는 예입니다.
# pnmset -c nafo0 -o create qfe1 qfe5 # pnmstat -l group adapters status fo_time act_adp nafo0 qfe1:qfe5 OK NEVER qfe5 nafo1 qfe6 OK NEVER qfe6 |
Sun Cluster 소프트웨어를 설치할 때 기본적으로 할당되는 개인용 호스트 이름(clusternodenodeid-priv)을 사용하지 않으려면 이 작업을 수행하십시오.
응용프로그램과 데이터 서비스가 구성되고 시작된 후에는 이 작업을 수행하지 마십시오. 구성되어 시작된 후에 이 작업을 수행하면 개인용 호스트 이름이 변경된 후에도 응용프로그램이나 데이터 서비스가 이전의 개인용 호스트 이름을 계속 사용하게 되어 호스트 이름 충돌이 발생할 수 있습니다. 실행하고 있는 응용프로그램이나 데이터 서비스가 있으면 중지시킨 후에 이 절차를 수행하십시오.
클러스터의 노드에서 수퍼유저가 되십시오.
scsetup(1M) 유틸리티를 시작하십시오.
# scsetup |
개인용 호스트 이름에 대한 작업을 하려면 5(개인용 호스트 이름)를 입력하십시오.
개인용 호스트 이름을 변경하려면 1(개인용 호스트 이름 변경)을 입력하십시오.
화면의 지시에 따라 개인용 호스트 이름을 변경하십시오. 변경할 각 개인용 호스트 이름에 대하여 반복하십시오.
새 개인용 호스트 이름을 확인하십시오.
# scconf -pv | grep 'private hostname' (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
/etc/inet/ntp.conf 파일을 갱신하십시오.
"NTP(Network Time Protocol)를 갱신하는 방법"으로 이동하십시오.
각 노드에서 이 작업을 수행하십시오.
클러스터 노드에서 수퍼유저가 되십시오.
/etc/inet/ntp.conf 파일을 편집하십시오.
표준 클러스터 설치 작업 중에 scinstall(1M) 명령이 템플릿 파일 ntp.cluster를 /etc/inet/ntp.conf로 복사합니다. 그러나 Sun Cluster 소프트웨어를 설치하기 전에 ntp.conf 파일이 이미 있으면 기존 파일이 변경되지 않고 그대로 유지됩니다. 직접 pkgadd(1M) 명령을 사용하는 경우처럼, 다른 방법을 사용하여 클러스터를 설치할 때는 NTP를 구성해야 합니다.
클러스터에서 사용하지 않는 개인용 호스트 이름에 대한 항목은 모두 제거하십시오.
존재하지 않는 개인용 호스트 이름이 ntp.conf 파일에 포함되어 있으면, 노드 부트 중에 해당 개인용 호스트 이름에 연결을 시도할 때 오류 메시지가 나타납니다.
Sun Cluster 소프트웨어를 설치한 후에 변경한 개인용 호스트 이름이 있으면 각 파일 항목을 새 개인용 호스트 이름으로 갱신하십시오.
NTP 요구 사항을 충족시키기 위해 필요하면 다른 항목을 수정하십시오.
클러스터에서 NTP를 구성할 때나 동기화 기능을 수행할 때는 기본적으로 모든 클러스터 노드가 동일한 시간으로 동기화되어 있어야 합니다. 노드 사이의 시간 동기화 다음으로 고려해야 할 요구 사항은 각 노드 시간의 정확성입니다. 동기화에 대한 이러한 기본 요구 사항이 충족되면 사용자가 필요한 대로 NTP를 구성할 수 있습니다.
클러스터 시간에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오. Sun Cluster 구성을 위해 NTP를 구성하는 방법은 ntp.cluster 템플릿을 참조하십시오.
NTP 데몬을 다시 시작하십시오.
# /etc/init.d/xntpd stop # /etc/init.d/xntpd start |
Sun Management Center를 사용하여 자원 그룹을 구성하거나 클러스터를 모니터하시겠습니까?
그러면 "Sun Management Center를 위한 Sun Cluster 모듈 설치"로 이동하십시오.
아니면 다른 회사 응용 프로그램을 설치하고 자원 유형을 등록하고 자원 그룹을 설정하고 데이터 서비스를 구성하십시오. 자세한 내용은 응용프로그램 소프트웨어에 포함된 문서와 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide를 참조하십시오.