이 장에서는 Sun Cluster 3.0 또는 3.1을 사용하여 고가용성 Calendar Server 6.3 소프트웨어를 설치 및 구성하는 방법을 설명합니다.
고가용성(HA) Calendar Server 구성에서는 소프트웨어 및 하드웨어 장애 모니터링과 복구를 지원합니다. Calendar Server HA 기능은 페일오버 서비스로 구현됩니다. 이 장에서는 Sun Cluster 소프트웨어를 사용하여 두 가지 Calendar Server HA(대칭 및 비대칭)를 구성하는 방법을 설명합니다.
이 장은 Calendar Server HA를 설치 및 구성하는 방법을 설명하며, 다음 내용으로 구성됩니다.
6.3 Calendar Server 6.3 소프트웨어를 사용한 비대칭형 고가용성 배포를 위한 고수준 작업 목록
6.4 Calendar Server 6.3 소프트웨어를 사용한 대칭형 고가용성 배포를 위한 고수준 작업 목록
6.5 Calendar Server 버전 6.3 고가용성 구성을 위한 배포 예제에서 모든 예제에 사용된 명명 규칙
부록 C, Calendar Server 구성 워크시트에서 Calendar Server HA 구성 계획을 도와주는 워크시트 모음이 제공됩니다.
고가용성은 여러 가지 방법으로 구성할 수 있습니다. 이 절에서는 세 가지 고가용성 구성 방법을 간략히 설명하고 사용자 요구에 맞는 방법을 선택하는 데 도움이 되는 정보를 제공합니다.
이 절은 다음 내용으로 구성되어 있습니다.
간단한 비대칭형 고가용성 시스템에는 두 개의 물리적 노드가 있습니다. 일반적으로 주 노드가 활성 상태이며, 주 노드에서 오류가 발생한 경우 다른 노드가 백업 노드의 역할을 수행하여 문제를 해결합니다. 페일오버를 수행하기 위해 공유 디스크 어레이가 백업 노드의 마스터로 전환됩니다. 오류가 발생한 주 노드에서 Calendar Server 프로세스가 중지되고 백업 노드에서 시작됩니다.
이러한 유형의 고가용성 시스템에는 다양한 장점이 있습니다. 그 중 하나는 백업 노드를 주 노드 전용으로 완전히 예약하여 사용할 수 있다는 점입니다. 따라서 페일오버가 발생한 경우 백업 노드에서 자원 경합이 발생하지 않습니다. 또 다른 장점은 롤링 업그레이드를 수행하는 기능입니다. 이를 통해 한 노드를 업그레이드하면서 다른 노드에서 Calendar Server 소프트웨어를 계속 실행할 수 있습니다. 시작 시에는 구성 파일이 읽기 전용이므로 첫 번째 노드를 업그레이드하는 동안 ics.conf 파일을 변경해도 다른 노드에서 실행 중인 다른 Calendar Server 소프트웨어 인스턴스를 방해하지 않습니다. 달력 프로세스를 중지했다가 다시 시작해야 새 구성이 적용됩니다. 다른 노드를 업그레이드하려면 업그레이드된 주 노드에 대해 페일오버를 수행하고 보조 노드에서 업그레이드를 진행합니다.
물론, 보조 노드를 먼저 업그레이드한 다음 주 노드를 업그레이드할 수도 있습니다.
비대칭형 고가용성 모델에는 몇 가지 단점도 있습니다. 우선, 백업 노드가 대부분의 시간을 유휴 상태로 머물러 활용되지 않습니다. 다른 단점은 단일 저장소 어레이 문제입니다. 이 경우 간단한 비대칭형 고가용성 시스템에서 디스크 어레이 오류가 발생하는 경우 사용 가능한 백업이 없다는 것입니다.
간단한 대칭형 고가용성 시스템에는 활성 상태의 물리적 노드가 두 개 있습니다. 각 노드는 두 개의 저장소 볼륨이 포함된 자체 디스크 어레이를 가지고 있는데, 한 볼륨은 로컬 달력 저장소로 사용되고 다른 볼륨은 다른 노드의 달력 저장소에 대한 미러 이미지로 사용됩니다. 각 노드는 다른 노드의 백업 노드 역할을 합니다. 한 노드에서 자신의 백업 노드로 페일오버를 수행하면 Calendar Server의 두 인스턴스가 백업 노드에서 동시에 실행되는데, 각각 자신의 설치 디렉토리에서 실행되고 자신의 달력 저장소에 액세스합니다. 유일하게 백업 노드의 계산 능력이 공유됩니다.
이런 유형의 고가용성 시스템이 가진 장점은 두 노드가 동시에 활성 상태이므로 시스템 자원을 충분히 활용할 수 있다는 점입니다. 그러나 오류가 발생한 경우에는 두 노드에서 Calendar Server에 대한 서비스를 실행하기 때문에 백업 노드에서 더 많은 자원 경합이 발생하게 됩니다.
또한 대칭형 고가용성은 백업 저장소 어레이를 제공합니다. 디스크 어레이에 오류가 발생한 경우 백업 노드의 서비스가 중복 이미지를 선택할 수 있습니다.
대칭형 고가용성 시스템을 구성하려면 공유 디스크에 Calendar Server 바이너리를 설치하십시오. 이렇게 하면 롤링 업그레이드를 수행하지 않고도, 향후 Calendar Server 릴리스에서 계획된 기능에 대해 최소한 가동 중지 시간으로 또는 가동 중지 시간 없이 Calendar Server 패치 릴리스로 시스템을 업그레이드할 수 있습니다.
이 장에서 설명한 두 가지 유형의 고가용성 시스템과 더불어 이 두 유형의 하이브리드 형태인 세 번째 유형도 제공됩니다. 세 번째 유형은 다중 노드의 비대칭형 고가용성 시스템입니다. 이 유형에서 “N”개의 디스크 어레이와 “N”개의 노드는 모두 예약되어 있고 보통 비활성 상태인 동일한 백업 노드를 사용합니다. 이 백업 노드는 모든 “N”개 노드에 대해 Calendar Server를 실행할 수 있습니다. 이전 그림에 나와 있는 것처럼 “N”개 노드의 각 디스크 어레이를 공유합니다. 여러 노드에서 동시에 오류가 발생하는 경우 백업 노드는 최대 “N”개의 Calendar Server 인스턴스를 동시에 실행할 수 있어야 합니다. “N”개의 노드에는 각각 자신의 디스크 어레이가 있습니다.
N+1 모델의 장점은 Calendar Server의 부하를 여러 노드로 분산할 수 있으며, 발생 가능한 모든 노드 오류를 지원하기 위해 하나의 백업 노드만 필요하다는 데 있습니다.
이 유형의 단점은 비대칭형 시스템처럼 백업 노드가 대부분의 시간을 유휴 상태로 있다는 점입니다. 또한 N+1 고가용성 시스템 백업 노드는 여러 Calendar Server 인스턴스를 호스팅해야 하는 경우 용량을 추가해야 합니다. 따라서 시스템이 유휴 상태임에도 비용이 더 들게 됩니다. 그러나 시스템 유휴 비율은 1:1이 아닌1:N입니다(단일 비대칭형 시스템의 경우).
이러한 유형의 시스템을 구성하려면 “N” 노드 및 백업 노드를 위한 비대칭형 고가용성 시스템에 대한 지침을 참조하십시오. 매번 다른 주 노드에서 동일한 백업 노드를 사용합니다.
다음 표에는 각 고가용성 모델의 장단점이 요약되어 있습니다. 이 정보를 사용하여 배포에 적합한 모델을 결정할 수 있습니다.
표 6–1 두 고가용성 모델의 장단점
다음 표에서는 지정된 날짜에 시스템 오류로 인해 달력 서비스를 사용할 수 없게 될 확률을 보여 줍니다. 시스템 손상 또는 서버 중단으로 인해 평균적으로 3개월마다 하루씩 서버가 다운되고 해당 저장 장치가 12개월마다 하루씩 다운된다고 가정합니다. 또한 두 노드가 동시에 다운될 수 있는 작은 확률은 무시합니다.
표 6–2 시스템 가동 중지 시간 계산
모델 |
서버 가동 중지 시간 확률 |
단일 서버(고가용성 아님) |
Pr(다운) = (시스템 다운 4일 + 저장소 다운 1일)/365 = 1.37% |
비대칭형 |
Pr(다운) = (시스템 다운 0일 + 저장소 다운 1일)/365 = 0.27% |
대칭형 |
Pr(다운) = (시스템 다운 0일 + 저장소 다운 0일)/365 = (거의 0) |
N + 1 비대칭형 |
Pr(다운) = (시스템 다운 5시간 + 저장소 다운 1일)/(365xN) = 0.27%/N |
이 절에서는 HA 환경에 Calendar Server를 설치하기 위한 사전 요구 사항에 대해 설명합니다.
다음과 같은 사전 요구 사항이 적용됩니다.
클러스터의 모든 노드에 Solaris 9 또는 Solaris 10 운영 체제가 필수 패치와 함께 설치되어야 합니다.
클러스터의 모든 노드에 Sun Cluster 3.0 또는 3.1이 설치되어야 합니다.
Java Enterprise System 설치 프로그램을 사용하여 클러스터의 모든 노드에 Calendar Server HA 에이전트 패키지(SUNWscics)를 설치해야 합니다.
로컬 파일 시스템을 HAStoragePlus 페일오버 파일 시스템(FFS) 또는 HAStorage 클러스터 파일 시스템(CFS)으로 지정합니다.
2001년 12월 이전 날짜의 Sun Cluster 3.0 버전이 있는 경우 HAStorage 클러스터 파일 시스템(CFS)으로 지정된 전역 파일 시스템을 사용해야 합니다.
대칭형 고가용성 시스템에 해당하는 논리적 볼륨을 작성 중인 경우 Solstice DiskSuite 또는 Veritas Volume Manager를 사용합니다.
HAStoragePlus 자원 유형을 사용하여 Sun Cluster 환경 내에 로컬로 마운트된 파일 시스템을 충분히 사용할 수 있습니다. Sun Cluster 전역 장치 그룹에 있는 모든 파일 시스템을 HAStoragePlus와 함께 사용할 수 있습니다. HAStoragePlus 파일 시스템은 특정 시점에 하나의 클러스트 노드에서만 사용할 수 있습니다. 이렇게 로컬로 마운트된 파일 시스템은 페일오버 모드 및 페일오버 자원 그룹에서만 사용할 수 있습니다. HAStoragePlus는 이전 전역 파일 시스템(GFS) 또는 클러스터 파일 시스템(CFS)을 지원할 뿐만 아니라 페일오버 파일 시스템(FFS)을 제공합니다.
HAStoragePlus는 이전의 HAStorage에 비해 많은 이점이 있습니다.
HAStoragePlus는 전역 파일 서비스 계층을 완벽하게 통과합니다. 이러한 특징때문에 디스크 액세스 횟수가 많은 데이터 서비스의 경우 성능이 크게 향상됩니다.
HAStoragePlus는 전역 파일 서비스 계층에서 작동하지 않아도 모든 파일 시스템(예: UFS, VxFS 등)에서 작동 가능합니다. Solaris 운영 체제에서 지원하는 파일 시스템의 경우 HAStoragePlus와 함께 작동됩니다.
데이터 서비스 자원 그룹에서 2002년 5월 이후의 Sun Cluster 3.0 릴리스로 HAStoragePlus 자원을 사용하십시오.
HAStoragePlus에 대한 자세한 내용은 Sun Cluster Data Services Planning and Administration Guide for Solaris OS를 참조하십시오.
다음은 비대칭형 고가용성 Calendar Server를 설치 및 구성하는 데 필요한 작업 목록입니다.
노드를 준비합니다.
클러스터의 모든 노드에 Solaris 운영 체제 소프트웨어를 설치합니다.
클러스터의 모든 노드에 Sun Cluster 소프트웨어를 설치합니다.
Java Enterprise System 설치 프로그램을 사용하여 클러스터의 모든 노드에 Calendar Server HA 에이전트 패키지(SUNWscics)를 설치합니다.
공유 디스크에 파일 시스템을 만듭니다.
Communications Suite 5 설치 프로그램을 사용하여 클러스터의 주 노드 및 보조 노드에 Calendar Server를 설치합니다.
Directory Server LDAP 디렉토리가 있는 시스템에서 Directory 준비 스크립트 comm_dssetup.pl을 실행합니다.
첫 번째(주) 노드를 설치 및 구성합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 주 노드에 HA를 설정합니다.
주 노드에서 Calendar Server 구성 프로그램(csconfigurator.sh)을 실행합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 보조 노드로 전환합니다.
주 노드의 Calendar Server config 디렉토리에서 공유 디스크의 config 디렉토리로 심볼릭 링크를 만듭니다.
두 번째(보조) 노드를 설치 및 구성합니다.
주 노드를 구성할 때 만든 상태 파일을 다시 사용하여 보조 노드에서 Calendar Server 구성 프로그램을 실행합니다.
구성 파일 ics.conf를 편집합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 Calendar Server의 자원 그룹을 구성 및 활성화합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 자원 그룹이 성공적으로 생성되었는지 테스트하고 주 노드로 페일오버를 수행합니다.
단계별 지침은 6.6 비대칭형 고가용성 환경에 Calendar Server 6.3 소프트웨어 설치 및 구성을 참조하십시오.
다음은 대칭형 고가용성 Calendar Server를 설치 및 구성하는 데 필요한 작업 목록입니다.
노드를 준비합니다.
클러스터의 모든 노드에 Solaris 운영 체제 소프트웨어를 설치합니다.
클러스터의 모든 노드에 Sun Cluster 소프트웨어를 설치합니다.
6개의 파일 시스템을 클러스터 파일 시스템(전역 파일 시스템) 또는 페일오버 파일 시스템(로컬 파일 시스템)으로 만듭니다.
필요한 디렉토리를 만듭니다.
Java Enterprise System 설치 프로그램을 사용하여 클러스터의 모든 노드에 Calendar Server HA 에이전트 패키지(SUNWscics)를 설치합니다.
첫 번째 노드를 설치 및 구성합니다.
Communications Suite 5 설치 프로그램을 사용하여 클러스터의 첫 번째 노드에 Calendar Server를 설치합니다.
Directory Server LDAP 데이터베이스가 있는 시스템에서 Directory 준비 스크립트(comm_dssetup.pl)를 실행합니다.
두 노드의 Calendar Server 인스턴스가 동일한 LDAP 서버를 공유하는 경우 두 번째 노드에 Calendar Server 소프트웨어를 설치한 후에는 이 단계를 반복하지 않아도 됩니다.
Sun Cluster 명령줄 인터페이스를 사용하여 첫 번째 노드에서 HA를 구성합니다.
첫 번째 노드에서 Calendar Server 구성 프로그램(csconfigurator.sh)을 실행합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 두 번째 노드로 페일오버합니다.
첫 번째 노드에서 구성 파일(ics.conf)을 편집합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 첫 번째 노드에서 Calendar Server의 자원 그룹을 구성 및 활성화합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 첫 번째 노드에 대한 자원 그룹을 만들고 활성화합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 자원 그룹이 성공적으로 생성되었는지 테스트하고 첫 번째 노드로 페일오버를 수행합니다.
두 번째 노드를 설치 및 구성합니다.
Communications Suite 5 설치 프로그램을 사용하여 클러스터의 두 번째 노드에 Calendar Server를 설치합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 두 번째 노드에서 HA를 구성합니다.
첫 번째 노드를 구성할 때 만든 상태 파일을 다시 사용하여 두 번째 노드에서 Calendar Server 구성 프로그램(csconfigurator.sh)을 실행합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 첫 번째 노드로 페일오버합니다.
두 번째 노드에서 구성 파일(ics.conf)을 편집합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 두 번째 노드에서 Calendar Server의 자원 그룹을 만들고 활성화합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 자원 그룹이 성공적으로 생성되었는지 테스트하고 두 번째 노드로 페일오버를 수행합니다.
단계별 지침은 6.7 대칭형 고가용성 Calendar Server 시스템 구성을 참조하십시오.
이 절을 인쇄하여 HA 설치 및 구성 과정에 사용한 값을 기록해 두십시오.
이 절은 모든 예제에서 사용된 변수 이름을 보여주는 4개의 표로 구성됩니다.
표 6–3 비대칭형 예제에 사용된 디렉토리 이름 변수
표 6–4 대칭형 예제에 사용된 디렉토리 이름 변수
표 6–5 비대칭형 예제에 사용된 자원 이름 변수
표 6–6 대칭형 예제에 사용된 자원 이름 변수
표 6–7 비대칭형 예제에 사용된 IP 주소의 변수 이름
표 6–8 대칭형 예제에 사용된 IP 주소의 변수 이름
예제 이름 |
디렉토리 |
설명 |
---|---|---|
install-root |
/opt |
Calendar Server가 설치된 디렉토리 |
cal-svr-base |
/opt/SUNWics5/cal |
모든 Calendar Server 파일이 들어 있는 디렉토리 |
var-cal-dir |
/var/opt/SUNWics5 |
/var 디렉토리 |
share-disk-dir |
/cal |
전역 디렉토리. 즉, 비대칭형 고가용성 시스템에서 노드 간에 공유되는 디렉토리 |
표 6–4 대칭형 예제에 사용된 디렉토리 이름 변수
예제 이름 |
디렉토리 |
설명 |
---|---|---|
install-rootCS1 install-rootCS2 |
/opt/Node1 /opt/Node2 |
Calendar Server 인스턴스가 설치된 디렉토리 |
cal-svr-baseCS1 cal-svr-baseCS2 |
/opt/Node1/SUNWics5/cal /opt/Node2/SUNWics5/cal |
노드에 대한 모든 Calendar Server 파일이 들어 있는 디렉토리 |
var-cal-dirCS1 var-cal-dirCS2 |
/var/opt/Node1/SUNWics5 /var/opt/Node2/SUNWics5 |
각 노드에 대한 /var 디렉토리 |
share-disk-dirCS1 share-disk-dirCS2 |
/cal/Node1 /cal/Node2 |
각 Calendar Server 인스턴스가 페일오버 노드와 공유하는 전역(공유) 디렉토리. 대칭형 고가용성 시스템에 사용됩니다. |
표 6–5 비대칭형 예제의 자원 이름 변수
변수 이름 |
설명 |
---|---|
CAL-RG |
달력 자원 그룹 |
LOG-HOST-RS |
논리적 호스트 이름 자원 |
LOG-HOST-RS-Domain.com |
정규화된 논리적 호스트 이름 자원 |
CAL-HASP-RS |
HAStoragePlus 자원 |
CAL-SVR-RS |
Calendar Server 자원 그룹 |
표 6–6 대칭형 예제의 자원 이름 변수
변수 이름 |
설명 |
---|---|
CAL-CS1-RG |
Calendar Server의 첫 번째 인스턴스에 대한 달력 자원 그룹 |
CAL-CS2-RG |
Calendar Server의 두 번째 인스턴스에 대한 달력 자원 그룹 |
LOG-HOST-CS1-RS |
Calendar Server의 첫 번째 인스턴스에 대한 논리적 호스트 이름 자원 |
LOG-HOST-CS1-RS-Domain.com |
Calendar Server의 첫 번째 인스턴스에 대한 정규화된 논리적 호스트 이름 자원 |
LOG-HOST-CS2-RS |
Calendar Server의 두 번째 인스턴스에 대한 논리적 호스트 이름 자원 |
LOG-HOST-CS2-RS-Domain.com |
Calendar Server의 두 번째 인스턴스에 대한 정규화된 논리적 호스트 이름 자원 |
CAL-HASP-CS1-RS |
Calendar Server의 첫 번째 인스턴스에 대한 HAStoragePlus 자원 |
CAL-HASP-CS2-RS |
Calendar Server의 두 번째 인스턴스에 대한 HAStoragePlus 자원 |
CAL-SVR-CS1-RS |
Calendar Server의 첫 번째 인스턴스에 대한 Calendar Server 자원 그룹 |
CAL-SVR-CS2-RS |
Calendar Server의 두 번째 인스턴스에 대한 Calendar Server 자원 그룹 |
표 6–7 비대칭형 예제에 사용된 IP 주소의 변수 이름
논리적 IP 주소 |
설명 |
---|---|
IPAddress |
chsttpd 데몬이 수신하는 포트의 IP 주소. 표준 IP 형식이어야 합니다. 예: "123.45.67.890" |
표 6–8 대칭형 예제에서 사용된 IP 주소의 변수 이름
논리적 IP 주소 |
설명 |
---|---|
IPAddressCS1 |
Calendar Server의 첫 번째 인스턴스에 대해 chsttpd 데몬이 수신하는 포트의 IP 주소. 표준 IP 형식이어야 합니다. 예: "123.45.67.890" |
IPAddressCS2 |
Calendar Server의 두 번째 인스턴스에 대해 chsttpd 데몬이 수신하는 포트의 IP 주소. 표준 IP 형식이어야 합니다. 예: "123.45.67.890" |
이 절에서는 비대칭형 고가용성 Calendar Server 클러스터를 구성하는 방법에 대해 설명합니다.
이절은 다음 내용으로 구성되어 있습니다.
공유 디스크에 파일 시스템을 만듭니다. /etc/vfstab는 클러스터의 모든 노드에서 동일해야 합니다.
CFS의 경우 다음 예와 유사합니다.
## Cluster File System/Global File System ## /dev/md/penguin/dsk/d400 /dev/md/penguin/rdsk/d400 /cal ufs 2 yes global,logging
예를 들어, FFS의 경우 다음과 같습니다.
## Fail Over File System/Local File System ## /dev/md/penguin/dsk/d400 /dev/md/penguin/rdsk/d400 /cal ufs 2 no logging
이 명령에서 필드는 공백이 아닌 탭으로 구분됩니다.
클러스터의 모든 노드에 대해 구성 및 데이터가 저장되는 /Cal 디렉토리를 만듭니다. 예를 들어 각 공유 디스크에 대해 다음 명령을 수행합니다.
mkdir -P /Cal
이 절에서는 Calendar Server의 고가용성 설치 및 구성에 포함되는 작업에 대한 지침을 제공합니다.
구성을 완료하려면 다음 각 작업을 차례로 수행합니다.
Communications Suite 5 설치 프로그램을 사용하여 클러스터의 주 노드 및 보조 노드에 Calendar Server를 설치합니다.
모든 노드에서 동일한 설치 루트를 지정해야 합니다.
설치 디렉토리 지정 패널에서 두 노드에 대한 설치 루트를 지정합니다.
그러면 /install-root/SUNWics5/cal 디렉토리에Calendar Server 바이너리가 설치됩니다. 이 디렉토리를 Calendar Server 기본(cal-svr-base)이라고 합니다.
나중에 구성 옵션을 선택합니다.
설치가 완료되면 해당 파일이 설치되었는지 확인합니다.
# pwd /cal-svr-base # ls -rlt total 16 drwxr-xr-x 4 root bin 512 Dec 14 12:52 share drwxr-xr-x 3 root bin 512 Dec 14 12:52 tools drwxr-xr-x 4 root bin 2048 Dec 14 12:52 lib drwxr-xr-x 2 root bin 1024 Dec 14 12:52 sbin drwxr-xr-x 8 root bin 512 Dec 14 12:52 csapi drwxr-xr-x 11 root bin 2048 Dec 14 12:52 html
기존 Directory Server LDAP에 대해 Directory 준비 스크립트(comm_dssetup.pl)를 실행합니다.
이 스크립트는 새로운 LDAP 스키마, 인덱스 및 구성 데이터를 설정하여 Directory Server를 준비합니다.
comm_dssetup.pl 실행에 대한 자세한 내용은 Sun Java Communications Suite 5 Installation Guide의 8 장, Directory Preparation Tool (comm_dssetup.pl)를 참조하십시오.
첫 번째 노드에서 HA를 설정했을 때처럼 Sun Cluster 명령줄 인터페이스를 사용합니다.
예제의 디렉토리 이름 및 Sun Cluster 자원 이름에 대한 키로 6.5 Calendar Server 버전 6.3 고가용성 구성을 위한 배포 예제에서 모든 예제에 사용된 명명 규칙 을 참조하십시오.
Calendar Server 및 HAStoragePlus 자원을 등록합니다.
./scrgadm -a -t SUNW.HAStoragePlus ./scrgadm -a -t SUNW.scics
페일오버 Calendar Server 자원 그룹을 만듭니다.
예를 들어 다음 명령은 Node1을 주 노드로, Node2를 보조(또는 페일오버) 노드로 하여 달력 자원 그룹 CAL-RG를 만듭니다.
./scrgadm -a -g CAL-RG -h node1,node2
Calendar Server 자원 그룹에 논리적 호스트 이름 자원 그룹을 만들고 자원 그룹을 온라인으로 가져옵니다.
예를 들어, 다음 명령은 논리적 호스트 이름 자원 LOG-HOST-RS를 만든 다음 자원 그룹 CAL-RG를 온라인으로 가져옵니다.
./scrgadm -a -L -g CAL-RG -l LOG-HOST-RS ./scrgadm -c -j LOG-HOST-RS -y \ R_description="LogicalHostname resource for LOG-HOST-RS" ./scswitch -Z -g CAL-RG
HAStoragePlus 자원을 만들고 활성화합니다.
예를 들어, 다음 명령은 HAStoragePlus 자원 CAL-HASP-RS를 만들고 활성화합니다.
scrgadm -a -j CAL-HASP-RS -g CAL-RG -t SUNW.HAStoragePlus:4 -x FilesystemMountPoints=/cal scrgadm -c -j CAL-HASP-RS -y R_description="Failover data service resource for SUNW.HAStoragePlus:4" scswitch -e -j CAL-HASP-RS
구성 프로그램을 실행합니다.
예를 들어, /cal-svr-base/sbin 디렉토리에서 다음을 실행합니다.
# pwd /cal-svr-base/sbin # ./csconfigurator.sh
구성 스크립트 실행에 대한 자세한 내용은 이 설명서의 2 장, Calendar Server 6.3 소프트웨어의 초기 런타임 구성 프로그램(csconfigurator.sh)을 참조하십시오.
런타임 구성 패널에서 두 Calendar Server 시작 옵션을 선택 해제합니다.
디렉토리 패널에서 공유 디스크의 모든 디렉토리를 구성합니다. 다음 위치를 사용합니다.
/share-disk-dir/config
/share-disk-dir/csdb
/share-disk-dir/store
/share-disk-dir/logs
/share-disk-dir/tmp
디렉토리를 지정한 후에는 [디렉토리 만들기]를 선택합니다.
아카이브 및 핫 백업 패널에서 다음 선택 항목을 지정합니다.
/share-disk-dir/csdb/archive
/share-disk-dir/csdb/hotbackup
디렉토리를 지정한 후에는 [디렉토리 만들기] 옵션을 선택합니다.
구성에 성공했는지 확인합니다.
구성 출력 끝에 “모든 작업이 성공했습니다.” 라는 메시지가 있는지 확인합니다.다음 예는 구성 출력의 마지막 부분을 보여 줍니다.
... 모든 작업이 성공했습니다. 자세한 내용은 설치 로그 /var/sadm/install/logs/Sun_Java_System_Calendar_Server_install.B12141351 을(를) 확인하십시오.
더 많은 샘플 출력은 6.11 달력 구성 프로그램의 출력 예(일부)를 참조하십시오.
[다음]을 눌러 구성을 완료합니다.
보조 노드로 전환합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 보조 노드로 전환합니다. 예를 들어, 다음 명령은 자원 그룹을 보조(페일오버) 노드(Node2)로 전환합니다
scswitch -z -g CAL-RG -h Node2
Calendar Server config 디렉토리에서 공유 파일 시스템의 config 디렉토리로 심볼릭 링크를 만듭니다.
예를 들어, 다음 명령을 수행합니다.
# pwd /cal-svr-base # ln -s /share-disk-dir/config .
ln 명령의 끝에 마침표(.)를 잊지 마십시오.
주 노드를 구성한 상태 파일을 사용하여 보조 노드에서 Calendar Server를 구성합니다.
구성 프로그램을 실행했을 때 만든 상태 파일을 실행하여 주 노드의 구성을 공유합니다.
예를 들어, 다음 명령을 실행합니다.
# /cal-svr-base/sbin/csconfigurator.sh -nodisplay -noconsole -novalidate
모든 작업이 처음 구성 프로그램을 실행했을 때 전달되었는지 확인합니다.
구성 파일(ics.conf)를 편집합니다.
파일 끝에 다음 매개 변수를 추가하여 ics.conf 파일을 편집합니다. 달력 자원의 논리적 호스트 이름은 LOG-HOST-RS입니다.
이 단계를 수행하기 전에 ics.conf 파일을 백업하십시오.
! 다음은 Calendar Server의 가용성을 높이기 위한 변경 ! 사항입니다. ! local.server.ha.enabled="yes" local.server.ha.agent="SUNWscics" service.http.listenaddr="IPAddress" local.hostname="LOG-HOST-RS" local.servername="LOG-HOST-RS" service.ens.host="LOG-HOST-RS" service.http.calendarhostname="LOG-HOST-RS-Domain.com" local.autorestart="yes" service.listenaddr="IPAddress"
Calendar Server 자원 그룹을 만들고 활성화합니다.
이 예에서 자원 그룹 이름은 CAL-SVR-RS입니다. 또한 논리적 호스트 자원 이름 및 HAStoragePlus 자원 이름도 제공해야 합니다.
./scrgadm -a -j CAL-SVR-RS -g CAL-RG -t SUNW.scics -x ICS_serverroot=/cal-svr-base -y Resource_dependencies=CAL-HASP-RS,LOG-HOST-RS ./scrgadm -e -j CAL-SVR-RS
페일오버를 수행하여 달력 자원 그룹이 성공적으로 생성되었는지 테스트합니다.
./ scswitch -z -g CAL-RG -h Node1
이 단계를 끝마치면 Calendar Server에 대한 비대칭형 고가용성 시스템 생성 및 구성을 완료한 것입니다. 다음 절에서는 디버그 용도로 Sun Cluster에서 로깅을 설정하는 방법에 대해 설명합니다.
이제 비대칭형 Calendar Server HA 시스템의 설치 및 구성을 완료했습니다.
이 절에서는 대칭형 고가용성 Calendar Server 시스템을 구성하는 방법에 대해 설명합니다.
대칭형 고가용성 Calendar Server 시스템을 구성하려면 다음 절의 지침을 따릅니다.
해당 노드에 Calendar Server를 설치하기 전에 완료해야 하는 두 가지의 준비 작업이 있습니다.
준비 작업은 다음과 같습니다.
예제의 다양한 위치에서 각 노드에 대한 설치 디렉토리(cal-svr-base)를 제공해야 합니다. 대칭형 HA 시스템의 경우 cal-svr-base는 비대칭형 HA 시스템과 다릅니다. 대칭형 HA 시스템에서 cal-svr-base의 형식은 /opt/node/SUNWics5/cal입니다. 여기서 /opt/node는 Calendar Server가 설치된 루트 디렉토리(install-root)의 이름입니다.
예제에 사용할 용도로, 그리고 두 Calendar Server 인스턴스의 설치 디렉토리를 구분하기 위해 cal-svr-baseCS1 및 cal-svr-baseCS2로 지정했습니다.
이 예에서는 두 Calendar Server 인스턴스의 설치 루트를 구분하기 위해 install-rootCS1 및 install-rootCS2로 지정했습니다.
클러스터 파일 시스템(전역 파일 시스템) 또는 페일오버 파일 시스템(로컬 파일 시스템)을 사용하여 6개의 파일 시스템을 만듭니다.
다음은 전역 파일 시스템의 예이며 /etc/vfstab 파일의 내용은 다음과 같습니다. 필드는 모두 탭으로 구분되어 있습니다.
# Cluster File System/Global File System ## /dev/md/penguin/dsk/d500 /dev/md/penguin/rdsk/d500 /cal-svr-baseCS1 ufs 2 yes logging,global /dev/md/penguin/dsk/d400 /dev/md/penguin/rdsk/d400 /share-disk-dirCS1 ufs 2 yes logging,global /dev/md/polarbear/dsk/d200 /dev/md/polarbear/rdsk/d200 /cal-svr-baseCS2 ufs 2 yes logging,global /dev/md/polarbear/dsk/d300 /dev/md/polarbear/rdsk/d300 /share-disk-dirCS2 ufs 2 yes logging,global /dev/md/polarbear/dsk/d600 /dev/md/polarbear/rdsk/d300 /var-cal-dirCS1 ufs 2 yes logging,global /dev/md/polarbear/dsk/d700 /dev/md/polarbear/rdsk/d300 /var-cal-dirCS2 ufs 2 yes logging,global
다음은 페일오버 파일 시스템의 예이며 /etc/vfstab 파일의 내용은 다음과 같습니다. 필드는 모두 탭으로 구분되어 있습니다.
# Failover File System/Local File System ## /dev/md/penguin/dsk/d500 /dev/md/penguin/rdsk/d500 /cal-svr-baseCS1 ufs 2 yes logging /dev/md/penguin/dsk/d400 /dev/md/penguin/rdsk/d400 /share-disk-dirCS1 ufs 2 yes logging /dev/md/polarbear/dsk/d200 /dev/md/polarbear/rdsk/d200 /cal-svr-baseCS2 ufs 2 yes logging /dev/md/polarbear/dsk/d300 /dev/md/polarbear/rdsk/d300 /share-disk-dirCS2 ufs 2 yes logging /dev/md/polarbear/dsk/d600 /dev/md/polarbear/rdsk/d300 /var-cal-dirCS1 ufs 2 yes logging /dev/md/polarbear/dsk/d700 /dev/md/polarbear/rdsk/d300 /var-cal-dirCS2 ufs 2 yes logging
클러스터의 모든 노드에서 다음 필수 디렉토리를 만듭니다.
# mkdir -p /install-rootCS1 share-disk-dirCS1 install-rootCS2 share-disk-dirCS2 var-cal-dirCS1 var-cal-dirCS2
클러스터의 모든 노드에 Calendar Server HA 패키지(SUNWscics)를 설치합니다.
Java Enterprise System 설치 프로그램을 사용하여 설치해야 합니다.
Java Enterprise System 설치 프로그램에 대한 자세한 내용은 Sun Java Enterprise System 5 Installation and Configuration Guide를 참조하십시오.
이 절의 지침에 따라 Calendar Server의 첫 번째 인스턴스를 설치 및 구성합니다. 이 절은 다음 내용으로 구성되어 있습니다.
파일이 마운트되었는지 확인합니다.
주 노드(Node1)에서 다음 명령을 입력합니다.
df -k
다음은 표시되는 출력의 예입니다.
/dev/md/penguin/dsk/d500 35020572 34738 34635629 1% /install-rootCS1 /dev/md/penguin/dsk/d400 35020572 34738 34635629 1% /share-disk-dirCS1 /dev/md/polarbear/dsk/d300 35020572 34738 34635629 1% /share-disk-dirCS2 /dev/md/polarbear/dsk/d200 35020572 34738 34635629 1% /install-rootCS2 /dev/md/polarbear/dsk/d600 35020572 34738 34635629 1% /var-cal-dirCS1 /dev/md/polarbear/dsk/d700 35020572 34738 34635629 1% /var-cal-dirCS2
Sun Java Systems Communications Suite 설치 프로그램을 사용하여 주 노드에서 Calendar Server를 설치합니다.
Directory Server가 있는 시스템에서 Directory 준비 도구 스크립트를 실행합니다.
Sun Cluster 명령줄 인터페이스로 다음 단계를 수행하여 첫 번째 노드에서 Sun Cluster를 구성합니다.
다음 자원 유형을 등록합니다.
./scrgadm -a -t SUNW.HAStoragePlus ./scrgadm -a -t SUNW.scics
페일오버 자원 그룹을 만듭니다.
다음 예에서 자원 그룹은 CAL-CS1-RG이고 두 노드의 이름은 Node1(주 노드) 및 Node2(페일오버 노드)입니다.
./scrgadm -a -g CAL-CS1-RG -h Node1,Node2
이 노드의 논리적 호스트 이름 자원을 만듭니다.
달력 클라이언트가 이 논리적 호스트 이름에서 수신합니다. 다음 예에서는 실제 호스트 이름을 대체할 위치에 LOG-HOST-CS1-RS를 사용합니다.
./scrgadm -a -L -g CAL-RG -l LOG-HOST-CS1-RS ./scrgadm -c -j LOG-HOST-CS1-RS -y R_description= "LogicalHostname resource for LOG-HOST-CS1-RS"
자원 그룹을 온라인 상태로 만듭니다.
scswitch -Z -g CAL-CS1-RG
HAStoragePlus 자원을 만들고 페일오버 자원 그룹에 추가합니다.
이 예에서 자원은 CAL-HASP-CS1-RS이며사용자의 자원 이름으로 대체할 수 있습니다. 이 설명서에서는 보기 쉽도록 이 예의 한 줄을 두 줄로 표시습니다.
./scrgadm -a -j CAL-HASP-CS1-RS -g CAL-CS1-RG -t SUNW.HAStoragePlus:4 -x FilesystemMountPoints=/install-rootCS1, /share-disk-dirCS1,/cal-svr-baseCS1 ./scrgadm -c -j CAL-HASP-CS1-RS -y R_description="Failover data service resource for SUNW.HAStoragePlus:4"
HAStoragePlus 자원을 활성화합니다.
./scswitch -e -j CAL-HASP-CS1-RS
주 노드에서 구성 프로그램을 실행합니다.
# cd /cal-svr-baseCS1/sbin/ # ./csconfigurator.sh
구성 스크립트 실행에 대한 자세한 내용은 Sun Java System Calendar Server 6.3 관리 설명서를 참조하십시오.
런타임 구성 패널에서 두 Calendar Server 시작 옵션을 선택 해제합니다.
구성 및 데이터 파일을 저장할 디렉토리 패널에서 다음 목록에 표시된 것처럼 공유 디스크 디렉토리를 제공합니다.
/share-disk-dirCS1/config
/share-disk-dirCS1/csdb
/share-disk-dirCS1/store
/share-disk-dirCS1/logs
/share-disk-dirCS1/tmp
디렉토리를 지정한 후에는 [디렉토리 만들기]를 선택합니다.
아카이브 및 핫 백업 패널에서 다음 목록에 표시된 것처럼 공유 디스크 디렉토리 이름을 제공합니다.
/share-disk-dirCS1/csdb/archive
/share-disk-dirCS1/csdb/hotbackup
이러한 디렉토리를 지정한 후 [디렉토리 만들기]를 선택합니다.
구성에 성공했는지 확인합니다.
구성 프로그램에서 일련의 메시지가 표시됩니다. 메시지가 모두 PASSED로 시작되는 경우 구성에 성공한 것입니다. 표시되는 출력 예는 6.11 달력 구성 프로그램의 출력 예(일부)를 확인하십시오.
Sun Cluster 명령줄 인터페이스를 사용하여 두 번째 노드로 페일오버를 수행합니다.
예를 들면 다음과 같습니다.
# /usr/cluster/bin/scswitch -z -g CAL-CS1-RG -h Node2
다음 예에 나와 있는 대로 매개 변수를 추가하여 구성 파일 ics.conf를 편집합니다.
이 단계를 시작하기 전에 ics.conf 파일을 백업하십시오.
! 다음은 Calendar Server의 고가용성을 구성하기 위한 변경 ! 사항입니다. ! local.server.ha.enabled="yes" local.server.ha.agent="SUNWscics" service.http.listenaddr="IPAddressCS1" local.hostname="LOG-HOST-CS1-RS" local.servername="LOG-HOST-CS1-RS" service.ens.host="LOG-HOST-CS1-RS" service.http.calendarhostname="LOG-HOST-CS1-RS-Domain.com" local.autorestart="yes" service.listenaddr = "IPAddressCS1"
service.http.calendarhostname의 값은 정규화된 호스트 이름이어야 합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 Calendar Server 자원 그룹을 만듭니다.
달력 자원 그룹을 만들고 활성화합니다.
예를 들면 다음과 같습니다.
./scrgadm -a -j CAL-SVR-CS1-RS -g CAL-CS1-RG -t SUNW.scics -x ICS_serverroot=/cal-svr-baseCS1 -y Resource_dependencies=CAL-HASP-CS1-RS,LOG-HOST-CS1-RS ./scrgadm -e -j CAL-SVR-CS1-RS
Sun Cluster 명령줄 인터페이스를 사용하여 Calendar Server 자원 그룹이 성공적으로 생성되었는지 확인하고 주 노드인 첫 번째 노드로 페일오버를 수행합니다.
예를 들면 다음과 같습니다.
./scswitch -z -g CAL-CS1-RG -h Node1
두 번째 Calendar Server 인스턴스의 주 노드는 보조 노드(Node2)입니다.
파일이 마운트되었는지 확인합니다.
주 노드(Node2)에서 다음 명령을 입력합니다.
df -k
다음은 표시되는 출력의 예입니다.
/dev/md/penguin/dsk/d500 35020572 34738 34635629 1% /install-rootCS1 /dev/md/penguin/dsk/d400 35020572 34738 34635629 1% /share-disk-dirCS1 /dev/md/polarbear/dsk/d300 35020572 34738 34635629 1% /share-disk-dirCS2 /dev/md/polarbear/dsk/d200 35020572 34738 34635629 1% /install-rootCS2 /dev/md/polarbear/dsk/d600 35020572 34738 34635629 1% /var-cal-dirCS1 /dev/md/polarbear/dsk/d700 35020572 34738 34635629 1% /var-cal-dirCS2
Sun Java Systems Communications Suite 설치 프로그램을 사용하여 새로운 주 노드(보조 노드)에서 Calendar Server를 설치합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 다음 단계에 설명된 대로 Calendar Server의 두 번째 인스턴스를 구성합니다.
페일오버 자원 그룹을 만듭니다.
다음 예에서 자원 그룹은 CAL-CS2-RG이고 두 노드의 이름은 Node2(주 노드) 및 Node1(페일오버 노드)입니다.
./scrgadm -a -g CAL-CS2-RG -h Node2,Node1
논리적 호스트 이름 자원을 만듭니다.
달력 클라이언트가 이 논리적 호스트 이름에서 수신합니다. 다음 예에서는 실제 호스트 이름을 대체할 위치에 LOG-HOST-CS2-RS를 사용합니다.
./scrgadm -a -L -g CAL-CS2-RG -l LOG-HOST-CS2-RS ./scrgadm -c -j LOG-HOST-CS2-RS -y R_description="LogicalHostname resource for LOG-HOST-CS2-RS"
자원 그룹을 온라인 상태로 만듭니다.
scswitch -Z -g CAL-CS2-RG
HAStoragePlus 자원을 만들고 페일오버 자원 그룹에 추가합니다.
이 예에서 자원은 CAL-SVR-CS2-RS이며사용자의 자원 이름으로 대체할 수 있습니다.
./scrgadm -a -j CAL-SVR-CS2-RS -g CAL-CS2-RG -t SUNW.HAStoragePlus:4 -x FilesystemMountPoints=/install-rootCS2, /share-disk-dirCS2,/var-cal-dirCS2 ./scrgadm -c -j CAL-HASP-CS2-RS -y R_description="Failover data service resource for SUNW.HAStoragePlus:4"
HAStoragePlus 자원을 활성화합니다.
./scswitch -e -j CAL-HASP-CS2-RS
보조 노드에서 구성 프로그램을 다시 실행합니다.
# cd /cal-svr-baseCS2/sbin/ # ./csconfigurator.sh
구성 스크립트 실행에 대한 자세한 내용은 Sun Java System Calendar Server 6.3 관리 설명서를 참조하십시오.
런타임 구성 패널에서 두 Calendar Server 시작 옵션을 선택 해제합니다.
구성 및 데이터 파일을 저장할 디렉토리 패널에서 다음 목록에 나와 있는 것처럼 적절한 디렉토리를 제공합니다.
share-disk-dirCS2/config
/share-disk-dirCS2/csdb
/share-disk-dirCS2/store
/share-disk-dirCS2/logs
/share-disk-dirCS2/tmp
디렉토리를 지정한 후에는 [디렉토리 만들기]를 선택합니다.
아카이브 및 핫 백업 패널에서 다음 목록에 나와 있는 것처럼 적절한 디렉토리 이름을 제공합니다.
/share-disk-dirCS2/csdb/archive
/share-disk-dirCS2/csdb/hotbackup
이러한 디렉토리를 지정한 후 [디렉토리 만들기]를 선택합니다.
구성에 성공했는지 확인합니다.
구성 프로그램에서 일련의 메시지가 표시됩니다. 메시지가 모두 PASSED로 시작되는 경우 구성에 성공한 것입니다. 표시되는 출력 예는 6.11 달력 구성 프로그램의 출력 예(일부)를 확인하십시오.
Sun Cluster 명령줄 인터페이스를 사용하여 첫 번째 노드로 페일오버를 수행합니다.
예를 들면 다음과 같습니다.
# /usr/cluster/bin/scswitch -z -g CAL-CS2-RG -h Node1
다음 예에 나와 있는 대로 매개 변수를 추가하여 구성 파일 ics.conf를 편집합니다.
표시된 값은 예로 든 것입니다. 이 예에 사용된 값을 사용자 자신의 정보로 대체해야 합니다.
이 단계를 시작하기 전에 ics.conf 파일을 백업하십시오.
! 다음은 Calendar Server의 고가용성 구성을 위한 변경 ! 사항입니다. ! local.server.ha.enabled="yes" local.server.ha.agent="SUNWscics" service.http.listenaddr="IPAddressCS2" local.hostname="LOG-HOST-CS2-RS" local.servername="LOG-HOST-CS2-RS" service.ens.host="LOG-HOST-CS2-RS" service.http.calendarhostname="LOG-HOST-CS2-RS-Domain.com" local.autorestart="yes" service.listenaddr = "IPAddressCS2"
service.http.calendarhostname의 값은 정규화된 호스트 이름이어야 합니다.
Sun Cluster 명령줄 인터페이스를 사용하여 Calendar Server 자원 그룹을 만듭니다.
Calendar Server 자원 그룹을 만들고 활성화합니다.
예를 들면 다음과 같습니다.
./scrgadm -a -j CAL-SVR-CS2-RS -g CAL-CS2-RG -t SUNW.scics -x ICS_serverroot=/cal-svr-baseCS2 -y Resource_dependencies=CAL-HASP-CS2-RS,LOG-HOST-CS2-RS ./scrgadm -e -j CAL-SVR-CS2-RS
Sun Cluster 명령줄 인터페이스를 사용하여 달력 자원 그룹이 성공적으로 생성되었는지 확인하고 이 Calendar Server 인스턴스의 주 노드인 두 번째 노드로 페일오버를 수행합니다.
예를 들면 다음과 같습니다.
./scswitch -z -g CAL-CS2-RG -h Node2
이제 대칭형 HA Calendar Server의 설치 및 구성을 완료했습니다.
다음 명령을 사용하여 Calendar Server HA 서비스를 시작, 페일오버, 비활성화, 제거 및 다시 시작할 수 있습니다.
# scswitch -e -j CAL-SVR-RS
# scswitch -z -g CAL-RG -h Node2
# scswitch -n -j CAL-SVR-RS
# scrgadm -r -j CAL-SVR-RS
# scrgadm -R -j CAL-SVR-RS
이 절에서는 Sun Cluster에 대한 HA 구성을 실행 취소하는 방법을 설명하며이 장에서 설명한 간단한 비대칭형 예제 구성을 사용합니다. 이 시나리오를 사용자의 설치 환경에 맞게 활용해야 합니다.
수퍼유저가 됩니다.
다음 Sun Cluster 명령을 실행하려면 수퍼유저로 실행 중이어야 합니다.
자원 그룹을 오프라인 상태로 만듭니다. 다음 명령을 사용하여 자원 그룹의 모든 자원을 종료합니다(예: Calendar Server 및 HA 논리적 호스트 이름).
# scswitch -F -g CAL-RG |
개별 자원을 비활성화합니다.
다음 명령을 사용하여 자원 그룹에서 자원을 하나씩 제거합니다.
# scswitch -n -j CAL-SVR-RS # scswitch -n -j CAL-HASP-RS # scswitch -n -j LOG-HOST-RS |
다음 명령을 사용하여 자원 그룹을 제거합니다.
# scrgadm -r -g CAL-RG |
자원 유형을 제거합니다(선택 사항). 클러스터에서 자원 유형을 제거하려면 다음 명령을 사용합니다.
# scrgadm -r -t SUNW.scics # scrgadm -r -t SUNW.HAStorage |
Calendar Server Sun Cluster 에이전트는 두 가지의 서로 다른 API를 사용하여 메시지를 기록합니다.
scds_syslog_debug() — Calendar Server 에이전트에서 사용합니다. 메시지는 daemon.debug 수준으로 기록됩니다.
scds_syslog() — Calendar Server 에이전트 및 Sun Cluster 데이터 서비스에서 사용합니다. 메시지는 daemon.notice, daemon.info 및 daemon.error 수준으로 기록됩니다.
/var/adm 파일을 공유할 수 없으므로 각 HA 노드에서 다음 작업을 수행해야 합니다. 이 파일은 각 노드의 루트 파티션에 있습니다.
Calendar Server 에이전트의 로깅 디렉토리를 만듭니다.
mkdir -p /var/cluster/rgm/rt/SUNW.scics
디버그 수준을 9로 설정합니다.
echo 9 >/var/cluster/rgm/rt/SUNW.scics/loglevel
다음 예는 디렉토리에서 확인할 수 있는 로그 메시지를 보여 줍니다. 마지막 행에서 ICS-serverroot는 cal-svr-base 또는 설치 디렉토리를 확인하는 것입니다.
Dec 11 18:24:46 mars SC[SUNW.scics,CAL-RG,cal-rs,ics_svc_start]: [ID 831728 daemon.debug] Groupname icsgroup exists. Dec 11 18:24:46 mars SC[SUNW.scics,CAL-RG,LOG-HOST-RS,ics_svc_start]: [ID 383726 daemon.debug] Username icsuser icsgroup Dec 11 18:24:46 mars SC[SUNW.scics,CAL-RG,LOG-HOST-RS,ics_svc_start]: [ID 244341 daemon.debug] ICS_serverroot = /cal-svr-base
Sun Cluster 데이터 서비스 로깅을 활성화합니다.
다음 행을 추가하여 syslog.conf 파일을 편집합니다.
daemon.debug /var/adm/clusterlog
이 명령은 모든 디버그 메시지를 daemon.debug /var/adm/clusterlog 파일에 기록합니다.
syslogd 데몬을 다시 시작합니다.
pkill -HUP syslogd
다음 메시지 앞에 모든 syslog 디버그 메시지가 표시됩니다.
SC[resourceTypeName, resourceGroupName, resourceName, methodName]
다음 예제 메시지는 보기 쉽도록 여러 행으로 나눈 것입니다.
Dec 11 15:55:52 Node1 SC [SUNW.scics,CAL-RG,CalendarResource,ics_svc_validate]: [ID 855581 daemon.error] Failed to get the configuration info Dec 11 18:24:46 Node1 SC [SUNW.scics,CAL-RG,LOG-HOST-RS,ics_svc_start]: [ID 833212 daemon.info] Attempting to start the data service under process monitor facility.
이 절에서는 구성 프로그램의 출력 내용을 부분적으로 설명합니다. 실제 출력 내용은 훨씬 깁니다. 끝에 “모든 작업이 성공했습니다.” 라는 메시지가 있는지 확인합니다. 로그 파일을 확인하십시오. 파일 위치는 출력의 끝에 지정됩니다.
/usr/jdk/entsys-j2se/bin/java -cp /opt/Node2/SUNWics5/cal/share/lib: /opt/Node2/SUNWics5/cal/share -Djava.library.path= /opt/Node2/SUNWics5/cal/lib configure -nodisplay -noconsole -novalidate # ./csconfigurator.sh -nodisplay -noconsole -novalidate /usr/jdk/entsys-j2se/bin/java -cp /opt/Node2/SUNWics5/cal/share/lib: /opt/Node2/SUNWics5/cal/share -Djava.library.path= /opt/Node2/SUNWics5/cal/lib configure -nodisplay -noconsole -novalidate GNOME용 Java Accessibility Bridge가 로드되었습니다. 기본 등록 정보 로드 중... 디스크 공간 확인 중... 작업 시퀀스 시작 ===== Mon Dec 18 15:33:29 PST 2006 ===== Running /bin/rm -f /opt/Node2/SUNWics5/cal/config /opt/Node2/SUNWics5/cal/data ===== Mon Dec 18 15:33:29 PST 2006 ===== Running /usr/sbin/groupadd icsgroup ===== Mon Dec 18 15:33:29 PST 2006 ===== Running /usr/sbin/useradd -g icsgroup -d / icsuser ===== Mon Dec 18 15:33:30 PST 2006 ===== Running /usr/sbin/usermod -G icsgroup icsuser ===== Mon Dec 18 15:33:30 PST 2006 ===== Running /bin/sh -c /usr/bin/crle ===== Mon Dec 18 15:33:32 PST 2006 ===== Running /bin/chown icsuser:icsgroup /etc/opt/Node2/SUNWics5/config/watcher. cnf ... 시퀀스 완료됨 PASSED: /bin/rm -f /opt/Node2/SUNWics5/cal/config /opt/Node2/SUNWics5/cal/data : status = 0 PASSED: /usr/sbin/groupadd icsgroup : status = 9 PASSED: /usr/sbin/useradd -g icsgroup -d / icsuser : status = 9 ... 모든 작업이 성공했습니다. 자세한 내용은 설치 로그 /var/sadm/install/logs/Sun_Java_System_Calendar_Server_install.B12181533을(를) 확인하십시오.
Sun Cluster에 대한 자세한 내용은 docs. sun.com의 여러 문서에 나와 있습니다.
다음은 문서 제목 중 일부입니다.
Solaris OS용 Sun Cluster 개념 안내서에서는 Sun Cluster 소프트웨어, 데이터 서비스 및 용어 자원 유형, 자원 및 자원 그룹에 대한 일반적인 배경 정보를 제공합니다.
Sun Cluster Data Services Planning and Administration Guide for Solaris OS에서는 데이터 서비스 계획 및 관리에 대한 일반 정보를 제공합니다.
Solaris OS용 Sun Cluster 시스템 관리 설명서에서는 Sun Cluster 구성을 관리하는 소프트웨어 절차를 제공합니다.
Sun Cluster Reference Manual for Solaris OS에서는 SUNWscman 및 SUNWccon 패키지에만 있는 명령을 포함하여 Sun Cluster 소프트웨어에서 사용 가능한 명령 및 유틸리티에 대해 설명합니다.