이 문서에서는 SunTM Cluster 3.1 소프트웨어에 대하여 다음과 같은 내용을 설명합니다.
Sun Cluster 3.1 데이터 서비스에 대한 정보는 Sun Cluster 3.1 데이터 서비스 5/03 릴리스 정보에서 참조하십시오.
이 단락에서는 Sun Cluster 3.1의 새로운 특징, 기능 및 지원 제품에 대하여 설명합니다.
Sun Cluster 보안 강화는 Sun BluePrints TM 프로그램에서 권장하는 Solaris 운영 환경 강화 기술을 사용하여 클러스터에 필요한 기본 보안 강화 기능을 구현합니다. Solaris Security Toolkit은 Sun Cluster 보안을 자동으로 강화합니다.
Sun Cluster 보안 강화 설명서는 http://www.sun.com/blueprints/0203/817-1079.pdf 에서 볼 수 있습니다. http://wwws.sun.com/software/security/blueprints에서도 설명서를 볼 수 있습니다. 이 URL에서 Architecture 제목까지 스크롤하여 “ Sun Cluster 3.x Software 보안” 문서를 찾으십시오. 이 설명서에서는 Solaris 8 및 Solaris 9 환경에서 Sun Cluster 3.1 배포판을 보안하는 방법에 대해 설명합니다. 이 설명에는 Solaris Security Toolkit 사용 방법과 Sun 보안 전문가가 권장하는 다른 전문적인 보안 기술에 대한 내용이 포함되어 있습니다.
Sun Cluster 3.1 소프트웨어에서 이제 개방형 토폴로지를 지원합니다. Sun Cluster 3.1 Concepts 문서에 수록된 기억 장치 토폴로지로 더 이상 제한되지 않습니다.
Sun Cluster는 구현된 기억 장치 구성에 상관 없이 한 클러스터에서 최대 8개의 노드를 지원합니다.
공유 기억 장치를 기억 장치가 지원하는 만큼 노드에 연결할 수 있습니다.
공유 기억 장치를 클러스터의 모든 노드에 연결할 필요는 없습니다. 그러나 이러한 기억 장치를 최소 두 개의 노드에 연결해야 합니다.
Sun Cluster 3.1은 공유 기억 장치 없이 3개 이상의 노드로 된 클러스터 구성을 지원합니다. 두 개의 노드 클러스터는 정족수를 유지하는 공유 저장 장치를 사용하는 데 계속 필요합니다. 이 기억 장치는 기타 어떤 기능을 수행할 필요는 없습니다.
RGM을 사용하여 온라인상으로 가져올 때 데이터 서비스가 Solaris 프로젝트 이름 아래에서 시작되도록 구성할 수 있게 되었습니다. 데이터 서비스의 프로젝트 구성 계획에 대한 자세한 내용은 “Sun Cluster 3.1 Concepts Guide”의 주요 개념 – 관리와 응용프로그램 개발에 있는 “데이터 서비스 프로젝트 구성” 단원에서 참조하십시오.
공용 네트워크에서 IP 네트워크 다중 경로 지정을 Solaris로 구현하기 위한 지원에 대한 자세한 내용은 Sun Cluster 3.1 소프트웨어 설치 안내서의 “Sun Cluster 구성 계획”과 Sun Cluster 3.1 시스템 관리 안내서의 “ 공용 네트워크 관리”에서 참조하십시오.
디스크 장치 그룹에 필요한 보조 노드 개수를 설정하는 방법에 대한 자세한 내용은 Sun Cluster 3.1 시스템 관리 안내서의 “디스크 장치 그룹 관리하기”에서 참조하십시오(필요한 보조 노드 수 설정과 디스크 장치 그룹 등록 정보 변경을 위한 절차 참조). Sun Cluster 3.1 Concepts Guide의 “클러스터 관리와 응용프로그램 개발” 에서도 정보를 찾아 볼 수 있습니다(다중 포트 디스크 페일오버에 관한 단락 참조).
데이터 서비스 향상에 대한 정보는 Sun Cluster 3.1 데이터서비스 5/03 릴리스 정보의 “Sun Cluster 3.1 데이터 서비스 5/03에서 새로워진 것들”에서 참조하십시오.
이 단락에서는 Sun Cluster 3.1 소프트웨어에 대한 메모리 요구 사항과 지원 소프트웨어에 대하여 설명합니다.
운영 환경 및 패치 – 지원되는 Solaris 버전과 패치는 다음 URL에서 볼 수 있습니다.
자세한 설명은 패치 및 필수 펌웨어 레벨에서 참조하십시오.
볼륨 관리자
Solaris 8 – Solstice DiskSuiteTM 4.2.1과 VERITAS 볼륨 관리자 3.2 및 3.5
Solaris 9 – Solaris 볼륨 관리자 및 VERITAS 볼륨 관리자 3.5
VERITAS 볼륨 관리자(VxVM)를 3.2에서 3.5로 업그레이드하는 경우, 3.5 버전용 CVM 라이센스 키를 설치할 때까지는 클러스터 볼륨 관리자(CVM) 기능을 사용할 수 없습니다. VxVM 3.5에서 3.2 버전용 CVM 라이센스 키로 CVM을 사용할 수 없으며 3.5 버전용 CVM 라이센스 키로 업그레이드해야 합니다.
파일 시스템
Solaris 8 – Solaris UFS와 VERITAS 파일 시스템 3.4 및 3.5
Solaris 9 – Solaris UFS와 VERITAS 파일 시스템 3.5
데이터 서비스(에이전트) – 지원 데이터 서비스에 대한 내용은 Sun Cluster 3.1 데이터 서비스 5/03 릴리스 정보에서 참조하십시오.
Sun Cluster 3.0 데이터 서비스는 Sun Cluster 3.1에서 Oracle용 Sun Cluster HA 3.0 실행에서 설명한 내용을 제외하고 Sun Cluster 3.1에서 실행할 수 있습니다.
메모리 요구 사항 – Sun Cluster 3.1 소프트웨어에는 일반적인 작업 로드가 발생하는 노드에 대하여 구성하는 메모리보다 많은 추가 메모리가 필요합니다. 추가 메모리는 128MB에 10%를 더하면 됩니다. 예를 들어, 독립된 노드에 일반적으로 1GB의 메모리가 필요하면 메모리 요구 사항을 충족시키기 위해 256MB를 추가해야 합니다.
RSMAPI –Sun Cluster 3.1 소프트웨어는 RSM 가능 상호 연결에서 PCI-SCI 같은 RSMAPI(원격 공유 메모리 API)를 지원합니다.
다음과 같은 제한 사항이 Sun Cluster 3.1 릴리스에 적용됩니다.
svc_default_stksize 및 lwp_default_stksize 매개변수 –스택 오버플로우가 생기지 않도록 /etc/system 파일에서 rpcmod:svc_default_stksize 매개변수는 0x8000으로, lwp_default_stksize 매개변수는 0x6000으로 설정합니다.
어떤 VxFS 패키지나 패치를 추가한 경우, /etc/system 파일에서 이러한 매개변수가 위와 같이 설정되었는지 확인하십시오.
local-mac-address?변수 – local-mac-address? 변수는 이더넷 어뎁터에 대해 true값을 가져야 합니다. 이 변수를 false 값으로 설정해야 했던 Sun Cluster 3.0 소프트웨어의 요구 사항과 반대입니다.
원격 공유 메모리(RSM) 전송 유형 – 설명서에서 전송 유형에 대하여 설명은 하지만 지원하지는 않습니다. RSMAPI를 사용할 경우에는 dlpi를 전송 유형으로 지정하십시오.
확장가능한 일관된 인터페이스(SCI) – SBus SCI 인터페이스는 클러스터 상호 연결로 지원되지 않습니다. 그러나 PCI-SCI 인터페이스는 지원됩니다.
논리 네트워크 인터페이스 – 이 인터페이스는 Sun Cluster 3.1 소프트웨어에서 사용하도록 지정되었습니다.
디스크 경로 감시 – Sun Cluster 소프트웨어는 현재 주 노드에서 작동하는 디스크 경로의 장애만 감시합니다. 정족수 장치에 대한 경로를 잃거나 이중 장애가 발생하지 않도록 하려면 직접 디스크 경로를 감시해야 합니다.
동봉장치에 3개 이상의 물리적 경로를 갖는 기억 장치 –다음의 경우를 제외하고 3개 이상의 경로는 지원하지 않습니다.2개의 각 노드에 두 경로가 지원되는 Sun StorEdge TM A3500, Sun StorEdge Traffic Manager를 지원하는 모든 장치 그리고 EMC PowerPath 소프트웨어를 사용하는 EMC 기억 장치의 경우.
SunVTSTM – 지원하지 않습니다.
멀티 호스트 테이프, CD-ROM 및 DVD-ROM – 지원하지 않습니다.
루프백 파일 시스템 – Sun Cluster 3.1 소프트웨어는 클러스터 노드에서 LOFS(루프백 파일 시스템) 사용을 지원하지 않습니다.
클러스터 노드에서 클라이언트 응용프로그램 실행 – 클러스터 노드에서 실행하는 클라이언트 응용프로그램은 HA 데이터 서비스의 논리 IP 주소에 매핑할 수 없습니다. 페일오버 동안에는 이 논리 IP 주소가 없어져서 클라이언트의 연결이 끊어질 수 있습니다.
클러스터 노드에서 우선 순위가 높은 예약 클래스 프로세스 실행 – 지원하지 않습니다. 우선 순위가 높은 시분할 예약 클래스에서 실행되는 프로세스나 실시간 예약 클래스에서 실행되는 프로세스는 클러스터 노드에서 실행할 수 없습니다. Sun Cluster 3.1 소프트웨어는 실시간 예약 클래스에서 실행되지 않는 커널 스레드를 사용합니다. 실시간 프로세스나 일반적인 우선 순위보다 높은 다른 시분할 프로세스를 실행하면 Sun Cluster 커널 스레드에서 필요한 CPU 주기를 받지 못할 수 있습니다.
Solaris 8에서 Solaris 9로 업그레이드 - Sun Cluster 구성에서는 Solaris 8에서 Solaris 9 소프트웨어로 업그레이드를 지원하지 않습니다. 이후 호환되는 Solaris 8 운영 환경 버전으로만 업그레이드할 수 있습니다. Solaris 9 운영 환경에서 Sun Cluster 3.1 소프트웨어를 실행하려면 Solaris 9 소프트웨어에서 노드를 설치한 후 Sun Cluster 3.1의 Solaris 9 버전을 새로 설치해야 합니다.
IPv6 - 지원하지 않습니다.
SNDR을 HAStoragePlus와 함께 사용할 수 없음 - 현재 SNDR은 HAStorage와만 사용할 수 있습니다. 이 제한 사항은 복제를 위해 SNDR에서 사용하는 논리 호스트를 포함한 경량 자원 그룹에만 적용됩니다. 응용프로그램 자원 그룹은 여전히 SNDR에서 HAStoragePlus를 사용할 수 있습니다. SNDR 자원 그룹에 HAStorage를 사용하고 응용프로그램 자원 그룹에 HAStoragePlus를 사용하여 HAStoragePlus 및 SNDR에서 페일오버 파일 시스템을 사용할 수 있습니다. 여기서 HAStorage와 HAStoragePlus 자원은 동일한 기본 DCS 장치를 가리킵니다. SNDR이 HAStoragePlus와 작동하도록 패치를 개발하고 있습니다.
마운트 옵션 - (1) 다시 마운트할 때 추가된 directio 마운트 옵션으로 파일 시스템을 다시 마운트 할 수 없습니다. (2)directio ioctl을 사용하여 하나의 파일에서 directio 마운트 옵션을 설정할 수 없습니다.
라이센스 키 - 라이센스 키는 대화식 폼이나 scvxinstall -e 옵션으로만 설치할 수 있습니다.
기타 제한 사항 - 다른 알려진 문제점이나 제한 사항에 대해서는 알려진 문제점 및 버그에서 참조하십시오.
Sun Cluster 3.1 소프트웨어는 Sun Cluster 제품과 함께 제공되거나 Sun Cluster 데이터 서비스 API를 사용하여 설정되는 데이터 서비스에만 서비스를 제공할 수 있습니다.
Sun Cluster 소프트웨어에는 현재 sendmail(1M) 부속 시스템를 위한 HA Data Service가 없습니다. 각 클러스터 노드에서 sendmail을 실행할 수 있지만 메일 배달과 메일 경로 지정 및 대기열 또는 재시도의 기능을 포함하여 sendmail 기능을 그렇게 쉽게 사용하지는 못할 것입니다.
클러스터 노드를 라우터(게이트웨이)로 구성하지 마십시오. 시스템이 중지될 경우에 클라이언트가 대체 라우터를 찾을 수 없기 때문에 복구할 수 없습니다.
클러스터 노드를 NIS 또는 NIS+ 서버로 구성하지 마십시오. 그러나 클러스터 노드가 NIS 또는 NIS+ 클라이언트가 될 수는 있습니다.
클라이언트 시스템에서 Sun Cluster 구성을 사용하여 가용성이 높은 부트나 설치 서비스를 제공하지 마십시오.
Sun Cluster 3.1 구성을 사용하여 rarpd 서비스를 제공하지 마십시오.
AP(Alternate Pathing)는 지원하지 않습니다.
J4701 슬롯에 PCI 카드가 설치된 Sun EnterpriseTM 420R 서버를 사용할 경우에는 마더보드가 대시 레벨 15 이상(501-5168-15 이상)이어야 합니다. 마더보드 제품 번호와 개정 레벨을 확인하려면 PCI 슬롯 1에서 가까운 쪽 모서리를 보십시오.
Sun Enterprise 10000 서버에서 보드의 슬롯 0에 UDWIS I/O 카드를 설치하는 경우에 시스템 패닉이 발생했습니다.이 서버에서는 보드의 슬롯 0에 UDWIS I/O 카드를 설치하지 마십시오.
VERITAS 볼륨 관리자(VxVM)를 3.2에서 3.5로 업그레이드하는 경우 3.5 버전용 CVM 라이센스 키를 설치할 때까지는 클러스터 볼륨 관리자(CVM)의 기능을 사용할 수 없습니다. VxVM 3.5에서는 3.2 버전용 CVM 라이센스 키로 CVM을 사용할 수 없으며 3.5 버전용 CVM 라이센스 키로 업그레이드해야 합니다.
mediator를 사용하는 Solstice DiskSuite/Solaris 볼륨 관리자 구성에서는 디스크 세트에 정확히 두 개의 중재자(mediator) 호스트를 구성해야 합니다.
DiskSuite Tool(Solstice DiskSuite metatool) 및 Solaris Management Console(Solaris 볼륨 관리자)의 Enhanced Storage 모듈은 Sun Cluster 3.1 소프트웨어와 호환되지 않습니다.
Sun Cluster 3.1 소프트웨어에서 VxVM DMP(Dynamic Multipathing)를 사용하여 동일한 노드의 여러 경로를 관리할 수 없습니다. VxVM 3.2부터는 DMP의 설치를 해제할 수 없습니다. 그러나 노드 당 경로가 하나만 있는 시스템의 I/O 스택에서 이를 사용한다고 문제가 생기지는 않습니다. 그러나 노드 당 경로가 여러 개인 구성에서 VxVM을 사용하는 경우는 MPxIO나 EMC PowerPath 같은 다른 다중 경로 솔루션을 사용해야 합니다.
Sun Cluster 3.1 소프트웨어의 VxVM에서는 간단한 루트 디스크 그룹(루트 디스크의 단일 슬라이스에서 만든 rootdg)을 디스크 유형으로 사용할 수 없습니다.
소프트웨어 RAID 5는 지원하지 않습니다.
Sun Cluster 파일 시스템에서는 할당(quota)을 지원하지 않습니다.
umount -f 명령은 -f 옵션을 사용하지 않고 umount 명령을 실행하는 것과 동일한 기능을 합니다. 강제 마운트 해제 기능은 지원하지 않습니다.
unlink(1M) 명령은 내용이 있는 디렉토리에 사용할 수 없습니다.
lockfs -d 명령은 지원하지 않습니다. 대신 lockfs -n 명령을 사용하십시오.
클러스터 파일 시스템은 파일 시스템 이름 공간에 통신 종단점을 만들 수 있는 Solaris 소프트웨어의 파일 시스템 기능을 지원하지 않습니다. 따라서 이름이 경로 이름인 UNIX 도메인 소켓을 클러스터 파일 시스템에 만들 수 있지만 노드 페일오버 후에는 소켓이 작동하지 않습니다. 또한 클러스터 파일 시스템에서 생성하는 모든 fifo 또는 명명된 파이프는 전역으로 액세스할 수 없을 뿐만 아니라 로컬 노드가 아닌 노드에서 fattach를 사용해서는 안됩니다.
forcedirectio 마운트 옵션을 사용하여 마운트된 파일 시스템 외부에서는 바이너리를 실행할 수 없습니다.
다음 VxFS 기능은 Sun Cluster 3.1 구성에서 지원하지 않습니다.
고속 I/O
스냅샷
기억 장치 검사점
캐시 보고(이 기능을 사용할 수는 있지만 적용 결과는 지정된 노드에서만 볼 수 있습니다)
VERITAS CFS(VERITAS 클러스터 기능 및 VCS 필요)
클러스터 구성에서 지원되는 다른 모든 VxFS 기능은 Sun Cluster 3.1 소프트웨어에서 모두 지원됩니다. 클러스터 구성에서 지원되거나 지원되지 않는 VxFS 옵션에 대한 자세한 내용은 VxFS 문서 및 맨(man) 페이지에서 참조하십시오.
다음 VxFS 관련 마운트 옵션은 Sun Cluster 3.1 구성에서 지원하지 않습니다.
convosync (O_SYNC 변환)
mincache
qlog, delaylog, tmplog
Sun Cluster 구성에서 VxFS 클러스터 파일 시스템의 관리에 대한 내용은 Sun Cluster 3.1 시스템 관리 안내서의 “ 클러스터 파일 시스템 관리 개요”에서 참조하십시오.
이 단락에서는 Sun Cluster 3.1 환경에서만 적용되는 IP 네트워크 다중 경로 사용의 제한 사항 또는 IP 네트워크 다중 경로에 대한 Solaris 문서의 내용과 다른 제한 사항을 확인합니다.
IPv6은 지원하지 않습니다.
모든 공용 네트워크 어뎁터는 IP 네트워크 다중 경로 그룹에 있어야 합니다.
/etc/default/mpathd에서 TRACK_INTERFACES_ONLY_WITH_GROUPS를 yes에서 no로 바꾸지 마십시오.
알려진 버그 및 문제점에 대해서는 IPMP 그룹 작성 옵션이 hostname.int를 덮어씀(4731768)에서 참조하십시오.
IP 네트워크 다중 경로에 대한 Solaris 문서에 기재된 대부분의 절차, 지침 및 제한 사항은 클러스터 환경이나 클러스터가 아닌 환경에서 동일합니다. 따라서 해당 Solaris 문서에서 IP 네트워크 다중 경로 제한 사항에 대한 추가 정보를 참조하십시오.
운영 환경 릴리스 |
참고 항목 |
---|---|
Solaris 8 운영 환경 |
IP Network Multipathing Administration Guide |
Solaris 9 운영 환경 |
System Administration Guide: IP Series 의 “ IP Network Multipathing Topics” |
모든 데이터 서비스에 적용되는 제한 사항은 없습니다. 특정 데이터 서비스의 제한 사항에 대한 내용은 Sun Cluster 3.1 데이터 서비스 5/03 릴리스 정보에서 참조하십시오.
Oracle 3.0용 Sun Cluster HA 데이터 서비스는 다음 버전의 Solaris 운영 환경에서 사용하는 경우에만 Sun Cluster 3.1에서 실행할 수 있습니다.
Solaris 8, 32비트 버전
Solaris 8, 64비트 버전
Solaris 9, 32비트 버전
Oracle 3.0용 Sun Cluster HA 데이터 서비스는 64비트 버전의 Solaris 9와 함께 실행하는 경우 Sun Cluster 3.1에서 실행할 수 없습니다.
다음의 알려진 문제점과 버그가 Sun Cluster 3.1 릴리스의 운영에 영향을 미칩니다. 최신 정보를 얻으려면 http://docs.sun.com에 있는 온라인 Sun Cluster 3.1 Release Notes Supplement를 참조하십시오.
문제점 요약: /etc/mnttab 파일에 전역으로 마운트된 VxFS 파일 시스템의 최신 대형 파일 상태가 표시되지 않습니다.
해결 방법: /etc/mnttab 항목 대신 fsadm 명령을 사용하여 파일 시스템 대형 파일 상태를 확인하십시오.
문제점 요약: 주어진 파일 크기에 대해 전역 VxFS 파일 시스템은 로컬 VxFS 파일 시스템보다 더 많은 디스크 블록을 할당하는 것처럼 보입니다.
해결 방법: 파일 시스템을 마운트 해제한 다음 다시 마운트하면 주어진 파일에 할당된 것처럼 보고된 추가 디스크 블록이 제거됩니다.
문제점 요약: qfe 어뎁터에서 끝나는 전용 상호 연결 전송 경로가 온라인이 되지 못하는 경우가 가끔 있습니다.
scstat -W를 사용하여 결함이 있는 어뎁터를 확인합니다. faulted 또는 waiting 상태에서 해당 어뎁터를 경로 끝점의 하나로 가지고 있는 모든 전송 경로가 출력됩니다.
scsetup을 사용하여 클러스터 구성에서 이 어뎁터에 연결된 모든 케이블을 제거합니다.
다시 scsetup을 사용하여 클러스터 구성에서 이 어뎁터를 제거합니다.
어뎁터와 케이블을 다시 추가합니다.
경로가 나타나는지 확인합니다. 문제가 지속되면 단계1에서 5까지를 몇 번 반복합니다.
경로가 나타나는지 확인합니다. 그래도 문제가 해결되지 않으면 결함이 있는 어뎁터의 노드를 재부트합니다. 노드를 재부트하기 전에 남은 클러스터에 노드를 재부트하는 데 필요한 정족수 개수가 충분한지 확인하십시오.
문제점 요약: 스파스 파일 내에서 블록 할당 쓰기 작업을 수행한 후에는 전체 클러스터에 걸쳐 파일의 블록 수가 항상 일관된 것은 아닙니다. UFS(또는 VxFS 3.4)에 놓인 클러스터 파일 시스템의 경우, 클러스터 노드 간의 블록 불일치는 30초 정도 이내에 사라집니다.
해결 방법: 이후의 메타 데이터 작업에서 일관된 st_blocks 값이 얻어지도록 inode(touch 등)를 갱신하는 파일 메타 데이터 작업으로 st_blocks 값이 동기화되어야 합니다.
문제점 요약: forcedirectio 마운트 옵션과 mmap(2) 함수를 동시에 사용하면 데이터가 손상되고 시스템이 멈출 수 있습니다.
해결 방법: 다음 제한 사항을 참조하십시오.
다시 마운트할 때 추가되는 파일 시스템을 directio 마운트 옵션을 사용하여 다시 마운트하지 마십시오.
directio ioctl을 사용하여 단일 파일에 대하여 directio 마운트 옵션을 설정하지 마십시오.
directio를 사용해야 할 경우에는 directio 옵션을 사용하여 전체 파일 시스템을 마운트하십시오.
문제점 요약: fuser 명령어를 사용하면 어떤 노드에도 사용자가 없는 것으로 나오지만 가끔 클러스터 파일 시스템의 마운트가 해제되지 않습니다.
해결 방법: 기본 파일 시스템에 대한 모든 비동기 I/O가 끝난 후에 마운트 해제를 다시 실행하십시오.
문제점 요약: Sun StorEdge T3 어레이 중 하나의 전원을 끄고 scshutdown 명령을 실행한 다음 두 노드를 재부트하면 클러스터가 작동하지 않는 상태가 됩니다.
해결 방법: 복제의 반이 손실되었으면 다음 단계를 수행합니다.
클러스터가 클러스터 모드인지 확인하십시오.
강제로 디스크 세트를 가져옵니다.
# metaset -s set-name -f -C take |
손실된 복제를 삭제합니다.
# metadb -s set-name -fd /dev/did/dsk/dNsX |
디스크 세트 사용을 해제하십시오.
# metaset -s set-name -C release |
이제 파일 시스템을 마운트하여 사용할 수 있습니다. 그러나 복제의 중복은 복구되지 않았습니다. 복제의 나머지 절반이 손실되면 미러를 정상 상태로 복구할 수 없습니다.
위의 복구 절차를 실행한 후에 데이터베이스를 다시 만드십시오.
문제점 요약: Sun Cluster의 디스크 그룹에서 플렉스를 분리하거나 제거할 때 다음의 패닉 문자열과 함께 클러스터 노드가 멈출 수 있습니다.
panic[cpu2]/thread=30002901460: BAD TRAP: type=31 rp=2a101b1d200 addr=40 mmu_fsr=0 occurred in module "vxfs" due to a NULL pointer dereference
해결 방법: 디스크 그룹에서 플렉스를 분리하거나 제거하기 전에 해당 파일 시스템의 마운트를 해제하십시오.
문제점 요약: scvxinstall -i 명령어는 -L 옵션이 있는 라이센스 키를 받아들입니다. 그러나 키가 무시되고 설치되지 않습니다.
해결 방법: scvxinstall의 -i 형태로 라이센스 키를 제공하지 마십시오. 키가 설치되지 않습니다. 라이센스 키는 대화식 폼이나 -e 옵션으로 설치해야 합니다. 루트의 캡슐화를 진행하기 전에 라이센스 요구 사항을 검사하고 -e 옵션이나 대화식 폼에서 필요한 키를 제공하십시오.
문제점 요약: Sun Cluster HA-Siebel 에이전트는 각 Siebel 구성 요소를 감시하지 않습니다. Siebel 구성 요소의 장애가 감지되면 syslog에 경고 메시지만 기록됩니다.
해결 방법: scswitch -R -h node-g resource_group 명령어를 사용하여 구성 요소가 오프라인인 Siebel 서버 자원 그룹을 다시 시작하십시오.
문제점 요약: remove 스크립트가 SUNW.gds 자원 유형의 등록을 해제하지 못하고 다음과 같은 메시지를 표시합니다.
Resource type has been un-registered already.
해결 방법: remove 스크립트를 사용한 후 SUNW.gds의 등록을 수동으로 해제하십시오. 또는 scsetup 명령어나 SunPlex 관리자를 사용하십시오.
문제점 요약: SunPlex Manager의 Create IPMP group 옵션은 아직 구성되지 않은 어뎁터와만 사용해야 합니다. 어뎁터가 IP 주소로 이미 구성되었다면 IPMP에 대해 어뎁터를 수동으로 구성해야 합니다.
해결 방법: SunPlex Manager의 Create IPMP group 옵션은 아직 구성되지 않은 어뎁터와만 사용해야 합니다. 어뎁터가 IP 주소로 이미 구성되었다면 Solaris IPMP 관리 도구를 사용하여 어뎁터를 수동으로 구성해야 합니다.
문제점 요약: Solaris shutdown 명령어나 유사한 명령어(예: uadmin )를 사용하여 클러스터 노드를 멈추면 노드 패닉이 발생하고 다음 메시지가 표시될 수 있습니다.
CMM: Shutdown timer expired. Halting.
해결 방법: Sun 고객 서비스 센터로 문의하십시오. 이러한 패닉은 종료되는 노드가 호스팅하고 있던 서비스를 클러스터의 또 다른 노드가 안전하게 넘겨받기 위해 필요합니다.
문제점 요약: 클러스터에 최소의 정족수 개수가 있다면 정족수 장치를 클러스터에 추가하기 위한 관리 명령이 실패하고 다음 메시지가 표시됩니다.
Cluster could lose quorum
.해결 방법: Sun 고객 서비스 센터로 문의하십시오.
문제점 요약: 하나 또는 그 이상의 클러스터 노드에 5개 이상의 프로세스가 있다면 전용 상호 연결에서 ce 어뎁터를 사용하는 클러스터에 경로 시간 초과와 이어서 노드 패닉이 발생할 수 있습니다.
해결 방법: 모든 클러스터 노드에서 /etc/system 파일에 set ce:ce_taskq_disable=1을 추가한 다음 클러스터 노드를 재부트하여 ce 드라이버의 ce_taskq_disable 매개변수를 설정합니다. 이를 통해 인터럽트 컨텍스트에서 하트비트(및 기타 패킷)가 항상 전달되도록 하여 경로 시간와 이어지는 노드 패닉을 방지할 수 있습니다. 클러스터 노드를 재부트하는 동안 정족수 요건을 준수해야 합니다.
문제점 요약: 공용 네트워크에 장애가 발생하면 Siebel 게이트웨이 프로브에 시간 초과가 발생하여 결국 Siebel 게이트웨이 자원이 오프라인 상태가 될 수 있습니다. Siebel 게이트웨이가 실행되고 있는 노드에 /home으로 시작하는 경로(NFS 및 NIS와 같은 네트워크 자원에 의해 결정)가 있는 경우에 이러한 문제가 발생할 수 있습니다. 공용 네트워크가 없으면 Siebel 게이트웨이 프로브가 /home에서 파일을 열려고 시도하는 동안 정지하게 되어 프로브가 시간 초과하게 됩니다.
해결 방법: Siebel 게이트웨이를 호스트할 수 있는 클러스터의 모든 노드에 대해 다음 단계를 수행합니다.
/etc/nsswitch.conf의 passwd, group 및 project 항목이 nis가 아니라 files만 참조하도록 하십시오.
/home으로 시작하는 어떤 경로에도 NFS나 NIS 종속성이 없도록 하십시오.
로컬로 마운트된 /home 경로를 사용하거나 /home 마운트 지점을 /export/home이나 /home으로 시작하지 않는 다른 경로명으로 변경할 수 있습니다.
/etc/auto_master 파일에서 +auto_master를 포함하는 줄을 주석으로 처리하십시오. 또한 auto_home을 사용하는 모든 /home 항목을 주석으로 처리하십시오.
etc/auto_home에서 +auto_home을 포함하는 줄을 주석으로 처리하십시오.
문제점 요약: 전용 상호 연결을 통해 높은 가용성의 노드 당 논리 IP 통신을 제공하기 위해 Sun Cluster 소프트웨어는 클러스터 노드상의 게이트웨이 경로를 사용합니다. 게이트웨이 경로가 소실되면 노드 당 논리 IP 통신이 두절됩니다.
해결 방법: 뜻하지 않게 소실된 클러스터 노드들을 재부트합니다. 게이트웨이 경로들을 복구하려면 클러스터 노드를 한 번에 하나씩 다시 부트하는 것으로 충분합니다. 노드 당 논리 IP 통신은 경로가 복구될 때까지 두절된 상태로 유지됩니다. 클러스터 노드를 재부트하는 동안 정족수 요건을 준수해야 합니다.
문제점 요약: 파일 시스템의 페일오버/스위치오버가 성공적이지 못하면 파일 시스템에 오류가 발생할 수 있습니다.
해결 방법: 파일 시스템의 마운트를 해제한 다음 다시 마운트하십시오.
문제점 요약: 클러스터 노드에서 TCP 선택적 승인을 사용하면 데이터가 손상될 수 있습니다.
해결 방법: 사용자가 취할 수 있는 해결 방법은 없습니다. 전역 파일 시스템에서 데이터 손상을 피하려면 클러스터 노드에서 TCP 선택적 승인을 다시 활성화하지 마십시오.
문제점 요약: scinstall이 Solaris 9에서 다음 데이터 서비스가 지원되지 않는 것으로 잘못 표시합니다.
SAP용 Sun Cluster HA
SAP liveCache용 Sun Cluster HA
해결 방법: Solaris 8과 9는 SAP용 Sun Cluster HA와 SAP liveCache용 Sun Cluster HA를 모두 지원합니다.scinstall의 지원되지 않는 기능 목록은 무시하십시오.
문제점 요약: scdidadm(1M)의 현재 구현은 /dev/rmt와 /dev/(r)dsk가 모두 있어야 scdiadm -r을 성공적으로 수행합니다. Solaris는 실제 기본 기억 장치가 있는지에 상관 없이 둘 모두를 설치합니다. /dev/rmt가 없으면 다음 오류가 발생하면서 scdidadm이 종료됩니다.
Cannot walk /dev/rmt" during execution of 'scdidadm -r
.해결 방법: /dev/rmt가 없는 노드에서 mkdir을 사용하여 /dev/rmt 디렉토리를 만듭니다. 그런 다음 한 노드에서 scgdevs를 실행합니다.
문제점 요약: 113454-04, 113073-02 및 113276-02 패치(또는 이러한 패치의 일부)를 실행하는 Sun Cluster 3.x 시스템에서 데이터 손상이 발생할 수 있습니다. 이 문제는 전역으로 마운트된 UFS 파일 시스템에서만 발생합니다. 데이터 손상으로 데이터를 잃게 되며(즉, 데이터가 있어야 하는 곳에 0이 있게 됨) 잃어버린 데이터의 양은 항상 디스크 블록의 배수입니다. 클러스터 파일 시스템 클라이언트가 쓰기 작업을 끝낸 또는 끝냈다고 보고한 직후에 노드 장애로 인해 클러스터 주 파일 시스템이 다운될 때 언제라도 데이터가 손실될 수 있습니다. 이러한 데이터 손실에 취약한 기간은 제한적이며 항상 손실되는 것은 아닙니다.
해결 방법: -o syncdir 마운트 옵션을 사용하여 UFS가 동기화된 UFS 로그 트랜잭션을 사용하도록 합니다.
문제점 요약: 노드가 클러스터에 합류할 때 장치 그룹 스위치오버가 진행되고 있으면 합류한 노드와 스위치오버 작업이 멈출 수 있습니다. 모든 장치 서비스에 대한 액세스 시도도 모두 멈추게 됩니다. 이러한 현상은 클러스터가 3개 이상의 노드를 가지며 장치에 마운트된 파일 시스템이 VxFS 파일 시스템인 경우에 더 쉽게 발생합니다.
해결 방법: 이를 피하려면 노드가 클러스터에 합류하는 동안은 장치 그룹 스위치오버를 초기화하지 마십시오. 이러한 상황이 발생했으면 모든 클러스터 노드를 재부트하여 장치 그룹에 대한 액세스를 복구해야 합니다.
문제점 요약: 클러스터 파일 시스템이 가득 찼을 때 다음 메시지 중 하나가 표시되면서 파일 시스템이 멈추는 경우가 있습니다. 1)
assertion failed: cur_data_token & PXFS_WRITE_TOKEN or PXFS_READ_TOKEN
또는 2)vp->v_pages == NULL
. These panics are intended to prevent data corruption when a filesystem is full.해결 방법: 이러한 문제를 줄이려면 되도록 UFS와 함께 클러스터 파일 시스템을 사용하십시오. UFS와 함께 클러스터 파일 시스템을 사용할 때 이러한 패닉이 발생하는 경우는 매우 드물지만 VxFS와 함께 클러스터 파일 시스템을 사용하면 위험이 커집니다.
문제점 요약: scswitch -z -D <device-group> -h <node> 명령어를 사용한 장치 서비스 스위치오버 요청이 노드 재부트와 동시에 발생하고 장치 서비스에 구성된 전역 파일 시스템이 있는 경우, 전역 파일 시스템을 사용하지 못하게 될 수 있고 장치 서비스나 전역 파일 시스템이 관여된 이후의 구성 변경도 멈출 수 있습니다. 또한 이후의 클러스터 노드 합류도 멈출 수 있습니다.
해결 방법: 복구를 위해서는 모든 클러스터 노드를 재부트해야 합니다.
문제점 요약: scconf -rq 명령어를 사용하여 취약한 구성에 있는 정족수 장치를 제거하면 다음 메시지와 함께 클러스터의 모든 노드가 멈추게 됩니다.
CMM lost operational quorum
.해결 방법: 클러스터에서 정족수 장치를 제거하려면 우선 scstat -q 명령어를 실행하여 출력되는 결과를 점검합니다. 정족수 장치가 Present 열에서 둘 이상의 개수를 갖는 것으로 표시되면 우선 scconf -cq globaldev=QD,maintstate 명령어를 사용하여 이 장치를 관리 모드로 놓아야 합니다. 명령이 완료되고 정족수 장치가 scstat -q에서 0의 개수를 갖는 것으로 표시되면 scconf -rq를 사용하여 장치를 제거할 수 있습니다.
문제점 요약: Solstice DiskSuite/Solaris 볼륨 관리자를 사용하고 있고 O_EXCL 플래그로 이중화된 볼륨이 열려진 경우에 이 볼륨을 포함한 장치 그룹의 페일오버는 실패하게 됩니다. 페일오버 후에 볼륨에 처음으로 액세스할 때 새로운 주 장치 그룹이 멈추게 됩니다.
해결 방법: Solstice DiskSuite/Solaris 볼륨 관리자를 사용할 때 O_EXCL 플래그로 이중화된 볼륨을 열지 마십시오.
문제점 요약: 장치 서비스 페일오버 요청이 노드 재부트나 노드 합류와 동시에 일어나고 장치 서비스에 구성된 클러스터 파일 시스템이 있는 경우, 클러스터 파일 시스템을 사용하지 못하게 될 수 있고 장치 서비스나 전역 파일 시스템이 관여된 이후의 구성 변경도 멈출 수 있습니다. 또한 이후의 클러스터 노드 합류도 멈출 수 있습니다.
해결 방법: 복구하려면 모든 클러스터 노드들을 재부트해야 합니다.
문제점 요약: Sun Plex Manager를 사용하여 프랑스어 로켈로 Sun Cluster를 설치할 때 일부 번역되지 않은 텍스트가 나타납니다.
해결 방법: 이 오류는 SunPlex Manager의 기능에 아무 영향을 미치지 않습니다. 번역되지 않은 텍스트를 무시하거나 브라우저 언어를 영어로 설정하여 번역이 섞이는 것을 피할 수 있습니다.
이 단락에서는 Sun Cluster 구성에 적용되는 패치에 대하여 설명합니다.
Sun Cluster 제품에 필요한 패치를 보거나 다운로드하려면 등록된 SunSolveTM 사용자여야 합니다. SunSolve 계정이 없다면 Sun 서비스 담당자나 기술 엔지니어에게 연락하거나 http://sunsolve.sun.com에서 온라인으로 등록하십시오.
PatchPro는 Sun Cluster 소프트웨어의 설치나 관리에 필요한 패치를 쉽게 선택하고 다운로드하도록 설계된 패치 관리 도구입니다. PatchPro는 패치를 쉽게 설치하도록 Sun Cluster에 특정한 Interactive Mode 도구를 제공하고 최신 패치로 구성을 관리할 수 있도록 Expert Mode 도구를 제공합니다. Expert Mode는 고 가용성 및 보안 패치뿐만 아니라 최신 패치를 모두 얻으려는 사용자에게 특히 유용합니다.
Sun Cluster 소프트웨어를 위한 PatchPro 도구에 액세스하려면 http://www.sun.com/PatchPro/ 페이지로 이동하여 “Sun Cluster”를 클릭한 다음 Interactive Mode나 Expert Mode를 선택하십시오. PatchPro 도구의 지시에 따라 클러스터 구성 정보를 입력하고 패치를 다운로드하십시오.
SunSolve OnlineTM 웹 사이트에서 언제든지 Sun 제품의 패치, 소프트웨어 및 펌웨어에 대한 최신 정보를 액세스할 수 있습니다. 지원되는 최신 소프트웨어, 펌웨어 및 패치 버전에 대한 도표를 보려면 http://sunsolve.sun.com에 있는 SunSolve Online 사이트에 액세스하십시오.
Info Docs를 사용하여 Sun Cluster 3.1 패치 정보를 찾을 수 있습니다. Info Docs를 보려면 SunSolve에 로그온한 다음 메인 페이지 상단에 있는 Simple search를 선택합니다. Simple Search 페이지에서 Info Docs 상자를 누르고 검색 기준 상자에 Sun Cluster 3.1을 입력합니다. 그러면 Sun Cluster 3.1 소프트웨어에 대한 Info Docs 페이지가 검색됩니다.
Sun Cluster 3.1 소프트웨어를 설치하고 클러스터 구성 요소(Solaris 운영 환경, Sun Cluster 소프트웨어, 볼륨 관리자나 데이터 서비스 소프트웨어 또는 디스크 하드웨어)에 패치를 적용하기 전에 Info Docs와 패치에 대한 README 파일을 확인하십시오. 클러스터가 제대로 작동하려면 모든 클러스터 노드에 동일한 레벨의 패치가 있어야 합니다.
특정 패치 작업과 패치 관리에 대한 팁을 얻으려면 Sun Cluster 3.1 시스템 관리 안내서를 참조하십시오.
Sun Cluster 3.1에서는 PNM(Public Network Management)을 지원하지 않습니다. Sun Cluster 소프트웨어에 대한 소프트웨어 네트워크 어뎁터 감시와 페일오버는 대신 Solaris에서 구현된 인터넷 프로토콜(IP) 네트워크 다중 경로로 수행됩니다. Sun Cluster 3.1에서 새로워진 내용를 참조하십시오.
HAStorage는 Sun Cluster 소프트웨어의 차기 릴리스에서 지원하지 않을 수 있습니다. HAStoragePlus가 이와 거의 유사한 기능을 지원합니다. 다음 절차 중 하나에 따라 HAStorage에서 HAStoragePlus로 이전합니다.
HAStorage는 Sun Cluster 소프트웨어의 차기 릴리스에서 지원하지 않을 수 있습니다. HAStoragePlus가 이와 유사한 기능을 지원합니다. 클러스터 파일 시스템이나 장치 그룹을 사용할 때 HAStorage에서 HAStoragePlus로 업그레이드 하려면 다음 단계를 따르십시오.
다음의 예에서는 HAStorage에서 활성화된 단순한 HA-NFS 자원을 사용합니다. ServicePaths는 nfsdg 디스크 그룹이고 AffinityOn 속성은 TRUE입니다. 더욱이 HA-NFS 서비스는 Resource_Dependencies를 HAStorage 자원으로 설정합니다.
응용프로그램 자원이 HAStorage 자원에 대해 가진 종속성을 제거합니다.
# scrgadm -c -j nfsserver-rs -y Resource_Dependencies="" |
HAStorage 자원을 비활성화합니다.
# scswitch -n -j nfs1storage-rs |
HAStorage 자원을 응용프로그램 자원 그룹에서 제거합니다.
# scrgadm -r -j nfs1storage-rs |
HAStorage 자원 유형의 등록을 해제합니다.
# scrgadm -r -t SUNW.HAStorage |
HAStoragePlus 자원 유형을 등록합니다.
# scrgadm -a -t SUNW.HAStoragePlus |
HAStoragePlus 자원을 생성합니다.
파일 시스템의 마운트 지점을 지정하려면 다음 텍스트를 입력합니다.
# scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \ SUNW.HAStoragePlus -x FilesystemMountPoints=/global/nfsdata -x \ AffinityOn=True |
전역 장치 경로를 지정하려면 다음 텍스트를 입력합니다.
# scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \ SUNW.HAStoragePlus -x GlobalDevicePaths=nfsdg -x AffinityOn=True |
HAStorage에 대한 ServicePaths 속성을 사용하는 대신 HAStoragePlus에 대한 GlobalDevicePaths 또는 FilesystemMountPoints 속성을 사용해야 합니다. FilesystemMountPoints 확장 속성은 /etc/vfstab 파일에서 지정된 시퀀스와 일치해야 합니다.
HAStoragePlus 자원을 활성화합니다.
# scswitch -e -j nfs1-hastp-rs |
응용프로그램 서버와 HAStoragePlus 사이에 종속성을 설정합니다.
# scrgadm -c -j nfsserver-rs -y \ Resource_Depencencies=nfs1=hastp-rs |
HAStorage는 Sun Cluster의 차기 릴리스에서 지원하지 않을 수 있습니다. HAStoragePlus가 이와 유사한 기능을 지원합니다. 페일오버 파일 시스템(FFS)을 사용하는 경우에 HAStorage에서 HAStoragePlus로 업그레이드 하려면 다음의 단계를 따릅니다.
다음의 예에서는 HAStorage에서 활성화된 단순한 NFS 서비스를 사용합니다. ServicePaths는 nfsdg 디스크 그룹이고 AffinityOn 속성은 TRUE입니다. 더욱이 HA-NFS 서비스는 Resource_Dependencies를 HAStorage 자원으로 설정합니다.
응용프로그램 자원이 HAStorage 자원에 대해 가진 종속성을 제거합니다.
# scrgadm -c -j nfsserver-rs -y Resource_Dependencies=""' |
HAStorage 자원을 비활성화합니다.
# scswitch -n -j nfs1storage-rs |
HAStorage 자원을 응용프로그램 자원 그룹에서 제거합니다.
# scrgadm -r -j nfs1storage-rs |
HAStorage 자원 유형의 등록을 해제합니다.
# scrgadm -r -t SUNW.HAStorage |
/etc/vfstab 파일을 수정하여 전역 플래그를 제거하고 mount at boot를 no로 변경합니다. 자원 그룹에 대해 주 노드가 될 수 있는 모든 노드에서 이 작업을 수행해야 합니다.
HAStoragePlus 자원 유형을 등록합니다.
# scrgadm -a -t SUNW.HAStoragePlus |
HAStoragePlus 자원을 생성합니다.
파일 시스템의 마운트 지점을 지정하려면 다음 텍스트를 입력합니다.
# scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \ SUNW.HAStoragePlus -x FilesystemMountPoints=/global/nfsdata -x \ AffinityOn=True |
전역 장치 경로를 지정하려면 다음 텍스트를 입력합니다.
# scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \ SUNW.HAStoragePlus -x GlobalDevicePaths=nfsdg -x AffinityOn=True |
HAStorage에 대한 ServicePaths 속성을 사용하는 대신 HAStoragePlus에 대한 GlobalDevicePaths 또는 FilesystemMountPoints 속성을 사용해야 합니다. FilesystemMountPoints 확장 속성은 /etc/vfstab 파일에서 지정된 결과와 일치해야 합니다.
응용프로그램 자원 그룹을 오프라인으로 전환합니다.
# scswitch -F -g nfs1-rg |
응용프로그램 자원을 비활성화합니다.
# scswitch -n -j nfsserver-rs |
CFS 파일 시스템의 마운트를 해제합니다.
HAStoragePlus 자원을 활성화합니다.
# scswitch -e -j nfs1-hastp-rs |
주어진 호스트에서 응용프로그램 자원 그룹을 온라인으로 가져옵니다.
# scswitch -z -g nfs1-rg -h hostname |
응용프로그램 자원과 HAStoragePlus 사이에 종속성을 설정합니다.
# scrgadm -c -j nfsserver-rs -y \ Resource_Depencencies=nfs1=hastp-rs |
응용프로그램 자원을 활성화합니다.
# scswitch -e -j nfs1-hastp-rs |
선택적 Sun Cluster 소프트웨어 구성 요소에 대해 다음 언어의 현지화가 제공됩니다.
언어 |
현지화된 Sun Cluster 구성 요소 |
---|---|
프랑스어 |
설치 CCP(Cluster Control Panel) Sun Cluster 소프트웨어 Sun Cluster 데이터 서비스 Sun Management Center용 Sun Cluster 모듈 SunPlex Manager |
일본어 |
설치 CCP(Cluster Control Panel) Sun Cluster 소프트웨어 Sun Cluster 데이터 서비스 Sun Management Center용 Sun Cluster 모듈 SunPlex Manager Sun Cluster 맨(man) 페이지 Cluster Control Panel 맨(man) 페이지 Sun Cluster 데이터 서비스 메시지 맨(man) 페이지 |
중국어 간체 |
Sun Management Center용 Sun Cluster 모듈 SunPlex Manager |
중국어 번체 |
Sun Management Center용 Sun Cluster 모듈(온라인 도움말만 해당) SunPlex Manager(온라인 도움말만 해당) |
한국어 |
Sun Management Center용 Sun Cluster 모듈 (온라인 도움말만 해당) SunPlex Manager(온라인 도움말만 해당) |
다음 단락에서는 다양한 Sun Cluster 구성 요소의 현지화 패키지를 설치하는 방법에 대해 설명합니다.
현지화된 CCP(Cluster Control Panel)를 사용하려면 우선 pkgadd(1M) 명령어를 사용하여 관리 콘솔에서 다음 패키지를 설치해야 합니다.
언어 |
패키지 이름 |
패키지 설명 |
---|---|---|
프랑스어 |
SUNWfccon |
프랑스어 Sun Cluster 콘솔 |
일본어 |
SUNWjccon |
일본어 Sun Cluster 콘솔 |
중국어 간체 |
SUNWcccon |
중국어 간체 Sun Cluster 콘솔 |
현지화된 scinstall(1M) 유틸리티를 사용하여 Sun Cluster 3.1 소프트웨어를 설치하기 위해 scinstall을 실행하기 전에 pkgadd(1M) 명령어를 사용하여 클러스터 노드에 다음 패키지를 설치하십시오.
언어 |
패키지 이름 |
패키지 설명 |
---|---|---|
프랑스어 |
SUNWfsc |
프랑스어 Sun Cluster 메시지 |
일본어 |
SUNWjsc SUNWjscman |
일본어 Sun Cluster 메시지 일본어 Sun Cluster 맨(man) 페이지 |
현지화된 SunPlex Manager를 사용하여 Sun Cluster 3.1 소프트웨어를 설치하려면 SunPlex Manager의 자세한 내용을 참조하십시오.
현지화된 SunPlex Manager를 사용하려면 클러스터 노드에 다음 패키지가 필요합니다.
언어 |
패키지 이름 |
패키지 설명 |
---|---|---|
프랑스어 |
SUNWfsc SUNWfscvw |
프랑스어 Sun Cluster 메시지 프랑스어 SunPlex Manager 온라인 도움말 |
일본어 |
SUNWjsc SUNWjscvw |
일본어 Sun Cluster 메시지 일본어 SunPlex Manager 온라인 도움말 |
중국어 간체 |
SUNWcsc SUNWcscvw |
중국어 간체 Sun Cluster 메시지 중국어 간체 SunPlex Manager 온라인 도움말 |
중국어 번체 |
SUNWhscvw |
중국어 번체 SunPlex Manager 온라인 도움말 |
한국어 |
SUNWkscvw |
한국어 SunPlex Manager 온라인 도움말 |
현지화된 SunPlex Manager 패키지를 설치한 다음 브라우저에서 언어를 설정하십시오. Netscape를 사용하는 경우에는 다음 단계를 수행하여 브라우저 언어를 확인하고 변경할 수 있습니다.
Netscape를 시작합니다.
주 메뉴에서 Edit> Preferences를 선택합니다.
Preferences 대화 상자에서 Navigator> Languages를 선택합니다.
Add를 클릭하고 Add Language 대화 상자에서 원하는 언어를 선택합니다.
OK를 누릅니다.
현지화된 Sun Management Center용 Sun Cluster 모듈을 사용하려면 pkgadd(1M) 명령어를 사용하여 Sun Management Center 서버 계층에 다음 패키지를 설치합니다.
언어 |
패키지 이름 |
패키지 설명 |
---|---|---|
프랑스어 |
SUNWfscssv |
프랑스어 Sun Cluster SyMON 서버 애드온 |
일본어 |
SUNWjscssv |
일본어 Sun Cluster SyMON 서버 애드온 |
중국어 간체 |
SUNWcscssv |
중국어 간체 Sun Cluster SyMON 서버 애드온 |
Sun Management Center용 Sun Cluster 모듈에서 현지화된 온라인 도움말을 사용하기 위해 pkgadd(1M) 명령어를 사용하여 Sun Management Center 콘솔 계층에 다음 패키지를 설치합니다.
언어 |
패키지 이름 |
패키지 설명 |
---|---|---|
프랑스어 |
SUNWfscshl |
프랑스어 Sun Cluster SyMON 모듈 |
일본어 |
SUNWjscshl |
일본어 Sun Cluster SyMON 모듈 |
중국어 간체 |
SUNWcscshl |
중국어 간체 Sun Cluster SyMON 모듈 |
중국어 번체 |
SUNWhscshl |
중국어 번체 Sun Cluster SyMON 모듈 |
한국어 |
SUNWkscshl |
한국어 Sun Cluster SyMON 모듈 |
Sun Cluster 3.1을 설치하거나 업그레이드할 때 클러스터 노드에 다음 Sun Cluster 현지화 패키지가 자동으로 설치됩니다.
언어 |
패키지 이름 |
패키지 설명 |
---|---|---|
프랑스어 |
SUNWfsc |
프랑스어 Sun Cluster 메시지 |
일본어 |
SUNWjsc SUNWjscman |
일본어 Sun Cluster 메시지 일본어 Sun Cluster 맨(man) 페이지 |
중국어 간체 |
SUNWcsc |
중국어 간체 Sun Cluster 메시지 |
Sun Cluster 3.1을 설치하거나 업그레이드할 때 선택한 데이터 서비스에 대한 현지화 패키지가 자동으로 설치됩니다. 자세한 내용은 Sun Cluster 3.1 데이터 서비스 5/03 릴리스 정보에서 참조하십시오.
전체 Sun Cluster 3.1 사용자 설명서는 PDF와 HTML 형태로 Sun Cluster 3.1 CD-ROM과 Sun Cluster 3.1 Agents CD-ROM에 담겨있습니다. AnswerBook2TM 서버 소프트웨어가 없어도 Sun Cluster 3.1 설명서를 읽을 수 있습니다. 자세한 내용은 두 CD-ROM의 최상위 레벨에 있는 index.html 파일에서 참조하십시오. 이 index.html 파일을 통해 디스크에서 직접 PDF와 HTML 설명서를 읽고 설명서 패키지를 설치하기 위한 지침에 액세스할 수 있습니다.
Sun Cluster 설명서 패키지를 설치하기 전에 SUNWsdocs 패키지를 설치해야 합니다. pkgadd를 사용하여 SUNWsdocs 패키지를 설치할 수 있습니다. SUNWsdocs 패키지는 Sun Cluster 3.1 CD-ROM의 SunCluster_3.1/Sol_ N/Packages/ 디렉토리에 있습니다. 여기서 N은 Solaris 8과 Solaris 9의 경우에 각각 8과 9입니다. Solaris 9 설명서 CD에서 설치 프로그램을 실행할 때 SUNWsdocs 패키지도 자동으로 설치됩니다.
Sun Cluster 3.1 설명서 집합은 다음과 같은 모음으로 구성되어 있습니다.
다음 설명서를 포함하는 Sun Cluster 3.1 소프트웨어 모음:
Sun Cluster 3.1 Concepts Guide
Sun Cluster 3.1 Data Services Developer's Guide
다음 설명서를 포함하는 Sun Cluster 3.x 하드웨어 관리 모음:
Sun Cluster 3.x Hardware Administration Manual
Sun Cluster 3.x With Sun StorEdge 3310 Array Manual
Sun Cluster 3.x With Sun StorEdge 3900 또는 6900 Series System Manual
Sun Cluster 3.x With Sun StorEdge 9900 Series Storage Device Manual
Sun Cluster 3.x With Sun StorEdge A1000 또는 Netra st A1000 Array Manual
Sun Cluster 3.x With Sun StorEdge A3500/A3500FC System Manual
Sun Cluster 3.x With Sun StorEdge A5x00 Array Manual
Sun Cluster 3.x With Sun StorEdge D1000 또는 Netra st D1000 Disk Array Manual
Sun Cluster 3.x With Sun StorEdge D2 Array Manual
Sun Cluster 3.x With Sun StorEdge MultiPack Enclosure Manual
Sun Cluster 3.x With Sun StorEdge Netra D130 또는 StorEdge S1 Enclosure Manual
다음 설명서를 포함하는 Sun Cluster 3.1 참조 모음:
Sun Cluster 3.1 데이터 서비스 모음:이 모음에 포함된 설명서 목록은 Sun Cluster 3.1 데이터 서비스 5/03 릴리스 정보에서 참조하십시오.
docs.sun.comSM 웹 사이트에서도 Sun Cluster 설명서에 액세스할 수 있습니다. docs.sun.com에서 아카이브를 찾아보거나 다음 웹 사이트에서 특정 설명서 제목이나 주제를 검색할 수 있습니다.
이 단락에서는 문서, 온라인 도움말 또는 맨(man) 페이지와 단계의 오류나 누락 및 이러한 문제를 보완하는 단계를 설명합니다.
이 단락에서는 Sun Cluster 3.1 4 소프트웨어 설치 안내서에서 알려진 오류나 누락에 대해 설명합니다.
Sun Cluster 3.1 소프트웨어 설치 안내서에서 정족수에 대한 다음 문장이 잘못되었습니다.
연결 - 정족수 장치를 3개 이상의 노드에 연결하지 마십시오.
이 문장의 내용을 다음과 같이 수정해야 합니다.
연결 - 정족수 장치를 최소 두 개의 노드에 연결해야 합니다.
scvxinstall 명령어를 사용하여 VERITAS 볼륨 관리자(VxVM)를 설치할 때 노드를 먼저 클러스터 노드 인증 목록에 추가하지 않아도 됩니다. “VERITAS 볼륨 관리자 소프트웨어를 설치하고 루트 디스크를 캡슐화하는 방법“ 또는 “VERITAS 볼륨 관리자 소프트웨어만 설치하는 방법“의 절차를 수행할 때 3번째 단계인 “클러스터의 모든 노드를 클러스터 노드 인증 목록에 추가하십시오.”를 무시하십시오.
Sun Cluster 3.1 소프트웨어 설치 안내서의 “클러스터의 업그레이드를 준비하는 방법”에 Sun Cluster 3.0 5/02 소프트웨어에서 업그레이드하는 경우, scswitch 명령어를 사용하지 않고 scsetup 유틸리티를 사용하여 자원을 비활성화할 수 있다고 나와 있습니다. 이 문장은 잘못되었으므로 무시하십시오.
Oracle 데이터 서비스 설치 절차에 나온 참고가 잘못되었습니다.
잘못된 내용:
참고: SunPlex Manager 패키지를 설치할 때 /etc/system 파일에 shmsys 및 semsys 변수에 대한 항목이 없으면 이 변수의 기본값이 /etc/system 파일에 자동으로 들어갑니다. 그런 다음 시스템을 재부트해야 합니다. Oracle 설치 설명서에서 이 값들이 해당 데이터베이스에 적합한지 확인하십시오.
정확한 내용:
참고: Oracle 데이터 서비스를 설치할 때 /etc/system 파일에 shmsys 및 semsys 변수에 대한 항목이 없으면 이 변수의 기본값이 /etc/system 파일에 자동으로 들어갑니다. 그런 다음 시스템을 재부트해야 합니다. Oracle 설치 설명서에서 이 값들이 해당 데이터베이스에 적합한지 확인하십시오.
이 단락에서는 Sun Cluster 3.1 시스템 관리 안내서에서 알려진 오류나 누락에 대해 설명합니다.
단순 루트 디스크 그룹은 Sun Cluster 소프트웨어의 VERITAS 볼륨 관리자에서 디스크 유형으로 지원되지 습니다. 그 결과, Sun Cluster 3.1 시스템 관리 안내서의 “캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS 볼륨 관리자)” 절차를 수행하는 경우, 루트 디스크 그룹(rootdg)이 루트 디스크의 단일 슬라이스에 있는지 확인하는 9번째 단계를 무시해야 합니다. 단계1에서 8까지 진행하고 9단계를 생략한 다음 10단계부터 계속 진행하면 됩니다.
정족수 장치에 대한 노드의 연결 수를 늘이거나 줄일 때 정족수 개수가 자동으로 재계산되지는 않습니다. 모든 정족수 장치를 제거한 다음 다시 구성에 추가하면 올바른 정족수 개수를 다시 설정할 수 있습니다.
데이터 서비스 설명서에 있는 오류나 누락은 Sun Cluster 3.1 데이터 서비스 5/03 릴리스 정보에 설명되어 있습니다.
Sun Cluster 3.0 데이터 서비스 맨(man) 페이지를 화면에 출력하려면 Sun Cluster 3.1 소프트웨어에 설치한 Sun Cluster 3.0 데이터 서비스의 최신 패치를 설치하십시오. 자세한 내용은 패치 및 필수 펌웨어 레벨에서 참조하십시오.
패치를 설치한 다음, 인수로 전체 맨(man) 페이지 경로를 넣은 man -M 명령어를 사용하여 Sun Cluster 3.0 데이터 서비스 맨(man) 페이지에 액세스합니다. 다음 예에서는 Apache 맨(man) 페이지가 열립니다.
% man -M /opt/SUNWscapc/man SUNW.apache |
전체 경로를 지정하지 않고 Sun Cluster 3.0 데이터 서비스 맨(man) 페이지에 액세스할 수 있도록 해당 MANPATH를 내보내는 것이 편리합니다. 다음 예는 Apache 맨 페이지 경로를 MANPATH에 추가하고 Apache 맨 페이지를 표시하기 위한 명령어 입력을 설명합니다.
% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH % man SUNW.apache |
다음 scconf_transp_adap_wrsm(1M) 맨 페이지가 기존의 scconf_transp_adap_wrsm(1M) 맨 페이지를 대신합니다.
이름
scconf_transp_adap_wrsm.1m-이 wrsm 전송 어뎁터를 구성합니다.
설명
클러스터 전송 어뎁터로 wrsm 어뎁터를 구성할 수도 있습니다. 이 어뎁터는 dlpi 전송 유형으로만 사용할 수 있습니다.
wrsm 어뎁터는 전송 접점이나 다른 노드의 또 다른 wrsm 어뎁터로 연결됩니다. 두 경우 모두 연결은 전송 케이블로 이루어집니다.
지점간 구성을 사용하여 wrsm 어뎁터에 직접 연결할 수 있지만 Sun Cluster 소프트웨어에서는 가상 전송 접점으로 전송 접점을 지정해야 합니다. 예를 들어, 케이블로 node1:wrsm1을 node2:wsrm1에 직접 연결하는 경우에는 다음 구성 정보를 지정해야 합니다.
node1:wrsm1 <--cable1--> Transport Junction sw_wrsm1 <--cable2--> node2:wrsm1 |
가상 스위치이건 하드웨어 스위치이건 전송 접점에는 특정 이름이 있어야 합니다. 이 이름은 wrsm N의 형태여야 하고 여기서 어뎁터는 sw_wrsm N입니다. 이러한 요구 사항은 동일 Wildcat 네트워크의 모든 wrsm 제어기가 같은 인스턴스 번호를 가져야 한다는 Wildcat 제한 사항을 반영한 것입니다.
전송 접점을 사용하고 scconf, scinstall 또는 다른 도구를 사용하여 전송 케이블의 끝점을 구성하는 경우 전송 접점에서의 포트 이름을 지정하도록 묻습니다. 전송 접점에 고유한 이름이라면 어떤 포트 이름이라도 지정할 수 있고 기본값을 사용할 수도 있습니다.
기본값을 선택하면 케이블의 반대쪽에서 어뎁터를 호스트하는 노드 ID로 포트 이름이 설정됩니다.
구성에 대한 자세한 내용은 scconf(1M)에서 참조하십시오.
이 유형의 클러스터 전송 어뎁터에는 사용자가 구성할 수 있는 속성이 없습니다.
추가 정보
scconf(1M), scinstall(1M), wrsmconf(1M), wrsmstat(1M), wrsm(7D), wrsmd(7D)
scconf_transp_adap_sci(1M) 맨 페이지에 SCI 전송 어뎁터를 rsm 전송 유형으로 사용할 수 있다고 설명되어 있습니다. 이 지원 문장은 올바르지 않습니다. SCI 전송 어뎁터는 rsm 전송 유형을 지원하지 않습니다. SCI 전송 어뎁터는 dlpi 전송 유형만 지원합니다.
다음 문장은 SCI–PCI 어뎁터의 이름에 대하여 설명합니다. 이 정보는 현재 scconf_transp_adap_sci (1M) 맨 페이지에 포함되어 있지 않습니다.
새로운 정보:
sciN 이름을 사용하여 SCI 어뎁터를 지정하십시오.
다음 단락에서는 scgdevs 명령의 기능에 대하여 설명합니다. 이 정보는 현재 scgdevs (1M) 맨 페이지에 포함되어 있지 않습니다.
새로운 정보:
로컬 노드에서 scgdevs(1M) 명령을 실행하면 원격 노드에 대하여 비동기로 작업을 수행합니다. 따라서 로컬 노드에서 명령이 완료되었어도 전체 클러스터의 작업이 완료된 것은 아닙니다.
Name 단락에 오류가 있습니다. Name 단락의 내용을 다음과 같이 수정해야 합니다.
sap_ci, SUNW.sap_ci 및 SUNW.sap_ci_v2 - SAP용 Sun Cluster HA 중앙 인스턴스를 위한 자원 유형 구현.
Description 단락에 오류가 있습니다. Description 단락의 내용을 다음과 같이 수정해야 합니다.
자원 그룹 관리자(RGM)는 Sun Cluster 소프트웨어를 위해 SAP 데이터 서비스를 관리합니다. SAP용 Sun Cluster HA 중앙 인스턴스를 논리 호스트 이름 자원 및 SAP 중앙 인스턴스 자원으로 구성하십시오.
Name 단락에 오류가 있습니다. Name 단락의 내용을 다음과 같이 수정해야 합니다.
sap_as, SUNW.sap_as - SAP용 Sun Cluster HA 페일오버 데이터 서비스를 위한 자원 유형 구현.
sap_as, SUNW.sap_as_v2 - SAP용 Sun Cluster HA 페일오버 데이터 서비스 또는 확장 가능 데이터 서비스를 위한 자원 유형 구현.
Description 단락에 오류가 있습니다. Description 단락의 내용을 다음과 같이 수정해야 합니다.
자원 그룹 관리자(RGM)는 Sun Cluster 소프트웨어를 위해 SAP 데이터 서비스를 관리합니다. SAP용 Sun Cluster HA 응용프로그램 서버를 페일오버 데이터 서비스로 설치하는 경우에는 논리 호스트 이름 자원 및 SAP 응용프로그램 서버 자원으로 구성하십시오. SAP용 Sun Cluster HA 응용프로그램 서버를 확장 가능 데이터 서비스로 설치하는 경우에는 확장 가능 SAP 응용프로그램 서버 자원으로 구성하십시오.
새로운 다음 자원 그룹 등록 정보를 rg_properties(5) 맨(man) 페이지에 추가해야 합니다.
Auto_start_on_new_cluster
이 등록 정보는 새 클러스터가 구성될 때 자원 그룹 관리자가 자동으로 자원 그룹을 시작할 것인지를 제어합니다.
기본값은 TRUE입니다. TRUE로 설정되면 클러스터의 모든 노드가 동시에 다시 부트될 때 자원 그룹 관리자가 자원 그룹을 자동으로 시작하여 Desired_primaries를 만듭니다. FALSE로 설정되면 클러스터가 다시 부트될 때 자원 그룹이 자동으로 시작되지 않습니다. FALSE로 설정되면 클러스터가 다시 부트될 때 자원 그룹이 자동으로 시작되지 않습니다. 자원 그룹은 scswitch(1M)를 사용하여 처음 온라인으로 수동 전환할 때까지는 오프라인으로 유지됩니다. 그 후에는 정상적인 페일오버 작동을 계속합니다.
범주: 선택 사항 기본값: True 조정 가능: 언제든지
이 릴리스에서는 현재 API_version이 이전에 2 에서 3으로 증가했습니다. 자원 유형이 이전 버전의 Sun Cluster 소프트웨어에 등록되지 않도록 API_version=3을 선언하십시오. 자세한 내용은 rt_reg (4) 및 rt_properties (5)에서 참조하십시오.