다음의 알려진 문제점과 버그가 Sun Cluster 3.1 9/04 릴리스의 사용에 영향을 미칩니다.
문제점 요약: 부트 장치가 다중 경로 지정된 경우 scvxinstall에서 잘못된 vfstab 항목을 만듭니다.
해결 방법: scvxinstall을 실행하고 캡슐화하도록 선택합니다. 다음 메시지가 표시되면 Ctrl-C를 눌러 재부트를 중지합니다.
This node will be re-booted in 20 seconds. Type Ctrl-C to abort. |
/global/.devices에서 /dev/did/{r}dsk 이름 대신에 /dev/{r}dsk/cXtXdX 이름을 사용하도록 vfstab 항목을 편집합니다. 이 수정 항목은 VxVM이 해당 이름을 루트 디스크로 인식할 수 있게 합니다. scvxinstall을 다시 실행하고 캡슐화하도록 선택합니다. vfstab 파일에는 필요한 업데이트가 들어 있습니다. 재부트를 수행합니다. 캡슐화가 평소대로 진행됩니다.
문제점 요약: Oracle용 Sun Cluster for HA 데이터 서비스에서 su 명령을 사용하여 데이터베이스를 시작 및 중지합니다. Solaris 8 또는 Solaris 9를 실행하는 경우 클러스터 노드의 공개 네트워크에 장애가 발생하면 네트워크 서비스를 사용하지 못하게 될 수 있습니다.
해결 방법: oracle_server 또는 oracle_listener 자원의 기본이 될 수 있는 각 노드에서 /etc/nsswitch.conf 파일에 다음 항목을 포함시킵니다.
passwd: files groups: files publickey: files project: files
이러한 항목을 사용하면 su 명령이 NIS/NIS+ 이름 서비스를 참조하지 않아서 네트워크 장애가 발생할 경우에 데이터 서비스가 정확하게 시작되고 중지됩니다.
문제점 요약: 하나 이상의 클러스터 노드에 4개 이상의 CPU가 있는 경우 개별 상호 연결에서 ce 어댑터를 사용하는 클러스터에 경로 시간 초과와 이어지는 노드 패닉이 발생할 수 있습니다.
해결 방법: 모든 클러스터 노드의 /etc/system 파일에 다음 행을 추가하여 ce 드라이버의 ce_taskq_disable 매개 변수를 설정합니다.
set ce:ce_taskq_disable=1
그런 다음 클러스터 노드를 재부트합니다. 클러스터 노드를 재부트할 때 쿼럼을 고려합니다. 이 매개 변수 설정을 통해 인터럽트 컨텍스트에서 하트비트(및 기타 패킷)가 항상 전달되도록 하여 경로 시간 초과와 이어지는 패닉을 방지할 수 있습니다.
문제점 요약: Sun Cluster HA for SAP liveCache 데이터 서비스는 dbmcli 명령을 사용하여 liveCache를 시작하고 중지합니다. Solaris 9를 실행하는 경우 클러스터 노드의 공개 네트워크에 장애가 발생하면 네트워크 서비스를 사용하지 못하게 될 수 있습니다.
해결 방법: liveCache 자원의 기본이 될 수 있는 각 노드에서 /etc/nsswitch.conf 파일에 publickey 데이터베이스에 대한 다음 항목 중 하나를 포함시킵니다.
publickey: publickey: files publickey: files [NOTFOUND=return] nis publickey: files [NOTFOUND=return] nisplus
Sun Cluster Data Service for SAP liveCache Guide for Solaris OS에 문서화된 업데이트 외에 위 항목 중 하나를 추가하면 su 명령과 dbmcli 명령은 NIS/NIS+ 이름 서비스를 참조하지 않습니다. NIS/NIS+ 이름 서비스를 건너뛰면 네트워크 장애가 발생할 경우 데이터 서비스가 정확하게 시작되고 중지됩니다.
문제점 요약: 내부 오류로 인해 일부 Sun 제공 클러스터 에이전트는 LOG_DAEMON 대신 LOG_USER 기능을 사용하여 시스템 로그(syslog(3C) 참조)에 메시지를 기록합니다. 기본 syslog 설정으로 구성된 클러스터(syslog.conf(4) 참조)에서 일반적으로 시스템 로그에 기록되는 심각도가 LOG_WARNING 또는 LOG_NOTICE인 메시지가 출력되지 않습니다. 이 문제는 쉘 스크립트로 기록된 에이전트 코드에 대해서만 발생합니다.
해결 방법:
다음 해결 방법은 쉘 스크립트를 작성하는 에이전트 개발자를 위한 것입니다.
쉘 스크립트에서 기능을 scds_sylog에 명시적으로 전달합니다.
facility=`scha_cluster_get -O SYSLOG_FACILITY
'scds_syslog -p ${facility}.error -m "error message"
다음 해결 방법은 클러스터 관리자를 위한 것입니다.
모든 클러스터 노드의 /etc/syslog.conf 파일 앞쪽 가까이에 다음 항목을 추가합니다.
user.warning /var/adm/messages
이 항목을 사용하면 user.warning 메시지가 기록됩니다. user.notice 메시지에 대해 비슷한 항목을 추가할 수 있지만 반드시 필요한 것은 아니며 실행 중인 응용 프로그램의 조합에 따라 로그가 너무 빨리 채워지게 될 수도 있습니다.
문제점 요약: Sun Cluster Data Service for SAP liveCache Guide for Solaris OS의 "Preparing the Nodes and Disks"에 있는 nsswitch.conf 파일에 대한 요구 사항은 passwd 데이터베이스 항목에 적용되지 않습니다. 이러한 요구 사항이 충족되는 경우 공개 네트워크가 중단될 때 liveCache 자원을 마스터할 수 있는 각 노드에서 su 명령이 중단될 수 있습니다.
해결 방법: liveCache 자원을 마스터할 수 있는 각 노드에서 passwd 데이터베이스에 대한 /etc/nsswitch.conf 파일의 항목이 다음과 같은지 확인합니다.
passwd: files nis [TRYAGAIN=0]
문제점 요약: 여러 노드에서 동시에 시작하는 경우 sccheck가 중단될 수 있습니다.
해결 방법: 명령을 여러 노드로 전달하는 다중 콘솔에서는 sccheck를 시작하지 마십시오. sccheck는 실행이 겹칠 수는 있지만 동시에 시작해서는 안 됩니다.
문제점 요약: 현재 HA-DB 데이터 서비스는 JAVA_HOME 환경 변수를 사용하지 않습니다. 따라서 HA-DB는 HA-DB 데이터 서비스에서 호출될 경우 /usr/bin/에서 Java 이진을 가져옵니다. /usr/bin/의 Java 이진을 Java 1.4 이상의 해당 버전에 연결해야 HA-DB 데이터 서비스가 올바르게 작동합니다.
해결 방법: 사용 가능한 기본 버전을 변경하지 않으려면 다음 절차를 수행합니다. 예를 들어, 이 해결 방법에서는 /usr/j2se 디렉토리에 최신 Java 버전(예: 1.4 이상)이 있는 것으로 가정합니다.
현재 /usr/ 디렉토리에 java/ 라는 디렉토리가 있습니까? 그렇다면 이 디렉토리를 임시 위치로 이동합니다.
/usr/ 디렉토리에서 /usr/bin/java와 기타 모든 Java 관련 이진을 적절한 Java 버전에 연결합니다.
# ln -s j2se java |
사용 가능한 기본 버전을 변경하지 않으려면 /opt/SUNWappserver7/SUNWhadb/4/bin/hadbm 스크립트에서 JAVA_HOME 환경 변수에 적절한 Java 버전(J2SE 1.4 이상)을 할당합니다.
문제점 요약: 4974875 버그로 인해 자동 복구가 수행될 때마다 데이터베이스 자체가 예비 노드 없이 다시 초기화됩니다. 명시된 버그는 수정되어 HA-DB 릴리스 4.3에 통합되었습니다. HA-DB 4.2 이하 릴리스의 경우 아래 절차 중 하나에 따라 HA-DB 노드의 역할을 변경합니다.
해결 방법:
자동 복구가 성공적으로 수행된 후 해당 역할이 변경된 HA-DB 노드를 식별합니다.
1단계에서 식별한 모든 노드에서 문제가 있는 HA-DB 자원에 대한 오류 모니터를 한 번에 하나의 노드씩 사용 불가능하게 합니다.
# cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery |
문제가 있는 HA-DB 자원에 대한 오류 모니터를 사용 가능하게 합니다.
또는
자동 복구가 성공적으로 수행된 후 해당 역할이 변경된 HA-DB 노드를 식별합니다.
데이터베이스를 호스트하는 모든 노드에서 문제가 있는 HA-DB 자원에 대한 오류 모니터를 사용 불가능하게 합니다.
노드 중 하나에서 역할을 변경해야 하는 각 HA-DB 노드에 대해 다음 명령을 실행합니다.
# cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery |
문제점 요약: 롤링 업그레이드 중에 아직 변경되지 않은 클러스터 노드에서 scstat -i 명령을 실행하면 이미 업그레이드된 노드에 호스트된 IPMP 그룹의 상태가 scstat 출력에 표시되지 않습니다.
해결 방법: 업그레이드된 노드에서 scstat -i 출력을 사용합니다.
문제점 요약: 실패한 어댑터가 있는 IPMP 그룹을 사용해야 하는 경우 LogicalHostname 자원을 클러스터에 추가할 수 없습니다.
해결 방법: IPMP 그룹에서 실패한 어댑터를 제거하거나 오류를 수정한 다음 LogicalHostname 자원에서 IPMP 그룹을 사용합니다.
문제점 요약: 자원 그룹 상태 페이지의 두 필드인 Status 및 Type의 값이 페이지를 보는 데 사용된 첫 번째 로켈로 표시됩니다.
해결 방법: 값을 다른 로켈로 보려면 Web Server를 다시 시작합니다.
문제점 요약: 루트 디스크를 캡슐화한 후 루트 디스크의 캡슐화를 해제한 다음 다시 캡슐화하면 uservol 볼륨이 /global/devices/node@nodeID 파일 시스템에 사용되었다고 표시됩니다. 각 노드 전역 장치 파일 시스템의 볼륨 이름은 고유해야 하기 때문에 이럴 경우 문제가 발생할 수 있습니다.
해결 방법: 설명한 캡슐화 해제 단계를 수행한 후 vxconfigd 데몬을 종료한 다음에 scvxinstall을 다시 실행하여 루트 디스크를 다시 캡슐화합니다.
문제점 요약: Sun Web Console에 로그인할 때 로그인 또는 입력 버튼을 반복해서 누르면 복수 로그인 요청으로 인해 다양한 오류가 발생하여 SunPlex Manager에 액세스할 수 없게 됩니다.
해결 방법: 클러스터 노드에 수퍼유저로 로그인하여 Sun Web Console을 다시 시작합니다.
# /usr/sbin/smcwebserver restart |
문제점 요약: 자원에서 확장 가능 모드 자원에 대해 모든 노드 자원-그룹 간 재시작 종속성을 선언하는 경우 Resource_dependencies_restart 자원 등록 정보가 제대로 동작하지 않습니다. 대부분의 데이터 서비스는 영향을 받지 않습니다.
자원-그룹 간 종속성 및 재시작 종속성에 대한 배경:
Sun Cluster 소프트웨어는 Sun Cluster 3.1 9/04의 자원-그룹 간 종속성 기능을 통해 자원 그룹 경계를 교차할 수 있는 자원 종속성을 지원합니다. 또한 Sun Cluster 소프트웨어는 재시작 종속성이라는 새로운 유형의 자원 종속성을 지원합니다. 종속 자원이 온라인 상태인 경우 종속 대상 자원이 시작되면 재시작 종속성 때문에 종속 자원이 자동으로 다시 시작됩니다.
로컬 노드 및 모든 노드 종속성에 대한 배경:
그룹 RG1의 자원 r1이 RG2의 r2에 종속되고, RG1이 RG2에 대해 긍정적 유사성이 있으며, RG1과 RG2가 동일한 노드에서 동시에 시작하거나 중지하는 경우 r2에 대한 r1의 종속성은 로컬 노드 종속성입니다. 예를 들어 RG1과 RG2를 동일한 노드에서 시작할 때 r1은, r1이 동일한 노드에서 시작하기에 앞서 r2가 해당 노드에서 시작하도록 기다립니다. r1이 시작될 때 다른 노드에서의 r2 상태는 영향을 미치지 않습니다.
그러나 RG1에서 RG2에 대해 긍정적 유사성을 선언하지 않는 경우 또는 약한 긍정적 유사성이 있지만 두 자원 그룹이 다른 노드에서 시작하는 경우 r2에 대한 r1의 종속성은 모든 노드 종속성입니다. 이 종속성은 r2가 임의의 노드에서 시작되자마자 r1이 시작됨을 의미합니다.
문제 설명:
RG2 자원 그룹이 확장 가능 모드(즉, 다중 마스터된) 자원 그룹이고 r2에 대한 r1의 종속성이 모든 노드 재시작 종속성인 경우 문제가 발생합니다. r2의 인스턴스가 시작될 때마다 r1이 다시 시작됩니다. r1은 r2의 첫 번째 인스턴스가 시작될 때만 다시 시작되어야 합니다.
해결 방법: 이 버그를 수정하면 재시작 종속성의 현재 동작이 위의 설명과 같이 변경됩니다. 현재의 잘못된 동작에 의존하는 코드나 관리 절차를 개발하지 마십시오.
문제점 요약: Sun Enterprise 15000 서버에서 sccheck 명령을 실행하면 검사가 실패하고 Sun Enterprise 15000 서버가 지원되지 않는다는 오류를 보고합니다. 이 오류 보고는 잘못된 것입니다.
해결 방법: 조치가 필요하지 않습니다. Sun Cluster 소프트웨어는 Sun Enterprise 15000 서버를 지원합니다. sccheck 명령이 보고하는 오류는 검사가 만료되었을 수 있음을 나타냅니다. 이 경우 sccheck가 만료되었습니다.
문제점 요약: Sun Java Enterprise System에 포함되지 않은 데이터 서비스 에이전트에 대한 언어 선택으로 프랑스어(fr)를 사용할 수 없습니다. 그러나 이 패키지의 그래픽 사용자 인터페이스(GUI) 설치 프로그램에서는 이와 달리 프랑스어를 제안합니다.
해결 방법: 그래픽 사용자 인터페이스(GUI) 설치 프로그램의 오류를 무시합니다. 프랑스어(fr)는 사용할 수 없습니다.
문제점 요약: Sun Cluster 3.1 9/04 소프트웨어로 업그레이드하는 동안 scinstall 명령이 새 공통 에이전트 컨테이너 패키지인 SUNWcacao 및 SUNWcacaocfg를 설치하지만 모든 클러스터 노드에 동일한 보안 키를 배포하지 않습니다.
해결 방법: 다음 단계에 따라 공통 에이전트 컨테이너 보안 파일이 모든 클러스터 노드에서 동일하고 복사된 파일이 올바른 파일 사용 권한을 유지하는지 확인합니다. 이러한 파일은 Sun Cluster 소프트웨어에 필요합니다.
한 클러스터 노드에서 /etc/opt/SUNWcacao/ 디렉토리로 변경합니다.
phys-schost-1# cd /etc/opt/SUNWcacao/ |
/etc/opt/SUNWcacao/security/ 디렉토리의 tar 파일을 만듭니다.
phys-schost-1# tar cf /tmp/SECURITY.tar security |
/tmp/SECURITY.tar 파일을 각각의 다른 클러스터 노드에 복사합니다.
/tmp/SECURITY.tar 파일을 복사한 각 노드에서 보안 파일을 추출합니다.
/etc/opt/SUNWcacao/ 디렉토리에 이미 있는 보안 파일을 덮어씁니다.
phys-schost-2# cd /etc/opt/SUNWcacao/ phys-schost-2# tar xf /tmp/SECURITY.tar |
클러스터의 각 노드에서 /tmp/SECURITY.tar 파일을 삭제합니다.
보안 위험을 방지하려면 tar 파일의 각 복사본을 삭제해야 합니다.
phys-schost-1# rm /tmp/SECURITY.tar phys-schost-2# rm /tmp/SECURITY.tar |
각 노드에서 보안 파일 에이전트를 다시 시작합니다.
# /opt/SUNWcacao/bin/cacaoadm start |
문제점 요약: SunPlex Manager 고급 필터 패널의 날짜 필드에는 mm/dd/yyyy 형식만 사용할 수 있습니다. 그러나 영어 이외의 로켈 환경에서는 날짜 형식이 mm/dd/yyyy와 다르고 달력 패널의 반환 날짜 형식이 mm/dd/yyyy 형식이 아닙니다.
해결 방법: 고급 필터 패널에 날짜 범위를 mm/dd/yyyy 형식으로 입력합니다. 달력을 표시하고 날짜를 선택할 때 설정 버튼을 사용하지 마십시오.
문제점 요약: Solaris 8에서 SunPlex Manager를 사용하여 자원 그룹을 제거할 때 읽을 수 없는 오류 메시지가 표시될 수 있습니다. 이 문제는 일본어, 한국어, 중국어(번체) 및 중국어(간체)에서 발생합니다.
해결 방법: 시스템 로켈을 영어로 실행하여 오류 메시지를 영어로 표시합니다.
문제점 요약: 자원 유형 등록(RTR) 파일 SUNW.sapscs에서 두 확장 등록 정보에 대한 설명이 잘못되었습니다.
해결 방법: Scs_Startup_Script에 대한 설명은 Startup script for the SCS. Defaults to /usr/sap/SAP_SID/SYS/exe/run/startsap이어야 하고, Scs_Shutdown_Script에 대한 설명은 Shutdown script for the SCS. Defaults to /usr/sap/SAP_SID/SYS/exe/run/stopsap이어야 합니다.
문제점 요약: JumpStart 방법을 사용하여 Sun Cluster 소프트웨어를 설치한 후 Sun Web Console에서 SunPlex Manager를 시작할 수 없습니다. JumpStart 사후 설치 처리에서 SunPlex Manager를 Sun Web Console에 성공적으로 등록하지 못합니다.
해결 방법: Sun Cluster 소프트웨어의 JumpStart 설치가 모든 노드에서 완료된 후 각 클러스터 노드에서 다음 스크립트를 실행합니다.
# /var/sadm/pkg/SUNWscspmu/install/postinstall |
이 스크립트는 SunPlex Manager를 Sun Web Console에 등록합니다.
문제점 요약: x86용 Sun Cluster 3.1 9/04 데이터 서비스 CD-ROM에 있는 설치 프로그램을 사용하여 HA Oracle을 설치할 수 없습니다. 설치 프로그램에서 다음 메시지를 표시합니다.
Could not find child archive ....
해결 방법: scinstall을 사용하여 HA Oracle용 Sun Cluster 데이터 서비스를 설치합니다.
문제점 요약: scinstall 유틸리티를 사용하여 데이터 서비스를 업그레이드할 수 없는 응용 프로그램은 다음과 같습니다.
Apache Tomcat
DHCP
mySQL
Oracle E-Business Suite
Samba
SWIFTAlliance Access
WebLogic Server
WebSphere MQ
WebSphere MQ Integrator
해결 방법: 위 목록에 있는 응용 프로그램의 데이터 서비스를 업그레이드하려면 Sun Cluster Software Installation Guide for Solaris OS의 Upgrading to Sun Cluster 3.1 9/04 Software (Rolling)에 있는 데이터 서비스 업그레이드 단계를 다음 단계로 대체합니다. 데이터 서비스가 설치되어 있는 노드마다 다음 단계를 수행합니다.
업그레이드할 데이터 서비스에 대한 소프트웨어 패키지를 제거합니다.
# pkgrm pkg-inst |
pkg-inst는 다음 표에 나열된 대로 업그레이드할 데이터 서비스에 대한 소프트웨어 패키지 이름을 지정합니다.
응용프로그램 |
데이터 서비스 소프트웨어 패키지 |
---|---|
Apache Tomcat |
SUNWsctomcat |
DHCP |
SUNWscdhc |
mySQL |
SUNWscmys |
Oracle E-Business Suite |
SUNWscebs |
Samba |
SUNWscsmb |
SWIFTAlliance Access |
SUNWscsaa |
WebLogic Server(영어 로켈) |
SUNWscwls |
WebLogic Server(프랑스어 로켈) |
SUNWfscwls |
WebLogic Server(일본어 로켈) |
SUNWjscwls |
WebSphere MQ |
SUNWscmqs |
WebSphere MQ Integrator |
SUNWscmqi |
업그레이드할 버전의 데이터 서비스에 대한 소프트웨어 패키지를 설치합니다.
소프트웨어 패키지를 설치하려면 업그레이드할 데이터 서비스에 대한 Sun Cluster 설명서에 나오는 대로 수행하십시오. 이 설명서는 http://docs.sun.com/에서 사용할 수 있습니다.