Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트

알려진 문제점 및 버그

다음의 알려진 문제점과 버그가 Sun Cluster 3.1 8/05 릴리스의 사용에 영향을 미칩니다.

부트 장치가 다중 경로로 지정된 경우 scvxinstall에서 잘못된 vfstab 항목 생성(4639243)

문제점 요약: 부트 장치가 다중 경로로 지정된 경우 scvxinstall에서 잘못된 /etc/vfstab 항목을 생성합니다.

해결 방법: scvxinstall을 실행하고 캡슐화하도록 선택합니다. 다음 메시지가 표시되면 Ctrl-C를 눌러 재부트를 중지합니다.


This node will be re-booted in 20 seconds. Type Ctrl-C to abort.

/global/.devices에서 /dev/did/{r}dsk 이름 대신 /dev/{r}dsk/cXtXdX 이름을 사용하도록 vfstab 항목을 편집합니다. 이 수정 항목은 VxVM이 해당 이름을 루트 디스크로 인식할 수 있게 합니다. scvxinstall을 다시 실행하고 캡슐화하도록 선택합니다. vfstab 파일에는 필요한 업데이트가 들어 있습니다. 재부트를 수행합니다. 캡슐화가 평소대로 진행됩니다.

Procedure다중 경로로 지정된 부트 장치에 대한 /etc/vfstab 오류 수정 방법

단계
  1. scvxinstall을 실행하고 캡슐화하도록 선택합니다.

    시스템에서 다음 메시지를 표시합니다.


    This node will be re-booted in 20 seconds.  Type Ctrl-C to abort.
  2. 재부트를 중지합니다.


    Ctrl-C
  3. /global/.devices에서 /dev/did/{r}dsk 이름 대신에 /dev/{r}dsk/cXtXdX 이름을 사용하도록 /etc/vfstab 항목을 편집합니다.

    이 수정 항목은 VxVM이 해당 이름을 루트 디스크로 인식할 수 있게 합니다.

  4. scvxinstall을 재실행하고 캡슐화하도록 선택합니다.

    /etc/vfstab 파일에는 필요한 업데이트가 들어 있습니다. 재부트를 수행합니다. 캡슐화가 평소대로 진행됩니다.

SAP liveCache Stop 메소드 시간 초과(4836272)

문제점 요약: Sun Cluster HA for SAP liveCache 데이터 서비스는 dbmcli 명령을 사용하여 liveCache를 시작하고 중지합니다. Solaris 9를 실행하는 경우 클러스터 노드의 공개 네트워크에 장애가 발생하면 네트워크 서비스를 사용하지 못하게 될 수 있습니다.

해결 방법: liveCache 자원의 기본이 될 수 있는 각 노드에서 /etc/nsswitch.conf 파일에 publickey 데이터베이스에 대한 다음 항목 중 하나를 포함시킵니다.

publickey: 
publickey:  files
publickey:  files [NOTFOUND=return] nis 
publickey:  files [NOTFOUND=return] nisplus

Sun Cluster Data Service for SAP liveCache Guide for Solaris OS에 문서화된 업데이트 외에도 위 항목 중 하나를 추가하면 su 명령과 dbmcli 명령은 NIS/NIS+ 이름 서비스를 참조하지 않습니다. NIS/NIS+ 이름 서비스를 건너뛰면 네트워크 장애가 발생할 경우 데이터 서비스가 정확하게 시작되고 중지됩니다.

nsswitch.conf 요구 사항을 passwd 데이터베이스에 적용할 수 없음(4904975)

문제점 요약: Sun Cluster Data Service for SAP liveCache Guide for Solaris OSPreparing the Nodes and Disks 에 있는 nsswitch.conf 파일에 대한 요구사항은 passwd 데이터베이스 항목에 적용되지 않습니다. 이러한 요구 사항이 충족되는 경우 공개 네트워크가 중단될 때 liveCache 자원을 마스터할 수 있는 각 노드에서 su 명령이 중단될 수 있습니다.

해결 방법: liveCache 자원을 마스터할 수 있는 각 노드에서 passwd 데이터베이스에 대한 /etc/nsswitch.conf 파일의 항목이 다음과 같은지 확인합니다.

passwd: files nis [TRYAGAIN=0]

sccheck가 중단됨(4944192)

문제점 요약: 여러 노드에서 동시에 시작하는 경우 sccheck 가 중단될 수 있습니다.

해결 방법: 명령을 여러 노드로 전달하는 다중 콘솔에서는 sccheck를 시작하지 마십시오. sccheck 실행이 겹쳐질 수는 있지만 동시에 시작되어서는 안 됩니다.

잘못된 Java 버전에 연결된 Java 바이너리로 인해 HADB 에이전트가 잘못 작동함(4968899)

문제점 요약: 현재 HADB 데이터 서비스는 JAVA_HOME 환경 변수를 사용하지 않습니다. 따라서 HADB는 HADB 데이터 서비스에서 호출될 경우 /usr/bin/에서 Java 이진을 가져옵니다. /usr/bin/의 Java 이진을 Java 1.4 이상의 해당 버전에 연결해야 HADB 데이터 서비스가 올바르게 작동합니다.

해결 방법: 사용 가능한 기본 버전의 변경을 반대하지 않으면 다음 절차를 수행합니다. 예를 들어, 이 해결 방법에서는 /usr/j2se 디렉토리에 최신 Java 버전(예: 1.4 이상)이 있는 것으로 가정합니다.

  1. /usr/ 디렉토리에 java/라는 디렉토리가 있을 경우 디렉토리를 임시 위치로 이동합니다.

  2. /usr/ 디렉토리에서 /usr/bin/java와 기타 모든 Java 관련 이진을 적절한 Java 버전에 연결합니다.


    # ln -s j2se java
    

사용 가능한 기본 버전을 변경하지 않으려면 /opt/SUNWappserver7/SUNWhadb/4/bin/hadbm 스크립트에서 JAVA_HOME 환경 변수에 적절한 Java 버전(J2SE 1.4 이상)을 할당합니다.

새 클러스터 노드를 추가하려면 클러스터 재부트가 필요함(4971299)

문제점 요약: Sun Cluster Support for Oracle Real Application Clusters를 실행하면서 동시에 VxVM 클러스터 기능을 사용하는 클러스터에 노드를 추가하는 경우, 다른 노드에서 실행 중인 클러스터 기능은 새로운 노드를 인식하지 않습니다.

해결 방법: 이 문제에 대한 수정은 VxVM 3.5 MP4 및 VxVM 4.0 MP2의 VERITAS에서 사용할 수 있게 될 예정입니다. The fix for VxVM 4.1에 대한 수정은 현재 사용할 수 있습니다.

코드 수정을 아직 사용할 수 없는 경우에 문제를 수정하려면 Oracle 데이터베이스를 다시 시작하고 클러스터 노드를 재부트합니다. 이 단계에서는 Oracle UDLM을 동기화하고 VxVM 클러스터 기능을 업데이트하여 추가된 노드를 인지합니다.


주 –

이 단계를 수행할 때까지 새 노드에 Sun Cluster Support for Oracle Real Application Clusters 를 설치 및 구성하면 안 됩니다.


  1. 방금 추가한 노드 이외의 클러스터 노드에서 Oracle Real Application Clusters 데이터베이스를 종료합니다.

  2. Oracle 데이터베이스를 종료한 동일 노드를 재부트합니다.


    # scswitch -S -h thisnode
    # shutdown -g0 -y -i6
    

    노드가 클러스터로 완전히 다시 재부트될 때까지 기다린 다음 다음 단계를 진행합니다.

  3. Oracle 데이터베이스를 다시 시작합니다.

  4. Sun Cluster Support for Oracle Real Application Clusters를 실행하는 나머지 노드 각각에 대해 단계 1에서 단계 3까지를 반복합니다.

    • 단일 노드에서 Oracle 데이터베이스 작업 로드를 처리할 수 있으면 여러 노드에서 이러한 단계를 동시에 수행할 수 있습니다.

    • 이 데이터베이스 작업 로드를 지원하는 데 두 개 이상의 노드가 필요하면 한번에 한 개의 노드에서 이러한 단계를 수행합니다.

HADB가 예비 노드 없이 다시 초기화됨(4973982)

문제점 요약: 4974875 버그로 인해 자동 복구가 수행될 때마다 데이터베이스 자체가 예 비 노드 없이 다시 초기화됩니다. 명시된 버그는 수정되어 HADB 릴리스 4.3에 통합되었습니다. HADB 4.2 이하 릴리스의 경우 아래 절차 중 하나에 따라 HADB 노드의 역할을 변경합니다.

해결 방법: 다음 절차 중 하나를 수행하여 HADB 노드의 역할을 변경합니다.

  1. 자동 복구가 성공적으로 수행된 후 해당 역할이 변경된 HADB 노드를 식별합니다.

  2. 단계 1에서 식별한 모든 노드에서 문제가 있는 HADB 자원에 대한 오류 모니터를 한 번에 하나의 노드씩 사용 불가능하게 합니다.


    # cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery
    
  3. 문제가 있는 HADB 자원에 대한 오류 모니터를 사용 가능하게 합니다.

    또는

  1. 자동 복구가 성공적으로 수행된 후 해당 역할이 변경된 HADB 노드를 식별합니다.

  2. 데이터베이스를 호스트하는 모든 노드에서 문제가 있는 HADB 자원에 대한 오류 모니터를 사용 불가능하게 합니다.

  3. 노드 중 하나에서 역할을 변경해야 하는 각 HADB 노드에 대해 다음 명령을 실행합니다.


    # cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery
    

롤링 업그레이드 중에 다른 노드에서 pnmd를 액세스할 수 없음(4997693)

문제점 요약: 일부 노드에서 롤링 업그레이드가 완료되지 않은 경우 아직 업그레이드되지 않은 노드에서 업그레이드된 노드에 IPMP 그룹의 상태가 표시되지 않습니다.

해결 방법: 클러스터에서 모든 노드의 업그레이드를 마칩니다.

고급 필터 패널의 날짜 필드에서 mm/dd/yyyy 형식만 허용됨(5075018)

문제점 요약: SunPlex Manager 고급 필터 패널의 날짜 필드에는 mm/dd/yyyy 형식만 사용할 수 있습니다. 그러나 영어 이외의 로켈 환경에서는 날짜 형식이 mm/dd/yyyy와 다르고 달력 패널의 반환 날짜 형식이 mm/dd/yyyy 형식이 아닙니다.

해결 방법: 고급 필터 패널에 날짜 범위를 mm/dd/yyyy 형식으로 입력합니다. 달력을 표시하고 날짜를 선택하기 위해 설정... 버튼을 사용하지 마십시오.

일본어 로켈에서 scrgadm의 오류 메시지가 정크 문자를 포함함(5083147)

문제점 요약: 일본어 로켈에서 scrgadm의 오류 메시지가 올바로 표시되지 않습니다. 오류 메시지에 정크 문자가 포함되어 있습니다.

해결 방법: 영문 시스템 로켈을 실행하여 영문으로 오류 메시지를 표시합니다.

/usr/cluster/lib/cmass/ipmpgroupmanager.sh 스크립트가 IPv6 인터페이스 연결을 해제함(6174170)

문제점 요약: SunPlex Manager는 /usr/cluster/lib/cmass/ipmpgroupmanager.sh를 사용하여 IPMP 그룹에서 IPMP 그룹 및 어댑터를 삭제합니다. 이 스크립트는 /etc/hostname6.adaptername 파일을 올바로 업데이트하여 그룹 이름을 제거하지만 다음 ifconfig 명령을 실행하여 IPv6 인터페이스의 연결을 해제합니다.


ifconfig adaptername inet6 unplumb

해결 방법: 노드를 재부트하여 인터페이스를 연결합니다. 또는 노드에서 다음 ifconfig 명령을 실행합니다. 이 대안적 해결 방법에서는 노드를 재부트할 필요가 없습니다.


ifconfig adaptername inet6 plumb up

사용자가 선택한 IP 버전에 기반하여 어댑터 목록을 IPMP 그룹 페이지로 채워야 함(6174805)

문제점 요약: IPMP 그룹 페이지에 표시된 어댑터 목록이 사용자가 선택한 IP 버전을 따르지 않습니다. 이 페이지에는 구성된 그룹이 없는 모든 어댑터 목록이 표시됩니다. 이 목록은 다음과 같이 IP 버전 라디오 버튼이 선택되면 업데이트해야 합니다.

해결 방법: IP 버전을 선택한 다음 선택한 이 IP 버전에 대해 활성화된 목록의 어댑터만을 선택해야 합니다.

IPv4 및 IPv6에서 IPv4 전용으로 어댑터를 이동할 때 IPv4 버전이 제거되지 않음(6179721)

문제점 요약: IPMP 그룹 페이지에 표시되는 어댑터 목록은 사용자가 선택하는 IP 버전에 따릅니다. 현재의 SunPlex Manager는 IP 버전에 관계없이 완전한 어댑터 목록을 항상 표시하는 버그가 있습니다. SunPlex Manager에서 사용자는 IPv4 및 IPv6 모두에 대해 활성화된 어댑터를 IPv4 전용으로만 이동할 수 없습니다.

해결 방법: 사용자는 IPv4 및 IPv6 모두에 대해 활성화된 어댑터를 IPv4 전용으로 이동하려 하면 안 됩니다.

SUNWasvr 패지키가 설치되지 않은 경우 Sun Java System Administration Server 구성이 실패함(6196005)

문제점 요약: Sun Java System Administration Server가 설치되어 있지 않은 경우 Sun Java System Administration Server를 구성하려는 시도가 실패합니다. 이러한 시도가 실패하는 이유는 SUNW.mps 자원 유형에 /etc/mps/admin/v5.2/cluster/SUNW.mps 디렉토리가 있어야 하기 때문입니다. 이 디렉토리는 SUNWasvr 패지키가 설치된 경우에만 존재합니다.

해결 방법: 이 문제를 수정하려면 다음 절차를 수행합니다.

ProcedureSUNWasvr 패키지 설치 방법

단계
  1. 루트로 로그인하거나 클러스터 노드에서 그에 상응하는 역할을 맡습니다.

  2. SUNWasvr 패키지가 설치되었는지 여부를 확인합니다.


    # pkginfo SUNWasvr
    
  3. SUNWasvr 패키지가 설치되어 있지 않은 경우 다음 단계를 수행하여 Sun Cluster CD-ROM에서 패키지를 설치합니다.

    1. Sun Cluster CD-ROM 두 번째 장을 적절한 드라이브에 넣습니다.

    2. SUNWasvr 패키지를 포함하고 있는 디렉토리로 이동합니다.


      # cd /cdrom/cdrom0/Solaris_sparc/Product/administration_svr/Packages
      
    3. 명령어를 입력하여 패키지를 설치합니다.


      # pkgadd -d . SUNWasvr
      
    4. 드라이브에서 CD-ROM을 꺼냅니다.

startd/duration으로의 변경이 즉시 적용되지 않음(6196325)

문제점 요약: Solaris 10에서는 Sun Cluster HA for NFS 데이터 서비스가 /network/nfs/server, /network/nfs/status/network/nfs/nlockmgr 의 서비스 관리 기능(SMF) 서비스에 대해 /startd/duration 등록 정보를 transient로 설정합니다. 이 등록 정보 설정의 목적은 실패가 발생한 경우 SMF가 이러한 서비스를 다시 시작하지 않게 하는데 있습니다. 이 등록 정보 설정에도 불구하고 첫 번째 실패가 발생한 후에 SMF의 버그로 인해 SMF에서 /network/nfs/status/network/nfs/nlockmgr을 다시 시작합니다.

해결 방법: Sun Cluster HA for NFS를 올바르게 실행하려면, 첫 번째 Sun Cluster HA for NFS 자원을 생성한 다음 Sun Cluster HA for NFS 자원을 온라인으로 가져오기 전에 모든 노드에 대해 다음 명령을 실행합니다.


# pkill -9 -x 'startd|lockd'

Sun Cluster를 처음으로 부팅하는 경우에는, 첫 번째 Sun Cluster HA for NFS 자원을 생성한 다음 Sun Cluster HA for NFS 자원을 온라인으로 가져오기 전에 모든 잠재적 기본 노드에 대해 위에 기재된 명령을 실행합니다.

scinstall이 모든 공통 에이전트 컨테이너 보안 파일을 복사하지 않음(6203133)

문제점 요약: 노드가 클러스터에 추가되면, scinstall 유틸리티에서 추가하고 있는 노드에서 네트워크 보안 서비스(NSS) 파일이 있는지 여부를 검사합니다. 이러한 파일 및 보안 키는 공통 에이전트 컨테이너에서 필요합니다. NSS 파일이 존재하는 경우 해당 유틸리티는 스폰서 노드에서 추가된 노드로 공통 에이전트 컨테이너 보안 파일을 복사합니다. 단, 스폰서 노드에 설치된 NSS 보안 키가 없는 경우에는 복사가 이뤄지지 않으며 scinstall 처리가 종료됩니다.

해결 방법: 다음 절차를 수행하여 기존 클러스터 노드에서 install NSS 소프트웨어를 설치하고, 보안 키를 다시 만들고 공통 에이전트 컨테이너를 다시 시작합니다.

Procedure노드를 클러스터에 추가할 때 NSS 소프트웨어 설치 방법

수퍼유저나 적절한 액세스가 허용되는 역할로써 기존의 모든 클러스터 노드에서 다음 절차를 수행합니다.

시작하기 전에

Sun Cluster 1 of 2 CD-ROM을 준비합니다. NSS 패키지는 /cdrom/cdrom0/Solaris_arch/Product/shared_components/Packages/에 있습니다. 여기서 archsparc 또는 x86이며 ver은 Solaris 8인 경우 8 , Solaris 9인 경우 9, Solaris 10인 경우에는 10입니다.

단계
  1. 각 노드에서 Sun Web Console 에이전트를 중지합니다.


    # /usr/sbin/smcwebserver stop
    
  2. 각 노드에서 보안 파일 에이전트를 중지합니다.


    # /opt/SUNWcacao/bin/cacaoadm stop
    
  3. 각 노드에서 NSS 패키지가 설치되어 있는지 확인합니다. 설치되어 있는 경우에는 어떤 버전인지 확인합니다.


    # cat /var/sadm/pkg/SUNWtls/pkginfo | grep SUNW_PRODVERS
    SUNW_PRODVERS=3.9.4
  4. 3.9.4 이전 버전이 설치되어 있는 경우 기존 NSS 패키지를 제거합니다.


    # pkgrm packages
    

    다음 표는 각 하드웨어 플랫폼에 대한 적용 패키지를 나열합니다.

    하드웨어 플랫폼 

    NSS 패키지 이름 

    SPARC 

    SUNWtls SUNWtlsu SUNWtlsx

    x86 

    SUNWtls SUNWtlsu

  5. 각 노드에서 NSS 패키지를 제거했거나 설치된 사항이 없는 경우, Sun Cluster 1 of 2 CD-ROM에서 최신 NSS 패키지를 설치합니다.

    • Solaris 8이나 Solaris 9 OS의 경우에는 다음 명령을 사용합니다.


      # pkgadd -d . packages
      
    • Solaris 10 OS의 경우에는 다음 명령을 사용합니다.


      # pkgadd -G -d . packages
      
  6. CD-ROM에 상주하지 않는 디렉토리로 변경한 다음 CD-ROM을 꺼냅니다.


    # eject cdrom
    
  7. 각 노드에서 NSS 보안 키를 만듭니다.


    # /opt/SUNWcacao/bin/cacaoadm create-keys
    
  8. 각 노드에서 보안 파일 에이전트를 시작합니다.


    # /opt/SUNWcacao/bin/cacaoadm start
    
  9. 각 노드에서 Sun Web Console 에이전트를 시작합니다.


    # /usr/sbin/smcwebserver start
    
  10. 클러스터에 추가 중인 노드에서 scinstall 유틸리티를 다시 시작하고 절차를 따라 새 노드를 설치합니다.

SunPlex Manager에서 IPv4 및 IPv6 어댑터가 있는 공용 인터페이스 그룹의 삭제가 실패하는 경우가 있음(6209229)

문제점 요약: 그룹에서 IPv6 어댑터를 삭제하려고 할 때 IPv4와 IPv6이 모두 활성화된 어댑터가 있는 공용 인터페이스 그룹의 삭제가 실패하는 경우가 있습니다. 다음의 오류 메시지가 표시됩니다.


ifparse: Operation netmask not supported for inet6
/sbin/ifparse
/usr/cluster/lib/cmass/ipmpgroupmanager.sh[8]:
/etc/hostname.adaptname.tmpnumber: cannot open

해결 방법: /etc/hostname6.adaptername 파일을 편집하여 다음 행을 포함합니다.


plumb
up
-standby

클러스터 노드에서 다음 명령을 실행합니다.


ifconfig adaptername inet6 plumb up -standby

재부트 패치(노드) 절차 수행 중 메모리 누출(버그 6210440)

문제점 요약: Sun Cluster 첫 번째로 업그레이드된 노드가 클러스터 모드에서 재부트될 때 트리거된 메모리 문제로 인해 Sun Cluster 3.1 9/04 소프트웨어에서 Sun Cluster 3.1 8/05 소프트웨어로 롤링 업그레이드를 수행하려고 시도할 때 소프트웨어가 중단됩니다.

해결 방법: Sun Cluster 3.1 9/04 소프트웨어나 이에 상응하는 패치(개정 09 이상)를 실행하고 있는 중에 재부트 패치 절차를 수행하여 Sun Cluster 3.1 8/05 소프트웨어나 이에 상응하는 패치(개정 12)로 업그레이드하려는 경우, 해당 클러스터를 업그레이드하거나 이 코어 패치를 적용하기 전에 다음 단계를 수행해야 합니다.

ProcedureSun Cluster 3.1 8/05 소프트웨어로 업그레이드 준비 방법

단계
  1. 다음에서 가용성 요구 사항에 적합한 유형의 패치 설치 절차를 선택합니다.

    • 재부트 패치(노드)

    • 재부트 패치(클러스터 및 펌웨어)

    이러한 패치 설치 절차는 Solaris OS용 Sun Cluster 시스템 관리 안내서의 8 장, Sun Cluster 소프트웨어 및 펌웨어 패치를 참조하십시오.

  2. 사용 중인 운영 체제에 따라 다음 패치 중 하나를 적용합니다.

    • SunOS 5.9 X86의 경우 117909-11 Sun Cluster 3.1 코어 패치

    • Solaris 8의 경우 117950-11 Sun Cluster 3.1 코어 패치

    • Solaris 9의 경우 117949-11 Sun Cluster 3.1 코어 패치

    Sun Cluster 3.1 8/05 소프트웨어 또는 이에 상응하는 패치(개정 12)로 업그레이드하기 전에 전체 패치 설치 절차를 완료해야 합니다.

Sun Cluster 설치 후에 Zone Install 및 Zone Boot가 작동 안 함(6211453)

문제점 요약: Sun Cluster 소프트웨어 설치에서 exclude: lofs/etc/system에 추가합니다. lofs가 영역의 기능에 중요하기 때문에 zone installzone boot는 모두 실패합니다.

해결 방법: 영역을 만들려고 시도하기 전에 다음 절차를 수행합니다.

ProcedureSun Cluster 설치 이후 Zone Install 및 Zone Boot 실행 방법

단계
  1. Sun Cluster HA for NFS를 실행하고 있는 경우 , 자동 마운터 맵에서 NFS 서버가 내보낸 고가용성 로컬 파일 시스템의 일부인 모든 파일을 제외합니다.

  2. 각 클러스터 노드에서 /etc/system 파일을 편집하여 exclude: lofs 행을 모두 제거합니다.

  3. 클러스터를 재부트합니다.

Solaris 10에서 클러스터 파일 시스템 오류로부터 부트 시간 시 마운트로 복구하기 위해 추가 단계가 필요함(6211485)

문제점 요약: Solaris 10 OS는 클러스터 파일 시스템이 부트 시간 시에 마운트하지 못할 때 이전 Solaris OS 버전과 다른 복구 절차를 필요로 합니다. mountgfsys 서비스는 로그인 프롬프트를 표시하지 않고 실패하여 노드를 유지 보수 상태에 둘 수 있습니다. 출력 메시지는 다음과 비슷합니다.


WARNING - Unable to globally mount all filesystems.
Check logs for error messages and correct the problems.
 
May 18 14:06:58 pkaffa1 svc.startd[8]: system/cluster/mountgfsys:default misconfigured
 
May 18 14:06:59 pkaffa1 Cluster.CCR: /usr/cluster/bin/scgdevs: 
Filesystem /global/.devices/node@1 is not available in /etc/mnttab.

해결 방법: 클러스터 파일 시스템에 대한 마운트 문제를 복구한 다음, 수동으로 mountgfsys 서비스를 온라인으로 다시 가져와야 합니다. 다음 명령을 실행하여 mountgfsys 서비스를 온라인으로 가져오고 전역 장치 이름 공간을 동기화합니다.


# svcadm clear svc:/system/cluster/mountgfsys:default
# svcadm clear svc:/system/cluster/gdevsync:default

부트 처리가 계속됩니다.

Solaris 10 OS에 대해 지원되지 않는 업그레이드로 인해 /etc/path_to_inst 파일이 손상됨(6216447)

문제점 요약: Sun Cluster 3.1 8/05 소프트웨어는 Solaris 10 OS의 2005년 3월 릴리스로의 업그레이드를 지원하지 않습니다. 이러한 릴리스로 업그레이드를 시도하면 /etc/path_to_inst 파일이 손상될 수 있습니다. 이러한 파일 손상으로 인해 노드가 성공적으로 부트하지 못할 수 있습니다. 손상된 파일은 물리적 장치 이름에 /node@nodeid 접두사가 포함되어 있다는 점 이외에는 일부 동일한 장치 이름에 대해 중복된 항목을 포함하고 있다는 점에서 다음과 비슷할 수 있습니다.


…
"/node@nodeid/physical_device_name" instance_number "driver_binding_name"
…
"/physical_device_name" instance_number "driver_binding_name"

또한, 네트워킹 및 파일 시스템 마운팅 등의 일부 핵심 Solaris 서비스가 시작되지 못할 수 있으며, 서비스가 잘못 구성되어 있다는 메시지가 콘솔에 인쇄될 수 있습니다.

해결 방법: 다음 절차를 사용합니다.

Procedure손상된 /etc/path_to_inst 파일 복구 방법

다음 절차에서는 /etc/path_to_inst 파일이 결과적으로 손상되는 Solaris 10 소프트웨어에 대한 업그레이드의 복구 방법을 설명합니다.


주 –

이 절차에서는 Sun Cluster 구성을 Solaris 10 OS의 2005년 3월 릴리스로 업그레이드하는 것과 연관할 수 이외의 기타 문제를 수정하지 않습니다.


Solaris 10 OS의 2005년 3월 릴리스로 업그레이드한 각 노드에서 이 절차를 수행합니다.

시작하기 전에

노드를 부트할 수 없는 경우 네트워크나 CD-ROM에서 노드를 부트합니다. 노드가 부트되면 fsck 명령을 실행하고 /a와 같은 분할 영역에서 로컬 파일 시스템을 마운트합니다. 단계 2에서는 /etc 디렉토리에 대한 경로에서 로컬 파일 시스템 마운트의 이름을 사용합니다.

단계
  1. 수퍼유저가 되거나 노드에서 그에 상응하는 역할을 수행합니다.

  2. /etc 디렉토리로 가십시오.


    # cd /etc
    
  3. path_to_inst 파일이 손상되었는지 여부를 확인합니다.

    path_to_inst 파일이 손상되면 다음과 같은 특징을 보입니다.

    • 물리적 장치 이름의 시작 부분에 /node@nodeid가 포함된 항목 블록이 파일에 있습니다.

    • 동일한 항목 일부가 다시 나열되지만 /node@nodeid 접두사가 없습니다.

    파일이 이 형식으로 되어 있지 않은 경우 다른 문제가 일부 있습니다. 이 절차를 계속하지 않습니다. 도움이 필요한 경우 Sun 서비스 담당자에게 문의하십시오.

  4. 단계 3에서 설명한 대로 path_to_inst 파일이 손상된 경우, 다음 명령을 실행합니다.


    # cp path_to_inst path_to_inst.bak
    # sed -n -e "/^#/p" -e "s,node@./,,p" path_to_inst.bak > path_to_inst
    
  5. path_to_inst 파일을 검사하여 복구되었는지 확인합니다.

    복구된 파일은 다음 변경 사항을 적용합니다.

    • 모든 물리적 장치 이름에서 /node@nodeid 접두사가 제거됩니다.

    • 물리적 장치 이름에 대해 중복 항목이 없습니다.

  6. path_to_inst 파일의 권한이 읽기 전용이어야 합니다.


    # ls -l /etc/path_to_inst
    -r--r--r--   1 root     root        2946 Aug  8  2005 path_to_inst
  7. 비클러스터 모드로 재구성 재부트를 수행합니다.


    # reboot -- -rx
    
  8. 영향받은 클러스터 노드를 모두 복구한 다음, Solaris OS용 Sun Cluster 소프트웨어 설치 안내서비롤링 업그레이드 전에 종속성 소프트웨어를 업그레이드하는 방법를 참조하여 업그레이드 프로세스를 계속합니다.

CMM 재구성 콜백 시간이 초과되고 노드가 중지됨(6217017)

문제점 요약: ce 전송의 x86 클러스터에서 큰 부하를 받는 노드가 정보 분리의 결과로 CMM에 의해 중지될 수 있습니다.

해결 방법: 개인 네트워크에서 PCI Gigaswift Ethernet 카드를 사용하는 x86 클러스터의 경우, 다음을 /etc/system에 추가합니다.


set ce:ce_tx_ring_size=8192

노드가 Solaris 10을 실행하며 Hitachi 저장소를 사용하는 세 개 이상의 노드가 있는 클러스터에 결합하거나 클러스터에서 제거될 때 패닉 상태가 될 수 있음(6227074)

문제점 요약: Solaris 10을 실행하며 Hitachi 저장소를 사용하는 세 개 이상의 노드가 있는 클러스터에서 노드가 클러스터에 결합하거나 클러스터에서 제거될 때 클러스터 노드 모두가 패닉 상태가 될 수 있습니다.

해결 방법: 이 문제의 경우 현재 해결 방법이 없습니다. 이 문제가 발생하면 Sun 서비스 제공자에게 패치를 받는 방법을 문의하십시오.

Java ES 2005Q1 installer가 Application Server 8.1 EE를 완전하게 설치하지 않음(6229510)

문제점 요약: Application Server Enterprise Edition 8.1은 Configure Later 옵션이 선택된 경우 Java ES 2005Q1 installer로 설치할 수 없습니다. Configure Later 옵션을 선택하면 Enterprise Edition이 아닌 Platform Edition이 설치됩니다.

해결 방법: Java ES installer를 사용하는 Application Server Enterprise Edition 8.1을 설치할 때는 Configure Now 옵션을 사용하여 설치합니다. Configure Later 옵션을 선택하면 Platform Edition만이 설치됩니다.

scvxinstall로 인해 rpcbind가 다시 시작됨(6237044)

문제점 요약: 바인드 SMF 서비스를 다시 시작하면 Solaris 볼륨 관리자 작업에 영향을 줄 수 있습니다. Veritas 4.1 VxVM 패키지를 설치하면 SMF 바인드 서비스가 다시 시작됩니다.

해결 방법: 바인드 SMF 서비스를 다시 시작한 다음 또는 VxVM 4.1 on a S10 호스트에 VxVM 4.1을 설치한 다음에 Solaris 볼륨 관리자를 재부트합니다.


svcadm restart svc:/network/rpc/scadmd:default

Solaris 10을 사용하는 시스템에서 Java ES installer를 사용하여 Sun Cluster 를 설치한 다음 Sun Cluster 데이터 서비스를 설치할 수 없음(6237159)

문제점 요약: 이 문제는 Solaris 10을 사용하는 시스템에서만 발생합니다. Sun Cluster 코어가 설치된 다음 Sun Cluster 데이터 서비스를 설치하기 위해 Sun Cluster Agents CD-ROM에서 Java ES installer를 사용하는 경우, installer에 오류가 발생하여 다음 메시지를 표시합니다.


The installer has determined that you must manually remove incompatible versions 
of the following components before proceeding: 

[Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05]

After you remove these components, go back. 
Component                       Required By ...

1. Sun Cluster 3.1 8/05     HA Sun Java System Message Queue : HA Sun Java 
                            System Message Queue 
2. Sun Cluster 3.1 8/05     HA Sun Java System Application Server : HA Sun Java 
									System Application Server 
3. Sun Cluster 3.1 8/05     HA/Scalable Sun Java System Web Server : HA/Scalable 
									Sun Java System Web Server 
4. Select this option to go back to the component list. This process might take
									a few moments while the installer rechecks your
									system for installed components.

Select a component to see the details. Press 4 to go back the product list
[4] {"<" goes back, "!" exits}

해결 방법: Solaris 10을 사용하는 시스템에서 pkgadd 또는 scinstall을 사용하여 수동으로 Sun Cluster 데이터 서비스를 설치합니다. Sun Cluster 데이터 서비스가 공유 구성 요소에 따르는 경우, pkgadd를 사용하여 수동으로 공유 구성 요소를 설치합니다. 다음 링크는 각 제품에 대한 공유 구성 요소를 나열합니다.

http://docs.sun.com/source/819-0062/preparing.html#wp28178

/usr/sbin/smcwebserver: ... j2se/opt/javahelp/lib: does not exist 오류 메시지(6238302)

문제점 요약: Sun Web Console이 시작되는 동안에 다음 메시지가 표시될 수 있습니다.


/usr/sbin/smcwebserver:../../../../j2se/opt/javahelp/lib: does not exist

해결 방법: 이 메시지는 무시해도 무방합니다. 다음을 입력하여 올바른 Java Help 2.0을 가리키도록 /usr/j2se/opt에서 수동으로 링크를 추가할 수 있습니다.


# ln -s /usr/jdk/packages/javax.help-2.0 /usr/j2se/opt/javahelp

Solaris 9의 Sun Cluster 3.1 4/04에서 Solaris 10으로 OS 업그레이드를 수행한 다음 노드가 패닉 상태로 됨(6245238)

문제점 요약: Sun Cluster 3.1 4/04 이전의 소프트웨어를 실행하는 클러스터에서 Solaris 9 OS로부터 Solaris 10으로 업그레이드를 수행한 다음, 비클러스터 모드로 노드를 부트하면 노드가 패닉 상태로 됩니다.

해결 방법: Solaris 9에서 Solaris 10 소프트웨어로 업그레이드하기 전에 다음 패치 중 하나를 설치합니다.

SunPlex Installer가 자원 그룹에서 자원을 만들지 않음(6250327)

문제점 요약: Sun Cluster 설치의 일부로 Sun Cluster HA for Apache 및 Sun Cluster HA for NFS 데이터 서비스를 구성하기 위해 SunPlex Installer를 사용할 때, SunPlex Installer는 자원 그룹에서 필요한 장치 그룹 및 자원을 만들지 않습니다.

해결 방법: SunPlex Installer를 사용하여 데이터 서비스를 설치 및 구성하지 않습니다. 대신에, Solaris OS용 Sun Cluster 소프트웨어 설치 안내서Sun Cluster Data Service for Apache Guide for Solaris OS 또는 Sun Cluster Data Service for NFS Guide for Solaris OS 설명서의 절차를 따라 이러한 데이터 서비스를 설치 및 구성합니다.

6244819에 대한 NFSv4 수정을 지원하기 위해 HA-NFS 변경됨(6251676)

문제점 요약: NFSv4는 Sun Cluster 3.1 8/05에서 지원되지 않습니다.

해결 방법: Solaris 10은 새로운NFS 프로토콜 버전인 NFSv4를 소개합니다. 이는 Solaris 10의 클라이언트 및 서버의 기본 프로토콜입니다. Sun Cluster 3.1 8/05 릴리스는 Solaris 10을 지원하지만, NFS 서버에 대해 고가용성을 얻기 위해 클러스터에서 Sun Cluster HA for NFS 서비스를 통한 NFSv4 프로토콜의 사용을 지원하지 않습니다. Sun Cluster 소프트웨어의 NFS 서버에 통신하기 위해 NFSv4 프로토콜을 사용할 수 있는 NFS 클라이언트가 없도록 /etc/default/nfs 파일을 편집하여 NFS_SERVER_VERSMAX=4에서 NFS_SERVER_VERSMAX=3으로 행을 변경합니다. 이로써 클러스터에서 Sun Cluster HA for NFS 서비스의 클라이언트가 NFSv3 프로토콜만을 사용하도록 할 수 있습니다.

주: Solaris 10 클러스터 노드를 NFSv4 클라이언트로 사용하는 것은 이러한 제한과 위에서 언급한 해결 방법의 영향을 받지 않습니다. 클러스터 노드는 NFSv4 클라이언트 역할을 수행할 수 있습니다.

rpcbind 서비스가 다시 시작된 다음 metaset 명령이 실패함(6252216)

문제점 요약: rpcbind 서비스가 다시 시작된 다음 metaset 명령이 실패합니다.

해결 방법: 해당 Sun Cluster 시스템에서 구성 작업을 수행하지 않도록 하고 다음 명령을 사용하여 rpc.metad 프로세스를 강제 종료합니다.


# pkill -9 rpc.metad

metaclust 반환 단계 오류로 인해 노드가 패닉 상태로 됨: RPC: 프로그램이 등록되지 않음(6256220)

문제점 요약: 클러스터를 종료할 때, 노드에서 서비스가 중지되는 순서로 인해 일부 노드가 패닉 상태로 될 수 있습니다. RAC 프레임워크가 중지되지 전에 RPC 서비스가 중지되는 경우 SVM 자원이 재구성을 시도할 때 오류가 발생할 수 있습니다. 이로 인해 오류가 RAC 프레임워크로 다시 보고되어 노그가 패닉 상태로 됩니다. 이 문제는 SVM 저장소 옵션을 사용하여 RAC 프레임워크를 실행하는 Sun Cluster에서 나타났습니다. Sun Cluster 기능에는 영향을 주지 않습니다.

해결 방법: 이 패닉 상태는 의도적인 것으로 무시해도 무방합니다. 다만, 파일 시스템 공간을 재생 이용하기 위해 저장된 코어 파일을 정리해야 합니다.

NIS 주소 결정이 중단되고 실패를 일으켜 페일오버가 발생함(6257112)

문제점 요약: Solaris 10 OS에서 /etc/nsswitch.conf 파일은 ipnodes 항목에서 NIS를 포함하도록 수정되었습니다.


ipnodes:    files nis [NOTFOUND=return]

이로 인해 NIS 문제나 모든 공용 네트워크 어댑터의 오류에 인해 NIS가 액세스할 수 없게 되면 주소 결정이 중단됩니다. 결국 이 문제는 페일오버 자원이나 공유 주소 자원에 오류를 일으켜 페일오버를 발생시킵니다.

해결 방법: 논리 호스트 또는 공유 주소 자원을 만들기 전에 다음을 수행합니다.

  1. /etc/nsswitch.conf 파일의 ipnodes 항목을 [NOTFOUND=return]에서 [TRYAGAIN=0]로 변경합니다.


    ipnodes:    files nis [TRYAGAIN=0]
  2. 논리 호스트 및 공유 주소에 대한 모든 IP 주소를 /etc/inet/hosts 파일뿐만 아니라 /etc/inet/ipnodes 파일에 추가해야 합니다.

scinstall에서 Data Service for Sun Java System Application Server EE에 대한 Sun Cluster를 업그레이드하지 못 함(6263451)

문제점 요약: Sun Java System Application Server EE에 대한 Sun Cluster 데이터 서비스를 3.1 9/04에서 3.1 8/05로 업데이트하려고 시도하는 동안, scinstallj2ee에 대한 패키지를 제거하지 않고 다음 메시지를 표시합니다.


Skipping "SUNWscswa" - already installed

Sun Cluster Data Service for Sun Java System Application Server EE에 대한 Sun Cluster 데이터 서비스가 업그레이드되지 않습니다.

해결 방법: 다음 명령을 사용하여 sap_j2ee 패키지를 수동으로 제거 및 추가합니다.


# # pkgrm SUNWscswa
# pkgadd [-d device] SUNWscswa

scnas: 부트 시 NAS 파일 시스템이 마운트되지 않았음(6268260)

문제점 요약: NFS 파일 시스템은 데이터 서비스를 노드로 위치하기 위해 페일오버나 scswitch를 사용하기 전에 실행 가능성을 검사할 수 없습니다. 노드에 NFS 파일 시스템이 없는 경우, 해당 노드에 대한 전환/페일오버로 인해 수동 작업이 필요한 데이터 서비스가 실패합니다. HAStoragePlus와 같은 메커니즘은 해당 노드에 대한 전환/페일오버를 시도하기 전에 파일 시스템의 실행 가능성을 검사해야 합니다.

해결 방법: NAS 파일러를 사용하는 파일 시스템 (/etc/vfstab에 항목이 있는)은 Sun Cluster 소프트웨어가 제어할 수 없는 위치에서 마운트됩니다. 즉, Sun Cluster 소프트웨어에서 문제를 인지하지 못합니다. 파일 시스템을 사용할 수 없게 되는 경우, Sun Cluster HA for Oracle 등의 일부 데이터 서비스는 START 또는 STOP 등의 데이터 서비스 방법이 수행되면 실패합니다.

이러한 방법의 실패로 인해 다음 사항이 발생할 가능성이 있습니다.

다음 절차 중 하나를 수행하여 앞에서 언급한 문제를 피할 수 있습니다.

HADB 오류 모니터에서 ma 프로세스 다시 시작 안 함(6269813)

문제점 요약: Sun Cluster 데이터 서비스는 강제 종료되거나 갑자기 종료되면 ma 프로세스를 다시 시작하지 않습니다.

해결 방법: 이는 예상된 동작으로 데이터 서비스가 영향을 받지 않습니다.

롤링 업그레이드 중 rgmd가 코어를 덤프함(6271037)

문제점 요약: 모든 노드에서 새 소프트웨어를 실행하기 전 롤링 업그레이드 중에 자원을 삭제하려고 시도하면 이 노드 중 하나가 패닉 상태로 될 수 있습니다. 모든 노드에 새 소프트웨어가 설치될 때까지 자원을 삭제하지 않습니다.

해결 방법: 롤링 업그레이드 중에는 모든 노드에 새 소프트웨어가 설치될 때까지 RGM 자원을 삭제하지 않습니다.

클러스트 종료 및 부트 이후에 HADB 데이터베이스가 다시 시작되지 못함(6276868)

문제점 요약: 클러스터 노드가 재부트된 다음 HADB 데이터베이스가 다시 시작되지 못합니다. 사용자가 데이터베이스에 액세스할 수 없습니다.

해결 방법: 다음 절차를 수행하여 해당 관리 데이터 서비스 중 하나를 다시 시작합니다. 다음 절차를 통해서도 문제가 해결되지 않으면 데이터베이스를 삭제한 다음 다시 만듭니다.

Procedure관리 데이터 서비스 다시 시작

단계
  1. 종료할 노드에서 다음 명령을 입력하십시오. -h 옵션은 관리 에이전트를 중지할 노드 이름을 포함하지 않습니다.


    scswitch -z -g hadb resource grp -h node1, node2...
    
  2. 자원 그룹을 원래 노드로 다시 전환합니다.


    scswitch —Z —g hadb resource grp
    
  3. 데이터베이스의 상태를 검사합니다. 데이터베이스가 “정지” 상태로 될 때까지 기다립니다.


    hadbm status -n database
    
  4. 데이터베이스를 시작합니다.


    hadbm start database
    

SUNWiimsc 패키지를 추가한 다음 SUNW.iim의 크기가 0임(6277593)

문제점 요약: sun_cluster_agentsSUNWiimsc 패키지가 유효하지 않습니다. 이 패키지를 추가한 다음 /opt/SUNWiim/clusterSUNW.iim의 크기는 0이 됩니다.

해결 방법: SUNW.iim 패키지를 바꾸고 다음 단계를 수행하여 다시 등록합니다.

Procedure올바른 SUNW.iim 패키지 설치 방법

단계
  1. CD-ROM에서 올바른 SUNW.iim을 복사합니다.


    # cp 2of2_CD/Solaris_arch/Product/sun_cluster_agents/Solaris_os
    /Packages/SUNWiimsc/reloc/SUNWiim/cluster/SUNW.iim /opt/SUNWiim/Cluster/SUNW.iim
    
  2. 기존 SUNW.iim 등록을 모두 제거합니다.


    # rm /usr/cluster/lib/rgm/rtreg/SUNW.iim
    
  3. Sun Cluster에서 데이터 서비스를 등록합니다.


    sh 2of2_CD/Solaris_arch/Product/sun_cluster_agents/
    Solaris_os/Packages/SUNWiimsc/install/postinstall

SunPlex Manager를 통한 새 IPMP 그룹의 추가가 실패하는 경우 있음(6278059)

문제점 요약: SunPlex Manger를 사용하여 새 IPMP 그룹을 추가하려고 할 때 다음과 같은 메시지가 나타나면서 실패하는 경우가 있습니다.


An error was encountered by the system. If you were performing an action 
when this occurred, review the current system state prior to proceeding.

해결 방법: 실행 중인 IP 버전에 따라 다음 절차 중 하나를 수행합니다.

ProcedureIPv4 사용 중 SunPlex Manager를 통한 새 IPMP 그룹 추가

단계
  1. 다음 명령을 입력합니다.


    ifconfig interface inet plumb group groupname [addif address deprecated] 
    netmask + broadcast + up -failover
    
  2. 테스트 주소가 제공된 경우, /etc/hostname .interface 파일을 업데이트하여 다음을 추가합니다.


    group groupname addif address netmask + broadcast + deprecated -failover up
  3. 테스트 주소가 제공되지 않은 경우, /etc/hostname.interface 파일을 업데이트하여 다음을 추가합니다.


    group.groupname netmask + broadcast -failover up

ProcedureIPv6 사용 중 SunPlex Manager를 통한 새 IPMP 그룹 추가

단계
  1. 다음 명령을 입력합니다.


    ifconfig interface inet6 plumb up group groupname
    
  2. /etc/hostname6.interface 파일을 업데이트하여 다음 항목을 추가합니다.


    group groupname plumb up
  3. /etc/hostname6.interface 파일이 이미 존재하지 않는 경우, 해당 파일을 만들어 위에서 언급한 항목을 추가합니다.

클러스터 노드 중 하나를 패닉 상태로 만든 다음 HADB 자원이 계속해서 다시 시작함(6278435)

문제점 요약: 자원을 온라인으로 가져오고 클러스터에서 노드 중 하나를 패닉 상태(예를 들어, shutdown 또는 uadmin)로 만든 후에 자원이 계속해서 다른 노드에서 다시 시작됩니다. 사용자는 관리 명령을 내릴 수 없습니다.

해결 방법: 이 문제를 방지하려면, 루트나 이에 상응하는 액세스 권한을 갖는 역할로 단일 노드에 로그온하고 다음 명령을 사용하여 자원의 probe_timeout 값을 600초로 늘입니다.


scrgadm -c -j hadb resource -x Probe_timeout=600

변경 사항을 검증하려면, 클러스터 노드를 하나 종료하고 자원이 성능 저하 상태로 되지 않도록 확인합니다.

Solaris 10에서 공용 네트워크와 Sun Cluster 전송 모두가 bge(7D) 구동 어댑터를 사용할 때 확장 가능 서비스가 작동 안 함(6278520)

문제점 요약: Sun Cluster의 확장 가능 서비스의 로드 균형 조정 기능은 공용 네트워크와 Sun Cluster 전송 모두에서 bge 구동 어댑터를 사용할 때 Solaris 10 시스템에서 작동하지 않습니다. bge를 사용하는 기본 제공 NIC가 있는 플랫폼에는 Sun Fire V210, V240 및 V250이 있습니다.

페일오버 데이터 서비스는 이 버그의 영향을 받지 않습니다.

해결 방법: 공용 네트워킹 및 클러스터 전송이 동시에 bge 구동 어댑터를 사용하지 않도록 구성합니다.

기본 로켈을 멀티바이트 로켈로 설정하면 SunPlex Manager에 시스템 로그 표시 안 됨(6281445)

문제점 요약: SunPlex Manager의 기본 로켈을 멀티바이트 로켈로 설정하면 시스템 로그가 표시되지 않습니다.

해결 방법: 기본 로켈을 C로 설정하거나 명령줄 쉘을 통해 수동으로 syslog(/var/adm/messages)를 봅니다.

Node1에서 scswitch를 사용하여 노드 에이전트를 온라인으로 가져올 수 없음(6283646)

문제점 요약: 인스턴스 및 노드 에이전트는 페일오버 IP 주소/호스트 이름을 수신하도록 구성해야 합니다. 노드 에이전트 및 Sun Java System Application Server 인스턴스가 만들어지면 물리적 노드 호스트 이름이 기본값으로 설정됩니다. HTTP IP 주소와 클라이언트 호스트 이름이 domain.xml에서 변경됩니다. 그러나 변경 사항이 적용되지 않도록 도메인 관리 서버는 다시 시작되지 않습니다. 따라서 노드 에이전트는 노드 에이전트 자체가 구성된 물리적 노드에만 나타납니다.

해결 방법: domain.xml의 노드 에이전트 절에서 client-hostname을 변경하여 페일오버 IP를 수신하고 변경 사항을 적용하기 위해 도메인 관리 서버를 다시 시작합니다.

SunPlex Manager 및 Cacao 1.1이 JDK 1.5.0_03만을 지원함(6288183)

문제점 요약: Sun Cluster 3.1 8/05에서 Cacao 1.1과 함께 SunPlex Manager를 사용할 때 JDK 1.5.0_03만이 지원됩니다.

해결 방법: 다음 절차를 수행하여 수동으로 JDK 1.5를 설치합니다.

ProcedureJDK 1.5 수동 설치 방법

단계
  1. JES 4 공유 구성 요소 디렉토리에서 JDK 1.5를 추가합니다. 지침은 JES 4 RN을 참조하십시오.

  2. cacao를 중지합니다.


    # /opt/SUNWcacao/bin/cacaoadm stop
    
  3. cacao를 시작합니다.


    # /opt/SUNWcacao/bin/cacaoadm start
    

Solaris 9에 SC3.1 (8/05) 패치 117949–14를 설치하고 Solaris 8에 패치 117950–14를 설치한 다음 부트 중 Java VM 오류가 발생함(6291206)

문제점 요약: 이 버그는 Solaris 9를 실행하는 시스템에 패치 117949-14를 적용하거나 or patch 117950-14 on a system running Solaris 8을 실행하는 시스템에 패치 117950-14를 적용하여 Sun Cluster (8/05)로 업그레이드된 패치와 함께 3.1 (9/04)를 실행하는 Sun Cluster 시스템에 나타납니다.해당 시스템은 부트되면 다음 오류 메시지가 표시됩니다.


# An unexpected error has been detected by HotSpot Virtual Machine:
#
#  SIGSEGV (0xb) at pc=0xfaa90a88, pid=3102, tid=1
#
# Java VM: Java HotSpot(TM) Client VM (1.5.0_01-b07 mixed mode, sharing)
# Problematic frame:
# C  [libcmas_common.so+0xa88]  newStringArray+0x70
#
# An error report file with more information is saved as /tmp/hs_err_pid3102.log
#
# If you would like to submit a bug report, please visit:
#   http://java.sun.com/webapps/bugreport/crash.jsp
#

해결 방법: Sun Cluster 3.1 (9/04)에서 Sun Cluster 3.1 (8/05)로 업그레이드할 때, 다음 명령을 입력하여 코어 패치뿐만 아니라 SPM 패치를 설치합니다.

Solaris 8을 실행하는 시스템에서는 코어 패치 117950-14를 적용한 후에 다음 명령을 실행합니다.


 patchadd patchdir/118626-04

Solaris 9를 실행하는 시스템에서는 코어 패치 117949-14를 적용한 후에 다음 명령을 실행합니다.


patchadd patchdir/118627-04 

디렉토리 서버 및 관리 서버 자원 등록이 실패하는 경우 있음(6298187)

문제점 요약: 디렉토리 서버 및 관리 서버의 경우 자원 등록이 실패하는 경우가 있습니다. 시스템에서 다음 메시지를 표시합니다.


Registration file not found for "SUNW.mps" in /usr/cluster/lib/rgm/rtreg

해결 방법: 다음 중 하나의 명령을 입력하여 바로 pkg 위치에서 누락된 파일을 등록합니다.

Solaris 10 클러스터 노드가 IPv4와 IPv6 주소 매핑이 모두 있는 시스템과 통신하지 못할 수 있음(6306113)

문제점 요약: Solaris 10을 실행하는 Sun Cluster 노드에 공용 네트워킹용으로 구성된 IPv6 인터페이스가 없는 경우(예를 들어, 클러스터 상호 연결용이 아닌 경우), 이 노드는 NIS와 같은 이름 서비스의 IPv4와 IPv6 주소 매핑이 모두 있는 시스템에 액세스할 수 없습니다 . IPv4가 아닌 IPv6 주소를 선택하는 텔넷 및 트레이스루트 등의 응용 프로그램에서 해당 패킷이 클러스터 전송 어댑터로 전송된 다음 끊어집니다.

해결 방법: 해당 클러스터의 구성에 따라 다음 해결 방법 중 하나를 사용합니다.