Solaris OS용 Sun Cluster 3.2 릴리스 노트

알려진 문제 및 버그

다음의 알려진 문제점과 버그가 Sun Cluster 3.2 릴리스의 사용에 영향을 미칩니다. 버그와 문제는 다음과 같은 범주로 그룹화됩니다.

관리

clnode remove -f 옵션으로 Solaris Volume Manager 장치 그룹이 포함된 노드를 제거하지 못함(6471834)

문제점 요약: -clnode remove --force 명령은 메타 세트에서 노드를 제거해야 합니다. Solaris OS용 Sun Cluster 시스템 관리 안내서에서는 클러스터에서 노드를 제거하는 절차를 제공합니다. 이러한 절차를 사용하여 사용자는 clnode remove를 실행하기 전에 Solaris Volume Manager 디스크 세트 제거를 위한 metaset 명령을 실행할 수 있습니다.

해결 방법: 절차를 따르지 않았다면 일반적인 방법으로 CCR에서 부실 노드 데이터를 지워야 할 수도 있습니다. 활성 클러스터 노드에서 metaset 명령을 사용하여 Solaris Volume Manager 디스크 세트에서 노드를 지웁니다. 그런 다음 clnode clear --force obsolete_nodename을 실행합니다.

scsnapshot이 Solaris 10 SUNWCluster 메타 클러스터에서 작동하지 않음(6477905)

문제점 요약: Solaris 10 End User 소프트웨어 그룹 SUNWCuser에 설치된 클러스터에서 scsnapshot 명령을 실행하면 다음 오류와 함께 실패할 수 있습니다.


# scsnapshot -o
…
/usr/cluster/bin/scsnapshot[228]: /usr/perl5/5.6.1/bin/perl:  not found

해결 방법: 다음 중 하나를 수행하십시오.

확장 가능 자원 작성 동안 Auxnodelist 등록 정보의 항목이 SEGV를 유발함(6494243)

문제점 요약: 공유 주소 자원을 작성하는 동안에는 공유 주소 자원의 Auxnodelist 등록 정보를 사용할 수 없습니다. 이로 인해 공유 주소 네트워크 자원에 따라 달라지는 확장 가능 자원이 작성될 때 검증 오류 및 SEGV가 발생할 수 있습니다. 확장 가능 자원의 검증 오류 메시지 형식은 다음과 같습니다.


Method methodname (scalable svc) on resource resourcename stopped or terminated 
due to receipt of signal 11

또한, 코어 파일이 ssm_wrapper에서 생성됩니다. 사용자가 Auxnodelist 등록 정보를 설정할 수 없게 되면 기본으로 제공되지 않지만 공유 주소를 호스트할 수 있는 클러스터 노드를 식별할 수 없습니다.

해결 방법: 한 노드에서 Auxnodelist 등록 정보를 지정하지 않고 공유 주소 자원을 다시 작성합니다. 그런 다음 확장 가능 자원 작성 명령을 재실행하고 다시 작성한 공유 주소를 네트워크 자원으로 사용합니다.

clquorumserver 시작 및 중지 명령이 다음 부트에 대해 시작 상태를 올바르게 설정함(6496008)

문제점 요약: 쿼럼 서버 명령 clquorumserver이 다음 재부트에 대해 시작 메커니즘의 상태를 올바르게 설정하지 않습니다.

해결 방법: 다음 작업을 수행하여 쿼럼 서버 소프트웨어를 시작하거나 중지합니다.

ProcedureSolaris 10 OS에서 쿼럼 서버 소프트웨어 시작 방법

  1. quorumserver 서비스의 상태를 표시합니다.


    # svcs -a | grep quorumserver
    

    서비스가 비활성화된 경우, 다음과 유사하게 출력됩니다.


    disabled        3:33:45 svc:/system/cluster/quorumserver:default
  2. 쿼럼 서버 소프트웨어를 시작합니다.

    • quorumserver 서비스가 비활성화인 경우, svcadm enable 명령을 사용합니다.


      # svcadm enable svc:/system/cluster/quorumserver:default
      
    • quorumserver 서비스가 온라인인 경우, clquorumserver 명령을 사용합니다.


      # clquorumserver start +
      

ProcedureSolaris 10 OS에서 쿼럼 서버 소프트웨어 중지 방법

    quorumserver 서비스를 비활성화합니다.


    # svcadm disable svc:/system/cluster/quorumserver:default
    

ProcedureSolaris 9 OS에서 쿼럼 서버 소프트웨어 시작 방법

  1. 쿼럼 서버 소프트웨어를 시작합니다.


    # clquorumserver start +
    
  2. /etc/rc2.d/.S99quorumserver 파일 이름을 /etc/rc2.d/S99quorumserver로 변경합니다.


    # mv /etc/rc2.d/.S99quorumserver /etc/rc2.d/S99quorumserver
    

ProcedureSolaris 9 OS에서 쿼럼 서버 소프트웨어 중지 방법

  1. 쿼럼 서버 소프트웨어를 중지합니다.


    # clquorumserver stop +
    
  2. 쿼럼 서버 소프트웨어를 시작합니다.


    # mv /etc/rc2.d/S99quorumserver /etc/rc2.d/.S99quorumserver
    

데이터 서비스

자원 종속성이 DAS(Domain Administration Server) 자원에 설정되지 않더라도 Sun Cluster HA for Sun Java Systems Application Server에 대한 노드 에이전트 자원 작성에 성공함(6262459)

문제점 요약: Sun Cluster HA for Application Server에 노드 에이전트(NA)를 작성할 때 DAS 자원에 설정된 종속성이 없더라도 자원은 작성됩니다. NA 자원을 시작하려면 DAS 자원이 온라인이어야 하므로 종속성이 설정되지 않은 경우에 명령을 실행하면 오류가 출력됩니다.

해결 방법: NA 자원을 작성할 때, DAS 자원에 자원 종속성을 설정했는지 확인합니다.

모든 새 인스턴스에 대해 HA MySQL 패치의 새 변수를 구성해야 함(6516322)

문제점 요약: HA MySQL 패치는 mysql_config 파일의 MYSQL_DATADIR라는 이름의 새 변수를 추가합니다. 이 새 변수는 MySQL 구성 파일(my.conf 파일)이 저장된 디렉토리를 가리켜야 합니다. 이 변수가 올바르게 구성되지 않으면 mysql_register를 사용한 데이터베이스 준비에 실패합니다.

해결 방법: MYSQL_DATADIR 변수가 MySQL 구성 파일(my.conf)이 저장된 디렉토리를 가리키도록 합니다.

설치

InfiniBand 구성을 갖춘 자동 검색이 때때로 동일한 어댑터를 사용하는 2가지 경로를 제안함(6299097)

문제점 요약: InfiniBand가 클러스터 전송으로 사용되고 어댑터 당 2개의 포트와 전체 2개의 스위치를 갖춘 각 노드에 2개의 어댑터가 있을 경우, scinstall 유틸리티의 어댑터 자동 검색은 동일한 어댑터를 사용하는 2가지 전송 경로를 제안할 수 있습니다.

해결 방법: 각 노드의 전송 어댑터를 수동으로 지정합니다.

IPv6 확장 가능 서비스 지원이 기본적으로 활성화되어 있지 않음(6332656)

문제점 요약: IPv6 확장 가능 서비스 패킷의 전송에 필요한 상호 연결의 IPv6 연결(plumbing)이 기본적으로 활성화되지 않습니다. ifconfig 명령을 사용할 때와 같이 IPv6 인터페이스는 기본적으로 상호 연결 어댑터에서 더 이상 연결(plumbing)되지 않습니다.

해결 방법: IPv6 확장 가능 서비스 지원을 수동으로 활성화합니다.

ProcedureIPv6 확장 가능 서비스 지원을 수동으로 활성화하는 방법

시작하기 전에

IPv6 서비스를 실행할 모든 클러스터 노드가 준비되었는지 확인합니다. 이러한 작업에는 네트워크 인터페이스의 적절한 구성, 서버/클라이언트 응용 프로그램 소프트웨어, 이름 서비스 및 라우팅 기반 구조가 포함됩니다. 확인하지 않을 경우, 네트워크 응용 프로그램에 예상하지 못한 오류가 발생할 수도 있습니다. 자세한 내용은 IPv6 서비스용 Solaris 시스템 관리 설명서를 참조하십시오.

  1. 각 노드에서 /etc/system 파일에 다음 항목을 추가합니다.


    # set cl_comm:ifk_disable_v6=0
    
  2. 각 노드에서 상호 연결 어댑터의 IPv6 연결(plumbing)을 활성화합니다.


    # /usr/cluster/lib/sc/config_ipv6
    

    config_ipv6 유틸리티는 링크 로컬 주소가 있는 모든 클러스터 상호 연결 어댑터에 IPv6 인터페이스를 실행시킵니다. 유틸리티는 상호 연결을 통해 IPv6 확장 가능 서비스 패킷의 적절한 전송을 활성화합니다.

    또는, 각 클러스터 노드를 재부트하여 구성 변경을 활성화할 수 있습니다.

파일에 직접 연결 전송 정보가 포함되어 있을 경우 clnode add는 XML 파일에서 노드를 추가하지 못함(6485249)

문제점 요약: clnode add 명령이 직접 연결 전송을 사용하는 XML 파일을 사용하려고 하면, 이 명령은 케이블 정보를 잘못 해석하고 잘못된 구성 정보를 추가합니다. 결과적으로 연결하는 노드는 클러스터에 연결될 수 없습니다.

해결 방법: 클러스터 전송이 직접 연결된 경우 scinstall 명령을 사용하여 클러스터에 노드를 추가합니다.

비전역 영역 설치 동안 /etc/nsswitch.conf 파일이 hostnetmasks 데이터베이스 정보로 업데이트되지 않음(6345227)

문제점 요약: scinstall 명령은 /etc/nsswitch.conf 파일을 업데이트하여 hostsnetmasks 데이터베이스를 위해 cluster 항목을 추가합니다. 이 변경 사항은 전역 영역에 대한 /net/nsswitch.conf 파일을 업데이트합니다. 그러나, 비전역 영역이 작성되고 설치되면 비전역 영역은 /etc/nsswitch.conf 파일의 자체 사본을 수신합니다. 비전역 영역의 /etc/nsswitch.conf 파일에는 hostsnetmasks 데이터베이스에 대한 cluster 항목이 없습니다. getXbyY 쿼리를 사용하여 비전역 영역 내에서 클러스터 특정 개인 호스트 이름 및 IP 주소를 확인하려는 시도는 실패하게 됩니다.

해결 방법: 비전역 영역에 대한 /etc/nsswitch.conf 파일을 hostsnetmasks 데이터베이스에 대한 cluster 항목으로 수동 업데이트합니다. 이는 비전역 영역 내에서 클러스터 특정 개인 호스트 이름 및 IP 주소 지정이 사용 가능한지 확인합니다.

현지화

쿼럼 서버의 번역된 메시지가 핵심 번역 패키지의 일부로 제공됨(6482813)

문제점 요약: clquorumserver와 같은 쿼럼 서버 관리 프로그램에 대해 번역된 메시지가 핵심 번역 패키지의 일부로 제공됩니다. 결과적으로 쿼럼 서버 메시지는 영어로만 나타납니다. 쿼럼 서버 번역 패키지를 핵심 번역 패키지에서 분리하고 쿼럼 서버 시스템에 설치해야 합니다.

해결 방법: 쿼럼 서버 소프트웨어가 설치된 호스트에 다음 패키지를 설치합니다.

쿼럼 서버에 일본어 매뉴얼 페이지가 필요할 경우, SUNWjscman(일본어 매뉴얼 페이지) 패키지를 설치합니다.

설치 프로그램이 Sun Cluster 3.2 중국어 간체 버전에 대해 잘못된 스왑 크기를 표시함(6495984)

문제점 요약: Sun Cluster 3.2 중국어 간체 버전 소프트웨어를 설치하면 Sun Cluster 3.2 설치 프로그램은 짧은 스왑에 대한 경고 메시지를 표시합니다. 설치 프로그램이 시스템 요구 사항 확인 화면에서 0.0KB 크기의 잘못된 스왑 크기를 제공합니다.

해결 방법: 스왑 크기가 시스템 요구 사항보다 클 경우에는 이 문제를 무시할 수 있습니다. C 또는 영어 로케일에서 SC 3.2 설치 프로그램은 설치용으로 사용할 수 있으며 이 버전은 스왑 크기를 올바르게 확인합니다.

런타임

SAP cleanipc 이진에 LD_LIBRARY_PATH에 대한 User_env 매개변수가 필요함(4996643)

문제점 요약: 런타임 연결 환경에 /sapmnt/SAPSID/exe 경로가 없으면 cleanipc가 실패합니다.

해결 방법: Solaris 루트 사용자로서 ld.config 파일의 기본 라이브러리에 /sapmnt/SAPSID/exe 경로를 추가합니다.

32–비트 응용 프로그램에 대한 런타임 연결 환경 기본 라이브러리 경로를 구성하려면 다음 명령을 입력합니다.


# crle -u -l /sapmnt/SAPSID/exe

64–비트 응용 프로그램에 대한 런타임 연결 환경 기본 라이브러리 경로를 구성하려면 다음 명령을 입력합니다.


# crle -64 -u -l /sapmnt/SAPSID/exe

metaclust 반환 단계 오류로 인한 노드 패닉: RPC: 등록되지 않은 프로그램(6256220)

문제점 요약: 클러스터 종료가 수행될 때, 노드 중 하나가 UCMMD보다 조금 먼저 클러스터에서 종료하는 경우, UCMMD는 하나 이상의 노드에 재구성으로 들어갈 수 있습니다. 이런 경우, UCMMD가 반환 단계를 수행하려고 시도하는 동안 종료가 노드에서 rpc.md 명령을 중지합니다. 반환 단계에서, 누락된 rpc.mdcommd 프로세스로 metaclust 명령은 RPC 시간 초과되어 오류와 함께 단계를 종료합니다. 이 오류로 UCMMD에서 노드를 중지할 수 있으며 노드 패닉을 일으킬 수 있습니다.

해결 방법: 이 문제는 무시해도 안전합니다. 노드에서 백업 부트 시 Sun Cluster 소프트웨어는 이전 재구성 시 오류가 발생했다는 사실에도 불구하고 이 조건을 검출하여 UCMMD가 시작되도록 허용합니다.

Sun Cluster 자원 검증이 netiflist 등록 정보에 대한 IPMP 그룹의 호스트 이름을 허용하지 않음(6383994)

문제점 요약: 논리 호스트 이름 또는 공유 주소 자원을 작성하는 동안, Sun Cluster 자원 검증이 netiflist 등록 정보에 대한 IPMP 그룹의 호스트 이름을 허용하지 않습니다.

해결 방법: 논리 호스트 이름 및 공유 주소 자원을 작성하는 동안, IPMP 그룹을 지정할 때 노드 ID 대신 노드 이름을 사용합니다.

업그레이드

루트 디스크가 캡슐화되면 vxlufinish 스크립트가 오류를 반환함(6448341)

문제점 요약: 이 문제는 원래의 디스크가 루트 캡슐화되고 Solaris 9 8/03 OS의 VxVM 3.5에서 Solaris 10 6/06 OS의 VxVM 5.0으로 라이브 업그레이드가 시도될 때 나타납니다. vxlufinish 스크립트는 다음 오류와 함께 실패합니다.


#./vslufinish -u 5.10

    VERITAS Volume Manager VxVM 5.0
    Live Upgrade finish on the Solairs release <5.10>

    Enter the name of the alternate root diskgroup: altrootdg
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
Killed
ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory
ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176
-c -p 5555 -g
    -g altrootdg rootdisk=c0t1d0s2
    Please install, if 5.0 or higher version of VxVM is not installed
    on alternate bootdisk.

해결 방법: 대신, 표준 업그레이드 또는 이중 분할 업그레이드 방법을 사용하십시오.

나중에 VxVM 5.0용 Sun Cluster 3.2 Live Upgrade 지원을 사용할 수 있는지 여부를 알려면 Sun 지원 또는 Sun 담당자에게 문의하십시오.

Live Upgrade가 부트 디스크에서 전역 장치의 마운팅을 지원함(6433728)

문제점 요약: 라이브 업그레이드 중에 lucreateluupgrade 명령은 /global/.devices/node@N 항목에 해당하는 대체 부트 환경에서 DID 이름을 변경하는 데 실패합니다.

해결 방법: 라이브 업그레이드를 시작하기 전에 각 클러스터 노드에서 다음 단계를 수행합니다.

  1. 수퍼유저로 전환합니다.

  2. /etc/vfstab 파일을 백업합니다.


    # cp /etc/vfstab /etc/vfstab.old
    
  3. 편집할 /etc/vfstab 파일을 엽니다.

  4. /global/.device/node@N에 해당하는 행을 찾습니다.

  5. 전역 장치 항목을 편집합니다.

    • DID 이름을 물리적 이름으로 변경합니다.

      /dev/did/{r}dsk/dYsZ/dev/{r}dsk/cNtXdYs Z로 변경합니다.

    • 항목에서 global을 제거합니다.

    다음 예에서는 /global/.devices/node@s에 해당하는 DID 장치 d3s3의 이름이 해당 물리적 장치 이름으로 변경되고 global 항목이 제거된 것을 보여줍니다.


    기존 내용:
    /dev/did/dsk/d3s3    /dev/did/rdsk/d3s3    /global/.devices/node@2   ufs   2   no   global
    
    변경된 내용:
    dev/dsk/c0t0d0s3     /dev/rdsk/c0t0d0s3    /global/.devices/node@2   ufs   2   no   -
  6. 모든 클러스터 노드에서 /etc/vfstab 파일을 수정할 때, 클러스터의 라이브 업그레이드를 수행합니다. 그러나 업그레이드된 대체 부트 환경에서 재부트하기 전에 중지해야 합니다.

  7. 현재 업그레이드되지 않은 부트 환경의 각 노드에서 /etc/vfstab 파일을 복원합니다.


    # cp /etc/vstab.old /etc/vfstab
    
  8. 대체 부트 환경에서 편집할 /etc/vfstab 파일을 엽니다.

  9. /global/.devices/node@N에 해당하는 행을 찾아 항목 끝에 있는 대시(-)를 단어 global로 대체합니다.


    /dev/dsk/cNtXdYsZ    /dev/rdsk/cNtXdYsZ    /global/.devices/node@N   ufs   2   no   global
    
  10. 업그레이드된 대체 부트 환경에서 노드를 재부트합니다.

    DID 이름이 /etc/vfstab 파일에서 자동으로 대체됩니다.

라이브 업그레이드 동안 vxlustart 스크립트가 다른 부트 환경을 작성하지 못함(6445430)

문제점 요약: 이 문제는 Sun Cluster 라이브 업그레이드 동안 VxVM(VERITAS Volume Manager)을 업그레이드할 때 나타납니다. vxlustart 스크립트는 이전 버전에서 Solaris OS 및 VxVM을 업그레이드하는 데 사용됩니다. 스크립트는 다음과 같은 오류 메시지와 함께 실패합니다.


# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage

   VERITAS Volume Manager VxVM 5.0.
   Live Upgrade is now upgrading from 5.9 to <5.10>
…
ERROR: Unable to copy file systems from boot environment &lt;sorce.8876> to BE &lt;dest.8876>.
ERROR: Unable to populate file systems on boot environment &lt;dest.8876>.
ERROR: Cannot make file systems for boot environment &lt;dest.8876>.
ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 
-m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs 
-m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs 
-m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876

해결 방법: 클러스터를 VxVM 5.0으로 업그레이드할 경우, 표준 업그레이드 또는 이중 분할 업그레이드 방법을 사용합니다.

나중에 VxVM 5.0용 Sun Cluster 3.2 Live Upgrade 지원을 사용할 수 있는지 여부를 알려면 Sun 지원 또는 Sun 담당자에게 문의하십시오.

루트 디스크가 캡슐화되는 경우, 해당 노드 전체에서 vxio 주 번호가 다름(6445917)

문제점 요약: VxVM(VERITAS Volume Manager)을 실행하는 클러스터의 경우, 루트 디스크가 캡슐화되면 다음 소프트웨어 중 하나인 표준 업그레이드 또는 이중 분할 업그레이드가 실패합니다.

업그레이드 후 클러스터 노드 패닉이 발생하고 부트에 실패합니다. 이는 업그레이드하는 동안 VxVM에 의해 만들어진 주 번호 또는 부 번호 때문입니다.

해결 방법: 업그레이드를 시작하기 전에 루트 디스크의 캡슐화를 해제합니다.


주의 – 주의 –

위의 절차를 제대로 따르지 않으면 업그레이드되고 있는 모든 노드에 예상치 못한 심각한 문제가 발생할 수 있습니다. 또한, 루트 디스크의 캡슐화 해제 및 캡슐화로 인해 업그레이드 동안 필요한 재부트의 수를 증가시키면서 (매번) 노드의 추가 재부트를 유발할 수 있습니다.


Solaris 9의 Sun Cluster 버전 3.1에서 Solaris 10의 버전 3.2로 Live Upgrade 후 영역을 사용할 수 없음(6509958)

문제점 요약: Solaris 9의 Sun Cluster 버전 3.1에서 Solaris 10의 버전 3.2로 라이브 업그레이드 후, 클러스터 소프트웨어에서 영역을 올바르게 사용할 수 없습니다. 문제는 Sun Cluster 패키지에 대해 pspool 데이터가 작성되지 않는다는 점입니다. 따라서 SUNWsczu와 같은 비전역 영역에 전파해야 하는 이들 패키지가 올바르게 전파되지 않습니다.

해결 방법: scinstall -R 명령을 사용하여 Sun Cluster 패키지가 업그레이드된 후, 클러스터가 클러스터 모드로 부트되기 전에 다음 스크립트를 두 번 실행합니다.

Procedure스크립트 사용에 대한 지침

시작하기 전에

다음 방법 중 하나로 이 스크립트를 준비하고 실행합니다.

  1. 수퍼유저로 전환합니다.

  2. 다음 내용으로 스크립트를 작성합니다.

    #!/bin/ksh
    
    typeset PLATFORM=${PLATFORM:-`uname -p`}
    typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages}
    typeset BASEDIR=${BASEDIR:-/}
    
    cd $PATHNAME
    for i in *
    do
    	if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1
    	then
    		mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool
    		pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i
    	fi
    done
  3. 변수 PLATFORM, PATHNAMEBASEDIR을 설정합니다.

    이들 변수를 환경 변수로 설정하거나 스크립트의 변수를 직접 수정합니다.

    PLATFORM

    플랫폼의 이름입니다. 예를 들면, sparc 또는 x86 등입니다. 기본적으로 uname -p 명령의 출력에 대해 PLATFORM 변수가 설정되어 있습니다.

    PATHNAME

    Sun Cluster 프레임워크 또는 데이터 서비스 패키지를 설치할 수 있는 장치에 대한 경로입니다. 이 값은 pkgadd 명령의 -d 옵션에 해당합니다.

    한 가지 예로 Sun Cluster 프레임워크 패키지의 경우, 이 값의 형식은 다음과 같습니다.


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages

    데이터 서비스 패키지의 경우, 이 값의 형식은 다음과 같습니다.


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages
    BASEDIR

    루트 경로로 사용하고 pkgadd 명령의 -R 옵션에 해당하는 디렉토리의 전체 경로 이름입니다. 라이브 업그레이드의 경우, 이 값을 scinstall 명령의 -R 옵션으로 사용되는 루트 경로로 설정합니다. 기본적으로 BASEDIR 변수는 루트(/) 파일 시스템으로 설정되어 있습니다.

  4. Sun Cluster 프레임워크 패키지에 대해 한 번, 데이터 서비스 패키지에 대해 한 번 스크립트를 실행합니다.

    스크립트를 실행한 후, 각 패키지에 대한 명령 프롬프트에 다음 메시지가 표시됩니다.


    Transferring pkgname package instance

    주 –

    pspool 디렉토리가 각 패키지에 대해 이미 존재하거나 동일한 패키지 세트에 대해 스크립트를 두 번 실행한 경우, 다음 오류가 명령 프롬프트에 표시됩니다.


    Transferring pkgname package instance
    pkgadd: ERROR: unable to complete package transfer
        - identical version of pkgname already exists on destination device

    이는 무해한 메시지이며 무시해도 됩니다.


  5. 프레임워크 패키지와 데이터 서비스 패키지 모두에 대해 스크립트를 실행한 후, 노드를 클러스터 모드로 부트합니다.

노드에 Sun Cluster 3.2 핵심 패치를 추가하지 않고 기존 Sun Cluster 3.2로 패치된 클러스터에 노드를 추가할 수 없음(6554107)

문제점 요약: 노드에 기존 클러스터 노드와 동일한 패치가 있는지 확인하지 않고 새 클러스터 노드를 추가하면 클러스터 노드에 패닉이 발생할 수 있습니다.

해결 방법: 클러스터에 노드를 추가하기 전에 새 노드가 기존 클러스터 노드와 동일한 수준으로 패치되었는지 먼저 확인하십시오. 이를 수행하지 않으면 클러스터 노드에 패닉이 발생할 수 있습니다.