탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
![]() |
Oracle Solaris Cluster 3.3 5/11 릴리스 노트 Oracle Solaris Cluster (한국어) |
Oracle Solaris Cluster 3.3 5/11 릴리스 노트
Oracle Solaris Cluster 3.3 5/11 소프트웨어의 새로운 기능
클러스터 유효성 도구로 사용되는 cluster check 명령의 향상된 기능
NAS 장치로 사용되는 Sun ZFS Storage Appliance에 대한 보호(Fencing) 지원
클러스터 파일 시스템으로 사용되는 Oracle ACFS에 대한 지원
ZFS를 사용하는 HAStoragePlus가 포함된 루프백 마운트에 대한 영역 클러스터 지원
HA-Oracle 및 Oracle RAC가 포함된 Oracle 11g 릴리스 2에 대한 구성 마법사 지원
SWIFTAlliance Access 7.0 및 SWIFTAlliance Gateway 7.0에 대한 지원
Veritas Volume Manager 클러스터 기능이 더 이상 지원되지 않음
Oracle ACFS 디렉토리 이름을 부모 디렉토리로 바꾸기 위해 rename(2)를 호출할 때의 노드 패닉(11828617)
패닉(uadmin 5 1) 오류 주입 후 노드에서 Oracle Clusterware를 시작하지 못함(11828322)
Oracle ACFS를 통해 클러스터화된 fcntl에 대한 지원 필요(11814449)
비전역 영역에 Oracle ASM이 있는 경우 Oracle ACFS를 시작할 수 없음(11707611)
Oracle Solaris Cluster 프로젝트 공유 워크플로는 읽기/쓰기 프로젝트 아래에 있는 모든 공유를 반환해야 함(7041969)
startsrv가 실행되지 않는 경우 SAP startsap가 응용 프로그램 인스턴스를 시작하지 못함(7028069)
광채널 또는 iSCSI를 통해 Sun ZFS Storage Appliance를 쿼럼 장치로 사용 시의 문제(6966970)
ZFS 루트에서 라이브 업그레이드 후 클러스터 영역이 부트되지 않음(6955669)
Sun StorageTek Availability Suite
공용 인터페이스 오류 시 Failover_mode가 SOFT로 설정된 경우 자원 그룹이 페일오버되지 않음(7038727)
영역 클러스터에서 자원 유형 SUNW.scalable_acfs_proxy를 등록할 수 없음(7023590)
재부트 중 Oracle의 SPARC T3-4 오류(6993321)
영역 클러스터를 호스트하는 마지막 노드를 제거해도 클러스터 구성에서 영역 클러스터가 제거되지 않음(6969605)
정책이 pathcount인 경우 /dev/rmt가 없으면 예약 사용이 잘못됨(6920996)
값이 prefer3으로 변경되면 global_fencing 등록 정보 코드가 훼손됨(6879360)
Hybrid I/O를 사용하는 LDoms에서 자동 검색이 작동하지 않음(6870171)
복제된 장치-그룹 상태로 인해 스위치오버 및 스위치백이 실패할 경우 EMC SRDF 및 Hitachi TrueCopy Reject 스위치오버(6798901)
LB_STICKY_WILD 로드 균형 조정 정책으로 배율 조정 가능 자원을 구성하면 clsetup에 실패함(6773401)
클러스터 구성에서 노드를 제거하면 노드 패닉이 발생할 수 있음(6735924)
Solaris Security Toolkit이 클러스터 노드에 구성되어 있으면 scstat -i가 RPC 바인딩 실패 오류를 표시함(6727594)
DID를 결합할 때 유효성 확인이 더 필요함(6605101)
16중 노드 클러스터에서 Solaris Cluster Manager가 나타나지 않음(6594485)
영역 클러스터를 재부트한 후 RGM 재구성 전에 자원 그룹을 만들면 RGM 내에 불일치 상태 발생(7041222)
스크립트가 누락되어 Apache Tomcat이 시작되지 않음(7022690)
디스패처를 강제 종료한 후 같은 노드에서 SAP 웹 응용 프로그램 서버 기본 인스턴스를 온라인 상태로 만들 수 없음(7018400)
클러스터 파일 시스템이 있는 배율 조정 가능 자원 그룹에 구성된 HAStoragePlus 자원이 무한정 "Starting" 상태로 유지됨(6960386)
데이터베이스 수신기에 연결할 수 없는 경우 게이트웨이 프로브가 핑퐁(Ping Pong)됨(6927071)
배율 조정 가능 응용 프로그램이 영역 클러스터 간에 격리되지 않음(6911363)
clnas add 또는 clnas remove 명령을 여러 노드에서 동시에 실행하면 문제가 발생할 수 있음(6791618)
clresourcegroup add-node가 HAStoragePlus 자원을 트리거하여 Faulted 상태가 됨(6547896)
GDS가 비-PMF 서비스의 STOP 메소드에서 잘못된 종료 상태를 반환함(6831988)
설치 프로그램이 Ops Center 에이전트 JavaDB 데이터베이스에 해당하는 기존 패키지를 삭제합니다. (6956479)
cldevicegroup 상태가 항상 vucmm 프레임워크에 구성된 복수 소유자 Solaris Volume Manager 디스크 세트를 "offline"으로 표시함(6962196)
관련이 없는 IPMP 중지로 인해 ssm_start가 실패함(6938555)
ip-type=exclusive인 영역이 업그레이드 후에 SUNW.LogicalHostname 자원을 호스트할 수 없음(6702621)
Oracle Solaris Cluster 3.3 5/11 핵심 패치 적용
Oracle Solaris Cluster 3.3 5/11 핵심 패치 적용 방법
Oracle Solaris Cluster 3.3 5/11 핵심 패치 제거
Oracle Solaris Cluster 3.3 5/11 핵심 패치 제거 방법
Sun StorageTek 2530 어레이를 지원하는 클러스터의 패치
다음과 같은 알려진 문제 및 버그는 Oracle Solaris Cluster 3.3 5/11 릴리스 작동에 영향을 줍니다. 버그 및 문제는 다음 범주로 분류됩니다.
문제 요약: 프로브에 대해 ScalMountpoint 자원으로 페일오버 데이터 서비스(예: HA for Oracle)를 구성하고 NAS 저장 액세스 오류가 감지되고 네트워크 인터페이스가 손실(예: 케이블 연결 손실로 인한 손실)된 경우 모니터 프로브가 중단됩니다. Failover_mode 등록 정보가 SOFT로 설정되어 있으면 stop-failed 상태가 되고 자원이 페일오버되지 않습니다. 관련 오류 메시지는 다음과 유사합니다.
SC[SUNW.ScalMountPoint:3,scalmnt-rg,scal-oradata-11g-rs, /usr/cluster/lib/rgm/rt/scal_mountpoint/scal_mountpoint_probe]: Probing thread for mountpoint /oradata/11g is hanging for timeout period 300 seconds
해결 방법: 자원의 Failover_mode 등록 정보를 HARD로 변경합니다.
# clresource set -p Failover_mode=HARD ora-server-rs # clresource show -v ora-server-rs | grep Failover_mode Failover_mode: HARD
문제 요약: 현재 구현에는 RTR 파일에 대한 심볼릭 링크가 아니라 RTR 파일이 /usr/cluster/lib/rgm/rtreg 에 있어야 합니다.
해결 방법: 전역 클러스터의 한 노드에서 수퍼유저로 다음 명령을 수행합니다.
# cp /opt/SUNWscor/oracle_asm/etc/SUNW.scalable_acfs_proxy /usr/cluster/lib/rgm/rtreg/ # clrt register -Z zoneclustername SUNW.scalable_acfs_proxy # rm /usr/cluster/lib/rgm/rtreg/SUNW.scalable_acfs_proxy
문제 요약: 재부트하는 동안 4개의 프로세서를 사용하는 Oracle의 SPARC T3-4 서버가 Oracle Solaris Cluster 프레임워크에 연결하지 못합니다. 다음과 유사한 오류 메시지가 나타납니다.
Sep 20 15:18:53 svc.startd [8]: svc:/system/pools:default: Method or service exit timed out. Killing contract 29. Sep 20 15:18:53 svc.startd [8]: svc:/system/pools:default: Method "/lib/svc/method/svc-pools start" failed due to signal KILL. … Sep 20 15:20:55 solta svc.startd [8]: system/pools:default failed: transitioned to maintenance (see 'svcs -xv' for details) … Sep 20 15:22:12 solta INITGCHB: Given up waiting for rgmd. … Sep 20 15:23:12 solta Cluster.GCHB_resd: GCHB system error: scha_cluster_open failed with 18 Sep 20 15:23:12 solta : No such process
해결 방법: svccfg 명령을 사용하여 서비스 시간 초과 설정을 300초로 늘립니다. 그런 다음 비클러스터 모드로 부트하고 다음 명령을 수행합니다.
# svccfg -s svc:/system/pools setprop start/timeout_seconds = 300 # svcadm refresh svc:/system/pools
이러한 명령을 수행한 후 클러스터 모드로 부트합니다.
문제 요약: 영역 클러스터를 호스트하는 전역 클러스터의 마지막 노드인 전역-클러스터 노드를 제거해도 클러스터 구성에서 영역 클러스터가 제거되지 않습니다.
해결 방법: clnode remove -F 명령을 실행하여 전역-클러스터 노드를 삭제하기 전에 clzonecluster 명령을 사용하여 영역 클러스터를 삭제합니다.
문제 요약: 클러스터에 새 저장 장치가 추가되고 이 장치가 3개 이상의 DID 경로로 구성되면 cldevice populate 명령이 실행되는 노드가 해당 PGR 키를 장치에 등록하지 못할 수도 있습니다.
해결 방법: 모든 클러스터 노드에서 cldevice populate 명령을 실행하거나 같은 노드에서 cldevice populate 명령을 두 번 실행합니다.
문제 요약: 사용자가 보호(fencing) 등록 정보를 prefer3으로 설정하도록 허용하기 전에 Oracle Solaris Cluster에서 저장 장치가 SCSI-3 PGR을 완벽하게 지원하는지 검증하려고 시도합니다. 이 검증이 실패해야 하는데도 성공하는 경우가 있습니다.
해결 방법: 보호(fencing) 설정을 prefer3으로 변경하기 전에 Oracle Solaris Cluster에서 저장 장치를 SCSI PGR과 함께 사용하도록 인증했는지 확인합니다.
문제 요약: hybrid I/O를 사용하는 LDoms에서 클러스터 구성 중에 자동 검색이 클러스터 상호 연결을 위한 경로를 보고하지 않습니다.
해결 방법: 대화식 scinstall 유틸리티를 실행할 때 모든 노드를 단일 작업에서 구성하지 않고 스폰서 노드와 추가 노드를 분리된 작업에서 구성하도록 선택합니다. 유틸리티에 "Do you want to use autodiscovery?"라는 메시지가 나타나면 "no"로 답합니다. 그러면 scinstall 유틸리티에서 제공된 목록에서 전송 어뎁터를 선택할 수 있습니다.
문제 요약: 복제본 쌍이 COPY 상태인 Hitachi TrueCopy 장치 그룹이나, 복제본 쌍이 분리된 EMC SRDF 장치 그룹이 장치 그룹을 다른 노드로 스위치오버하려 하면 스위치오버가 실패합니다. 뿐만 아니라 복제본 쌍이 쌍으로 연결된 상태로 돌아갈 때까지 장치 그룹이 원래 노드에서 다시 온라인 상태가 될 수 없습니다.
해결 방법: 관련 Oracle Solaris Cluster 전역-장치 그룹을 다른 클러스터 노드로 스위치하기 전에 TrueCopy 복제본이 COPY 상태가 아닌지, 또는 SRDF 복제본이 분리되지 않았는지 검증합니다.
문제 요약: clsetup 유틸리티를 사용하여 자원에 로드 균형 조정 정책 LB_STICKY_WILD를 포함하도록 구성할 수 없습니다. 이 정책은 그 대신 LB_WILD로 설정됩니다.
해결 방법: 자원을 구성한 후에 clresource create 명령을 사용하여 로드 균형 조정 정책을 LB_STICKY_WILD로 변경합니다.
문제 요약: 남은 노드 중 하나가 클러스터를 벗어나거나 클러스터 구성에서 제거된 경우 3 노드 클러스터에서 2 노드 클러스터로 클러스터 구성을 변경하면 클러스터가 모두 손실될 수 있습니다.
해결 방법: 3중 노드 클러스터 구성에서 노드를 제거한 직후 남은 클러스터 노드 중 하나에서 cldevice clear 명령을 실행합니다.
문제 요약: Solaris Security Toolkit이 클러스터 노드에 구성되어 있으면 scstat -i 명령이 RPC 바인딩 실패 오류를 표시합니다. 오류 메시지는 다음과 유사합니다.
scrconf: RPC: Rpcbind failure - RPC: Authentication error Other Sun Cluster commands that use RPC, such as clsnmpuser, might also fail.
해결 방법: 클러스터 개인 호스트명 또는 클러스터 개인 호스트명과 연결된 IP 주소를 /etc/hosts.allow 파일에 추가합니다.
문제 요약: scdidadm 및 cldevice 명령은 단일 DID 장치로 결합되는 SRDF 복제 장치가 실제로 상호 간의 복제본이며 지정한 복제 그룹에 속하는지 여부를 확인할 수 없습니다.
해결 방법: SRDF와 함께 사용하기 위해 DID 장치를 결합할 때 주의합니다. 지정한 DID 장치 인스턴스가 상호 간의 복제본이며 해당 복제 그룹에 속하는지 확인해야 합니다.
문제 요약: 16중 노드 클러스터의 경우 Oracle Solaris Cluster Manager GUI를 사용할 수 없습니다.
해결 방법: 대신 clsetup 유틸리티를 사용하거나 Oracle Solaris Cluster 유지 보수 명령을 사용합니다.
문제 요약: 영역 클러스터 재부트 직후 자원 그룹을 만들거나 편집하거나 삭제하면 RGM(Resource Group Manager)이 불일치 상태가 되어 향후 작업이 자원 그룹에서 실패할 수 있습니다. 최악의 경우 이 오류로 인해 전역 클러스터의 노드가 패닉 상태가되고 재부트될 수 있습니다.
이 문제는 영역 클러스터의 모든 노드가 한 번에 재부트된 후에 발생할 수 있습니다. 일부 노드만 재부트되고 나머지 노드는 계속 작동하면 이 문제는 발생하지 않습니다. 영역 클러스터 시작 직후 자원 그룹 업데이트가 실행되면 전체 물리적 클러스터가 재부트될 때도 이 문제가 발생할 수 있습니다.
다음은 이러한 오류를 발생시킬 수 있는 명령입니다.
clresource create
clresource delete
clresource set
clresourcegroup create
clresourcegroup delete
clresourcegroup set
해결 방법: 이 문제를 방지하려면 위의 명령을 실행하기 전에 영역 클러스터가 안정된 상태가 되도록 영역 클러스터를 재부트한 후 잠시 기다립니다.
물리적 클러스터의 모든 노드를 재부트하는 경우 위의 명령을 실행하기 전에 모든 영역 클러스터 노드가 클러스터를 결합했음을 나타내는 콘솔 메시지가 표시될 때까지 잠시 더 기다립니다. 콘솔 메시지가 다음과 유사하게 표시됩니다.
May 5 17:30:49 phys-schost-4 cl_runtime: NOTICE: Membership : Node 'zc-host-2' (node id 2) of cluster 'schost' joined.
일부 노드만 재부트되고 나머지 노드는 계속 작동하면 추가 지연 시간이 필요 없습니다.
문제 요약: HA for Apache Tomcat이 페일오버 영역 맨 위에 구성된 경우 Oracle Solaris Cluster HA for Apache Tomcat의 자원 그룹 및 자원을 설치하고 만든 후에 서비스를 시작할 수 없습니다.
해결 방법: Oracle 지원 담당자에게 연락하여 누락된 스크립트를 받습니다.
문제 요약: SAP 커널 7.11과 함께 실행하는 대화 상자 인스턴스의 디스패처를 강제 종료하면 SAP 웹 응용 프로그램 서버 에이전트가 같은 노드에서 대화 상자 인스턴스를 다시 시작할 수 없습니다. 두 번의 재시도 후에 페일오버되고 다른 노드에서 시작하는 데 성공합니다. 근본 원인은 SAP 커널 7.11과 함께 사용할 때, cleanipc 명령을 사용하려면 cleanipc를 실행하기 전에 LD_LIBRARY_PATH를 설정해야 하기 때문입니다.
해결 방법: webas 자원의 Webas_Startup_Script에서 LD_LIBRARY_PATH의 설정 및 cleanipc의 실행을 삽입합니다. 예를 들어 SAP SID가 FIT이고 인스턴스가 03인 경우 Webas_Startup_script 등록 정보에서 webas 자원에 등록된 시작 스크립트에 삽입할 코드는 다음과 같습니다.
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/sap/FIT/SYS/exe/run export LD_LIBRARY_PATH /usr/sap/FIT/SYS/exe/run/cleanipc 03 remove
문제 요약: 클러스터 파일 시스템에 대한 /etc/vfstab 파일 입력 항목의 mount-at-boot 값이 no이고 클러스터 파일 시스템이 확장 가능 자원 그룹에 속하는 SUNW.HAStoragePlus 자원에 구성된 경우 SUNW.HAStoragePlus 자원이 온라인 상태가 되지 못한다. prenet_start_method가 시간 초과될 때까지 자원이 Starting 상태에 있습니다.
해결 방법: 클러스터 파일 시스템에 대한 /etc/vfstab 파일의 입력 항목에서 mount-at-boot 값을 yes로 설정합니다.
문제 요약: Siebel 8.1.1에서는 게이트웨이 서버에 데이터베이스에 대한 종속성이 있습니다. 데이터베이스 수신기를 호스트하는 시스템에 연결할 수 없는 경우 게이트웨이 프로브로 인해 핑퐁(Ping Pong) 간격에 도달할 때까지 리소스 그룹이 핑퐁됩니다.
해결 방법: 데이터베이스 수신기를 게이트웨이와 함께 배치하면 이 문제가 완화됩니다. 또는 데이터베이스가 외부 클러스터 제어기 외부에서 실행되는 경우 데이터베이스 수신기를 호스트하는 시스템이 가동되어 실행되고 있는지 확인합니다.
문제 요약: 다른 영역 클러스터에서 실행하도록 구성된 확장 가능한 응용 프로그램이 INADDR_ANY에 바인드하고 같은 포트를 사용하는 경우 확장 가능한 서비스가 다른 영역 클러스터에서 실행되는 이러한 응용 프로그램의 인스턴스를 구별할 수 없습니다.
해결 방법: 확장 가능한 응용 프로그램을 INADDR_ANY에 로컬 IP 주소로 바인드하거나 다른 확장 가능한 응용 프로그램과 충돌하지 않는 포트에 바인드하도록 구성하지 마십시오.
NAS 장치를 추가하거나 제거할 때 clnas add 또는 clnas remove 명령을 여러 노드에서 동시에 실행하면 NAS 구성 파일이 손상될 수 있습니다.
해결 방법: 한 번에 한 노드에서만 clnas add 또는 clnas remove 명령을 실행합니다.
문제 요약: ZFS 풀이 구성된 HAStoragePlus 자원을 포함하는 자원 그룹의 노드 목록에 native 상표 비전역 영역을 추가하면 HAStoragePlus 자원이 Faulted 상태가 될 수 있습니다. 이 문제는 native 영역을 호스트하는 물리적 노드가 자원-그룹 노드 목록의 일부일 때만 발생합니다.
해결 방법: 오류가 발생한 HAStoragePlus 자원이 포함된 자원 그룹을 다시 시작합니다.
# clresourcegroup restart faulted-resourcegroup
문제 요약: 일반 데이터 서비스(GDS) 데이터 서비스 중지 스크립트는 Stop 메소드 오류를 발생시킬 수 없습니다. 중지 스크립트가 비제로로 종료되면 GDS Stop 메소드 리소스 데몬을 강제 종료하려고 시도합니다. 강제 종료에 성공하면 정지 스크립트가 실패하더라도 Stop 메소드가 성공적으로 종료됩니다. 그 결과 정지 스크립트가 Stop 메소드 오류를 프로그래밍 방식으로 발생시킬 수 없습니다.
해결 방법: GDS 정지 스크립트는 clresourcegroup quiesce -k rgname 명령을 실행합니다. 여기서, rgname은 GDS 리소스가 포함된 자원 그룹의 이름입니다. -k 옵션을 사용하면 rgmd 데몬이 현재 실행 중인 GDS Stop 메소드를 강제 종료합니다. 그러면 GDS 자원이 STOP_FAILED 상태로 이동되고, 자원 그룹이 ERROR_STOP_FAILED 상태로 이동됩니다.
다음은 이 해결 방법의 제한 사항입니다.
clresourcegroup quiesce 명령은 자원의 Failover_mode를 HARD로 설정하더라도 노드가 재부트되는 것을 방지합니다. 재부트 동작이 필요한 경우 GDS 정지 스크립트가 Failover_mode 등록 정보를 질의할 수 있으며, 등록 정보가 HARD로 설정되면 정지 스크립트가 실행 중인 노드나 비전역 영역을 직접 재부트할 수 있습니다.
이 해결 방법은 한 번에 한 노드에 대해서만 정지할 수 있는 페일오버 자원 그룹에 가장 적합합니다. 다중 마스터 자원 그룹의 경우에는 GDS 자원이 여러 노드에서 동시에 정지할 수도 있습니다. 그런 경우 clresourcegroup quiesce -k 명령을 실행하면 로컬 노드에서 실행 중인 메소드뿐 아니라 여러 노드에서 실행 중인 Stop 메소드가 모두 강제 종료됩니다.
문제 요약: Oracle Solaris 10용 Oracle Enterprise Manager Ops Center 에이전트가 구성 데이터베이스용으로 JavaDB 소프트웨어를 사용합니다. installer 유틸리티를 사용하여 Oracle Solaris Cluster 소프트웨어를 설치할 때 JavaDB 소프트웨어 패키지가 재설치되어 기존 에이전트 구성 데이터베이스가 삭제됩니다.
패키지가 삭제되면 Ops Center 에이전트에서 다음 오류 메시지가 보고됩니다.
java.sql.SQLException: Database '/var/opt/sun/xvm/agentdb' not found. at org.apache.derby.impl.jdbc.SQLExceptionFactory40.getSQLException(Unknown Source) at org.apache.derby.impl.jdbc.Util.newEmbedSQLException(Unknown Source) at org.apache.derby.impl.jdbc.Util.newEmbedSQLException(Unknown Source)
이 에이전트는 이제 손상되었으므로 구성 해제하거나 구성해야 합니다.
해결 방법: Oracle Solaris Cluster 매체의 다음 추가 JavaDB 패키지를 모든 클러스터 노드에 수동으로 설치합니다.
SUNWjavadb-demo
SUNWjavadb-javadoc
SUNWjavadb-docs
SUNWjavadb-client
installer 유틸리티를 실행하면 기존 JavaDB 데이터베이스 패키지가 제거되지 않습니다.
문제 요약: 중국어 간체와 중국어 번체 로켈에서 installer 유틸리티를 사용하여 Oracle Solaris Cluster 소프트웨어를 설치할 때 시스템 요구 사항을 확인하는 이 소프트웨어에서 스왑 공간을 0MB로 보고합니다.
해결 방법: 보고된 이 정보를 무시합니다. 이러한 로켈에서는 다음 명령을 실행하여 올바른 스왑 공간을 확인할 수 있습니다.
# df -h | grep swap
문제 요약: vucmm 프레임워크에 복수 소유자 Solaris Volume Manager 디스크 세트가 구성되어 있는 경우 cldevicegroup status 명령이 디스크 세트의 실제 상태와 상관없이 항상 디스크 세트를 offline으로 표시합니다.
해결 방법: 복수 소유자 디스크 세트의 상태는 metastat -s diskset 명령을 사용하여 확인합니다.
문제 요약: SUNW.SharedAddress 자원에 종속된 확장 가능한 자원이 공유 주소 자원에서 사용하지 않는 서브넷에 있는 IPMP 그룹의 오류로 인해 온라인 상태가 되지 않습니다. 클러스터 노드의 syslog에 다음과 유사한 메시지가 표시됩니다.
Mar 22 12:37:51 schost1 SC SUNW.gds:5,Traffic_voip373,Scal_service_voip373,SSM_START: ID 639855 daemon.error IPMP group sc_ipmp1 has status DOWN. Assuming this node cannot respond to client requests.
해결 방법: 실패한 IPMP 그룹을 복구하고 실패한 확장 가능 리소스를 다시 시작합니다.
문제 요약: 버전 2(버전을 표시하려면 clresourcetype list 명령 사용)에 자원 유형 SUNW.LogicalHostname이 등록된 경우 이 문제가 발생합니다. 업그레이드 후에 ip-type=exclusive를 사용하여 비전역 영역에 논리적 호스트명 자원을 만들 수 있지만 논리적 호스트명(예: telnet 또는 rsh)에 대한 네트워크 액세스가 작동하지 않습니다.
해결 방법: 다음 단계를 수행합니다.
논리적 호스트명 자원을 호스트하는 ip-type=exclusive를 사용하여 비전역 영역이 포함된 노드 목록이 있는 모든 자원 그룹을 삭제합니다.
SUNW.LogicalHostname 자원 유형을 버전 3 이상으로 업그레이드합니다.
# clresourcetype register SUNW.LogicalHostname:3