Solaris OS용 Sun Cluster 3.2 릴리스 노트

Solaris OS용 Sun Cluster 3.2 릴리스 노트

이 문서는 SunTM Cluster 3.2 소프트웨어에 대한 다음 정보를 제공합니다.

Sun Cluster 3.2 소프트웨어의 새 기능

이 절에서는 Sun Cluster 3.2 소프트웨어의 새로운 특징, 기능 및 지원 제품에 대해 설명합니다. 또한 이 릴리스에 도입된 제한 사항에 대한 정보를 설명합니다.

새로운 특징 및 기능

이 절에서는 다음에 나타난 Sun Cluster 3.2 소프트웨어의 새로운 특징을 각각 설명합니다.

새로운 Sun Cluster 객체 지향 명령 세트

새 Sun Cluster 명령줄 인터페이스는 각 클러스터 객체 유형에 대해 별도의 명령을 포함하고 있으며, 일관성있는 하위 명령 이름 및 문자 옵션을 사용합니다. 또한, 새 Sun Cluster 명령 세트는 장문형과 단문형의 명령 이름을 지원합니다. 명령 출력 시, 가독성이 향상된 상태 및 구성 보고서는 물론 개선된 도움말 및 오류 메시지를 제공합니다. 그리고, 일부 명령에는 이식 가능한 XML 기반 구성 파일의 사용을 통한 가져오기 옵션 및 내보내기 옵션이 포함되어 있습니다. 이 옵션을 사용하면 부분 또는 전체 클러스터 구성을 복제할 수 있으며 이는 부분적 또는 전체적 구성 복제의 속도를 높여줍니다. 자세한 내용은 Intro(1CL) 매뉴얼 페이지를 참조하십시오.

Oracle RAC 10g 향상된 통합 및 관리

이제, Sun Cluster Oracle RAC 패키지의 설치 및 구성이 Sun Cluster 프로시저에 통합되었습니다. 새 Oracle RAC 지정 자원 유형 및 등록 정보는 더욱 정밀해진 제어를 위해 사용됩니다.

ScalDeviceGroupScalMountPoint 자원 유형이 제공하는 확장된 Oracle RAC 관리성을 통해 Sun Cluster 구성 내의 Oracle RAC 설정이 용이해지고 진단성과 가용성이 향상됩니다. 자세한 내용은 Sun Cluster Data Service for Oracle RAC Guide for Solaris OS를 참조하십시오.

데이터 서비스 구성 마법사

Sun Cluster는 매개 변수 선택의 자동 검색 및 즉시 검증을 통해 일반적으로 사용하는 응용 프로그램의 구성을 단순화하는 새로운 데이터 서비스 구성 마법사를 제공합니다. Sun Cluster 데이터 서비스 구성 마법사는 다음 두 가지 형식으로 제공됩니다.

다음 데이터 서비스는 Sun Cluster Manager GUI 형식으로 지원됩니다.

clsetup 명령줄 인터페이스 형식은 Sun Cluster Manager에서 지원하는 모든 응용 프로그램을 지원합니다.

자세한 내용은 지원되는 각각의 데이터 서비스에 대한 Sun Cluster 문서를 참조하십시오.

융통성 있는 IP 주소 체계

이제 Sun Cluster 소프트웨어는 개인 간 상호 연결에 대해 IP 주소의 감소된 범위를 허용합니다. 또한, IP 기반 주소 및 해당 범위를 설치 중이나 설치 후에 사용자 정의할 수 있습니다.

IP 주소 체계의 이러한 변경은 주소 공간이 제한되었거나 규제된 기존의 네트워크에서 Sun Cluster 환경의 통합을 용이하게 합니다. 자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서기존 클러스터의 개인 네트워크 주소 또는 주소 범위를 변경하는 방법을 참조하십시오.

서비스 관리 기능 서비스에 대한 Sun Cluster 지원

Sun Cluster 소프트웨어는 이제 Solaris 10 OS SMF(서비스 관리 기능)와 밀접하게 통합되고 Sun Cluster 자원 관리 모델에서 SMF 제어 응용 프로그램의 캡슐화를 가능하게 해 줍니다. 로컬 서비스 레벨의 수명 주기 관리는 SMF에 의해 수행되며, 전체 자원 레벨의 클러스터 전반에 걸친 실패 처리 작업(노드, 저장소)은 Sun Cluster 소프트웨어에 의해 수행됩니다.

단일 노드 Solaris 10 OS 환경에서 다중 노드 Sun Cluster 환경으로 응용 프로그램을 이동하면 최소의 노력으로 가용성을 증가시킬 수 있습니다. 자세한 내용은 Sun Cluster Data Services Planning and Administration Guide for Solaris OS Enabling Solaris SMF Services to Run With Sun Cluster를 참조하십시오.

보호 프로토콜을 위한 확장된 유연성

새로운 이 기능을 사용하면 기본 보호 프로토콜을 사용자 정의할 수 있습니다. SCSI-3, SCSI-2 또는 장치별 검색을 선택할 수 있습니다.

이러한 유연성을 통해, Sun Cluster 3.0 또는 3.1의 동작과 이전 장치용 SCSI-2를 계속 지원하면서도 향상된 다중 경로 지원을 위한 최신 프로토콜인 SCSI-3의 기본 사용, 비 Sun 저장소와의 용이한 통합 및 새 저장소의 복구 시간 단축이 가능해집니다. 자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서저장소 장치에 대한 SCSI 프로토콜 설정 관리를 참조하십시오.

Sun Cluster Quorum Server

Sun Cluster 소프트웨어에서 이제 새 쿼럼 장치 옵션을 사용할 수 있습니다. 이제 공유 디스크 및 SCSI 예약 프로토콜을 사용하는 대신, TCP/IP를 통해 원자 예약(atomic reservation) 프로토콜을 지원하는 쿼럼 서버 모듈을 실행하도록 클러스터 외부의 Solaris 서버를 사용할 수 있습니다. 이 지원을 통해 장애 복구 시간은 빨라지고 배포 비용은 저렴해집니다. 쿼럼이 필요하거나(두 개의 노드) 요구되는 모든 상황에서 공유 쿼럼 디스크가 필요하지 않게 됩니다. 자세한 내용은 Sun Cluster Quorum Server User’s Guide를 참조하십시오.

디스크 경로 실패 처리

이제 공유 디스크에 대한 모든 경로가 실패할 경우 Sun Cluster 소프트웨어가 노드를 자동으로 재부트하도록 구성할 수 있습니다. 심각한 디스크 경로 실패가 나타나는 경우 빠르게 대처하여 가용성이 향상됩니다. 자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서디스크 경로 모니터링 관리를 참조하십시오.

HAStoragePlus 가용성 향상

이제 마운트가 실패할 경우 HAStoragePlus 마운트 지점이 자동으로 생성됩니다. 이 기능은 장애 복구 실패 가능성을 제거하여 환경 가용성을 향상시킵니다.

Solaris 영역의 확장된 지원

이제 Sun Cluster 소프트웨어는 Solaris 비전역 영역에서 다음 데이터 서비스를 지원합니다.

이 서비스는 Solaris 영역이 제공하는 응용 프로그램 억제의 장점을 조합하여 Sun Cluster 소프트웨어가 향상된 가용성을 제공하도록 합니다. 자세한 내용은 해당 데이터 서비스에 대한 Sun Cluster 문서를 참조하십시오.

ZFS

ZFS는 Sun Cluster 3.2 릴리스에서 고가용성 로컬 파일 시스템으로 지원됩니다. Sun Cluster 소프트웨어와 함께 ZFS는 고가용성, 데이터 무결성, 성능 및 확장성이 결합된 최상의 클래스 파일 시스템 솔루션을 제공하여 요구 사항이 가장 많은 환경에 적용될 수 있습니다.

데이터베이스 트랜잭션 등 모든 작업 부하의 수행을 최적화하도록 ZFS는 지속적으로 향상되고 있습니다. 최신 ZFS 패치가 설치되어 있고 구성이 특정 유형의 작업 부하에 대해 최적화되었는지를 확인합니다.

HDS TrueCopy 캠퍼스 클러스터

이제 Sun Cluster 기반 캠퍼스 클러스터는 TrueCopy 구성의 자동 관리를 허용하도록 HDS TrueCopy 제어기 기반 복제를 지원합니다. Sun Cluster 소프트웨어는 장애 복구 시 보조 캠퍼스 사이트로 명확하게 자동 전환 처리되어 프로시저의 오류를 보다 적게 하고 솔루션의 전체적인 가용성을 향상시킵니다. 이 새 원격 데이터 복제 기반 구조를 사용하면 TrueCopy와 같은 특정 복제 기반 구조에서 표준화한 고객 및 거리 또는 응용 프로그램의 비호환성으로 인해 호스트 기반 복제를 실행할 수 없는 장소를 위해 Sun Cluster 소프트웨어에서 새로운 구성을 지원할 수 있습니다.

이 새로운 결합으로 인해 비용은 줄어들면서도 가용성이 향상되고 복잡성이 줄어듭니다. Sun Cluster 소프트웨어는 추가적 복제 솔루션의 필요를 제한하는 기존의 TrueCopy 사용자 복제 기반 구조를 사용하게 할 수 있습니다.

사양 기반 캠퍼스 클러스터

이제 사양 기반 캠퍼스 클러스터는 더 광범위한 거리 구성을 지원합니다. 이러한 클러스터는 엄격한 거리 및 구성 요소의 설정보다는 대기 시간 및 오류율 준수를 요구하여 구성을 지원합니다.

자세한 내용은 Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS의 7 장, Campus Clustering With Sun Cluster Software을 참조하십시오.

멀티테라바이트 디스크 및 EFI(Extensible Firmware Interface) 레이블 지원

이제 Sun Cluster 구성은 새 EFI 디스크 형식을 사용하는, 1TB가 넘는 용량의 디스크를 지원합니다. 멀티테라바이트 디스크에는 이 형식이 필요하지만 보다 작은 용량의 디스크를 사용할 수도 있습니다. 이러한 새 기능은 지원되는 Sun Cluster 구성을 하이엔드 저장소가 요구되는 환경으로 확장시킵니다.

VERITAS 소프트웨어 구성 요소를 위한 확장된 지원

x86/x64 플랫폼에서 Solaris 10 OS가 있는 VERITAS Volume Manager 4.1이 지원되는 것은 물론, VERITAS Storage Foundation 5.0의 일부분인 VERITAS Volume Manager 및 파일 시스템이 SPARC 플랫폼에서 지원됩니다.

VERITAS Volume Replicator(VVR) 5.0과 VERITAS FlashSnap의 일부인 VERITAS Fast Mirror Resynchronization(FMR) 4.1 및 5.0을 이제 SPARC 플랫폼의 Sun Cluster 환경에서 사용할 수 있습니다.

쿼터 지원

이제 쿼터 관리 시 자원의 소비를 보다 잘 제어하기 위해 로컬 UFS 파일 시스템에서 HAStoragePlus를 함께 사용할 수 있습니다.

Oracle DataGuard 지원

이제 Sun Cluster 소프트웨어는 DataGuard 데이터 복제 소프트웨어를 포함하여 Oracle 배포를 위한 향상된 사용성을 제공합니다. 이제 고객은 Oracle DataGuard 구성의 일부가 될 HA-Oracle 데이터베이스를 기본 또는 대기 사이트로 지정할 수 있습니다. 이 보조 데이터베이스는 논리적 또는 물리적 대기일 수 있습니다. 자세한 내용은 Sun Cluster Data Service for Oracle Guide for Solaris OS를 참조하십시오.


주 –

HA-Oracle 에이전트가 대기 데이터베이스를 관리할 때, 에이전트는 해당 데이터베이스의 시작, 중지 및 모니터링만 제어합니다. 다른 노드로 장애 복구될 경우, 에이전트는 대기 데이터베이스의 복구를 다시 초기화하지 않습니다.


이중 분할 영역 업그레이드

새로운 소프트웨어의 스왑 기능으로 인해 업그레이드 프로세스가 크게 간소화되었습니다. 다음 Sun Cluster 소프트웨어와 함께 누적된 소프트웨어의 모든 구성 요소를 한 단계만을 실행하여 업그레이드할 수 있습니다. 이러한 구성 요소에는 Solaris 운영 체제, Sun Cluster 소프트웨어, 파일 시스템, 볼륨 관리자, 응용 프로그램 및 데이터 서비스 등이 있습니다. 이러한 자동화는 클러스터 업그레이드 시 사용자가 오류를 범할 위험성을 낮추고 표준 클러스터 업그레이드 시 발생하는 서비스 운용 중지를 최소화합니다.

Live Upgrade

이제 Sun Cluster 소프트웨어에서 Live Upgrade 방법을 사용할 수 있습니다. 이 방법은 불필요한 재부트는 물론 업그레이드 동안 노드의 시스템 작동 중지 시간을 줄여주므로 서비스가 위험에 노출되는 필수 유지 보수 창이 줄어듭니다.

발행 시에는 저장소 또는 디스크 그룹을 관리하기 위해 Sun Cluster에서 Solaris Volume Manager를 사용하는 경우에만 Live Upgrade를 사용할 수 있습니다. Live Upgrade는 현재 VxVM을 지원하지 않습니다. 자세한 내용은 업그레이드를 참조하십시오.

Solaris 8에서 Solaris 9로 Live Upgrade를 수행하려면 항상 대체 루트에서 재부트하기 전에 SVM 패치 116669-18을 적용해야 합니다.

선택적 Sun Cluster 관리 설치

이제 Sun Cluster 관리자 및 Sun Cluster 관리 GUI는 선택 사항입니다. 이러한 변경은 클러스터에 대한 웹 기반 액세스를 제거하여 잠재적인 보안 규칙을 따릅니다. 설치 시 Sun Cluster Manager의 선택 해제에 대한 자세한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법을 참조하십시오.

SNMP 이벤트 MIB

Sun Cluster 소프트웨어에는 새 SNMP MIB는 물론 새로운 Sun Cluster SNMP 이벤트 메커니즘이 포함되어 있습니다. 이러한 새 기능으로 타사 SNMP 관리 응용 프로그램에서도 이제 Sun Cluster 소프트웨어를 직접 등록하고 클러스터 이벤트에 대한 알림을 적시에 수신할 수 있습니다. 표준 SNMP 지원을 통한 상세한 이벤트 알림 및 타사 엔터프라이즈 관리 프레임워크와의 직접 통합으로 인해 혁신적인 모니터링 및 가용성의 향상이 가능합니다. 자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서Sun Cluster SNMP 이벤트 MIB 생성, 설정 및 관리를 참조하십시오.

명령 로깅

이제 명령 정보를 Sun Cluster 소프트웨어에 기록할 수 있습니다. 이 기능은 클러스터 실패의 진단을 용이하게 하고 아카이브 또는 복제에 대한 관리 작업 내역을 제공합니다. 자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서Sun Cluster 명령 로그 내용을 보는 방법을 참조하십시오.

작업 부하 시스템 자원 모니터링

Sun Cluster 소프트웨어는 노드, 자원 및 자원 그룹 당 상세한 소모량 측정을 포함하는 새 시스템 자원 이용량 측정 및 시각화 도구를 제공합니다. 이 새로운 도구들은 임계값 관리, CPU 예약과 제어는 물론 내역 데이터를 제공합니다. 향상된 제어로 서비스 레벨 및 용량 관리가 더 원활해집니다.

scinstall을 사용한 다중 어댑터 IPMP 그룹 자동 생성

이제 대화식 scinstall 유틸리티에서 각 서브넷에서 사용할 수 있는 어댑터에 따라 각 공용 네트워크 어댑터 세트에 단일 어댑터 또는 다중 어댑터 IPMP 그룹을 구성할 수 있습니다. 이 기능은 해당 서브넷에 관계 없이 사용 가능한 각 어댑터에 하나의 단일 어댑터 IPMP 그룹을 생성한 유틸리티의 이전 동작을 대체합니다. 위의 내용 및 IPMP 그룹 정책 변경에 대한 자세한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서공용 네트워크를 참조하십시오.

Cluster Control Panel 소프트웨어에 대한 Secure Shell 지원

Secure Shell에 대한 지원이 다음 기능으로 CCP(Cluster Control Panel)에 추가됩니다.

CCP의 Secure Shell 기능 준비 및 사용에 대한 자세한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어를 설치하는 방법을 참조하십시오. 관련 매뉴얼 페이지에 대한 업데이트는 ccp(1M), cconsole(1M), crlogin(1M), cssh(1M) 및 ctelnet(1M) serialports(4)를 참조하십시오.

하나의 클러스터 상호 연결에 대한 새로운 최소 요구 사항

클러스터에 있어야 할 클러스터 상호 연결의 최소 요구 수가 클러스터 노드 사이의 하나의 클러스터 상호 연결로 변경됩니다. 대화식 scinstall 유틸리티는 사용자 정의 모드에서 유틸리티를 사용할 때 하나의 상호 연결의 구성만 허용하도록 수정됩니다. 유틸리티의 일반 모드를 사용하려면 두 개의 상호 연결을 구성해야 합니다. 자세한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서클러스터 상호 연결을 참조하십시오.

장애 복구 서비스에 대한 IP 필터 지원

Sun Cluster 3.2 소프트웨어는 장애 복구 서비스에 대한 Solaris IP 필터를 지원합니다. Solaris IP 필터는 상태 기반 패킷 필터링 및 네트워크 주소 변환(NAT)을 제공합니다. 또한 Solaris IP 필터에는 주소 풀을 생성하고 관리하는 기능이 포함되어 있습니다. Solaris IP 필터에 대한 자세한 내용은 System Administration Guide: IP Services의 제IV부, IP Security을 참조하십시오. Sun Cluster 소프트웨어에서 IP 필터링 설정 방법에 대한 자세한 내용은 Sun Cluster에서 Solaris IP 필터링 사용을 참조하십시오.

제한사항

NetApp NAS 경계 지정 제한사항

경계 지정 기능에서는 NetApp NAS 단위에 액세스할 때 각 클러스터 노드에서 항상 동일한 소스 IP 주소를 사용해야 합니다. 멀티 홈(Multi-homed) 시스템은 여러 소스 IP 주소를 사용합니다. 멀티 홈 시스템의 관리자는 NetApp NAS 단위에 액세스할 때 항상 하나의 소스 IP 주소가 사용되는지 확인해야 합니다. 이 작업은 적절한 네트워크 구성을 설정하여 수행합니다.

호환성 문제

이 절에서는 더 이상 지원되지 않는 기능 등 Sun Cluster 호환성 문제에 대해 설명합니다.

사용할 수 없게 되는 기능

다음 기능은 Sun Cluster 3.2 소프트웨어에서 대부분 사용할 수 없게 됩니다.

Sun Cluster 3.0

Sun Cluster 3.2 릴리스에서 Sun Cluster 3.0은 사용이 중단됩니다. Sun Cluster 3.0 부품 번호는 더 이상 사용할 수 없습니다.

Solaris 8

Sun Cluster 3.2부터는 Sun Cluster가 더 이상 Solaris 8을 지원하지 않습니다.

롤링 업그레이드

Sun Cluster를 이후의 마이너 릴리스로 업그레이드하는 데 롤링 업그레이드 기능을 사용할 수 없게 됩니다. 이러한 경우에는 해당 소프트웨어 업그레이드 중 클러스터의 운용 중지를 제한하도록 고안된 다른 프로시저가 제공됩니다.

sccheck

sccheck 명령은 차후 릴리스에 포함되지 않을 수도 있습니다. 그러나 해당 기능은 cluster check 명령에 의해 제공됩니다.

Solaris 10 11/06 OS

다음 알려진 문제점은 Solaris 10 11/06 OS를 사용하는 Sun Cluster 3.2 릴리스 작업에 영향을 줄 수 있습니다. 이러한 문제를 수정하기 위한 필수 Solaris 패치를 구하려면 Sun 대리점에 문의하십시오. 자세한 내용은 Infodoc 87995를 참조하십시오.


주의 – 주의 –

Solaris 패치를 적용하기 전에 운영 체제를 Solaris 10 11/06으로 업그레이드해야 합니다.


6252216

rpcbind 서버가 재시작된 후 metaset 명령이 실패합니다.

6331216

디스크 세트: devid 정보가 새로 작성된 디스크 세트에 기록되지 않았습니다.

6345158

단계 cmmstep5의 오류 1과 함께 svm이 종료되었습니다(노드 패닉).

6367777

fsck: svc:/system/filesystem/usr이 마일스톤 none 시작에 실패합니다.

6401357

SVM(Solaris Volume Manager)이 클러스터가 x86에서 업그레이드 된 후 메타 세트를 표시하지 않습니다.

6402556

commd 시간 초과는 metaclust 시간 초과 값의 백분율입니다.

6474029

metaset -s diskset -t는 재부트 후 클러스터 노드의 소유권을 가져와야 합니다.

6496941

Sun Cluster nodeid 파일이 분실되어도 SVM이 디스크 세트를 계속 제거합니다.

6367777

fsck* svc:/systsem/filesystem/usr이 마일스톤으로부터의 시작을 실패합니다.

6367948

fsck_ufs(1M)에는 이미 마운트된 파일을 처리할 때 니트를 가집니다.

6425930

CMM과 함께 노드 패닉:클러스터가 amd64에서 작업 쿼럼을 손실함.

6361537

create_ramdisk: offset -1을 찾을 수 없음.

6393691

filelist.ramdisk에 etc/cluster/nodeid 항목을 추가합니다.

6344611

create_ramdisk는 분실된 파일 또는 분실된 디렉토리에 대하여 더 적절하게 반응해야 합니다.

6462748

devfsadm 링크 제거는 완전한 개입 지원을 제공하지 않습니다.

fssnap 지원

Sun Cluster는 UFS의 기능인 fssnap를 지원하지 않습니다. Sun Cluster에 의해 제어되지 않는 로컬 시스템에서 fssnap를 사용할 수 있습니다. 다음 제한사항이 fssnap 지원에 적용됩니다.

Solaris Volume Manager GUI

Solaris Management Console(Solaris Volume Manager)의 Enhanced Storage 모듈은 Sun Cluster 소프트웨어와 호환되지 않습니다. 명령줄 인터페이스 또는 Sun Cluster 유틸리티를 사용하여 Solaris Volume Manager 소프트웨어를 구성하십시오.

LOFS(Loopback File System)

Sun Cluster 3.2 소프트웨어는 특정 조건에서 LOFS 사용을 지원하지 않습니다. 비전역 영역을 구성하는 경우와 같이 클러스터 노드에서 LOFS를 사용해야 하는 경우, 먼저 LOFS 제한 사항이 사용자 구성에 적용되는지를 판별합니다. 제한 조건이 있는 경우 LOFS 사용을 허용하는 제한 사항 및 해결 방법에 대한 자세한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서Solaris OS 기능 제한 사항에 있는 지침을 참조하십시오.

내게 필요한 옵션 기능

이 매체를 발행한 이후 릴리스된 내게 필요한 옵션 기능을 사용하려는 경우, Sun에 요청하여 구할 수 있는 섹션 508 제품 평가를 참조하여 관련 솔루션을 배포하는 데 가장 적합한 버전을 확인하십시오.

이 릴리스에서 수정된 명령

이 절에서는 사용자 스크립트 실패를 발생시킬 수 있는 Sun Cluster 명령 인터페이스에 대한 변경 사항을 설명합니다.

객체 지향 명령줄 인터페이스

Sun Cluster 3.2 릴리스부터 Sun Cluster 소프트웨어에는 객체 지향 명령 세트가 포함됩니다. Sun Cluster 소프트웨어가 원래의 명령 세트를 계속 지원하지만 Sun Cluster 프로시저 문서에서는 객체 지향 명령 세트만 사용합니다. 객체 지향 명령 세트에 대한 자세한 내용은 Intro(1CL) 매뉴얼 페이지를 참조하십시오. 일반적인 Sun Cluster 프로시저에 대한 객체 지향 명령 목록은 Sun Cluster Quick Reference를 참조하십시오.

scinstall 명령

scinstall 명령에 대한 다음 옵션이 Sun Cluster 3.2 릴리스에서 변경되었습니다.

scconf 명령

공유 로컬 쿼럼 장치(SCSI)와 다른 유형의 쿼럼 장치(NetApp NAS 장치 포함)의 구분을 위해 scconf 명령의 -q 옵션이 수정되었습니다. 클러스터에서 공유 쿼럼 장치를 추가하거나 제거할 때 연결된 공유 저장소 장치의 이름을 지정하는 name 하위 옵션을 사용하십시오. 이 하위 옵션은 쿼럼 장치의 상태를 변경하는 change 형식의 명령과 함께 사용할 수도 있습니다. SCSI 공유 저장 장치에 대하여 globaldev 하위 옵션을 계속해서 사용할 수 있지만, 모든 다른 유형의 공유 저장 장치에 대하여는 name 하위 옵션을 사용해야 합니다. scconf 변경 및 쿼럼 장치에서의 작동에 대한 자세한 내용은 scconf(1M), scconf_quorum_dev_netapp_nas(1M), scconf_quorum_dev_netapp_nas(1M)scconf_quorum_dev_scsi(1M)을 참조하십시오.

자원 등록 정보

이제는 Network_resources_used 자원 등록 정보를 직접 수정할 필요가 없습니다. 대신, Resource_dependencies 등록 정보를 사용합니다. RGM은 Resource_dependencies 등록 정보의 설정에 기초하여 Network_resources_used 등록 정보를 자동으로 업데이트합니다. 이 두 자원 등록 정보의 현재 사용에 대한 자세한 내용은 r_properties(5)를 참조하십시오.

제품 이름 변경

이 절에서는 Sun Cluster 소프트웨어가 지원하는 응용 프로그램의 제품 이름 변경에 대한 내용을 설명합니다. 사용하고 있는 Sun Cluster 소프트웨어 릴리스에 따라 사용자의 Sun Cluster 설명서에는 다음의 제품 이름 변경 사항이 반영되어 있지 않을 수 있습니다.


주 –

Sun Cluster 3.2 소프트웨어는 Solaris Cluster 3.2 및 Sun Java Availability Suite를 통해 배포됩니다.


현재 제품 이름 

이전 제품 이름 

Sun Cluster Manager 

SunPlex Manager 

Sun Cluster Agent Builder 

SunPlex Agent Builder 

Sun Java System Application Server 

Sun ONE Application Server 

Sun Java System Application Server EE (HADB) 

Sun Java System HADB 

Sun Java System Message Queue 

Sun ONE Message Queue 

Sun Java System Web Server 

  • Sun ONE Web Server

  • iPlanet Web Server

  • NetscapeTM HTTP

지원 제품

이 절에서는 Sun Cluster 3.2 소프트웨어에 대한 지원 소프트웨어 및 메모리 요구 사항에 대하여 설명합니다.

플랫폼 

운영 체제 

볼륨 관리자 

클러스터 특징 

SPARC 

Solaris 9 

Solaris Volume Manager. 

Sun Cluster용 Solaris Volume Manager. 

VERITAS Volume Manager 4.1. 이 지원에는 VxVM 4.1 MP2가 필요합니다. 

VERITAS Volume Manager 4.1 클러스터 특징. 

VERITAS Storage Foundation 4.1의 일부로 제공된 VERITAS Volume Manager 구성요소. 이 지원에는 VxVM 4.1 MP2가 필요합니다. 

VERITAS Volume Manager 4.1 클러스터 특징. 

VERITAS Storage Foundation 5.0의 일부로 제공되는 VERITAS Volume Manager 구성요소. 이 지원에는 VxVM 5.0 MP1이 필요합니다. 

VERITAS Volume Manager 5.0 클러스터 특징. 

Solaris 10 

Solaris Volume Manager. 

Sun Cluster용 Solaris Volume Manager. 

VERITAS Volume Manager 4.1. 이 지원에는 VxVM 4.1 MP2가 필요합니다. 

VERITAS Volume Manager 4.1 클러스터 특징. 

VERITAS Volume Manager 4.1. 이 지원에는 VxVM 4.1 MP2가 필요합니다. 

VERITAS Volume Manager 4.1 클러스터 특징. 

VERITAS Storage Foundation 5.0의 일부로 제공되는 VERITAS Volume Manager 구성요소. 이 지원에는 VxVM 5.0 MP1이 필요합니다. 

VERITAS Volume Manager 5.0 클러스터 특징. 

x86 

Solaris 10 

Solaris Volume Manager. 

Sun Cluster용 Solaris Volume Manager 

VERITAS Storage Foundation 4.1의 일부로 제공된 VERITAS Volume Manager 구성 요소. 

해당 없음 - Sun Cluster 3.2는 x86 플랫폼에서 VxVM 클러스터 기능을 지원하지 않습니다. 

플랫폼 

운영 체제 

파일 시스템  

기능 및 외부 볼륨 관리 

SPARC 

Solaris 9 

Solaris UFS. 

해당 없음 

Sun StorEdge QFS: 

해당 없음 

QFS 4.5 독립형 파일 시스템. 

특징: 

  • HA-NFS

  • HA-Oracle

외부 볼륨 관리: 

  • SVM

  • VxVM

QFS 4.5 — 공유 QFS 파일 시스템. 

기능: 

  • Oracle RAC

외부 볼륨 관리: 

  • SVM Cluster File Manager

QFS 4.6. 

특징: 

  • 클러스터 외부의 COTC-Shared QFS 클라이언트

  • HA-SAM 장애 복구

VERITAS File System 4.1 

해당 없음 

VERITAS Storage Foundation 4.1및 5.0의 일부로 제공되는 VERITAS File System 구성요소. 

해당 없음 

SPARC 

Solaris 10 

Solaris ZFS. 

해당 없음 

Solaris ZFS 

해당 없음 

Sun StorEdge QFS: 

해당 없음 

QFS 4.5 독립형 파일 시스템. 

특징: 

  • HA-NFS

  • HA-Oracle

외부 볼륨 관리: 

  • SVM

  • VxVM

QFS 4.5 — 공유 QFS 파일 시스템. 

기능: 

  • Oracle RAC

외부 볼륨 관리: 

  • SVM Cluster File Manager

QFS 4.6. 

특징: 

  • 클러스터 외부의 COTC-Shared QFS 클라이언트

  • HA-SAM 장애 복구

VERITAS File System 4.1 

해당 없음 

VERITAS Storage Foundation 4.1및 5.0의 일부로 제공되는 VERITAS File System 구성요소. 

해당 없음 

x86 

Solaris 10 

Solaris UFS. 

해당 없음 

Solaris ZFS. 

해당 없음 

Sun StorEdge QFS: 

해당 없음 

QFS 4.5 독립형 파일 시스템 

특징: 

  • HA-NFS

  • HA-Oracle

외부 볼륨 관리: 

  • SVM

  • VxVM

QFS 4.5 — 공유 QFS 파일 시스템. 

기능: 

  • Oracle RAC

외부 볼륨 관리: 

  • SVM Cluster File Manager

QFS 4.6. 

특징: 

  • 클러스터 외부의 COTC-Shared QFS 클라이언트

  • HA-SAM 장애 복구

Sun Cluster 보안 강화

Sun Cluster 보안 강화는 Sun BluePrintsTM 프로그램에서 권장하는 Solaris 운영 체제 강화 기술을 사용하여 클러스터에 필요한 기본 보안 강화 기능을 구현합니다. Solaris Security Toolkit은 Sun Cluster 보안 강화 구현을 자동으로 수행합니다.

Sun Cluster 보안 강화 설명서는 http://www.sun.com/blueprints/0203/817-1079.pdf에서 사용할 수 있습니다. 또한 http://www.sun.com/software/security/blueprints의 기사에 액세스할 수도 있습니다. 이 URL에서 Architecture라는 제목이 나올 때까지 아래로 스크롤하여 "Securing the Sun Cluster 3.x Software"라는 자료를 찾습니다.이 문서는 Solaris 환경에서 Sun Cluster 3.x 배포판의 보안을 유지하는 방법에 대해 설명합니다. 여기에는 Solaris Security Toolkit 사용 및 Sun 보안 전문가가 권장하는 다른 전문적인 보안 기술에 대한 내용도 포함되어 있습니다. Sun Cluster 보안 강화는 다음 데이터 서비스를 지원합니다.

알려진 문제 및 버그

다음의 알려진 문제점과 버그가 Sun Cluster 3.2 릴리스의 사용에 영향을 미칩니다. 버그와 문제는 다음과 같은 범주로 그룹화됩니다.

관리

clnode remove -f 옵션으로 Solaris Volume Manager 장치 그룹이 포함된 노드를 제거하지 못함(6471834)

문제점 요약: -clnode remove --force 명령은 메타 세트에서 노드를 제거해야 합니다. Solaris OS용 Sun Cluster 시스템 관리 안내서에서는 클러스터에서 노드를 제거하는 절차를 제공합니다. 이러한 절차를 사용하여 사용자는 clnode remove를 실행하기 전에 Solaris Volume Manager 디스크 세트 제거를 위한 metaset 명령을 실행할 수 있습니다.

해결 방법: 절차를 따르지 않았다면 일반적인 방법으로 CCR에서 부실 노드 데이터를 지워야 할 수도 있습니다. 활성 클러스터 노드에서 metaset 명령을 사용하여 Solaris Volume Manager 디스크 세트에서 노드를 지웁니다. 그런 다음 clnode clear --force obsolete_nodename을 실행합니다.

scsnapshot이 Solaris 10 SUNWCluster 메타 클러스터에서 작동하지 않음(6477905)

문제점 요약: Solaris 10 End User 소프트웨어 그룹 SUNWCuser에 설치된 클러스터에서 scsnapshot 명령을 실행하면 다음 오류와 함께 실패할 수 있습니다.


# scsnapshot -o
…
/usr/cluster/bin/scsnapshot[228]: /usr/perl5/5.6.1/bin/perl:  not found

해결 방법: 다음 중 하나를 수행하십시오.

확장 가능 자원 작성 동안 Auxnodelist 등록 정보의 항목이 SEGV를 유발함(6494243)

문제점 요약: 공유 주소 자원을 작성하는 동안에는 공유 주소 자원의 Auxnodelist 등록 정보를 사용할 수 없습니다. 이로 인해 공유 주소 네트워크 자원에 따라 달라지는 확장 가능 자원이 작성될 때 검증 오류 및 SEGV가 발생할 수 있습니다. 확장 가능 자원의 검증 오류 메시지 형식은 다음과 같습니다.


Method methodname (scalable svc) on resource resourcename stopped or terminated 
due to receipt of signal 11

또한, 코어 파일이 ssm_wrapper에서 생성됩니다. 사용자가 Auxnodelist 등록 정보를 설정할 수 없게 되면 기본으로 제공되지 않지만 공유 주소를 호스트할 수 있는 클러스터 노드를 식별할 수 없습니다.

해결 방법: 한 노드에서 Auxnodelist 등록 정보를 지정하지 않고 공유 주소 자원을 다시 작성합니다. 그런 다음 확장 가능 자원 작성 명령을 재실행하고 다시 작성한 공유 주소를 네트워크 자원으로 사용합니다.

clquorumserver 시작 및 중지 명령이 다음 부트에 대해 시작 상태를 올바르게 설정함(6496008)

문제점 요약: 쿼럼 서버 명령 clquorumserver이 다음 재부트에 대해 시작 메커니즘의 상태를 올바르게 설정하지 않습니다.

해결 방법: 다음 작업을 수행하여 쿼럼 서버 소프트웨어를 시작하거나 중지합니다.

ProcedureSolaris 10 OS에서 쿼럼 서버 소프트웨어 시작 방법

  1. quorumserver 서비스의 상태를 표시합니다.


    # svcs -a | grep quorumserver
    

    서비스가 비활성화된 경우, 다음과 유사하게 출력됩니다.


    disabled        3:33:45 svc:/system/cluster/quorumserver:default
  2. 쿼럼 서버 소프트웨어를 시작합니다.

    • quorumserver 서비스가 비활성화인 경우, svcadm enable 명령을 사용합니다.


      # svcadm enable svc:/system/cluster/quorumserver:default
      
    • quorumserver 서비스가 온라인인 경우, clquorumserver 명령을 사용합니다.


      # clquorumserver start +
      

ProcedureSolaris 10 OS에서 쿼럼 서버 소프트웨어 중지 방법

    quorumserver 서비스를 비활성화합니다.


    # svcadm disable svc:/system/cluster/quorumserver:default
    

ProcedureSolaris 9 OS에서 쿼럼 서버 소프트웨어 시작 방법

  1. 쿼럼 서버 소프트웨어를 시작합니다.


    # clquorumserver start +
    
  2. /etc/rc2.d/.S99quorumserver 파일 이름을 /etc/rc2.d/S99quorumserver로 변경합니다.


    # mv /etc/rc2.d/.S99quorumserver /etc/rc2.d/S99quorumserver
    

ProcedureSolaris 9 OS에서 쿼럼 서버 소프트웨어 중지 방법

  1. 쿼럼 서버 소프트웨어를 중지합니다.


    # clquorumserver stop +
    
  2. 쿼럼 서버 소프트웨어를 시작합니다.


    # mv /etc/rc2.d/S99quorumserver /etc/rc2.d/.S99quorumserver
    

데이터 서비스

자원 종속성이 DAS(Domain Administration Server) 자원에 설정되지 않더라도 Sun Cluster HA for Sun Java Systems Application Server에 대한 노드 에이전트 자원 작성에 성공함(6262459)

문제점 요약: Sun Cluster HA for Application Server에 노드 에이전트(NA)를 작성할 때 DAS 자원에 설정된 종속성이 없더라도 자원은 작성됩니다. NA 자원을 시작하려면 DAS 자원이 온라인이어야 하므로 종속성이 설정되지 않은 경우에 명령을 실행하면 오류가 출력됩니다.

해결 방법: NA 자원을 작성할 때, DAS 자원에 자원 종속성을 설정했는지 확인합니다.

모든 새 인스턴스에 대해 HA MySQL 패치의 새 변수를 구성해야 함(6516322)

문제점 요약: HA MySQL 패치는 mysql_config 파일의 MYSQL_DATADIR라는 이름의 새 변수를 추가합니다. 이 새 변수는 MySQL 구성 파일(my.conf 파일)이 저장된 디렉토리를 가리켜야 합니다. 이 변수가 올바르게 구성되지 않으면 mysql_register를 사용한 데이터베이스 준비에 실패합니다.

해결 방법: MYSQL_DATADIR 변수가 MySQL 구성 파일(my.conf)이 저장된 디렉토리를 가리키도록 합니다.

설치

InfiniBand 구성을 갖춘 자동 검색이 때때로 동일한 어댑터를 사용하는 2가지 경로를 제안함(6299097)

문제점 요약: InfiniBand가 클러스터 전송으로 사용되고 어댑터 당 2개의 포트와 전체 2개의 스위치를 갖춘 각 노드에 2개의 어댑터가 있을 경우, scinstall 유틸리티의 어댑터 자동 검색은 동일한 어댑터를 사용하는 2가지 전송 경로를 제안할 수 있습니다.

해결 방법: 각 노드의 전송 어댑터를 수동으로 지정합니다.

IPv6 확장 가능 서비스 지원이 기본적으로 활성화되어 있지 않음(6332656)

문제점 요약: IPv6 확장 가능 서비스 패킷의 전송에 필요한 상호 연결의 IPv6 연결(plumbing)이 기본적으로 활성화되지 않습니다. ifconfig 명령을 사용할 때와 같이 IPv6 인터페이스는 기본적으로 상호 연결 어댑터에서 더 이상 연결(plumbing)되지 않습니다.

해결 방법: IPv6 확장 가능 서비스 지원을 수동으로 활성화합니다.

ProcedureIPv6 확장 가능 서비스 지원을 수동으로 활성화하는 방법

시작하기 전에

IPv6 서비스를 실행할 모든 클러스터 노드가 준비되었는지 확인합니다. 이러한 작업에는 네트워크 인터페이스의 적절한 구성, 서버/클라이언트 응용 프로그램 소프트웨어, 이름 서비스 및 라우팅 기반 구조가 포함됩니다. 확인하지 않을 경우, 네트워크 응용 프로그램에 예상하지 못한 오류가 발생할 수도 있습니다. 자세한 내용은 IPv6 서비스용 Solaris 시스템 관리 설명서를 참조하십시오.

  1. 각 노드에서 /etc/system 파일에 다음 항목을 추가합니다.


    # set cl_comm:ifk_disable_v6=0
    
  2. 각 노드에서 상호 연결 어댑터의 IPv6 연결(plumbing)을 활성화합니다.


    # /usr/cluster/lib/sc/config_ipv6
    

    config_ipv6 유틸리티는 링크 로컬 주소가 있는 모든 클러스터 상호 연결 어댑터에 IPv6 인터페이스를 실행시킵니다. 유틸리티는 상호 연결을 통해 IPv6 확장 가능 서비스 패킷의 적절한 전송을 활성화합니다.

    또는, 각 클러스터 노드를 재부트하여 구성 변경을 활성화할 수 있습니다.

파일에 직접 연결 전송 정보가 포함되어 있을 경우 clnode add는 XML 파일에서 노드를 추가하지 못함(6485249)

문제점 요약: clnode add 명령이 직접 연결 전송을 사용하는 XML 파일을 사용하려고 하면, 이 명령은 케이블 정보를 잘못 해석하고 잘못된 구성 정보를 추가합니다. 결과적으로 연결하는 노드는 클러스터에 연결될 수 없습니다.

해결 방법: 클러스터 전송이 직접 연결된 경우 scinstall 명령을 사용하여 클러스터에 노드를 추가합니다.

비전역 영역 설치 동안 /etc/nsswitch.conf 파일이 hostnetmasks 데이터베이스 정보로 업데이트되지 않음(6345227)

문제점 요약: scinstall 명령은 /etc/nsswitch.conf 파일을 업데이트하여 hostsnetmasks 데이터베이스를 위해 cluster 항목을 추가합니다. 이 변경 사항은 전역 영역에 대한 /net/nsswitch.conf 파일을 업데이트합니다. 그러나, 비전역 영역이 작성되고 설치되면 비전역 영역은 /etc/nsswitch.conf 파일의 자체 사본을 수신합니다. 비전역 영역의 /etc/nsswitch.conf 파일에는 hostsnetmasks 데이터베이스에 대한 cluster 항목이 없습니다. getXbyY 쿼리를 사용하여 비전역 영역 내에서 클러스터 특정 개인 호스트 이름 및 IP 주소를 확인하려는 시도는 실패하게 됩니다.

해결 방법: 비전역 영역에 대한 /etc/nsswitch.conf 파일을 hostsnetmasks 데이터베이스에 대한 cluster 항목으로 수동 업데이트합니다. 이는 비전역 영역 내에서 클러스터 특정 개인 호스트 이름 및 IP 주소 지정이 사용 가능한지 확인합니다.

현지화

쿼럼 서버의 번역된 메시지가 핵심 번역 패키지의 일부로 제공됨(6482813)

문제점 요약: clquorumserver와 같은 쿼럼 서버 관리 프로그램에 대해 번역된 메시지가 핵심 번역 패키지의 일부로 제공됩니다. 결과적으로 쿼럼 서버 메시지는 영어로만 나타납니다. 쿼럼 서버 번역 패키지를 핵심 번역 패키지에서 분리하고 쿼럼 서버 시스템에 설치해야 합니다.

해결 방법: 쿼럼 서버 소프트웨어가 설치된 호스트에 다음 패키지를 설치합니다.

쿼럼 서버에 일본어 매뉴얼 페이지가 필요할 경우, SUNWjscman(일본어 매뉴얼 페이지) 패키지를 설치합니다.

설치 프로그램이 Sun Cluster 3.2 중국어 간체 버전에 대해 잘못된 스왑 크기를 표시함(6495984)

문제점 요약: Sun Cluster 3.2 중국어 간체 버전 소프트웨어를 설치하면 Sun Cluster 3.2 설치 프로그램은 짧은 스왑에 대한 경고 메시지를 표시합니다. 설치 프로그램이 시스템 요구 사항 확인 화면에서 0.0KB 크기의 잘못된 스왑 크기를 제공합니다.

해결 방법: 스왑 크기가 시스템 요구 사항보다 클 경우에는 이 문제를 무시할 수 있습니다. C 또는 영어 로케일에서 SC 3.2 설치 프로그램은 설치용으로 사용할 수 있으며 이 버전은 스왑 크기를 올바르게 확인합니다.

런타임

SAP cleanipc 이진에 LD_LIBRARY_PATH에 대한 User_env 매개변수가 필요함(4996643)

문제점 요약: 런타임 연결 환경에 /sapmnt/SAPSID/exe 경로가 없으면 cleanipc가 실패합니다.

해결 방법: Solaris 루트 사용자로서 ld.config 파일의 기본 라이브러리에 /sapmnt/SAPSID/exe 경로를 추가합니다.

32–비트 응용 프로그램에 대한 런타임 연결 환경 기본 라이브러리 경로를 구성하려면 다음 명령을 입력합니다.


# crle -u -l /sapmnt/SAPSID/exe

64–비트 응용 프로그램에 대한 런타임 연결 환경 기본 라이브러리 경로를 구성하려면 다음 명령을 입력합니다.


# crle -64 -u -l /sapmnt/SAPSID/exe

metaclust 반환 단계 오류로 인한 노드 패닉: RPC: 등록되지 않은 프로그램(6256220)

문제점 요약: 클러스터 종료가 수행될 때, 노드 중 하나가 UCMMD보다 조금 먼저 클러스터에서 종료하는 경우, UCMMD는 하나 이상의 노드에 재구성으로 들어갈 수 있습니다. 이런 경우, UCMMD가 반환 단계를 수행하려고 시도하는 동안 종료가 노드에서 rpc.md 명령을 중지합니다. 반환 단계에서, 누락된 rpc.mdcommd 프로세스로 metaclust 명령은 RPC 시간 초과되어 오류와 함께 단계를 종료합니다. 이 오류로 UCMMD에서 노드를 중지할 수 있으며 노드 패닉을 일으킬 수 있습니다.

해결 방법: 이 문제는 무시해도 안전합니다. 노드에서 백업 부트 시 Sun Cluster 소프트웨어는 이전 재구성 시 오류가 발생했다는 사실에도 불구하고 이 조건을 검출하여 UCMMD가 시작되도록 허용합니다.

Sun Cluster 자원 검증이 netiflist 등록 정보에 대한 IPMP 그룹의 호스트 이름을 허용하지 않음(6383994)

문제점 요약: 논리 호스트 이름 또는 공유 주소 자원을 작성하는 동안, Sun Cluster 자원 검증이 netiflist 등록 정보에 대한 IPMP 그룹의 호스트 이름을 허용하지 않습니다.

해결 방법: 논리 호스트 이름 및 공유 주소 자원을 작성하는 동안, IPMP 그룹을 지정할 때 노드 ID 대신 노드 이름을 사용합니다.

업그레이드

루트 디스크가 캡슐화되면 vxlufinish 스크립트가 오류를 반환함(6448341)

문제점 요약: 이 문제는 원래의 디스크가 루트 캡슐화되고 Solaris 9 8/03 OS의 VxVM 3.5에서 Solaris 10 6/06 OS의 VxVM 5.0으로 라이브 업그레이드가 시도될 때 나타납니다. vxlufinish 스크립트는 다음 오류와 함께 실패합니다.


#./vslufinish -u 5.10

    VERITAS Volume Manager VxVM 5.0
    Live Upgrade finish on the Solairs release <5.10>

    Enter the name of the alternate root diskgroup: altrootdg
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
Killed
ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory
ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176
-c -p 5555 -g
    -g altrootdg rootdisk=c0t1d0s2
    Please install, if 5.0 or higher version of VxVM is not installed
    on alternate bootdisk.

해결 방법: 대신, 표준 업그레이드 또는 이중 분할 업그레이드 방법을 사용하십시오.

나중에 VxVM 5.0용 Sun Cluster 3.2 Live Upgrade 지원을 사용할 수 있는지 여부를 알려면 Sun 지원 또는 Sun 담당자에게 문의하십시오.

Live Upgrade가 부트 디스크에서 전역 장치의 마운팅을 지원함(6433728)

문제점 요약: 라이브 업그레이드 중에 lucreateluupgrade 명령은 /global/.devices/node@N 항목에 해당하는 대체 부트 환경에서 DID 이름을 변경하는 데 실패합니다.

해결 방법: 라이브 업그레이드를 시작하기 전에 각 클러스터 노드에서 다음 단계를 수행합니다.

  1. 수퍼유저로 전환합니다.

  2. /etc/vfstab 파일을 백업합니다.


    # cp /etc/vfstab /etc/vfstab.old
    
  3. 편집할 /etc/vfstab 파일을 엽니다.

  4. /global/.device/node@N에 해당하는 행을 찾습니다.

  5. 전역 장치 항목을 편집합니다.

    • DID 이름을 물리적 이름으로 변경합니다.

      /dev/did/{r}dsk/dYsZ/dev/{r}dsk/cNtXdYs Z로 변경합니다.

    • 항목에서 global을 제거합니다.

    다음 예에서는 /global/.devices/node@s에 해당하는 DID 장치 d3s3의 이름이 해당 물리적 장치 이름으로 변경되고 global 항목이 제거된 것을 보여줍니다.


    기존 내용:
    /dev/did/dsk/d3s3    /dev/did/rdsk/d3s3    /global/.devices/node@2   ufs   2   no   global
    
    변경된 내용:
    dev/dsk/c0t0d0s3     /dev/rdsk/c0t0d0s3    /global/.devices/node@2   ufs   2   no   -
  6. 모든 클러스터 노드에서 /etc/vfstab 파일을 수정할 때, 클러스터의 라이브 업그레이드를 수행합니다. 그러나 업그레이드된 대체 부트 환경에서 재부트하기 전에 중지해야 합니다.

  7. 현재 업그레이드되지 않은 부트 환경의 각 노드에서 /etc/vfstab 파일을 복원합니다.


    # cp /etc/vstab.old /etc/vfstab
    
  8. 대체 부트 환경에서 편집할 /etc/vfstab 파일을 엽니다.

  9. /global/.devices/node@N에 해당하는 행을 찾아 항목 끝에 있는 대시(-)를 단어 global로 대체합니다.


    /dev/dsk/cNtXdYsZ    /dev/rdsk/cNtXdYsZ    /global/.devices/node@N   ufs   2   no   global
    
  10. 업그레이드된 대체 부트 환경에서 노드를 재부트합니다.

    DID 이름이 /etc/vfstab 파일에서 자동으로 대체됩니다.

라이브 업그레이드 동안 vxlustart 스크립트가 다른 부트 환경을 작성하지 못함(6445430)

문제점 요약: 이 문제는 Sun Cluster 라이브 업그레이드 동안 VxVM(VERITAS Volume Manager)을 업그레이드할 때 나타납니다. vxlustart 스크립트는 이전 버전에서 Solaris OS 및 VxVM을 업그레이드하는 데 사용됩니다. 스크립트는 다음과 같은 오류 메시지와 함께 실패합니다.


# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage

   VERITAS Volume Manager VxVM 5.0.
   Live Upgrade is now upgrading from 5.9 to <5.10>
…
ERROR: Unable to copy file systems from boot environment &lt;sorce.8876> to BE &lt;dest.8876>.
ERROR: Unable to populate file systems on boot environment &lt;dest.8876>.
ERROR: Cannot make file systems for boot environment &lt;dest.8876>.
ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 
-m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs 
-m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs 
-m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876

해결 방법: 클러스터를 VxVM 5.0으로 업그레이드할 경우, 표준 업그레이드 또는 이중 분할 업그레이드 방법을 사용합니다.

나중에 VxVM 5.0용 Sun Cluster 3.2 Live Upgrade 지원을 사용할 수 있는지 여부를 알려면 Sun 지원 또는 Sun 담당자에게 문의하십시오.

루트 디스크가 캡슐화되는 경우, 해당 노드 전체에서 vxio 주 번호가 다름(6445917)

문제점 요약: VxVM(VERITAS Volume Manager)을 실행하는 클러스터의 경우, 루트 디스크가 캡슐화되면 다음 소프트웨어 중 하나인 표준 업그레이드 또는 이중 분할 업그레이드가 실패합니다.

업그레이드 후 클러스터 노드 패닉이 발생하고 부트에 실패합니다. 이는 업그레이드하는 동안 VxVM에 의해 만들어진 주 번호 또는 부 번호 때문입니다.

해결 방법: 업그레이드를 시작하기 전에 루트 디스크의 캡슐화를 해제합니다.


주의 – 주의 –

위의 절차를 제대로 따르지 않으면 업그레이드되고 있는 모든 노드에 예상치 못한 심각한 문제가 발생할 수 있습니다. 또한, 루트 디스크의 캡슐화 해제 및 캡슐화로 인해 업그레이드 동안 필요한 재부트의 수를 증가시키면서 (매번) 노드의 추가 재부트를 유발할 수 있습니다.


Solaris 9의 Sun Cluster 버전 3.1에서 Solaris 10의 버전 3.2로 Live Upgrade 후 영역을 사용할 수 없음(6509958)

문제점 요약: Solaris 9의 Sun Cluster 버전 3.1에서 Solaris 10의 버전 3.2로 라이브 업그레이드 후, 클러스터 소프트웨어에서 영역을 올바르게 사용할 수 없습니다. 문제는 Sun Cluster 패키지에 대해 pspool 데이터가 작성되지 않는다는 점입니다. 따라서 SUNWsczu와 같은 비전역 영역에 전파해야 하는 이들 패키지가 올바르게 전파되지 않습니다.

해결 방법: scinstall -R 명령을 사용하여 Sun Cluster 패키지가 업그레이드된 후, 클러스터가 클러스터 모드로 부트되기 전에 다음 스크립트를 두 번 실행합니다.

Procedure스크립트 사용에 대한 지침

시작하기 전에

다음 방법 중 하나로 이 스크립트를 준비하고 실행합니다.

  1. 수퍼유저로 전환합니다.

  2. 다음 내용으로 스크립트를 작성합니다.

    #!/bin/ksh
    
    typeset PLATFORM=${PLATFORM:-`uname -p`}
    typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages}
    typeset BASEDIR=${BASEDIR:-/}
    
    cd $PATHNAME
    for i in *
    do
    	if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1
    	then
    		mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool
    		pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i
    	fi
    done
  3. 변수 PLATFORM, PATHNAMEBASEDIR을 설정합니다.

    이들 변수를 환경 변수로 설정하거나 스크립트의 변수를 직접 수정합니다.

    PLATFORM

    플랫폼의 이름입니다. 예를 들면, sparc 또는 x86 등입니다. 기본적으로 uname -p 명령의 출력에 대해 PLATFORM 변수가 설정되어 있습니다.

    PATHNAME

    Sun Cluster 프레임워크 또는 데이터 서비스 패키지를 설치할 수 있는 장치에 대한 경로입니다. 이 값은 pkgadd 명령의 -d 옵션에 해당합니다.

    한 가지 예로 Sun Cluster 프레임워크 패키지의 경우, 이 값의 형식은 다음과 같습니다.


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages

    데이터 서비스 패키지의 경우, 이 값의 형식은 다음과 같습니다.


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages
    BASEDIR

    루트 경로로 사용하고 pkgadd 명령의 -R 옵션에 해당하는 디렉토리의 전체 경로 이름입니다. 라이브 업그레이드의 경우, 이 값을 scinstall 명령의 -R 옵션으로 사용되는 루트 경로로 설정합니다. 기본적으로 BASEDIR 변수는 루트(/) 파일 시스템으로 설정되어 있습니다.

  4. Sun Cluster 프레임워크 패키지에 대해 한 번, 데이터 서비스 패키지에 대해 한 번 스크립트를 실행합니다.

    스크립트를 실행한 후, 각 패키지에 대한 명령 프롬프트에 다음 메시지가 표시됩니다.


    Transferring pkgname package instance

    주 –

    pspool 디렉토리가 각 패키지에 대해 이미 존재하거나 동일한 패키지 세트에 대해 스크립트를 두 번 실행한 경우, 다음 오류가 명령 프롬프트에 표시됩니다.


    Transferring pkgname package instance
    pkgadd: ERROR: unable to complete package transfer
        - identical version of pkgname already exists on destination device

    이는 무해한 메시지이며 무시해도 됩니다.


  5. 프레임워크 패키지와 데이터 서비스 패키지 모두에 대해 스크립트를 실행한 후, 노드를 클러스터 모드로 부트합니다.

노드에 Sun Cluster 3.2 핵심 패치를 추가하지 않고 기존 Sun Cluster 3.2로 패치된 클러스터에 노드를 추가할 수 없음(6554107)

문제점 요약: 노드에 기존 클러스터 노드와 동일한 패치가 있는지 확인하지 않고 새 클러스터 노드를 추가하면 클러스터 노드에 패닉이 발생할 수 있습니다.

해결 방법: 클러스터에 노드를 추가하기 전에 새 노드가 기존 클러스터 노드와 동일한 수준으로 패치되었는지 먼저 확인하십시오. 이를 수행하지 않으면 클러스터 노드에 패닉이 발생할 수 있습니다.

패치 및 필요한 펌웨어 수준

이 단락에서는 Sun Cluster 구성에 적용되는 패치에 대해 설명합니다. Sun Cluster 3.2 소프트웨어로 업그레이드하려는 경우 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서의 8 장, Sun Cluster 소프트웨어 업그레이드를 참조하십시오. Sun Cluster 3.2 코어 패치를 적용한 결과는 소프트웨어를 Sun Cluster 3.2 릴리스로 업그레이드하는 결과와 동일하지 않습니다.


주 –

패치를 적용하거나 제거하기 전에 패치 README를 읽어보십시오.


재부트 패치(노드) 메소드를 사용하여 Sun Cluster 핵심 패치, 125510 (S9/SPARC), 125511 (S10/SPARC) 또는 125512 (S19/x64)를 설치할 경우, 더 높은 패치 버전을 설치하기 전에 설치한 패치의 -02 버전이 있어야 합니다. -02 패치를 설치하지 않고 -03 이상(사용 가능한 경우)을 설치하려면 재부트 클러스터 메소드를 사용해야 합니다.

패치 상황의 예는 다음 목록을 참조하십시오.


주 –

Sun Cluster 제품에 필요한 패치를 보거나 다운로드하려면 등록된 SunSolveTM 사용자여야 합니다. SunSolve 계정이 없는 경우 Sun 서비스 담당자나 기술 엔지니어에게 연락하거나 http://sunsolve.sun.com에서 온라인으로 등록하십시오.


Sun Cluster 3.2 핵심 패치 적용

Sun Cluster 3.2 핵심 패치를 적용하려면 다음 절차를 완료합니다.

ProcedureSun Cluster 3.2 핵심 패치를 적용하는 방법

  1. 핵심 패치에 대한 일반적인 재부트 패치 절차를 사용하여 패치를 설치합니다.

  2. 패치가 모든 노드에 올바르게 설치되었는지 및 기능이 제대로 작동되는지를 확인합니다.

  3. 이 패치에서 업데이트될 SUNW.HAStoragePlus, SUNW.ScalDeviceGroup 및 SUNW.ScalMountPoint 자원 유형의 새 버전을 등록합니다. 새 버전에 대한 이들 유형의 기존 자원에서 자원 유형 업그레이드를 수행합니다.

    자원 유형의 등록에 대한 자세한 내용은 Sun Cluster Data Services Planning and Administration Guide for Solaris OSRegistering a Resource Type을 참조하십시오.


    주의 – 주의 –

    Sun Cluster 3.2 핵심 패치를 제거하면 3단계에서 업그레이드된 자원을 이전 자원 유형 버전으로 다운그레이드해야 합니다. 다운그레이드를 위한 절차에는 이러한 서비스의 계획된 작동 중지 시간이 필요합니다. 따라서, 사용중인 클러스터에 대한 Sun Cluster 3.2 핵심 패치를 영구적으로 완결할 준비가 될 때까지 3단계를 수행하지 마십시오.


Sun Cluster 3.2 핵심 패치 제거

Sun Cluster 3.2 핵심 패치를 제거하려면 다음 절차를 완료합니다.

ProcedureSun Cluster 3.2 핵심 패치를 제거하는 방법

  1. 클러스터에 자원 유형을 나열합니다.


    # clrt list
    
  2. 목록에 SUNW.HAStoragePlus:5, SUNW.ScalDeviceGroup:2 또는 SUNW.ScalMountPoint:2가 반환되면 이러한 자원 유형을 제거해야 합니다. 자원 유형의 제거에 대한 지침은 Sun Cluster Data Services Planning and Administration Guide for Solaris OSHow to Remove a Resource Type을 참조하십시오.

  3. 클러스터의 모든 노드를 비클러스터 단일 사용자 모드로 재부트합니다.

    클러스터 노드를 비클러스터 단일 사용자 모드로 재부트하는 방법에 대한 지침은 Solaris OS용 Sun Cluster 시스템 관리 안내서비클러스터 모드에서 클러스터 노드를 부트하는 방법을 참조하십시오.

  4. 패치를 설치한 각 노드에서 Sun Cluster 3.2 핵심 패치를 제거합니다.


    # patchrm patch-id
    
  5. Sun Cluster 3.2 핵심 패치를 제거한 모든 노드를 클러스터 모드로 재부트합니다.

    영향을 받지 않은 노드를 재부트하기 전에 Sun Cluster 3.2 핵심 패치를 제거한 모든 노드를 재부트하면 클러스터가 CCR의 올바른 정보로 형성됩니다. 클러스터의 모든 노드가 핵심 패치로 패치되면 순서에 상관 없이 노드를 클러스터 모드로 재부트할 수 있습니다.

    클러스터 모드로의 노드 재부트에 대한 지침은 Solaris OS용 Sun Cluster 시스템 관리 안내서클러스터 노드를 재부트하는 방법을 참조하십시오.

  6. 나머지 노드를 클러스터 모드로 재부트합니다.

패치 관리 도구

Solaris 9 OS용 Patch Manager 2.0 및 Solaris 10 OS용 Sun Update Connection 1.0으로 PatchPro 패치 관리 기술을 사용할 수 있습니다.

노드가 비클러스터 모드일 때 일부 패치를 적용해야 하는 경우, 전체 클러스터를 종료하라는 패치 지침이 있지 않은 한, 사용자는 이 패치를 한 번에 하나의 노드에서 롤링 방식으로 적용할 수 있습니다. 노드를 준비하고 비클러스터 모드로 시스템을 부트하려면 Solaris OS용 Sun Cluster 시스템 관리 안내서재부트 패치 적용 방법(노드)에 있는 절차를 참조하십시오. 설치를 쉽게 하려면 모든 패치를 비클러스터 모드인 노드에 한 번에 적용하도록 합니다.

SunSolve Online

SunSolve 온라인 웹 사이트에서 언제든지 Sun 제품의 패치, 소프트웨어 및 펌웨어에 대한 최신 정보를 액세스할 수 있습니다. 지원되는 최신 소프트웨어, 펌웨어 및 패치 버전에 대한 도표를 보려면 http://sunsolve.sun.com에 있는 SunSolve Online 사이트에 액세스하십시오.

Sun Cluster 3.2 타사 패치 정보는 SunSolve Info Doc을 통해 제공됩니다. 이 Info Doc 페이지는 Sun Cluster 3.2 환경에서 사용하려는 특정 하드웨어에 대한 모든 타사 패치 정보를 설명합니다. 이 Info Doc을 보려면 SunSolve에 로그인하십시오. SunSolve 홈페이지에서 검색 기준 입력란에 Sun Cluster 3.x Third-Party Patches를 입력합니다.

Sun Cluster 3.2 소프트웨어를 설치하고 클러스터 구성 요소(Solaris OS, Sun Cluster 소프트웨어, 볼륨 관리자 소프트웨어, 데이터 서비스 소프트웨어, 디스크 하드웨어 등)에 패치를 적용한 후 패치와 함께 제공되는 각 README 파일을 검토합니다. 클러스터가 제대로 작동하려면 모든 클러스터 노드에 동일한 수준의 패치가 있어야 합니다.

패치 관리에 대한 특정 패치 절차와 팁은 Solaris OS용 Sun Cluster 시스템 관리 안내서의 10 장, Sun Cluster 소프트웨어 및 펌웨어 패치를 참조하십시오.

Sun Cluster 3.2 설명서

Sun Cluster 3.2 사용자 설명서 세트는 다음과 같은 모음집으로 구성되어 있습니다.

다음 웹사이트에서 PDF 및 HTML 형식의 Sun Cluster 3.2 사용 설명서를 이용할 수 있습니다.

http://htt;://docs.sun.com/app/docs/prod/sun.cluster32


주 –

Sun Cluster 3.2부터는 개별 데이터 서비스에 대한 문서는 번역되지 않습니다. 개별 데이터 서비스에 대한 문서는 영문으로만 이용할 수 있습니다.


Sun 제품 문서 검색

docs.sun.com 웹 사이트에서 Sun 제품 문서를 검색하는 것 외에도 원하는 검색 엔진의 검색 필드에 다음 구문을 입력하여 검색할 수 있습니다.


search-term site:docs.sun.com

예를 들어, "브로커"를 검색하려면 다음과 같이 입력합니다.


broker site:docs.sun.com

검색에 다른 Sun 웹 사이트(예: java.sun.com, www.sun.com 및 developers.sun.com)를 포함하려면 검색 필드에서 “docs.sun.com” 대신 “sun.com”을 사용합니다.

Solaris OS용 Sun Cluster 3.2 소프트웨어 설명서

표 1 Sun Cluster 3.2 소프트웨어의 Solaris OS 소프트웨어 설명서 모음집

부품 번호 

설명서 제목 

820–0335 

Sun Cluster 3.2 Documentation Center

819-2969 

Sun Cluster Concepts Guide for Solaris OS

819-2972 

Sun Cluster Data Services Developer’s Guide for Solaris OS

819-2974 

Sun Cluster Data Services Planning and Administration Guide for Solaris OS

819-2973 

Sun Cluster Error Messages Guide for Solaris OS

819-2968 

Sun Cluster Overview for Solaris OS

819–6811 

Sun Cluster Quick Reference

819-3055 

Sun Cluster Reference Manual for Solaris OS

819-2970 

Solaris OS용 Sun Cluster 소프트웨어 설치 안내서

819–0912 

Solaris OS용 Sun Cluster 빠른 시작 안내서

819-2971 

Solaris OS용 Sun Cluster 시스템 관리 안내서

Solaris OS용 Sun Cluster 3.2 데이터 서비스 설명서(SPARC Platform Edition)

표 2 Solaris OS용 Sun Cluster 3.2 소프트웨어 모음집(SPARC Platform Edition): 개별 데이터 서비스 설명서

부품 번호 

설명서 제목 

819-3056 

Sun Cluster Data Service for Agfa IMPAX Guide for Solaris OS

819-2975 

Sun Cluster Data Service for Apache Guide for Solaris OS

819-3057 

Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS

819-3058 

Sun Cluster Data Service for DHCP Guide for Solaris OS

819-2977 

Sun Cluster Data Service for DNS Guide for Solaris OS

819–5415 

Sun Cluster Data Service for Kerberos Guide for Solaris OS

819-2982 

Sun Cluster Data Service for MaxDB Guide for Solaris OS

819-3059 

Sun Cluster Data Service for MySQL Guide for Solaris OS

819-3060 

Sun Cluster Data Service for N1 Grid Service Provisioning System for Solaris OS

819-0693 

Sun Cluster Data Service for NetBackup Guide for Solaris OS

819-2979 

Sun Cluster Data Service for NFS Guide for Solaris OS

819-3061 

Sun Cluster Data Service for Oracle Application Server Guide for Solaris OS

819-3062 

Sun Cluster Data Service for Oracle E-Business Suite Guide for Solaris OS

819-2980 

Sun Cluster Data Service for Oracle Guide for Solaris OS

819-2981 

Sun Cluster Data Service for Oracle RAC Guide for Solaris OS

819–5578 

Sun Cluster Data Service for PostgreSQL Guide for Solaris OS

819-3063 

Sun Cluster Data Service for Samba Guide for Solaris OS

819-2983 

Sun Cluster Data Service for SAP Guide for Solaris OS

819-2984 

Sun Cluster Data Service for SAP liveCache Guide for Solaris OS

819-2985 

Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS

819-2986 

Sun Cluster Data Service for Siebel Guide for Solaris OS

819-3069 

Sun Cluster Data Service for Solaris Containers Guide

819-3064 

Sun Cluster Data Service for Sun Grid Engine Guide for Solaris OS

819-2988 

Sun Cluster Data Service for Sun Java System Application Server Guide for Solaris OS

819-2987 

Sun Cluster Data Service for Sun Java System Application Server EE (HADB) Guide for Solaris OS

819-2989 

Sun Cluster Data Service for Sun Java System Message Queue Guide for Solaris OS

819-2990 

Sun Cluster Data Service for Sun Java System Web Server Guide for Solaris OS

819-3065 

Sun Cluster Data Service for SWIFTAlliance Access Guide for Solaris OS

819-3066 

Sun Cluster Data Service for SWIFTAlliance Gateway Guide for Solaris OS

819-2991 

Sun Cluster Data Service for Sybase ASE Guide for Solaris OS

819-2992 

Sun Cluster Data Service for WebLogic Server Guide for Solaris OS

819-3068 

Sun Cluster Data Service for WebSphere Message Broker Guide for Solaris OS

819-3067 

Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS

Solaris OS용 Sun Cluster 3.2 데이터 서비스 설명서(x86 Platform Edition)

표 3 Solaris OS용 Sun Cluster 3.2 소프트웨어 모음집(x86 Platform Edition): 개별 데이터 서비스 설명서

부품 번호 

설명서 제목 

819-2975 

Sun Cluster Data Service for Apache Guide for Solaris OS

819-2975 

Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS

819-3058 

Sun Cluster Data Service for DHCP Guide for Solaris OS

819-2977 

Sun Cluster Data Service for DNS Guide for Solaris OS

819–5415 

Sun Cluster Data Service for Kerberos Guide for Solaris OS

819-2982 

Sun Cluster Data Service for MaxDB Guide for Solaris OS

819-3059 

Sun Cluster Data Service for MySQL Guide for Solaris OS

819-3060 

Sun Cluster Data Service for N1 Grid Service Provisioning System for Solaris OS

819-2979 

Sun Cluster Data Service for NFS Guide for Solaris OS

819-3061 

Sun Cluster Data Service for Oracle Application Server Guide for Solaris OS

819-2980 

Sun Cluster Data Service for Oracle Guide for Solaris OS

819-2981 

Sun Cluster Data Service for Oracle RAC Guide for Solaris OS

819–5578 

Sun Cluster Data Service for PostgreSQL Guide for Solaris OS

819-3063 

Sun Cluster Data Service for Samba Guide for Solaris OS

819-2983 

Sun Cluster Data Service for SAP Guide for Solaris OS

819-2985 

Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS

819-3069 

Sun Cluster Data Service for Solaris Containers Guide

819-3064 

Sun Cluster Data Service for Sun Grid Engine Guide for Solaris OS

819-2987 

Sun Cluster Data Service for Sun Java System Application Server EE (HADB) Guide for Solaris OS

819-2988 

Sun Cluster Data Service for Sun Java System Application Server Guide for Solaris OS

819-2989 

Sun Cluster Data Service for Sun Java System Message Queue Guide for Solaris OS

819-2990 

Sun Cluster Data Service for Sun Java System Web Server Guide for Solaris OS

819-2992 

Sun Cluster Data Service for WebLogic Server Guide for Solaris OS

819-3067 

Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS

819-3068 

Sun Cluster Data Service for WebSphere Message Broker Guide for Solaris OS

Solaris OS용 Sun Cluster 3.1 - 3.2 하드웨어 모음집(SPARC Platform Edition)

표 4 Solaris OS용 Sun Cluster 3.1 - 3.2 하드웨어 모음집(SPARC Platform Edition)

부품 번호 

설명서 제목 

819-2993 

Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS

819–2995 

Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS

819-3015 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3310 or 3320 SCSI RAID Array Manual for Solaris OS

819-3016 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3510 or 3511 FC RAID Array Manual for Solaris OS

819-3017 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3900 Series or Sun StorEdge 6900 Series System Manual

819-3018 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6120 Array Manual for Solaris OS

819-3020 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6320 System Manual for Solaris OS

819-3021 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 9900 Series Storage Device Manual for Solaris OS

819-2996 

Sun Cluster 3.1 - 3.2 With StorEdge A1000 Array, Netra st A1000 Array, or StorEdge A3500 System Manual

819-3022 

Sun Cluster 3.1 - 3.2 With Sun StorEdge A3500FC System Manual for Solaris OS

819-2994 

Sun Cluster 3.1 - 3.2 With Fibre Channel JBOD Storage Device Manual

817–5681 

Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS

819-3023 

Sun Cluster 3.1 - 3.2 With Sun StorEdge T3 or T3+ Array Manual for Solaris OS

819-3019 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6130 Array Manual

819-3024 

Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS

Solaris OS용 Sun Cluster 3.1 — 3.2 하드웨어 모음집(x86 Platform Edition)

표 5 Solaris OS용 Sun Cluster 3.1 — 3.2 하드웨어 모음집(x86 Platform Edition)

부품 번호 

설명서 제목 

819-2993 

Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS

817–0180 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3310 or 3320 SCSI RAID Array Manual for Solaris OS

819-3024 

Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS

819-3021 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 9900 Series Storage Device Manual for Solaris OS

819-3020 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6320 System Manual for Solaris OS

819-3019 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6130 Array Manual

819-3018 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6120 Array Manual for Solaris OS

819-3016 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3510 or 3511 FC RAID Array Manual for Solaris OS

819–2995 

Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS

설명서 문제

이 절에서는 Sun Cluster 3.2 릴리스의 문서, 온라인 도움말 또는 매뉴얼 페이지의 오류 또는 누락에 대해 설명합니다.

개념 설명서

이 절에서는 Sun Cluster Concepts Guide for Solaris OS의 오류 및 누락 내용을 설명합니다.

x86: x86용 Sun Cluster Topologies

Sun Cluster Concepts Guide for Solaris OSSun Cluster Topologies for x86 절에 있는 다음 문장은 Sun Cluster 3.2 릴리스 이전 내용입니다. "x86 기반 시스템으로 구성된 Sun Cluster는 한 클러스터에서 2개의 노드를 지원합니다."

명령문은 다음과 같이 표시되어야 합니다. "x86 기반 시스템으로 구성된 Sun Cluster 구성은 Oracle RAC를 실행하는 클러스터에서 최대 8개의 노드를 지원하고 Oracle RAC를 실행하지 않는 클러스터에서는 최대 4개의 노드를 지원합니다."

소프트웨어 설치 안내서

이 절에서는 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서의 오류 또는 누락된 내용을 설명합니다.

Sun Cluster Geographic Edition 소프트웨어를 실행하는 클러스터에서 누락된 업그레이드 준비

Sun Cluster Geographic Edition 소프트웨어를 실행하는 클러스터를 업그레이드할 경우, Sun Cluster 소프트웨어 업그레이드를 시작하기 전에 수행해야 할 추가 준비 단계가 있습니다. 이러한 단계에는 Sun Cluster Geographic Edition 기반 구조의 종료가 포함됩니다. 대신 Sun Cluster Geographic Edition Installation Guide의 4 장, Upgrading the Sun Cluster Geographic Edition Software로 이동하십시오. Sun Cluster 소프트웨어 업그레이드를 수행하기 위해 Sun Cluster 소프트웨어 설치 안내서로 돌아갈 때 이러한 절차가 기록됩니다.

Sun Cluster 데이터 서비스 계획 및 관리 안내서

이 절은 Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 오류 및 누락에 대하여 설명합니다.

비전역 영역에서의 확장 가능한 서비스 지원

Sun Cluster Data Services Planning and Administration Guide for Solaris OSResource Type Properties에 있는 Failover 자원 등록 정보에 대한 설명 중, 비전역 영역에서 확장 가능한 서비스 지원에 관한 내용이 빠져 있습니다. 이 지원은 자원 유형의 Failover 등록 정보가 FALSE로 설정되고 자원의 Scalable 등록 정보가 TRUE로 설정된 자원에 적용됩니다. 등록 정보 설정 조합은 네트워크 로드 균형 조정을 위해 SharedAddress 자원을 사용하는 확장 가능한 서비스를 나타냅니다. Sun Cluster 3.2 릴리스에서는 비전역 영역으로 실행되는 자원 그룹의 유형에 대해 확장 가능한 서비스를 구성할 수 있습니다. 그러나, 확장 가능한 서비스를 구성하여 동일한 노드의 다중 비전역 영역에서 실행할 수는 없습니다.

Sun Cluster Data Service for MaxDB Guide

이 절에서는 Sun Cluster Data Service for MaxDB Guide for Solaris OS의 오류 및 누락에 대해 설명합니다.

SPARC 및 x86 기반 시스템의 비전역 영역에서 Sun Cluster Data Service for MaxDB 지원에 대한 변경 사항

Sun Cluster Data Service for MaxDB는 SPARC 및 x86 기반 시스템에서 비전역 영역을 지원합니다. 이 지원을 위해 Sun Cluster Data Service MaxDB Guide에 다음사항이 변경되어야 합니다. 전역 영역에서 실행하도록 구성된 클러스터에서 다음 단계를 수행할 수 있습니다. 비전역 영역에서 실행할 클러스터를 설치할 경우, 아래와 같은 단계 중 일부는 필요하지 않을 수도 있습니다.

Sun Cluster Data Service for SAP Guide

이 절에서는 Sun Cluster Data Service for SAP Guide for Solaris OS의 오류 및 누락에 대해 설명합니다.

SPARC 및 x86 기반 시스템의 비전역 영역에서 SAP 지원에 대한 변경 사항

Sun Cluster Data Service for SAP는 SPARC 및 x86 기반 시스템에서 비전역 영역을 지원합니다. 이 지원을 위해 Sun Cluster Data Service SAP Guide에 다음 사항이 변경되어야 합니다. 전역 영역에서 실행하도록 구성된 클러스터에서 다음 단계를 수행할 수 있습니다. 비전역 영역에서 실행할 클러스터를 설치할 경우, 아래와 같은 단계 중 일부는 필요하지 않을 수도 있습니다.

Sun Cluster Data Service for SAP liveCache Guide

이 절에서는 Sun Cluster Data Service for SAP liveCache Guide for Solaris OS의 오류 및 누락에 대해 설명합니다.

SPARC 및 x86 기반 시스템의 비전역 영역에서 SAP liveCache 지원에 대한 변경 사항

Sun Cluster Data Service for SAP liveCache는 SPARC 및 x86 기반 시스템에서 비전역 영역을 지원합니다. 이 지원을 위해 Sun Cluster Data Service SAP liveCache Guide에 다음 사항이 변경되어야 합니다. 전역 영역에서 실행하도록 구성된 클러스터에서 다음 단계를 수행할 수 있습니다. 비전역 영역에서 실행할 클러스터를 설치할 경우, 아래와 같은 단계 중 일부는 필요하지 않을 수도 있습니다.

Sun Cluster Data Service for SAP Web Application Server Guide

이 절에서는 Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS의 오류 및 누락에 대해 설명합니다.

Sun Cluster HA for SAP Web Application Server에 대한 SAP 7.0 지원(6461002)

SAP 7.0 및 NW2004SR1에서는 SAP 인스턴스가 시작될 때 기본적으로 sapstartsrv 프로세스가 시작됩니다. sapstartsrv 프로세스는 Sun Cluster HA for SAP Web Application Server의 제어 하에 있지 않습니다. 따라서 SAP 인스턴스가 Sun Cluster HA for SAP Web Application Server에 의해 중지되거나 장애 복구될 때 sapstartsrv 프로세스가 중지되지 않습니다.

SAP 인스턴스가 Sun Cluster HA for SAP Web Application에 의해 시작될 때 sapstartsrv 프로세스를 시작되지 않도록 하려면 startsap 스크립트를 수정해야 합니다. 또한, 모든 Sun Cluster 노드의 /etc/rc3.d/S90sapinit 파일 이름을 /etc/rc3.d/xxS90sapinit 로 변경해야 합니다.

SPARC 및 x86 기반 시스템의 비전역 영역에서 SAP Web Application Server 지원에 대한 변경 사항

Sun Cluster Data Service for SAP Web Application Server는 SPARC 및 x86 기반 시스템에서 비전역 영역을 지원합니다. 이 지원을 위해 Sun Cluster Data Service SAP Web Application Server Guide에 다음 사항이 변경되어야 합니다. 전역 영역에서 실행하도록 구성된 클러스터에서 다음 단계를 수행할 수 있습니다. 비전역 영역에서 실행할 클러스터를 설치할 경우, 아래와 같은 단계 중 일부는 필요하지 않을 수도 있습니다.

HASP 구성에 대한 비전역 영역에서 SAP Web Application Server 설정(6530281)

다음 절차를 사용하여 비전역 영역에 대한 HAStoragePlus 자원을 구성합니다.


주 –

ProcedureHAStoragePlus 구성을 위해 비전역 영역에 SAP Web Application Server를 구성하는 방법

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. HAStoragePlus 자원이 포함된 비전역 영역과 함께 확장 가능한 자원 그룹을 생성합니다.


       # clresourcegroup create \
         -p Maximum_primaries=m\
         -p Desired_primaries=n\
        [-n node-zone-list] hasp-resource-group
    
    -p Maximum_primaries=m

    자원 그룹에 활성 기본 노드의 최대 수를 지정합니다.

    -p Desired_primaries=n

    자원 그룹이 시작을 시도한 활성 기본 노드의 수를 지정합니다.

    -n node-zone-list

    HAStoragePlus 자원 그룹의 노드 목록에서 노드 이름의 목록을 지정합니다.HAStoragePlus 자원 그룹의 노드 목록으로 영역 이름 쌍. 여기서 SAP 인스턴스가 온라인 상태로 전환될 수 있습니다.

    hasp-resource-group

    추가할 확장 가능한 자원 그룹의 이름을 지정합니다. 이 이름은 ASCII 문자로 시작되어야 합니다.

  3. HAStoragePlus 자원에 대한 자원 유형을 등록합니다.


    # clresourcetype register HAStoragePlus
  4. HAStoragePlus 자원 hasp-resource를 만들고 SAP 파일 시스템 마운트 포인트 및 전역 장치 경로를 정의합니다.


     # clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \
        -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \
        -p affinityon=false -p
    FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource
    
    -g hasp-resource-group

    자원 그룹 이름을 지정합니다.

    GlobalDevicePaths

    다음 값을 포함시킵니다.

    • 전역 장치 그룹 이름(예: sap-dg, dsk/d5 )

    • 전역 장치에 대한 경로(예: /dev/global/dsk/d5s2, /dev/md/sap-dg/dsk/d6)

    FilesystemMountPoints

    다음 값을 포함시킵니다.

    • 로컬 시스템 또는 클러스터 파일 시스템의 마운트 포인트(예: /local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC)

    HAStoragePlus 자원이 활성화된 상태로 생성됩니다.

  5. SAP 응용 프로그램에 대한 자원 유형을 등록합니다.


    # clresourcetype register resource-type
    
    resource-type

    추가할 자원 그룹의 이름을 지정합니다. 자세한 내용은 지원 제품을 참조하십시오.

  6. SAP 자원 그룹을 생성합니다.


      # clresourcegroup create [-n node-zone-list] -p 
    RG_affinities=++hastorageplus-rg resource-group-1
    
    resource-group-1

    SAP 서비스 자원 그룹을 지정합니다.

  7. SAP 응용 프로그램 자원을 resource-group-1에 추가하고 종속성을 hastorageplus-1로 설정합니다.


       # clresource create -g resource-group-1 -t SUNW.application \
         [-p "extension-property[{node-specifier}]"=value, ?] \
         -p Resource_dependencies=hastorageplus-1 resource
    
  8. 장애 복구 자원 그룹을 온라인화합니다.


    # clresourcegroup online resource-group-1
    

시스템 관리 안내서

이 절에서는 Solaris OS용 Sun Cluster 시스템 관리 안내서의 오류 및 누락에 대해 설명합니다.

비클러스터 모드로 부트된 노드에서 Solaris Volume Manager 메타 세트 전환

Procedure비클러스터 모드로 부트된 노드에서 Solaris Volume Manager 메타 세트를 전환하는 방법

테스트 목적으로 이 절차를 사용하여 클러스터 외부에서 응용 프로그램을 실행합니다.

  1. 쿼럼 장치가 Solaris Volume Manager 메타 세트에서 사용되고 있는지 및 쿼럼 장치가 scsi2 또는 scsi3 예약을 사용하는지를 확인합니다.


    # clquorum show
    
    1. 쿼럼 장치가 Solaris Volume Manager 메타 세트에 있는 경우, 나중에 비클러스터 모드로 전환할 메타 세트의 일부가 아닌 새 쿼럼 장치를 추가합니다.


      # clquorum add did
      
    2. 이전의 쿼럼 장치를 제거합니다.


      # clqorum remove did
      
    3. 쿼럼 장치가 scsi2 예약을 사용하는 경우, 이전 쿼럼에서 scsi2 예약을 초기화하고 남아 있는 scsi2 예약이 없는지 확인합니다.


      # /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2
      # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2
      
  2. 비클러스터 모드로 부트할 노드를 제거합니다.


    # clresourcegroup evacuate -n targetnode
    
  3. HAStorage 또는 HAStoragePlus 자원이 포함된 자원 그룹을 오프라인 상태로 전환하고 나중에 비클러스터 모드로 전환할 메타 세트에 의해 영향을 받은 장치 또는 파일 시스템을 포함시킵니다.


    # clresourcegroup offline resourcegroupname
    
  4. 오프라인으로 전환한 자원 그룹의 모든 자원을 비활성화합니다.


    # clresource disable resourcename
    
  5. 자원 그룹을 관리 해제합니다.


    # clresourcegroup unmanage resourcegroupname
    
  6. 해당하는 장치 그룹을 오프라인으로 전환합니다.


    # cldevicegroup offline devicegroupname
    
  7. 장치 그룹을 비활성화합니다.


    # cldevicegroup disable devicegroupname
    
  8. 패시브 노드를 비클러스터 모드로 부트합니다.


    # reboot -x
    
  9. 진행하기 전에 부트 프로세스가 패시브 노드에서 완료되었는지 확인합니다.

    • Solaris 9

      부트 프로세스가 완료된 후에만 로그인 프롬프트가 나타나므로 요청되는 작업이 없습니다.

    • Solaris 10


      # svcs -x
      
  10. 디스크 세트 또는 메타 세트의 디스크에 scsi3 예약이 있는지 확인합니다. 메타 세트의 모든 디스크에서 다음 명령을 수행합니다.


    # /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2
    
  11. 디스크에 scsi3 예약이 있는 경우, scsi3 예약을 초기화합니다.


    # /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2
    
  12. 제거된 노드의 메타 세트를 전환합니다.


    # metaset -s name -C take -f
    
  13. 메타 세트의 정의된 장치가 포함된 파일 시스템을 마운팅합니다.


    # mount device mountpoint
    
  14. 응용 프로그램을 시작하고 원하는 테스트를 수행합니다. 테스트를 완료한 후 응용 프로그램을 중지합니다.

  15. 노드를 재부트하고 부트 프로세스가 완료될 때까지 기다립니다.


    # reboot
    
  16. 장치 그룹을 온라인으로 전환합니다.


    # cldevicegroup online -e devicegroupname
    
  17. 자원 그룹을 시작합니다.


    # clresourcegroup online -eM  resourcegroupname 
    

Sun Cluster에서 Solaris IP 필터링 사용

Sun Cluster는 다음 제한사항과 함께 Solaris IP 필터링을 지원합니다.

ProcedureSolaris IP 필터링을 설정하는 방법

  1. /etc/iu.ap 파일에서 공용 NIC 항목을 수정하여 모듈 목록으로 clhbsndr pfil을 나열합니다.

    pfil은 목록에서 마지막 모듈이어야 합니다.


    주 –

    개인 및 공용 네트워크에 대해 동일한 유형의 어댑터를 갖고 있는 경우, /etc/iu.ap 파일은 pfil을 개인 네트워크 스트림으로 보냅니다. 그러나, 스트림 생성 시 클러스터 전송 모듈이 불필요한 모든 모듈을 자동으로 제거하므로 pfil은 개인 네트워크 스트림에서 제거됩니다.


  2. IP 필터가 비클러스터 모드로 작동되는지 확인하려면 /etc/ipf/pfil.ap 파일을 업데이트합니다.

    /etc/iu.ap 파일에 대한 업데이트가 약간 다릅니다. 자세한 내용은 IP 필터 문서를 참조하십시오.

  3. 영향을 받은 모든 노드를 재부트합니다.

    롤링 방식으로 노드를 부트할 수 있습니다.

  4. 영향을 받은 모든 노드의 /etc/ipf/ipf.conf 파일에 필터 규칙을 추가합니다. IP 필터 규칙 구문에 대한 자세한 내용은 ipf(4)를 참조하십시오.

    Sun Cluster 노드에 필터 규칙을 추가할 때 다음 지침 및 요구 사항을 주의하십시오.

    • Sun Cluster는 노드에서 노드로 네트워크 주소의 장애를 복구합니다. 장애 복구 시 필요한 특수 절차나 코드가 없습니다.

    • 모든 클러스터 노드에서 논리적 호스트 이름의 IP 주소 및 공유 주소 자원을 참조하는 모든 필터링 규칙은 동일해야 합니다.

    • 대기 노드의 규칙은 존재하지 않는 IP 주소를 참조합니다. 이 규칙은 IP 필터의 활성 규칙 세트의 일부이고 노드가 장애 복구 후 주소를 수신할 때 영향을 받습니다.

    • 모든 필터링 규칙은 동일한 IPMP 그룹의 모든 NIC에서 동일해야 합니다. 즉, 규칙이 특정 인터페이스인 경우, 동일한 IPMP 그룹의 다른 모든 인터페이스에도 동일한 규칙이 존재해야 합니다.

  5. ipfilter SMF 서비스를 활성화합니다.


    # svcadm enable /network/ipfilter:default
    

데이터 서비스 개발자 안내서

이 절에서는 Sun Cluster Data Services Developer’s Guide for Solaris OS의 오류 및 누락에 대해 설명합니다.

비전역 영역에서의 확장 가능한 특정 서비스 지원

Sun Cluster Data Services Developer’s Guide for Solaris OSResource Type Properties에 있는 Failover 자원 등록 정보에 대한 설명 중, 비전역 영역에서 확장 가능한 서비스 지원에 관한 내용이 빠져 있습니다. 이 지원은 자원 유형의 Failover 등록 정보가 FALSE로 설정되고 자원의 Scalable 등록 정보가 TRUE로 설정된 자원에 적용됩니다. 등록 정보 설정 조합은 네트워크 로드 균형 조정을 위해 SharedAddress 자원을 사용하는 확장 가능한 서비스를 나타냅니다. Sun Cluster 3.2 릴리스에서는 비전역 영역으로 실행되는 자원 그룹의 유형에 대해 확장 가능한 서비스를 구성할 수 있습니다. 그러나, 확장 가능한 서비스를 구성하여 동일한 노드의 다중 비전역 영역에서 실행할 수는 없습니다.

메소드 시간 초과 동작이 변경됨

Sun Cluster 3.2 릴리스의 메소드 시간 초과 동작에 대한 설명이 빠져 있습니다. RGM 메소드 콜백이 시간 초과되면 SIGTERM 신호 대신 SIGABRT 신호를 사용하여 프로세스가 강제 종료됩니다. 따라서, 프로세스 그룹의 모든 구성원이 코어 파일을 생성합니다.


주 –

새 프로세스 그룹을 생성하는 데이터 서비스 메소드를 작성하지 마십시오. 사용자의 데이터 서비스 메소드에서 새 프로세스 그룹 작성을 필요로 하는 경우, SIGTERMSIGABRT 신호에 대한 신호 처리기도 작성합니다. 신호 처리기가 상위 프로세스를 종료하기 전에 SIGTERM 또는 SIGABRT 신호를 하위 프로세스 그룹에 전달하도록 신호 처리기를 작성합니다. 이렇게 하면 메소드에 의해 만들어진 모든 프로세스가 적절하게 종료되는 확률이 높아집니다.


CRNP는 전역 영역에서만 실행됩니다.

Sun Cluster Data Services Developer’s Guide for Solaris OS의 12 장, Cluster Reconfiguration Notification Protocol에는 Solaris 10 OS의 경우, CRNP(Cluster Reconfiguration Notification Protocol)가 전역 영역에서만 실행된다는 내용이 빠져 있습니다.

필수 Solaris 소프트웨어 그룹에 대한 내용이 명확하지 않음

Sun Cluster Data Services Developer’s Guide for Solaris OSSetting Up the Development Environment for Writing a Data Service에는 Solaris 소프트웨어 그룹 개발자나 전체 배포판이 필요하다는 내용이 있습니다. 이 내용은 개발 시스템에는 적용되지 않습니다. 그러나, 이 내용은 클러스터에서 데이터 서비스를 테스트하는 내용 다음에 위치하므로 데이터 서비스가 실행되고 있는 클러스터에 대한 요구 사항인 것처럼 잘못 이해할 수 있습니다.

쿼럼 서버 사용자 안내서

이 절에서는 Sun Cluster Quorum Server User’s Guide의 오류 및 누락에 대해 설명합니다.

지원되는 소프트웨어 및 하드웨어 플랫폼

다음 설치 요구 사항 및 안내 지침은 빠져 있거나 명확하지 않습니다.

설명서 페이지

이 절에서는 Sun Cluster 매뉴얼 페이지의 오류, 누락 및 추가 사항에 대해 설명합니다.

ccp(1M)

ccp(1M) 매뉴얼 페이지에 대해 다음 개정된 개요 및 추가된 옵션 절에는 CCP(Cluster Control Panel) 유틸리티의 Secure Shell 지원에 대한 추가 내용이 기록되어 있습니다.

개관


$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename}

옵션

다음 옵션이 지원됩니다.

-l username

ssh 연결을 위한 사용자 이름을 지정합니다. 이 옵션은 유틸리티가 CCP에서 시작될 때 cconsole, crlogin 또는 cssh 유틸리티로 전달됩니다. ctelnet 유틸리티는 이 옵션을 무시합니다.

-l 옵션을 지정하지 않으면 CCP를 시작한 사용자 이름이 사용됩니다.

-p ssh-port

사용할 Secure Shell 포트 번호를 지정합니다. 이 옵션은 유틸리티가 CCP에서 시작될 때 cssh 유틸리티로 전달됩니다. cconsole, crloginctelnet 유틸리티는 이 옵션을 무시합니다.

-p 옵션을 지정하지 않으면 보안 연결에 기본 포트 번호 22가 사용됩니다.

-s

노드 콘솔에 telnet 연결 대신 Secure Shell 연결을 사용하여 지정합니다. 이 옵션은 유틸리티가 CCP에서 시작될 때 cconsole 유틸리티로 전달됩니다. crlogin, cssh ctelnet 유틸리티는 이 옵션을 무시합니다.

-s 옵션을 지정하지 않으면 cconsole 유틸리티는 콘솔에 telnet 연결을 사용합니다.

-s 옵션을 무시하려면 cconsole 그래픽 사용자 인터페이스(GUI)의 옵션 메뉴에서 SSH 사용 확인란을 선택 해제합니다.

cconsole(1M), crlogin(1M), cssh(1M) 및 ctelnet(1M)

결합된 cconsole, crlogin, csshctelnet 매뉴얼 페이지에 대한 다음의 개정된 개요 및 추가된 옵션 선택에는 Cluster Control Panel 유틸리티에 대한 Secure Shell 지원의 추가 내용이 기록되어 있습니다.

개관


$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…]
$CLUSTER_HOME/bin/ctelnet [clustername… | nodename…]

DESCRIPTION

cssh

이 유틸리티는 클러스터 노드에 직접 Secure Shell 연결을 설정합니다.

OPTIONS

-l username

원격 연결을 위한 ssh 사용자 이름을 지정합니다. 이 옵션은 cconsole, crlogincssh 명령에서 유효합니다.

연결할 때 나중에 지정되는 클러스터 및 노드가 동일한 사용자 이름을 사용하도록 인수 값을 기억하는 것이 좋습니다.

-l 옵션을 지정하지 않으면 명령을 시작한 사용자 이름이 사용됩니다.

-p ssh-port

사용할 Secure Shell 포트 번호를 지정합니다. 이 옵션은 cssh 명령에서 유효합니다.

-p 옵션을 지정하지 않으면 보안 연결에 기본 포트 번호 22가 사용됩니다.

-s

노드 콘솔에 telnet 연결 대신 Secure Shell 연결을 사용하여 지정합니다. 이 옵션은 cconsole 명령에서 유효합니다.

-s 옵션을 지정하지 않으면 유틸리티는 콘솔에 대한 telnet 연결을 사용합니다.

cconsole 그래픽 사용자 인터페이스(GUI)에서 -s 옵션을 무시하려면 옵션 메뉴에서 SSH 사용 확인란을 선택 해제합니다.

clnode(1CL)

clresource(1CL)

clresourcegroup(1CL)

r_properties(5)

rt_properties(5)

Failover 자원 유형 등록 정보에 대한 설명 중, Sun Cluster 3.2 릴리스의 비전역 영역에서의 확장 가능한 서비스 지원과 관련하여 잘못된 내용이 포함되어 있습니다. 이 내용은 자원 유형의 Failover 등록 정보가 FALSE로 설정되고 자원의 Scalable 등록 정보가 TRUE로 설정된 자원에 적용됩니다.

serialports(4)

다음 정보는 serialport(4) 매뉴얼 페이지의 설명 절에 대한 추가 내용입니다.

노드 콘솔에 대한 Secure Shell 연결을 지원하려면 /etc/serialports 파일에서 각 노드에 대한 콘솔 액세스 장치의 이름 및 Secure Shell 포트 번호를 지정합니다. 콘솔 액세스 장치에서 기본 Secure Shell 구성을 사용하려면 포트 번호 22를 지정합니다.

SUNW.Event(5)

SUNW.Event(5) 매뉴얼 페이지에는 Solaris 10 OS의 경우, CRNP(Cluster Reconfiguration Notification Protocol)가 전역 영역에서만 실행된다는 내용이 빠져 있습니다.