이 절에서는 Sun Cluster 3.2 릴리스의 문서, 온라인 도움말 또는 매뉴얼 페이지의 오류 또는 누락에 대해 설명합니다.
이 절에서는 Sun Cluster Concepts Guide for Solaris OS의 오류 및 누락 내용을 설명합니다.
Sun Cluster Concepts Guide for Solaris OS의 Sun Cluster Topologies for x86 절에 있는 다음 문장은 Sun Cluster 3.2 릴리스 이전 내용입니다. "x86 기반 시스템으로 구성된 Sun Cluster는 한 클러스터에서 2개의 노드를 지원합니다."
명령문은 다음과 같이 표시되어야 합니다. "x86 기반 시스템으로 구성된 Sun Cluster 구성은 Oracle RAC를 실행하는 클러스터에서 최대 8개의 노드를 지원하고 Oracle RAC를 실행하지 않는 클러스터에서는 최대 4개의 노드를 지원합니다."
이 절에서는 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서의 오류 또는 누락된 내용을 설명합니다.
Sun Cluster Geographic Edition 소프트웨어를 실행하는 클러스터를 업그레이드할 경우, Sun Cluster 소프트웨어 업그레이드를 시작하기 전에 수행해야 할 추가 준비 단계가 있습니다. 이러한 단계에는 Sun Cluster Geographic Edition 기반 구조의 종료가 포함됩니다. 대신 Sun Cluster Geographic Edition Installation Guide의 4 장, Upgrading the Sun Cluster Geographic Edition Software로 이동하십시오. Sun Cluster 소프트웨어 업그레이드를 수행하기 위해 Sun Cluster 소프트웨어 설치 안내서로 돌아갈 때 이러한 절차가 기록됩니다.
이 절은 Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 오류 및 누락에 대하여 설명합니다.
Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 Resource Type Properties에 있는 Failover 자원 등록 정보에 대한 설명 중, 비전역 영역에서 확장 가능한 서비스 지원에 관한 내용이 빠져 있습니다. 이 지원은 자원 유형의 Failover 등록 정보가 FALSE로 설정되고 자원의 Scalable 등록 정보가 TRUE로 설정된 자원에 적용됩니다. 등록 정보 설정 조합은 네트워크 로드 균형 조정을 위해 SharedAddress 자원을 사용하는 확장 가능한 서비스를 나타냅니다. Sun Cluster 3.2 릴리스에서는 비전역 영역으로 실행되는 자원 그룹의 유형에 대해 확장 가능한 서비스를 구성할 수 있습니다. 그러나, 확장 가능한 서비스를 구성하여 동일한 노드의 다중 비전역 영역에서 실행할 수는 없습니다.
이 절에서는 Sun Cluster Data Service for MaxDB Guide for Solaris OS의 오류 및 누락에 대해 설명합니다.
Sun Cluster Data Service for MaxDB는 SPARC 및 x86 기반 시스템에서 비전역 영역을 지원합니다. 이 지원을 위해 Sun Cluster Data Service MaxDB Guide에 다음사항이 변경되어야 합니다. 전역 영역에서 실행하도록 구성된 클러스터에서 다음 단계를 수행할 수 있습니다. 비전역 영역에서 실행할 클러스터를 설치할 경우, 아래와 같은 단계 중 일부는 필요하지 않을 수도 있습니다.
각 영역에서 이름 서비스 조회로 인한 실패를 피하기 위해 모든 네트워크 자원이 /etc/hosts 파일에 있도록 합니다.
각 영역에서 /etc/group 파일의 MaxDB 그룹에 대한 항목을 만들고 잠재적 사용자를 그룹에 추가합니다.
각 영역에 MaxDB 사용자 ID에 대한 항목을 생성합니다.
다음 명령을 사용하여 사용자 ID에 대한 항목으로 /etc/passwd 및 /etc/shadow 파일을 업데이트합니다.
# useradd -u uid -g group -d /sap-home maxdb user |
MaxDB가 잠재적으로 실행할 수 있는 영역에 마운트 포인트 디렉토리를 생성합니다.
전환 또는 장애 복구의 경우, Sun Cluster HA for MaxDB가 올바르게 시작되고 중지되도록 /etc/nsswitch.conf 파일을 구성합니다.
각 영역에서 전역 영역 /etc/services에서 가져온 모든 필수 MaxDB 포트로 /etc/services 파일을 업데이트합니다. 비전역 영역에 설치되어 있는 Max DB에는 이 단계가 필요하지 않을 수도 있습니다.
전역 영역에서 모든 로컬 영역 노드로 /etc/opt/sdb를 복사합니다. 비전역 영역에 설치되어 있는 MaxDB에는 이 단계가 필요하지 않을 수도 있습니다.
전역 영역에서 모든 로컬 영역 노드로 /var/spool/sql을 복사합니다. 비전역 영역에 설치되어 있는 MaxDB에는 이 단계가 필요하지 않을 수도 있습니다.
MaxDB를 실행할 모든 로컬 영역의 crle -64 -u -l /sapmnt/MaxDBSystemName/exe를 x86 기반 시스템에서만 실행합니다.
이 절에서는 Sun Cluster Data Service for SAP Guide for Solaris OS의 오류 및 누락에 대해 설명합니다.
Sun Cluster Data Service for SAP는 SPARC 및 x86 기반 시스템에서 비전역 영역을 지원합니다. 이 지원을 위해 Sun Cluster Data Service SAP Guide에 다음 사항이 변경되어야 합니다. 전역 영역에서 실행하도록 구성된 클러스터에서 다음 단계를 수행할 수 있습니다. 비전역 영역에서 실행할 클러스터를 설치할 경우, 아래와 같은 단계 중 일부는 필요하지 않을 수도 있습니다.
각 영역에서 이름 서비스 조회로 인한 실패를 피하기 위해 모든 네트워크 자원이 /etc/hosts 파일에 있도록 합니다.
각 영역에서 /etc/group 파일의 SAP 그룹에 대한 항목을 만들고 잠재적 사용자를 그룹에 추가합니다.
각 영역에 SAP 사용자 ID에 대한 항목을 생성합니다.
다음 명령을 사용하여 사용자 ID에 대한 항목으로 /etc/passwd 및 /etc/shadow 파일을 업데이트합니다.
# useradd -u uid -g group -d /sap-home sap user |
SAP가 잠재적으로 실행할 수 있는 영역에 마운트 포인트 디렉토리를 생성합니다.
전환 또는 장애 복구의 경우, Sun Cluster HA for SAP가 올바르게 시작되고 중지되도록 /etc/nsswitch.conf 파일을 구성합니다.
각 영역에서 전역 영역 /etc/services에서 가져온 모든 필수 SAP 포트로 /etc/services 파일을 업데이트합니다. 비전역 영역에 설치되어 있는 SAP에는 이 단계가 필요하지 않을 수도 있습니다.
SAP가 실행될 모든 로컬 영역의 crle -64 -u -l /sapmnt/SAPSystemName/exe를 x86 기반 시스템에서만 실행합니다.
이 절에서는 Sun Cluster Data Service for SAP liveCache Guide for Solaris OS의 오류 및 누락에 대해 설명합니다.
Sun Cluster Data Service for SAP liveCache는 SPARC 및 x86 기반 시스템에서 비전역 영역을 지원합니다. 이 지원을 위해 Sun Cluster Data Service SAP liveCache Guide에 다음 사항이 변경되어야 합니다. 전역 영역에서 실행하도록 구성된 클러스터에서 다음 단계를 수행할 수 있습니다. 비전역 영역에서 실행할 클러스터를 설치할 경우, 아래와 같은 단계 중 일부는 필요하지 않을 수도 있습니다.
각 영역에서 이름 서비스 조회로 인한 실패를 피하기 위해 모든 네트워크 자원이 /etc/hosts 파일에 있도록 합니다.
각 영역에서 /etc/group 파일의 SAP liveCache 그룹에 대한 항목을 만들고 잠재적 사용자를 그룹에 추가합니다.
각 영역에 SAP liveCache 사용자 ID에 대한 항목을 생성합니다.
다음 명령을 사용하여 사용자 ID에 대한 항목으로 /etc/passwd 및 /etc/shadow 파일을 업데이트합니다.
# useradd -u uid -g group -d /sap-home sap user |
SAP liveCache가 잠재적으로 실행될 수 있는 영역에 마운트 포인트 디렉토리를 생성합니다.
전환 또는 장애 복구의 경우, Sun Cluster HA for SAP liveCache가 올바르게 시작되고 중지되도록 /etc/nsswitch.conf 파일을 구성합니다.
각 영역에서 전역 영역 /etc/services에서 가져온 모든 필수 SAP liveCache 포트로 /etc/services 파일을 업데이트합니다. 비전역 영역에 설치되어 있는 SAP liveCache에는 이 단계가 필요하지 않을 수도 있습니다.
전역 영역에서 모든 로컬 영역 노드로 /etc/opt/sdb를 복사합니다. 비전역 영역에 설치되어 있는 SAP liveCache에는 이 단계가 필요하지 않을 수도 있습니다.
전역 영역에서 모든 로컬 영역 노드로 /var/spool/sql을 복사합니다. 비전역 영역에 설치되어 있는 SAP liveCache에는 이 단계가 필요하지 않을 수도 있습니다.
SAP liveCache가 실행될 모든 로컬 영역의 crle -64 -u -l /sapmnt/SAPSystemName/exe를 x86 기반 시스템에서만 실행합니다.
이 절에서는 Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS의 오류 및 누락에 대해 설명합니다.
SAP 7.0 및 NW2004SR1에서는 SAP 인스턴스가 시작될 때 기본적으로 sapstartsrv 프로세스가 시작됩니다. sapstartsrv 프로세스는 Sun Cluster HA for SAP Web Application Server의 제어 하에 있지 않습니다. 따라서 SAP 인스턴스가 Sun Cluster HA for SAP Web Application Server에 의해 중지되거나 장애 복구될 때 sapstartsrv 프로세스가 중지되지 않습니다.
SAP 인스턴스가 Sun Cluster HA for SAP Web Application에 의해 시작될 때 sapstartsrv 프로세스를 시작되지 않도록 하려면 startsap 스크립트를 수정해야 합니다. 또한, 모든 Sun Cluster 노드의 /etc/rc3.d/S90sapinit 파일 이름을 /etc/rc3.d/xxS90sapinit 로 변경해야 합니다.
Sun Cluster Data Service for SAP Web Application Server는 SPARC 및 x86 기반 시스템에서 비전역 영역을 지원합니다. 이 지원을 위해 Sun Cluster Data Service SAP Web Application Server Guide에 다음 사항이 변경되어야 합니다. 전역 영역에서 실행하도록 구성된 클러스터에서 다음 단계를 수행할 수 있습니다. 비전역 영역에서 실행할 클러스터를 설치할 경우, 아래와 같은 단계 중 일부는 필요하지 않을 수도 있습니다.
각 영역에서 이름 서비스 조회로 인한 실패를 피하기 위해 모든 네트워크 자원이 /etc/hosts 파일에 있도록 합니다.
각 영역에서 /etc/group 파일의 SAP Web Application Server 그룹에 대한 항목을 만들고 잠재적 사용자를 그룹에 추가합니다.
각 영역에 SAP Web Application Server 사용자 ID에 대한 항목을 생성합니다.
다음 명령을 사용하여 사용자 ID에 대한 항목으로 /etc/passwd 및 /etc/shadow 파일을 업데이트합니다.
# useradd -u uid -g group -d /sap-home sap user |
SAP Web Application Server가 잠재적으로 실행될 수 있는 영역에 마운트 포인트 디렉토리를 생성합니다.
전환 또는 장애 복구의 경우, Sun Cluster HA for SAP가 올바르게 시작되고 중지되도록 /etc/nsswitch.conf 파일을 구성합니다.
각 영역에서 전역 영역 /etc/services에서 가져온 모든 필수 SAP 포트로 /etc/services 파일을 업데이트합니다. 비전역 영역에 설치되어 있는 SAP Web Application Server에는 이 단계가 필요하지 않을 수도 있습니다.
SAP가 실행될 모든 로컬 영역의 crle -64 -u -l /sapmnt/SAPSystemName/exe를 x86 기반 시스템에서만 실행합니다.
다음 절차를 사용하여 비전역 영역에 대한 HAStoragePlus 자원을 구성합니다.
클러스터 파일 시스템에 대한 /etc/vfstab 파일의 항목에 마운트 포인트의 전역 키워드가 포함되어야 합니다.
HAStoragePlus 자원을 사용하여 고가용성으로 만드는 SAP 바이너리는 비전역 영역에서 액세스할 수 있어야 합니다.
비전역 영역에서 다른 자원 그룹의 다른 자원에 의해 사용된 파일 시스템은 확장 가능한 자원 그룹에 있는 단일 HAStoragePlus 자원으로 존재해야 합니다. 확장 가능한 HAStoragePlus 자원 그룹의 노드 목록은 파일 시스템에 의존하는 자원이 있는 응용 프로그램 자원 그룹에 대한 노드 목록의 상위 집합이어야 합니다. 파일 시스템에 의존하는 이러한 응용 프로그램 자원에는 HAStoragePlus 자원으로 설정된 강한 자원 종속성이 있어야 합니다. 또한, 종속 응용 프로그램 자원 그룹에는 확장 가능한 HAStoragePlus 자원 그룹으로 설정된 강한 자원 그룹 유사성이 있어야 합니다.
클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.
HAStoragePlus 자원이 포함된 비전역 영역과 함께 확장 가능한 자원 그룹을 생성합니다.
# clresourcegroup create \ -p Maximum_primaries=m\ -p Desired_primaries=n\ [-n node-zone-list] hasp-resource-group |
자원 그룹에 활성 기본 노드의 최대 수를 지정합니다.
자원 그룹이 시작을 시도한 활성 기본 노드의 수를 지정합니다.
HAStoragePlus 자원 그룹의 노드 목록에서 노드 이름의 목록을 지정합니다.HAStoragePlus 자원 그룹의 노드 목록으로 영역 이름 쌍. 여기서 SAP 인스턴스가 온라인 상태로 전환될 수 있습니다.
추가할 확장 가능한 자원 그룹의 이름을 지정합니다. 이 이름은 ASCII 문자로 시작되어야 합니다.
HAStoragePlus 자원에 대한 자원 유형을 등록합니다.
# clresourcetype register HAStoragePlus |
HAStoragePlus 자원 hasp-resource를 만들고 SAP 파일 시스템 마운트 포인트 및 전역 장치 경로를 정의합니다.
# clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \ -p affinityon=false -p FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource |
자원 그룹 이름을 지정합니다.
다음 값을 포함시킵니다.
전역 장치 그룹 이름(예: sap-dg, dsk/d5 )
전역 장치에 대한 경로(예: /dev/global/dsk/d5s2, /dev/md/sap-dg/dsk/d6)
다음 값을 포함시킵니다.
로컬 시스템 또는 클러스터 파일 시스템의 마운트 포인트(예: /local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC)
HAStoragePlus 자원이 활성화된 상태로 생성됩니다.
SAP 응용 프로그램에 대한 자원 유형을 등록합니다.
# clresourcetype register resource-type |
추가할 자원 그룹의 이름을 지정합니다. 자세한 내용은 지원 제품을 참조하십시오.
SAP 자원 그룹을 생성합니다.
# clresourcegroup create [-n node-zone-list] -p RG_affinities=++hastorageplus-rg resource-group-1 |
SAP 서비스 자원 그룹을 지정합니다.
SAP 응용 프로그램 자원을 resource-group-1에 추가하고 종속성을 hastorageplus-1로 설정합니다.
# clresource create -g resource-group-1 -t SUNW.application \ [-p "extension-property[{node-specifier}]"=value, ?] \ -p Resource_dependencies=hastorageplus-1 resource |
장애 복구 자원 그룹을 온라인화합니다.
# clresourcegroup online resource-group-1 |
이 절에서는 Solaris OS용 Sun Cluster 시스템 관리 안내서의 오류 및 누락에 대해 설명합니다.
테스트 목적으로 이 절차를 사용하여 클러스터 외부에서 응용 프로그램을 실행합니다.
쿼럼 장치가 Solaris Volume Manager 메타 세트에서 사용되고 있는지 및 쿼럼 장치가 scsi2 또는 scsi3 예약을 사용하는지를 확인합니다.
# clquorum show |
쿼럼 장치가 Solaris Volume Manager 메타 세트에 있는 경우, 나중에 비클러스터 모드로 전환할 메타 세트의 일부가 아닌 새 쿼럼 장치를 추가합니다.
# clquorum add did |
이전의 쿼럼 장치를 제거합니다.
# clqorum remove did |
쿼럼 장치가 scsi2 예약을 사용하는 경우, 이전 쿼럼에서 scsi2 예약을 초기화하고 남아 있는 scsi2 예약이 없는지 확인합니다.
# /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2 # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2 |
비클러스터 모드로 부트할 노드를 제거합니다.
# clresourcegroup evacuate -n targetnode |
HAStorage 또는 HAStoragePlus 자원이 포함된 자원 그룹을 오프라인 상태로 전환하고 나중에 비클러스터 모드로 전환할 메타 세트에 의해 영향을 받은 장치 또는 파일 시스템을 포함시킵니다.
# clresourcegroup offline resourcegroupname |
오프라인으로 전환한 자원 그룹의 모든 자원을 비활성화합니다.
# clresource disable resourcename |
자원 그룹을 관리 해제합니다.
# clresourcegroup unmanage resourcegroupname |
해당하는 장치 그룹을 오프라인으로 전환합니다.
# cldevicegroup offline devicegroupname |
장치 그룹을 비활성화합니다.
# cldevicegroup disable devicegroupname |
패시브 노드를 비클러스터 모드로 부트합니다.
# reboot -x |
진행하기 전에 부트 프로세스가 패시브 노드에서 완료되었는지 확인합니다.
Solaris 9
부트 프로세스가 완료된 후에만 로그인 프롬프트가 나타나므로 요청되는 작업이 없습니다.
Solaris 10
# svcs -x |
디스크 세트 또는 메타 세트의 디스크에 scsi3 예약이 있는지 확인합니다. 메타 세트의 모든 디스크에서 다음 명령을 수행합니다.
# /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2 |
디스크에 scsi3 예약이 있는 경우, scsi3 예약을 초기화합니다.
# /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2 |
제거된 노드의 메타 세트를 전환합니다.
# metaset -s name -C take -f |
메타 세트의 정의된 장치가 포함된 파일 시스템을 마운팅합니다.
# mount device mountpoint |
응용 프로그램을 시작하고 원하는 테스트를 수행합니다. 테스트를 완료한 후 응용 프로그램을 중지합니다.
노드를 재부트하고 부트 프로세스가 완료될 때까지 기다립니다.
# reboot |
장치 그룹을 온라인으로 전환합니다.
# cldevicegroup online -e devicegroupname |
자원 그룹을 시작합니다.
# clresourcegroup online -eM resourcegroupname |
Sun Cluster는 다음 제한사항과 함께 Solaris IP 필터링을 지원합니다.
장애 복구 데이터 서비스만 지원됩니다.
Sun Cluster는 확장 가능한 데이터 서비스와 함께 IP 필터링을 지원하지 않습니다.
무상태 필터링만 지원됩니다.
NAT 경로 지정은 지원되지 않습니다.
로컬 주소의 변환에 대한 NAT의 사용이 지원됩니다. NAT 변환은 선 위에 있는 패킷을 다시 쓰기 때문에 클러스터 소프트웨어에 대해 투명합니다.
/etc/iu.ap 파일에서 공용 NIC 항목을 수정하여 모듈 목록으로 clhbsndr pfil을 나열합니다.
pfil은 목록에서 마지막 모듈이어야 합니다.
개인 및 공용 네트워크에 대해 동일한 유형의 어댑터를 갖고 있는 경우, /etc/iu.ap 파일은 pfil을 개인 네트워크 스트림으로 보냅니다. 그러나, 스트림 생성 시 클러스터 전송 모듈이 불필요한 모든 모듈을 자동으로 제거하므로 pfil은 개인 네트워크 스트림에서 제거됩니다.
IP 필터가 비클러스터 모드로 작동되는지 확인하려면 /etc/ipf/pfil.ap 파일을 업데이트합니다.
/etc/iu.ap 파일에 대한 업데이트가 약간 다릅니다. 자세한 내용은 IP 필터 문서를 참조하십시오.
영향을 받은 모든 노드를 재부트합니다.
롤링 방식으로 노드를 부트할 수 있습니다.
영향을 받은 모든 노드의 /etc/ipf/ipf.conf 파일에 필터 규칙을 추가합니다. IP 필터 규칙 구문에 대한 자세한 내용은 ipf(4)를 참조하십시오.
Sun Cluster 노드에 필터 규칙을 추가할 때 다음 지침 및 요구 사항을 주의하십시오.
Sun Cluster는 노드에서 노드로 네트워크 주소의 장애를 복구합니다. 장애 복구 시 필요한 특수 절차나 코드가 없습니다.
모든 클러스터 노드에서 논리적 호스트 이름의 IP 주소 및 공유 주소 자원을 참조하는 모든 필터링 규칙은 동일해야 합니다.
대기 노드의 규칙은 존재하지 않는 IP 주소를 참조합니다. 이 규칙은 IP 필터의 활성 규칙 세트의 일부이고 노드가 장애 복구 후 주소를 수신할 때 영향을 받습니다.
모든 필터링 규칙은 동일한 IPMP 그룹의 모든 NIC에서 동일해야 합니다. 즉, 규칙이 특정 인터페이스인 경우, 동일한 IPMP 그룹의 다른 모든 인터페이스에도 동일한 규칙이 존재해야 합니다.
ipfilter SMF 서비스를 활성화합니다.
# svcadm enable /network/ipfilter:default |
이 절에서는 Sun Cluster Data Services Developer’s Guide for Solaris OS의 오류 및 누락에 대해 설명합니다.
Sun Cluster Data Services Developer’s Guide for Solaris OS의 Resource Type Properties에 있는 Failover 자원 등록 정보에 대한 설명 중, 비전역 영역에서 확장 가능한 서비스 지원에 관한 내용이 빠져 있습니다. 이 지원은 자원 유형의 Failover 등록 정보가 FALSE로 설정되고 자원의 Scalable 등록 정보가 TRUE로 설정된 자원에 적용됩니다. 등록 정보 설정 조합은 네트워크 로드 균형 조정을 위해 SharedAddress 자원을 사용하는 확장 가능한 서비스를 나타냅니다. Sun Cluster 3.2 릴리스에서는 비전역 영역으로 실행되는 자원 그룹의 유형에 대해 확장 가능한 서비스를 구성할 수 있습니다. 그러나, 확장 가능한 서비스를 구성하여 동일한 노드의 다중 비전역 영역에서 실행할 수는 없습니다.
Sun Cluster 3.2 릴리스의 메소드 시간 초과 동작에 대한 설명이 빠져 있습니다. RGM 메소드 콜백이 시간 초과되면 SIGTERM 신호 대신 SIGABRT 신호를 사용하여 프로세스가 강제 종료됩니다. 따라서, 프로세스 그룹의 모든 구성원이 코어 파일을 생성합니다.
새 프로세스 그룹을 생성하는 데이터 서비스 메소드를 작성하지 마십시오. 사용자의 데이터 서비스 메소드에서 새 프로세스 그룹 작성을 필요로 하는 경우, SIGTERM 및 SIGABRT 신호에 대한 신호 처리기도 작성합니다. 신호 처리기가 상위 프로세스를 종료하기 전에 SIGTERM 또는 SIGABRT 신호를 하위 프로세스 그룹에 전달하도록 신호 처리기를 작성합니다. 이렇게 하면 메소드에 의해 만들어진 모든 프로세스가 적절하게 종료되는 확률이 높아집니다.
Sun Cluster Data Services Developer’s Guide for Solaris OS의 12 장, Cluster Reconfiguration Notification Protocol에는 Solaris 10 OS의 경우, CRNP(Cluster Reconfiguration Notification Protocol)가 전역 영역에서만 실행된다는 내용이 빠져 있습니다.
Sun Cluster Data Services Developer’s Guide for Solaris OS의 Setting Up the Development Environment for Writing a Data Service에는 Solaris 소프트웨어 그룹 개발자나 전체 배포판이 필요하다는 내용이 있습니다. 이 내용은 개발 시스템에는 적용되지 않습니다. 그러나, 이 내용은 클러스터에서 데이터 서비스를 테스트하는 내용 다음에 위치하므로 데이터 서비스가 실행되고 있는 클러스터에 대한 요구 사항인 것처럼 잘못 이해할 수 있습니다.
이 절에서는 Sun Cluster Quorum Server User’s Guide의 오류 및 누락에 대해 설명합니다.
다음 설치 요구 사항 및 안내 지침은 빠져 있거나 명확하지 않습니다.
Sun Cluster 소프트웨어에 대한 Solaris 소프트웨어 요구 사항은 Quorum Server 소프트웨어에도 적용됩니다.
쿼럼 서버를 위한 하드웨어 플랫폼은 클러스터 노드의 경우와 동일합니다.
쿼럼을 제공하는 클러스터와 동일한 하드웨어 및 소프트웨어 플랫폼에서 쿼럼 서버를 구성해야 할 필요는 없습니다. 예를 들어, Solaris 9 OS를 실행하는 x86 기반 시스템은 Solaris 10 OS를 실행하는 SPARC 기반 클러스터에 대한 쿼럼 서버처럼 구성할 수 있습니다.
쿼럼 서버는 노드가 속한 클러스터가 아닌 다른 클러스터에 대해 쿼럼을 제공하도록 클러스터 노드에서 구성할 수 있습니다. 그러나, 클러스터 노드에서 구성되는 쿼럼 서버는 가용성이 높지 않습니다.
이 절에서는 Sun Cluster 매뉴얼 페이지의 오류, 누락 및 추가 사항에 대해 설명합니다.
ccp(1M) 매뉴얼 페이지에 대해 다음 개정된 개요 및 추가된 옵션 절에는 CCP(Cluster Control Panel) 유틸리티의 Secure Shell 지원에 대한 추가 내용이 기록되어 있습니다.
개관
$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename} |
옵션
다음 옵션이 지원됩니다.
ssh 연결을 위한 사용자 이름을 지정합니다. 이 옵션은 유틸리티가 CCP에서 시작될 때 cconsole, crlogin 또는 cssh 유틸리티로 전달됩니다. ctelnet 유틸리티는 이 옵션을 무시합니다.
-l 옵션을 지정하지 않으면 CCP를 시작한 사용자 이름이 사용됩니다.
사용할 Secure Shell 포트 번호를 지정합니다. 이 옵션은 유틸리티가 CCP에서 시작될 때 cssh 유틸리티로 전달됩니다. cconsole, crlogin 및 ctelnet 유틸리티는 이 옵션을 무시합니다.
-p 옵션을 지정하지 않으면 보안 연결에 기본 포트 번호 22가 사용됩니다.
노드 콘솔에 telnet 연결 대신 Secure Shell 연결을 사용하여 지정합니다. 이 옵션은 유틸리티가 CCP에서 시작될 때 cconsole 유틸리티로 전달됩니다. crlogin, cssh 및 ctelnet 유틸리티는 이 옵션을 무시합니다.
-s 옵션을 지정하지 않으면 cconsole 유틸리티는 콘솔에 telnet 연결을 사용합니다.
-s 옵션을 무시하려면 cconsole 그래픽 사용자 인터페이스(GUI)의 옵션 메뉴에서 SSH 사용 확인란을 선택 해제합니다.
결합된 cconsole, crlogin, cssh 및 ctelnet 매뉴얼 페이지에 대한 다음의 개정된 개요 및 추가된 옵션 선택에는 Cluster Control Panel 유틸리티에 대한 Secure Shell 지원의 추가 내용이 기록되어 있습니다.
개관
$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…] $CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…] $CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…] $CLUSTER_HOME/bin/ctelnet [clustername… | nodename…] |
DESCRIPTION
이 유틸리티는 클러스터 노드에 직접 Secure Shell 연결을 설정합니다.
OPTIONS
원격 연결을 위한 ssh 사용자 이름을 지정합니다. 이 옵션은 cconsole, crlogin 및 cssh 명령에서 유효합니다.
연결할 때 나중에 지정되는 클러스터 및 노드가 동일한 사용자 이름을 사용하도록 인수 값을 기억하는 것이 좋습니다.
-l 옵션을 지정하지 않으면 명령을 시작한 사용자 이름이 사용됩니다.
사용할 Secure Shell 포트 번호를 지정합니다. 이 옵션은 cssh 명령에서 유효합니다.
-p 옵션을 지정하지 않으면 보안 연결에 기본 포트 번호 22가 사용됩니다.
노드 콘솔에 telnet 연결 대신 Secure Shell 연결을 사용하여 지정합니다. 이 옵션은 cconsole 명령에서 유효합니다.
-s 옵션을 지정하지 않으면 유틸리티는 콘솔에 대한 telnet 연결을 사용합니다.
cconsole 그래픽 사용자 인터페이스(GUI)에서 -s 옵션을 무시하려면 옵션 메뉴에서 SSH 사용 확인란을 선택 해제합니다.
remove 하위 명령의 설명에, 특정 조건에서는 작동하지 않을 수도 있다는 의미가 내포되어 있습니다. 이 명령은 그러한 조건에서 실행은 되지만 실행된 결과가 클러스터에 역효과를 줄 수 있다는 의미입니다. 다음은 remove 하위 명령 요구 사항 및 동작에 대한, 보다 정확한 설명입니다.
클러스터에서 노드를 제거하려면 다음 안내 사항을 따르십시오. 이 안내 사항을 따르지 않으면 노드 제거로 인해 클러스터의 쿼럼이 손상될 수 있습니다.
-f 옵션을 지정하지 않는 한, 모든 쿼럼 장치에서 제거되도록 노드 구성을 해제합니다.
제거할 노드는 활성 클러스터 구성원이 아니어야 합니다.
최소한 하나의 공유 쿼럼 장치도 구성되지 않았다면 3 노드 클러스터에서 노드를 제거하지 마십시오.
clnode remove 명령은 노드에 대한 참조의 하위 세트를 클러스터 구성 데이터베이스에서 제거하려고 시도합니다. 또한, -f 옵션이 지정된 경우, 하위 명령은 노드에 대한 모든 참조를 제거하려고 시도합니다.
clnode remove 명령을 사용하여 클러스터에서 노드를 성공적으로 제거하려는 경우 인증 목록에 노드가 없으면 맨 먼저 claccess add 명령을 사용하여 노드를 클러스터 인증 목록에 추가해야 합니다. 현재의 클러스터 인증 목록을 보려면 claccess list 또는 claccess show 명령을 사용하십시오. 그 다음, 보안을 위해 클러스터 노드에 의한 추가적인 클러스터 구성 액세스를 방지하도록 claccess deny-all 명령을 사용합니다. 자세한 내용은 claccess(1CL) 매뉴얼 페이지를 참조하십시오.
다음 옵션이 clresource(1CL) 매뉴얼 페이지에서 빠져 있습니다.
+ 피연산자를 지정하는 경우, 자원 그룹이 일시 중지된 자원에서 이 명령이 작동되도록 지정합니다. 또한, + 피연산자 지정 시 u 옵션을 지정하지 않으면 이 명령은 자원 그룹이 일시 중지된 모든 자원을 무시합니다.
+ 피연산자가 clear, disable, enable, monitor, set 및 unmonitor 하위 명령에 지정될 경우에는 -u 옵션이 유효합니다.
+ 피연산자에 대한 설명은 clear, disable, enable, monitor, set 또는 unmonitor 하위 명령과 함께 사용될 경우, 이 명령에 -u 옵션이 지정되지 않는 한, 자원 그룹이 일시 중지된 모든 자원 그룹을 무시한다는 내용이어야 합니다.
-p, -x 및 -y 옵션에 대한 + 및 - 피연산자의 정의에서 예가 잘못되었습니다. 정의는 다음과 같습니다.
스트링 어레이 값을 추가합니다. 세트 하위 명령만 이 연산자를 받아들입니다. 스트링 값의 목록을 받아들이는 등록 정보에 대해서만 이 연산자를 지정할 수 있습니다(예:Resource_dependencies).
스트링 어레이 값을 삭제합니다. 세트 하위 명령만 이 연산자를 받아들입니다. 스트링 값의 목록을 받아들이는 등록 정보에 대해서만 이 연산자를 지정할 수 있습니다(예:Resource_dependencies).
evacuate 하위 명령의 명령 구문 및 설명에서, 동일한 명령 호출 시 하나 이상의 노드나 영역을 비울 수 있다고 잘못 설명되어 있습니다. evacuate 명령 실행 시에는 하나의 노드 또는 영역만 지정할 수 있습니다.
다음 옵션이 clresourcegroup(1CL) 매뉴얼 페이지에서 빠져 있습니다.
+ 피연산자를 지정하는 경우, 일시 중지된 자원 그룹에서 이 명령이 작동되도록 지정합니다. 또한, + 피연산자 지정 시 u 옵션을 지정하지 않으면 이 명령은 일시 중지된 모든 자원 그룹을 무시합니다.
+ 피연산자가 add-node, manage, offline, online, quiesce, remaster, remove-node, restart, set, switch 및 unmanage 하위 명령에 지정될 경우에는 -u 옵션이 유효합니다.
+ 피연산자에 대한 설명은 add-node, manage, offline, online, quiesce, remaster, remove-node, restart, set, switch 또는 unmanage 하위 명령과 함께 사용할 경우, -u 옵션이 지정되지 않는 한 명령이 일시 중지 상태인 모든 자원 그룹을 무시한다는 내용이어야 합니다.
Network_resources_used 등록 정보의 사용이 Sun Cluster 3.2 릴리스에서 변경되었습니다. 이 등록 정보에 값을 할당하지 않은 경우, 해당 값은 자원 종속성 등록 정보의 설정을 기초로 RGM에 의해 자동으로 업데이트됩니다. 이 등록 정보를 직접 설정할 필요는 없습니다. 대신, Resource_dependencies, Resource_dependencies_offline_restart, Resource_dependencies_restart 또는 Resource_dependencies_weak 등록 정보를 설정하십시오.
Sun Cluster 소프트웨어 이전 릴리스와의 호환성을 유지하기 위해 Network_resources_used 등록 정보 값을 직접 설정할 수는 있습니다. 직접 설정하는 경우, 자원 종속성 등록 정보의 설정에서 Network_resources_used 등록 정보 값을 더 이상 얻을 수 없습니다.
Network_resources_used 등록 정보에 자원 이름을 추가하면 자원 이름이 Resource_dependencies 등록 정보에도 자동으로 추가됩니다. 종속성을 제거하는 유일한 방법은 Network_resources_used 등록 정보에서 종속성을 제거하는 것입니다. 네트워크 자원 종속성이 원래의 Resource_dependencies 등록 정보 또는 Network_resources_used 등록 정보에 추가되어 있었는지 알 수 없는 경우 두 등록 정보의 종속성을 모두 제거하십시오. 예를 들어, 다음 명령은 종속성이 Network_resources_used 등록 정보 또는 Resource_dependencies 등록 정보에 추가되어 있는지 여부에 상관 없이 네트워크 자원 r2에 있는 자원 r1의 종속성을 제거합니다.
# clresource set -p Network_resources_used-=r2 -p Resource_dependencies-=r2 r1 |
r_properties(5) 매뉴얼 페이지의 Resource_dependencies, Resource_dependencies_offline_restart, Resource_dependencies_restart 및 Resource_dependencies_weak 등록 정보에 대한 내용이 올바르지 않습니다. 이 등록 정보에 대한 올바른 내용은 Sun Cluster Data Services Developer’s Guide for Solaris OS의 Resource Properties를 참조하십시오.
Scalable 자원 등록 정보에 대한 설명에 비전역 영역에서의 확장 가능한 서비스 지원과 관련된 내용이 빠져 있습니다. 이 지원은 자원 유형의 Failover 등록 정보가 FALSE로 설정되고 자원의 Scalable 등록 정보가 TRUE로 설정된 자원에 적용됩니다. 등록 정보 설정 조합은 네트워크 로드 균형 조정을 위해 SharedAddress 자원을 사용하는 확장 가능한 서비스를 나타냅니다. Sun Cluster 3.2 릴리스에서는 비전역 영역으로 실행되는 자원 그룹의 유형에 대해 확장 가능한 서비스를 구성할 수 있습니다. 그러나, 확장 가능한 서비스를 구성하여 동일한 노드의 다중 비전역 영역에서 실행할 수는 없습니다.
Failover 자원 유형 등록 정보에 대한 설명 중, Sun Cluster 3.2 릴리스의 비전역 영역에서의 확장 가능한 서비스 지원과 관련하여 잘못된 내용이 포함되어 있습니다. 이 내용은 자원 유형의 Failover 등록 정보가 FALSE로 설정되고 자원의 Scalable 등록 정보가 TRUE로 설정된 자원에 적용됩니다.
잘못된 내용:이러한 유형의 확장 가능한 서비스는 영역에서 사용할 수 없습니다.
올바른 내용:비전역 영역에서 실행되는 자원 그룹에서 이 유형의 확장 가능한 서비스를 구성할 수 있습니다. 그러나, 확장 가능한 서비스를 구성하여 동일한 노드의 다중 비전역 영역에서 실행할 수는 없습니다.
다음 정보는 serialport(4) 매뉴얼 페이지의 설명 절에 대한 추가 내용입니다.
노드 콘솔에 대한 Secure Shell 연결을 지원하려면 /etc/serialports 파일에서 각 노드에 대한 콘솔 액세스 장치의 이름 및 Secure Shell 포트 번호를 지정합니다. 콘솔 액세스 장치에서 기본 Secure Shell 구성을 사용하려면 포트 번호 22를 지정합니다.
SUNW.Event(5) 매뉴얼 페이지에는 Solaris 10 OS의 경우, CRNP(Cluster Reconfiguration Notification Protocol)가 전역 영역에서만 실행된다는 내용이 빠져 있습니다.