탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
![]() |
Oracle Solaris Cluster 소프트웨어 설치 설명서 Oracle Solaris Cluster (한국어) |
1. Oracle Solaris Cluster 구성 계획
모든 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(scinstall)
모든 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(XML)
Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치하는 방법(JumpStart)
노드 또는 개인 네트워크를 추가할 때 개인 네트워크 구성을 변경하는 방법
추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(scinstall)
추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(XML)
전역 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법
NTP(Network Time Protocol)를 구성하는 방법
4. Solaris Volume Manager 소프트웨어 구성
5. Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성
8. Sun Management Center에 Oracle Solaris Cluster 모듈 설치
이 절에서는 새 전역 클러스터를 설정하거나 기존 클러스터에 노드를 추가하는 절차 및 관련 정보를 제공합니다. 전역 클러스터 노드는 물리적 시스템, LDoms(Sun Logical Domains) I/O 도메인(SPARC에만 해당) 또는 LDoms 게스트 도메인이 될 수 있습니다. 클러스터는 이러한 유형의 노드 조합으로 구성될 수 있습니다. 이러한 작업을 수행하기 전에 소프트웨어 설치에 설명된 대로 Oracle Solaris OS용 소프트웨어 패키지, Oracle Solaris Cluster 프레임워크 및 기타 제품을 설치했는지 확인합니다.
다음 작업 맵에는 새 전역 클러스터 또는 기존 전역 클러스터에 추가할 노드에 대해 수행할 작업이 나열되어 있습니다. 표시된 순서대로 절차를 완료하십시오.
표 3-1 작업 맵: 새 전역 클러스터 설정
|
표 3-2 작업 맵: 기존 전역 클러스터에 노드 추가
|
클러스터의 모든 노드에 Oracle Solaris Cluster 소프트웨어를 구성하려면 전역 클러스터의 한 노드에서 이 절차를 수행합니다.
주 - 이 절차에서는 대화식 scinstall 명령을 사용합니다. 설치 스크립트를 개발하는 경우처럼 비대화식 scinstall 명령을 사용하려면 scinstall(1M) 매뉴얼 페이지를 참조하십시오.
scinstall 명령을 실행하기 전에 Oracle Solaris Cluster 소프트웨어 패키지가 수동으로 또는 installer 프로그램의 자동 모드를 사용하여 노드에 설치되어 있는지 확인합니다. 설치 스크립트에서 installer 프로그램을 실행하는 것에 대한 자세한 내용은 Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX의 5 장, Installing in Silent Mode를 참조하십시오.
시작하기 전에
다음 작업을 수행합니다.
Oracle Solaris Cluster 소프트웨어를 지원하는 Solaris OS가 설치되어 있는지 확인하십시오.
노드에 Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Solaris 소프트웨어가 Oracle Solaris Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris 소프트웨어를 설치하는 방법에 대한 자세한 내용은 Solaris 소프트웨어를 설치하는 방법을 참조하십시오.
SPARC: LDoms(Sun Logical Domains) I/O 도메인 또는 게스트 도메인을 클러스터 노드로 구성하려는 경우 LDoms 소프트웨어가 각 물리적 시스템에 설치되어 있으며 도메인이 Oracle Solaris Cluster 요구 사항을 충족하는지 확인합니다. SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법을 참조하십시오.
Oracle Solaris Cluster 소프트웨어 패키지 및 패치가 각 노드에 설치되어 있는지 확인합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법을 참조하십시오.
표준 또는 사용자 정의 중 사용할 scinstall 유틸리티 모드를 결정합니다.
Oracle Solaris Cluster 소프트웨어 표준 설치의 경우 scinstall에서 다음 구성 기본값을 자동으로 지정합니다.
|
scinstall 유틸리티가 표준 모드로 실행되는지 사용자 정의 모드로 실행되는지에 따라 다음 클러스터 구성 워크시트 중 하나를 완료합니다.
표준 모드 워크시트 - 표준 모드를 사용하고 기본값을 모두 적용할 경우 다음 워크시트를 완성하십시오.
|
사용자 정의 모드 워크시트 – 사용자 정의 모드를 사용하고 구성 데이터를 사용자 정의할 경우 다음 워크시트를 완성합니다.
주 - 단일 노드 클러스터를 설치하는 경우 클러스터에서 개인 네트워크를 사용하지 않아도 scinstall 유틸리티에서 기본 개인 네트워크 주소 및 넷마스크를 자동으로 할당합니다.
|
이 절차에서 대화식 scinstall 유틸리티를 사용하려면 다음 지침을 준수하십시오.
대화식 scinstall 유틸리티에서는 사용자가 먼저 입력할 수 있습니다. 따라서 다음 메뉴 화면이 즉시 나타나지 않을 경우에 Enter 키를 두 번 이상 누르지 마십시오.
다른 지시가 없는 한 Ctrl-D를 눌러 관련 질문의 시작 부분이나 주 메뉴로 돌아갈 수 있습니다.
질문의 끝에 기본 응답이나 이전 세션에 대한 응답이 괄호([ ]) 안에 표시됩니다. Enter 키를 누르면 별도의 입력 없이 괄호 안의 응답을 선택할 수 있습니다.
모든 클러스터 노드에 대해 수퍼유저를 위한 원격 쉘(rsh(1M)) 또는 보안 쉘(ssh(1)) 액세스 를 활성화합니다.
사용하는 스위치의 설명서에 포함된 절차에 따라 NDP가 활성화되어 있는지 확인하고 활성화된 경우 NDP를 비활성화합니다.
클러스터 구성 중에 소프트웨어에서 개인 상호 연결에 트래픽이 없는지 검사합니다. 개인 상호 연결에서 트래픽을 검사할 때 NDP가 개인 어댑터에 패키지를 보내면 상호 연결은 개인 상호 연결이 아닌 것으로 간주되고 클러스터 구성은 중단됩니다. 따라서 클러스터 생성 중에는 NDP를 비활성화해야 합니다.
클러스터가 설정된 후 NDP 기능을 사용하려면 개인 상호 연결 스위치에서 NDP를 다시 활성화할 수 있습니다.
phys-schost# /usr/cluster/bin/scinstall
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1
New Cluster and Cluster Node(새 클러스터 및 클러스터 노드) 메뉴가 표시됩니다.
Typical or Custom Mode(일반 또는 사용자 정의 모드) 메뉴가 표시됩니다.
Create a New Cluster(새 클러스터 만들기) 화면이 표시됩니다. 요구 사항을 읽은 다음 Ctrl-D를 눌러 계속합니다.
scinstall 유틸리티는 모든 클러스터 노드를 설치 및 구성하고 클러스터를 재부트합니다. 모든 노드가 성공적으로 클러스터에 부트되면 클러스터가 설정됩니다. Oracle Solaris Cluster 설치 출력이 /var/cluster/logs/install/scinstall.log. N 파일에 기록됩니다.
노드에 대해 서비스가 아직 온라인 상태가 아닌 경우 온라인 상태가 될 때까지 기다린 후 다음 단계로 진행합니다.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# clnode status
다음과 비슷한 결과가 출력됩니다:
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.
클러스터의 서로 다른 노드에서 하나 이상의 디스크에 액세스할 수 있는 경우 이 기능을 사용하면 모니터링된 모든 공유 디스크 경로에서 오류가 발생할 때 노드가 자동으로 재부트됩니다.
phys-schost# clnode set -p reboot_on_path_failure=enabled
설정할 등록 정보를 지정합니다.
모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
LOFS를 비활성화하려면 다음 항목을 클러스터의 각 노드에서 /etc/system 파일에 추가합니다.
exclude:lofs
/etc/system 파일에 대한 변경 사항은 다음에 시스템이 재부트된 후에 적용됩니다.
주 - 고가용성 로컬 파일 시스템에서 HA for NFS를 사용하는 경우 및 automountd가 실행되고 있는 경우에는 LOFS를 활성화할 수 없습니다. LOFS로 인해 HA for NFS에서 스위치오버 문제가 발생할 수 있습니다. 고가용성 로컬 파일 시스템에서 HA for NFS를 추가하도록 선택한 경우 다음의 구성 중 하나를 변경해야 합니다.
그러나 클러스터에 비전역 영역을 구성하는 경우에는 모든 클러스터 노드에서 LOFS를 활성화해야 합니다. 고가용성 로컬 파일 시스템에서 HA for NFS와 LOFS가 동시에 존재해야 하는 경우 LOFS를 비활성화하는 대신 다른 해결 방법을 사용하십시오.
LOFS를 비활성화합니다.
automountd 데몬을 비활성화합니다.
HA for NFS에서 내보낸 고가용성 로컬 파일 시스템의 일부인 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 활성화된 상태로 유지할 수 있습니다.
루프백 파일 시스템에 대한 자세한 내용은 System Administration Guide: Devices and File Systems의 The Loopback File System을 참조하십시오.
예 3-1 모든 노드에 Oracle Solaris Cluster 소프트웨어 구성
다음 예에서는 scinstall이 2 노드 클러스터 schost에서 구성 작업을 완료하면 기록되는 scinstall 진행률 메시지를 보여 줍니다. 클러스터는 표준 모드로 scinstall 유틸리티를 사용하여 phys-schost-1에서 설치됩니다. 다른 클러스터 노드는 phys-schost-2입니다. 어댑터 이름은 qfe2 및 qfe3입니다. 쿼럼 장치의 자동 선택이 활성화되어 있습니다. 두 노드 모두 전역 장치 이름 공간에 분할 영역 /globaldevices를 사용합니다.
Installation and Configuration Log file - /var/cluster/logs/install/scinstall.log.24747 Testing for "/globaldevices" on "phys-schost-1" … done Testing for "/globaldevices" on "phys-schost-2" … done Checking installation status … done The Sun Cluster software is already installed on "phys-schost-1". The Sun Cluster software is already installed on "phys-schost-2". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:qfe2 switch1 phys-schost-2:qfe2 phys-schost-1:qfe3 switch2 phys-schost-2:qfe3 Completed discovery of the cluster transport configuration. Started cluster check on "phys-schost-1". Started cluster check on "phys-schost-2". cluster check completed with no errors or warnings for "phys-schost-1". cluster check completed with no errors or warnings for "phys-schost-2". Removing the downloaded files … done Configuring "phys-schost-2" … done Rebooting "phys-schost-2" … done Configuring "phys-schost-1" … done Rebooting "phys-schost-1" … Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting …
일반 오류
구성 실패 – 하나 이상의 노드에서 클러스터를 결합할 수 없거나 잘못된 구성 정보가 지정된 경우 먼저 이 절차를 다시 실행하십시오. 그래도 문제가 해결되지 않으면 잘못 구성된 각 노드에서 Oracle Solaris Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법의 절차를 수행하여 해당 노드를 클러스터 구성에서 제거합니다. Oracle Solaris Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음 이 절차를 다시 실행합니다.
다음 순서
단일 노드 클러스터를 설치했으면 클러스터 설정이 완료된 것입니다. 볼륨 관리 소프트웨어를 설치하고 클러스터를 구성하려면 클러스터 파일 시스템 만들기로 이동합니다.
복수 노드 클러스터를 설치하고 자동 쿼럼 구성을 선택한 경우에는 설치 후 설정이 완료된 것입니다. 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.
복수 노드 클러스터를 설치하고 자동 쿼럼 구성을 거부한 경우에는 설치 후 설정을 수행합니다. 쿼럼 장치를 구성하는 방법으로 이동합니다.
클러스터에 쿼럼 장치를 구성하려면 쿼럼 장치를 구성하는 방법으로 이동합니다.
그렇지 않으면 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.
XML 클러스터 구성 파일을 사용하여 새 전역 클러스터를 구성하려면 이 절차를 수행합니다. 새 클러스터는 Oracle Solaris Cluster 3.3 5/11 소프트웨어가 실행되는 기존 클러스터와 중복될 수 있습니다.
이 절차에서는 다음과 같은 클러스터 구성 요소를 구성합니다.
클러스터 이름
클러스터 노드 구성원
클러스터 상호 연결
전역 장치
시작하기 전에
다음 작업을 수행합니다.
Oracle Solaris Cluster 소프트웨어를 지원하는 Solaris OS가 설치되어 있는지 확인하십시오.
노드에 Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Solaris 소프트웨어가 Oracle Solaris Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris 소프트웨어를 설치하는 방법에 대한 자세한 내용은 Solaris 소프트웨어를 설치하는 방법을 참조하십시오.
Oracle Solaris Cluster 소프트웨어를 지원하는 Solaris OS가 설치되어 있는지 확인하십시오.
노드에 Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Solaris 소프트웨어가 Oracle Solaris Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris 소프트웨어를 설치하는 방법에 대한 자세한 내용은 Solaris 소프트웨어를 설치하는 방법을 참조하십시오.
SPARC: LDoms(Sun Logical Domains) I/O 도메인 또는 게스트 도메인을 클러스터 노드로 구성하려는 경우 LDoms 소프트웨어가 각 물리적 시스템에 설치되어 있으며 도메인이 Oracle Solaris Cluster 요구 사항을 충족하는지 확인합니다. SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법을 참조하십시오.
Oracle Solaris Cluster 3.3 5/11 소프트웨어 및 패치가 구성할 각 노드에 설치되어 있는지 확인합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법을 참조하십시오.
phys-schost# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
이 메시지는 Oracle Solaris Cluster 소프트웨어가 잠재적 노드에 아직 구성되어 있지 않음을 나타냅니다.
노드 ID 반환은 Oracle Solaris Cluster 소프트웨어가 노드에 이미 구성되어 있음을 나타냅니다.
클러스터가 이전 버전의 Oracle Solaris Cluster 소프트웨어에서 실행되고 있는 경우 Oracle Solaris Cluster 3.3 5/11 소프트웨어를 설치하려면 Oracle Solaris Cluster Upgrade Guide의 업그레이드 절차를 대신 수행합니다.
Oracle Solaris Cluster 소프트웨어가 잠재적 클러스터 노드에 아직 구성되지 않은 경우 2단계로 계속 진행합니다.
사용하는 스위치의 설명서에 포함된 절차에 따라 NDP가 활성화되어 있는지 확인하고 활성화된 경우 NDP를 비활성화합니다.
클러스터 구성 중에 소프트웨어에서 개인 상호 연결에 트래픽이 없는지 검사합니다. 개인 상호 연결에서 트래픽을 검사할 때 NDP가 개인 어댑터에 패키지를 보내면 상호 연결은 개인 상호 연결이 아닌 것으로 간주되고 클러스터 구성은 중단됩니다. 따라서 클러스터 생성 중에는 NDP를 비활성화해야 합니다.
클러스터가 설정된 후 NDP 기능을 사용하려면 개인 상호 연결 스위치에서 NDP를 다시 활성화할 수 있습니다.
phys-schost# cluster export -o clconfigfile
출력 대상을 지정합니다.
클러스터 구성 XML 파일의 이름입니다. 지정한 파일 이름은 기존 파일 또는 명령에서 만들 새 파일이 될 수 있습니다.
자세한 내용은 cluster(1CL) 매뉴얼 페이지를 참조하십시오.
클러스터 노드로 구성할 다른 호스트에서 액세스할 수 있는 디렉토리에 파일을 저장할 수 있습니다.
파일은 clconfiguration(5CL) 매뉴얼 페이지에 표시된 요소 계층을 기반으로 합니다. 클러스터 노드로 구성할 다른 호스트에서 액세스할 수 있는 디렉토리에 파일을 저장할 수 있습니다.
클러스터를 설정하려면 다음 구성 요소의 올바른 값이 클러스터 구성 XML 파일에 있어야 합니다.
클러스터 이름
클러스터 노드
클러스터 전송
클러스터는 클러스터 노드로 구성되는 각 노드에 분할 영역 /globaldevices가 있다는 가정 하에 만들어집니다. 전역 장치 이름 공간이 이 분할 영역에 만들어집니다. 전역 장치를 만들려는 파일 시스템 이름을 다르게 사용해야 하는 경우 /globaldevices라는 분할 영역이 없는 각 노드의 <propertyList> 요소에 다음 등록 정보를 추가합니다.
… <nodeList> <node name="node" id="N"> <propertyList> … <property name="globaldevfs" value="/filesystem-name"> … </propertyList> </node> …
전역 장치 이름 공간에 lofi 장치를 대신 사용하려면 globaldevfs 등록 정보 값을 lofi로 설정합니다.
<property name="globaldevfs" value="lofi">
기존 클러스터에서 내보낸 구성 정보를 수정할 경우 새 클러스터를 반영하도록 변경해야 하는 일부 값(예: 노드 이름)이 둘 이상의 클러스터 객체에 대한 정의에 사용됩니다.
클러스터 구성 XML 파일의 구조 및 내용에 대한 자세한 내용은 clconfiguration(5CL) 매뉴얼 페이지를 참조하십시오.
phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile
자세한 내용은 xmllint(1) 매뉴얼 페이지를 참조하십시오.
phys-schost# cluster create -i clconfigfile
입력 소스로 사용할 클러스터 구성 XML 파일의 이름을 지정합니다.
노드에 대해 서비스가 아직 온라인 상태가 아닌 경우 온라인 상태가 될 때까지 기다린 후 다음 단계로 진행합니다.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# clnode status
다음과 비슷한 결과가 출력됩니다:
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.
패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.
LOFS를 비활성화하려면 다음 항목을 클러스터의 각 노드에서 /etc/system 파일에 추가합니다.
exclude:lofs
/etc/system 파일에 대한 변경 사항은 다음에 시스템이 재부트된 후에 적용됩니다.
주 - 고가용성 로컬 파일 시스템에서 HA for NFS를 사용하는 경우 및 automountd가 실행되고 있는 경우에는 LOFS를 활성화할 수 없습니다. LOFS로 인해 HA for NFS에서 스위치오버 문제가 발생할 수 있습니다. 고가용성 로컬 파일 시스템에서 HA for NFS를 추가하도록 선택한 경우 다음의 구성 중 하나를 변경해야 합니다.
그러나 클러스터에 비전역 영역을 구성하는 경우에는 모든 클러스터 노드에서 LOFS를 활성화해야 합니다. 고가용성 로컬 파일 시스템에서 HA for NFS와 LOFS가 동시에 존재해야 하는 경우 LOFS를 비활성화하는 대신 다른 해결 방법을 사용하십시오.
LOFS를 비활성화합니다.
automountd 데몬을 비활성화합니다.
HA for NFS에서 내보낸 고가용성 로컬 파일 시스템의 일부인 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 활성화된 상태로 유지할 수 있습니다.
루프백 파일 시스템에 대한 자세한 내용은 System Administration Guide: Devices and File Systems의 The Loopback File System을 참조하십시오.
2 노드 클러스터를 만든 경우 쿼럼 장치를 구성해야 합니다. 필요한 쿼럼 장치를 만드는 데 클러스터 구성 XML 파일을 사용하지 않으려면 쿼럼 장치를 구성하는 방법으로 이동합니다.
쿼럼 서버 소프트웨어를 설치하고 구성하는 방법의 지침에 따릅니다.
Oracle Solaris Cluster 3.3 With Network-Attached Storage Device Manual을 참조하십시오.
phys-schost# xmllint --valid --noout clconfigfile
phys-schost# clquorum add -i clconfigfile devicename
쿼럼 장치로 구성할 장치의 이름을 지정합니다.
phys-schost# clquorum reset
phys-schost# claccess deny-all
phys-schost# clnode set -p reboot_on_path_failure=enabled
설정할 등록 정보를 지정합니다.
모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
예 3-2 XML 파일을 사용하여 모든 노드에 Oracle Solaris Cluster 소프트웨어 구성
다음 예에서는 기존 2 노드 클러스터의 클러스터 구성 및 쿼럼 구성을 새로운 2 노드 클러스터에 복제합니다. 새 클러스터는 Solaris 10 OS와 함께 설치되며 비전역 영역으로 구성되지 않습니다. 클러스터 구성은 기존 클러스터 노드 phys-oldhost-1에서 클러스터 구성 XML 파일 clusterconf.xml로 내보냅니다. 새 클러스터의 노드 이름은 phys-newhost-1 및 phys-newhost-2입니다. 새 클러스터에서 쿼럼 장치로 구성되는 장치는 d3입니다.
이 예에서 프롬프트 이름 phys-newhost-N은 명령이 두 클러스터 노드에서 모두 수행됨을 나타냅니다.
phys-newhost-N# /usr/sbin/clinfo -n clinfo: node is not configured as part of acluster: Operation not applicable phys-oldhost-1# cluster export -o clusterconf.xml Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values phys-newhost-1# xmllint --valid --noout clusterconf.xml No errors are reported phys-newhost-1# cluster create -i clusterconf.xml phys-newhost-N# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default phys-newhost-1# clnode status Output shows that both nodes are online phys-newhost-1# clquorum add -i clusterconf.xml d3 phys-newhost-1# clquorum reset
일반 오류
구성 실패 – 하나 이상의 노드에서 클러스터를 결합할 수 없거나 잘못된 구성 정보가 지정된 경우 먼저 이 절차를 다시 실행하십시오. 그래도 문제가 해결되지 않으면 잘못 구성된 각 노드에서 Oracle Solaris Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법의 절차를 수행하여 해당 노드를 클러스터 구성에서 제거합니다. Oracle Solaris Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음 이 절차를 다시 실행합니다.
다음 순서
쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.
참조
클러스터가 완전히 설정된 후 기존 클러스터에서 다른 클러스터 구성 요소의 구성을 복제할 수 있습니다. 아직 수행하지 않은 경우 복제하려는 XML 요소의 값을 수정하여 구성 요소를 추가할 클러스터 구성을 반영합니다. 예를 들어 자원 그룹을 복제하려면 <resourcegroupNodeList> 항목에 새 클러스터에 유효한 노드 이름이 있으며 노드 이름이 동일하지 않는 한 복제한 클러스터의 노드 이름이 아닌지 확인합니다.
클러스터 구성 요소를 복제하려면 복제할 클러스터 구성 요소에 대해 객체 지향 명령의 export 하위 명령을 실행합니다. 명령 구문 및 옵션에 대한 자세한 내용은 복제할 클러스터 객체에 대한 매뉴얼 페이지를 참조하십시오. 다음 표에는 클러스터가 설정된 후 클러스터 구성 XML 파일에서 만들 수 있는 클러스터 구성 요소와 구성 요소를 복제하는 데 사용하는 명령에 대한 매뉴얼 페이지가 나열되어 있습니다.
|
이 절차에서는 scinstall(1M) 사용자 정의 JumpStart 설치 방법을 설정하고 사용하는 방법에 대해 설명합니다. 이 방법에서는 Solaris OS와 Oracle Solaris Cluster 소프트웨어를 모든 전역 클러스터 노드에 설치하고 클러스터를 설정합니다. 이 절차를 사용하여 기존 클러스터에 새 노드를 추가할 수도 있습니다.
시작하기 전에
다음 작업을 수행합니다.
Solaris 소프트웨어를 설치하기 전에 하드웨어 설정을 완료하고 연결을 확인해야 합니다. 하드웨어 설정 방법에 대한 자세한 내용은 Oracle Solaris Cluster Hardware Administration Collection과 서버 및 저장 장치 설명서를 참조하십시오.
각 클러스터 노드의 이더넷 주소를 확인합니다.
이름 지정 서비스를 사용하는 경우 클라이언트가 클러스터 서비스에 액세스하는 데 사용하는 이름 지정 서비스에 다음 정보가 추가되었는지 확인합니다. 계획 지침은 공용 네트워크 IP 주소를 참조하십시오. Solaris 이름 지정 서비스 사용에 대한 자세한 내용은 Solaris 시스템 관리자 설명서를 참조하십시오.
모든 공용 호스트 이름 및 논리 주소에 대한 주소-이름 간 매핑
JumpStart 설치 서버의 IP 주소 및 호스트 이름
클러스터 구성 계획이 완료되었는지 확인합니다. 요구 사항 및 지침은 클러스터 소프트웨어 설치를 준비하는 방법을 참조하십시오.
플래시 아카이브를 만들 서버에서 Oracle Solaris Cluster 소프트웨어를 지원하는 데 필요한 모든 Solaris OS 소프트웨어, 패치 및 펌웨어가 설치되어 있는지 확인합니다.
서버에 Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Solaris 소프트웨어가 Oracle Solaris Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris 소프트웨어를 설치하는 방법에 대한 자세한 내용은 Solaris 소프트웨어를 설치하는 방법을 참조하십시오.
SPARC: LDoms(Sun Logical Domains) I/O 도메인 또는 게스트 도메인을 클러스터 노드로 구성하려는 경우 LDoms 소프트웨어가 각 물리적 시스템에 설치되어 있으며 도메인이 Oracle Solaris Cluster 요구 사항을 충족하는지 확인합니다. SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법을 참조하십시오.
Oracle Solaris Cluster 소프트웨어 패키지 및 패치가 플래시 아카이브를 만들 서버에 설치되어 있는지 확인합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법을 참조하십시오.
표준 또는 사용자 정의 중 사용할 scinstall 유틸리티 모드를 결정합니다. Oracle Solaris Cluster 소프트웨어 표준 설치의 경우 scinstall에서 다음 구성 기본값을 자동으로 지정합니다.
|
scinstall 유틸리티가 표준 모드로 실행되는지 사용자 정의 모드로 실행되는지에 따라 다음 클러스터 구성 워크시트 중 하나를 완료합니다. 계획 지침은 Oracle Solaris Cluster 환경 계획을 참조하십시오.
표준 모드 워크시트 - 표준 모드를 사용하고 기본값을 모두 적용할 경우 다음 워크시트를 완성하십시오.
|
사용자 정의 모드 워크시트 – 사용자 정의 모드를 사용하고 구성 데이터를 사용자 정의할 경우 다음 워크시트를 완성합니다.
주 - 단일 노드 클러스터를 설치하는 경우 클러스터에서 개인 네트워크를 사용하지 않아도 scinstall 유틸리티에서 기본 개인 네트워크 주소 및 넷마스크를 자동으로 사용합니다.
|
이 절차에서 대화식 scinstall 유틸리티를 사용하려면 다음 지침을 준수하십시오.
대화식 scinstall 유틸리티에서는 사용자가 먼저 입력할 수 있습니다. 따라서 다음 메뉴 화면이 즉시 나타나지 않을 경우에 Enter 키를 두 번 이상 누르지 마십시오.
다른 지시가 없는 한 Ctrl-D를 눌러 관련 질문의 시작 부분이나 주 메뉴로 돌아갈 수 있습니다.
질문의 끝에 기본 응답이나 이전 세션에 대한 응답이 괄호([ ]) 안에 표시됩니다. Enter 키를 누르면 별도의 입력 없이 괄호 안의 응답을 선택할 수 있습니다.
JumpStart 설치 서버가 다음 요구 사항을 충족하는지 확인합니다.
설치 서버가 클러스터 노드와 동일한 서브넷에 있거나 클러스터 노드에서 사용하는 서브넷의 Solaris 부트 서버에 있습니다.
설치 서버 자체가 클러스터 노드가 아닙니다.
설치 서버가 Oracle Solaris Cluster 소프트웨어에서 지원하는 Solaris OS 릴리스를 설치합니다.
Oracle Solaris Cluster 소프트웨어의 JumpStart 설치를 위한 사용자 정의 JumpStart 디렉토리가 있습니다. 이 jumpstart-dir 디렉토리는 다음 요구 사항을 충족해야 합니다.
check 유틸리티의 복사본을 포함합니다.
JumpStart 설치 서버에서 읽기 위해 내보낸 NFS입니다.
각각의 새 클러스터 노드가 Oracle Solaris Cluster 설치를 위해 설정한 사용자 정의 JumpStart 디렉토리를 사용하는 사용자 정의 JumpStart 설치 클라이언트로 구성됩니다.
소프트웨어 플랫폼 및 OS 버전에 대한 해당 지침에 따라 JumpStart 설치 서버를 설정합니다. Solaris 10 10/09 설치 설명서: 사용자 정의 JumpStart 및 고급 설치의 네트워크 시스템에 대한 프로필 서버 만들기를 참조하십시오.
또한 setup_install_server(1M) 및 add_install_client(1M) 매뉴얼 페이지를 참조하십시오.
자세한 내용은 Oracle Solaris Cluster 시스템 관리 설명서의 인증된 노드 목록에 노드를 추가하는 방법을 참조하십시오.
서버에 Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Solaris 소프트웨어가 Oracle Solaris Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris 소프트웨어를 설치하는 방법에 대한 자세한 내용은 Solaris 소프트웨어를 설치하는 방법을 참조하십시오.
Solaris 소프트웨어를 설치하는 방법의 절차에 따릅니다.
SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법의 절차에 따릅니다.
Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법의 절차에 따릅니다.
패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.
machine# cacaoadm enable
이름 지정 서비스를 사용하고 있는지 여부에 관계없이 이 단계를 수행합니다. IP 주소를 추가해야 하는 Oracle Solaris Cluster 구성 요소 목록은 공용 네트워크 IP 주소를 참조하십시오.
다음은 웹 콘솔에서 구성 정보를 제거하는 명령입니다. 일부 구성 정보는 설치된 시스템으로 한정됩니다. 플래시 아카이브를 만들기 전에 이 정보를 제거해야 합니다. 그렇지 않으면 클러스터 노드로 전송되는 구성 정보로 인해 웹 콘솔이 시작되지 않거나 클러스터 노드와 제대로 상호 작용하지 못할 수 있습니다.
# /usr/share/webconsole/private/bin/wcremove -i console
클러스터 노드에 구성되지 않은 웹 콘솔을 설치하고 처음으로 웹 콘솔을 시작하면 웹 콘솔에서 초기 구성을 자동으로 실행하고 클러스터 노드의 정보를 사용합니다.
wcremove 명령에 대한 자세한 내용은 System Administration Guide: Basic Administration의 Oracle Java Web Console User Identity를 참조하십시오.
Solaris 10 10/09 설치 설명서: Solaris Flash 아카이브(작성 및 설치) 의 3 장, Solaris Flash 아카이브 만들기(작업)에 나오는 절차를 수행합니다.
machine# flarcreate -n name archive
플래시 아카이브에 지정할 이름입니다.
전체 경로와 함께 플래시 아카이브에 지정할 파일 이름입니다. 규약에 따라 파일 이름은 .flar로 끝납니다.
자동 파일 공유에 대한 자세한 내용은 System Administration Guide: Network Services의 4 장, Managing Network File Systems (Overview)를 참조하십시오.
매체 경로에서 arch를 sparc 또는 x86으로 대체하고 Solaris 10의 경우 ver을 10으로 대체합니다.
installserver# cd /cdrom/cdrom0Solaris_arch/Product/sun_cluster/ \ Solaris_ver/Tools/ installserver# ./scinstall
scinstall 주 메뉴가 표시됩니다.
이 옵션은 사용자 정의 JumpStart 종료 스크립트를 구성하는 데 사용됩니다. JumpStart는 이러한 종료 스크립트를 사용하여 Oracle Solaris Cluster 소프트웨어를 설치합니다.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 2
scinstall 명령은 구성 정보를 저장하고 /jumpstart-dir/autoscinstall.d/3.2/ 디렉토리의 autoscinstall.class 기본 class 파일을 복사합니다. 이 파일은 다음 예와 유사합니다.
install_type initial_install system_type standalone partitioning explicit filesys rootdisk.s0 free / filesys rootdisk.s1 750 swap filesys rootdisk.s3 512 /globaldevices filesys rootdisk.s7 20 cluster SUNWCuser add package SUNWman add
예를 들어 전역 장치 파일 시스템에 대해 슬라이스 4를 할당하고 파일 시스템 이름이 /gdevs인 scinstall로 지정한 경우 autoscinstall.class 파일의 /globaldevices 항목을 다음으로 변경합니다.
filesys rootdisk.s4 512 /gdevs
|
archive_location 키워드와 함께 사용할 때 retrieval_type 및 location에 유효한 값에 대한 자세한 내용은 Solaris 10 10/09 설치 설명서: 사용자 정의 JumpStart 및 고급 설치의 archive_location 키워드에서 archive_location Keyword를 참조하십시오.
cluster SUNWCuser add package SUNWman add
autoscinstall.class 파일은 최종 사용자 Solaris 소프트웨어 그룹(SUNWCuser)을 설치합니다.
다음 표에는 Oracle Solaris Cluster 기능을 지원하는 데 필요한 Solaris 패키지가 나열되어 있습니다. 이러한 패키지는 최종 사용자 Solaris 소프트웨어 그룹에 포함되지 않습니다. 자세한 내용은 Oracle Solaris 소프트웨어 그룹 고려 사항을 참조하십시오.
|
다음 방법 중 하나로 기본 class 파일을 변경할 수 있습니다.
autoscinstall.class 파일을 직접 편집합니다. 이러한 변경 사항은 이 사용자 정의 JumpStart 디렉토리를 사용하는 모든 클러스터의 모든 노드에 적용됩니다.
다른 프로필을 가리키도록 rules 파일을 업데이트한 다음 check 유틸리티를 실행하여 rules 파일의 유효성을 검사합니다.
Solaris OS 설치 프로필이 최소 Oracle Solaris Cluster 파일 시스템 할당 요구 사항을 충족하는 한 Oracle Solaris Cluster 소프트웨어는 설치 프로필에 대한 다른 변경 사항을 제한하지 않습니다. Oracle Solaris Cluster 소프트웨어를 지원하는 분할 지침 및 요구 사항은 시스템 디스크 분할 영역을 참조하십시오.
JumpStart 프로필에 대한 자세한 내용은 Solaris 10 10/09 설치 설명서: 사용자 정의 JumpStart 및 고급 설치의 3 장, 사용자 정의 JumpStart 설치 준비(작업)를 참조하십시오.
고유한 종료 스크립트는 scinstall 명령에 의해 설치되는 표준 종료 스크립트 다음에 실행됩니다. JumpStart 종료 스크립트 만들기에 대한 자세한 내용은 Solaris 10 10/09 설치 설명서: 사용자 정의 JumpStart 및 고급 설치의 3 장, 사용자 정의 JumpStart 설치 준비(작업)에서 Preparing Custom JumpStart Installations를 참조하십시오.
단계 15를 참조하십시오.
클러스터의 각 노드에 대해 하나의 node 디렉토리를 만듭니다. 또는 이 이름 지정 규약을 사용하여 공유 finish 스크립트에 대한 심볼릭 링크를 만듭니다.
사용하는 스위치의 설명서에 포함된 절차에 따라 NDP가 활성화되어 있는지 확인하고 활성화된 경우 NDP를 비활성화합니다.
클러스터 구성 중에 소프트웨어에서 개인 상호 연결에 트래픽이 없는지 검사합니다. 개인 상호 연결에서 트래픽을 검사할 때 NDP가 개인 어댑터에 패키지를 보내면 상호 연결은 개인 상호 연결이 아닌 것으로 간주되고 클러스터 구성은 중단됩니다. 따라서 클러스터 생성 중에는 NDP를 비활성화해야 합니다.
클러스터가 설정된 후 NDP 기능을 사용하려면 개인 상호 연결 스위치에서 NDP를 다시 활성화할 수 있습니다.
수퍼유저로 다음 명령을 사용하여 cconsole 유틸리티를 시작합니다.
adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
cconsole 유틸리티를 사용하면 사용자 입력을 모든 개별 콘솔 창으로 동시에 전송할 수 있는 마스터 창도 열립니다.
phys-schost# shutdown -g0 -y -i0
ok boot net - install
주 - 명령의 양쪽에 대시(-)를 표시하고 대시의 앞뒤를 한 칸씩 띄우십시오.
Press any key to reboot. keystroke
초기화 시퀀스가 완료되면 BIOS Setup Utility 화면이 나타납니다.
부트 장치 목록이 표시됩니다.
IBA 부트 선택 항목의 오른쪽에 표시된 번호가 낮을수록 낮은 번호의 이더넷 포트에 해당합니다. IBA 부트 선택 항목의 오른쪽에 표시된 번호가 높을수록 높은 번호의 이더넷 포트에 해당합니다.
부트 시퀀스가 다시 시작됩니다. 향후 처리 후 GRUB 메뉴가 표시됩니다.
주 - Solaris JumpStart 항목만 나열되는 경우 선택 화면 시간이 초과될 때까지 대기할 수도 있습니다. 30초 내에 응답하지 않으면 시스템에서 부트 시퀀스를 자동으로 계속합니다.
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris_10 Jumpstart | | | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
추가 처리 후 Installation Type(설치 유형) 메뉴가 표시됩니다.
주 - 30초 시간 초과 기간이 종료되기 전에 사용자 정의 JumpStart 번호를 입력하지 않으면 시스템에서 Solaris 대화식 설치가 자동으로 시작됩니다.
Select the type of installation you want to perform: 1 Solaris Interactive 2 Custom JumpStart 3 Solaris Interactive Text (Desktop session) 4 Solaris Interactive Text (Console session) 5 Apply driver updates 6 Single user shell Enter the number of your choice. 2
JumpStart에서 Solaris OS 및 Oracle Solaris Cluster 소프트웨어를 각 노드에 설치합니다. 설치가 완료되면 각 노드가 새 클러스터 노드로 완전히 설치됩니다. Oracle Solaris Cluster 설치 출력은 /var/cluster/logs/install/scinstall.log. N 파일에 기록됩니다.
주 - 이 시점에 BIOS를 중단시키지 않으면 자동으로 Installation Type(설치 유형) 메뉴로 돌아갑니다. 이 메뉴에서 30초 내에 선택 사항을 입력하지 않으면 시스템에서 상호 작용 설치를 자동으로 시작합니다.
추가 처리 후 BIOS Setup Utility가 표시됩니다.
부트 장치 목록이 표시됩니다.
부트 시퀀스가 다시 시작됩니다. 클러스터 모드로 부트를 완료하기 위해 GRUB 메뉴와 향후 상호 작용할 필요가 없습니다.
노드에 대해 서비스가 아직 온라인 상태가 아닌 경우 온라인 상태가 될 때까지 기다린 후 다음 단계로 진행합니다.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
phys-schost-new# mkdir -p mountpoint
예를 들어 마운트 명령에서 반환하는 파일 시스템 이름이 /global/dg-schost-1일 경우 클러스터에 추가할 노드에서 mkdir - p /global/dg-schost-1을 실행합니다.
phys-schost# grep vxio /etc/name_to_major vxio NNN
각각의 VxVM 설치 노드에서 동일한 vxio 번호가 사용되는지 확인합니다.
VxVM이 설치되지 않은 각 노드에서 vxio 번호를 사용할 수 있는지 확인합니다.
vxio 번호가 VxVM이 설치되지 않은 노드에서 이미 사용 중인 경우 해당 노드에서 번호를 지웁니다. 다른 번호를 사용하도록 /etc/name_to_major 항목을 변경합니다.
set kernel_cage_enable=1
다음에 시스템을 재부트하면 이 항목이 적용됩니다. Oracle Solaris Cluster 구성에서 동적 재구성 작업을 수행하는 절차는 Oracle Solaris Cluster 시스템 관리 설명서를 참조하십시오. 동적 재구성에 대한 자세한 내용은 서버 설명서를 참조하십시오.
LOFS를 비활성화하려면 다음 항목을 클러스터의 각 노드에서 /etc/system 파일에 추가합니다.
exclude:lofs
/etc/system 파일에 대한 변경 사항은 다음에 시스템이 재부트된 후에 적용됩니다.
주 - 고가용성 로컬 파일 시스템에서 HA for NFS를 사용하는 경우 및 automountd가 실행되고 있는 경우에는 LOFS를 활성화할 수 없습니다. LOFS로 인해 HA for NFS에서 스위치오버 문제가 발생할 수 있습니다. 고가용성 로컬 파일 시스템에서 HA for NFS를 추가하도록 선택한 경우 다음의 구성 중 하나를 변경해야 합니다.
그러나 클러스터에 비전역 영역을 구성하는 경우에는 모든 클러스터 노드에서 LOFS를 활성화해야 합니다. 고가용성 로컬 파일 시스템에서 HA for NFS와 LOFS가 동시에 존재해야 하는 경우 LOFS를 비활성화하는 대신 다른 해결 방법을 사용하십시오.
LOFS를 비활성화합니다.
automountd 데몬을 비활성화합니다.
HA for NFS에서 내보낸 고가용성 로컬 파일 시스템의 일부인 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 활성화된 상태로 유지할 수 있습니다.
루프백 파일 시스템에 대한 자세한 내용은 System Administration Guide: Devices and File Systems의 The Loopback File System을 참조하십시오.
|
다음에 시스템을 재부트하면 이 항목이 적용됩니다.
이 값의 설정을 사용하면 로그인 프롬프트에 액세스할 수 없는 경우 노드를 재부트할 수 있습니다.
grub edit> kernel /platform/i86pc/multiboot kmdb
다음은 재부트가 필요한 일부 작업입니다.
기존 클러스터에 새 노드 추가
노드 또는 클러스터 재부트가 필요한 패치 설치
활성화하려면 재부트가 필요한 구성 변경
phys-schost-1# cluster shutdown -y -g0 clustername
주 - 처음으로 설치된 클러스터 노드는 클러스터가 종료된 다음에 재부트하십시오. 클러스터 설치 모드가 비활성화될 때까지는 클러스터를 설정한, 처음 설치된 노드에만 쿼럼 투표가 있습니다. 계속 설치 모드에 있는 설정된 클러스터에서, 처음 설치된 노드가 재부트되기 전에 클러스터가 종료되지 않으면 나머지 클러스터 노드에서 쿼럼을 얻을 수 없습니다. 그러면 전체 클러스터가 종료됩니다.
클러스터 노드는 처음으로 clsetup 명령을 실행할 때까지 설치 모드로 유지됩니다. 쿼럼 장치를 구성하는 방법 절차를 수행하는 동안 이 명령을 실행합니다.
ok boot
GRUB 메뉴가 나타나면 적절한 Solaris 항목을 선택하고 Enter 키를 누르십시오. GRUB 메뉴가 다음과 같이 나타납니다.
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
GRUB 기반 부트에 대한 자세한 내용은 System Administration Guide: Basic Administration의 Booting an x86 Based System by Using GRUB (Task Map)를 참조하십시오.
scinstall 유틸리티는 모든 클러스터 노드를 설치 및 구성하고 클러스터를 재부트합니다. 모든 노드가 성공적으로 클러스터에 부트되면 클러스터가 설정됩니다. Oracle Solaris Cluster 설치 출력이 /var/cluster/logs/install/scinstall.log. N 파일에 기록됩니다.
phys-schost# smcwebserver start
자세한 내용은 smcwebserver(1M) 매뉴얼 페이지를 참조하십시오.
phys-schost# clnode status
다음과 비슷한 결과가 출력됩니다:
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.
phys-schost# clnode set -p reboot_on_path_failure=enabled
설정할 등록 정보를 지정합니다.
모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
다음 순서
2 노드 클러스터에 노드를 추가한 경우 전역 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법으로 이동합니다.
그렇지 않으면 해당되는 다음 절차로 이동합니다.
복수 노드 클러스터를 설치하고 자동 쿼럼 구성을 선택한 경우에는 설치 후 설정이 완료된 것입니다. 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.
복수 노드 클러스터를 설치하고 자동 쿼럼 구성을 거부한 경우에는 설치 후 설정을 수행합니다. 쿼럼 장치를 구성하는 방법으로 이동합니다.
쿼럼 장치를 사용하는 기존 클러스터에 새 노드를 추가한 경우 전역 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법으로 이동합니다.
쿼럼 장치를 사용하지 않는 기존 클러스터에 새 노드를 추가한 경우 클러스터의 상태를 확인합니다. 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.
단일 노드 클러스터를 설치했으면 클러스터 설정이 완료된 것입니다. 볼륨 관리 소프트웨어를 설치하고 클러스터를 구성하려면 클러스터 파일 시스템 만들기로 이동합니다.
일반 오류
비활성화된 scinstall 옵션 – scinstall 명령의 JumpStart 옵션 앞에 별표가 없는 경우 해당 옵션은 비활성화된 것입니다. 이 상태는 JumpStart 설정이 완료되지 않았거나 설정에 오류가 있음을 나타냅니다. 이 상태를 해결하려면 먼저 scinstall 유틸리티를 종료합니다. 단계 1부터 단계 16까지를 반복하여 JumpStart 설정을 수정한 다음 scinstall 유틸리티를 다시 시작합니다.
새 클러스터 노드를 추가하기 위해 클러스터를 준비하려면 기존 전역 클러스터 노드에서 이 절차를 수행합니다.
시작하기 전에
다음 작업을 수행합니다.
필요한 하드웨어가 모두 설치되어 있는지 확인합니다.
호스트 어댑터가 새 노드에 설치되어 있는지 확인합니다. Oracle Solaris Cluster 3.3 Hardware Administration Manual을 참조하십시오.
기존 클러스터 상호 연결이 새 노드를 지원할 수 있는지 확인합니다. Oracle Solaris Cluster 3.3 Hardware Administration Manual을 참조하십시오.
추가 저장소가 설치되어 있는지 확인합니다. Oracle Solaris Cluster 3.3 Hardware Administration Collection에서 해당 설명서를 참조하십시오.
phys-schost# clsetup
주 메뉴가 표시됩니다.
작업이 오류 없이 완료된 경우 clsetup 유틸리티에 명령이 서공적으로 완료되었습니다라는 메시지가 표시됩니다.
phys-schost# clinterconnect show
노드를 추가하려면 최소한 두 개의 케이블 또는 두 개의 어댑터가 구성되어 있어야 합니다.
phys-schost# clsetup
지시에 따라 클러스터에 추가할 노드의 이름, 전송 어댑터 이름, 전송 스위치 사용 여부를 지정합니다.
phys-schost# clinterconnect show
이 명령은 최소한 두 개의 클러스터 상호 연결에 대한 구성 정보를 출력해야 합니다.
phys-schost# cluster show-netprops
출력이 다음과 같이 표시됩니다.
=== Private Network === private_netaddr: 172.16.0.0 private_netmask: 255.255.240.0 max_nodes: 64 max_privatenets: 10 max_zoneclusters: 12
추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(scinstall)으로 이동합니다.
노드 또는 개인 네트워크를 추가할 때 개인 네트워크 구성을 변경하는 방법으로 이동합니다. 개인 IP 주소 범위를 변경하려면 클러스터를 종료해야 합니다. 여기에는 IP 주소 범위를 재구성하기 전에 각 자원 그룹을 오프라인으로 전환하고 클러스터의 모든 자원을 비활성화한 다음 비클러스터 모드로 재부트하는 것이 포함됩니다.
다음 순서
새 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성합니다. 추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(scinstall) 또는 추가 전역 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성하는 방법(XML)으로 이동합니다.
다음 클러스터 구성 요소 중 하나 이상에서 증가하는 범위를 수용하도록 전역 클러스터의 개인 IP 주소 범위를 변경하려면 이 작업을 수행합니다.
노드 또는 비전역 영역의 수
개인 네트워크 수
영역 클러스터 수
또한 이 절차를 사용하여 개인 IP 주소 범위를 감소시킬 수 있습니다.
주 - 이 절차에서는 전체 클러스터를 종료해야 합니다. 영역 클러스터에 대한 지원을 추가하는 경우처럼 넷마스크만 변경해야 하는 경우에는 이 절차를 수행하지 마십시오. 대신 클러스터 모드로 실행되는 전역 클러스터 노드에서 다음 명령을 실행하여 예상 영역 클러스터 수를 지정하십시오.
phys-schost# cluster set-netprops num_zoneclusters=N
이 명령에서는 클러스터를 종료할 필요가 없습니다.
시작하기 전에
모든 클러스터 노드에 대해 수퍼유저를 위한 원격 쉘(rsh(1M)) 또는 보안 쉘(ssh(1)) 액세스 가 활성화되었는지 확인합니다.
# clsetup
clsetup 주 메뉴가 표시됩니다.
노드에 비전역 영역이 포함되어 있으면 영역 내 모든 자원 그룹도 오프라인으로 전환됩니다.
Resource Group(자원 그룹) 메뉴가 표시됩니다.
# cluster status -t resource,resourcegroup
지정된 클러스터 객체로 출력을 제한합니다.
자원을 지정합니다.
자원 그룹을 지정합니다.
# cluster shutdown -g0 -y
대기 시간을 초 단위로 지정합니다.
시스템 종료 확인을 요청하는 메시지가 나타나지 않도록 합니다.
ok boot -x
GRUB 메뉴가 다음과 같이 나타납니다.
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
GRUB 기반 부트에 대한 자세한 내용은 System Administration Guide: Basic Administration의 Booting an x86 Based System by Using GRUB (Task Map)를 참조하십시오.
다음과 같이 GRUB 부트 매개 변수 화면이 나타납니다.
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | |+----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
화면에 편집된 명령이 표시됩니다.
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
주 - 커널 부트 매개 변수 명령에 대한 변경 사항은 시스템을 재부트하면 사라집니다. 다음에 노드를 재부트하면 클러스터 모드로 부트됩니다. 비클러스터 모드로 부트하려면 이 단계를 다시 실행하여 -x 옵션을 커널 부트 매개 변수 명령에 추가합니다.
비클러스터 모드로 실행되는 경우 clsetup 유틸리티에 비클러스터 모드 작업을 위한 주 메뉴가 표시됩니다.
clsetup 유틸리티에 현재의 개인 네트워크 구성이 표시되고 이 구성을 변경할지 묻는 메시지가 표시됩니다.
clsetup 유틸리티에 기본 개인 네트워크 IP 주소(172.16.0.0)가 표시되고 이 기본값을 사용할지를 묻는 메시지가 표시됩니다.
clsetup 유틸리티에서 기본 넷마스크를 사용할지를 묻습니다. 다음 단계로 건너뛰어 응답을 입력합니다.
clsetup 유틸리티에 새 개인 네트워크 IP 주소를 묻는 메시지가 표시됩니다.
clsetup 유틸리티에 기본 넷마스크가 표시되고 이 기본 넷마스크를 사용할지를 묻는 메시지가 표시됩니다.
기본 넷마스크는 255.255.240.0입니다. 이 기본 IP 주소 범위는 클러스터에서 최대 64개의 노드, 12개의 영역 클러스터 및 10개의 개인 네트워크를 지원합니다.
이제 다음 단계로 건너뜁니다.
기본 넷마스크의 사용을 거부할 경우 클러스터에 구성할 노드, 개인 네트워크 및 영역 클러스터 수를 묻는 메시지가 clsetup 유틸리티에서 표시됩니다.
clsetup 유틸리티는 이러한 숫자로 계산하여 두 개의 넷마스크를 제안합니다.
첫 번째 넷마스크는 지정한 노드, 개인 네트워크 및 영역 클러스터 수를 지원하는 최소 넷마스크입니다.
두 번째 넷마스크는 지정한 노드, 개인 네트워크 및 영역 클러스터 수의 두 배를 지원하여 향후 확대될 경우에도 수용할 수 있도록 합니다.
# shutdown -g0 -y
ok boot
GRUB 메뉴가 나타나면 적절한 Solaris 항목을 선택하고 Enter 키를 누르십시오. GRUB 메뉴가 다음과 같이 나타납니다.
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
GRUB 기반 부트에 대한 자세한 내용은 System Administration Guide: Basic Administration의 Booting an x86 Based System by Using GRUB (Task Map)를 참조하십시오.
# clsetup
clsetup 주 메뉴가 표시됩니다.
Resource Group(자원 그룹) 메뉴가 표시됩니다.
노드에 비전역 영역이 포함된 경우 이 영역의 모든 자원 그룹도 온라인으로 전환됩니다.
q를 입력하여 각 하위 메뉴를 마치거나 Ctrl-C를 누릅니다.
다음 순서
기존 클러스터에 노드를 추가하려면 다음 절차 중 하나로 이동합니다.
클러스터 노드에 비전역 영역을 만들려면 전역 클러스터 노드에 비전역 영역 구성으로 이동합니다.
기존 전역 클러스터에 새 노드를 추가하려면 이 절차를 수행합니다. JumpStart를 사용하여 새 노드를 추가하려면 Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치하는 방법(JumpStart)의 절차를 대신 수행합니다.
주 - 이 절차에서는 대화식 scinstall 명령을 사용합니다. 설치 스크립트를 개발하는 경우처럼 비대화식 scinstall 명령을 사용하려면 scinstall(1M) 매뉴얼 페이지를 참조하십시오.
scinstall 명령을 실행하기 전에 Oracle Solaris Cluster 소프트웨어 패키지가 수동으로 또는 installer 프로그램의 자동 모드를 사용하여 노드에 설치되어 있는지 확인합니다. 설치 스크립트에서 installer 프로그램을 실행하는 것에 대한 자세한 내용은 Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX의 5 장, Installing in Silent Mode를 참조하십시오.
시작하기 전에
다음 작업을 수행합니다.
Oracle Solaris Cluster 소프트웨어를 지원하는 Solaris OS가 설치되어 있는지 확인하십시오.
노드에 Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Solaris 소프트웨어가 Oracle Solaris Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris 소프트웨어를 설치하는 방법에 대한 자세한 내용은 Solaris 소프트웨어를 설치하는 방법을 참조하십시오.
SPARC: LDoms(Sun Logical Domains) I/O 도메인 또는 게스트 도메인을 클러스터 노드로 구성하려는 경우 LDoms 소프트웨어가 각 물리적 시스템에 설치되어 있으며 도메인이 Oracle Solaris Cluster 요구 사항을 충족하는지 확인합니다. SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법을 참조하십시오.
Oracle Solaris Cluster 소프트웨어 패키지 및 패치가 노드에 설치되어 있는지 확인합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법을 참조하십시오.
클러스터가 새 노드를 추가할 준비가 되어 있는지 확인합니다. 클러스터에서 전역 클러스터 노드 추가를 준비하는 방법을 참조하십시오.
표준 또는 사용자 정의 중 사용할 scinstall 유틸리티 모드를 결정합니다. Oracle Solaris Cluster 소프트웨어 표준 설치의 경우 scinstall에서 다음 구성 기본값을 자동으로 지정합니다.
|
다음 구성 계획 워크시트 중 하나를 완성합니다. 계획 지침은 Oracle Solaris OS 계획 및 Oracle Solaris Cluster 환경 계획을 참조하십시오.
표준 모드 워크시트 - 표준 모드를 사용하고 기본값을 모두 적용할 경우 다음 워크시트를 완성하십시오.
|
사용자 정의 모드 워크시트 – 사용자 정의 모드를 사용하고 구성 데이터를 사용자 정의할 경우 다음 워크시트를 완성합니다.
|
이 절차에서 대화식 scinstall 유틸리티를 사용하려면 다음 지침을 준수하십시오.
대화식 scinstall 유틸리티에서는 사용자가 먼저 입력할 수 있습니다. 따라서 다음 메뉴 화면이 즉시 나타나지 않을 경우에 Enter 키를 두 번 이상 누르지 마십시오.
다른 지시가 없는 한 Ctrl-D를 눌러 관련 질문의 시작 부분이나 주 메뉴로 돌아갈 수 있습니다.
질문의 끝에 기본 응답이나 이전 세션에 대한 응답이 괄호([ ]) 안에 표시됩니다. Enter 키를 누르면 별도의 입력 없이 괄호 안의 응답을 선택할 수 있습니다.
phys-schost-new# /usr/cluster/bin/scinstall
scinstall 주 메뉴가 표시됩니다.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1
New Cluster and Cluster Node(새 클러스터 및 클러스터 노드) 메뉴가 표시됩니다.
scinstall 유틸리티가 노드를 구성하고 노드를 클러스터로 부트합니다.
phys-schost# eject cdrom
노드에 대해 서비스가 아직 온라인 상태가 아닌 경우 온라인 상태가 될 때까지 기다린 후 다음 단계로 진행합니다.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# claccess deny-all
또는 clsetup 유틸리티를 사용할 수 있습니다. 절차는 Oracle Solaris Cluster 시스템 관리 설명서의 인증된 노드 목록에 노드를 추가하는 방법을 참조하십시오.
phys-schost# clnode status
다음과 비슷한 결과가 출력됩니다:
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.
phys-schost# showrev -p
phys-schost# clnode set -p reboot_on_path_failure=enabled
설정할 등록 정보를 지정합니다.
모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
LOFS를 비활성화하려면 다음 항목을 클러스터의 각 노드에서 /etc/system 파일에 추가합니다.
exclude:lofs
/etc/system 파일에 대한 변경 사항은 다음에 시스템이 재부트된 후에 적용됩니다.
주 - 고가용성 로컬 파일 시스템에서 HA for NFS를 사용하는 경우 및 automountd가 실행되고 있는 경우에는 LOFS를 활성화할 수 없습니다. LOFS로 인해 HA for NFS에서 스위치오버 문제가 발생할 수 있습니다. 고가용성 로컬 파일 시스템에서 HA for NFS를 추가하도록 선택한 경우 다음의 구성 중 하나를 변경해야 합니다.
그러나 클러스터에 비전역 영역을 구성하는 경우에는 모든 클러스터 노드에서 LOFS를 활성화해야 합니다. 고가용성 로컬 파일 시스템에서 HA for NFS와 LOFS가 동시에 존재해야 하는 경우 LOFS를 비활성화하는 대신 다른 해결 방법을 사용하십시오.
LOFS를 비활성화합니다.
automountd 데몬을 비활성화합니다.
HA for NFS에서 내보낸 고가용성 로컬 파일 시스템의 일부인 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 활성화된 상태로 유지할 수 있습니다.
루프백 파일 시스템에 대한 자세한 내용은 System Administration Guide: Devices and File Systems의 The Loopback File System을 참조하십시오.
예 3-3 추가 노드에 Oracle Solaris Cluster 소프트웨어 구성
다음 예에서는 phys-schost-3 노드가 schost 클러스터에 추가되는 것을 보여 줍니다. 스폰서 노드는 phys-schost-1입니다.
*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 PST 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 -m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2 Checking device to use for global devices file system ... done Adding node "phys-schost-3" to the cluster configuration ... done Adding adapter "qfe2" to the cluster configuration ... done Adding adapter "qfe3" to the cluster configuration ... done Adding cable to the cluster configuration ... done Adding cable to the cluster configuration ... done Copying the config from "phys-schost-1" ... done Copying the postconfig file from "phys-schost-1" if it exists ... done Copying the Common Agent Container keys from "phys-schost-1" ... done Setting the node ID for "phys-schost-3" ... done (id=1) Setting the major number for the "did" driver ... Obtaining the major number for the "did" driver from "phys-schost-1" ... done "did" driver major number set to 300 Checking for global devices global file system ... done Updating vfstab ... done Verifying that NTP is configured ... done Initializing NTP configuration ... done Updating nsswitch.conf ... done Adding clusternode entries to /etc/inet/hosts ... done Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files Updating "/etc/hostname.hme0". Verifying that power management is NOT configured ... done Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done The "local-mac-address?" parameter setting has been changed to "true". Ensure network routing is disabled ... done Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done Updating file ("hosts") on node phys-schost-1 ... done Rebooting ...
일반 오류
구성 실패 – 하나 이상의 노드에서 클러스터를 결합할 수 없거나 잘못된 구성 정보가 지정된 경우 먼저 이 절차를 다시 실행하십시오. 그래도 문제가 해결되지 않으면 잘못 구성된 각 노드에서 Oracle Solaris Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법의 절차를 수행하여 해당 노드를 클러스터 구성에서 제거합니다. Oracle Solaris Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음 이 절차를 다시 실행합니다.
다음 순서
쿼럼 장치를 사용하는 기존 클러스터에 노드를 추가한 경우 전역 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법으로 이동합니다.
그렇지 않으면 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.
XML 클러스터 구성 파일을 사용하여 새 전역 클러스터 노드를 구성하려면 이 절차를 수행합니다. 새 노드는 Oracle Solaris Cluster 3.3 5/11 소프트웨어가 실행되는 기존 클러스터 노드와 중복될 수 있습니다.
이 절차에서는 새 노드에 다음 클러스터 구성 요소를 구성합니다.
클러스터 노드 구성원
클러스터 상호 연결
전역 장치
시작하기 전에
다음 작업을 수행합니다.
Oracle Solaris Cluster 소프트웨어를 지원하는 Solaris OS가 설치되어 있는지 확인하십시오.
노드에 Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Solaris 소프트웨어가 Oracle Solaris Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris 소프트웨어를 설치하는 방법에 대한 자세한 내용은 Solaris 소프트웨어를 설치하는 방법을 참조하십시오.
SPARC: LDoms(Sun Logical Domains) I/O 도메인 또는 게스트 도메인을 클러스터 노드로 구성하려는 경우 LDoms 소프트웨어가 각 물리적 시스템에 설치되어 있으며 도메인이 Oracle Solaris Cluster 요구 사항을 충족하는지 확인합니다. SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법을 참조하십시오.
Oracle Solaris Cluster 소프트웨어 패키지 및 필요한 모든 패치가 노드에 설치되어 있는지 확인합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법을 참조하십시오.
클러스터가 새 노드를 추가할 준비가 되어 있는지 확인합니다. 클러스터에서 전역 클러스터 노드 추가를 준비하는 방법을 참조하십시오.
phys-schost-new# /usr/sbin/clinfo -n
ok boot -x
GRUB 메뉴가 다음과 같이 나타납니다.
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
GRUB 기반 부트에 대한 자세한 내용은 System Administration Guide: Basic Administration의 Booting an x86 Based System by Using GRUB (Task Map)를 참조하십시오.
다음과 같이 GRUB 부트 매개 변수 화면이 나타납니다.
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | |+----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
화면에 편집된 명령이 표시됩니다.
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
주 - 커널 부트 매개 변수 명령에 대한 변경 사항은 시스템을 재부트하면 사라집니다. 다음에 노드를 재부트하면 클러스터 모드로 부트됩니다. 비클러스터 모드로 부트하려면 이 단계를 다시 실행하여 -x 옵션을 커널 부트 매개 변수 명령에 추가합니다.
phys-schost-new# /usr/cluster/bin/clnode remove
phys-schost# clnode export -o clconfigfile
출력 대상을 지정합니다.
클러스터 구성 XML 파일의 이름입니다. 지정한 파일 이름은 기존 파일 또는 명령에서 만들 새 파일이 될 수 있습니다.
자세한 내용은 clnode(1CL) 매뉴얼 페이지를 참조하십시오.
파일은 clconfiguration(5CL) 매뉴얼 페이지에 표시된 요소 계층을 기반으로 합니다. 모든 디렉토리에 파일을 저장할 수 있습니다.
클러스터 구성 XML 파일의 구조 및 내용에 대한 자세한 내용은 clconfiguration(5CL) 매뉴얼 페이지를 참조하십시오.
phys-schost-new# xmllint --valid --noout clconfigfile
phys-schost-new# clnode add -n sponsornode -i clconfigfile
새 노드에 대한 스폰서로 작동하도록 기존 클러스터 구성원의 이름을 지정합니다.
입력 소스로 사용할 클러스터 구성 XML 파일의 이름을 지정합니다.
phys-schost# clnode set -p reboot_on_path_failure=enabled
설정할 등록 정보를 지정합니다.
모니터된 모든 공유 디스크 경로에서 오류가 발생할 경우 자동 노드 재부트를 활성화합니다.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
일반 오류
구성 실패 – 하나 이상의 노드에서 클러스터를 결합할 수 없거나 잘못된 구성 정보가 지정된 경우 먼저 이 절차를 다시 실행하십시오. 그래도 문제가 해결되지 않으면 잘못 구성된 각 노드에서 Oracle Solaris Cluster 소프트웨어를 구성 해제하여 설치 문제를 해결하는 방법의 절차를 수행하여 해당 노드를 클러스터 구성에서 제거합니다. Oracle Solaris Cluster 소프트웨어 패키지를 제거할 필요는 없습니다. 그런 다음 이 절차를 다시 실행합니다.
다음 순서
쿼럼 장치를 사용하는 클러스터에 노드를 추가한 경우 전역 클러스터에 노드를 추가한 후 쿼럼 장치를 업데이트하는 방법으로 이동합니다.
그렇지 않으면 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.
전역 클러스터에 노드를 추가한 경우 공유 디스크, NAS 장치, 쿼럼 서버 또는 조합을 사용하는지 여부에 관계없이 쿼럼 장치의 구성 정보를 업데이트해야 합니다. 이를 수행하려면 모든 쿼럼 장치를 제거하고 전역 장치 이름 공간을 업데이트합니다. 계속 사용하려는 쿼럼 장치를 선택적으로 재구성할 수 있습니다. 그러면 각 쿼럼 장치에 새 노드가 등록되고 각 장치는 클러스터의 새 노드 수를 기반으로 해당 투표 수를 다시 계산할 수 있습니다.
새로 구성된 SCSI 쿼럼 장치는 SCSI-3 예약으로 설정됩니다.
시작하기 전에
추가된 노드에서 Oracle Solaris Cluster 소프트웨어 설치를 완료했는지 확인합니다.
phys-schost# cluster status -t node
명령 출력에는 각 쿼럼 장치와 각 노드가 나열됩니다. 다음 출력 예에서는 현재 SCSI 쿼럼 장치 d3을 보여 줍니다.
phys-schost# clquorum list d3 …
구성되는 각 쿼럼 장치에 대해 이 단계를 수행합니다.
phys-schost# clquorum remove devicename
쿼럼 장치의 이름을 지정합니다.
쿼럼 장치가 성공적으로 제거되면 쿼럼 장치가 나열되지 않습니다.
phys-schost# clquorum status
phys-schost# cldevice populate
주 - 이 단계는 잠재적 노드 패닉을 예방하는 데 필수적입니다.
cldevice populate 명령은 하나의 노드에서만 실행해도 모든 노드에서 원격으로 실행됩니다. cldevice populate 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행합니다.
phys-schost# ps -ef | grep scgdevs
처음에 쿼럼 장치로 구성된 것과 동일한 장치를 구성하거나 구성할 새 공유 장치를 선택할 수 있습니다.
그렇지 않으면 단계 c로 건너뜁니다.
phys-schost# cldevice list -v
다음과 비슷한 결과가 출력됩니다:
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 …
phys-schost# clquorum add -t type devicename
쿼럼 장치의 유형을 지정합니다. 이 옵션을 지정하지 않으면 기본 유형 shared_disk가 사용됩니다.
phys-schost# clquorum list
각 쿼럼 장치 및 각 노드가 출력되어야 합니다.
예 3-4 2 노드 클러스터에 노드를 추가한 후 SCSI 쿼럼 장치 업데이트
다음 예에서는 원본 SCSI 쿼럼 장치 d2를 식별하고 해당 쿼럼 장치를 제거하여 사용 가능한 공유 장치를 나열하며 전역 장치 이름 공간을 업데이트하고 d3을 새 SCSI 쿼럼 장치로 구성한 후 새 장치를 확인합니다.
phys-schost# clquorum list d2 phys-schost-1 phys-schost-2 phys-schost# clquorum remove d2 phys-schost# clquorum status … --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- … d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … phys-schost# cldevice populate phys-schost# ps -ef - grep scgdevs phys-schost# clquorum add d3 phys-schost# clquorum list d3 phys-schost-1 phys-schost-2
다음 순서
쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.
주 - 다음과 같은 환경에서는 쿼럼 장치를 구성하지 않아도 됩니다.
Oracle Solaris Cluster 소프트웨어 구성 중에 자동 쿼럼 구성을 선택한 경우
단일 노드 전역 클러스터를 설치한 경우
기존 전역 클러스터에 노드를 추가하고 이미 충분한 쿼럼 투표 수가 할당된 경우
대신 쿼럼 구성 및 설치 모드를 확인하는 방법을 진행합니다.
이 절차는 새 클러스터가 완전히 구성된 후 한 번만 수행하면 됩니다. 이 절차를 사용하여 쿼럼 투표 수를 할당한 다음 설치 모드에서 클러스터를 제거합니다.
시작하기 전에
쿼럼 서버 또는 NAS 장치를 쿼럼 장치로 구성하려면 다음 준비를 수행합니다.
쿼럼 서버 – 쿼럼 서버를 쿼럼 장치로 구성하려면 다음을 수행합니다.
쿼럼 서버 호스트 시스템에 쿼럼 서버 소프트웨어를 설치하고 쿼럼 서버를 시작합니다. 쿼럼 서버 설치 및 시작에 대한 자세한 내용은 쿼럼 서버 소프트웨어를 설치하고 구성하는 방법을 참조하십시오.
클러스터 노드와 바로 연결되는 네트워크 스위치가 다음 조건 중 하나를 충족하는지 확인합니다.
이 스위치는 RSTP(Rapid Spanning Tree Protocol)를 지원합니다.
스위치에 고속 포트 모드가 활성화되어 있습니다.
이 기능 중 하나는 클러스터 노드와 쿼럼 서버 사이의 즉각적인 통신을 확인하는 데 필요합니다. 스위치에 의해 이 통신이 두드러지게 지연되는 경우 클러스터는 이러한 통신 장애를 쿼럼장치의 손실로 해석합니다.
다음 정보를 사용할 수 있도록 준비합니다.
구성된 쿼럼 장치에 할당할 이름
쿼럼 서버 호스트 시스템의 IP 주소
쿼럼 서버의 포트 번호
NAS 장치 – NAS(Network-Attached Sstorage) 장치를 쿼럼 장치로 구성하려면 다음을 수행합니다.
NAS 장치 하드웨어 및 소프트웨어를 설치합니다. NAS 하드웨어 및 소프트웨어의 요구 사항과 설치 절차에 대한 자세한 내용은 Oracle Solaris Cluster 3.3 With Network-Attached Storage Device Manual 및 해당 장치 설명서를 참조하십시오.
Network Appliance NAS 장치의 경우 다음 정보도 사용할 수 있도록 준비합니다.
NAS 장치 이름
NAS 장치의 LUN ID
쿼럼 서버를 사용하려는 경우
공용 네트워크에서 CIDR(Classless Inter Domain Routing)이라고도 하는 가변 길이 서브넷 마스크를 사용하는 경우
쿼럼 서버를 사용하지만 공용 네트워크에서 RFC 791에 정의된 classful 서브넷을 사용하는 경우 이 단계를 수행할 필요가 없습니다.
다음은 공용 네트워크 IP 주소 및 넷마스크를 포함하는 항목의 예입니다.
10.11.30.0 255.255.255.0
nodename netmask + broadcast +
phys-schost# cluster status -t node
이 명령을 실행하기 위해 수퍼유저로 로그인할 필요가 없습니다.
phys-schost-1# cldevice list -v
다음과 비슷한 결과가 출력됩니다:
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 …
단계 a의 scdidadm 출력을 사용하여 쿼럼 장치로 구성할 각 공유 디스크의 장치 ID 이름을 식별합니다. 예를 들어 단계 a의 출력에는 전역 장치 d3이 phys-schost-1과 phys-schost-2에서 공유되는 것으로 표시됩니다.
phys-schost# cldevice show device === DID Device Instances === DID Device Name: /dev/did/rdsk/dN … default_fencing: nofencing …
또는 개별 디스크에 대해서만 보호(fencing)를 비활성화하여 global_fencing 등록 정보가 설정된 값에 관계없이 해당 디스크에 대한 값을 무시할 수 있습니다. 개별 디스크에 대해 보호(fencing)를 비활성화하려면 단계 c로 건너뛰십시오.
phys-schost# cluster show -t global === Cluster === Cluster name: cluster … global_fencing: nofencing …
주 - 개별 디스크의 default_fencing 등록 정보가 global로 설정된 경우 해당 개별 디스크에 대한 보호(fencing)는 클러스터 전체의 global_fencing 등록 정보가 nofencing 또는 nofencing-noscrub으로 설정된 경우에만 비활성화됩니다. 보호(fencing)를 활성화하는 값으로 global_fencing 등록 정보를 변경하면 default_fencing 등록 정보가 global로 설정된 모든 디스크에 대해 보호(fencing)가 활성화됩니다.
phys-schost# cldevice set \ -p default_fencing=nofencing-noscrub device
phys-schost# cldevice show device
phys-schost# clsetup
Initial Cluster Setup(초기 클러스터 설정) 화면이 표시됩니다.
|
쿼럼 서버의 경우에도 다음 정보를 지정합니다.
쿼럼 서버 호스트의 IP 주소
클러스터 노드와 통신하기 위해 쿼럼 서버에서 사용하는 포트 번호
Network Appliance NAS 장치의 경우 다음 정보도 지정합니다.
NAS 장치 이름
NAS 장치의 LUN ID
clsetup 유틸리티에서 클러스터에 대해 쿼럼 구성 및 투표 수를 설정하면 클러스터 초기화가 완료되었습니다라는 메시지가 표시됩니다. 주 메뉴로 돌아갑니다.
다음 순서
쿼럼 구성을 확인하고 설치 모드가 비활성화되어 있는지 확인합니다. 쿼럼 구성 및 설치 모드를 확인하는 방법으로 이동합니다.
일반 오류
중단된 clsetup 처리 - 쿼럼 설치 프로세스가 중단되거나 성공적으로 완료되지 않으면 clsetup을 다시 실행합니다.
쿼럼 투표 수 변경 – 쿼럼 장치에 첨부되는 노드 수를 나중에 늘리거나 줄이면 쿼럼 투표 수가 자동으로 다시 계산되지 않습니다. 각 쿼럼 장치를 제거하여 정확한 쿼럼 투표 수를 재설정한 다음 한 번에 쿼럼 장치 하나씩 구성에 다시 추가할 수 있습니다. 2 노드 클러스터의 경우 원래 쿼럼 장치를 제거했다가 다시 추가하기 전에 새 쿼럼 장치를 임시로 추가합니다. 그런 다음 임시 쿼럼 장치를 제거합니다. Oracle Solaris Cluster 시스템 관리 설명서의 6 장, 쿼럼 관리에서 "How to Modify a Quorum Device Node List" 절차를 참조하십시오.
연결할 수 없는 쿼럼 장치 – 쿼럼 장치에 연경할 수 없다는 메시지가 클러스터 노드에 표시되거나 클러스터 노드 오류가 CMM: Unable to acquire the quorum device라는 메시지와 함께 표시되면 쿼럼 장치 또는 해당 장치 경로에 문제가 있을 수 있습니다. 쿼럼 장치와 해당 장치 경로가 작동하는지 확인하십시오.
문제가 지속되면 다른 쿼럼 장치를 사용하십시오. 또는 동일한 쿼럼 장치를 사용하려면 다음과 같이 쿼럼 시간 초과를 높은 값으로 늘리십시오.
주 - Oracle RAC(Oracle Real Application Clusters)의 경우 기본 쿼럼 시간 초과 25초를 변경하지 마십시오. 특정 정보 분리(split-brain) 시나리오에서 시간 초과 기간을 더 길게 설정하면 VIP 자원 시간 초과로 인해 Oracle RAC VI0P 페일오버의 오류가 발생할 수 있습니다. 사용 중인 쿼럼 장치에서 기본 25초 시간 초과를 준수하지 않는 경우 다른 쿼럼 장치를 사용하십시오.
1. 수퍼유저로 전환합니다.
2. 각 클러스터 노드에서 수퍼유저로 /etc/system 파일을 편집하여 시간 초과를 높은 값으로 설정합니다.
다음 예에서는 시간 초과를 700초로 설정합니다.
phys-schost# vi /etc/system … set cl_haci:qd_acquisition_timer=700
3. 하나의 노드에서 클러스터를 종료합니다.
phys-schost-1# cluster shutdown -g0 -y
4. 각 노드를 클러스터로 다시 부트합니다.
재부트 후에는 /etc/system 파일 변경 사항이 초기화됩니다.
쿼럼이 구성된 경우 쿼럼 구성이 성공적으로 완료되었는지, 클러스터 설치 모드가 비활성 상태인지 확인하려면 이 절차를 수행합니다.
이러한 명령을 실행하기 위해 수퍼유저로 전환할 필요는 없습니다.
phys-schost% clquorum list
각 쿼럼 장치 및 각 노드가 출력됩니다.
phys-schost% cluster show -t global | grep installmode installmode: disabled
클러스터 설치 및 만들기가 완료되었습니다.
다음 순서
아래 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 확인합니다. 이 목록에서 둘 이상의 작업을 수행해야 하는 경우 해당 작업 중 첫 번째 작업으로 이동합니다.
개인 호스트 이름을 변경하려면 개인 호스트 이름을 변경하는 방법으로 이동합니다.
Oracle Solaris Cluster 소프트웨어를 설치하기 전에 사용자 고유의 /etc/inet/ntp.conf 파일을 설치하지 않은 경우 NTP 구성 파일을 설치하거나 만듭니다. NTP(Network Time Protocol)를 구성하는 방법으로 이동합니다.
개인 상호 연결에 IPsec을 구성하려면 클러스터 개인 상호 연결에 IP 보안 아키텍처(IPsec)를 구성하는 방법으로 이동합니다.
볼륨 관리자를 설치하려면 4 장Solaris Volume Manager 소프트웨어 구성 및 5 장Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성으로 이동하여 볼륨 관리 소프트웨어를 설치합니다.
주 - VxVM을 사용하는 클러스터에 새 노드를 추가한 경우 다음 작업 중 하나를 수행해야 합니다.
해당 노드에 VxVM을 설치합니다.
노드의 /etc/name_to_major 파일을 수정하여 VxVM을 함께 사용할 수 있도록 지원합니다.
필요한 작업 중 하나를 수행하려면 Veritas Volume Manager(VERITAS 볼륨 관리자) 소프트웨어를 설치하는 방법의 절차를 따르십시오.
클러스터 파일 시스템을 만들려면 클러스터 파일 시스템을 만드는 방법으로 이동합니다.
노드에 비전역 영역을 만들려면 전역 클러스터 노드에 비전역 영역을 만드는 방법으로 이동합니다.
SPARC: Sun Management Center를 구성하여 클러스터를 모니터링하려면 SPARC: Sun Management Center용 Oracle Solaris Cluster 모듈 설치로 이동합니다.
타사 응용 프로그램을 설치하고 자원 유형을 등록하며 자원 그룹을 설정하고 데이터 서비스를 구성합니다. 응용 프로그램 소프트웨어와 함께 제공되는 설명서 및 Oracle Solaris Cluster Data Services Planning and Administration Guide를 참조하십시오.
클러스터를 생산 환경으로 전환하기 전에 나중에 진단에 사용할 수 있도록 클러스터 구성의 기본 기록을 만듭니다. 클러스터 구성의 진단 데이터를 기록하는 방법으로 이동합니다.
참조
클러스터 구성을 백업합니다.
클러스터 구성의 아카이브된 백업을 사용하면 클러스터 구성을 더 쉽게 복구할 수 있습니다. 자세한 내용은 Oracle Solaris Cluster 시스템 관리 설명서의 클러스터 구성을 백업하는 방법을 참조하십시오.
Oracle Solaris Cluster 소프트웨어를 설치할 때 할당되는 기본 개인 호스트 이름 clusternodenodeid-priv를 사용하지 않으려면 이 작업을 수행합니다.
주 - 응용 프로그램과 데이터 서비스가 구성되어 시작된 후에는 이 절차를 수행하지 마십시오. 구성되어 시작된 후 이 작업을 수행하면 개인 호스트 이름이 변경된 후에도 응용 프로그램이나 데이터 서비스에서 이전의 개인 호스트 이름을 계속 사용하여 호스트 이름 충돌이 발생할 수 있습니다. 응용 프로그램이나 데이터 서비스가 실행되고 있으면 중지한 후 이 절차를 수행하십시오.
클러스터의 한 활성 노드에 대해 이 절차를 수행합니다.
phys-schost# clsetup
clsetup 주 메뉴가 표시됩니다.
Private Hostname(개인 호스트 이름) 메뉴가 표시됩니다.
변경할 각 개인 호스트 이름에 대해 반복합니다.
phys-schost# clnode show -t node | grep privatehostname privatehostname: clusternode1-priv privatehostname: clusternode2-priv privatehostname: clusternode3-priv
다음 순서
아래 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 확인합니다. 이 목록에서 둘 이상의 작업을 수행해야 하는 경우 해당 작업 중 첫 번째 작업으로 이동합니다.
Oracle Solaris Cluster 소프트웨어를 설치하기 전에 사용자 고유의 /etc/inet/ntp.conf 파일을 설치하지 않은 경우 NTP 구성 파일을 설치하거나 만듭니다. NTP(Network Time Protocol)를 구성하는 방법으로 이동합니다.
개인 상호 연결에 IPsec을 구성하려면 클러스터 개인 상호 연결에 IP 보안 아키텍처(IPsec)를 구성하는 방법으로 이동합니다.
볼륨 관리자를 설치하려면 4 장Solaris Volume Manager 소프트웨어 구성 및 5 장Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성으로 이동하여 볼륨 관리 소프트웨어를 설치합니다.
주 - VxVM을 사용하는 클러스터에 새 노드를 추가한 경우 다음 작업 중 하나를 수행해야 합니다.
해당 노드에 VxVM을 설치합니다.
노드의 /etc/name_to_major 파일을 수정하여 VxVM을 함께 사용할 수 있도록 지원합니다.
필요한 작업 중 하나를 수행하려면 Veritas Volume Manager(VERITAS 볼륨 관리자) 소프트웨어를 설치하는 방법의 절차를 따르십시오.
클러스터 파일 시스템을 만들려면 클러스터 파일 시스템을 만드는 방법으로 이동합니다.
노드에 비전역 영역을 만들려면 전역 클러스터 노드에 비전역 영역을 만드는 방법으로 이동합니다.
SPARC: Sun Management Center를 구성하여 클러스터를 모니터링하려면 SPARC: Sun Management Center용 Oracle Solaris Cluster 모듈 설치로 이동합니다.
타사 응용 프로그램을 설치하고 자원 유형을 등록하며 자원 그룹을 설정하고 데이터 서비스를 구성합니다. 응용 프로그램 소프트웨어와 함께 제공되는 설명서 및 Oracle Solaris Cluster Data Services Planning and Administration Guide를 참조하십시오.
클러스터를 생산 환경으로 전환하기 전에 나중에 진단에 사용할 수 있도록 클러스터 구성의 기본 기록을 만듭니다. 클러스터 구성의 진단 데이터를 기록하는 방법으로 이동합니다.
로드 한계를 설정하여 노드 또는 영역 전체에 자원 그룹의 자동 로드 분산을 활성화할 수 있습니다. 자원 그룹에 로드 요소를 할당하며 로드 요소는 노드의 정의된 로드 한계에 해당합니다.
기본 동작은 사용 가능한 모든 노드 전체에 균등하게 자원 그룹 로드를 분산시키는 것입니다. 각 자원 그룹은 노드 목록의 노드에서 시작됩니다. RGM(Resource Group Manager)은 구성된 로드 분산 정책에 가장 적합한 노드를 선택합니다. RGM에서 노드에 자원 그룹을 할당하면 각 노드에서 자원 그룹의 로드 요소가 합계되어 총 로드를 제공합니다. 그런 다음 총 로드는 노드의 로드 한계와 비교됩니다.
로드 한계는 전역 클러스터 또는 영역 클러스터에서 구성할 수 있습니다.
각 노드에서 로드 분산을 제어하기 위해 설정하는 요소에는 로드 한계, 자원 그룹 우선 순위 및 선점 모드가 포함됩니다. 전역 클러스터에서는 Concentrate_load 등록 정보를 설정하여 기본 로드 분산 정책을 선택하거나 로드 한계를 초과하지 않고 최대한 적은 수의 노드로 자원 그룹 로드를 집중하거나 사용 가능한 모든 노드에서 최대한 균등하게 로드를 분산시킬 수 있습니다. 기본 동작은 자원 그룹 로드를 분산시키는 것입니다. 각 자원 그룹은 로드 요소 및 로드 한계 설정에 관계없이 노드 목록의 노드에서만 실행되도록 계속 제한됩니다.
주 - 명령줄, Oracle Solaris Cluster 관리자 인터페이스 또는 clsetup 유틸리티를 사용하여 자원 그룹의 로드 분산을 구성할 수 있습니다. 다음 절차에서는 clsetup 유틸리티를 사용하여 자원 그룹에 대해 로드 분산을 구성하는 방법을 보여 줍니다. 명령줄을 사용하여 이 절차를 수행하는 것에 대한 지침은 Oracle Solaris Cluster 시스템 관리 설명서의 로드 한계 구성을 참조하십시오.
이 절에서는 다음 절차에 대해 설명합니다.
각 클러스터 노드 또는 영역에는 고유한 로드 한계 세트가 있습니다. 자원 그룹에 로드 요소를 할당하며 로드 요소는 노드의 정의된 로드 한계에 해당합니다. 초과할 수 있는 소프트 로드 한계나 초과할 수 없는 하드 로드 한계를 설정할 수 있습니다.
phys-schost# clsetup
clsetup 메뉴가 표시됩니다.
Other Cluster Tasks(기타 클러스터 작업) 메뉴가 표시됩니다.
Manage Resource Group Load Distribution(자원 그룹 로드 분산 관리) 메뉴가 표시됩니다.
Manage Load Limits(로드 한계 관리) 메뉴가 표시됩니다.
로드 한계를 만들거나, 로드 한계를 수정하거나, 로드 한계를 삭제할 수 있습니다.
두 번째 노드에서 로드 한계를 설정하려면 두 번째 노드에 해당하는 옵션 번호를 선택하고 Enter 키를 누릅니다. 로드 한계를 구성할 노드를 모두 선택한 후 q를 입력하고 Enter 키를 누릅니다.
예를 들어 로드 한계 이름으로 mem_load를 입력합니다.
yes를 입력한 경우 소프트 한계 값을 입력하고 Enter 키를 누릅니다.
yes를 입력한 경우 하드 한계 값을 입력하고 Enter 키를 누릅니다.
선택한 노드에 대한 소프트 및 하드 로드 한계와 함께 명령이 성공적으로 완료되었습니다 메시지가 표시됩니다. Enter 키를 눌러 계속합니다.
q를 입력하고 Enter 키를 눌러 이전 메뉴로 돌아갑니다.
특정 노드에서 재배치되지 않도록 리소스 그룹의 우선 순위를 더 높게 구성할 수 있습니다. 로드 한계를 초과하면 우선 순위가 더 낮은 자원 그룹이 오프라인 상태로 강제 전환됩니다.
phys-schost# clsetup
clsetup 메뉴가 표시됩니다.
Other Cluster Tasks(기타 클러스터 작업) 메뉴가 표시됩니다.
Manage Resource Group Load Distribution(자원 그룹 로드 분산 관리) 메뉴가 표시됩니다.
Set the Priority of a Resource Group(자원 그룹의 우선 순위 설정) 메뉴가 표시됩니다.
기존 우선 순위 값이 표시됩니다. 기본 우선 순위 값은 500입니다.
Manage Resource Group Load Distribution(자원 그룹 로드 분산 관리) 메뉴가 표시됩니다.
로드 요소는 로드 한계에서 로드에 할당하는 값입니다. 로드 요소는 자원 그룹에 할당되며 해당 로드 요소는 노드의 정의된 로드 한계에 해당합니다.
phys-schost# clsetup
clsetup 메뉴가 표시됩니다.
Other Cluster Tasks(기타 클러스터 작업) 메뉴가 표시됩니다.
Manage Resource Group Load Distribution(자원 그룹 로드 분산 관리) 메뉴가 표시됩니다.
Set the load factors of a Resource Group(자원 그룹의 로드 요소 설정) 메뉴가 표시됩니다.
예를 들어 mem_load@50을 입력하면 선택한 자원 그룹에서 mem_load라는 로드 요소를 설정할 수 있습니다. 완료되면 Ctrl-D를 누릅니다.
Manage Resource Group Load Distribution(자원 그룹 로드 분산 관리) 메뉴가 표시됩니다.
preemption_mode 등록 정보는 노드 과부하로 인해 자원 그룹이 우선 순위가 더 높은 자원 그룹에 의해 노드에서 선점되는지 여부를 결정합니다. 우선 순위는 노드 간에 자원 그룹을 이동하는 비용을 나타냅니다.
phys-schost# clsetup
clsetup 메뉴가 표시됩니다.
Other Cluster Tasks(기타 클러스터 작업) 메뉴가 표시됩니다.
Manage Resource Group Load Distribution(자원 그룹 로드 분산 관리) 메뉴가 표시됩니다.
Set the Preemption Mode of a Resource Group(자원 그룹의 선점 모드 설정) 메뉴가 표시됩니다.
자원 그룹에 선점 모드가 설정된 경우 다음과 같이 표시됩니다.
The preemption mode property of "rg11" is currently set to the following: preemption mode: Has_Cost
세 가지 선택 항목은 Has_cost, No_cost 또는 Never입니다.
Manage Resource Group Load Distribution(자원 그룹 로드 분산 관리) 메뉴가 표시됩니다.
Concentrate_load 등록 정보를 false로 설정하면 클러스터에서 사용 가능한 모든 노드에 균등하게 자원 그룹 로드를 분산시킵니다. 이 등록 정보를 True로 설정하면 클러스터에서 로드 한계를 초과하지 않고 가장 적은 수의 노드로 자원 그룹 로드를 집중합니다. 기본적으로 Concentrate_load 등록 정보는 False로 설정되어 있습니다. 전역 클러스터에서만 Concentrate_load 등록 정보를 설정할 수 있으며 영역 클러스터에서는 이 등록 정보를 설정할 수 없습니다. 영역 클러스터에서 기본 설정은 항상 False 입니다.
phys-schost# clsetup
clsetup 메뉴가 표시됩니다.
Other Cluster Tasks(기타 클러스터 작업) 메뉴가 표시됩니다.
Set the Concentrate Load Property of the Cluster(클러스터의 로드 집중 등록 정보 설정) 메뉴가 표시됩니다.
TRUE 또는 FALSE의 현재 값이 표시됩니다.
Other Cluster Tasks(기타 클러스터 작업) 메뉴가 표시됩니다.
주 - Oracle Solaris Cluster 소프트웨어를 설치하기 전에 사용자 고유의 /etc/inet/ntp.conf 파일을 설치한 경우에는 이 절차를 수행할 필요가 없습니다. 다음 단계를 결정합니다.
다음 작업을 수행한 후 이 작업을 수행하여 NTP 구성 파일을 만들거나 수정합니다.
Oracle Solaris Cluster 소프트웨어 설치
기존 전역 클러스터에 노드 추가
전역 클러스터 노드의 개인 호스트 이름 변경
단일 노드 클러스터에 노드를 추가한 경우에는 사용한 NTP 구성 파일이 새 노드 및 원래 클러스터 노드에 복사되었는지 확인해야 합니다.
주 - ntp.conf.cluster 파일의 이름을 ntp.conf로 변경하지 마십시오.
/etc/inet/ntp.conf.cluster 파일이 노드에 없는 경우 이전에 설치한 Oracle Solaris Cluster 소프트웨어의 /etc/inet/ntp.conf 파일을 사용할 수 있습니다. Oracle Solaris Cluster 소프트웨어는 /etc/inet/ntp.conf 파일이 노드에 아직 없는 경우 /etc/inet/ntp.conf.cluster 파일을 NTP 구성 파일로 만듭니다. 그럴 경우 해당 ntp.conf 파일을 다음과 같이 편집합니다.
단계 5를 진행하기 전에 각 노드에서 명령이 성공적으로 완료될 때까지 기다립니다.
phys-schost# svcadm disable ntp
phys-schost# /etc/init.d/xntpd.cluster start
xntpd.cluster 시작 스크립트를 실행하면 먼저 /etc/inet/ntp.conf 파일을 찾습니다.
ntp.conf 파일이 있으면 NTP 데몬을 시작하지 않고 스크립트가 바로 종료됩니다.
ntp.conf 파일은 없지만 ntp.conf.cluster 파일이 있으면 스크립트에서 NTP 데몬을 시작합니다. 이 경우 스크립트는 ntp.conf.cluster 파일을 NTP 구성 파일로 사용합니다.
phys-schost# svcadm enable ntp
다음 순서
아래 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 확인합니다. 이 목록에서 둘 이상의 작업을 수행해야 하는 경우 해당 작업 중 첫 번째 작업으로 이동합니다.
개인 상호 연결에 IPsec을 구성하려면 클러스터 개인 상호 연결에 IP 보안 아키텍처(IPsec)를 구성하는 방법으로 이동합니다.
볼륨 관리자를 설치하려면 4 장Solaris Volume Manager 소프트웨어 구성 및 5 장Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성으로 이동하여 볼륨 관리 소프트웨어를 설치합니다.
주 - VxVM을 사용하는 클러스터에 새 노드를 추가한 경우 다음 작업 중 하나를 수행해야 합니다.
해당 노드에 VxVM을 설치합니다.
노드의 /etc/name_to_major 파일을 수정하여 VxVM을 함께 사용할 수 있도록 지원합니다.
필요한 작업 중 하나를 수행하려면 Veritas Volume Manager(VERITAS 볼륨 관리자) 소프트웨어를 설치하는 방법의 절차를 따르십시오.
클러스터 파일 시스템을 만들려면 클러스터 파일 시스템을 만드는 방법으로 이동합니다.
노드에 비전역 영역을 만들려면 전역 클러스터 노드에 비전역 영역을 만드는 방법으로 이동합니다.
SPARC: Sun Management Center를 구성하여 클러스터를 모니터링하려면 SPARC: Sun Management Center용 Oracle Solaris Cluster 모듈 설치로 이동합니다.
타사 응용 프로그램을 설치하고 자원 유형을 등록하며 자원 그룹을 설정하고 데이터 서비스를 구성합니다. 응용 프로그램 소프트웨어와 함께 제공되는 설명서 및 Oracle Solaris Cluster Data Services Planning and Administration Guide를 참조하십시오.
클러스터를 생산 환경으로 전환하기 전에 나중에 진단에 사용할 수 있도록 클러스터 구성의 기본 기록을 만듭니다. 클러스터 구성의 진단 데이터를 기록하는 방법으로 이동합니다.
clprivnet 인터페이스에 대해 IP 보안 아키텍처(IPsec)를 구성하여 클러스터 상호 연결에서 보안 TCP/IP 통신을 제공할 수 있습니다.
IPsec에 대한 자세한 내용은 System Administration Guide: IP Services의 제IV부, IP Security 및 ipsecconf(1M) 매뉴얼 페이지를 참조하십시오. clprivnet 인터페이스에 대한 자세한 내용은 clprivnet(7) 매뉴얼 페이지를 참조하십시오.
IPsec을 사용하도록 구성한 각 전역 클러스터 투표 노드에서 이 절차를 수행합니다.
phys-schost# ifconfig clprivnet0
System Administration Guide: IP Services의 How to Secure Traffic Between Two Systems With IPsec에서 지침을 따릅니다. 또한 다음 지침을 준수합니다.
이러한 주소에 대한 구성 매개 변수의 값이 모든 파트너 노드에서 일관되는지 확인합니다.
구성 파일에서 별도의 행으로 각 정책을 구성합니다.
재부트하지 않고 IPsec을 구현하려면 예제 절차 Securing Traffic With IPsec Without Rebooting의 지침을 따릅니다.
sa unique 정책에 대한 자세한 내용은 ipsecconf(1M) 매뉴얼 페이지를 참조하십시오.
로컬 노드의 clprivnet IP 주소를 포함합니다.
이 기능을 사용하면 드라이버에서 클러스터 개인 네트워크의 대역폭을 최적으로 활용하여 분산 세밀성 및 처리량을 향상시킬 수 있습니다. clprivnet 인터페이스에서는 패킷의 SPI(Security Parameter Index)를 사용하여 트래픽을 스트리핑합니다.
클러스터 전송을 위해 구성된 정책 규칙에 이 항목을 추가합니다. 이 설정은 클러스터 노드가 재부트될 때 보안 연결이 재생성될 때까지의 시간을 제공하며 재부트된 노드가 클러스터를 다시 결합할 수 있는 시간을 제한합니다. 30초 값이 적합합니다.
phys-schost# vi /etc/inet/ike/config … { label "clust-priv-interconnect1-clust-priv-interconnect2" … p2_idletime_secs 30 } …
다음 순서
아래 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 확인합니다. 이 목록에서 둘 이상의 작업을 수행해야 하는 경우 해당 작업 중 첫 번째 작업으로 이동합니다.
볼륨 관리자를 설치하려면 4 장Solaris Volume Manager 소프트웨어 구성 및 5 장Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성으로 이동하여 볼륨 관리 소프트웨어를 설치합니다.
주 - VxVM을 사용하는 클러스터에 새 노드를 추가한 경우 다음 작업 중 하나를 수행해야 합니다.
해당 노드에 VxVM을 설치합니다.
노드의 /etc/name_to_major 파일을 수정하여 VxVM을 함께 사용할 수 있도록 지원합니다.
필요한 작업 중 하나를 수행하려면 Veritas Volume Manager(VERITAS 볼륨 관리자) 소프트웨어를 설치하는 방법의 절차를 따르십시오.
클러스터 파일 시스템을 만들려면 클러스터 파일 시스템을 만드는 방법으로 이동합니다.
노드에 비전역 영역을 만들려면 전역 클러스터 노드에 비전역 영역을 만드는 방법으로 이동합니다.
SPARC: Sun Management Center를 구성하여 클러스터를 모니터링하려면 SPARC: Sun Management Center용 Oracle Solaris Cluster 모듈 설치로 이동합니다.
타사 응용 프로그램을 설치하고 자원 유형을 등록하며 자원 그룹을 설정하고 데이터 서비스를 구성합니다. 응용 프로그램 소프트웨어와 함께 제공되는 설명서 및 Oracle Solaris Cluster Data Services Planning and Administration Guide를 참조하십시오.
그렇지 않고 모든 하드웨어 및 소프트웨어 설치와 구성 작업을 완료한 경우 클러스터의 유효성을 검사합니다. 클러스터의 유효성을 검사하는 방법으로 이동합니다.
클러스터의 모든 구성을 완료한 후 cluster check 명령을 사용하여 클러스터 구성 및 기능의 유효성을 검사합니다. 자세한 내용은 cluster(1CL) 매뉴얼 페이지를 참조하십시오.
참고 - 나중에 쉽게 참조하거나 문제를 해결하려면 각 유효성 검사를 실행할 때 -o outputdir 옵션을 사용하여 로그 파일의 하위 디렉토리를 지정합니다. 기존 하위 디렉토리 이름을 다시 사용하면 하위 디렉토리의 기존 파일이 모두 제거됩니다. 따라서 나중에 로그 파일을 참조하려면 실행되는 각 클러스터 검사에 대해 고유한 하위 디렉토리 이름을 지정합니다.
시작하기 전에
펌웨어 및 패치를 포함하여 클러스터의 모든 하드웨어 및 소프트웨어 구성 요소의 설치와 구성을 완료했는지 확인합니다.
My Oracle Support(내 Oracle 지원)의 Patches & Updates(패치 & 업데이트) 탭으로 이동합니다. Advanced Search(고급 검색)를 사용하여 "Solaris Cluster"를 제품으로 선택하고 Description 필드에 "check"를 지정하여 검사가 포함된 Oracle Solaris Cluster 패치를 찾습니다. 클러스터에 아직 설치되지 않은 패치를 적용합니다.
# cluster check -v -o outputdir
자세한 표시 모드
outputdir 하위 디렉토리로 출력을 리디렉션합니다.
이 명령은 사용 가능한 모든 기본 검사를 실행합니다. 클러스터 기능은 영향을 받지 않습니다.
# cluster check -v -k interactive -o outputdir
실행 중인 대화식 유효성 검사를 지정합니다.
이 명령은 사용 가능한 대화식 검사를 모두 실행하고 클러스터에 대해 필요한 정보를 요구합니다. 클러스터 기능은 영향을 받지 않습니다.
# cluster list-checks -k functional
예를 들어 기능 검사를 수행하면 노드 패닉이 발생하거나 다른 노드로 페일오버될 있습니다.
# cluster list-checks -v -C checkID
특정 검사를 지정합니다.
# cluster check -v -k functional -C checkid -o outputdir
실행 중인 기능 유효성 검사를 지정합니다.
검사에서 표시되는 메시지에 응답하여 검사가 실행되도록 하고 모든 정보 또는 수행해야 하는 작업을 확인합니다.
주 - 레코드 유지를 위해 실행한 각 검사에 대해 고유한 outputdir 하위 디렉토리 이름을 지정합니다. outputdir 이름을 다시 사용하면 새 검사의 출력이 다시 사용된 outputdir 하위 디렉토리의 기존 내용을 덮어씁니다.
예 3-5 대화식 유효성 검사 나열
다음 예에는 클러스터에서 실행하는 데 사용할 수 있는 모든 대화식 검사가 나열되어 있습니다. 예제 출력에서는 가능한 검사의 표본 추출을 보여 주며 실제로 사용 가능한 검사는 각 구성에 따라 다릅니다.
# cluster list-checks -k interactive Some checks might take a few moments to run (use -v to see progress)... I6994574 : (Moderate) Fix for GLDv3 interfaces on cluster transport vulnerability applied?
예 3-6 기능 유효성 검사 실행
다음 예에서는 먼저 자세한 기능 검사 목록을 보여 줍니다. 그런 다음 F6968101 검사에 대한 자세한 설명을 나열하며, 검사에 의해 클러스터 서비스가 중단됨을 나타냅니다. 클러스터는 생산 환경에서 가져옵니다. 그러면 기능 검사가 실행되고 자세한 출력이 funct.test.F6968101.12Jan2011 하위 디렉토리에 기록됩니다. 예제 출력에서는 가능한 검사의 표본 추출을 보여 주며 실제로 사용 가능한 검사는 각 구성에 따라 다릅니다.
# cluster list-checks -k functional F6968101 : (Critical) Perform resource group switchover F6984120 : (Critical) Induce cluster transport network failure - single adapter. F6984121 : (Critical) Perform cluster shutdown F6984140 : (Critical) Induce node panic … # cluster list-checks -v -C F6968101 F6968101: (Critical) Perform resource group switchover Keywords: SolarisCluster3.x, functional Applicability: Applicable if multi-node cluster running live. Check Logic: Select a resource group and destination node. Perform '/usr/cluster/bin/clresourcegroup switch' on specified resource group either to specified node or to all nodes in succession. Version: 1.2 Revision Date: 12/10/10 Take the cluster out of production # cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011 F6968101 initializing... initializing xml output... loading auxiliary data... starting check run... pschost1, pschost2, pschost3, pschost4: F6968101.... starting: Perform resource group switchover ============================================================ >>> Functional Check <<< 'Functional' checks exercise cluster behavior. It is recommended that you do not run this check on a cluster in production mode.' It is recommended that you have access to the system console for each cluster node and observe any output on the consoles while the check is executed. If the node running this check is brought down during execution the check must be rerun from this same node after it is rebooted into the cluster in order for the check to be completed. Select 'continue' for more details on this check. 1) continue 2) exit choice: 1 ============================================================ >>> Check Description <<< … Follow onscreen directions
다음 순서
클러스터를 생산 환경으로 전환하기 전에 나중에 진단에 사용할 수 있도록 클러스터 구성의 기본 기록을 만듭니다. 클러스터 구성의 진단 데이터를 기록하는 방법으로 이동합니다.
전역 클러스터 구성을 완료한 후 생산 환경으로 전환하기 전에 Oracle Explorer 유틸리티를 사용하여 클러스터에 대한 기본 정보를 기록합니다. 이 데이터는 나중에 클러스터 문제를 해결해야 할 경우에 사용할 수 있습니다.
서비스 도구 번들에는 Oracle Explorer 패키지 SUNWexplo 및 SUNWexplu가 들어 있습니다. 소프트웨어 다운로드 및 설치 정보는 http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html을 참조하십시오.
플랫폼에 적합한 명령을 사용합니다.
|
자세한 내용은 /opt/SUNWexplo/man/man1m/ 디렉토리의 explorer(1M) 매뉴얼 페이지 및 Oracle Explorer User’s Guide를 참조하십시오.
explorer 출력 파일은 /opt/SUNWexplo/output/ 디렉토리에 explorer.hostid. hostname-date.tar.gz로 저장됩니다.
사용자 클러스터의 기술 문제를 진단하는 데 데이터가 필요한 경우 Oracle 기술 지원부는 Oracle Explorer 데이터베이스의 explorer 출력을 사용할 수 있습니다.
|
또는 FTP나 HTTPS를 사용하여 Oracle Explorer 파일을 제출하려면 Oracle Explorer User’s Guide의 절차에 따릅니다.