탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
Oracle Solaris Cluster 소프트웨어 설치 설명서 Oracle Solaris Cluster 4.1 (한국어) |
1. Oracle Solaris Cluster 구성 계획
이 절에서는 영역 클러스터를 만들고 구성하는 작업에 대한 절차 및 정보를 제공합니다.
이 절에서는 clsetup 유틸리티를 사용하여 영역 클러스터를 만들고, 네트워크 주소, 파일 시스템, ZFS 저장소 풀 및 저장 장치를 새 영역 클러스터에 추가하는 방법에 대한 절차를 제공합니다.
노드가 비클러스터 모드에 있을 경우 변경 사항은 노드가 클러스터 모드로 돌아갈 때 전파됩니다. 따라서 일부 전역 클러스터 노드가 비클러스터 모드에 있는 경우에도 영역 클러스터를 만들 수 있습니다. 해당 노드가 클러스터 모드로 돌아가면 시스템이 해당 노드에서 영역 클러스터 만들기 작업을 수행합니다.
또는 clzonecluster 유틸리티를 사용하여 클러스터를 만들고 구성할 수 있습니다. 자세한 내용은 clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오.
이 절에서는 다음 절차에 대해 설명합니다.
이 절차에서는 Oracle Solaris의 Trusted Extensions 기능을 영역 클러스터에서 사용할 수 있도록 전역 클러스터를 준비합니다. Trusted Extensions를 사용하도록 계획하지 않는 경우 영역 클러스터 만들기로 진행합니다.
전역 클러스터의 각 노드에서 이 절차를 수행합니다.
시작하기 전에
다음 작업을 수행합니다.
Oracle Solaris Cluster 및 Trusted Extensions 소프트웨어를 지원하는 Oracle Solaris OS가 설치되어 있는지 확인하십시오. Oracle Solaris Cluster 소프트웨어 요구 사항을 충족하도록 Oracle Solaris 소프트웨어를 설치하는 방법은 Oracle Solaris 소프트웨어를 설치하는 방법을 참조하십시오.
외부 이름 서비스가 사용되는 경우 LDAP 이름 지정 서비스가 Trusted Extensions에서 사용할 수 있도록 구성되어 있는지 확인하십시오. Trusted Extensions 구성 및 관리의 5 장, Trusted Extensions에 대해 LDAP 구성(작업)을 참조하십시오.
영역 클러스터의 Trusted Extensions에 대한 요구 사항 및 지침을 검토합니다. 영역 클러스터의 Trusted Extensions에 대한 지침을 참조하십시오.
Trusted Extensions 구성 및 관리의 3 장, Oracle Solaris에 Trusted Extensions 기능 추가(작업)에 포함된 절차를 수행합니다.
Trusted Extensions zoneshare 및 zoneunshare 스크립트는 시스템에서 홈 디렉토리를 내보내는 기능을 지원합니다. Oracle Solaris Cluster 구성은 이 기능을 지원하지 않습니다.
각 스크립트를 /bin/true 유틸리티에 대한 심볼릭 링크로 대체하여 이 기능을 사용 안함으로 설정합니다.
phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true phys-schost# ln -s /usr/lib/zones/zoneunshare /bin/true
Trusted Extensions 구성 및 관리의 기본 Trusted Extensions 시스템을 만드는 방법을 참조하십시오.
phys-schost# svcadm enable rlogin
아래에 나와 있는 대로 탭을 추가한 다음 각각 allow_remote 또는 allow_unlabeled를 입력하여 계정 관리 항목을 수정합니다.
other account requisite pam_roles.so.1 Tab allow_remote other account required pam_unix_account.so.1 Tab allow_unlabeled
# tncfg -t cipso tncfg:cipso> add host=ip-address1 tncfg:cipso> add host=ip-address2 … tncfg:cipso> exit
모든 전역 클러스터 노드에서 모든 단계가 완료되면 전역 클러스터의 각 노드에서 이 절차의 남은 단계를 수행합니다.
LDAP 서버는 전역 영역 및 영역 클러스터의 노드에서 사용됩니다.
Trusted Extensions 구성 및 관리의 Trusted Extensions에서 전역 영역을 LDAP 클라이언트로 만들기를 참조하십시오.
Trusted Extensions 구성 및 관리의 Trusted Extensions의 역할 및 사용자 만들기를 참조하십시오.
다음 순서
영역 클러스터를 만듭니다. 영역 클러스터 만들기로 이동합니다.
영역 클러스터를 만들려면 이 절차를 수행합니다.
영역 클러스터를 설치한 후 수정하려면 Oracle Solaris Cluster 시스템 관리 설명서의 영역 클러스터 관리 작업 수행 및 clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오.
시작하기 전에
전역 클러스터를 만듭니다. 3 장전역 클러스터 설정을 참조하십시오.
영역 클러스터 만들기의 지침 및 요구 사항을 검토합니다. 영역 클러스터를 참조하십시오.
영역 클러스터가 Trusted Extensions를 사용할 경우 Trusted Extensions를 설치하고 구성하는 방법에 나와 있듯이 Trusted Extensions를 설치, 구성 및 사용으로 설정했는지 확인하십시오.
다음 정보를 사용할 수 있도록 준비합니다.
영역 클러스터에 할당할 고유한 이름
주 - Trusted Extensions가 사용으로 설정된 경우 영역 클러스터 이름은 영역 클러스터에 지정할 보안 수준이 설정된 Trusted Extensions 보안 레이블과 동일한 이름이어야 합니다. 사용할 각 Trusted Extensions 보안 레이블에 대해 별도의 영역 클러스터를 만듭니다.
영역 클러스터의 노드에서 사용할 영역 경로. 자세한 내용은 zonepath 등록 정보(Oracle Solaris 11.1 관리: Oracle Solaris 영역, Oracle Solaris 10 영역 및 리소스 관리의 리소스 유형과 등록 정보 참조)에 대한 설명을 참조하십시오. 기본적으로 전체 루트 영역이 만들어집니다.
영역 클러스터 노드를 만들 전역 클러스터에 있는 각 노드의 이름
각 영역 클러스터 노드에 할당하는 영역 공용 호스트 이름 또는 호스트 별칭
해당되는 경우 각 영역 클러스터 노드에서 사용하는 공용 네트워크 IP 주소. 각 영역 클러스터 노드에 대해 IP 주소 및 NIC를 지정하는 것은 선택 사항입니다.
해당되는 경우 각 영역 클러스터 노드에서 공용 네트워크에 연결하는 데 사용하는 공용 네트워크 어댑터 IPMP 그룹의 이름
전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online
phys-schost# clsetup
주 메뉴가 표시됩니다.
영역 클러스터 이름은 ASCII 문자(a-z 및 A-Z), 숫자, 대시 또는 밑줄을 포함할 수 있습니다. 최대 이름 길이는 20자입니다.
다음 등록 정보를 설정할 수 있습니다.
|
solaris10 브랜드 영역의 경우 루트 계정 암호가 필요합니다.
다음 등록 정보를 설정할 수 있습니다.
|
다음 등록 정보를 설정할 수 있습니다.
|
다음 등록 정보를 설정할 수 있습니다.
|
사용 가능한 물리적 노드 또는 호스트 모두 또는 하나를 선택한 다음 한 번에 하나의 영역 클러스터 노드를 구성할 수 있습니다.
다음 등록 정보를 설정할 수 있습니다.
|
네트워크 주소를 사용하면 영역 클러스터의 논리적 호스트 이름 또는 공유 IP 클러스터 리소스를 구성할 수 있습니다. 네트워크 주소가 영역 클러스터 전역 범위에 있습니다.
다음과 비슷한 구성 변경 결과가 표시됩니다.
>>> Result of the Creation for the Zone Cluster(sczone) <<< The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone create set brand=solaris set zonepath=/zones/sczone set ip-type=shared set enable_priv_net=true add capped-memory set physical=2G end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.1.1.1 set physical=net0 end end add net set address=172.1.1.2 end Zone cluster, zc2 has been created and configured successfully. Continue to install the zone cluster(yes/no) ?
clsetup 유틸리티는 영역 클러스터의 표준 설치를 수행하며 사용자가 옵션을 지정할 수 없습니다.
verify 하위 명령은 지정된 리소스의 가용성을 확인합니다. clzonecluster verify 명령을 성공하면 아무 출력도 표시되지 않습니다.
phys-schost-1# clzonecluster verify zone-cluster-name phys-schost-1# clzonecluster status zone-cluster-name === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured
전역 영역의 경우 txzonemgr GUI를 실행합니다.
phys-schost# txzonemgr
전역 영역을 선택한 다음 Configure per-zone name service(영역별 이름 서비스 구성) 항목을 선택합니다.
phys-schost-1# clzonecluster install options zone-cluster-name Waiting for zone install commands to complete on all the nodes of the zone cluster "zone-cluster-name"...
|
-a 또는 -d 옵션을 사용하여 영역 클러스터에서 지원되는 Geographic Edition 소프트웨어, 주요 패키지 및 에이전트를 설치합니다.
|
자세한 내용은 clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오.
그렇지 않으면 단계 21로 건너뜁니다.
주 - 다음 단계에서 비전역 영역 zcnode 및 zone-cluster-name은 동일한 이름을 공유합니다.
한 번에 하나의 영역 클러스터 노드만 구성합니다.
phys-schost# zoneadm -z zcnode boot
phys-schost# zlogin zcnode zcnode# sysconfig unconfigure zcnode# reboot
재부트 시 zlogin 세션이 종료됩니다.
phys-schost# zlogin -C zcnode
비전역 영역에서 종료하는 방법에 대한 자세한 내용은 Oracle Solaris 11.1 관리: Oracle Solaris 영역, Oracle Solaris 10 영역 및 리소스 관리의 비전역 영역 종료 방법을 참조하십시오.
phys-schost# zoneadm -z zcnode halt
phys-schost# clzonecluster boot zone-cluster-name
phys-schost# zlogin zcnode zcnode# sysconfig unconfigure zcnode# reboot
재부트 시 zlogin 세션이 종료됩니다.
phys-schost# zlogin -C zcnode
비전역 영역에서 종료하는 방법에 대한 자세한 내용은 Oracle Solaris 11.1 관리: Oracle Solaris 영역, Oracle Solaris 10 영역 및 리소스 관리의 비전역 영역 종료 방법을 참조하십시오.
phys-schost# clzonecluster boot zone-cluster-name
phys-schost# zlogin -C zcnode
비전역 영역에서 종료하는 방법에 대한 자세한 내용은 Oracle Solaris 11.1 관리: Oracle Solaris 영역, Oracle Solaris 10 영역 및 리소스 관리의 비전역 영역 종료 방법을 참조하십시오.
영역 클러스터를 설치하는 데 몇 분이 걸릴 수 있습니다.
phys-schost# clzonecluster boot zone-cluster-name
clsetup 유틸리티는 배타적 IP 영역 클러스터에 대한 IPMP 그룹을 자동으로 구성하지 않습니다. 논리적 호스트 이름 또는 공유 주소 리소스를 만들기 전에 수동으로 IPMP 그룹을 만들어야 합니다.
phys-schost# ipadm create-ipmp -i interface sc_ipmp0 phys-schost# ipadm delete-addr interface/name phys-schost# ipadm create-addr -T static -a IPaddress/prefix sc_ipmp0/name
다음 순서
solaris10 브랜드 영역 클러스터에 설치한 Oracle Solaris Cluster 3.3 데이터 서비스를 구성하려면 해당되는 데이터 서비스 설명서에 있는 영역 클러스터에 대한 절차를 수행합니다. Oracle Solaris Cluster 3.3 Documentation을 참조하십시오.
Trusted Extensions 구성을 완료하려면 영역 클러스터에서 Trusted Extensions를 사용하도록 구성하는 방법으로 이동합니다.
그렇지 않으면 영역 클러스터에 파일 시스템 또는 저장 장치를 추가합니다. 다음 절을 참조하십시오.
labeled 브랜드 영역 클러스터를 만든 후 다음 단계를 수행하여 Trusted Extensions를 사용하는 구성을 완료합니다.
영역 클러스터의 각 노드에서 이 단계를 수행하십시오.
phys-schost# cat /etc/cluster/nodeid N
로그인하기 전에 SMF 서비스를 가져왔으며 모든 서비스가 작동 중인지 확인합니다.
클러스터 소프트웨어에서 영역 클러스터를 구성할 때 해당 클러스터 소프트웨어는 이러한 IP 주소를 자동으로 지정합니다.
ifconfig -a 출력에서 영역 클러스터에 속한 clprivnet0 논리적 인터페이스를 찾습니다. inet의 값은 이 영역 클러스터에서의 클러스터 개인 상호 연결의 사용을 지원하도록 지정된 IP 주소입니다.
zc1# ifconfig -a lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 zone zc1 inet 127.0.0.1 netmask ff000000 net0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:3:ba:19:fa:b7 ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4 inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:14:4f:24:74:d8 ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4 zone zc1 inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255 clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23 ether 0:0:0:0:0:2 clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 zone zc1 inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
clusternodeN-priv(여기서 N은 전역 클러스터 노드 ID임)인 개인 상호 연결의 호스트 이름입니다.
172.16.0.22 clusternodeN-priv
영역 클러스터를 만들 때 clzonecluster 명령에 지정된 각 net 리소스
영역 클러스터 구성 요소에서 사용하는 IP 주소에 대한 새 항목을 만들고 각 항목에 CIPSO 템플리트를 지정합니다. 영역 클러스터 노드의 /etc/inet/hosts 파일에 존재하는 이러한 IP 주소는 다음과 같습니다.
각 영역 클러스터 노드 개인 IP 주소
영역 클러스터의 모든 cl_privnet IP 주소
영역 클러스터에 대한 각 논리적 호스트 이름 공용 IP 주소
영역 클러스터에 대한 각 공유 주소 공용 IP 주소
phys-schost# tncfg -t cipso tncfg:cipso> add host=ipaddress1 tncfg:cipso> add host=ipaddress2 … tncfg:cipso> exit
CIPSO 템플리트에 대한 자세한 내용은 Trusted Extensions 구성 및 관리의 DOI(Domain of Interpretation)를 구성하는 방법을 참조하십시오.
영역 클러스터의 각 노드에서 다음 명령을 수행합니다.
phys-schost# ipadm set-prop -p hostmodel=weak ipv4 phys-schost# ipadm set-prop -p hostmodel=weak ipv6
hostmodel 등록 정보에 대한 자세한 내용은 Oracle Solaris 11.1 조정 가능 매개변수 참조 설명서의 hostmodel (ipv4 or ipv6)을 참조하십시오.
다음 순서
영역 클러스터에 파일 시스템 또는 저장 장치를 추가합니다. 다음 절을 참조하십시오.
참조
영역 클러스터에서 소프트웨어를 업데이트하는 경우 Oracle Solaris Cluster 시스템 관리 설명서의 11 장, 소프트웨어 업데이트에 포함된 절차를 수행합니다. 이러한 절차에는 필요한 경우 영역 클러스터에 대한 특정 지침이 포함되어 있습니다.
파일 시스템을 영역 클러스터에 추가하고 온라인 상태로 전환하면 해당 영역 클러스터 내에서 사용할 수 있도록 파일 시스템이 인증됩니다. 사용할 파일 시스템을 마운트하려면 SUNW.HAStoragePlus 또는 SUNW.ScalMountPoint와 같은 클러스터 리소스를 사용하여 파일 시스템을 구성합니다.
이 절에서는 영역 클러스터에서 사용할 파일 시스템을 추가하는 절차를 제공합니다.
영역 클러스터에서 사용할 전역 클러스터의 고가용성 로컬 파일 시스템을 구성하려면 이 절차를 수행합니다. 파일 시스템이 영역 클러스터에 추가되고 HAStoragePlus 리소스로 구성되어 고가용성 로컬 파일 시스템을 만듭니다.
전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.
파일 시스템이 공유 디스크에 만들어지는지 확인합니다.
phys-schost# clsetup
주 메뉴가 표시됩니다.
참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.
Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.
Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.
Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.
File System Selection for the Zone Cluster(영역 클러스터에 대한 파일 시스템 선택) 메뉴가 표시됩니다.
목록의 파일 시스템은 공유 디스크에서 구성되며 영역 클러스터가 구성되는 노드에서 액세스할 수 있는 파일 시스템입니다. 또한 e를 입력하여 파일 시스템에 대한 모든 등록 정보를 수동으로 지정할 수 있습니다.
Mount Type Selection(마운트 유형 선택) 메뉴가 표시됩니다.
File System Properties for the Zone Cluster(영역 클러스터에 대한 파일 시스템 등록 정보) 메뉴가 표시됩니다.
완료되면 d를 입력하고 Return 키를 누릅니다.
구성 변경 결과가 표시됩니다.
phys-schost# clzonecluster show -v zone-cluster-name
예 6-1 영역 클러스터에 고가용성 로컬 파일 시스템 추가
이 예에서는 sczone 영역 클러스터에서 사용할 로컬 파일 시스템 /global/oracle/d1을 추가합니다.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> add options [logging] clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [logging] cluster-control: [true] …
다음 순서
HAStoragePlus 자원을 사용하여 파일 시스템이 고가용성을 제공하도록 구성합니다. HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.
영역 클러스터에 ZFS 저장소 풀을 추가하려면 이 절차를 수행합니다. 풀은 단일 영역 클러스터 노드에 대한 로컬이거나 HAStoragePlus로 구성되어 고가용성이 될 수 있습니다.
clsetup 유틸리티는 선택된 영역 클러스터가 구성된 노드에서 액세스할 수 있는 공용 디스크에 구성된 모든 ZFS 풀을 검색하고 표시합니다. clsetup 유틸리티를 사용하여 클러스터 범위의 ZFS 저장소 풀을 기존 영역 클러스터에 추가한 후 clzonecluster 명령을 사용하여 구성을 수정하거나 노드 범위에 ZFS 저장소 풀을 추가합니다.
시작하기 전에
ZFS 풀이 영역 클러스터의 모든 노드에 연결된 공유 디스크에서 연결되어 있는지 확인합니다. ZFS 풀을 만드는 절차는 Oracle Solaris 11.1 관리: ZFS 파일 시스템를 참조하십시오.
전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
phys-schost# clsetup
주 메뉴가 표시됩니다.
참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.
Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.
Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.
Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.
ZFS Pool Selection for the Zone Cluster(영역 클러스터에 대한 ZFS 풀 선택) 메뉴가 표시됩니다.
목록의 ZFS 풀은 공유 디스크에서 구성되며 영역 클러스터가 구성되는 노드에서 액세스할 수 있는 풀입니다. 또한 e를 입력하여 ZFS 풀에 대한 등록 정보를 수동으로 지정할 수 있습니다.
ZFS Pool Dataset Property for the Zone Cluster(영역 클러스터에 대한 ZFS 풀 데이터 세트 등록 정보) 메뉴가 표시됩니다. 선택한 ZFS 풀이 name 등록 정보에 지정됩니다.
Review File Systems/Storage Devices for the Zone Cluster(영역 클러스터에 대한 파일 시스템/저장 장치 검토) 메뉴가 표시됩니다.
구성 변경 결과가 표시됩니다. 예를 들면 다음과 같습니다.
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add dataset set name=myzpool5 end Configuration change to sczone zone cluster succeeded.
phys-schost# clzonecluster show -v zoneclustername
HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드의 풀에 있는 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.
clsetup 유틸리티는 선택된 영역 클러스터가 구성된 클러스터 노드에서 구성된 사용 가능한 파일 시스템을 검색하고 표시합니다. clsetup 유틸리티를 사용하여 파일 시스템을 추가할 때 파일 시스템은 클러스터 범위에 추가됩니다.
다음 유형의 클러스터 파일 시스템을 영역 클러스터에 추가할 수 있습니다.
UFS 클러스터 파일 시스템 - global 마운트 옵션을 사용하여 /etc/vfstab 파일에서 파일 시스템 유형을 지정합니다. 이 파일 시스템은 공유 디스크 또는 Solaris Volume Manager 장치에 배치될 수 있습니다.
시작하기 전에
영역 클러스터에 추가할 클러스터 파일 시스템이 구성되었는지 확인합니다. 클러스터 파일 시스템 계획 및 5 장클러스터 파일 시스템 만들기를 참조하십시오.
전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
phys-schost# vi /etc/vfstab
phys-schost# clsetup
주 메뉴가 표시됩니다.
참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.
Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.
Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.
Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.
File System Selection for the Zone Cluster(영역 클러스터에 대한 파일 시스템 선택) 메뉴가 표시됩니다.
또한 e를 입력하여 파일 시스템에 대한 모든 등록 정보를 수동으로 지정할 수 있습니다.
Mount Type Selection(마운트 유형 선택) 메뉴가 표시됩니다.
루프백 파일 시스템 만들기에 대한 자세한 내용은 Oracle Solaris 11.1 Administration: Devices and File Systems의 How to Create and Mount an LOFS File System을 참조하십시오.
File System Properties for the Zone Cluster(영역 클러스터에 대한 파일 시스템 등록 정보) 메뉴가 표시됩니다.
dir 등록 정보에 대한 숫자를 입력하고 Return 키를 누릅니다. 그런 다음 New Value(새 값) 필드에 LOFS 마운트 지점 디렉토리 이름을 입력하고 Return 키를 누릅니다.
완료되면 d를 입력하고 Return 키를 누릅니다. Review File Systems/Storage Devices for the Zone Cluster(영역 클러스터에 대한 파일 시스템/저장 장치 검토) 메뉴가 표시됩니다.
구성 변경 결과가 표시됩니다. 예를 들면 다음과 같습니다.
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add fs set dir=/dev/md/ddg/dsk/d9 set special=/dev/md/ddg/dsk/d10 set raw=/dev/md/ddg/rdsk/d10 set type=lofs end Configuration change to sczone zone cluster succeeded.
phys-schost# clzonecluster show -v zone-cluster-name
다음 순서
(선택 사항) 클러스터 파일 시스템을 HAStoragePlus 리소스에서 관리하도록 구성합니다. HAStoragePlus 자원은 전역 클러스터에서 파일 시스템의 마운트를 관리하고, 나중에 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 루프백 마운트를 수행합니다. 자세한 내용은 Oracle Solaris Cluster Data Services Planning and Administration Guide의 Configuring an HAStoragePlus Resource for Cluster File Systems을 참조하십시오.
이 절에서는 단일 영역 클러스터 노드 전용 파일 시스템을 추가하는 방법을 설명합니다. 대신 전체 영역 클러스터에서 사용할 파일 시스템을 구성하려면 영역 클러스터에 파일 시스템 추가로 이동합니다.
이 절에서는 다음 절차에 대해 설명합니다.
특정 영역 클러스터의 단일 특정 영역 클러스터 노드에 로컬 파일 시스템을 추가하려면 이 절차를 수행합니다. 파일 시스템은 Oracle Solaris Cluster 소프트웨어에서 관리되지 않지만 대신 기본 Oracle Solaris 영역에 전달됩니다.
주 - 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
예정된 영역 클러스터 노드를 호스트하는 전역 클러스터 노드의 로컬 디스크를 사용합니다.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> select node physical-host=baseclusternode clzc:zoneclustername:node> add fs clzc:zoneclustername:node:fs> set dir=mountpoint clzc:zoneclustername:node:fs> set special=disk-device-name clzc:zoneclustername:node:fs> set raw=raw-disk-device-name clzc:zoneclustername:node:fs> set type=FS-type clzc:zoneclustername:node:fs> end clzc:zoneclustername:node> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
파일 시스템 마운트 지점을 지정합니다.
디스크 장치의 이름을 지정합니다.
원시 디스크 장치의 이름을 지정합니다.
파일 시스템 유형을 지정합니다.
주 - UFS 파일 시스템에 대한 로깅을 활성화합니다.
phys-schost# clzonecluster show -v zoneclustername
예 6-2 영역 클러스터 노드에 로컬 파일 시스템 추가
이 예에서는 sczone 영역 클러스터의 노드에서 사용할 로컬 UFS 파일 시스템 /local/data를 추가합니다. 이 영역 클러스터 노드는 전역 클러스터 노드 phys-schost-1에서 호스트됩니다.
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add fs clzc:sczone:node:fs> set dir=/local/data clzc:sczone:node:fs> set special=/dev/md/localdg/dsk/d1 clzc:sczone:node:fs> set raw=/dev/md/localdg/rdsk/d1 clzc:sczone:node:fs> set type=ufs clzc:sczone:node:fs> add options [logging] clzc:sczone:node:fs> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: fs dir: /local/data special: /dev/md/localdg/dsk/d1 raw: /dev/md/localdg/rdsk/d1 type: ufs options: [logging] cluster-control: false ...
로컬 ZFS 저장소 풀을 특정 영역 클러스터 노드에 추가하려면 이 절차를 수행합니다. 로컬 ZFS 풀은 Oracle Solaris Cluster 소프트웨어에서 관리되지 않지만 대신 기본 Oracle Solaris 영역에 전달됩니다.
전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.
예정된 영역 클러스터 노드를 호스트하는 전역 클러스터 노드의 로컬 디스크를 사용합니다.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> select node physical-host=baseclusternode clzc:zoneclustername:node> add dataset clzc:zoneclustername:node:dataset> set name=localZFSpoolname clzc:zoneclustername:node:dataset> end clzc:zoneclustername:node> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
로컬 ZFS 풀의 이름을 지정합니다.
phys-schost# clzonecluster show -v zoneclustername
예 6-3 영역 클러스터 노드에 로컬 ZFS 풀 추가
이 예에서는 sczone 영역 클러스터의 노드에서 사용할 로컬 ZFS 풀 local_pool을 추가합니다. 이 영역 클러스터 노드는 전역 클러스터 노드 phys-schost-1에서 호스트됩니다.
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add dataset clzc:sczone:node:dataset> set name=local_pool clzc:sczone:node:dataset> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: dataset name: local_pool
이 절에서는 영역 클러스터에서 직접 사용할 수 있도록 전역 저장 장치를 추가하거나 단일 영역 클러스터 노드 전용 저장 장치를 추가하는 방법에 대해 설명합니다. 전역 장치는 클러스터에 있는 둘 이상의 노드에서 한 번에 한 노드씩 또는 동시에 여러 노드에서 액세스할 수 있는 장치입니다.
영역 클러스터에 장치를 추가하면 해당 영역 클러스터 내에서만 장치가 표시됩니다.
이 절에서는 다음 절차에 대해 설명합니다.
클러스터 범위에서 다음 유형의 저장 장치 중 하나를 추가하려면 이 절차를 수행합니다.
원시 디스크 장치
Solaris Volume Manager 디스크 세트(다중 소유자 포함 안함)
clsetup 유틸리티는 선택된 영역 클러스터가 구성된 클러스터 노드에서 구성된 사용 가능한 저장 장치를 검색하고 표시합니다. clsetup 유틸리티를 사용하여 저장 장치를 기존 영역 클러스터에 추가한 후 clzonecluster 명령을 사용하여 구성을 수정합니다. clzonecluster 명령을 사용하여 영역 클러스터에서 저장 장치를 제거하는 방법에 대한 지침은 Oracle Solaris Cluster 시스템 관리 설명서의 영역 클러스터에서 저장 장치를 제거하는 방법을 참조하십시오.
전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online device
phys-schost# clsetup
주 메뉴가 표시됩니다.
참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.
Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.
Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.
Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.
사용 가능한 장치 목록이 표시됩니다.
또한 e를 입력하여 저장 장치에 대한 등록 정보를 수동으로 지정할 수 있습니다.
Storage Device Property for the Zone Cluster(영역 클러스터에 대한 저장 장치 등록 정보) 메뉴가 표시됩니다.
주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.
완료되면 d를 입력하고 Return 키를 누릅니다. Review File Systems/Storage Devices for the Zone Cluster(영역 클러스터에 대한 파일 시스템/저장 장치 검토) 메뉴가 표시됩니다.
구성 변경 결과가 표시됩니다. 예를 들면 다음과 같습니다.
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add device set match=/dev/md/ddg/*dsk/* end add device set match=/dev/md/shared/1/*dsk/* end Configuration change to sczone zone cluster succeeded. The change will become effective after the zone cluster reboots.
phys-schost# clzonecluster show -v zoneclustername
특정 영역 클러스터 노드에 원시 디스크 장치를 추가하려면 이 절차를 수행합니다. 이 장치는 Oracle Solaris Cluster에서 제어하지 않습니다. 전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.
전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.
phys-schost# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> select node physical-host=baseclusternode clzc:zone-cluster-name:node> add device clzc:zone-cluster-name:node:device> set match=/dev/*dsk/cNtXdYs* clzc:zone-cluster-name:node:device> end clzc:zone-cluster-name:node> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
원시 디스크 장치의 전체 장치 경로를 지정합니다.
phys-schost# clzonecluster show -v zoneclustername
예 6-4 특정 영역 클러스터 노드에 원시 디스크 장치 추가
다음 예에서는 sczone 영역 클러스터의 노드에서 사용할 원시 디스크 장치 c1t1d0s0을 추가합니다. 이 영역 클러스터 노드는 전역 클러스터 노드 phys-schost-1에서 호스트됩니다.
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add device clzc:sczone:node:device> set match=/dev/*dsk/c1t1d0s0 clzc:sczone:node:device> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: device name: /dev/*dsk/c1t1d0s0