탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
![]() |
Oracle Solaris Cluster 소프트웨어 설치 설명서 Oracle Solaris Cluster (한국어) |
1. Oracle Solaris Cluster 구성 계획
4. Solaris Volume Manager 소프트웨어 구성
5. Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성
비전역 영역에서 사용하는 클러스터 파일 시스템에 대해 HAStoragePlus 자원을 구성하는 방법
영역 클러스터에서 사용하도록 Trusted Extensions를 준비하는 방법
영역 클러스터에 QFS 공유 파일 시스템을 추가하는 방법
영역 클러스터에 Oracle ACFS 파일 시스템을 추가하는 방법
영역 클러스터에 개별 메타 장치를 추가하는 방법(Solaris Volume Manager)
8. Sun Management Center에 Oracle Solaris Cluster 모듈 설치
이 절에서는 영역 클러스터라는 Solaris Containers 비전역 영역의 클러스터를 구성하는 절차를 제공합니다.
clzonecluster 유틸리티는 영역 클러스터를 만들고 수정하며 제거합니다. clzonecluster 유틸리티는 영역 클러스터를 적극적으로 관리합니다. 예를 들어 clzonecluster 유틸리티는 영역 클러스터를 부트하고 정지시킵니다. clzonecluster 유틸리티에 대한 진행률 메시지는 콘솔로 출력되지만 로그 파일에 저장되지 않습니다.
이 유틸리티는 zonecfg 유틸리티와 마찬가지로 다음 수준의 범위에서 작동합니다.
클러스터 범위는 전체 영역 클러스터에 영향을 줍니다.
노드 범위는 지정된 하나의 영역 클러스터 노드에만 영향을 줍니다.
자원 범위는 자원 범위를 입력한 범위에 따라 특정 노드나 전체 영역 클러스터에 영향을 줍니다. 대부분의 자원을 노드 범위에서만 입력할 수 있습니다. 범위는 다음과 같은 프롬프트로 식별됩니다.
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting
clzonecluster 유틸리티를 사용하여 영역 클러스터와 관련된 매개 변수뿐만 아니라 모든 Solaris 영역 자원 매개 변수를 지정할 수 있습니다. 영역 클러스터에서 설정할 수 있는 매개 변수에 대한 자세한 내용은 clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오. Solaris 영역 자원 매개 변수에 대한 추가 정보는 zonecfg(1M) 매뉴얼 페이지를 참조하십시오.
이 절에서는 비전역 영역의 클러스터를 구성하는 방법에 대해 설명합니다.
이 절차에서는 Oracle Solaris의 Trusted Extensions 기능을 영역 클러스터에서 사용할 수 있도록 전역 클러스터를 준비하고 Trusted Extensions 기능을 활성화합니다.
Trusted Extensions를 활성화하지 않으려면 영역 클러스터를 만드는 방법으로 진행합니다.
전역 클러스터의 각 노드에서 이 절차를 수행합니다.
시작하기 전에
다음 작업을 수행합니다.
Oracle Solaris Cluster 및 Trusted Extensions 소프트웨어를 지원하는 Solaris OS가 설치되어 있는지 확인합니다.
노드에 Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Solaris 소프트웨어가 Oracle Solaris Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Trusted Extensions 소프트웨어는 Solaris 최종 사용자 소프트웨어 그룹에 포함되지 않습니다.
Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris 소프트웨어를 설치하는 방법에 대한 자세한 내용은 Solaris 소프트웨어를 설치하는 방법을 참조하십시오.
LDAP 이름 지정 서비스가 Trusted Extensions에서 사용하도록 구성되어 있는지 확인합니다. Oracle Solaris Trusted Extensions 구성 설명서의 5 장, Trusted Extensions에 대해 LDAP 구성(작업) 를 참조하십시오.
영역 클러스터의 Trusted Extensions에 대한 지침을 검토합니다. 영역 클러스터의 Trusted Extensions에 대한 지침을 참조하십시오.
Trusted Extensions zoneshare 및 zoneunshare 스크립트는 시스템에서 홈 디렉토리를 내보내는 기능을 지원합니다. Oracle Solaris Cluster 구성에서는 이 기능을 지원하지 않습니다.
각 스크립트를 /bin/true 유틸리티에 대한 심볼릭 링크로 대체하여 이 기능을 비활성화합니다. 각 전역 클러스터 노드에서 이 작업을 수행합니다.
phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true phys-schost# ln -x /usr/lib/zones/zoneunshare /bin/true
Oracle Solaris Trusted Extensions 구성 설명서의 txzonemgr 스크립트 실행를 참조하십시오.
ipaddress:admin_low
-failover 옵션을 포함하는 모든 항목에서 해당 옵션을 삭제합니다.
Oracle Solaris Trusted Extensions 관리자 절차의 원격 호스트 템플리트를 작성하는 방법에 설명된 대로 Solaris Management Console에서 보안 템플리트 마법사를 사용하여 다음 작업을 수행합니다.
클러스터 구성 요소에서 사용하는 IP 주소에 대한 새 항목을 만들고 각 항목에 CIPSO 템플리트를 할당합니다.
전역 클러스터 노드의 /etc/inet/hosts 파일에 있는 다음 IP 주소 각각에 대해 항목을 추가합니다.
각 전역 클러스터 노드 개인 IP 주소
전역 클러스터의 모든 cl_privnet IP 주소
전역 클러스터에 대한 각 논리 호스트 이름 공용 IP 주소
전역 클러스터에 대한 각 공유 주소 공용 IP 주소
항목은 다음과 같이 표시됩니다.
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
기본 템플리트를 내부 템플리트로 만드는 항목을 추가합니다.
0.0.0.0:internal
CIPSO 템플리트에 대한 자세한 내용은 Oracle Solaris Trusted Extensions 구성 설명서의 DOI(Domain of Interpretation) 구성을 참조하십시오.
phys-schost# svcadm enable -s svc:/system/labeld:default phys-schost# shutdown -g0 -y -i6
자세한 내용은 Oracle Solaris Trusted Extensions 구성 설명서의 Trusted Extensions 활성화를 참조하십시오.
phys-schost# svcs labeld STATE STIME FMRI online 17:52:55 svc:/system/labeld:default
SMF 서비스가 모든 전역 클러스터 노드에서 활성화된 경우 전역 클러스터의 각 노드에서 이 절차의 나머지 단계를 수행합니다.
LDAP 서버는 전역 영역 및 영역 클러스터의 노드에서 사용됩니다.
phys-schost# svcadm enable rlogin
아래에 표시된 대로 Tab을 추가하고 각각 allow_remote 또는 allow_unlabeled를 입력하여 계정 관리 항목을 수정합니다.
other account requisite pam_roles.so.1 Tab allow_remote other account required pam_unix_account.so.1 Tab allow_unlabeled
passwd 및 group 조회 항목의 조회 순서에서 files이 첫 번째에 있는지 확인합니다.
… passwd: files ldap group: files ldap …
hosts 및 netmasks 조회 항목의 조회 순서에서 cluster가 첫 번째로 나열되지는 확인합니다.
… hosts: cluster files ldap … netmasks: cluster files ldap …
Oracle Solaris Trusted Extensions 구성 설명서의 Trusted Extensions에서 전역 영역을 LDAP 클라이언트로 만들기를 참조하십시오.
Solaris 10 11/06 및 Solaris 10 8/07 릴리스용 Solaris Trusted Extensions 설치 및 구성의 Trusted Extensions의 역할 및 사용자 만들기에 설명된 대로 Solaris Management Console에서 사용자 추가 마법사를 사용합니다.
다음 순서
영역 클러스터를 만듭니다. 영역 클러스터를 만드는 방법으로 이동합니다.
비전역 영역의 클러스터를 만들려면 이 절차를 수행합니다.
시작하기 전에
전역 클러스터를 만듭니다. 3 장전역 클러스터 설정을 참조하십시오.
영역 클러스터 만들기의 지침 및 요구 사항을 검토합니다. 영역 클러스터를 참조하십시오.
영역 클러스터에서 Trusted Extensions를 사용할 경우 영역 클러스터에서 사용하도록 Trusted Extensions를 준비하는 방법에 설명된 대로 Trusted Extensions를 구성하고 활성화했는지 확인합니다.
다음 정보를 사용할 수 있도록 준비합니다.
영역 클러스터에 할당할 고유한 이름
주 - Trusted Extensions가 활성화되어 있을 때 영역 클러스터를 구성하려면 영역 클러스터에서 영역 클러스터 자체의 이름으로 사용할 Trusted Extensions 보안 레이블의 이름을 사용해야 합니다. 사용할 각 Trusted Extensions 보안 레이블에 대해 별도의 영역 클러스터를 만듭니다.
영역 클러스터의 노드에서 사용할 영역 경로. 자세한 내용은 System Administration Guide: Oracle Solaris Containers-Resource Management and Oracle Solaris Zones의 Resource and Property Types에서 zonepath 등록 정보에 대한 설명을 참조하십시오.
영역 클러스터 노드를 만들 전역 클러스터에 있는 각 노드의 이름
각 영역 클러스터 노드에 할당하는 영역 공용 호스트 이름 또는 호스트 별칭
해당되는 경우 각 영역 클러스터 노드에서 사용하는 공용 네트워크 IP 주소
해당되는 경우 각 영역 클러스터 노드에서 공용 네트워크에 연결하는 데 사용하는 공용 네트워크 어댑터의 이름
주 - 각 영역 클러스터 노드에 대해 IP 주소를 구성하지 않으면 다음과 같은 두 가지 상황이 발생합니다.
특정 영역 클러스터에서 영역 클러스터에 사용할 NAS 장치를 구성할 수 없습니다. 클러스터에서는 NAS 장치와 통신할 때 영역 클러스터 노드의 IP 주소를 사용하므로 IP 주소가 없으면 클러스터에서 NAS 장치 보호(fencing)를 지원하지 못합니다.
클러스터 소프트웨어가 모든 NIC에서 논리적 호스트 IP 주소를 활성화합니다.
주 - 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
노드가 비클러스터 모드에 있을 경우 변경 사항은 노드가 클러스터 모드로 돌아갈 때 전파됩니다. 따라서 일부 전역 클러스터 노드가 비클러스터 모드에 있는 경우에도 영역 클러스터를 만들 수 있습니다. 해당 노드가 클러스터 모드로 돌아가면 시스템이 해당 노드에서 영역 클러스터 만들기 작업을 수행합니다.
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online
다음 특별 지침을 준수하십시오.
Trusted Extensions가 활성화된 경우 zoneclustername은 영역 클러스터에 할당할 보안 수준을 갖는 Trusted Extensions 보안 레이블 이름과 동일해야 합니다. 이러한 보안 레이블은 전역 클러스터의 /etc/security/tsol/tnrhtp 파일에 구성되어 있습니다.
기본적으로 스파스 루트 영역이 만들어집니다. 전체 루트 영역을 만들려면 create 명령에 -b 옵션을 추가하십시오.
각 영역 클러스터 노드에 대해 IP 주소 및 NIC를 지정하는 것은 선택 사항입니다.
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> create Set the zone path for the entire zone cluster clzc:zoneclustername> set zonepath=/zones/zoneclustername Add the first node and specify node-specific settings clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode1 clzc:zoneclustername:node> set hostname=hostname1 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end Add authorization for the public-network addresses that the zone cluster is allowed to use clzc: zoneclustername> add net clzc: zoneclustername:net> set address=ipaddress1 clzc: zoneclustername:net> end Set the root password globally for all nodes in the zone cluster clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set root_password=encrypted_password clzc:zoneclustername:sysid> end Save the configuration and exit the utility clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=/var/tsol/doors clzc:zoneclustername:fs> set special=/var/tsol/doors clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> add options ro clzc:zoneclustername:fs> end clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode2 clzc:zoneclustername:node> set hostname=hostname2 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set name_service=LDAP clzc:zoneclustername:sysid> set domain_name=domainorg.domainsuffix clzc:zoneclustername:sysid> set proxy_dn="cn=proxyagent,ou=profile,dc=domainorg,dc=domainsuffix" clzc:zoneclustername:sysid> set proxy_password="proxypassword" clzc:zoneclustername:sysid> set profile=ldap-server clzc:zoneclustername:sysid> set profile_server=txldapserver_ipaddress clzc:zoneclustername:sysid> end clzc:zoneclustername> commit clzc:zoneclustername> exit
verify 하위 명령은 지정된 자원의 가용성을 확인합니다. clzonecluster verify 명령 실행에 성공하면 출력 결과가 없습니다.
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured
phys-schost-1# clzonecluster install zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"...
Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"...
영역 클러스터의 각 노드에서 이 단계를 수행합니다.
phys-schost# cat /etc/cluster/nodeid N
로그인하기 전에 SMF 서비스를 가져왔으며 모든 서비스가 실행 중인지 확인합니다.
클러스터 소프트웨어는 영역 클러스터를 구성할 때 이러한 IP 주소를 자동으로 할당합니다.
ifconfig -a 출력에서 영역 클러스터에 속하는 clprivnet0 논리 인터페이스를 찾습니다. inet 값은 이 영역 클러스터의 클러스터 개인 상호 연결 사용을 지원하기 위해 할당한 IP 주소입니다.
zc1# ifconfig -a lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 zone zc1 inet 127.0.0.1 netmask ff000000 bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:3:ba:19:fa:b7 ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4 inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:14:4f:24:74:d8 ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4 zone zc1 inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255 clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23 ether 0:0:0:0:0:2 clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 zone zc1 inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
개인 상호 연결의 호스트 이름으로 clusternode N-priv입니다. 여기서 N은 전역 클러스터 노드 ID입니다
172.16.0.22 clusternodeN-priv
영역 클러스터를 만들 때 clzonecluster 명령에 대해 지정된 각 net 자원
Oracle Solaris Trusted Extensions 관리자 절차의 원격 호스트 템플리트를 작성하는 방법에 설명된 대로 Solaris Management Console에서 보안 템플리트 마법사를 사용하여 다음 작업을 수행합니다.
영역 클러스터 구성 요소에서 사용하는 IP 주소에 대한 새 항목을 만들고 각 항목에 CIPSO 템플리트를 할당합니다.
영역 클러스터 노드의 /etc/inet/hosts 파일에 있는 다음 IP 주소 각각에 대해 항목을 추가합니다.
각 영역 클러스터 노드 개인 IP 주소
영역 클러스터의 모든 cl_privnet IP 주소
영역 클러스터에 대한 각 논리 호스트 이름 공용 IP 주소
영역 클러스터에 대한 각 공유 주소 공용 IP 주소
항목은 다음과 같이 표시됩니다.
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
기본 템플리트를 내부 템플리트로 만드는 항목을 추가합니다.
0.0.0.0:internal
CIPSO 템플리트에 대한 자세한 내용은 Oracle Solaris Trusted Extensions 구성 설명서의 DOI(Domain of Interpretation) 구성을 참조하십시오.
phys-schost# init -g0 -y -i6
영역 클러스터의 각 노드에서 다음 명령을 수행합니다.
phys-schost# zlogin zcnode zcnode# svcadm enable svc:/network/dns/client:default zcnode# svcadm enable svc:/network/login:rlogin zcnode# reboot
예 7-2 영역 클러스터를 만드는 구성 파일
다음 예에서는 clzonecluster 유틸리티에서 영역 클러스터를 만드는 데 사용할 수 있는 명령 파일의 내용을 보여 줍니다. 파일에는 수동으로 입력하는 일련의 clzonecluster 명령이 포함되어 있습니다.
다음 구성에서는 영역 클러스터 sczone을 전역 클러스터 노드 phys-schost-1에 만듭니다. 영역 클러스터는 /zones/sczone을 영역 경로로 사용하고 공용 IP 주소 172.16.2.2를 사용합니다. 영역 클러스터의 첫 번째 노드에는 호스트 이름 zc-host-1이 지정되고 네트워크 주소 172.16.0.1 및 bge0 어댑터를 사용합니다. 영역 클러스터의 두 번째 노드는 전역 클러스터 노드 phys-schost-2에 만들어집니다. 이 두 번째 영역 클러스터 노드에는 호스트 이름 zc-host-2가 지정되며 네트워크 주소 172.16.0.2 및 bge1 어댑터를 사용합니다.
create set zonepath=/zones/sczone add net set address=172.16.2.2 end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
예 7-3 구성 파일을 사용하여 영역 클러스터 만들기
다음 예에서는 구성 파일 sczone-config를 사용하여 전역 클러스터 노드 phys-schost-1에 새 영역 클러스터 sczone을 만드는 명령을 보여 줍니다. 영역 클러스터 노드의 호스트 이름은 zc-host-1과 zc-host-2입니다.
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster boot sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone phys-schost-1 zc-host-1 Offline Running phys-schost-2 zc-host-2 Offline Running
다음 순서
영역 클러스터에 파일 시스템 사용을 추가하려면 영역 클러스터에 파일 시스템 추가로 이동합니다.
영역 클러스터에 전역 저장 장치 사용을 추가하려면 영역 클러스터에 저장 장치 추가로 이동합니다.
참조
영역 클러스터를 패치하려면 Oracle Solaris Cluster 시스템 관리 설명서의 11 장, Oracle Solaris Cluster 소프트웨어 및 펌웨어 패치에 설명된 절차를 따릅니다. 이러한 절차에는 필요한 경우 영역 클러스터에 대한 특정 지침이 포함되어 있습니다.
이 절에서는 영역 클러스터에서 사용할 파일 시스템을 추가하는 절차를 제공합니다.
파일 시스템을 영역 클러스터에 추가하고 온라인 상태로 전환하면 해당 영역 클러스터 내에서 사용할 수 있도록 파일 시스템이 인증됩니다. 사용할 파일 시스템을 마운트하려면 SUNW.HAStoragePlus 또는 SUNW.ScalMountPoint와 같은 클러스터 자원을 사용하여 파일 시스템을 구성하십시오.
이 절은 다음과 같은 절차로 구성되어 있습니다.
또한 영역 클러스터에서 고가용성을 제공하도록 ZFS 저장소 풀을 구성하려면 Oracle Solaris Cluster Data Services Planning and Administration Guide의 How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available을 참조하십시오.
영역 클러스터에서 사용할 전역 클러스터의 로컬 파일 시스템을 추가하려면 이 절차를 수행합니다.
주 - 영역 클러스터에 ZFS 풀을 추가하려면 영역 클러스터에 ZFS 저장소 풀을 추가하는 방법의 절차를 대신 수행합니다.
또는 영역 클러스터에서 고가용성을 제공하도록 ZFS 저장소 풀을 구성하려면 Oracle Solaris Cluster Data Services Planning and Administration Guide의 How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available을 참조하십시오.
주 - 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
파일 시스템이 공유 디스크에 만들어지는지 확인합니다.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=disk-device-name clzc:zoneclustername:fs> set raw=raw-disk-device-name clzc:zoneclustername:fs> set type=FS-type clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
파일 시스템 마운트 지점을 지정합니다.
디스크 장치의 이름을 지정합니다.
원시 디스크 장치의 이름을 지정합니다.
파일 시스템 유형을 지정합니다.
주 - UFS 및 VxFS 파일 시스템에 대한 로깅을 활성화합니다.
phys-schost# clzonecluster show -v zoneclustername
예 7-4 영역 클러스터에 로컬 파일 시스템 추가
이 예에서는 로컬 파일 시스템 /global/oracle/d1을 sczone 영역 클러스터에서 사용하도록 추가합니다.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> add options [logging] clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [logging] cluster-control: [true] …
다음 순서
HAStoragePlus 자원을 사용하여 파일 시스템이 고가용성을 제공하도록 구성합니다. HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.
영역 클러스터에서 사용하도록 ZFS 저장소 풀을 추가하려면 이 절차를 수행합니다.
주 - 영역 클러스터에서 고가용성을 제공하도록 ZFS 저장소 풀을 구성하려면 Oracle Solaris Cluster Data Services Planning and Administration Guide의 How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available을 참조하십시오.
주 - 전역 영역의 한 노드에서 이 절차의 모든 단계를 수행합니다.
주 - 풀이 영역 클러스터의 모든 노드에 연결된 공유 디스크에서 연결되어 있는지 확인합니다.
ZFS 풀을 만드는 절차는 Oracle Solaris ZFS Administration Guide를 참조하십시오.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add dataset clzc:zoneclustername:dataset> set name=ZFSpoolname clzc:zoneclustername:dataset> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost# clzonecluster show -v zoneclustername
예 7-5 영역 클러스터에 ZFS 저장소 풀 추가
다음 예에서는 영역 클러스터 sczone에 추가된 ZFS 저장소 풀 zpool1을 보여 줍니다.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 …
다음 순서
HAStoragePlus 자원을 사용하여 고가용성을 제공하도록 ZFS 저장소 풀을 구성합니다. HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드의 풀에 있는 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.
영역 클러스터에서 사용하도록 Sun QFS 공유 파일 시스템을 추가하려면 이 절차를 수행합니다.
주 - 현재 QFS 공유 파일 시스템은 Oracle Real Application Clusters(RAC)로 구성된 클러스터에서만 사용할 수 있습니다. Oracle RAC로 구성되지 않은 클러스터에서는 고가용성 로컬 파일 시스템으로 구성되는 단일 시스템 QFS 파일 시스템을 사용할 수 있습니다.
주 - 전역 클러스터의 투표 노드에서 이 절차의 모든 단계를 수행합니다.
Configuring Sun QFS File Systems With Sun Cluster(Sun Cluster로 Sun QFS 파일 시스템 구성)에서 공유 파일 시스템에 대한 절차에 따르십시오.
phys-schost# vi /etc/vfstab
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=QFSfilesystemname clzc:zoneclustername:fs> set type=samfs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
단계 7로 이동합니다.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=lofs-mountpoint clzc:zoneclustername:fs> set special=QFS-mountpoint clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost# clzonecluster show -v zoneclustername
예 7-6 QFS 공유 파일 시스템을 직접 마운트로 영역 클러스터에 추가
다음 예에서는 영역 클러스터 sczone에 추가된 QFS 공유 파일 시스템 Data-cz1을 보여 줍니다. 전역 클러스터에서 파일 시스템의 마운트 지점은 /zones/sczone/root/db_qfs/Data1입니다. 여기서 /zones/sczone/root/는 영역의 루트 경로입니다. 영역 클러스터 노드에서 파일 시스템의 마운트 지점은 /db_qfs/Data1입니다.
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: samfs options: [] …
예 7-7 QFS 공유 파일 시스템을 루프백 파일 시스템으로 영역 클러스터에 추가
다음 예에서는 영역 클러스터 sczone에 추가된 QFS 공유 파일 시스템 mountpoint/db_qfs/Data1을 보여 줍니다. 파일 시스템은 mountpoint/db_qfs/Data-cz1에서 루프백 마운트 메커니즘을 사용하는 영역 클러스터에서 사용할 수 있습니다.
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data-cz1 clzc:sczone:fs> set special=/db_qfs/Data clzc:sczone:fs> set type=lofs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: lofs options: [] cluster-control: [true] …
영역 클러스터에서 사용하도록 클러스터 파일 시스템을 추가하려면 이 절차를 수행합니다.
주 - 전역 클러스터의 투표 노드에서 이 절차의 모든 단계를 수행합니다.
phys-schost# vi /etc/vfstab … /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=zonecluster-lofs-mountpoint clzc:zoneclustername:fs> set special=globalcluster-mountpoint clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
LOFS에 대한 파일 시스템 마운트 지점을 지정하여 영역 클러스터에서 클러스터 파일 시스템을 사용할 수 있도록 합니다.
전역 클러스터에서 원래 클러스터 파일 시스템의 파일 시스템 마운트 지점을 지정합니다.
루프백 파일 시스템 만들기에 대한 자세한 내용은 System Administration Guide: Devices and File Systems의 How to Create and Mount an LOFS File System을 참조하십시오.
phys-schost# clzonecluster show -v zoneclustername
예 7-8 영역 클러스터에 클러스터 파일 시스템 추가
다음 예에서는 마운트 지점 /global/apache를 사용하여 영역 클러스터에 클러스터 파일 시스템을 추가하는 방법을 보여 줍니다. 파일 시스템은 마운트 지점 /zone/apache에서 루프백 마운트 메커니즘을 사용하는 영역 클러스터에서 사용할 수 있습니다.
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=/zone/apache clzc:zoneclustername:fs> set special=/global/apache clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /zone/apache special: /global/apache raw: type: lofs options: [] cluster-control: true …
다음 순서
HAStoragePlus 자원을 사용하여 영역 클러스터에서 사용 가능하도록 클러스터 파일 시스템을 구성합니다. HAStoragePlus 자원은 전역 클러스터에서 파일 시스템을 마운트한 다음 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 루프백 마운트를 수행하여 관리합니다. 자세한 내용은 Oracle Solaris Cluster Data Services Planning and Administration Guide의 Configuring an HAStoragePlus Resource for Cluster File Systems을 참조하십시오.
영역 클러스터에서 사용하도록 Oracle ACFS 파일 시스템을 추가하려면 이 절차를 수행합니다.
시작하기 전에
Oracle ACFS 파일 시스템이 만들어지고 영역 클러스터에서 사용할 수 있는지 확인합니다. Oracle ACFS 파일 시스템을 만드는 방법을 참조하십시오.
한 노드의 전역 영역에서 이 단계를 수행합니다.
# clzonecluster configure zonecluster clzc:zonecluster> add fs clzc:zonecluster:fs> set dir=mountpoint clzc:zonecluster:fs> set special=/dev/asm/volume-dev-path clzc:zonecluster:fs> set type=acfs clzc:zonecluster:fs> end clzc:zonecluster> exit
# clzonecluster show zonecluster … Resource Name: fs dir: mountpoint special /dev/asm/volume-dev-path raw: type: acfs options: [] cluster-control: true …
이 절에서는 영역 클러스터에서 직접 사용할 수 있도록 전역 저장 장치를 추가하는 방법에 대해 설명합니다. 전역 장치는 클러스터에 있는 둘 이상의 노드에서 한 번에 한 노드씩 또는 동시에 여러 노드에서 액세스할 수 있는 장치입니다.
영역 클러스터에 장치를 추가하면 해당 영역 클러스터 내에서만 장치가 표시됩니다.
이 절에서는 다음 절차에 대해 설명합니다.
Solaris Volume Manager 디스크 세트의 개별 메타 장치를 영역 클러스터에 추가하려면 이 절차를 수행합니다.
전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online diskset
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber
각 set match= 항목에 대해 별도의 add device 세션을 사용해야 합니다.
주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
메타 장치의 전체 논리 장치 경로를 지정합니다.
디스크 세트 번호의 전체 물리적 장치 경로를 지정합니다.
변경 사항은 영역 클러스터가 재부트된 후에 적용됩니다.
phys-schost# clzonecluster reboot zoneclustername
예 7-9 영역 클러스터에 메타 장치 추가
다음 예에서는 디스크 세트 oraset의 메타 장치 d1을 sczone 영역 클러스터에 추가합니다. 디스크 세트의 세트 번호는 3입니다.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
영역 클러스터에 전체 Solaris Volume Manager 디스크 세트를 추가하려면 이 절차를 수행합니다.
전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online diskset
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber
각 set match= 항목에 대해 별도의 add device 세션을 사용해야 합니다.
주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
디스크 세트의 전체 논리 장치 경로를 지정합니다.
디스크 세트 번호의 전체 물리적 장치 경로를 지정합니다.
변경 사항은 영역 클러스터가 재부트된 후에 적용됩니다.
phys-schost# clzonecluster reboot zoneclustername
예 7-10 영역 클러스터에 디스크 세트 추가
다음 예에서는 디스크 세트 oraset를 sczone 영역 클러스터에 추가합니다. 디스크 세트의 세트 번호는 3입니다.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
영역 클러스터에 DID 장치를 추가하려면 이 절차를 수행합니다.
전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
추가하는 장치는 영역 클러스터의 모든 노드에 연결되어야 합니다.
phys-schost# cldevice list -v
주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
DID 장치의 전체 장치 경로를 지정합니다.
변경 사항은 영역 클러스터가 재부트된 후에 적용됩니다.
phys-schost# clzonecluster reboot zoneclustername
예 7-11 영역 클러스터에 DID 장치 추가
다음 예에서는 DID 장치 d10을 sczone 영역 클러스터에 추가합니다.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
이러한 장치는 clzonecluster 명령으로 제어되지 않으며 노드의 로컬 장치처럼 처리됩니다. 비전역 영역으로 원시 디스크 장치 내보내기에 대한 자세한 내용은 System Administration Guide: Oracle Solaris Containers-Resource Management and Oracle Solaris Zones의 How to Import Raw and Block Devices by Using zonecfg를 참조하십시오.