JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris Cluster 소프트웨어 설치 설명서     Oracle Solaris Cluster (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris Cluster 구성 계획

2.  전역 클러스터 노드에 소프트웨어 설치

3.  전역 클러스터 설정

4.  Solaris Volume Manager 소프트웨어 구성

5.  Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성

6.  클러스터 파일 시스템 만들기

7.  비전역 영역 및 영역 클러스터 만들기

전역 클러스터 노드에 비전역 영역 구성

전역 클러스터 노드에 비전역 영역을 만드는 방법

비전역 영역에서 사용하는 클러스터 파일 시스템에 대해 HAStoragePlus 자원을 구성하는 방법

영역 클러스터 구성

clzonecluster 유틸리티 개요

영역 클러스터 설정

영역 클러스터에서 사용하도록 Trusted Extensions를 준비하는 방법

영역 클러스터를 만드는 방법

영역 클러스터에 파일 시스템 추가

영역 클러스터에 로컬 파일 시스템을 추가하는 방법

영역 클러스터에 ZFS 저장소 풀을 추가하는 방법

영역 클러스터에 QFS 공유 파일 시스템을 추가하는 방법

영역 클러스터에 클러스터 파일 시스템을 추가하는 방법

영역 클러스터에 Oracle ACFS 파일 시스템을 추가하는 방법

영역 클러스터에 저장 장치 추가

영역 클러스터에 개별 메타 장치를 추가하는 방법(Solaris Volume Manager)

영역 클러스터에 디스크 세트를 추가하는 방법(Solaris Volume Manager)

영역 클러스터에 DID 장치를 추가하는 방법

영역 클러스터에 원시 디스크 장치를 추가하는 방법

8.  Sun Management Center에 Oracle Solaris Cluster 모듈 설치

9.  클러스터에서 소프트웨어 제거

A.  Oracle Solaris Cluster 설치 및 구성 워크시트

색인

영역 클러스터 구성

이 절에서는 영역 클러스터라는 Solaris Containers 비전역 영역의 클러스터를 구성하는 절차를 제공합니다.

clzonecluster 유틸리티 개요

clzonecluster 유틸리티는 영역 클러스터를 만들고 수정하며 제거합니다. clzonecluster 유틸리티는 영역 클러스터를 적극적으로 관리합니다. 예를 들어 clzonecluster 유틸리티는 영역 클러스터를 부트하고 정지시킵니다. clzonecluster 유틸리티에 대한 진행률 메시지는 콘솔로 출력되지만 로그 파일에 저장되지 않습니다.

이 유틸리티는 zonecfg 유틸리티와 마찬가지로 다음 수준의 범위에서 작동합니다.

영역 클러스터 설정

이 절에서는 비전역 영역의 클러스터를 구성하는 방법에 대해 설명합니다.

영역 클러스터에서 사용하도록 Trusted Extensions를 준비하는 방법

이 절차에서는 Oracle Solaris의 Trusted Extensions 기능을 영역 클러스터에서 사용할 수 있도록 전역 클러스터를 준비하고 Trusted Extensions 기능을 활성화합니다.

Trusted Extensions를 활성화하지 않으려면 영역 클러스터를 만드는 방법으로 진행합니다.

전역 클러스터의 각 노드에서 이 절차를 수행합니다.

시작하기 전에

다음 작업을 수행합니다.

  1. 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.
  2. Trusted Extensions zonesharezoneunshare 스크립트를 비활성화합니다.

    Trusted Extensions zonesharezoneunshare 스크립트는 시스템에서 홈 디렉토리를 내보내는 기능을 지원합니다. Oracle Solaris Cluster 구성에서는 이 기능을 지원하지 않습니다.

    각 스크립트를 /bin/true 유틸리티에 대한 심볼릭 링크로 대체하여 이 기능을 비활성화합니다. 각 전역 클러스터 노드에서 이 작업을 수행합니다.

    phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true
    phys-schost# ln -x /usr/lib/zones/zoneunshare /bin/true
  3. 전역 클러스터에 있는 모든 논리 호스트 이름 공유 IP 주소를 구성합니다.

    Oracle Solaris Trusted Extensions 구성 설명서의 txzonemgr 스크립트 실행를 참조하십시오.

  4. /etc/security/tsol/tnrhdb 파일에서 관리 콘솔이 admin_low로 정의되어 있는지 확인합니다.
    ipaddress:admin_low
  5. /etc/hostname.interface 파일의 항목에 -failover 옵션이 없는지 확인합니다.

    -failover 옵션을 포함하는 모든 항목에서 해당 옵션을 삭제합니다.

  6. /etc/security/tsol/tnrhdb 파일을 수정하여 전역 클러스터 구성 요소와의 통신을 인증합니다.

    Oracle Solaris Trusted Extensions 관리자 절차의 원격 호스트 템플리트를 작성하는 방법에 설명된 대로 Solaris Management Console에서 보안 템플리트 마법사를 사용하여 다음 작업을 수행합니다.

    • 클러스터 구성 요소에서 사용하는 IP 주소에 대한 새 항목을 만들고 각 항목에 CIPSO 템플리트를 할당합니다.

      전역 클러스터 노드의 /etc/inet/hosts 파일에 있는 다음 IP 주소 각각에 대해 항목을 추가합니다.

      • 각 전역 클러스터 노드 개인 IP 주소

      • 전역 클러스터의 모든 cl_privnet IP 주소

      • 전역 클러스터에 대한 각 논리 호스트 이름 공용 IP 주소

      • 전역 클러스터에 대한 각 공유 주소 공용 IP 주소

      항목은 다음과 같이 표시됩니다.

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • 기본 템플리트를 내부 템플리트로 만드는 항목을 추가합니다.

      0.0.0.0:internal

    CIPSO 템플리트에 대한 자세한 내용은 Oracle Solaris Trusted Extensions 구성 설명서의 DOI(Domain of Interpretation) 구성을 참조하십시오.

  7. Trusted Extensions SMF 서비스를 활성화하고 전역 클러스터 노드를 재부트합니다.
    phys-schost# svcadm enable -s svc:/system/labeld:default
    phys-schost# shutdown -g0 -y -i6

    자세한 내용은 Oracle Solaris Trusted Extensions 구성 설명서의 Trusted Extensions 활성화를 참조하십시오.

  8. Trusted Extensions SMF 서비스가 활성화되어 있는지 확인합니다.
    phys-schost# svcs labeld
    STATE          STIME    FMRI
    online         17:52:55 svc:/system/labeld:default
  9. 전역 클러스터의 나머지 각 노드에서 단계 1부터 단계 8까지를 반복합니다.

    SMF 서비스가 모든 전역 클러스터 노드에서 활성화된 경우 전역 클러스터의 각 노드에서 이 절차의 나머지 단계를 수행합니다.

  10. 각 전역 클러스터 노드에서 Trusted Extensions 사용 가능 LDAP 서버의 IP 주소를 /etc/inet/hosts 파일에 추가합니다.

    LDAP 서버는 전역 영역 및 영역 클러스터의 노드에서 사용됩니다.

  11. LDAP 서버에서 전역 클러스터 노드에 대한 원격 로그인을 활성화합니다.
    1. /etc/default/login 파일에서 CONSOLE 항목을 주석 처리합니다.
    2. 원격 로그인을 활성화합니다.
      phys-schost# svcadm enable rlogin
    3. /etc/pam.conf 파일을 수정합니다.

      아래에 표시된 대로 Tab을 추가하고 각각 allow_remote 또는 allow_unlabeled를 입력하여 계정 관리 항목을 수정합니다.

      other   account requisite       pam_roles.so.1        Tab  allow_remote
      other   account required        pam_unix_account.so.1 Tab  allow_unlabeled
  12. /etc/nsswitch.ldap 파일을 수정합니다.
    • passwdgroup 조회 항목의 조회 순서에서 files이 첫 번째에 있는지 확인합니다.

      …
      passwd:      files ldap
      group:       files ldap
      …
    • hostsnetmasks 조회 항목의 조회 순서에서 cluster가 첫 번째로 나열되지는 확인합니다.

      …
      hosts:       cluster files ldap
      …
      netmasks:    cluster files ldap
      …
  13. 전역 클러스터 노드를 LDAP 클라이언트로 설정합니다.

    Oracle Solaris Trusted Extensions 구성 설명서의 Trusted Extensions에서 전역 영역을 LDAP 클라이언트로 만들기를 참조하십시오.

  14. Trusted Extensions 사용자를 /etc/security/tsol/tnzonecfg 파일에 추가합니다.

    Solaris 10 11/06 및 Solaris 10 8/07 릴리스용 Solaris Trusted Extensions 설치 및 구성의 Trusted Extensions의 역할 및 사용자 만들기에 설명된 대로 Solaris Management Console에서 사용자 추가 마법사를 사용합니다.

다음 순서

영역 클러스터를 만듭니다. 영역 클러스터를 만드는 방법으로 이동합니다.

영역 클러스터를 만드는 방법

비전역 영역의 클러스터를 만들려면 이 절차를 수행합니다.

시작하기 전에

  1. 전역 클러스터의 활성 구성원 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.


  2. 전역 클러스터의 노드가 클러스터 모드에 있는지 확인합니다.

    노드가 비클러스터 모드에 있을 경우 변경 사항은 노드가 클러스터 모드로 돌아갈 때 전파됩니다. 따라서 일부 전역 클러스터 노드가 비클러스터 모드에 있는 경우에도 영역 클러스터를 만들 수 있습니다. 해당 노드가 클러스터 모드로 돌아가면 시스템이 해당 노드에서 영역 클러스터 만들기 작업을 수행합니다.

    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. 영역 클러스터를 만듭니다.

    다음 특별 지침을 준수하십시오.

    • Trusted Extensions가 활성화된 경우 zoneclustername은 영역 클러스터에 할당할 보안 수준을 갖는 Trusted Extensions 보안 레이블 이름과 동일해야 합니다. 이러한 보안 레이블은 전역 클러스터의 /etc/security/tsol/tnrhtp 파일에 구성되어 있습니다.

    • 기본적으로 스파스 루트 영역이 만들어집니다. 전체 루트 영역을 만들려면 create 명령에 -b 옵션을 추가하십시오.

    • 각 영역 클러스터 노드에 대해 IP 주소 및 NIC를 지정하는 것은 선택 사항입니다.

    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> create
    
    Set the zone path for the entire zone cluster
    clzc:zoneclustername> set zonepath=/zones/zoneclustername
    
    Add the first node and specify node-specific settings
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode1
    clzc:zoneclustername:node> set hostname=hostname1
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    
    Add authorization for the public-network addresses that the zone cluster is allowed to use
    clzc: zoneclustername> add net
    clzc: zoneclustername:net> set address=ipaddress1
    clzc: zoneclustername:net> end
    
    Set the root password globally for all nodes in the zone cluster
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set root_password=encrypted_password
    clzc:zoneclustername:sysid> end
    
    Save the configuration and exit the utility
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  4. Trusted Extensions가 활성화된 경우 /var/tsol/doors 파일 시스템을 설정하고 이름 서비스 등록 정보를 NONE으로 설정합니다.
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=/var/tsol/doors
    clzc:zoneclustername:fs> set special=/var/tsol/doors
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> add options ro
    clzc:zoneclustername:fs> end
    
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  5. (옵션) 하나 이상의 추가 노드를 영역 클러스터에 추가합니다.
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode2
    clzc:zoneclustername:node> set hostname=hostname2
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  6. Trusted Extensions가 활성화된 경우 각 전역 클러스터 노드에서 /zones/zoneclustername/root/etc/sysidcfg 파일의 다음 항목을 추가하거나 수정합니다.
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set name_service=LDAP
    clzc:zoneclustername:sysid> set domain_name=domainorg.domainsuffix
    clzc:zoneclustername:sysid> set proxy_dn="cn=proxyagent,ou=profile,dc=domainorg,dc=domainsuffix"
    clzc:zoneclustername:sysid> set proxy_password="proxypassword"
    clzc:zoneclustername:sysid> set profile=ldap-server
    clzc:zoneclustername:sysid> set profile_server=txldapserver_ipaddress
    clzc:zoneclustername:sysid> end
    
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  7. 영역 클러스터 구성을 확인합니다.

    verify 하위 명령은 지정된 자원의 가용성을 확인합니다. clzonecluster verify 명령 실행에 성공하면 출력 결과가 없습니다.

    phys-schost-1# clzonecluster verify zoneclustername
    phys-schost-1# clzonecluster status zoneclustername
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1        Offline   Configured
              basenode2    zone-2        Offline   Configured
  8. 영역 클러스터를 설치합니다.
    phys-schost-1# clzonecluster install zoneclustername
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zoneclustername"...
  9. 영역 클러스터를 부트합니다.
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zoneclustername
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zoneclustername"...
  10. Trusted Extensions를 사용하는 경우 영역 클러스터에 대한 IP 주소 매핑을 완료합니다.

    영역 클러스터의 각 노드에서 이 단계를 수행합니다.

    1. 전역 클러스터의 노드에서 노드의 ID를 표시합니다.
      phys-schost# cat /etc/cluster/nodeid
      N
    2. 동일한 전역 클러스터 노드에 있는 영역 클러스터 노드에 로그인합니다.

      로그인하기 전에 SMF 서비스를 가져왔으며 모든 서비스가 실행 중인지 확인합니다.

    3. 이 영역 클러스터 노드에서 개인 상호 연결에 사용한 IP 주소를 확인합니다.

      클러스터 소프트웨어는 영역 클러스터를 구성할 때 이러한 IP 주소를 자동으로 할당합니다.

      ifconfig -a 출력에서 영역 클러스터에 속하는 clprivnet0 논리 인터페이스를 찾습니다. inet 값은 이 영역 클러스터의 클러스터 개인 상호 연결 사용을 지원하기 위해 할당한 IP 주소입니다.

      zc1# ifconfig -a
      lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
              zone zc1
              inet 127.0.0.1 netmask ff000000
      bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
              inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:3:ba:19:fa:b7
      ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4
              inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:14:4f:24:74:d8
      ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4
              zone zc1
              inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255
      clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23
              ether 0:0:0:0:0:2
      clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              zone zc1
              inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
    4. 영역 클러스터 노드의 /etc/inet/hosts 파일에 영역 클러스터 노드의 IP 주소를 추가합니다.
      • 개인 상호 연결의 호스트 이름으로 clusternode N-priv입니다. 여기서 N은 전역 클러스터 노드 ID입니다

        172.16.0.22    clusternodeN-priv 
      • 영역 클러스터를 만들 때 clzonecluster 명령에 대해 지정된 각 net 자원

    5. 나머지 영역 클러스터 노드에서 반복합니다.
  11. /etc/security/tsol/tnrhdb 파일을 수정하여 영역 클러스터 구성 요소와의 통신을 인증합니다.

    Oracle Solaris Trusted Extensions 관리자 절차의 원격 호스트 템플리트를 작성하는 방법에 설명된 대로 Solaris Management Console에서 보안 템플리트 마법사를 사용하여 다음 작업을 수행합니다.

    • 영역 클러스터 구성 요소에서 사용하는 IP 주소에 대한 새 항목을 만들고 각 항목에 CIPSO 템플리트를 할당합니다.

      영역 클러스터 노드의 /etc/inet/hosts 파일에 있는 다음 IP 주소 각각에 대해 항목을 추가합니다.

      • 각 영역 클러스터 노드 개인 IP 주소

      • 영역 클러스터의 모든 cl_privnet IP 주소

      • 영역 클러스터에 대한 각 논리 호스트 이름 공용 IP 주소

      • 영역 클러스터에 대한 각 공유 주소 공용 IP 주소

      항목은 다음과 같이 표시됩니다.

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • 기본 템플리트를 내부 템플리트로 만드는 항목을 추가합니다.

      0.0.0.0:internal

    CIPSO 템플리트에 대한 자세한 내용은 Oracle Solaris Trusted Extensions 구성 설명서의 DOI(Domain of Interpretation) 구성을 참조하십시오.

  12. 모든 영역 클러스터 노드가 수정된 후 전역 클러스터 노드를 재부트하여 영역 클러스터 /etc/inet/hosts 파일의 변경 사항을 초기화합니다.
    phys-schost# init -g0 -y -i6
  13. 영역 클러스터 노드에 대해 DNS 및 rlogin 액세스를 활성화합니다.

    영역 클러스터의 각 노드에서 다음 명령을 수행합니다.

    phys-schost# zlogin zcnode
    zcnode# svcadm enable svc:/network/dns/client:default
    zcnode# svcadm enable svc:/network/login:rlogin
    zcnode# reboot

예 7-2 영역 클러스터를 만드는 구성 파일

다음 예에서는 clzonecluster 유틸리티에서 영역 클러스터를 만드는 데 사용할 수 있는 명령 파일의 내용을 보여 줍니다. 파일에는 수동으로 입력하는 일련의 clzonecluster 명령이 포함되어 있습니다.

다음 구성에서는 영역 클러스터 sczone을 전역 클러스터 노드 phys-schost-1에 만듭니다. 영역 클러스터는 /zones/sczone을 영역 경로로 사용하고 공용 IP 주소 172.16.2.2를 사용합니다. 영역 클러스터의 첫 번째 노드에는 호스트 이름 zc-host-1이 지정되고 네트워크 주소 172.16.0.1bge0 어댑터를 사용합니다. 영역 클러스터의 두 번째 노드는 전역 클러스터 노드 phys-schost-2에 만들어집니다. 이 두 번째 영역 클러스터 노드에는 호스트 이름 zc-host-2가 지정되며 네트워크 주소 172.16.0.2bge1 어댑터를 사용합니다.

create
set zonepath=/zones/sczone
add net
set address=172.16.2.2
end
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=bge0
end
end
add sysid
set root_password=encrypted_password
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=bge1
end
end
commit
exit

예 7-3 구성 파일을 사용하여 영역 클러스터 만들기

다음 예에서는 구성 파일 sczone-config를 사용하여 전역 클러스터 노드 phys-schost-1에 새 영역 클러스터 sczone을 만드는 명령을 보여 줍니다. 영역 클러스터 노드의 호스트 이름은 zc-host-1zc-host-2입니다.

phys-schost-1# clzonecluster configure -f sczone-config sczone
phys-schost-1# clzonecluster verify sczone
phys-schost-1# clzonecluster install sczone
Waiting for zone install commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster boot sczone
Waiting for zone boot commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster status sczone
=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name        Zone HostName    Status    Zone Status
----      ---------        -------------    ------    -----------
sczone    phys-schost-1    zc-host-1        Offline   Running
          phys-schost-2    zc-host-2        Offline   Running

다음 순서

영역 클러스터에 파일 시스템 사용을 추가하려면 영역 클러스터에 파일 시스템 추가로 이동합니다.

영역 클러스터에 전역 저장 장치 사용을 추가하려면 영역 클러스터에 저장 장치 추가로 이동합니다.

참조

영역 클러스터를 패치하려면 Oracle Solaris Cluster 시스템 관리 설명서의 11 장, Oracle Solaris Cluster 소프트웨어 및 펌웨어 패치에 설명된 절차를 따릅니다. 이러한 절차에는 필요한 경우 영역 클러스터에 대한 특정 지침이 포함되어 있습니다.

영역 클러스터에 파일 시스템 추가

이 절에서는 영역 클러스터에서 사용할 파일 시스템을 추가하는 절차를 제공합니다.

파일 시스템을 영역 클러스터에 추가하고 온라인 상태로 전환하면 해당 영역 클러스터 내에서 사용할 수 있도록 파일 시스템이 인증됩니다. 사용할 파일 시스템을 마운트하려면 SUNW.HAStoragePlus 또는 SUNW.ScalMountPoint와 같은 클러스터 자원을 사용하여 파일 시스템을 구성하십시오.

이 절은 다음과 같은 절차로 구성되어 있습니다.

또한 영역 클러스터에서 고가용성을 제공하도록 ZFS 저장소 풀을 구성하려면 Oracle Solaris Cluster Data Services Planning and Administration Guide의 How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available을 참조하십시오.

영역 클러스터에 로컬 파일 시스템을 추가하는 방법

영역 클러스터에서 사용할 전역 클러스터의 로컬 파일 시스템을 추가하려면 이 절차를 수행합니다.


주 - 영역 클러스터에 ZFS 풀을 추가하려면 영역 클러스터에 ZFS 저장소 풀을 추가하는 방법의 절차를 대신 수행합니다.

또는 영역 클러스터에서 고가용성을 제공하도록 ZFS 저장소 풀을 구성하려면 Oracle Solaris Cluster Data Services Planning and Administration Guide의 How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available을 참조하십시오.


  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.


  2. 전역 클러스터에서, 영역 클러스터에서 사용할 파일 시스템을 만듭니다.

    파일 시스템이 공유 디스크에 만들어지는지 확인합니다.

  3. 영역 클러스터 구성에 파일 시스템을 추가합니다.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=disk-device-name
    clzc:zoneclustername:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:fs> set type=FS-type
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=mountpoint

    파일 시스템 마운트 지점을 지정합니다.

    special=disk-device-name

    디스크 장치의 이름을 지정합니다.

    raw=raw-disk-device-name

    원시 디스크 장치의 이름을 지정합니다.

    type=FS-type

    파일 시스템 유형을 지정합니다.


    주 - UFS 및 VxFS 파일 시스템에 대한 로깅을 활성화합니다.


  4. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 7-4 영역 클러스터에 로컬 파일 시스템 추가

이 예에서는 로컬 파일 시스템 /global/oracle/d1sczone 영역 클러스터에서 사용하도록 추가합니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

다음 순서

HAStoragePlus 자원을 사용하여 파일 시스템이 고가용성을 제공하도록 구성합니다. HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.

영역 클러스터에 ZFS 저장소 풀을 추가하는 방법

영역 클러스터에서 사용하도록 ZFS 저장소 풀을 추가하려면 이 절차를 수행합니다.


주 - 영역 클러스터에서 고가용성을 제공하도록 ZFS 저장소 풀을 구성하려면 Oracle Solaris Cluster Data Services Planning and Administration Guide의 How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available을 참조하십시오.


  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    주 - 전역 영역의 한 노드에서 이 절차의 모든 단계를 수행합니다.


  2. 전역 클러스터에 ZFS 저장소 풀을 만듭니다.

    주 - 풀이 영역 클러스터의 모든 노드에 연결된 공유 디스크에서 연결되어 있는지 확인합니다.


    ZFS 풀을 만드는 절차는 Oracle Solaris ZFS Administration Guide를 참조하십시오.

  3. 영역 클러스터 구성에 풀을 추가합니다.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add dataset
    clzc:zoneclustername:dataset> set name=ZFSpoolname
    clzc:zoneclustername:dataset> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  4. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 7-5 영역 클러스터에 ZFS 저장소 풀 추가

다음 예에서는 영역 클러스터 sczone에 추가된 ZFS 저장소 풀 zpool1을 보여 줍니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

다음 순서

HAStoragePlus 자원을 사용하여 고가용성을 제공하도록 ZFS 저장소 풀을 구성합니다. HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드의 풀에 있는 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.

영역 클러스터에 QFS 공유 파일 시스템을 추가하는 방법

영역 클러스터에서 사용하도록 Sun QFS 공유 파일 시스템을 추가하려면 이 절차를 수행합니다.


주 - 현재 QFS 공유 파일 시스템은 Oracle Real Application Clusters(RAC)로 구성된 클러스터에서만 사용할 수 있습니다. Oracle RAC로 구성되지 않은 클러스터에서는 고가용성 로컬 파일 시스템으로 구성되는 단일 시스템 QFS 파일 시스템을 사용할 수 있습니다.


  1. 영역 클러스터를 호스트하는 전역 클러스터의 투표 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 투표 노드에서 이 절차의 모든 단계를 수행합니다.


  2. 전역 클러스터에서, 영역 클러스터에서 사용할 QFS 공유 파일 시스템을 구성합니다.

    Configuring Sun QFS File Systems With Sun Cluster(Sun Cluster로 Sun QFS 파일 시스템 구성)에서 공유 파일 시스템에 대한 절차에 따르십시오.

  3. 영역 클러스터 노드를 호스트하는 전역 클러스터의 각 노드에서 /etc/vfstab 파일에 영역 클러스터에서 마운트할 파일 시스템에 대한 항목을 추가합니다.
    phys-schost# vi /etc/vfstab
  4. QFS 공유 파일 시스템을 루프백 파일 시스템으로 영역 클러스터에 추가하려면 단계 6로 이동합니다.
  5. 영역 클러스터 구성에 파일 시스템을 추가합니다.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=QFSfilesystemname
    clzc:zoneclustername:fs> set type=samfs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit

    단계 7로 이동합니다.

  6. QFS 파일 시스템을 영역 클러스터에 대한 루프백 파일 시스템으로 구성합니다.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=lofs-mountpoint
    clzc:zoneclustername:fs> set special=QFS-mountpoint
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  7. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 7-6 QFS 공유 파일 시스템을 직접 마운트로 영역 클러스터에 추가

다음 예에서는 영역 클러스터 sczone에 추가된 QFS 공유 파일 시스템 Data-cz1을 보여 줍니다. 전역 클러스터에서 파일 시스템의 마운트 지점은 /zones/sczone/root/db_qfs/Data1입니다. 여기서 /zones/sczone/root/는 영역의 루트 경로입니다. 영역 클러스터 노드에서 파일 시스템의 마운트 지점은 /db_qfs/Data1입니다.

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
Data-cz1    -    /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data1
clzc:sczone:fs> set special=Data-cz1
clzc:sczone:fs> set type=samfs
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      samfs
    options:                                   []
…

예 7-7 QFS 공유 파일 시스템을 루프백 파일 시스템으로 영역 클러스터에 추가

다음 예에서는 영역 클러스터 sczone에 추가된 QFS 공유 파일 시스템 mountpoint/db_qfs/Data1을 보여 줍니다. 파일 시스템은 mountpoint/db_qfs/Data-cz1에서 루프백 마운트 메커니즘을 사용하는 영역 클러스터에서 사용할 수 있습니다.

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
Data-cz1    -    /db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data-cz1
clzc:sczone:fs> set special=/db_qfs/Data
clzc:sczone:fs> set type=lofs
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      lofs
    options:                                   []
    cluster-control:                           [true]
…

영역 클러스터에 클러스터 파일 시스템을 추가하는 방법

영역 클러스터에서 사용하도록 클러스터 파일 시스템을 추가하려면 이 절차를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 투표 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 투표 노드에서 이 절차의 모든 단계를 수행합니다.


  2. 전역 클러스터에서, 영역 클러스터에서 사용할 클러스터 파일 시스템을 구성합니다.
  3. 영역 클러스터 노드를 호스트하는 전역 클러스터의 각 노드에서 /etc/vfstab 파일에 영역 클러스터에서 마운트할 파일 시스템에 대한 항목을 추가합니다.
    phys-schost# vi /etc/vfstab
    …
    /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
  4. 클러스터 파일 시스템을 영역 클러스터에 대한 루프백 파일 시스템으로 구성합니다.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=zonecluster-lofs-mountpoint
    clzc:zoneclustername:fs> set special=globalcluster-mountpoint
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=zonecluster-lofs-mountpoint

    LOFS에 대한 파일 시스템 마운트 지점을 지정하여 영역 클러스터에서 클러스터 파일 시스템을 사용할 수 있도록 합니다.

    special=globalcluster-mountpoint

    전역 클러스터에서 원래 클러스터 파일 시스템의 파일 시스템 마운트 지점을 지정합니다.

    루프백 파일 시스템 만들기에 대한 자세한 내용은 System Administration Guide: Devices and File Systems의 How to Create and Mount an LOFS File System을 참조하십시오.

  5. LOFS 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 7-8 영역 클러스터에 클러스터 파일 시스템 추가

다음 예에서는 마운트 지점 /global/apache를 사용하여 영역 클러스터에 클러스터 파일 시스템을 추가하는 방법을 보여 줍니다. 파일 시스템은 마운트 지점 /zone/apache에서 루프백 마운트 메커니즘을 사용하는 영역 클러스터에서 사용할 수 있습니다.

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging

phys-schost-1# clzonecluster configure zoneclustername
clzc:zoneclustername> add fs
clzc:zoneclustername:fs> set dir=/zone/apache
clzc:zoneclustername:fs> set special=/global/apache
clzc:zoneclustername:fs> set type=lofs
clzc:zoneclustername:fs> end
clzc:zoneclustername> verify
clzc:zoneclustername> commit
clzc:zoneclustername> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /zone/apache
    special:                                   /global/apache
    raw:                                       
    type:                                      lofs
    options:                                   []
    cluster-control:                           true
…

다음 순서

HAStoragePlus 자원을 사용하여 영역 클러스터에서 사용 가능하도록 클러스터 파일 시스템을 구성합니다. HAStoragePlus 자원은 전역 클러스터에서 파일 시스템을 마운트한 다음 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 루프백 마운트를 수행하여 관리합니다. 자세한 내용은 Oracle Solaris Cluster Data Services Planning and Administration Guide의 Configuring an HAStoragePlus Resource for Cluster File Systems을 참조하십시오.

영역 클러스터에 Oracle ACFS 파일 시스템을 추가하는 방법

영역 클러스터에서 사용하도록 Oracle ACFS 파일 시스템을 추가하려면 이 절차를 수행합니다.

시작하기 전에

Oracle ACFS 파일 시스템이 만들어지고 영역 클러스터에서 사용할 수 있는지 확인합니다. Oracle ACFS 파일 시스템을 만드는 방법을 참조하십시오.

  1. 수퍼유저 또는 solaris.cluster.adminsolaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.
  2. 영역 클러스터에 Oracle ACFS 파일 시스템을 추가합니다.

    한 노드의 전역 영역에서 이 단계를 수행합니다.

    # clzonecluster configure zonecluster
    clzc:zonecluster> add fs
    clzc:zonecluster:fs> set dir=mountpoint
    clzc:zonecluster:fs> set special=/dev/asm/volume-dev-path
    clzc:zonecluster:fs> set type=acfs
    clzc:zonecluster:fs> end
    clzc:zonecluster> exit
  3. 파일 시스템이 영역 클러스터에 추가되었는지 확인합니다.
    # clzonecluster show zonecluster
    …
       Resource Name:                fs
       dir:                          mountpoint
       special                       /dev/asm/volume-dev-path
       raw:
       type:                         acfs
       options:                      []
       cluster-control:              true
    …

영역 클러스터에 저장 장치 추가

이 절에서는 영역 클러스터에서 직접 사용할 수 있도록 전역 저장 장치를 추가하는 방법에 대해 설명합니다. 전역 장치는 클러스터에 있는 둘 이상의 노드에서 한 번에 한 노드씩 또는 동시에 여러 노드에서 액세스할 수 있는 장치입니다.

영역 클러스터에 장치를 추가하면 해당 영역 클러스터 내에서만 장치가 표시됩니다.

이 절에서는 다음 절차에 대해 설명합니다.

영역 클러스터에 개별 메타 장치를 추가하는 방법(Solaris Volume Manager)

Solaris Volume Manager 디스크 세트의 개별 메타 장치를 영역 클러스터에 추가하려면 이 절차를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 영역 클러스터에 추가할 메타 장치가 포함된 디스크 세트를 식별하고 온라인 상태인지 확인합니다.
    phys-schost# cldevicegroup status
  3. 추가할 디스크 세트가 온라인 상태가 아닌 경우 온라인 상태로 전환합니다.
    phys-schost# cldevicegroup online diskset
  4. 추가할 디스크 세트에 해당하는 세트 번호를 확인합니다.
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
  5. 영역 클러스터에서 사용할 메타 장치를 추가합니다.

    set match= 항목에 대해 별도의 add device 세션을 사용해야 합니다.


    주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/md/diskset /*dsk/metadevice

    메타 장치의 전체 논리 장치 경로를 지정합니다.

    match=/dev/md/shared/N /*dsk/metadevice

    디스크 세트 번호의 전체 물리적 장치 경로를 지정합니다.

  6. 영역 클러스터를 재부트합니다.

    변경 사항은 영역 클러스터가 재부트된 후에 적용됩니다.

    phys-schost# clzonecluster reboot zoneclustername

예 7-9 영역 클러스터에 메타 장치 추가

다음 예에서는 디스크 세트 oraset의 메타 장치 d1sczone 영역 클러스터에 추가합니다. 디스크 세트의 세트 번호는 3입니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

영역 클러스터에 디스크 세트를 추가하는 방법(Solaris Volume Manager)

영역 클러스터에 전체 Solaris Volume Manager 디스크 세트를 추가하려면 이 절차를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 영역 클러스터에 추가할 디스크 세트를 식별하고 온라인 상태인지 확인합니다.
    phys-schost# cldevicegroup status
  3. 추가할 디스크 세트가 온라인 상태가 아닌 경우 온라인 상태로 전환합니다.
    phys-schost# cldevicegroup online diskset
  4. 추가할 디스크 세트에 해당하는 세트 번호를 확인합니다.
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
  5. 영역 클러스터에서 사용할 디스크 세트를 추가합니다.

    set match= 항목에 대해 별도의 add device 세션을 사용해야 합니다.


    주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/md/diskset /*dsk/*

    디스크 세트의 전체 논리 장치 경로를 지정합니다.

    match=/dev/md/shared/N /*dsk/*

    디스크 세트 번호의 전체 물리적 장치 경로를 지정합니다.

  6. 영역 클러스터를 재부트합니다.

    변경 사항은 영역 클러스터가 재부트된 후에 적용됩니다.

    phys-schost# clzonecluster reboot zoneclustername

예 7-10 영역 클러스터에 디스크 세트 추가

다음 예에서는 디스크 세트 orasetsczone 영역 클러스터에 추가합니다. 디스크 세트의 세트 번호는 3입니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/*
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

영역 클러스터에 DID 장치를 추가하는 방법

영역 클러스터에 DID 장치를 추가하려면 이 절차를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 영역 클러스터에 추가할 DID 장치를 식별합니다.

    추가하는 장치는 영역 클러스터의 모든 노드에 연결되어야 합니다.

    phys-schost# cldevice list -v
  3. 영역 클러스터에서 사용할 DID 장치를 추가합니다.

    주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/did/*dsk/dNs*

    DID 장치의 전체 장치 경로를 지정합니다.

  4. 영역 클러스터를 재부트합니다.

    변경 사항은 영역 클러스터가 재부트된 후에 적용됩니다.

    phys-schost# clzonecluster reboot zoneclustername

예 7-11 영역 클러스터에 DID 장치 추가

다음 예에서는 DID 장치 d10sczone 영역 클러스터에 추가합니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/did/*dsk/d10s*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

영역 클러스터에 원시 디스크 장치를 추가하는 방법