JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris Cluster 소프트웨어 설치 설명서     Oracle Solaris Cluster 3.3 3/13 (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris Cluster 구성 계획

2.  전역 클러스터 노드에 소프트웨어 설치

3.  전역 클러스터 설정

4.  Solaris Volume Manager 소프트웨어 구성

5.  클러스터 파일 시스템 만들기

6.  비전역 영역 및 영역 클러스터 만들기

전역 클러스터 노드에 비전역 영역 구성

전역 클러스터 노드에 비전역 영역을 만드는 방법

비전역 영역에서 사용되는 클러스터 파일 시스템에 대한 HAStoragePlus 리소스 구성 방법

영역 클러스터 구성

clzonecluster 유틸리티 개요

영역 클러스터 설정

영역 클러스터에서 Trusted Extensions 사용 준비 방법

영역 클러스터를 만드는 방법

영역 클러스터에 파일 시스템 추가

영역 클러스터에 고가용성 로컬 파일 시스템 추가

영역 클러스터에 ZFS 저장소 풀을 추가하는 방법

영역 클러스터에 클러스터 파일 시스템을 추가하는 방법

특정 영역 클러스터 노드에 로컬 파일 시스템 추가

특정 영역 클러스터 노드에 로컬 파일 시스템을 추가하는 방법

특정 영역 클러스터 노드에 로컬 ZFS 저장소 풀을 추가하는 방법

영역 클러스터에 저장 장치 추가

영역 클러스터에 전역 저장 장치를 추가하는 방법

특정 영역 클러스터 노드에 원시 디스크 장치를 추가하는 방법

7.  클러스터에서 소프트웨어 제거

색인

영역 클러스터 구성

이 절에서는 영역 클러스터라는 Oracle Solaris Container 비전역 영역의 클러스터를 구성하는 절차를 제공합니다.

clzonecluster 유틸리티 개요

clzonecluster 유틸리티는 영역 클러스터를 만들고 수정하며 제거합니다. clzonecluster 유틸리티는 영역 클러스터를 적극적으로 관리합니다. 예를 들어 clzonecluster 유틸리티는 영역 클러스터를 부트하고 정지시킵니다. clzonecluster 유틸리티에 대한 진행률 메시지는 콘솔로 출력되지만 로그 파일에 저장되지 않습니다.

이 유틸리티는 zonecfg 유틸리티와 마찬가지로 다음 레벨의 범위에서 작동합니다.

영역 클러스터 설정

이 절에서는 비전역 영역의 클러스터를 구성하는 방법에 대해 설명합니다.

영역 클러스터에서 Trusted Extensions 사용 준비 방법

이 절차에서는 영역 클러스터에서 Oracle Solaris 소프트웨어의 Trusted Extensions 기능을 사용하도록 준비하고 Trusted Extensions 기능을 사용으로 설정합니다.

Trusted Extensions를 사용으로 설정할 계획이 없으면 영역 클러스터를 만드는 방법을 진행합니다.

전역 클러스터의 각 노드에서 이 절차를 수행합니다.

시작하기 전에

다음 작업을 수행합니다.

  1. 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.
  2. Trusted Extensions zonesharezoneunshare 스크립트를 사용 안함으로 설정합니다.

    Trusted Extensions zonesharezoneunshare 스크립트는 시스템에서 홈 디렉토리를 내보내는 기능을 지원합니다. Oracle Solaris Cluster 구성은 이 기능을 지원하지 않습니다.

    각 스크립트를 /bin/true 유틸리티에 대한 심볼릭 링크로 대체하여 이 기능을 사용 안함으로 설정합니다. 각 전역 클러스터 노드에서 이를 수행합니다.

    phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true
    phys-schost# ln -s /usr/lib/zones/zoneunshare /bin/true
  3. 전역 클러스터에 있는 모든 논리적 호스트 이름 공유 IP 주소를 구성합니다.

    Oracle Solaris Trusted Extensions 구성 설명서의 txzonemgr 스크립트 실행을 참조하십시오.

  4. 관리 콘솔이 /etc/security/tsol/tnrhdb 파일에 admin_low로 정의되었는지 확인합니다.
    ipaddress:admin_low
  5. /etc/hostname.interface 파일의 항목에 -failover 옵션이 포함되지 않았는지 확인합니다.

    -failover 옵션이 포함된 모든 항목에서 이 옵션을 삭제합니다.

  6. 전역 클러스터 구성 요소와의 통신을 인증하도록 /etc/security/tsol/tnrhdb 파일을 수정합니다.

    Trusted Extensions 관리자 절차의 원격 호스트 템플리트를 작성하는 방법에 설명된 Solaris Management Console의 Security Templates(보안 템플리트) 마법사를 사용해서 다음 작업을 수행합니다.

    • 클러스터 구성 요소에서 사용되는 IP 주소에 대해 새 항목을 만들고 각 항목에 CIPSO 템플리트를 지정합니다.

      전역 클러스터 노드의 /etc/inet/hosts 파일에 존재하는 다음과 같은 각 IP 주소에 대해 항목을 추가합니다.

      • 각 전역 클러스터 노드 개인 IP 주소

      • 전역 클러스터의 모든 cl_privnet IP 주소

      • 전역 클러스터에 대한 각 논리 호스트 이름 공용 IP 주소

      • 전역 클러스터에 대한 각 공유 주소 공용 IP 주소

      항목은 다음과 같이 표시됩니다.

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • 기본 템플리트 내부 항목으로 지정할 항목을 추가합니다.

      0.0.0.0:internal

    CIPSO 템플리트에 대한 자세한 내용은 Oracle Solaris Trusted Extensions 구성 설명서의 DOI(Domain of Interpretation) 구성을 참조하십시오.

  7. Trusted Extensions SMF 서비스를 사용으로 설정하고 전역 클러스터 노드를 재부트합니다.
    phys-schost# svcadm enable -s svc:/system/labeld:default
    phys-schost# shutdown -g0 -y -i6

    자세한 내용은 Oracle Solaris Trusted Extensions 구성 설명서의 Trusted Extensions 활성화을 참조하십시오.

  8. Trusted Extensions SMF 서비스가 사용으로 설정되었는지 확인합니다.
    phys-schost# svcs labeld
    STATE          STIME    FMRI
    online         17:52:55 svc:/system/labeld:default
  9. 전역 클러스터의 각 남은 노드에서 단계 1부터 단계 8까지를 반복합니다.

    모든 전역 클러스터 노드에서 모든 단계가 완료되면 전역 클러스터의 각 노드에서 이 절차의 남은 단계를 수행합니다.

  10. Trusted Extensions 사용 LDAP 서버의 IP 주소를 각 전역 클러스터 노드의 /etc/inet/hosts 파일에 추가합니다.

    LDAP 서버는 전역 영역 및 영역 클러스터의 노드에서 사용됩니다.

  11. LDAP 서버의 전역 클러스터 노드에 대한 원격 로그인을 사용으로 설정합니다.
    1. /etc/default/login 파일에서 CONSOLE 항목을 주석 처리합니다.
    2. 원격 로그인을 사용으로 설정합니다.
      phys-schost# svcadm enable rlogin
    3. /etc/pam.conf 파일을 수정합니다.

      아래에 나와 있는 대로 탭을 추가한 다음 각각 allow_remote 또는 allow_unlabeled를 입력하여 계정 관리 항목을 수정합니다.

      other   account requisite       pam_roles.so.1        Tab  allow_remote
      other   account required        pam_unix_account.so.1 Tab  allow_unlabeled
  12. /etc/nsswitch.ldap 파일을 수정합니다.
    • passwdgroup 조회 항목의 조회 순서에 files가 첫번째로 포함되었는지 확인합니다.

      …
      passwd:      files ldap
      group:       files ldap
      …
    • hostsnetmasks 조회 항목의 조회 순서에 cluster가 첫번째로 포함되었는지 확인합니다.

      …
      hosts:       cluster files ldap
      …
      netmasks:    cluster files ldap
      …
  13. 전역 클러스터 노드를 LDAP 클라이언트로 설정합니다.

    Oracle Solaris Trusted Extensions 구성 설명서의 Trusted Extensions에서 전역 영역을 LDAP 클라이언트로 만들기을 참조하십시오.

  14. Trusted Extensions 사용자를 /etc/security/tsol/tnzonecfg 파일에 추가합니다.

    Oracle Solaris Trusted Extensions 구성 설명서의 Trusted Extensions의 역할 및 사용자 만들기에 설명된 대로 Solaris Management Console에서 Add User(사용자 추가) 마법사를 사용합니다.

다음 순서

영역 클러스터를 만듭니다. 영역 클러스터를 만드는 방법으로 이동합니다.

영역 클러스터를 만드는 방법

비전역 영역의 클러스터를 만들려면 이 절차를 수행합니다.

영역 클러스터를 설치한 후 수정하려면 Oracle Solaris Cluster 시스템 관리 설명서의 영역 클러스터 관리 작업 수행clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오.

시작하기 전에

  1. 전역 클러스터의 활성 구성원 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.


  2. 전역 클러스터의 노드가 클러스터 모드에 있는지 확인합니다.

    노드가 비클러스터 모드에 있을 경우 변경 사항은 노드가 클러스터 모드로 돌아갈 때 전파됩니다. 따라서 일부 전역 클러스터 노드가 비클러스터 모드에 있는 경우에도 영역 클러스터를 만들 수 있습니다. 해당 노드가 클러스터 모드로 돌아가면 시스템이 해당 노드에서 영역 클러스터 만들기 작업을 수행합니다.

    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    주 메뉴가 표시됩니다.

  4. Zone Cluster(영역 클러스터) 메뉴 항목을 선택합니다.
  5. Create a Zone Cluster(영역 클러스터 만들기) 메뉴 항목을 선택합니다.
  6. 추가할 영역 클러스터의 이름을 입력합니다.

    영역 클러스터 이름은 ASCII 문자(a-z 및 A-Z), 숫자, 대시 또는 밑줄을 포함할 수 있습니다. 최대 이름 길이는 20자입니다.

  7. 변경할 등록 정보를 선택합니다.

    주 - brandip-type 등록 정보는 기본적으로 설정되며 변경할 수 없습니다.


    다음 등록 정보를 설정할 수 있습니다.


    등록 정보
    설명
    zonepath= zone-cluster-node-path
    영역 클러스터 노드에 대한 경로를 지정합니다. 예를 들어 /zones/sczone입니다.
    enable_priv_net= value
    true로 설정되면 영역 클러스터 노드 간에 Oracle Solaris Cluster 개인 네트워크 통신이 사용으로 설정됩니다. 영역 클러스터 노드에 대한 Oracle Solaris Cluster 개인 호스트 이름 및 IP 주소는 시스템에서 자동으로 생성됩니다. 값이 false로 설정된 경우 개인 네트워크 통신이 사용 안함으로 설정됩니다. 기본값은 true입니다.
    limitpriv= 권한[,…]
    이 영역의 모든 프로세스가 가져올 수 있는 최대 권한 세트를 지정합니다. 자세한 내용은 zonecfg(1M) 매뉴얼 페이지를 참조하십시오.
  8. (옵션) 변경할 Zone System Resource Control 등록 정보를 선택합니다.

    다음 등록 정보를 설정할 수 있습니다.


    등록 정보
    설명
    max-lwps=value
    이 영역 클러스터에서 동시에 사용할 수 있는 최대 경량 프로세스(LWP) 수를 지정합니다.
    max-shm-memory=value
    이 영역 클러스터에 허용되는 최대 공유 메모리(GB)를 지정합니다.
    max-shm-ids=value
    이 영역 클러스터에 허용되는 최대 공유 메모리 ID 수를 지정합니다.
    max-msg-ids=value
    이 영역 클러스터에 허용되는 최대 메시지 대기열 ID 수를 지정합니다.
    max-sem-ids= value
    이 영역 클러스터에 허용되는 최대 세마포 ID 수를 지정합니다.
    cpu-shares=value
    이 영역 클러스터에 할당할 페어 쉐어 스케줄러(FSS) 공유 수를 지정합니다.
  9. (옵션) 변경할 Zone CPU Resource Control 등록 정보를 선택합니다.

    다음 등록 정보를 설정할 수 있습니다.


    등록 정보
    설명
    scope= scope-type
    영역 클러스터에 사용되는 ncpus 등록 정보가 dedicated-cpu 또는 capped-cpu인지 여부를 지정합니다.
    ncpus= value
    범위 유형에 대한 한계를 지정합니다.
    • scope 등록 정보가 dedicated-cpu로 설정된 경우 ncpus 등록 정보는 이 영역의 배타적 사용을 위해 지정해야 할 CPU 수에 대한 한계를 설정합니다. 영역은 부트할 때 풀 및 프로세서 세트를 만듭니다. 리소스 풀에 대한 자세한 내용은 pooladm(1M)poolcfg(1M) 매뉴얼 페이지를 참조하십시오.

    • scope 등록 정보가 capped-cpu로 설정된 경우 ncpus 등록 정보는 영역 클러스터에서 사용할 수 있는 CPU 시간에 대한 한계를 설정합니다. 사용된 단위는 영역의 모든 사용자 스레드에서 사용할 수 있는 단일 CPU의 백분율(소수(예: .75) 또는 혼합 수(1.25와 같은 정수와 소수)로 표현)로 변환됩니다. ncpus 값 1은 CPU 100%를 의미합니다. 리소스 풀에 대한 자세한 내용은 pooladm(1M), pooladm(1M)poolcfg(1M) 매뉴얼 페이지를 참조하십시오.

  10. (옵션) 변경할 capped-memory 등록 정보를 선택합니다.

    다음 등록 정보를 설정할 수 있습니다.


    등록 정보
    설명
    physical= value
    물리적 메모리에 대한 GByte 한계를 지정합니다.
    swap=value
    스왑 메모리에 대한 GByte 한계를 지정합니다.
    locked= value
    잠긴 메모리에 대한 GByte 한계를 지정합니다.
  11. 사용 가능한 물리적 호스트 목록에서 물리적 호스트를 선택합니다.

    사용 가능한 물리적 노드 또는 호스트 모두 또는 하나를 선택한 다음 한 번에 하나의 영역 클러스터 노드를 구성할 수 있습니다.

    다음 등록 정보를 설정할 수 있습니다.


    등록 정보
    설명
    hostname= hostname
    영역 클러스터 노드 호스트 이름을 지정합니다. 예를 들어 zc-host-1입니다.
    address= public-network-address
    공유 IP 유형 영역 클러스터의 영역 클러스터 노드에 대한 공용 네트워크 주소를 지정합니다. 예를 들어 172.1.1.1입니다.
    physical= physical-interface
    물리적 노드에서 검색되는 사용 가능한 네트워크 인터페이스에서 공용 네트워크에 대한 네트워크 물리적 인터페이스를 지정합니다(예: bge0).
    defrouter= default-router
    영역이 다른 서브넷에 구성된 경우 네트워크 주소에 대한 기본 라우터를 지정합니다. 서로 다른 defrouter 설정을 사용하는 각 영역 또는 영역 세트는 서로 다른 서브넷에 있어야 합니다(예: 192.168.0.1). defrouter 등록 정보에 대한 자세한 내용은 zonecfg(1M) 매뉴얼 페이지를 참조하십시오.
  12. 영역 클러스터에 대한 네트워크 주소를 지정합니다.

    네트워크 주소를 사용하면 영역 클러스터의 논리 호스트 이름 또는 공유 IP 클러스터 리소스를 구성할 수 있습니다. 네트워크 주소가 영역 클러스터 전역 범위에 있습니다.

  13. Review Configuration(구성 검토) 화면에서 Return 키를 눌러 계속하고 c를 입력하여 영역 클러스터를 만듭니다.

    다음과 비슷한 구성 변경 결과가 표시됩니다.

     >>> Result of the Creation for the Zone Cluster(sczone) <<<
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            create
            set brand=cluster
            set zonepath=/zones/sczone
            set ip-type=shared
            set enable_priv_net=true
            add capped-memory
            set physical=2G
            end
            add node
            set physical-host=phys-schost-1
            set hostname=zc-host-1
            add net
            set address=172.1.1.1
            set physical=net0
            end
            end
            add net
            set address=172.1.1.2
                  end
    
        Zone cluster, zc2 has been created and configured successfully.
    
        Continue to install the zone cluster(yes/no) ?
  14. 계속하려면 yes를 입력합니다.

    clsetup 유틸리티는 영역 클러스터의 표준 설치를 수행하며 사용자가 옵션을 지정할 수 없습니다.

  15. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  16. 영역 클러스터 구성을 확인합니다.

    verify 하위 명령은 지정된 리소스의 가용성을 확인합니다. clzonecluster verify 명령을 성공하면 출력이 없습니다.

    phys-schost-1# clzonecluster verify zoneclustername
    phys-schost-1# clzonecluster status zoneclustername
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1        Offline   Configured
              basenode2    zone-2        Offline   Configured
  17. Trusted Extensions의 경우 각 영역 클러스터 노드에서 암호 파일을 쓰기 가능한 파일로 만듭니다.

    전역 영역의 경우 txzonemgr GUI를 실행합니다.

    phys-schost# txzonemgr

    전역 영역을 선택한 다음 Configure per-zone name service(영역별 이름 서비스 구성) 항목을 선택합니다.

  18. 영역 클러스터를 설치합니다.
    phys-schost-1# clzonecluster install [-c config-profile.xml] zoneclustername
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zoneclustername"...

    -c config-profile.xml 옵션은 영역 클러스터의 모든 비전역 영역에 대한 구성 프로파일을 지정합니다. 이 옵션을 사용하면 영역 클러스터의 각 영역에 고유하도록 영역의 호스트 이름만 변경됩니다. 모든 프로파일에는 .xml 확장자가 있어야 합니다.

  19. 영역 클러스터를 부트합니다.
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zoneclustername
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zoneclustername"...
  20. 영역 클러스터가 설치된 -c config-profile.xml 옵션을 사용하지 않는 경우 sysid 구성을 수행합니다.

    각 영역 클러스터 노드에서 다음 단계를 수행합니다.


    주 - 다음 단계에서 비전역 영역 zcnode zone-cluster-name은 동일한 이름을 공유합니다.


    1. Oracle Solaris 인스턴스의 구성을 해제하고 영역을 재부트합니다.
      phys-schost# zlogin zcnode
      zcnode# sysconfig unconfigure
      zcnode# reboot

      재부트 시 zlogin 세션이 종료됩니다.

    2. zlogin 명령을 실행하고 대화식 명령을 통해 진행합니다.
      phys-schost# zlogin -C zcnode
    3. 완료되면 영역 콘솔을 종료합니다.

      비전역 영역에서 종료하는 방법에 대한 자세한 내용은 시스템 관리 설명서: Oracle Solaris Containers-리소스 관리 및 Oracle Solaris 영역의 비전역 영역 종료 방법을 참조하십시오.

    4. 남은 각 영역 클러스터 노드에 대해 반복합니다.
  21. Trusted Extensions를 사용할 경우 영역 클러스터에 대한 IP 주소 매핑을 완료합니다.

    영역 클러스터의 각 노드에서 이 단계를 수행하십시오.

    1. 전역 클러스터의 노드에서 노드 ID를 표시합니다.
      phys-schost# cat /etc/cluster/nodeid
      N
    2. 동일한 전역 클러스터 노드의 영역 클러스터 노드에 로그인합니다.

      로그인하기 전에 SMF 서비스를 가져왔으며 모든 서비스가 작동 중인지 확인합니다.

    3. 개인 상호 연결을 위해 이 영역 클러스터 노드에서 사용되는 IP 주소를 확인합니다.

      클러스터 소프트웨어에서 영역 클러스터를 구성할 때 해당 클러스터 소프트웨어는 이러한 IP 주소를 자동으로 지정합니다.

      ifconfig -a 출력에서 영역 클러스터에 속한 clprivnet0 논리적 인터페이스를 찾습니다. inet의 값은 이 영역 클러스터에서의 클러스터 개인 상호 연결의 사용을 지원하도록 지정된 IP 주소입니다.

      zc1# ifconfig -a
      lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
              zone zc1
              inet 127.0.0.1 netmask ff000000
      bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
              inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:3:ba:19:fa:b7
      ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4
              inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:14:4f:24:74:d8
      ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4
              zone zc1
              inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255
      clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23
              ether 0:0:0:0:0:2
      clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              zone zc1
              inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
    4. 영역 클러스터 노드의 /etc/inet/hosts 파일에 영역 클러스터 노드의 IP 주소를 추가합니다.
      • clusternodeN-priv(여기서 N은 전역 클러스터 노드 ID임)인 개인 상호 연결의 호스트 이름입니다.

        172.16.0.22    clusternodeN-priv 
      • 영역 클러스터를 만들 때 clzonecluster 명령에 지정된 각 net 리소스

    5. 남은 영역 클러스터 노드에서 반복합니다.
  22. 영역 클러스터 구성 요소와의 통신을 인증하도록 /etc/security/tsol/tnrhdb 파일을 수정합니다.

    Trusted Extensions 관리자 절차의 원격 호스트 템플리트를 작성하는 방법에 설명된 Solaris Management Console의 Security Templates(보안 템플리트) 마법사를 사용해서 다음 작업을 수행합니다.

    • 영역 클러스터 구성 요소에서 사용되는 IP 주소에 대해 새 항목을 만들고 각 항목에 CIPSO 템플리트를 지정합니다.

      영역 클러스터 노드의 /etc/inet/hosts 파일에 존재하는 다음과 같은 각 IP 주소에 대해 항목을 추가합니다.

      • 각 영역 클러스터 노드 개인 IP 주소

      • 영역 클러스터의 모든 cl_privnet IP 주소

      • 영역 클러스터에 대한 각 논리 호스트 이름 공용 IP 주소

      • 영역 클러스터에 대한 각 공유 주소 공용 IP 주소

      항목은 다음과 같이 표시됩니다.

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • 기본 템플리트 내부 항목으로 지정할 항목을 추가합니다.

      0.0.0.0:internal

    CIPSO 템플리트에 대한 자세한 내용은 Oracle Solaris Trusted Extensions 구성 설명서의 DOI(Domain of Interpretation) 구성을 참조하십시오.

  23. 영역 클러스터 노드에 대해 DNS 및 rlogin 액세스를 활성화합니다.

    영역 클러스터의 각 노드에서 다음 명령을 수행합니다.

    phys-schost# zlogin zcnode
    zcnode# svcadm enable svc:/network/dns/client:default
    zcnode# svcadm enable svc:/network/login:rlogin
    zcnode# reboot

예 6-2 영역 클러스터를 만드는 구성 파일

다음 예에서는 clzonecluster 유틸리티에서 영역 클러스터를 만드는 데 사용할 수 있는 명령 파일의 내용을 보여 줍니다. 파일에는 수동으로 입력하는 일련의 clzonecluster 명령이 포함되어 있습니다.

다음 구성에서는 영역 클러스터 sczone을 전역 클러스터 노드 phys-schost-1에 만듭니다. 영역 클러스터는 영역 경로로 /zones/sczone을 사용하고 공용 IP 주소 172.16.2.2를 사용합니다. 영역 클러스터의 첫번째 노드에는 호스트 이름 zc-host-1이 지정되며 네트워크 주소 172.16.0.1bge0 어댑터를 사용합니다. 영역 클러스터의 두번째 노드는 전역 클러스터 노드 phys-schost-2에 만들어집니다. 이 두번째 영역 클러스터 노드에는 호스트 이름 zc-host-2가 지정되며 네트워크 주소 172.16.0.2bge1 어댑터를 사용합니다.

create
set zonepath=/zones/sczone
add net
set address=172.16.2.2
end
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=bge0
end
end
add sysid
set root_password=encrypted_password
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=bge1
end
end
commit
exit

다음 순서

영역 클러스터에 파일 시스템 사용을 추가하려면 영역 클러스터에 파일 시스템 추가로 이동합니다.

영역 클러스터에 전역 저장 장치 사용을 추가하려면 영역 클러스터에 저장 장치 추가로 이동합니다.

참조

영역 클러스터에 패치를 적용하려면 Oracle Solaris Cluster 시스템 관리 설명서의 11 장, Oracle Solaris Cluster 소프트웨어 및 펌웨어 패치 작업의 절차를 따릅니다. 이러한 절차에는 필요한 경우 영역 클러스터에 대한 특정 지침이 포함되어 있습니다.

영역 클러스터에 파일 시스템 추가

이 섹션에서는 영역 클러스터에서 사용할 파일 시스템을 추가하는 절차를 제공합니다.

파일 시스템을 영역 클러스터에 추가하고 온라인 상태로 전환하면 해당 영역 클러스터 내에서 사용할 수 있도록 파일 시스템이 인증됩니다. 사용할 파일 시스템을 마운트하려면 SUNW.HAStoragePlus 또는 SUNW.ScalMountPoint와 같은 클러스터 리소스를 사용하여 파일 시스템을 구성합니다.

이 섹션에 설명된 절차는 다음과 같습니다.

또한 영역 클러스터에서 고가용성을 제공하도록 ZFS 저장소 풀을 구성하려면 Oracle Solaris Cluster Data Services Planning and Administration Guide의 How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available을 참조하십시오.

영역 클러스터에 고가용성 로컬 파일 시스템 추가

영역 클러스터에서 사용할 전역 클러스터의 고가용성 로컬 파일 시스템을 구성하려면 이 절차를 수행합니다. 파일 시스템이 영역 클러스터에 추가되고 HAStoragePlus 리소스로 구성되어 고가용성 로컬 파일 시스템을 만듭니다.

전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.


  2. clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    주 메뉴가 표시됩니다.


    참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.


  3. Zone Cluster(영역 클러스터) 메뉴 항목을 선택합니다.

    Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.

  4. Add File System/Storage Device to a Zone Cluster(영역 클러스터에 파일 시스템/저장 장치 추가) 메뉴 항목을 선택합니다.

    Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.

  5. 파일 시스템을 추가할 영역 클러스터를 선택합니다.

    Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.

  6. File System(파일 시스템) 메뉴 항목을 선택합니다.

    File System Selection for the Zone Cluster(영역 클러스터에 대한 파일 시스템 선택) 메뉴가 표시됩니다.

  7. 영역 클러스터에 추가할 파일 시스템을 선택합니다.

    목록의 파일 시스템은 공유 디스크에서 구성되며 영역 클러스터가 구성되는 노드에서 액세스할 수 있는 파일 시스템입니다. 또한 e를 입력하여 파일 시스템에 대한 모든 등록 정보를 수동으로 지정할 수 있습니다.

    Mount Type Selection(마운트 유형 선택) 메뉴가 표시됩니다.

  8. Loopback(루프백) 마운트 유형을 선택합니다.

    File System Properties for the Zone Cluster(영역 클러스터에 대한 파일 시스템 등록 정보) 메뉴가 표시됩니다.

  9. 추가 중인 파일 시스템에 대해 변경할 수 있는 등록 정보를 변경합니다.

    주 - UFS 파일 시스템의 경우 로깅을 사용으로 설정합니다.


    완료되면 d를 입력하고 Return 키를 누릅니다.

  10. c를 입력하여 구성 변경 사항을 저장합니다.

    구성 변경 결과가 표시됩니다.

  11. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  12. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 6-3 영역 클러스터에 고가용성 로컬 파일 시스템 추가

이 예에서는 sczone 영역 클러스터에서 사용할 로컬 파일 시스템 /global/oracle/d1을 추가합니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

다음 순서

HAStoragePlus 자원을 사용하여 파일 시스템이 고가용성을 제공하도록 구성합니다. HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.

영역 클러스터에 ZFS 저장소 풀을 추가하는 방법

영역 클러스터에서 사용할 ZFS 저장소 풀을 추가하려면 이 절차를 수행합니다. 풀은 단일 영역 클러스터 노드에 대한 로컬이거나 HAStoragePlus로 구성되어 고가용성이 될 수 있습니다.

clsetup 유틸리티는 선택된 영역 클러스터가 구성된 노드에서 액세스할 수 있는 공용 디스크에 구성된 모든 ZFS 풀을 검색하고 표시합니다. clsetup 유틸리티를 사용하여 클러스터 범위의 ZFS 저장소 풀을 기존 영역 클러스터에 추가한 후 clzonecluster 명령을 사용하여 구성을 수정하거나 노드 범위에 ZFS 저장소 풀을 추가합니다.

시작하기 전에

ZFS 풀이 영역 클러스터의 모든 노드에 연결된 공유 디스크에서 연결되어 있는지 확인합니다. ZFS 풀을 만드는 절차는 Oracle Solaris ZFS 관리 설명서를 참조하십시오.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    주 - 전역 영역의 한 노드에서 이 절차의 모든 단계를 수행합니다.


  2. clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    주 메뉴가 표시됩니다.


    참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.


  3. Zone Cluster(영역 클러스터) 메뉴 항목을 선택합니다.

    Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.

  4. Add File System/Storage Device to a Zone Cluster(영역 클러스터에 파일 시스템/저장 장치 추가) 메뉴 항목을 선택합니다.

    Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.

  5. ZFS 저장소 풀을 추가할 영역 클러스터를 선택합니다.

    Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.

  6. ZFS 메뉴 항목을 선택합니다.

    ZFS Pool Selection for the Zone Cluster(영역 클러스터에 대한 ZFS 풀 선택) 메뉴가 표시됩니다.

  7. 영역 클러스터에 추가할 ZFS 풀을 선택합니다.

    목록의 ZFS 풀은 공유 디스크에서 구성되며 영역 클러스터가 구성되는 노드에서 액세스할 수 있는 풀입니다. 또한 e를 입력하여 ZFS 풀에 대한 등록 정보를 수동으로 지정할 수 있습니다.

    ZFS Pool Dataset Property for the Zone Cluster(영역 클러스터에 대한 ZFS 풀 데이터 세트 등록 정보) 메뉴가 표시됩니다. 선택한 ZFS 풀이 name 등록 정보에 지정됩니다.

  8. d를 입력하고 Enter 키를 누릅니다.

    Review File Systems/Storage Devices for the Zone Cluster(영역 클러스터에 대한 파일 시스템/저장 장치 검토) 메뉴가 표시됩니다.

  9. c를 입력하여 구성 변경 사항을 저장합니다.

    구성 변경 결과가 표시됩니다. 예를 들면 다음과 같습니다.

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add dataset
            set name=myzpool5
            end
    
        Configuration change to sczone zone cluster succeeded.
  10. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  11. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 6-4 영역 클러스터에 ZFS 저장소 풀 추가

다음 예에서는 영역 클러스터 sczone에 추가된 ZFS 저장소 풀 zpool1을 보여 줍니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

다음 순서

HAStoragePlus 리소스를 사용하여 고가용성을 제공하도록 ZFS 저장소 풀을 구성합니다. HAStoragePlus 리소스는 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드의 풀에 있는 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.

영역 클러스터에 클러스터 파일 시스템을 추가하는 방법

clsetup 유틸리티는 선택된 영역 클러스터가 구성된 클러스터 노드에서 구성된 사용 가능한 파일 시스템을 검색하고 표시합니다. clsetup 유틸리티를 사용하여 파일 시스템을 추가할 때 파일 시스템은 클러스터 범위에 추가됩니다.

다음 유형의 클러스터 파일 시스템을 영역 클러스터에 추가할 수 있습니다.

시작하기 전에

영역 클러스터에 추가할 클러스터 파일 시스템이 구성되었는지 확인합니다. 클러스터 파일 시스템 계획5 장클러스터 파일 시스템 만들기를 참조하십시오.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 투표 노드에서 이 절차의 모든 단계를 수행합니다.


  2. 영역 클러스터 노드를 호스트하는 전역 클러스터의 각 노드에서 /etc/vfstab 파일에 영역 클러스터에서 마운트할 파일 시스템에 대한 항목을 추가합니다.
    phys-schost# vi /etc/vfstab
    • UFS 항목의 경우 다음 예와 비슷하게 global 마운트 옵션을 포함합니다.
      /dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs ufs 2 no global, logging
    • 공유 QFS 항목의 경우 다음 예와 비슷하게 shared 마운트 옵션을 포함합니다.
      Data-cz1    -    /db_qfs/Data1 samfs - no shared,notrace
  3. 전역 클러스터에서 clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    주 메뉴가 표시됩니다.


    참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.


  4. Zone Cluster(영역 클러스터) 메뉴 항목을 선택합니다.

    Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.

  5. Add File System/Storage Device to a Zone Cluster(영역 클러스터에 파일 시스템/저장 장치 추가) 메뉴 항목을 선택합니다.

    Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.

  6. 파일 시스템을 추가할 영역 클러스터를 선택합니다.

    Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.

  7. File System(파일 시스템) 메뉴 항목을 선택합니다.

    File System Selection for the Zone Cluster(영역 클러스터에 대한 파일 시스템 선택) 메뉴가 표시됩니다.

  8. 목록에서 파일 시스템을 선택합니다.

    Mount Type Selection(마운트 유형 선택) 메뉴가 표시됩니다.

    또한 e를 입력하여 파일 시스템에 대한 모든 등록 정보를 수동으로 지정할 수 있습니다.


    주 - ACFS 파일 시스템을 사용하는 경우 a를 입력하여 Discover ACFS를 선택한 후 ORACLE_HOME 디렉토리를 지정합니다.


  9. 영역 클러스터에 대한 루프백 파일 시스템 마운트 유형을 선택합니다.

    주 - 단계 8에서 ACFS 파일 시스템을 선택한 경우 ACFS에서 직접 마운트 유형만 지원되므로 clsetup 유틸리티가 이 단계를 건너 뜁니다.


    루프백 파일 시스템 만들기에 대한 자세한 내용은 System Administration Guide: Devices and File Systems의 How to Create and Mount an LOFS File System을 참조하십시오.

    File System Properties for the Zone Cluster(영역 클러스터에 대한 파일 시스템 등록 정보) 메뉴가 표시됩니다.

  10. 마운트 지점 디렉토리를 지정합니다.

    dir 등록 정보에 대한 숫자를 입력하고 Enter 키를 누릅니다. 그런 다음 New Value(새 값) 필드에 LOFS 마운트 지점 디렉토리 이름을 입력하고 Return 키를 누릅니다.

    완료되면 d를 입력하고 Return 키를 누릅니다. Review File Systems/Storage Devices for the Zone Cluster(영역 클러스터에 대한 파일 시스템/저장 장치 검토) 메뉴가 표시됩니다.

  11. c를 입력하여 구성 변경 사항을 저장합니다.

    구성 변경 결과가 표시됩니다. 예를 들면 다음과 같습니다.

      >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add fs
            set dir=/dev/md/ddg/dsk/d9
            set special=/dev/md/ddg/dsk/d10
            set raw=/dev/md/ddg/rdsk/d10
            set type=lofs
            end
    
        Configuration change to sczone zone cluster succeeded.
  12. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  13. LOFS 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

다음 순서

(선택 사항) 클러스터 파일 시스템을 HAStoragePlus 리소스에서 관리하도록 구성합니다. HAStoragePlus 리소스는 전역 클러스터에서 파일 시스템의 마운트를 관리하고, 나중에 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 루프백 마운트를 수행합니다. 자세한 내용은 Oracle Solaris Cluster Data Services Planning and Administration Guide의 Configuring an HAStoragePlus Resource for Cluster File Systems을 참조하십시오.

특정 영역 클러스터 노드에 로컬 파일 시스템 추가

이 절에서는 단일 영역 클러스터 노드 전용 파일 시스템을 추가하는 방법을 설명합니다. 대신 전체 영역 클러스터에서 사용할 파일 시스템을 구성하려면 영역 클러스터에 파일 시스템 추가로 이동합니다.

이 절에서는 다음 절차에 대해 설명합니다.

특정 영역 클러스터 노드에 로컬 파일 시스템을 추가하는 방법

특정 영역 클러스터의 단일 특정 영역 클러스터 노드에 로컬 파일 시스템을 추가하려면 이 절차를 수행합니다. 파일 시스템은 Oracle Solaris Cluster 소프트웨어에서 관리되지 않지만 대신 기본 Oracle Solaris 영역에 전달됩니다.


주 - 영역 클러스터에 고가용성 로컬 파일 시스템을 추가하려면 영역 클러스터에 고가용성 로컬 파일 시스템 추가의 절차를 수행합니다.


  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.


  2. 특정 영역 클러스터 노드에 구성할 로컬 파일 시스템을 만듭니다.

    예정된 영역 클러스터 노드를 호스트하는 전역 클러스터 노드의 로컬 디스크를 사용합니다.

  3. 노드 범위의 영역 클러스터 구성에 파일 시스템을 추가합니다.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add fs
    clzc:zoneclustername:node:fs> set dir=mountpoint
    clzc:zoneclustername:node:fs> set special=disk-device-name
    clzc:zoneclustername:node:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:node:fs> set type=FS-type
    clzc:zoneclustername:node:fs> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=mountpoint

    파일 시스템 마운트 지점을 지정합니다.

    special=disk-device-name

    디스크 장치의 이름을 지정합니다.

    raw=raw-disk-device-name

    원시 디스크 장치의 이름을 지정합니다.

    type=FS-type

    파일 시스템 유형을 지정합니다.


    주 - UFS 파일 시스템에 대한 로깅을 활성화합니다.


  4. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 6-5 영역 클러스터 노드에 로컬 파일 시스템 추가

이 예에서는 sczone 영역 클러스터의 노드에서 사용할 로컬 UFS 파일 시스템 /local/data를 추가합니다. 이 영역 클러스터 노드는 전역 클러스터 노드 phys-schost-1에서 호스트됩니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add fs
clzc:sczone:node:fs> set dir=/local/data
clzc:sczone:node:fs> set special=/dev/md/localdg/dsk/d1
clzc:sczone:node:fs> set raw=/dev/md/localdg/rdsk/d1
clzc:sczone:node:fs> set type=ufs
clzc:sczone:node:fs> add options [logging]
clzc:sczone:node:fs> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                fs
     dir:                                           /local/data
     special:                                       /dev/md/localdg/dsk/d1
     raw:                                           /dev/md/localdg/rdsk/d1
     type:                                          ufs
     options:                                       [logging]
     cluster-control:                               false ...

특정 영역 클러스터 노드에 로컬 ZFS 저장소 풀을 추가하는 방법

로컬 ZFS 저장소 풀을 특정 영역 클러스터 노드에 추가하려면 이 절차를 수행합니다. 로컬 ZFS 풀은 Oracle Solaris Cluster 소프트웨어에서 관리되지 않지만 대신 기본 Oracle Solaris 영역에 전달됩니다.


주 - 영역 클러스터에 고가용성 로컬 ZFS 풀을 추가하려면 영역 클러스터에 고가용성 로컬 파일 시스템 추가를 참조하십시오.


전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.


  2. 특정 영역 클러스터 노드에 구성할 로컬 ZFS 풀을 만듭니다.

    예정된 영역 클러스터 노드를 호스트하는 전역 클러스터 노드의 로컬 디스크를 사용합니다.

  3. 노드 범위의 영역 클러스터 구성에 풀을 추가합니다.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add dataset
    clzc:zoneclustername:node:dataset> set name=localZFSpoolname
    clzc:zoneclustername:node:dataset> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    set name=localZFSpoolname

    로컬 ZFS 풀의 이름을 지정합니다.

  4. ZFS 풀 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 6-6 영역 클러스터 노드에 로컬 ZFS 풀 추가

이 예에서는 sczone 영역 클러스터의 노드에서 사용할 로컬 ZFS 풀 local_pool을 추가합니다. 이 영역 클러스터 노드는 전역 클러스터 노드 phys-schost-1에서 호스트됩니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add dataset
clzc:sczone:node:dataset> set name=local_pool
clzc:sczone:node:dataset> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                dataset
     name:                                          local_pool

영역 클러스터에 저장 장치 추가

이 절에서는 영역 클러스터에서 직접 사용할 수 있도록 전역 저장 장치를 추가하거나 단일 영역 클러스터 노드 전용 저장 장치를 추가하는 방법에 대해 설명합니다. 전역 장치는 클러스터에 있는 둘 이상의 노드에서 한 번에 한 노드씩 또는 동시에 여러 노드에서 액세스할 수 있는 장치입니다.

영역 클러스터에 장치를 추가하면 해당 영역 클러스터 내에서만 장치가 표시됩니다.

이 절에서는 다음 절차에 대해 설명합니다.

영역 클러스터에 전역 저장 장치를 추가하는 방법

클러스터 범위에서 다음 유형의 저장 장치 중 하나를 추가하려면 이 절차를 수행합니다.


주 - 특정 영역 클러스터 노드에 원시 디스크 장치를 추가하려면 대신 특정 영역 클러스터 노드에 원시 디스크 장치를 추가하는 방법으로 이동합니다.


clsetup 유틸리티는 선택된 영역 클러스터가 구성된 클러스터 노드에서 구성된 사용 가능한 저장 장치를 검색하고 표시합니다. clsetup 유틸리티를 사용하여 저장 장치를 기존 영역 클러스터에 추가한 후 clzonecluster 명령을 사용하여 구성을 수정합니다. clzonecluster 명령을 사용하여 영역 클러스터에서 저장 장치를 제거하는 방법에 대한 지침은 Oracle Solaris Cluster 시스템 관리 설명서의 영역 클러스터에서 저장 장치를 제거하는 방법을 참조하십시오.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.


  2. 영역 클러스터에 추가할 장치를 식별하고 온라인 상태인지 확인합니다.
    phys-schost# cldevicegroup status
  3. 추가할 장치가 온라인 상태가 아닌 경우 온라인 상태로 전환합니다.
    phys-schost# cldevicegroup online device
  4. clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    주 메뉴가 표시됩니다.


    참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.


  5. Zone Cluster(영역 클러스터) 메뉴 항목을 선택합니다.

    Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.

  6. Add File System/Storage Device to a Zone Cluster(영역 클러스터에 파일 시스템/저장 장치 추가) 메뉴 항목을 선택합니다.

    Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.

  7. 저장 장치를 추가할 영역 클러스터를 선택합니다.

    Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.

  8. Device(장치) 메뉴 항목을 선택합니다.

    사용 가능한 장치 목록이 표시됩니다.

  9. 목록에서 저장 장치를 선택합니다.

    또한 e를 입력하여 저장 장치에 대한 등록 정보를 수동으로 지정할 수 있습니다.

    Storage Device Property for the Zone Cluster(영역 클러스터에 대한 저장 장치 등록 정보) 메뉴가 표시됩니다.

  10. 추가 중인 저장 장치에 대한 등록 정보를 추가하거나 변경합니다.

    주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.


    완료되면 d를 입력하고 Return 키를 누릅니다. Review File Systems/Storage Devices for the Zone Cluster(영역 클러스터에 대한 파일 시스템/저장 장치 검토) 메뉴가 표시됩니다.

  11. c를 입력하여 구성 변경 사항을 저장합니다.

    구성 변경 결과가 표시됩니다. 예를 들면 다음과 같습니다.

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add device
            set match=/dev/md/ddg/*dsk/*
            end
            add device
            set match=/dev/md/shared/1/*dsk/*
            end
    
        Configuration change to sczone zone cluster succeeded.
        The change will become effective after the zone cluster reboots.
  12. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  13. 장치 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

특정 영역 클러스터 노드에 원시 디스크 장치를 추가하는 방법

특정 영역 클러스터 노드에 원시 디스크 장치를 추가하려면 이 절차를 수행합니다. 이 장치는 Oracle Solaris Cluster에서 제어하지 않습니다. 전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.


주 - 전체 영역 클러스터에서 사용할 원시 디스크 장치를 추가하려면 대신 영역 클러스터에 전역 저장 장치를 추가하는 방법으로 이동합니다.


  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    주 - 전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.


  2. 영역 클러스터에 추가할 장치(cNt XdYsZ)를 식별하고 온라인 상태인지 확인합니다.
  3. 노드 범위의 영역 클러스터 구성에 장치를 추가합니다.

    주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> select node physical-host=baseclusternode
    clzc:zone-cluster-name:node> add device
    clzc:zone-cluster-name:node:device> set match=/dev/*dsk/cNtXdYs*
    clzc:zone-cluster-name:node:device> end
    clzc:zone-cluster-name:node> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/*dsk/cNt XdYs*

    원시 디스크 장치의 전체 장치 경로를 지정합니다.

  4. 장치 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 6-7 특정 영역 클러스터 노드에 원시 디스크 장치 추가

다음 예에서는 sczone 영역 클러스터의 노드에서 사용할 원시 디스크 장치 c1t1d0s0을 추가합니다. 이 영역 클러스터 노드는 전역 클러스터 노드 phys-schost-1에서 호스트됩니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add device
clzc:sczone:node:device> set match=/dev/*dsk/c1t1d0s0
clzc:sczone:node:device> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                device
     name:                                          /dev/*dsk/c1t1d0s0