JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris Cluster 소프트웨어 설치 설명서     Oracle Solaris Cluster 4.1 (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris Cluster 구성 계획

2.  전역 클러스터 노드에 소프트웨어 설치

3.  전역 클러스터 설정

4.  Solaris Volume Manager 소프트웨어 구성

5.  클러스터 파일 시스템 만들기

6.  영역 클러스터 만들기

영역 클러스터 만들기 및 구성 개요

영역 클러스터 만들기 및 구성

영역 클러스터 만들기

Trusted Extensions를 설치하고 구성하는 방법

영역 클러스터를 만드는 방법

영역 클러스터에서 Trusted Extensions를 사용하도록 구성하는 방법

영역 클러스터에 파일 시스템 추가

영역 클러스터에 고가용성 로컬 파일 시스템 추가

영역 클러스터에 ZFS 저장소 풀을 추가하는 방법

영역 클러스터에 클러스터 파일 시스템을 추가하는 방법

특정 영역 클러스터 노드에 로컬 파일 시스템 추가

특정 영역 클러스터 노드에 로컬 파일 시스템을 추가하는 방법

특정 영역 클러스터 노드에 로컬 ZFS 저장소 풀을 추가하는 방법

영역 클러스터에 저장 장치 추가

영역 클러스터에 전역 저장 장치를 추가하는 방법

특정 영역 클러스터 노드에 원시 디스크 장치를 추가하는 방법

7.  클러스터에서 소프트웨어 제거

색인

영역 클러스터 만들기 및 구성

이 절에서는 영역 클러스터를 만들고 구성하는 작업에 대한 절차 및 정보를 제공합니다.

영역 클러스터 만들기

이 절에서는 clsetup 유틸리티를 사용하여 영역 클러스터를 만들고, 네트워크 주소, 파일 시스템, ZFS 저장소 풀 및 저장 장치를 새 영역 클러스터에 추가하는 방법에 대한 절차를 제공합니다.

노드가 비클러스터 모드에 있을 경우 변경 사항은 노드가 클러스터 모드로 돌아갈 때 전파됩니다. 따라서 일부 전역 클러스터 노드가 비클러스터 모드에 있는 경우에도 영역 클러스터를 만들 수 있습니다. 해당 노드가 클러스터 모드로 돌아가면 시스템이 해당 노드에서 영역 클러스터 만들기 작업을 수행합니다.

또는 clzonecluster 유틸리티를 사용하여 클러스터를 만들고 구성할 수 있습니다. 자세한 내용은 clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오.

이 절에서는 다음 절차에 대해 설명합니다.

Trusted Extensions를 설치하고 구성하는 방법

이 절차에서는 Oracle Solaris의 Trusted Extensions 기능을 영역 클러스터에서 사용할 수 있도록 전역 클러스터를 준비합니다. Trusted Extensions를 사용하도록 계획하지 않는 경우 영역 클러스터 만들기로 진행합니다.

전역 클러스터의 각 노드에서 이 절차를 수행합니다.

시작하기 전에

다음 작업을 수행합니다.

  1. 전역 클러스터 노드에서 root 역할을 수행합니다.
  2. Trusted Extensions 소프트웨어를 설치하고 구성합니다.

    Trusted Extensions 구성 및 관리의 3 장, Oracle Solaris에 Trusted Extensions 기능 추가(작업)에 포함된 절차를 수행합니다.

  3. Trusted Extensions zonesharezoneunshare 스크립트를 사용 안함으로 설정합니다.

    Trusted Extensions zonesharezoneunshare 스크립트는 시스템에서 홈 디렉토리를 내보내는 기능을 지원합니다. Oracle Solaris Cluster 구성은 이 기능을 지원하지 않습니다.

    각 스크립트를 /bin/true 유틸리티에 대한 심볼릭 링크로 대체하여 이 기능을 사용 안함으로 설정합니다.

    phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true
    phys-schost# ln -s /usr/lib/zones/zoneunshare /bin/true
  4. 영역 클러스터에서 사용할 모든 논리적 호스트 이름 및 공유 IP 주소를 구성합니다.

    Trusted Extensions 구성 및 관리의 기본 Trusted Extensions 시스템을 만드는 방법을 참조하십시오.

  5. (옵션) LDAP 서버의 전역 클러스터 노드에 대한 원격 로그인을 사용으로 설정합니다.
    1. /etc/default/login 파일에서 CONSOLE 항목을 주석 처리합니다.
    2. 원격 로그인을 사용으로 설정합니다.
      phys-schost# svcadm enable rlogin
    3. /etc/pam.conf 파일을 수정합니다.

      아래에 나와 있는 대로 탭을 추가한 다음 각각 allow_remote 또는 allow_unlabeled를 입력하여 계정 관리 항목을 수정합니다.

      other   account requisite       pam_roles.so.1        Tab  allow_remote
      other   account required        pam_unix_account.so.1 Tab  allow_unlabeled
  6. admin_low 템플리트를 수정합니다.
    1. 전역 영역에서 사용하는 Trusted Extensions 시스템에 속하지 않는 각 IP 주소에 admin_low 템플리트를 지정합니다.
      # tncfg -t admin_low
      tncfg:admin_low> add host=ip-address1
      tncfg:admin_low> add host=ip-address2
      …
      tncfg:admin_low> exit
    2. tncfg 템플리트에서 와일드카드 주소 0.0.0.0/32를 제거합니다.
      # tncfg -t admin_low remove host=0.0.0.0
  7. 전역 영역에서 사용하는 Trusted Extensions 시스템에 속하는 각 IP 주소에 cipso 템플리트를 지정합니다.
    # tncfg -t cipso
    tncfg:cipso> add host=ip-address1
    tncfg:cipso> add host=ip-address2
    …
    tncfg:cipso> exit
  8. 전역 클러스터의 각 남은 노드에서 단계 1부터 단계 7까지를 반복합니다.

    모든 전역 클러스터 노드에서 모든 단계가 완료되면 전역 클러스터의 각 노드에서 이 절차의 남은 단계를 수행합니다.

  9. 각 전역 클러스터 노드에서 Trusted Extensions 사용 LDAP 서버의 IP 주소를 /etc/inet/hosts 파일에 추가합니다.

    LDAP 서버는 전역 영역 및 영역 클러스터의 노드에서 사용됩니다.

  10. (옵션) 전역 클러스터 노드를 LDAP 클라이언트로 만듭니다.

    Trusted Extensions 구성 및 관리의 Trusted Extensions에서 전역 영역을 LDAP 클라이언트로 만들기를 참조하십시오.

  11. Trusted Extensions 사용자를 추가합니다.

    Trusted Extensions 구성 및 관리의 Trusted Extensions의 역할 및 사용자 만들기를 참조하십시오.

다음 순서

영역 클러스터를 만듭니다. 영역 클러스터 만들기로 이동합니다.

영역 클러스터를 만드는 방법

영역 클러스터를 만들려면 이 절차를 수행합니다.

영역 클러스터를 설치한 후 수정하려면 Oracle Solaris Cluster 시스템 관리 설명서의 영역 클러스터 관리 작업 수행clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오.

시작하기 전에


참고 - clsetup 유틸리티에서는 < 키를 눌러 이전 화면으로 돌아갈 수 있습니다.


  1. 전역 클러스터의 활성 구성원 노드에서 root 역할을 수행합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 전역 클러스터의 노드가 클러스터 모드에 있는지 확인합니다.
    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    주 메뉴가 표시됩니다.

  4. Zone Cluster(영역 클러스터) 메뉴 항목을 선택합니다.
  5. Create a Zone Cluster(영역 클러스터 만들기) 메뉴 항목을 선택합니다.
  6. 추가할 영역 클러스터의 이름을 입력합니다.

    영역 클러스터 이름은 ASCII 문자(a-z 및 A-Z), 숫자, 대시 또는 밑줄을 포함할 수 있습니다. 최대 이름 길이는 20자입니다.

  7. 변경할 등록 정보를 선택합니다.

    다음 등록 정보를 설정할 수 있습니다.


    등록 정보
    설명
    zonepath= zone-cluster-node-path
    영역 클러스터 노드에 대한 경로를 지정합니다. 예를 들어 /zones/sczone입니다.
    brand= brand-type
    영역 클러스터에 사용되는 solaris, solaris10 또는 labeled 영역 브랜드를 지정합니다.

    주 - Trusted Extensions를 사용하려면 labeled 브랜드만 사용해야 합니다. 배타적 IP 영역 클러스터를 만들려면 solaris 브랜드만 사용해야 합니다.


    ip-type= value
    영역 클러스터에서 사용되는 네트워크 IP 주소의 유형을 지정합니다. 유효한 ip-type 값은 sharedexclusive입니다.

    배타적 IP 영역 클러스터의 최대 개수는 초기 클러스터 설치 시 설정할 수 있는 cluster 등록 정보 num_xip_zoneclusters의 제약을 받습니다. 이 값의 기본값은 3입니다. 자세한 내용은 cluster(1CL) 매뉴얼 페이지를 참조하십시오.

    enable_priv_net= value
    true로 설정되면 영역 클러스터 노드 간에 Oracle Solaris Cluster 개인 네트워크 통신이 사용으로 설정됩니다. 영역 클러스터 노드에 대한 Oracle Solaris Cluster 개인 호스트 이름 및 IP 주소는 시스템에서 자동으로 생성됩니다. 값이 false로 설정된 경우 개인 네트워크 통신이 사용 안함으로 설정됩니다. 기본값은 true입니다.

    enable_priv_net 등록 정보가 다음 등록 정보와 함께 true로 설정되면 다음 방법으로 개인 통신이 수행됩니다.

    • ip-type=shared – 영역 클러스터 노드 간 통신은 전역 클러스터의 개인 네트워크를 사용합니다.

    • ip-type= exclusive(solaris 브랜드 전용) – 영역 클러스터 노드 간 통신은 지정된 privnet 리소스를 사용합니다. privnet 리소스는 이더넷 유형의 개인 네트워크 어댑터에 대해 VNIC(Virtual Network Interfaces) 또는 IB 유형의 개인 네트워크 어댑터에 대해 IB(InfiniBand) 분할 영역입니다. VNIC 또는 IB 분할 영역은 전역 클러스터의 각 개인 네트워크 어댑터에서 마법사에 의해 자동으로 만들어지고 영역 클러스터를 구성하는 데 사용됩니다.

    마법사에서 생성하는 VNIC 또는 IB 분할 영역은 다음 이름 지정 규약을 사용합니다.

    이더넷 유형의 경우: private-network-interface-name_ zone-cluster-name_vnic0

    IB 유형의 경우: private-network-interface-name_ zone-cluster-name_ibp0

    예를 들어 전역 클러스터의 개인 네트워크 인터페이스는 net2net3이며 영역 클러스터 이름은 zone1입니다. net2net3이 이더넷 유형 네트워크 인터페이스인 경우 영역 클러스터에 대해 만들어진 두 개의 VNIC 이름이 net2_zone1_vnic0net3_zone1_vnic0으로 지정됩니다.

    net2net3이 IB 유형 네트워크 인터페이스인 경우 영역 클러스터에 대해 만들어진 두 개의 IB 분할 영역 이름이 net2_zone1_ibp0net3_zone1_ibp0으로 지정됩니다.

  8. solaris10 브랜드 영역 클러스터의 경우 영역 루트 암호를 입력합니다.

    solaris10 브랜드 영역의 경우 루트 계정 암호가 필요합니다.

  9. (옵션) 변경할 Zone System Resource Control 등록 정보를 선택합니다.

    다음 등록 정보를 설정할 수 있습니다.


    등록 정보
    설명
    max-lwps=value
    이 영역 클러스터에서 동시에 사용할 수 있는 최대 경량 프로세스(LWP) 수를 지정합니다.
    max-shm-memory=value
    이 영역 클러스터에 허용되는 최대 공유 메모리(GB)를 지정합니다.
    max-shm-ids=value
    이 영역 클러스터에 허용되는 최대 공유 메모리 ID 수를 지정합니다.
    max-msg-ids=value
    이 영역 클러스터에 허용되는 최대 메시지 대기열 ID 수를 지정합니다.
    max-sem-ids= value
    이 영역 클러스터에 허용되는 최대 세마포 ID 수를 지정합니다.
    cpu-shares=value
    이 영역 클러스터에 할당할 페어 쉐어 스케줄러(FSS) 공유 수를 지정합니다.
  10. (옵션) 변경할 Zone CPU Resource Control 등록 정보를 선택합니다.

    다음 등록 정보를 설정할 수 있습니다.


    등록 정보
    설명
    scope= scope-type
    영역 클러스터에 사용되는 ncpus 등록 정보가 dedicated-cpu 또는 capped-cpu인지 여부를 지정합니다.
    ncpus= value
    범위 유형에 대한 한계를 지정합니다.
    • scope 등록 정보가 dedicated-cpu로 설정된 경우 ncpus 등록 정보는 이 영역의 배타적 사용을 위해 지정해야 할 CPU 수에 대한 한계를 설정합니다. 영역은 부트할 때 풀 및 프로세서 세트를 만듭니다. 리소스 풀에 대한 자세한 내용은 pooladm(1M)poolcfg(1M) 매뉴얼 페이지를 참조하십시오.

    • scope 등록 정보가 capped-cpu로 설정된 경우 ncpus 등록 정보는 영역 클러스터에서 사용할 수 있는 CPU 시간에 대한 한계를 설정합니다. 사용된 단위는 영역의 모든 사용자 스레드에서 사용할 수 있는 단일 CPU의 백분율(소수(예: .75) 또는 혼합 수(1.25와 같은 정수와 소수)로 표현)로 변환됩니다. ncpus 값 1은 CPU 100%를 의미합니다. 리소스 풀에 대한 자세한 내용은 pooladm(1M), pooladm(1M)poolcfg(1M) 매뉴얼 페이지를 참조하십시오.

  11. (옵션) 변경할 capped-memory 등록 정보를 선택합니다.

    다음 등록 정보를 설정할 수 있습니다.


    등록 정보
    설명
    physical= value
    물리적 메모리에 대한 GByte 한계를 지정합니다.
    swap=value
    스왑 메모리에 대한 GByte 한계를 지정합니다.
    locked= value
    잠긴 메모리에 대한 GByte 한계를 지정합니다.
  12. 사용 가능한 물리적 호스트 목록에서 물리적 호스트를 선택합니다.

    사용 가능한 물리적 노드 또는 호스트 모두 또는 하나를 선택한 다음 한 번에 하나의 영역 클러스터 노드를 구성할 수 있습니다.

    다음 등록 정보를 설정할 수 있습니다.


    등록 정보
    설명
    hostname= hostname
    영역 클러스터 노드 호스트 이름을 지정합니다. 예를 들어 zc-host-1입니다.
    address= public-network-address
    공유 IP 유형 영역 클러스터의 영역 클러스터 노드에 대한 공용 네트워크 주소를 지정합니다. 예를 들어 172.1.1.1입니다.
    physical= physical-interface
    물리적 노드에서 검색되는 사용 가능한 네트워크 인터페이스에서 공용 네트워크에 대한 네트워크 물리적 인터페이스를 지정합니다. 예를 들어 sc_ipmp0 또는 net0입니다.
    defrouter= default-router
    영역이 다른 서브넷에 구성된 경우 네트워크 주소에 대한 기본 라우터를 지정합니다. 서로 다른 defrouter 설정을 사용하는 각 영역 또는 영역 세트는 서로 다른 서브넷에 있어야 합니다(예: 192.168.0.1). defrouter 등록 정보에 대한 자세한 내용은 zonecfg(1M) 매뉴얼 페이지를 참조하십시오.
  13. 영역 클러스터에 대한 네트워크 주소를 지정합니다.

    네트워크 주소를 사용하면 영역 클러스터의 논리적 호스트 이름 또는 공유 IP 클러스터 리소스를 구성할 수 있습니다. 네트워크 주소가 영역 클러스터 전역 범위에 있습니다.

  14. Review Configuration(구성 검토) 화면에서 Return 키를 눌러 계속하고 c를 입력하여 영역 클러스터를 만듭니다.

    다음과 비슷한 구성 변경 결과가 표시됩니다.

     >>> Result of the Creation for the Zone Cluster(sczone) <<<
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            create
            set brand=solaris
            set zonepath=/zones/sczone
            set ip-type=shared
            set enable_priv_net=true
            add capped-memory
            set physical=2G
            end
            add node
            set physical-host=phys-schost-1
            set hostname=zc-host-1
            add net
            set address=172.1.1.1
            set physical=net0
            end
            end
            add net
            set address=172.1.1.2
                  end
    
        Zone cluster, zc2 has been created and configured successfully.
    
        Continue to install the zone cluster(yes/no) ?
  15. 계속하려면 yes를 입력합니다.

    clsetup 유틸리티는 영역 클러스터의 표준 설치를 수행하며 사용자가 옵션을 지정할 수 없습니다.

  16. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  17. 영역 클러스터 구성을 확인합니다.

    verify 하위 명령은 지정된 리소스의 가용성을 확인합니다. clzonecluster verify 명령을 성공하면 아무 출력도 표시되지 않습니다.

    phys-schost-1# clzonecluster verify zone-cluster-name
    phys-schost-1# clzonecluster status zone-cluster-name
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone       basenode1     zone-1           Offline   Configured
              basenode2     zone-2           Offline   Configured
  18. Trusted Extensions의 경우 각 영역 클러스터 노드에서 암호 파일을 쓰기 가능한 파일로 만듭니다.

    전역 영역의 경우 txzonemgr GUI를 실행합니다.

    phys-schost# txzonemgr

    전역 영역을 선택한 다음 Configure per-zone name service(영역별 이름 서비스 구성) 항목을 선택합니다.

  19. 영역 클러스터를 설치합니다.
    phys-schost-1# clzonecluster install options zone-cluster-name
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zone-cluster-name"...
    • solaris 또는 labeled 브랜드 영역 클러스터의 경우 다음 옵션이 유효합니다.
      옵션
      설명
      -c config-profile.xml
      시스템 구성 정보를 포함합니다. -c config-profile.xml 옵션은 영역 클러스터의 모든 비전역 영역에 대한 구성 프로파일을 제공합니다. 이 옵션을 사용하면 영역 클러스터의 각 영역에 고유하도록 영역의 호스트 이름만 변경됩니다. 모든 프로파일에는 .xml 확장자가 있어야 합니다.
      -M manifest.xml
      모든 영역 클러스터 노드에서 필요한 패키지를 설치하도록 구성하는 사용자 정의 자동 설치 프로그램 매니페스트를 지정합니다. 영역 클러스터에 대한 기본 전역 클러스터 노드 중 일부가 동일한 Oracle Solaris Cluster 패키지로 설치되지 않았지만 기본 노드에 놓을 패키지를 변경하지 않으려면 이 옵션을 사용합니다. clzonecluster install 명령을 -M 옵션 없이 실행할 경우 기본 노드에 설치된 패키지가 누락되면 기본 노드에서 영역 클러스터 설치를 실패합니다.
    • solaris10 브랜드 영역 클러스터의 경우 다음 옵션이 유효합니다.

      -a 또는 -d 옵션을 사용하여 영역 클러스터에서 지원되는 Geographic Edition 소프트웨어, 주요 패키지 및 에이전트를 설치합니다.


      주 - 현재 solaris10 브랜드 영역 클러스터에서 지원되는 에이전트 목록은 Oracle Solaris Cluster 4 Compatibility Guide를 참조하십시오.



      옵션
      설명
      필수 – Oracle Solaris Cluster 패치 145333-15 for SPARC 및 145334–15 for x86
      solaris10 브랜드 영역 클러스터를 설치하기 전에 최소 Oracle Solaris Cluster 3.3 패치 145333–15 for SPARC 또는 145334–15 for x86을 설치해야 합니다. 패치를 검색하려면 My Oracle Support에 로그인합니다. 그런 다음 전역 영역에서 -p 옵션을 사용하여 패치를 설치합니다.
      # clzonecluster install-cluster \
      -p patchdir=patchdir[,patchlistfile=filename] \
      [-n phys-schost-1[,…]] \
      [-v] \
      zone-cluster-name

      패치 설치에 대한 자세한 내용을 보려면 My Oracle Support에 로그인하여 ID 1278636.1, Solaris 패치의 모든 개정을 찾고 다운로드하는 방법을 검색하십시오.

      -a absolute_path_to_archive zone-cluster-name
      소스 이미지로 사용할 이미지 아카이브에 대한 절대 경로를 지정합니다.
      # clzonecluster install \
      [-n nodename] \
      -a absolute_path_to_archive \
      zone-cluster-name
      -d dvd-image zone-cluster-name
      설치된 solaris10 비전역 영역의 루트 디렉토리에 대한 전체 디렉토리 경로를 지정합니다. 명령을 실행할 노드의 전역 영역에서 클러스터 소프트웨어 DVD 디렉토리에 액세스할 수 있습니다.
      # clzonecluster install-cluster \
      -d dvd-image \
      zoneclustername

    자세한 내용은 clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오.

  20. 영역 클러스터가 설치된 -c config-profile.xml 옵션을 사용하지 않는 경우 sysid 구성을 수행합니다.

    그렇지 않으면 단계 21로 건너뜁니다.


    주 - 다음 단계에서 비전역 영역 zcnode zone-cluster-name은 동일한 이름을 공유합니다.


    • 배타적 IP labeled 브랜드 영역 클러스터의 경우 다음 단계를 수행합니다.

      한 번에 하나의 영역 클러스터 노드만 구성합니다.

      1. 하나의 영역 클러스터 노드의 비전역 영역을 부트합니다.
        phys-schost# zoneadm -z zcnode boot
      2. Oracle Solaris 인스턴스의 구성을 해제하고 영역을 재부트합니다.
        phys-schost# zlogin zcnode
        zcnode# sysconfig unconfigure
        zcnode# reboot

        재부트 시 zlogin 세션이 종료됩니다.

      3. zlogin 명령을 실행하고 대화식 명령을 통해 진행합니다.
        phys-schost# zlogin -C zcnode
      4. 완료되면 영역 콘솔을 종료합니다.

        비전역 영역에서 종료하는 방법에 대한 자세한 내용은 Oracle Solaris 11.1 관리: Oracle Solaris 영역, Oracle Solaris 10 영역 및 리소스 관리의 비전역 영역 종료 방법을 참조하십시오.

      5. 전역 영역에서 영역 클러스터 노드를 정지합니다.
        phys-schost# zoneadm -z zcnode halt
      6. 남은 각 영역 클러스터 노드에 대해 이전 단계를 반복합니다.
    • 공유 IP labeled 브랜드 영역 클러스터의 경우 각 영역 클러스터 노드에 대해 다음 단계를 수행합니다.
      1. 하나의 전역 클러스터 노드에서 영역 클러스터를 부트합니다.
        phys-schost# clzonecluster boot zone-cluster-name
      2. Oracle Solaris 인스턴스의 구성을 해제하고 영역을 재부트합니다.
        phys-schost# zlogin zcnode
        zcnode# sysconfig unconfigure
        zcnode# reboot

        재부트 시 zlogin 세션이 종료됩니다.

      3. zlogin 명령을 실행하고 대화식 명령을 통해 진행합니다.
        phys-schost# zlogin -C zcnode
      4. 완료되면 영역 콘솔을 종료합니다.

        비전역 영역에서 종료하는 방법에 대한 자세한 내용은 Oracle Solaris 11.1 관리: Oracle Solaris 영역, Oracle Solaris 10 영역 및 리소스 관리의 비전역 영역 종료 방법을 참조하십시오.

      5. 남은 각 영역 클러스터 노드에 대해 단계 b부터 단계 d까지를 반복합니다.
    • solaris 또는 solaris10 브랜드 영역 클러스터의 경우 각 영역 클러스터 노드에 대해 다음 단계를 수행합니다.
      1. 하나의 전역 클러스터 노드에서 영역 클러스터를 부트합니다.
        phys-schost# clzonecluster boot zone-cluster-name
      2. zlogin 명령을 실행하고 대화식 명령을 통해 진행합니다.
        phys-schost# zlogin -C zcnode
      3. 완료되면 영역 콘솔을 종료합니다.

        비전역 영역에서 종료하는 방법에 대한 자세한 내용은 Oracle Solaris 11.1 관리: Oracle Solaris 영역, Oracle Solaris 10 영역 및 리소스 관리의 비전역 영역 종료 방법을 참조하십시오.

      4. 남은 각 영역 클러스터 노드에 대해 단계 b부터 단계 c까지를 반복합니다.
  21. 영역 클러스터를 부트합니다.

    영역 클러스터를 설치하는 데 몇 분이 걸릴 수 있습니다.

    phys-schost# clzonecluster boot zone-cluster-name
  22. (배타적 IP 영역 클러스터) IPMP 그룹을 수동으로 구성합니다.

    clsetup 유틸리티는 배타적 IP 영역 클러스터에 대한 IPMP 그룹을 자동으로 구성하지 않습니다. 논리적 호스트 이름 또는 공유 주소 리소스를 만들기 전에 수동으로 IPMP 그룹을 만들어야 합니다.

    phys-schost# ipadm create-ipmp -i interface sc_ipmp0
    phys-schost# ipadm delete-addr interface/name
    phys-schost# ipadm create-addr -T static -a IPaddress/prefix sc_ipmp0/name

다음 순서

solaris10 브랜드 영역 클러스터에 설치한 Oracle Solaris Cluster 3.3 데이터 서비스를 구성하려면 해당되는 데이터 서비스 설명서에 있는 영역 클러스터에 대한 절차를 수행합니다. Oracle Solaris Cluster 3.3 Documentation을 참조하십시오.

Trusted Extensions 구성을 완료하려면 영역 클러스터에서 Trusted Extensions를 사용하도록 구성하는 방법으로 이동합니다.

그렇지 않으면 영역 클러스터에 파일 시스템 또는 저장 장치를 추가합니다. 다음 절을 참조하십시오.

영역 클러스터에서 Trusted Extensions를 사용하도록 구성하는 방법

labeled 브랜드 영역 클러스터를 만든 후 다음 단계를 수행하여 Trusted Extensions를 사용하는 구성을 완료합니다.

  1. 영역 클러스터에 대한 IP 주소 매핑을 완료합니다.

    영역 클러스터의 각 노드에서 이 단계를 수행하십시오.

    1. 전역 클러스터의 노드에서 노드 ID를 표시합니다.
      phys-schost# cat /etc/cluster/nodeid
      N
    2. 동일한 전역 클러스터 노드의 영역 클러스터 노드에 로그인합니다.

      로그인하기 전에 SMF 서비스를 가져왔으며 모든 서비스가 작동 중인지 확인합니다.

    3. 개인 상호 연결을 위해 이 영역 클러스터 노드에서 사용되는 IP 주소를 확인합니다.

      클러스터 소프트웨어에서 영역 클러스터를 구성할 때 해당 클러스터 소프트웨어는 이러한 IP 주소를 자동으로 지정합니다.

      ifconfig -a 출력에서 영역 클러스터에 속한 clprivnet0 논리적 인터페이스를 찾습니다. inet의 값은 이 영역 클러스터에서의 클러스터 개인 상호 연결의 사용을 지원하도록 지정된 IP 주소입니다.

      zc1# ifconfig -a
      lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
              zone zc1
              inet 127.0.0.1 netmask ff000000
      net0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
              inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:3:ba:19:fa:b7
      ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4
              inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:14:4f:24:74:d8
      ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4
              zone zc1
              inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255
      clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23
              ether 0:0:0:0:0:2
      clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              zone zc1
              inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
    4. 영역 클러스터 노드의 /etc/inet/hosts 파일에 영역 클러스터 노드의 다음 주소를 추가합니다.
      • clusternodeN-priv(여기서 N은 전역 클러스터 노드 ID임)인 개인 상호 연결의 호스트 이름입니다.

        172.16.0.22    clusternodeN-priv 
      • 영역 클러스터를 만들 때 clzonecluster 명령에 지정된 각 net 리소스

    5. 남은 영역 클러스터 노드에서 반복합니다.
  2. 영역 클러스터 구성 요소와의 통신에 권한을 부여합니다.

    영역 클러스터 구성 요소에서 사용하는 IP 주소에 대한 새 항목을 만들고 각 항목에 CIPSO 템플리트를 지정합니다. 영역 클러스터 노드의 /etc/inet/hosts 파일에 존재하는 이러한 IP 주소는 다음과 같습니다.

    • 각 영역 클러스터 노드 개인 IP 주소

    • 영역 클러스터의 모든 cl_privnet IP 주소

    • 영역 클러스터에 대한 각 논리적 호스트 이름 공용 IP 주소

    • 영역 클러스터에 대한 각 공유 주소 공용 IP 주소

    phys-schost# tncfg -t cipso
    tncfg:cipso> add host=ipaddress1
    tncfg:cipso> add host=ipaddress2
    …
    tncfg:cipso> exit

    CIPSO 템플리트에 대한 자세한 내용은 Trusted Extensions 구성 및 관리의 DOI(Domain of Interpretation)를 구성하는 방법을 참조하십시오.

  3. IP 엄격한 다중 홈 지정을 weak로 설정합니다.

    영역 클러스터의 각 노드에서 다음 명령을 수행합니다.

    phys-schost# ipadm set-prop -p hostmodel=weak ipv4
    phys-schost# ipadm set-prop -p hostmodel=weak ipv6

    hostmodel 등록 정보에 대한 자세한 내용은 Oracle Solaris 11.1 조정 가능 매개변수 참조 설명서의 hostmodel (ipv4 or ipv6)을 참조하십시오.

다음 순서

영역 클러스터에 파일 시스템 또는 저장 장치를 추가합니다. 다음 절을 참조하십시오.

참조

영역 클러스터에서 소프트웨어를 업데이트하는 경우 Oracle Solaris Cluster 시스템 관리 설명서의 11 장, 소프트웨어 업데이트에 포함된 절차를 수행합니다. 이러한 절차에는 필요한 경우 영역 클러스터에 대한 특정 지침이 포함되어 있습니다.

영역 클러스터에 파일 시스템 추가

파일 시스템을 영역 클러스터에 추가하고 온라인 상태로 전환하면 해당 영역 클러스터 내에서 사용할 수 있도록 파일 시스템이 인증됩니다. 사용할 파일 시스템을 마운트하려면 SUNW.HAStoragePlus 또는 SUNW.ScalMountPoint와 같은 클러스터 리소스를 사용하여 파일 시스템을 구성합니다.


주 - 단일 영역 클러스터 노드에서만 사용되는 파일 시스템을 추가하려면 대신 특정 영역 클러스터 노드에 로컬 파일 시스템 추가를 참조하십시오.


이 절에서는 영역 클러스터에서 사용할 파일 시스템을 추가하는 절차를 제공합니다.

영역 클러스터에 고가용성 로컬 파일 시스템 추가

영역 클러스터에서 사용할 전역 클러스터의 고가용성 로컬 파일 시스템을 구성하려면 이 절차를 수행합니다. 파일 시스템이 영역 클러스터에 추가되고 HAStoragePlus 리소스로 구성되어 고가용성 로컬 파일 시스템을 만듭니다.

전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 root 역할을 수행합니다.
  2. 전역 클러스터에서, 영역 클러스터에서 사용할 파일 시스템을 만듭니다.

    파일 시스템이 공유 디스크에 만들어지는지 확인합니다.

  3. clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    주 메뉴가 표시됩니다.


    참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.


  4. Zone Cluster(영역 클러스터) 메뉴 항목을 선택합니다.

    Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.

  5. Add File System/Storage Device to a Zone Cluster(영역 클러스터에 파일 시스템/저장 장치 추가) 메뉴 항목을 선택합니다.

    Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.

  6. 파일 시스템을 추가할 영역 클러스터를 선택합니다.

    Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.

  7. File System(파일 시스템) 메뉴 항목을 선택합니다.

    File System Selection for the Zone Cluster(영역 클러스터에 대한 파일 시스템 선택) 메뉴가 표시됩니다.

  8. 영역 클러스터에 추가할 파일 시스템을 선택합니다.

    목록의 파일 시스템은 공유 디스크에서 구성되며 영역 클러스터가 구성되는 노드에서 액세스할 수 있는 파일 시스템입니다. 또한 e를 입력하여 파일 시스템에 대한 모든 등록 정보를 수동으로 지정할 수 있습니다.

    Mount Type Selection(마운트 유형 선택) 메뉴가 표시됩니다.

  9. Loopback(루프백) 마운트 유형을 선택합니다.

    File System Properties for the Zone Cluster(영역 클러스터에 대한 파일 시스템 등록 정보) 메뉴가 표시됩니다.

  10. 추가 중인 파일 시스템에 대해 변경할 수 있는 등록 정보를 변경합니다.

    주 - UFS 파일 시스템의 경우 로깅을 사용으로 설정합니다.


    완료되면 d를 입력하고 Return 키를 누릅니다.

  11. c를 입력하여 구성 변경 사항을 저장합니다.

    구성 변경 결과가 표시됩니다.

  12. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  13. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zone-cluster-name

예 6-1 영역 클러스터에 고가용성 로컬 파일 시스템 추가

이 예에서는 sczone 영역 클러스터에서 사용할 로컬 파일 시스템 /global/oracle/d1을 추가합니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

다음 순서

HAStoragePlus 자원을 사용하여 파일 시스템이 고가용성을 제공하도록 구성합니다. HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.

영역 클러스터에 ZFS 저장소 풀을 추가하는 방법

영역 클러스터에 ZFS 저장소 풀을 추가하려면 이 절차를 수행합니다. 풀은 단일 영역 클러스터 노드에 대한 로컬이거나 HAStoragePlus로 구성되어 고가용성이 될 수 있습니다.

clsetup 유틸리티는 선택된 영역 클러스터가 구성된 노드에서 액세스할 수 있는 공용 디스크에 구성된 모든 ZFS 풀을 검색하고 표시합니다. clsetup 유틸리티를 사용하여 클러스터 범위의 ZFS 저장소 풀을 기존 영역 클러스터에 추가한 후 clzonecluster 명령을 사용하여 구성을 수정하거나 노드 범위에 ZFS 저장소 풀을 추가합니다.

시작하기 전에

ZFS 풀이 영역 클러스터의 모든 노드에 연결된 공유 디스크에서 연결되어 있는지 확인합니다. ZFS 풀을 만드는 절차는 Oracle Solaris 11.1 관리: ZFS 파일 시스템를 참조하십시오.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 root 역할을 수행합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    주 메뉴가 표시됩니다.


    참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.


  3. Zone Cluster(영역 클러스터) 메뉴 항목을 선택합니다.

    Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.

  4. Add File System/Storage Device to a Zone Cluster(영역 클러스터에 파일 시스템/저장 장치 추가) 메뉴 항목을 선택합니다.

    Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.

  5. ZFS 저장소 풀을 추가할 영역 클러스터를 선택합니다.

    Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.

  6. ZFS 메뉴 항목을 선택합니다.

    ZFS Pool Selection for the Zone Cluster(영역 클러스터에 대한 ZFS 풀 선택) 메뉴가 표시됩니다.

  7. 영역 클러스터에 추가할 ZFS 풀을 선택합니다.

    목록의 ZFS 풀은 공유 디스크에서 구성되며 영역 클러스터가 구성되는 노드에서 액세스할 수 있는 풀입니다. 또한 e를 입력하여 ZFS 풀에 대한 등록 정보를 수동으로 지정할 수 있습니다.

    ZFS Pool Dataset Property for the Zone Cluster(영역 클러스터에 대한 ZFS 풀 데이터 세트 등록 정보) 메뉴가 표시됩니다. 선택한 ZFS 풀이 name 등록 정보에 지정됩니다.

  8. d를 입력하고 Return 키를 누릅니다.

    Review File Systems/Storage Devices for the Zone Cluster(영역 클러스터에 대한 파일 시스템/저장 장치 검토) 메뉴가 표시됩니다.

  9. c를 입력하여 구성 변경 사항을 저장합니다.

    구성 변경 결과가 표시됩니다. 예를 들면 다음과 같습니다.

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add dataset
            set name=myzpool5
            end
    
        Configuration change to sczone zone cluster succeeded.
  10. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  11. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername
  12. 고가용성 ZFS 저장소 풀을 만들려면 HAStoragePlus 리소스로 풀을 구성합니다.

    HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드의 풀에 있는 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.

영역 클러스터에 클러스터 파일 시스템을 추가하는 방법

clsetup 유틸리티는 선택된 영역 클러스터가 구성된 클러스터 노드에서 구성된 사용 가능한 파일 시스템을 검색하고 표시합니다. clsetup 유틸리티를 사용하여 파일 시스템을 추가할 때 파일 시스템은 클러스터 범위에 추가됩니다.

다음 유형의 클러스터 파일 시스템을 영역 클러스터에 추가할 수 있습니다.

시작하기 전에

영역 클러스터에 추가할 클러스터 파일 시스템이 구성되었는지 확인합니다. 클러스터 파일 시스템 계획5 장클러스터 파일 시스템 만들기를 참조하십시오.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 root 역할을 수행합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 영역 클러스터 노드를 호스트하는 전역 클러스터의 각 노드에서 /etc/vfstab 파일에 영역 클러스터에서 마운트할 파일 시스템에 대한 항목을 추가합니다.
    phys-schost# vi /etc/vfstab
    • UFS 항목의 경우 다음 예와 비슷하게 global 마운트 옵션을 포함합니다.
      /dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs ufs 2 no global, logging
  3. 전역 클러스터에서 clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    주 메뉴가 표시됩니다.


    참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.


  4. Zone Cluster(영역 클러스터) 메뉴 항목을 선택합니다.

    Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.

  5. Add File System/Storage Device to a Zone Cluster(영역 클러스터에 파일 시스템/저장 장치 추가) 메뉴 항목을 선택합니다.

    Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.

  6. 파일 시스템을 추가할 영역 클러스터를 선택합니다.

    Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.

  7. File System(파일 시스템) 메뉴 항목을 선택합니다.

    File System Selection for the Zone Cluster(영역 클러스터에 대한 파일 시스템 선택) 메뉴가 표시됩니다.

  8. 목록에서 파일 시스템을 선택합니다.

    또한 e를 입력하여 파일 시스템에 대한 모든 등록 정보를 수동으로 지정할 수 있습니다.

    Mount Type Selection(마운트 유형 선택) 메뉴가 표시됩니다.

  9. 영역 클러스터에 대한 루프백 파일 시스템 마운트 유형을 선택합니다.

    루프백 파일 시스템 만들기에 대한 자세한 내용은 Oracle Solaris 11.1 Administration: Devices and File Systems의 How to Create and Mount an LOFS File System을 참조하십시오.

    File System Properties for the Zone Cluster(영역 클러스터에 대한 파일 시스템 등록 정보) 메뉴가 표시됩니다.

  10. 마운트 지점 디렉토리를 지정합니다.

    dir 등록 정보에 대한 숫자를 입력하고 Return 키를 누릅니다. 그런 다음 New Value(새 값) 필드에 LOFS 마운트 지점 디렉토리 이름을 입력하고 Return 키를 누릅니다.

    완료되면 d를 입력하고 Return 키를 누릅니다. Review File Systems/Storage Devices for the Zone Cluster(영역 클러스터에 대한 파일 시스템/저장 장치 검토) 메뉴가 표시됩니다.

  11. c를 입력하여 구성 변경 사항을 저장합니다.

    구성 변경 결과가 표시됩니다. 예를 들면 다음과 같습니다.

      >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add fs
            set dir=/dev/md/ddg/dsk/d9
            set special=/dev/md/ddg/dsk/d10
            set raw=/dev/md/ddg/rdsk/d10
            set type=lofs
            end
    
        Configuration change to sczone zone cluster succeeded.
  12. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  13. LOFS 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zone-cluster-name

다음 순서

(선택 사항) 클러스터 파일 시스템을 HAStoragePlus 리소스에서 관리하도록 구성합니다. HAStoragePlus 자원은 전역 클러스터에서 파일 시스템의 마운트를 관리하고, 나중에 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 루프백 마운트를 수행합니다. 자세한 내용은 Oracle Solaris Cluster Data Services Planning and Administration Guide의 Configuring an HAStoragePlus Resource for Cluster File Systems을 참조하십시오.

특정 영역 클러스터 노드에 로컬 파일 시스템 추가

이 절에서는 단일 영역 클러스터 노드 전용 파일 시스템을 추가하는 방법을 설명합니다. 대신 전체 영역 클러스터에서 사용할 파일 시스템을 구성하려면 영역 클러스터에 파일 시스템 추가로 이동합니다.

이 절에서는 다음 절차에 대해 설명합니다.

특정 영역 클러스터 노드에 로컬 파일 시스템을 추가하는 방법

특정 영역 클러스터의 단일 특정 영역 클러스터 노드에 로컬 파일 시스템을 추가하려면 이 절차를 수행합니다. 파일 시스템은 Oracle Solaris Cluster 소프트웨어에서 관리되지 않지만 대신 기본 Oracle Solaris 영역에 전달됩니다.


주 - 영역 클러스터에 고가용성 로컬 파일 시스템을 추가하려면 영역 클러스터에 고가용성 로컬 파일 시스템 추가의 절차를 수행합니다.


  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 root 역할을 수행합니다.

    주 - 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.


  2. 특정 영역 클러스터 노드에 구성할 로컬 파일 시스템을 만듭니다.

    예정된 영역 클러스터 노드를 호스트하는 전역 클러스터 노드의 로컬 디스크를 사용합니다.

  3. 노드 범위의 영역 클러스터 구성에 파일 시스템을 추가합니다.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add fs
    clzc:zoneclustername:node:fs> set dir=mountpoint
    clzc:zoneclustername:node:fs> set special=disk-device-name
    clzc:zoneclustername:node:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:node:fs> set type=FS-type
    clzc:zoneclustername:node:fs> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=mountpoint

    파일 시스템 마운트 지점을 지정합니다.

    special=disk-device-name

    디스크 장치의 이름을 지정합니다.

    raw=raw-disk-device-name

    원시 디스크 장치의 이름을 지정합니다.

    type=FS-type

    파일 시스템 유형을 지정합니다.


    주 - UFS 파일 시스템에 대한 로깅을 활성화합니다.


  4. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 6-2 영역 클러스터 노드에 로컬 파일 시스템 추가

이 예에서는 sczone 영역 클러스터의 노드에서 사용할 로컬 UFS 파일 시스템 /local/data를 추가합니다. 이 영역 클러스터 노드는 전역 클러스터 노드 phys-schost-1에서 호스트됩니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add fs
clzc:sczone:node:fs> set dir=/local/data
clzc:sczone:node:fs> set special=/dev/md/localdg/dsk/d1
clzc:sczone:node:fs> set raw=/dev/md/localdg/rdsk/d1
clzc:sczone:node:fs> set type=ufs
clzc:sczone:node:fs> add options [logging]
clzc:sczone:node:fs> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                fs
     dir:                                           /local/data
     special:                                       /dev/md/localdg/dsk/d1
     raw:                                           /dev/md/localdg/rdsk/d1
     type:                                          ufs
     options:                                       [logging]
     cluster-control:                               false ...

특정 영역 클러스터 노드에 로컬 ZFS 저장소 풀을 추가하는 방법

로컬 ZFS 저장소 풀을 특정 영역 클러스터 노드에 추가하려면 이 절차를 수행합니다. 로컬 ZFS 풀은 Oracle Solaris Cluster 소프트웨어에서 관리되지 않지만 대신 기본 Oracle Solaris 영역에 전달됩니다.


주 - 영역 클러스터에 고가용성 로컬 ZFS 풀을 추가하려면 영역 클러스터에 고가용성 로컬 파일 시스템 추가을 참조하십시오.


전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 root 역할을 수행합니다.
  2. 특정 영역 클러스터 노드에 구성할 로컬 ZFS 풀을 만듭니다.

    예정된 영역 클러스터 노드를 호스트하는 전역 클러스터 노드의 로컬 디스크를 사용합니다.

  3. 노드 범위의 영역 클러스터 구성에 풀을 추가합니다.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add dataset
    clzc:zoneclustername:node:dataset> set name=localZFSpoolname
    clzc:zoneclustername:node:dataset> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    set name=localZFSpoolname

    로컬 ZFS 풀의 이름을 지정합니다.

  4. ZFS 풀 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 6-3 영역 클러스터 노드에 로컬 ZFS 풀 추가

이 예에서는 sczone 영역 클러스터의 노드에서 사용할 로컬 ZFS 풀 local_pool을 추가합니다. 이 영역 클러스터 노드는 전역 클러스터 노드 phys-schost-1에서 호스트됩니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add dataset
clzc:sczone:node:dataset> set name=local_pool
clzc:sczone:node:dataset> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                dataset
     name:                                          local_pool

영역 클러스터에 저장 장치 추가

이 절에서는 영역 클러스터에서 직접 사용할 수 있도록 전역 저장 장치를 추가하거나 단일 영역 클러스터 노드 전용 저장 장치를 추가하는 방법에 대해 설명합니다. 전역 장치는 클러스터에 있는 둘 이상의 노드에서 한 번에 한 노드씩 또는 동시에 여러 노드에서 액세스할 수 있는 장치입니다.

영역 클러스터에 장치를 추가하면 해당 영역 클러스터 내에서만 장치가 표시됩니다.

이 절에서는 다음 절차에 대해 설명합니다.

영역 클러스터에 전역 저장 장치를 추가하는 방법

클러스터 범위에서 다음 유형의 저장 장치 중 하나를 추가하려면 이 절차를 수행합니다.


주 - 특정 영역 클러스터 노드에 원시 디스크 장치를 추가하려면 대신 특정 영역 클러스터 노드에 원시 디스크 장치를 추가하는 방법으로 이동합니다.


clsetup 유틸리티는 선택된 영역 클러스터가 구성된 클러스터 노드에서 구성된 사용 가능한 저장 장치를 검색하고 표시합니다. clsetup 유틸리티를 사용하여 저장 장치를 기존 영역 클러스터에 추가한 후 clzonecluster 명령을 사용하여 구성을 수정합니다. clzonecluster 명령을 사용하여 영역 클러스터에서 저장 장치를 제거하는 방법에 대한 지침은 Oracle Solaris Cluster 시스템 관리 설명서의 영역 클러스터에서 저장 장치를 제거하는 방법을 참조하십시오.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 root 역할을 수행합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 영역 클러스터에 추가할 장치를 식별하고 온라인 상태인지 확인합니다.
    phys-schost# cldevicegroup status
  3. 추가할 장치가 온라인 상태가 아닌 경우 온라인 상태로 전환합니다.
    phys-schost# cldevicegroup online device
  4. clsetup 유틸리티를 시작합니다.
    phys-schost# clsetup

    주 메뉴가 표시됩니다.


    참고 - 이전 화면으로 돌아가려면 < 키를 입력하고 Return 키를 누릅니다.


  5. Zone Cluster(영역 클러스터) 메뉴 항목을 선택합니다.

    Zone Cluster Tasks(영역 클러스터 작업) 메뉴가 표시됩니다.

  6. Add File System/Storage Device to a Zone Cluster(영역 클러스터에 파일 시스템/저장 장치 추가) 메뉴 항목을 선택합니다.

    Select Zone Cluster(영역 클러스터 선택) 메뉴가 표시됩니다.

  7. 저장 장치를 추가할 영역 클러스터를 선택합니다.

    Storage Type Selection(저장소 유형 선택) 메뉴가 표시됩니다.

  8. Device(장치) 메뉴 항목을 선택합니다.

    사용 가능한 장치 목록이 표시됩니다.

  9. 목록에서 저장 장치를 선택합니다.

    또한 e를 입력하여 저장 장치에 대한 등록 정보를 수동으로 지정할 수 있습니다.

    Storage Device Property for the Zone Cluster(영역 클러스터에 대한 저장 장치 등록 정보) 메뉴가 표시됩니다.

  10. 추가 중인 저장 장치에 대한 등록 정보를 추가하거나 변경합니다.

    주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.


    완료되면 d를 입력하고 Return 키를 누릅니다. Review File Systems/Storage Devices for the Zone Cluster(영역 클러스터에 대한 파일 시스템/저장 장치 검토) 메뉴가 표시됩니다.

  11. c를 입력하여 구성 변경 사항을 저장합니다.

    구성 변경 결과가 표시됩니다. 예를 들면 다음과 같습니다.

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add device
            set match=/dev/md/ddg/*dsk/*
            end
            add device
            set match=/dev/md/shared/1/*dsk/*
            end
    
        Configuration change to sczone zone cluster succeeded.
        The change will become effective after the zone cluster reboots.
  12. 모두 완료되면 clsetup 유틸리티를 종료합니다.
  13. 장치 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

특정 영역 클러스터 노드에 원시 디스크 장치를 추가하는 방법

특정 영역 클러스터 노드에 원시 디스크 장치를 추가하려면 이 절차를 수행합니다. 이 장치는 Oracle Solaris Cluster에서 제어하지 않습니다. 전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.


주 - 전체 영역 클러스터에서 사용할 원시 디스크 장치를 추가하려면 대신 영역 클러스터에 전역 저장 장치를 추가하는 방법으로 이동합니다.


  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 root 역할을 수행합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 영역 클러스터에 추가할 장치(cNt XdYsZ)를 식별하고 온라인 상태인지 확인합니다.
  3. 노드 범위의 영역 클러스터 구성에 장치를 추가합니다.

    주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> select node physical-host=baseclusternode
    clzc:zone-cluster-name:node> add device
    clzc:zone-cluster-name:node:device> set match=/dev/*dsk/cNtXdYs*
    clzc:zone-cluster-name:node:device> end
    clzc:zone-cluster-name:node> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/*dsk/cNt XdYs*

    원시 디스크 장치의 전체 장치 경로를 지정합니다.

  4. 장치 추가를 확인합니다.
    phys-schost# clzonecluster show -v zoneclustername

예 6-4 특정 영역 클러스터 노드에 원시 디스크 장치 추가

다음 예에서는 sczone 영역 클러스터의 노드에서 사용할 원시 디스크 장치 c1t1d0s0을 추가합니다. 이 영역 클러스터 노드는 전역 클러스터 노드 phys-schost-1에서 호스트됩니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add device
clzc:sczone:node:device> set match=/dev/*dsk/c1t1d0s0
clzc:sczone:node:device> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                device
     name:                                          /dev/*dsk/c1t1d0s0