JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris Cluster 소프트웨어 설치 설명서     Oracle Solaris Cluster 4.0 (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris Cluster 구성 계획

2.  전역 클러스터 노드에 소프트웨어 설치

3.  전역 클러스터 설정

4.  Solaris Volume Manager 소프트웨어 구성

5.  클러스터 파일 시스템 만들기

6.  영역 클러스터 만들기

영역 클러스터 구성

clzonecluster 유틸리티 개요

영역 클러스터 설정

영역 클러스터를 만드는 방법

영역 클러스터에 파일 시스템 추가

영역 클러스터에 로컬 파일 시스템을 추가하는 방법

영역 클러스터에 ZFS 저장소 풀을 추가하는 방법

영역 클러스터에 클러스터 파일 시스템을 추가하는 방법

영역 클러스터에 저장 장치 추가

영역 클러스터에 개별 메타 장치를 추가하는 방법(Solaris Volume Manager)

영역 클러스터에 디스크 세트를 추가하는 방법(Solaris Volume Manager)

영역 클러스터에 DID 장치를 추가하는 방법

7.  클러스터에서 소프트웨어 제거

색인

영역 클러스터 구성

이 절에서는 영역 클러스터라는 Oracle Solaris 비전역 영역의 클러스터를 구성하는 절차를 제공합니다. 다음 항목을 설명합니다.

clzonecluster 유틸리티 개요

clzonecluster 유틸리티는 영역 클러스터를 만들고 수정하며 제거합니다. clzonecluster 유틸리티는 영역 클러스터를 적극적으로 관리합니다. 예를 들어 clzonecluster 유틸리티는 영역 클러스터를 부트하고 정지시킵니다. clzonecluster 유틸리티에 대한 진행률 메시지는 콘솔로 출력되지만 로그 파일에 저장되지 않습니다.

이 유틸리티는 zonecfg 유틸리티와 마찬가지로 다음 수준의 범위에서 작동합니다.

영역 클러스터 설정

이 절에서는 비전역 영역의 클러스터를 구성하는 방법에 대해 설명합니다.

영역 클러스터를 만드는 방법

비전역 영역의 클러스터를 만들려면 이 절차를 수행합니다.

시작하기 전에

  1. 전역 클러스터의 활성 구성원 노드에서 수퍼유저로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 전역 클러스터의 노드가 클러스터 모드에 있는지 확인합니다.

    노드가 비클러스터 모드에 있을 경우 변경 사항은 노드가 클러스터 모드로 돌아갈 때 전파됩니다. 따라서 일부 전역 클러스터 노드가 비클러스터 모드에 있는 경우에도 영역 클러스터를 만들 수 있습니다. 해당 노드가 클러스터 모드로 돌아가면 시스템이 해당 노드에서 영역 클러스터 만들기 작업을 수행합니다.

    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. 영역 클러스터를 만듭니다.

    다음 특별 지침을 준수하십시오.

    • 기본적으로 전체 루트 영역이 만들어집니다. 전체 루트 영역을 만들려면 create 명령에 -b 옵션을 추가하십시오.

    • 각 영역 클러스터 노드에 대해 IP 주소 및 NIC를 지정하는 것은 선택 사항입니다.

    phys-schost-1# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> create
    
    Set the zone path for the entire zone cluster
    clzc:zone-cluster-name> set zonepath=/zones/zone-cluster-name
    
    Add the first node and specify node-specific settings
    clzc:zone-cluster-name> add node
    clzc:zone-cluster-name:node> set physical-host=base-cluster-node1
    clzc:zone-cluster-name:node> set hostname=hostname1
    clzc:zone-cluster-name:node> add net
    clzc:zone-cluster-name:node:net> set address=public-netaddr
    clzc:zone-cluster-name:node:net> set physical=adapter
    clzc:zone-cluster-name:node:net> end
    clzc:zone-cluster-name:node> end
    
    Add authorization for the public-network addresses that the zone cluster is allowed to use
    clzc: zone-cluster-name> add net
    clzc: zone-cluster-name:net> set address=IP-address1
    clzc: zone-cluster-name:net> end
    
    Save the configuration and exit the utility
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
  4. (옵션) 하나 이상의 추가 노드를 영역 클러스터에 추가합니다.
    phys-schost-1# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add node
    clzc:zone-cluster-name:node> set physical-host=base-cluster-node2
    clzc:zone-cluster-name:node> set hostname=hostname2
    clzc:zone-cluster-name:node> add net
    clzc:zone-cluster-name:node:net> set address=public-netaddr
    clzc:zone-cluster-name:node:net> set physical=adapter
    clzc:zone-cluster-name:node:net> end
    clzc:zone-cluster-name:node> end
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
  5. 영역 클러스터 구성을 확인합니다.

    verify 하위 명령은 지정된 자원의 가용성을 확인합니다. clzonecluster verify 명령을 성공하면 아무 출력도 표시되지 않습니다.

    phys-schost-1# clzonecluster verify zone-cluster-name
    phys-schost-1# clzonecluster status zone-cluster-name
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1          Offline   Configured
              basenode2    zone-2          Offline   Configured
  6. 영역 클러스터를 설치합니다.
    phys-schost-1# clzonecluster install options zone-cluster-name
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zone-cluster-name"...

    필요한 경우 clzonecluster install 명령에 다음 옵션을 포함합니다.

    • 시스템 구성 정보를 포함하려면 다음 옵션을 추가합니다.

      -c config-profile.xml

      -c config-profile.xml 옵션은 영역 클러스터의 모든 비전역 영역에 대한 구성 프로파일을 제공합니다. 이 옵션을 사용하면 영역 클러스터의 각 영역에 고유하도록 영역의 호스트 이름만 변경됩니다. 모든 프로파일에는 .xml 확장자가 있어야 합니다.

    • 영역 클러스터에 대한 기본 전역 클러스터 노드가 동일한 Oracle Solaris Cluster 패키지로 모두 설치되지 않았지만 기본 노드에 놓을 패키지를 변경하지 않으려면 다음 옵션을 추가합니다.

      -M manifest.xml

      -M manifest.xml 옵션은 모든 영역 클러스터 노드에 필요한 패키지를 설치하기 위해 구성할 사용자 정의 자동 설치 프로그램 매니페스트를 지정합니다. clzonecluster install 명령을 -M 옵션 없이 실행할 경우 기본 노드에 설치된 패키지가 누락되면 기본 노드에서 영역 클러스터 설치를 실패합니다.

  7. 영역 클러스터를 부트합니다.
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zone-cluster-name
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zone-cluster-name"...
  8. 영역 클러스터 설치 중 프로파일을 설정하지 않은 경우 수동으로 프로파일을 구성합니다.

    각 영역 클러스터 노드에서 다음 명령을 실행하고 대화식 화면을 진행합니다.

    phys-schost-1# zlogin -C zone-cluster-name
  9. 모든 영역 클러스터 노드가 수정된 후 전역 클러스터 노드를 재부트하여 영역 클러스터 /etc/inet/hosts 파일의 변경 사항을 초기화합니다.
    phys-schost# init -g0 -y -i6
  10. 영역 클러스터 노드에 대해 DNS 및 rlogin 액세스를 활성화합니다.

    영역 클러스터의 각 노드에서 다음 명령을 수행합니다.

    phys-schost# zlogin zcnode
    zcnode# svcadm enable svc:/network/dns/client:default
    zcnode# svcadm enable svc:/network/login:rlogin
    zcnode# reboot

예 6-1 영역 클러스터를 만드는 구성 파일

다음 예에서는 clzonecluster 유틸리티에서 영역 클러스터를 만드는 데 사용할 수 있는 명령 파일의 내용을 보여 줍니다. 파일에는 수동으로 입력하는 일련의 clzonecluster 명령이 포함되어 있습니다.

다음 구성에서는 영역 클러스터 sczone을 전역 클러스터 노드 phys-schost-1에 만듭니다. 영역 클러스터는 영역 경로로 /zones/sczone을 사용하고 공용 IP 주소 172.16.2.2를 사용합니다. 영역 클러스터의 첫번째 노드에는 호스트 이름 zc-host-1이 지정되며 네트워크 주소 172.16.0.1net0 어댑터를 사용합니다. 영역 클러스터의 두번째 노드는 전역 클러스터 노드 phys-schost-2에 만들어집니다. 이 두번째 영역 클러스터 노드에는 호스트 이름 zc-host-2가 지정되며 네트워크 주소 172.16.0.2net1 어댑터를 사용합니다.

create
set zonepath=/zones/sczone
add net
set address=172.16.2.2
end
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=net0
end
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=net1
end
end
commit
exit

예 6-2 구성 파일을 사용하여 영역 클러스터 만들기

다음 예에서는 구성 파일 sczone-config를 사용하여 전역 클러스터 노드 phys-schost-1에 새 영역 클러스터 sczone을 만드는 명령을 보여 줍니다. 영역 클러스터 노드의 호스트 이름은 zc-host-1zc-host-2입니다.

phys-schost-1# clzonecluster configure -f sczone-config sczone
phys-schost-1# clzonecluster verify sczone
phys-schost-1# clzonecluster install sczone
Waiting for zone install commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster boot sczone
Waiting for zone boot commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster status sczone
=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name        Zone HostName    Status    Zone Status
----      ---------        -------------    ------    -----------
sczone    phys-schost-1    zc-host-1        Offline   Running
          phys-schost-2    zc-host-2        Offline   Running

다음 순서

영역 클러스터에 파일 시스템 사용을 추가하려면 영역 클러스터에 파일 시스템 추가로 이동합니다.

영역 클러스터에 전역 저장 장치 사용을 추가하려면 영역 클러스터에 저장 장치 추가로 이동합니다.

참조

영역 클러스터를 업데이트하려면 Oracle Solaris Cluster 시스템 관리 설명서의 11 장, 소프트웨어 업데이트의 절차를 따릅니다. 이러한 절차에는 필요한 경우 영역 클러스터에 대한 특정 지침이 포함되어 있습니다.

영역 클러스터에 파일 시스템 추가

파일 시스템을 영역 클러스터에 추가하고 온라인 상태로 전환하면 해당 영역 클러스터 내에서 사용할 수 있도록 파일 시스템이 인증됩니다. 사용할 파일 시스템을 마운트하려면 SUNW.HAStoragePlus 또는 SUNW.ScalMountPoint와 같은 클러스터 자원을 사용하여 파일 시스템을 구성하십시오.

이 절에서는 영역 클러스터에서 사용할 파일 시스템을 추가하는 절차를 제공합니다.

또한 영역 클러스터에서 고가용성을 제공하도록 ZFS 저장소 풀을 구성하려면 Oracle Solaris Cluster Data Services Planning and Administration Guide의 How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS File System Highly Available을 참조하십시오.

영역 클러스터에 로컬 파일 시스템을 추가하는 방법

영역 클러스터에서 사용할 전역 클러스터의 로컬 파일 시스템을 추가하려면 이 절차를 수행합니다.


주 - 영역 클러스터에 ZFS 풀을 추가하려면 영역 클러스터에 ZFS 저장소 풀을 추가하는 방법의 절차를 대신 수행합니다.

또는 영역 클러스터에서 고가용성을 제공하도록 ZFS 저장소 풀을 구성하려면 Oracle Solaris Cluster Data Services Planning and Administration Guide의 How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS File System Highly Available을 참조하십시오.


  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    전역 클러스터의 한 노드에서 절차의 모든 단계를 수행합니다.

  2. 전역 클러스터에서, 영역 클러스터에서 사용할 파일 시스템을 만듭니다.

    파일 시스템이 공유 디스크에 만들어지는지 확인합니다.

  3. 영역 클러스터 구성에 파일 시스템을 추가합니다.
    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add fs
    clzc:zone-cluster-name:fs> set dir=mount-point
    clzc:zone-cluster-name:fs> set special=disk-device-name
    clzc:zone-cluster-name:fs> set raw=raw-disk-device-name
    clzc:zone-cluster-name:fs> set type=FS-type
    clzc:zone-cluster-name:fs> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    dir=mount-point

    파일 시스템 마운트 지점을 지정합니다.

    special=disk-device-name

    디스크 장치의 이름을 지정합니다.

    raw=raw-disk-device-name

    원시 디스크 장치의 이름을 지정합니다.

    type=FS-type

    파일 시스템 유형을 지정합니다.


    주 - UFS 파일 시스템에 대한 로깅을 활성화합니다.


  4. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zone-cluster-name

예 6-3 영역 클러스터에 로컬 파일 시스템 추가

이 예에서는 로컬 파일 시스템 /global/oracle/d1sczone 영역 클러스터에서 사용하도록 추가합니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

다음 순서

HAStoragePlus 자원을 사용하여 파일 시스템이 고가용성을 제공하도록 구성합니다. HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.

영역 클러스터에 ZFS 저장소 풀을 추가하는 방법


주 - 영역 클러스터에서 고가용성을 제공하도록 ZFS 저장소 풀을 구성하려면 Oracle Solaris Cluster Data Services Planning and Administration Guide의 How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS File System Highly Available을 참조하십시오.


  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    전역 영역의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 전역 클러스터에 ZFS 저장소 풀을 만듭니다.

    풀이 영역 클러스터의 모든 노드에 연결된 공유 디스크에서 연결되어 있는지 확인합니다.

    ZFS 풀을 만드는 절차는 Oracle Solaris 관리: ZFS 파일 시스템를 참조하십시오.

  3. 영역 클러스터 구성에 풀을 추가합니다.
    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add dataset
    clzc:zone-cluster-name:dataset> set name=ZFSpoolname
    clzc:zone-cluster-name:dataset> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
  4. 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zone-cluster-name

예 6-4 영역 클러스터에 ZFS 저장소 풀 추가

다음 예에서는 영역 클러스터 sczone에 추가된 ZFS 저장소 풀 zpool1을 보여 줍니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

다음 순서

HAStoragePlus 자원을 사용하여 고가용성을 제공하도록 ZFS 저장소 풀을 구성합니다. HAStoragePlus 자원은 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드의 풀에 있는 파일 시스템의 마운트를 관리합니다. Oracle Solaris Cluster Data Services Planning and Administration Guide의 Enabling Highly Available Local File Systems를 참조하십시오.

영역 클러스터에 클러스터 파일 시스템을 추가하는 방법

  1. 영역 클러스터를 호스트하는 전역 클러스터의 투표 노드에서 수퍼유저로 전환합니다.

    전역 클러스터의 투표 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 전역 클러스터에서, 영역 클러스터에서 사용할 클러스터 파일 시스템을 구성합니다.
  3. 영역 클러스터 노드를 호스트하는 전역 클러스터의 각 노드에서 /etc/vfstab 파일에 영역 클러스터에서 마운트할 파일 시스템에 대한 항목을 추가합니다.
    phys-schost# vi /etc/vfstab
    …
    /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
  4. 클러스터 파일 시스템을 영역 클러스터에 대한 루프백 파일 시스템으로 구성합니다.
    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add fs
    clzc:zone-cluster-name:fs> set dir=zone-cluster-lofs-mountpoint
    clzc:zone-cluster-name:fs> set special=global-cluster-mount-point
    clzc:zone-cluster-name:fs> set type=lofs
    clzc:zone-cluster-name:fs> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    dir=zone-cluster-lofs-mount-point

    LOFS에 대한 파일 시스템 마운트 지점을 지정하여 영역 클러스터에서 클러스터 파일 시스템을 사용할 수 있도록 합니다.

    special=global-cluster-mount-point

    전역 클러스터에서 원래 클러스터 파일 시스템의 파일 시스템 마운트 지점을 지정합니다.

    루프백 파일 시스템 만들기에 대한 자세한 내용은 Oracle Solaris 관리: 장치 및 파일 시스템의 LOFS 파일 시스템을 만들고 마운트하는 방법을 참조하십시오.

  5. LOFS 파일 시스템 추가를 확인합니다.
    phys-schost# clzonecluster show -v zone-cluster-name

예 6-5 영역 클러스터에 클러스터 파일 시스템 추가

다음 예에서는 마운트 지점 /global/apache를 사용하여 영역 클러스터에 클러스터 파일 시스템을 추가하는 방법을 보여 줍니다. 파일 시스템은 마운트 지점 /zone/apache에서 루프백 마운트 방식을 사용하는 영역 클러스터에서 사용할 수 있습니다.

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging

phys-schost-1# clzonecluster configure zone-cluster-name
clzc:zone-cluster-name> add fs
clzc:zone-cluster-name:fs> set dir=/zone/apache
clzc:zone-cluster-name:fs> set special=/global/apache
clzc:zone-cluster-name:fs> set type=lofs
clzc:zone-cluster-name:fs> end
clzc:zone-cluster-name> verify
clzc:zone-cluster-name> commit
clzc:zone-cluster-name> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /zone/apache
    special:                                   /global/apache
    raw:                                       
    type:                                      lofs
    options:                                   []
    cluster-control:                           true
…

다음 순서

HAStoragePlus 자원을 사용하여 영역 클러스터에서 사용 가능하도록 클러스터 파일 시스템을 구성합니다. HAStoragePlus 자원은 전역 클러스터에서 파일 시스템의 마운트를 관리하고, 나중에 파일 시스템을 사용하도록 구성된 응용 프로그램을 현재 호스트하는 영역 클러스터 노드에서 루프백 마운트를 수행합니다. 자세한 내용은 Oracle Solaris Cluster Data Services Planning and Administration Guide의 Configuring an HAStoragePlus Resource for Cluster File Systems을 참조하십시오.

영역 클러스터에 저장 장치 추가

이 절에서는 영역 클러스터에서 직접 사용할 수 있도록 전역 저장 장치를 추가하는 방법에 대해 설명합니다. 전역 장치는 클러스터에 있는 둘 이상의 노드에서 한 번에 한 노드씩 또는 동시에 여러 노드에서 액세스할 수 있는 장치입니다.


주 - 원시 디스크 장치(cNtXd YsZ)를 영역 클러스터 노드로 가져오려면 일반적으로 비전역 영역의 다른 브랜드에서처럼 zonecfg 명령을 사용합니다.

이러한 장치는 clzonecluster 명령으로 제어되지 않으며 노드의 로컬 장치처럼 처리됩니다. 원시 디스크 장치를 비전역 영역으로 가져오는 방법은 Oracle Solaris 관리: Oracle Solaris Zones, Oracle Solaris 10 Zones 및 리소스 관리의 실행 중인 비전역 영역에서 파일 시스템 마운트를 참조하십시오.


영역 클러스터에 장치를 추가하면 해당 영역 클러스터 내에서만 장치가 표시됩니다.

이 절에서는 다음 절차에 대해 설명합니다.

영역 클러스터에 개별 메타 장치를 추가하는 방법(Solaris Volume Manager)

Solaris Volume Manager 디스크 세트의 개별 메타 장치를 영역 클러스터에 추가하려면 이 절차를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 영역 클러스터에 추가할 메타 장치가 포함된 디스크 세트를 식별하고 온라인 상태인지 확인합니다.
    phys-schost# cldevicegroup status
  3. 추가할 디스크 세트가 온라인 상태가 아닌 경우 온라인 상태로 전환합니다.
    phys-schost# cldevicegroup online diskset
  4. 추가할 디스크 세트에 해당하는 세트 번호를 확인합니다.
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/set-number 
  5. 영역 클러스터에서 사용할 메타 장치를 추가합니다.

    set match= 항목에 대해 별도의 add device 세션을 사용해야 합니다.


    주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add device
    clzc:zone-cluster-name:device> set match=/dev/md/diskset/*dsk/metadevice
    clzc:zone-cluster-name:device> end
    clzc:zone-cluster-name> add device
    clzc:zone-cluster-name:device> set match=/dev/md/shared/setnumber/*dsk/metadevice
    clzc:zone-cluster-name:device> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/md/diskset /*dsk/metadevice

    메타 장치의 전체 논리 장치 경로를 지정합니다.

    match=/dev/md/shared/N /*dsk/metadevice

    디스크 세트 번호의 전체 물리적 장치 경로를 지정합니다.

  6. 영역 클러스터를 재부트합니다.

    변경 사항은 영역 클러스터가 재부트된 후에 적용됩니다.

    phys-schost# clzonecluster reboot zone-cluster-name

예 6-6 영역 클러스터에 메타 장치 추가

다음 예에서는 디스크 세트 oraset의 메타 장치 d1sczone 영역 클러스터에 추가합니다. 디스크 세트의 세트 번호는 3입니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

영역 클러스터에 디스크 세트를 추가하는 방법(Solaris Volume Manager)

영역 클러스터에 전체 Solaris Volume Manager 디스크 세트를 추가하려면 이 절차를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 영역 클러스터에 추가할 디스크 세트를 식별하고 온라인 상태인지 확인합니다.
    phys-schost# cldevicegroup status
  3. 추가할 디스크 세트가 온라인 상태가 아닌 경우 온라인 상태로 전환합니다.
    phys-schost# cldevicegroup online diskset
  4. 추가할 디스크 세트에 해당하는 세트 번호를 확인합니다.
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/set-number 
  5. 영역 클러스터에서 사용할 디스크 세트를 추가합니다.

    set match= 항목에 대해 별도의 add device 세션을 사용해야 합니다.


    주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add device
    clzc:zone-cluster-name:device> set match=/dev/md/diskset/*dsk/*
    clzc:zone-cluster-name:device> end
    clzc:zone-cluster-name> add device
    clzc:zone-cluster-name:device> set match=/dev/md/shared/set-number/*dsk/*
    clzc:zone-cluster-name:device> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/md/diskset /*dsk/*

    디스크 세트의 전체 논리 장치 경로를 지정합니다.

    match=/dev/md/shared/N /*dsk/*

    디스크 세트 번호의 전체 물리적 장치 경로를 지정합니다.

  6. 영역 클러스터를 재부트합니다.

    변경 사항은 영역 클러스터가 재부트된 후에 적용됩니다.

    phys-schost# clzonecluster reboot zone-cluster-name

예 6-7 영역 클러스터에 디스크 세트 추가

다음 예에서는 디스크 세트 orasetsczone 영역 클러스터에 추가합니다. 디스크 세트의 세트 번호는 3입니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/*
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

영역 클러스터에 DID 장치를 추가하는 방법

영역 클러스터에 DID 장치를 추가하려면 이 절차를 수행합니다.

  1. 영역 클러스터를 호스트하는 전역 클러스터의 한 노드에서 수퍼유저로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 영역 클러스터에 추가할 DID 장치를 식별합니다.

    추가하는 장치는 영역 클러스터의 모든 노드에 연결되어야 합니다.

    phys-schost# cldevice list -v
  3. 영역 클러스터에서 사용할 DID 장치를 추가합니다.

    주 - 별표(*)는 경로 이름에서 와일드카드 문자로 사용됩니다.


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add device
    clzc:zone-cluster-name:device> set match=/dev/did/*dsk/dNs*
    clzc:zone-cluster-name:device> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/did/*dsk/dNs*

    DID 장치의 전체 장치 경로를 지정합니다.

  4. 영역 클러스터를 재부트합니다.

    변경 사항은 영역 클러스터가 재부트된 후에 적용됩니다.

    phys-schost# clzonecluster reboot zone-cluster-name

예 6-8 영역 클러스터에 DID 장치 추가

다음 예에서는 DID 장치 d10sczone 영역 클러스터에 추가합니다.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/did/*dsk/d10s*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone