Solaris OS용 Sun Cluster 소프트웨어 설치 안내서

5장 VERITAS Volume Manager 설치 및 구성

이 장의 절차와 볼륨 관리 계획의 계획 정보에 따라 VERITAS Volume Manager(VxVM)의 로컬 및 다중 호스트 디스크를 설치하고 구성합니다. 자세한 내용은 VxVM 문서를 참조하십시오.

이 장은 다음 절로 구성됩니다.

VxVM 소프트웨어 설치 및 구성

이 절에서는 Sun Cluster 구성에 VxVM 소프트웨어를 설치 및 구성하는 절차와 정보를 제공합니다.

다음 표에는 Sun Cluster 구성에 필요한 VxVM 소프트웨어를 설치하고 구성하기 위해 수행할 작업 목록이 들어 있습니다.

표 5–1 작업 맵: VxVM 소프트웨어 설치 및 구성

작업 

지침 

1. VxVM 구성 레이아웃 계획 

볼륨 관리 계획

2. (선택 사항) 각 노드에 루트 디스크 그룹을 만드는 방법을 결정합니다.

루트 디스크 그룹 설정 개요

3. VxVM 소프트웨어를 설치합니다. 

VERITAS Volume Manager 소프트웨어를 설치하는 방법

VxVM 설치 설명서 

4. (선택 사항) 루트 디스크 그룹을 만듭니다. 루트 디스크를 캡슐화하거나 루트가 아닌 로컬 디스크에 루트 디스크 그룹을 만들 수 있습니다.

SPARC: 루트 디스크를 캡슐화하는 방법

루트가 아닌 디스크에 루트 디스크 그룹을 만드는 방법

5. (선택 사항) 캡슐화된 루트 디스크를 미러링합니다.

캡슐화된 루트 디스크를 미러링하는 방법

6. 디스크 그룹을 만듭니다. 

클러스터에서 디스크 그룹 만들기

루트 디스크 그룹 설정 개요

루트 디스크 그룹을 만드는 것은 선택 사항입니다. 루트 디스크 그룹을 만들지 않으려면 VERITAS Volume Manager 소프트웨어를 설치하는 방법으로 진행합니다.

Sun Cluster 소프트웨어에서는 루트 디스크 그룹을 구성하기 위한 다음 방법을 지원합니다.

자세한 내용은 VxVM 설치 설명서를 참조하십시오.

ProcedureVERITAS Volume Manager 소프트웨어를 설치하는 방법

VxVM을 설치하려는 각 노드에서 VERITAS Volume Manager(VxVM) 소프트웨어를 설치하려면 이 절차를 수행합니다. 클러스터의 모든 노드에 VxVM을 설치하거나 VxVM을 관리할 저장 장치에 물리적으로 연결된 노드에만 VxVM을 설치할 수도 있습니다.

시작하기 전에

다음 작업을 수행합니다.

  1. VxVM을 설치할 클러스터 노드에서 수퍼유저로 전환합니다.

  2. VxVM CD-ROM을 노드의 CD-ROM 드라이브에 넣습니다.

  3. VxVM 설치 안내의 절차에 따라 VxVM 소프트웨어 및 라이센스를 설치 및 구성합니다.

  4. 비대화식 모드에서 clvxvm 유틸리티를 실행합니다.


    phys-schost# clvxvm initialize
    

    clvxvm 유틸리티는 필요한 사후 설치 작업을 수행합니다. clvxvm 유틸리티는 클러스터 전체의 vxio 드라이버 주 번호도 선택 및 구성합니다. 자세한 내용은 clvxvm(1CL) 매뉴얼 페이지를 참조하십시오.

  5. SPARC: 아직 VxVM 클러스터 기능을 활성화하지 않은 경우, 클러스터 기능 라이센스 키를 제공하여 활성화합니다.

    사용권을 추가하는 방법은 VxVM 문서를 참조하십시오.

  6. (옵션) VxVM GUI를 설치합니다.

    VxVM GUI 설치에 대한 자세한 내용은 VxVM 설명서를 참조하십시오.

  7. CD-ROM을 빼십시오.

  8. Sun Cluster 소프트웨어를 지원하기 위한 VxVM 패치를 모두 설치합니다.

    패치 위치 및 설치 지침은 Sun Cluster 3.2 2/08 Release Notes for Solaris OSPatches and Required Firmware Levels를 참조하십시오.

  9. 단계 1 ~ 단계 8을 반복하여 모든 추가 노드에 VxVM을 설치합니다


    주 –

    SPARC: VxVM 클러스터 기능을 활성화하려면 클러스터의 모든 노드에서 VxVM를 반드시 설치해야 합니다.


  10. VxVM과 함께 하나 이상의 노드를 설치하지 않는 경우에는 VxVM이 아닌 각 노드에서 /etc/name_to_major 파일을 수정하십시오.

    1. VxVM이 설치된 노드에서 vxio 주 번호 설정을 확인하십시오.


      phys-schost# grep vxio /etc/name_to_major
      
    2. VxVM을 설치하지 않을 노드에서 수퍼유저로 전환합니다.

    3. /etc/name_to_major 파일을 편집하고 항목을 추가하여 vxio 주 번호를 단계 a에서 파생된 번호 NNN으로 설정합니다.


      phys-schost# vi /etc/name_to_major
      vxio NNN
      
    4. vxio 항목을 초기화하십시오.


      phys-schost# drvconfig -b -i vxio -m NNN
      
    5. VxVM을 설치하지 않으려는 나머지 모든 노드에서 단계 a ~ 단계 d를 반복합니다.

      완료되면 클러스터의 각 노드에 있는 /etc/name_to_major 파일에 동일한 vxio 항목이 있어야 합니다.

  11. 루트 디스크 그룹을 만들려면 SPARC: 루트 디스크를 캡슐화하는 방법 또는 루트가 아닌 디스크에 루트 디스크 그룹을 만드는 방법으로 이동합니다.

    만들지 않으려면 단계 12로 이동합니다.


    주 –

    루트 디스크 그룹은 선택 사항입니다.


  12. VxVM을 설치한 각 노드를 재부트합니다.


    phys-schost# shutdown -g0 -y -i6
    
다음 순서

루트 디스크 그룹을 만들려면 SPARC: 루트 디스크를 캡슐화하는 방법 또는 루트가 아닌 디스크에 루트 디스크 그룹을 만드는 방법으로 이동합니다.

그렇지 않으면 디스크 그룹을 만듭니다. 클러스터에서 디스크 그룹 만들기로 이동합니다.

ProcedureSPARC: 루트 디스크를 캡슐화하는 방법

루트 디스크를 캡슐화하여 루트 디스크 그룹을 만들려면 이 절차를 수행합니다. 루트 디스크 그룹은 선택 사항입니다. 자세한 내용은 VxVM 설명서를 참조하십시오.


주 –

루트가 아닌 디스크에서 루트 디스크 그룹을 만들려면 루트가 아닌 디스크에 루트 디스크 그룹을 만드는 방법의 절차를 대신 수행합니다.


시작하기 전에

VERITAS Volume Manager 소프트웨어를 설치하는 방법에서 설명한 대로 VxVM이 설치되었는지 확인합니다.

  1. VxVM을 설치한 노드에서 수퍼유저로 전환합니다.

  2. 루트 디스크를 캡슐화합니다.


    phys-schost# clvxvm encapsulate
    

    자세한 내용은 clvxvm(1CL) 매뉴얼 페이지를 참조하십시오.

  3. VxVM을 설치한 그 밖의 모든 노드에서 반복합니다.

다음 순서

캡슐화된 루트 디스크를 미러링하려면 캡슐화된 루트 디스크를 미러링하는 방법으로 이동합니다.

그렇지 않으면 클러스터에서 디스크 그룹 만들기로 이동합니다.

Procedure루트가 아닌 디스크에 루트 디스크 그룹을 만드는 방법

이 절차를 사용하여 루트 디스크가 아닌 로컬 디스크를 캡슐화하거나 초기화하여 루트 디스크 그룹을 만듭니다. 루트 디스크 그룹을 만드는 것은 선택 사항입니다.


주 –

루트 디스크에서 루트 디스크 그룹을 만들려면 SPARC: 루트 디스크를 캡슐화하는 방법의 절차를 대신 수행합니다.


시작하기 전에

디스크를 캡슐화하려면 각 디스크에 실린더가 0인 슬라이스가 두 개 이상 있어야 합니다. 필요한 경우 format(1M) 명령을 사용하여 각 VxVM 슬라이스에 0 실린더를 할당합니다.

  1. 수퍼유저가 되도록 합니다.

  2. vxinstall 유틸리티를 시작합니다.


    phys-schost# vxinstall
    
  3. vxinstall 유틸리티에 프롬프트가 표시되면 다음을 선택하거나 입력합니다.

    • SPARC: VxVM 클러스터 기능을 활성화하려면 클러스터 기능 라이센스 키를 제공합니다.

    • Custom Installation을 선택하십시오.

    • 부트 디스크를 캡슐화하지 마십시오.

    • 루트 디스크 그룹에 추가할 디스크를 선택하십시오.

    • 자동으로 재부트하지 마십시오.

  4. 만든 루트 디스크 그룹에 두 개 이상의 노드에 연결된 하나 이상의 디스크가 있는 경우에는 localonly 등록 정보를 활성화하십시오.

    루트 디스크 그룹의 각 공유 디스크에 대한 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하려면 다음 명령을 사용하십시오.


    phys-schost# cldevicegroup set -p localonly=true dsk/dN
    
    -p

    장치 그룹의 등록 정보를 지정합니다.

    localonly=true

    장치 그룹이 노드 목록에 있는 단일 노드에 의해서만 마스터되도록 설정합니다.

    localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 이렇게 사용하면 해당 디스크가 여러 노드에 연결된 경우 루트 디스크 그룹이 사용하는 장치에서 노드에 액세스하지 못하는 문제를 방지할 수 있습니다.

    localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 매뉴얼 페이지를 참조하십시오.

  5. 노드에서 모든 자원 그룹 또는 장치 그룹을 이동합니다.


    phys-schost# clnode evacuate from-node
    
    from-node

    자원 또는 장치 그룹을 이동할 노드의 이름을 지정합니다.

  6. 노드를 재부트합니다.


    phys-schost# shutdown -g0 -y -i6
    
  7. vxdiskadm 명령을 사용하여 여러 디스크를 루트 디스크 그룹에 추가합니다.

    루트 디스크 그룹에 여러 디스크를 포함하면 디스크 하나에 장애가 발생해도 계속 작동합니다. 자세한 절차는 VxVM 설명서를 참조하십시오.

다음 순서

디스크 그룹을 만드십시오. 클러스터에서 디스크 그룹 만들기로 이동합니다.

Procedure캡슐화된 루트 디스크를 미러링하는 방법

VxVM을 설치하고 루트 디스크를 캡슐화한 후 캡슐화된 루트 디스크를 미러링하는 각 노드에서 이 절차를 수행합니다.

시작하기 전에

SPARC: 루트 디스크를 캡슐화하는 방법에서 설명한 대로 루트 디스크를 캡슐화했는지 확인합니다.

  1. 수퍼유저가 되도록 합니다.

  2. 장치를 나열합니다.


    phys-schost# cldevice list -v
    

    다음과 같이 출력됩니다.


    DID Device          Full Device Path
    ----------          ----------------
    d1                  phys-schost-1:/dev/rdsk/c0t0d0
    d2                  phys-schost-1:/dev/rdsk/c0t6d0
    d3                  phys-schost-2:/dev/rdsk/c1t1d0
    d3                  phys-schost-1:/dev/rdsk/c1t1d0
  3. 캡슐화된 루트 디스크를 미러링하십시오.

    VxVM 설명서의 절차를 수행합니다.

    가용성을 높이고 쉽게 관리하려면 로컬 디스크를 사용하여 미러링하십시오. 자세한 내용은 루트 디스크 미러링을 위한 지침을 참조하십시오.


    Caution – Caution –

    루트 디스크 미러에 쿼럼 장치를 사용하지 마십시오. 쿼럼 장치를 사용하여 루트 디스크를 미러링하면 특정 환경의 루트 디스크 미러에서 노드가 부트되지 않을 수 있습니다.


  4. 루트 디스크를 미러링하는 데 사용한 장치에 대한 원시 디스크 장치 그룹의 노드 목록을 봅니다.

    장치 그룹의 이름은 dsk/dN과 같은 형태이며 여기서 dN은 DID 장치 이름입니다.


    phys-schost# cldevicegroup list -v dsk/dN
    
    -v

    출력 내용을 상세히 표시합니다.

    다음과 같이 출력됩니다.


    Device group        Type                Node list
    ------------        ----                ---------
    dsk/dN              Local_Disk          phys-schost-1, phys-schost-3
  5. 노드 목록에 두 개 이상의 노드 이름이 포함된 경우에는 사용자가 미러링한 루트 디스크가 있는 노드를 제외한 모든 노드를 노드 목록에서 제거합니다.

    루트 디스크를 미러링하는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.


    phys-schost# cldevicegroup remove-node -n node dsk/dN
    
    -n node

    장치 그룹의 노드 목록에서 제거할 노드를 지정합니다.

  6. 원시 디스크 장치 그룹에서 localonly 등록 정보가 활성화되어 있지 않다면 이 등록 정보를 활성화합니다.

    localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 다중 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.


    phys-schost# cldevicegroup set -p localonly=true dsk/dN
    
    -p

    장치 그룹의 등록 정보 값을 설정합니다.

    localonly=true

    장치 그룹의 localonly 등록 정보를 활성화합니다.

    localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 매뉴얼 페이지를 참조하십시오.

  7. 클러스터에서 캡슐화된 루트 디스크를 미러링할 각 노드에 대하여 이 절차를 반복하십시오.


예 5–1 캡슐화된 루트 디스크 미러링

다음 예에서는 phys-schost-1노드의 루트 디스크로 미러를 만듭니다. 원시 디스크 장치 그룹의 이름이 dsk/d2c0t0d0 디스크에 미러가 만들어집니다. c1t1d0 디스크는 다중 호스트 디스크이므로 phys-schost-3 노드가 디스크의 노드 목록에서 제거되고 localonly 등록 정보가 활성화됩니다.


phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
d2                  pcircinus1:/dev/rdsk/c0t0d0
…
Create the mirror by using VxVM procedures
phys-schost# cldevicegroup  list -v dsk/d2
Device group        Type                Node list
------------        ----                ---------
dsk/d2              Local_Disk          phys-schost-1, phys-schost-3
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly=true dsk/d2

다음 순서

디스크 그룹을 만드십시오. 클러스터에서 디스크 그룹 만들기로 이동합니다.

클러스터에서 디스크 그룹 만들기

이 절에서는 클러스터에서 VxVM 디스크 그룹을 만드는 방법을 설명합니다. 다음 표는 Sun Cluster 구성에 구성할 수 있는 VxVM 디스크 그룹의 유형과 특징을 설명합니다.

디스크 그룹 유형 

사용 

Sun Cluster에 등록 여부 

저장소 요구 사항 

VxVM 디스크 그룹 

페일오버 또는 확장 가능 데이터 서비스, 전역 장치 또는 클러스터 파일 시스템용 장치 그룹 

예 

공유 저장 장치 

로컬 VxVM 디스크 그룹 

가용성이 높지 않고 단일 노드에 한정된 응용 프로그램 

아니요 

공유 및 비공유 저장소 

VxVM 공유 디스크 그룹 

Oracle RAC(VxVM 클러스터 기능도 필요함) 

아니요 

공유 저장 장치 

다음 표는 VxVM 디스크 그룹을 Sun Cluster 구성으로 만들기 위해 수행해야 할 작업의 목록입니다.

표 5–2 작업 맵: VxVM 디스크 그룹 만들기

작업 

지침 

1. 디스크 그룹 및 볼륨을 만듭니다. 

디스크 그룹을 만드는 방법

2. 디스크 그룹이 로컬이 아니고 VxVM 클러스터 기능을 사용하지 않는 Sun Cluster 장치 그룹으로 등록합니다. 

디스크 그룹을 등록하는 방법

3. 필요한 경우 새로운 부 번호를 할당하여 디스크 장치 그룹 간의 부 번호 충돌을 해결합니다. 

장치 그룹에 새 부 번호를 할당하는 방법

4. 디스크 그룹과 볼륨을 확인합니다. 

디스크 그룹 구성을 확인하는 방법

Procedure디스크 그룹을 만드는 방법

VxVM 디스크 그룹 및 볼륨을 만들려면 이 절차를 사용하십시오.

추가하는 디스크 그룹을 구성하는 디스크에 물리적으로 연결되어 있는 노드에서 이 절차를 수행하십시오.

시작하기 전에

다음 작업을 수행합니다.

  1. 디스크 그룹을 소유할 노드에서 수퍼유저로 전환합니다.

  2. VxVM 디스크 그룹 및 볼륨을 만듭니다.

    다음 특별 지침을 따르십시오.


    주 –

    노드가 실패할 경우 더티 영역 로깅(Dirty Region Logging, DRL)을 사용하여 볼륨 복구 시간을 단축할 수 있습니다. 그러나 DRL을 사용하면 I/O 처리량이 줄어들 수 있습니다.


  3. 로컬 디스크 그룹에 대해 localonly 등록 정보를 설정하고 디스크 그룹의 노드 목록에 단일 노드를 추가합니다.


    주 –

    로컬 전용으로 구성된 디스크 그룹은 가용성이 높지 않거나 전역으로 액세스할 수 없습니다.


    1. clsetup 유틸리티를 시작합니다.


      phys-schost# clsetup
      
    2. 메뉴 항목에서 장치 그룹 및 볼륨을 선택합니다.

    3. VxVM 디스크 그룹에 대해 localonly로 설정하는 메뉴를 선택합니다.

    4. 지침을 따라 localonly 등록 정보를 설정하고 디스크 그룹을 독점적으로 마스터할 단일 노드를 지정합니다.

      한 번에 하나의 노드만 디스크 그룹을 마스터하도록 허용됩니다. 구성된 마스터 노드는 나중에 변경할 수 있습니다.

    5. 구성이 완료되면 clsetup 유틸리티를 종료합니다.

다음 순서

다음 단계 결정:

Procedure디스크 그룹을 등록하는 방법

VxVM 클러스터 기능이 활성화되지 않은 경우, 이 절차를 수행하여 로컬이 아닌 디스크 그룹을 Sun Cluster 장치 그룹으로 등록합니다.


주 –

SPARC: VxVM 클러스터 기능이 활성화되어 있거나 로컬 디스크 그룹을 만든 경우 이 절차를 수행하지 마십시오. 대신 디스크 그룹 구성을 확인하는 방법으로 이동합니다.


  1. 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. 전역 디스크 그룹을 Sun Cluster 장치 그룹으로 등록합니다.

    1. clsetup 유틸리티를 시작합니다.


      phys-schost# clsetup
      
    2. 메뉴 항목에서 장치 그룹 및 볼륨을 선택합니다.

    3. 메뉴 항목에서 VxVM 디스크 그룹 등록을 선택합니다.

    4. 화면의 지시에 따라 Sun Cluster 장치 그룹으로 등록할 VxVM 디스크 장치 그룹을 지정합니다.

    5. 구성이 완료되면 clsetup 유틸리티를 종료합니다.

    6. 각 로컬 디스크 그룹을 내보내고 다시 가져옵니다.


      phys-schost# vxdg deport diskgroup
      # vxdg import dg
      
    7. 각 로컬 디스크 그룹을 다시 시작합니다.


      phys-schost# vxvol -g diskgroup startall
      
    8. 각 로컬 디스크 그룹의 로컬 전용 상태를 확인합니다.

      디스크 그룹의 flags 등록 정보 값이 nogdl인 경우 디스크 그룹은 로컬 전용 액세스용으로 올바르게 구성된 것입니다.


      phys-schost# vxdg list diskgroup | grep flags
      flags: nogdl
  3. 장치 그룹이 등록되는지 확인합니다.

    다음 명령을 실행하여 새 디스크에 대한 디스크 장치 정보가 표시되는지 확인하십시오.


    phys-schost# cldevicegroup status
    
다음 순서

디스크 그룹 구성을 확인하는 방법으로 이동합니다.

일반 오류

스택 오버플로우 – 장치 그룹을 온라인으로 전환할 때 스택 오버플로우가 발생하면 기본 스레드 스택 크기 값이 충분하지 않을 수 있습니다. 각 노드에서 set cl_haci:rm_thread_stacksize=0xsize 항목을 /etc/system 파일에 추가합니다. 여기서 size는 기본 설정인 8000보다 큰 수입니다.

구성 변경 사항 – VxVM 장치 그룹 또는 해당 볼륨의 구성 정보를 변경할 경우, clsetup 유틸리티를 사용하여 구성 변경 사항을 등록해야 합니다. 등록해야 하는 구성 변경에는 볼륨 추가/제거 및 기존 볼륨의 그룹, 소유자 또는 권한 변경이 포함됩니다. VxVM 장치 그룹의 구성 변경 사항을 등록하는 절차는 Solaris OS용 Sun Cluster 시스템 관리 안내서장치 그룹 관리를 참조하십시오.

Procedure장치 그룹에 새 부 번호를 할당하는 방법

다른 디스크 그룹과 부 번호가 충돌하여 장치 그룹이 등록되지 않으면 사용하지 않는 새 부 번호를 새 디스크 그룹에 할당해야 합니다. 이 절차를 수행하여 디스크 그룹의 부 번호를 변경하십시오.

  1. 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. 사용하는 부 번호를 확인하십시오.


    phys-schost# ls -l /global/.devices/node@1/dev/vx/dsk/*
    
  3. 사용하지 않은 다른 1000의 배수를 새로운 디스크 그룹의 기본 부 번호로 선택하십시오.

  4. 디스크 그룹에 새 기본 부 번호를 할당하십시오.


    phys-schost# vxdg reminor diskgroup base-minor-number
    

예 5–2 장치 그룹에 새 부 번호를 할당하는 방법

이 예에서는 16000-16002 및 4000-4001의 부 번호를 사용합니다. vxdg reminor 명령은 기본 부 번호 5000을 사용하도록 새 장치 그룹의 부 번호를 변경합니다.


phys-schost# ls -l /global/.devices/node@1/dev/vx/dsk/*
/global/.devices/node@1/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@1/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
phys-schost# vxdg reminor dg3 5000

다음 순서

디스크 그룹을 Sun Cluster 장치 그룹으로 등록합니다. 디스크 그룹을 등록하는 방법으로 이동합니다.

Procedure디스크 그룹 구성을 확인하는 방법

클러스터의 각 노드에 대해 이 절차를 수행합니다.

  1. 수퍼유저가 되도록 합니다.

  2. 디스크 그룹을 나열합니다.


    phys-schost# vxdisk list
    
  3. 장치 그룹을 나열합니다.


    phys-schost# cldevicegroup list -v
    
  4. 모든 디스크 그룹이 제대로 구성되었는지 확인합니다.

    다음 요구사항을 만족하는지 확인합니다.

    • 루트 디스크 그룹에는 로컬 디스크만 포함됩니다.

    • 모든 디스크 그룹 및 로컬 디스크 그룹은 현재의 기본 노드로만 가져올 수 있습니다.

  5. 모든 볼륨이 시작되었는지 확인하십시오.


    phys-schost# vxprint
    
  6. 모든 디스크 그룹이 Sun Cluster 장치 그룹으로 등록되었고 온라인 상태인지 확인합니다.


    phys-schost# cldevicegroup status
    

    결과에 로컬 디스크 그룹이 표시되면 안 됩니다.

  7. (옵션) 참고를 위한 디스크 분할 정보를 캡쳐합니다.


    phys-schost# prtvtoc /dev/rdsk/cNtXdYsZ > filename
    

    클러스터의 외부에 파일을 저장합니다. 디스크 구성을 변경하는 경우 변경된 구성을 캡쳐하려면 이 명령을 다시 실행합니다. 디스크가 실패하여 교체해야 하는 경우 이 정보를 사용하여 디스크 분할 영역 구성을 복구할 수 있습니다. 자세한 내용은 prtvtoc(1M) 매뉴얼 페이지를 참조하십시오.

  8. (옵션) 클러스터 구성을 백업합니다. 아카이브된 클러스터 구성의 백업을 사용하면 쉽게 클러스터 구성을 복구할 수 있습니다. 자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서클러스터 구성을 백업하는 방법을 참조하십시오.

VxVM 디스크 그룹 관리 지침

Sun Cluster 구성에서 VxVM 디스크 그룹을 관리하기 위한 다음 지침을 따르십시오.

일반 오류

cldevicegroup status 명령 출력 결과에 로컬 디스크 그룹이 포함될 경우, 표시되는 디스크 그룹은 로컬 전용 액세스용으로 올바르게 구성되지 않은 것입니다. 디스크 그룹을 만드는 방법으로 돌아가 해당 로컬 디스크 그룹을 다시 구성합니다.

다음 순서

아래의 목록에서, 다음으로 수행할 사용자 클러스터 구성에 적용되는 작업을 판별합니다. 이 목록의 작업 중에서 둘 이상의 작업을 수행해야 할 경우, 해당 작업 중 첫 번째 항목으로 이동합니다.

루트 디스크 캡슐화 해제

이 절에서는 Sun Cluster 구성에서 루트 디스크 캡슐화를 해제하는 방법에 대해 설명합니다.

Procedure루트 디스크 캡슐화를 해제하는 방법

루트 디스크 캡슐화를 해제하려면 이 절차를 수행하십시오.

시작하기 전에

다음 작업을 수행합니다.

  1. 캡슐화를 해제할 노드에서 수퍼유저로 전환합니다.

  2. 노드에서 자원 그룹과 장치 그룹을 모두 제거하십시오.


    phys-schost# clnode evacuate from-node
    
    from-node

    자원 또는 장치 그룹을 이동할 노드의 이름을 지정합니다.

  3. 노드의 NID 번호를 결정하십시오.


    phys-schost# clinfo -n
    
  4. 이 노드에 대해 전역 장치 파일 시스템을 마운트 해제합니다. 여기서 N단계 3에서 반환된 노드 ID 번호입니다.


    phys-schost# umount /global/.devices/node@N
    
  5. /etc/vfstab 파일을 보고 전역 장치 파일 시스템에 해당하는 VxVM 볼륨을 확인하십시오.


    phys-schost# vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated 
    #partition cNtXdYsZ
    
  6. 전역 장치 파일 시스템에 해당하는 VxVM 볼륨을 루트 디스크 그룹에서 제거합니다.


    phys-schost# vxedit -g rootdiskgroup -rf rm rootdiskxNvol
    

    Caution – Caution –

    전역 장치 파일 시스템에서 전역 장치에 대한 장치 항목 이외의 데이터는 저장하지 마십시오. VxVM 볼륨을 제거할 때 전역 장치 파일 시스템의 모든 데이터가 삭제됩니다. 루트 디스크 캡슐화가 해제된 후에는 전역 장치 항목과 관련된 데이터만 복원됩니다.


  7. 루트 디스크 캡슐화를 해제하십시오.


    주 –

    명령에서 종료 요청을 적용하지 마십시오.



    phys-schost# /etc/vx/bin/vxunroot
    

    자세한 내용은 VxVM 설명서를 참조하십시오.

  8. format(1M) 명령을 사용하여 전역 장치 파일 시스템에 사용할 루트 디스크에 512MB 크기의 분할 영역을 추가합니다.


    정보 –

    /etc/vfstab 파일에 지정된 대로 루트 디스크가 캡슐화되기 전에 전역 장치 파일 시스템에 할당된 동일한 슬라이스를 사용하십시오.


  9. 단계 8.에서 만든 분할 영역에 파일 시스템을 설정합니다.


    phys-schost# newfs /dev/rdsk/cNtXdYsZ
    
  10. 루트 디스크의 DID 이름을 결정하십시오.


    phys-schost# cldevice list cNtXdY
    dN
    
  11. /etc/vfstab 파일에서 전역 장치 파일 시스템 항목의 경로 이름을 단계 10에서 지정한 DID 경로로 변경합니다.

    원래 항목은 다음과 비슷합니다.


    phys-schost# vi /etc/vfstab
    /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs 2 no global

    DID 경로를 사용하는 새 항목은 다음과 같습니다.


    /dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2 no global
  12. 전역 장치 파일 시스템을 마운트하십시오.


    phys-schost# mount /global/.devices/node@N
    
  13. 클러스터의 한 노드에서 원시 디스크 및 Solaris Volume Manager 장치에 대한 장치 노드를 다시 전역 장치 파일 시스템에 채우십시오.


    phys-schost# cldevice populate
    

    다음에 재부트하면 VxVM 장치가 다시 만들어집니다.

  14. 다음 단계로 진행하기 전에, 각 노드에서 cldevice populate 명령의 처리가 완료되었는지 확인합니다.

    cldevice populate 명령은 하나의 노드에서만 실행하더라도 모든 노드에서 원격으로 실행됩니다. cldevice populate 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행합니다.


    phys-schost# ps -ef | grep scgdevs
    
  15. 노드를 재부트합니다.


    phys-schost# shutdown -g0 -y -i6
    
  16. 클러스터의 각 노드에 대하여 이 절차를 반복하여 해당 노드의 루트 디스크 캡슐화를 해제하십시오.