Solaris OS용 Sun Cluster 시스템 관리 안내서

5장 전역 장치, 디스크 경로 모니터링 및 클러스터 파일 시스템 관리

이 장에서는 전역 장치, 디스크 경로 모니터링 및 클러스터 파일 시스템 관리 절차를 소개합니다.

이 장에 있는 관련 절차에 대한 자세한 내용은 표 5–4를 참조하십시오.

전역 장치, 전역 이름 공간, 장치 그룹, 디스크 경로 모니터링 및 클러스터 파일 시스템에 대한 자세한 내용은 Sun Cluster Concepts Guide for Solaris OS를 참조하십시오.

전역 장치 및 전역 이름 공간 관리 개요

Sun Cluster 장치 그룹을 관리하는 방법은 클러스터에 설치된 볼륨 관리자에 따라 다릅니다. Solaris Volume Manager는 “클러스터를 인식”하므로 Solaris Volume Manager metaset(1M) 명령을 사용하여 장치 그룹을 추가하고 등록하고 제거할 수 있습니다. VERITAS Volume Manager (VxVM)를 사용하는 경우 VxVM 명령을 사용하여 디스크 그룹을 만듭니다. clsetup 유틸리티를 사용하여 Sun Cluster 디스크 그룹을 장치 그룹으로 등록합니다. VxVM 장치 그룹을 제거할 때는 clsetup 명령과 VxVM 명령을 모두 사용합니다.


주 –

Solaris 10 OS에서 전역 장치는 비전역 영역에서 직접적으로 액세스할 수 없습니다.


Sun Cluster 소프트웨어는 자동으로 클러스터의 각 디스크와 테이프 장치에 대한 원시 디스크 장치 그룹을 만듭니다. 그러나 사용자가 클러스터 장치 그룹을 전역 장치로 액세스할 때까지 클러스터 장치 그룹이 오프라인 상태를 유지합니다. 장치 그룹이나 볼륨 관리자 디스크 그룹을 관리할 때는 사용자가 그룹의 기본 노드인 클러스터 노드에 있어야 합니다.

일반적으로 전역 장치 이름 공간은 관리할 필요가 없습니다. 전역 이름 공간은 설치 과정에서 자동으로 설정되고 Solaris OS 재부트 과정에서 자동으로 업데이트됩니다. 그러나 전역 이름 공간을 업데이트해야 하는 경우에는 아무 클러스터 노드에서나 cldevice populate 명령을 실행하면 됩니다. 이 명령을 실행하면 나중에 클러스터에 포함될 노드뿐 아니라 다른 모든 클러스터 노드 구성원에서 전역 이름 공간이 업데이트됩니다.

Solaris Volume Manager에 대한 전역 장치 사용 권한

Solaris Volume Manager 및 디스크 장치의 경우 전역 장치 사용 권한에 대한 변경 사항은 클러스터의 모든 노드에 자동으로 전달되지 않습니다. 전역 장치에 대한 사용 권한을 변경하려면 클러스터의 모든 노드에서 직접 사용 권한을 변경해야 합니다. 예를 들면, 전역 장치에서 /dev/global/dsk/d3s0의 권한을 644로 변경하려는 경우 클러스터의 모든 노드에서 다음 명령을 실행해야 합니다.

# chmod 644 /dev/global/dsk/d3s0

VxVM은 chmod 명령을 지원하지 않습니다. VxVM에서 전역 장치 사용 권한을 변경하려면 VxVM 관리 안내서를 참조하십시오.

전역 장치 동적 재구성

클러스터에서 디스크 및 테이프 장치에 대한 동적 재구성(dynamic reconfiguration, DR) 작업을 완료하려면 다음과 같은 사항을 고려해야 합니다.


주의 – 주의 –

보조 노드에 대한 DR 작업을 수행할 때 현재 기본 노드에 장애가 발생하면 클러스터 가용성이 영향을 받습니다. 새로운 보조 노드가 제공될 때까지 기본 노드를 페일오버할 수 없습니다.


전역 장치에 대하여 DR 작업을 수행하려면 다음 단계를 순서대로 완료하십시오.

표 5–1 작업 맵: 디스크 및 테이프 장치 동적 재구성

작업 

지침 

1. 현재 기본 노드에서 작동하는 장치 그룹에 영향을 주는 DR 작업을 수행해야 하는 경우, 장치에 대한 DR 제거 작업을 수행하기 전에 기본 노드와 보조 노드를 전환합니다. 

장치 그룹의 기본 노드를 전환하는 방법

2. 제거되는 장치에 대하여 DR 제거 작업을 수행합니다. 

Sun Enterprise 10000 DR 구성 설명서Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual(Solaris 9 on Sun HardwareSolaris 10 on Sun Hardware 모음에 포함).

SPARC: VERITAS Volume Manager를 사용하여 관리할 때 고려할 사항

저장소 기반의 복제된 장치 관리

저장소 기반 복제로 복제된 장치를 포함하는 Sun Cluster 장치 그룹을 구성할 수 있습니다. Sun Cluster 소프트웨어에서는 저장소 기반 복제용으로 Hitachi TrueCopy 및 EMC Symmetrix Remote Data Facility 소프트웨어를 지원합니다.

Hitachi TrueCopy 또는 EMC Symmetrix Remote Data Facility 소프트웨어로 데이터를 복제하기 전에 저장소 기반 복제 설명서를 숙지하고 시스템에 저장소 기반 복제 제품과 최신 패치를 설치해야 합니다. 저장소 기반 복제 소프트웨어 설치에 대한 자세한 내용은 제품 설명서를 참조하십시오.

저장소 기반 복제 소프트웨어는 기본 복제본 장치 및 보조 복제본 장치로 된 한 쌍의 장치를 복제본으로 구성합니다. 어느 경우이든, 한 노드 세트에 연결된 장치가 기본 복제본이 됩니다. 그 외 다른 노드 세트에 연결된 장치는 보조 복제본이 됩니다.

Sun Cluster 구성에서 기본 복제본은 복제본이 속한 Sun Cluster 장치 그룹이 이동할 때마다 자동으로 이동합니다. 그러므로 기본 복제본을 Sun Cluster 구성에서 직접 이동시키면 안 됩니다. 하지만 그보다는 관련 Sun Cluster 장치 그룹을 옮겨서 이동시키는 것이 좋습니다.

Hitachi TrueCopy 복제 장치 관리

다음 표는 Hitachi TrueCopy 저장소 기반 복제 장치를 설정하기 위해 수행해야 할 작업의 목록입니다.

표 5–2 작업 맵: Hitachi TrueCopy 저장소 기반 복제 장치 관리

작업 

지침 

저장소 장치 및 노드에 TrueCopy 소프트웨어를 설치합니다. 

Hitachi 저장소 장치와 함께 제공된 문서. 

Hitachi 복제 그룹을 구성합니다. 

Hitachi TrueCopy 복제 그룹을 구성하는 방법

DID 장치를 구성합니다.  

Hitachi TrueCopy를 사용하여 복제용 DID 장치를 구성하는 방법

복제 그룹을 등록합니다. 

장치 그룹 추가 및 등록 방법(Solaris Volume Manager) 또는 SPARC: 디스크 그룹을 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)

구성을 검증합니다.  

Hitachi TrueCopy 복제 전역 장치 그룹 구성을 확인하는 방법

ProcedureHitachi TrueCopy 복제 그룹을 구성하는 방법

시작하기 전에

먼저 기본 클러스터의 공유 디스크에서 Hitachi TrueCopy 장치 그룹을 구성합니다. 이 등록 정보는 Hitachi 어레이에 액세스하는 각 클러스터 노드의 /etc/horcm.conf 파일에 지정합니다. /etc/horcm.conf 파일을 구성하는 방법에 대한 자세한 내용은 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.

  1. 저장소 어레이에 연결된 모든 노드에서 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. horcm 항목을 /etc/services 파일에 추가합니다.


    horcm  9970/udp

    새 항목에 대하여 포트 번호 및 프로토콜 이름을 지정합니다.

  3. /etc/horcm.conf 파일의 Hitachi TrueCopy 장치 그룹 구성 정보를 지정합니다.

    지침은 TrueCopy 소프트웨어와 함께 제공된 문서를 참조하십시오.

  4. 모든 노드에서 horcmstart.sh 명령을 실행하여 TrueCopy CCI 데몬을 시작합니다.


    # /usr/bin/horcmstart.sh
  5. 복제본 쌍을 아직 생성하지 않았으면 지금 생성합니다.

    원하는 경계 레벨의 복제본 쌍을 생성하려면 paircreate 명령을 사용합니다. 복제본 쌍 생성에 대한 지침은 TrueCopy 문서를 참조하십시오.

  6. 복제 장치가 구성된 각 노드에서 pairdisplay 명령을 사용하여 데이터 복제가 올바로 설정되었는지 확인합니다.


    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -
  7. 모든 노드가 복제 그룹을 마스터할 수 있는지 확인합니다.

    1. pairdisplay 명령을 사용하여 기본 복제본이 포함되는 노드 및 보조 복제본이 포함되는 노드를 판별합니다.


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -

      P-VOL 상태인 로컬(L) 장치가 있는 노드는 기본 복제본을 포함하고 S-VOL 상태인 로컬(L) 장치가 있는 노드는 보조 복제본을 포함합니다.

    2. 보조 복제본을 포함하는 노드에서 horctakeover 명령을 실행하여 보조 노드를 마스터로 만듭니다.


      # horctakeover -g group-name
      

      다음 단계로 가기 전, 초기 데이터 복사가 완료되기를 기다립니다.

    3. horctakeover 명령을 수행한 노드에 P-VOL 상태의 로컬(L) 장치가 있는지 확인합니다.


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..S-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..P-VOL PAIR DATA ,----- 58   -
    4. 기본 복제본이 원래 있던 노드에서 horctakeover 명령을 실행합니다.


      # horctakeover -g group-name
      
    5. pairdisplay 명령을 사용하여 기본 노드가 원래 구성으로 변경되는지 확인합니다.


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -
다음 순서

Hitachi TrueCopy를 사용하여 복제용 DID 장치를 구성하는 방법의 지침에 따라 복제된 장치의 구성을 계속합니다.

ProcedureHitachi TrueCopy를 사용하여 복제용 DID 장치를 구성하는 방법

시작하기 전에

복제된 장치를 위한 장치 그룹을 구성한 후, 복제된 장치가 사용하는 DID를 구성해야 합니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 모든 노드에서 horcm 데몬이 실행되고 있는지 확인합니다.

    데몬이 실행되고 있지 않으면 다음 명령을 사용하여 데몬을 시작합니다. 데몬이 이미 실행 중이면 시스템에 메시지가 표시됩니다.


    # /usr/bin/horcmstart.sh
  3. pairdisplay 명령을 실행하여 어느 노드에 보조 복제본이 있는지 판별합니다.


    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -

    S-VOL 상태인 로컬(L) 장치가 있는 노드에 보조 복제본이 포함되어 있습니다.

  4. 보조 복제본이 있는 노드(이전 단계에서 판별한)에서 저장소 기반 복제를 사용하기 위한 DID 장치를 구성합니다.

    이 명령은 장치 복제본 쌍의 분리된 DID 인스턴스 두 개를 단일 논리 DID 인스턴스로 결합합니다. 단일 인스턴스는 양쪽에서 볼륨 관리 소프트웨어가 사용할 장치를 활성화합니다.


    주의 – 주의 –

    여러 노드가 보조 복제본에 연결된 경우, 노드 중 하나에서만 이 명령을 실행합니다.



    # cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
    
    primary-replica-nodename

    기본 복제본을 포함하는 원격 노드의 이름을 지정합니다.

    -S

    현재 노드가 아닌 소스 노드를 지정합니다.

    secondary replica-nodename

    보조 복제본을 포함하는 원격 노드의 이름을 지정합니다.


    주 –

    기본적으로 현재 노드는 소스 노드입니다. 다른 소스 노드를 지정하려면 -S 옵션을 사용합니다.


  5. DID 인스턴스가 결합되었는지 확인합니다.


    # cldevice list -v logical_DID_device
    
  6. TrueCopy 복제가 설정되었는지 확인합니다.


    # cldevice show logical_DID_device
    

    명령 출력에서는 TrueCopy가 복제 유형임을 나타내야 합니다.

  7. DID 재매핑을 수행해도 모든 복제 장치가 성공적으로 결합되지 않으면 수동으로 각 복제 장치를 결합합니다.


    주의 – 주의 –

    수동으로 DID 인스턴스를 결합할 때에는 특별한 주의가 필요합니다. 장치 재매핑이 잘못되면 데이터 손상이 발생할 수 있습니다.


    1. 보조 복제본을 포함하는 모든 노드에서 cldevice combine 명령을 실행합니다.


      # cldevice combine -d destination-instance source-instance
      
      -d destination-instance

      기본 복제본에 해당하는 원격 DID 인스턴스.

      source-instance

      보조 복제본에 해당하는 로컬 DID 인스턴스.

    2. DID 재매핑이 성공적으로 이루어졌는지 확인합니다.


      # cldevice list desination-instance source-instance
      

    DID 인스턴스 중 하나는 나열되지 않습니다.

  8. 모든 노드에서, 결합된 모든 DID 인스턴스에 대한 DID 장치를 액세스할 수 있는지 확인합니다.


    # cldevice list -v
    
다음 순서

복제된 장치 그룹의 구성을 완료하려면 다음 절차의 단계를 수행합니다.

ProcedureHitachi TrueCopy 복제 전역 장치 그룹 구성을 확인하는 방법

시작하기 전에

전역 장치 그룹을 확인하기 전에 먼저 전역 장치 그룹을 만듭니다. Solaris Volume Manager 장치 그룹, Veritas Volume Manager 장치 그룹 또는 원시 디스크 장치 그룹을 사용할 수 있습니다. Solstice DiskSuite 또는 Solaris Volume Manager 장치 그룹 만들기에 대한 자세한 내용은 장치 그룹 추가 및 등록 방법(Solaris Volume Manager)을 참조하십시오. VERITAS Volume Manager 장치 그룹 생성에 대한 자세한 내용은 SPARC: 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)을 참조하십시오.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 기본 장치 그룹이 기본 복제본을 포함하는 노드와 동일한 노드에 해당하는지 확인합니다.


    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
    
  2. 복제 등록 정보가 해당 장치 그룹에 대해 설정되어 있는지 확인합니다.


    # cldevicegroup show -n nodename group-name
    
  3. 복제 등록 정보가 해당 장치에 대해 설정되어 있는지 확인합니다.


    # usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
    
  4. 장치 그룹이 올바로 구성되고 복제본이 양 노드 사이에서 이동할 수 있는지 확인하려면 시험적으로 스위치오버를 수행해 봅니다.

    장치 그룹이 오프라인이면 온라인으로 전환합니다.


    # cldevicegroup switch -n nodename group-name
    
    -n nodename

    장치 그룹이 전환되는 노드. 이 노드는 새 기본 노드가 됩니다.

  5. 다음 명령의 출력을 비교하여 스위치오버가 성공적으로 이루어졌는지 확인합니다.


    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
    

예: Sun Cluster용 TrueCopy 복제 그룹 구성

이 예제에서는 클러스터에서 TrueCopy 복제 설정에 필요한 Sun Cluster 특정 단계를 완료합니다. 이 예제는 다음 작업이 이미 수행된 것으로 가정합니다.

이 예에는 TrueCopy를 사용하는 3 노드 클러스터가 필요합니다. 클러스터는 두 원격 사이트에 걸쳐 있으며 한 사이트에 두 개의 노드, 그리고 다른 한 사이트에 하나의 노드가 있습니다. 각 사이트에는 자체의 Hitachi 저장소 장치가 있습니다.

다음 예제는 각 노드의 TrueCopy /etc/horcm.conf 구성 파일을 나타냅니다.


예 5–1 노드 1의 TrueCopy 구성 파일


HORCM_DEV 
#dev_group     dev_name    port#       TargetID     LU#       MU# 
VG01           pair1       CL1-A         0          29 
VG01           pair2       CL1-A         0          30 
VG01           pair3       CL1-A         0          31 
HORCM_INST 
#dev_group     ip_address   service 
VG01           node-3       horcm


예 5–2 노드 2의 TrueCopy 구성 파일


HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU#
VG01              pair1          CL1-A         0         29 
VG01              pair2          CL1-A         0         30 
VG01              pair3          CL1-A         0         31 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-3          horcm


예 5–3 노드 3의 TrueCopy 구성 파일


HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU# 
VG01              pair1          CL1-C         0         09 
VG01              pair2          CL1-C         0         10 
VG01              pair3          CL1-C         0         11 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-1          horcm 
VG01              node-2          horcm

위 예제에서 세 개의 LUN은 두 사이트 사이에서 복제됩니다. LUN은 모두 VG01라는 이름의 복제 그룹에 있습니다. pairdisplay 명령은 이 정보를 확인하고 노드 3에 기본 복제본이 있음을 보여줍니다.


예 5–4 노드 1의 pairdisplay 명령 출력


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  -


예 5–5 노드 2의 pairdisplay 명령 출력


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  -


예 5–6 노드 3의 pairdisplay 명령 출력


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair1(R)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair2(L)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair2(R)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair3(L)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  - 
VG01    pair3(R)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 

사용되는 디스크를 보려면 다음 예와 같이 pairdisplay 명령의 -fd 옵션을 사용합니다.


예 5–7 노드 1의 pairdisplay 명령 출력, 사용되는 디스크를 보여줌.


# pairdisplay -fd -g VG01 
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M 
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR DATA  ,-----    58  - 
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR DATA  ,61114    29  - 
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR DATA  ,-----    59  - 
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064  59..P-VOL PAIR DATA  ,61114    30  - 
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR DATA  ,-----    60  - 
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR DATA  ,61114    31  -


예 5–8 노드 2의 pairdisplay 명령 출력, 사용되는 디스크를 보여줌.


# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR DATA  ,-----    58  -
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR DATA  ,61114    29  -
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR DATA  ,-----    59  -
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR DATA  ,61114    30  -
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR DATA  ,-----    60  -
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR DATA  ,61114    31  -


예 5–9 노드 3의 pairdisplay 명령 출력, 사용되는 디스크를 보여줌.


# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M 
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064  58..P-VOL PAIR DATA  ,61114    29  - 
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114  29..S-VOL PAIR DATA  ,-----    58  - 
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064  59..P-VOL PAIR DATA  ,61114    30  - 
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114  30..S-VOL PAIR DATA  ,-----    59  - 
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064  60..P-VOL PAIR DATA  ,61114    31  - 
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114  31..S-VOL PAIR DATA  ,-----    60  -

이 예제는 다음 디스크를 사용하고 있음을 보여줍니다.

이들 디스크에 해당하는 DID 장치를 보려면 다음 예제와 같이 cldevice list 명령을 사용합니다.


예 5–10 사용되는 디스크에 해당하는 DID 표시


# cldevice list -v

DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
12              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12     
12              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
13              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
13              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
14              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
14              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223  
23              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

각 복제된 장치 쌍에 대한 DID 인스턴스를 결합할 때, cldevice list는 DID 인스턴스 12와 22, 인스턴스 13과 23 및 인스턴스 14와 24를 결합합니다. 노드 3에 기본 복제본이 있으므로 노드 1 또는 노드 2에서 cldevice -T 명령을 실행합니다. 항상 보조 복제본이 있는 노드에서 인스턴스를 결합하십시오. 양쪽 노드가 아닌 단일 노드에서만 이 명령을 실행하십시오.

다음 예제는 노드 1에서 명령을 실행하여 DID 인스턴스를 결합할 때의 출력입니다.


예 5–11 DID 인스턴스 결합


# cldevice replicate -D node-3
Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

cldevice list 출력을 확인해보면 두 사이트의 LUN에 동일한 DID 인스턴스가 있는 것을 알 수 있습니다. 다음 예제와 같이, 동일한 DID 인스턴스가 있어 각 복제본 쌍이 단일 DID 장치처럼 보입니다.


예 5–12 결합된 DID 표시


# cldevice list -v
DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222  
22          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22
23          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

다음은 볼륨 관리자 장치 그룹을 생성하는 단계입니다. 기본 복제본이 있는 노드, 이 예제의 경우 노드 3에서 이 명령을 실행합니다. 다음 예제와 같이 장치 그룹의 이름을 복제 그룹과 동일하게 합니다.


예 5–13 Solaris Volume Manager 장치 그룹의 생성


# metaset -s VG01 -ah phys-deneb-3
# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1

Host                Owner
  phys-deneb-3       Yes
  phys-deneb-1
  phys-deneb-2

Drive Dbase
d22   Yes
d23   Yes
d24   Yes

이 시점에서는 장치 그룹을 사용할 수 있고, 메타 장치를 생성할 수 있으며, 장치 그룹을 세 노드 중 하나로 이동할 수 있습니다. 그러나, 보다 효율적인 스위치오버 및 페일오버를 위해 cldevicegroup set 명령을 실행하여 클러스터 구성에 복제된 장치 그룹을 표시합니다.


예 5–14 효율적인 스위치오버 및 페일오버


# cldevicegroup sync VG01 
# cldevicegroup show VG01
=== Device Groups===

Device Group Name                       VG01   
  Type:                                   SVM   
  failback:                               no   
  Node List:                              phys-deneb-3, phys-deneb-1, phys-deneb-2   
  preferenced:                            yes   
  numsecondaries:                         1   
  device names:                           VG01   
  Replication type:                       truecopy

복제 그룹의 구성은 이 단계로 완료됩니다. 성공적으로 구성되었는지 확인하려면 Hitachi TrueCopy 복제 전역 장치 그룹 구성을 확인하는 방법의 단계를 수행합니다.

EMC Symmetrix Remote Data Facility 복제 장치 관리

다음 표는 EMC SRDF(Symmetrix Remote Data Facility) 저장소 기반 복제 장치를 설정하기 위해 수행해야 할 작업의 목록입니다.

표 5–3 작업 맵: EMC SRDF 저장소 기반 복제 장치 관리

작업 

지침 

저장소 장치 및 노드에 SRDF 소프트웨어를 설치합니다. 

EMC 저장소 장치와 함께 제공된 문서 

EMC 복제 그룹을 구성합니다. 

EMC Symmetrix Remote Data Facility 복제 그룹을 구성하는 방법

DID 장치를 구성합니다.  

EMC SRDF(Symmetrix Remote Data Facility)를 사용하여 복제용 DID 장치를 구성하는 방법

복제 그룹을 등록합니다. 

장치 그룹 추가 및 등록 방법(Solaris Volume Manager) 또는 SPARC: 디스크 그룹을 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)

구성을 검증합니다.  

EMC SRDF(Symmetrix Remote Data Facility) 복제 전역 장치 그룹 구성을 확인하는 방법

ProcedureEMC Symmetrix Remote Data Facility 복제 그룹을 구성하는 방법

시작하기 전에

EMC SRDF(Symmetrix Remote Data Facility) 복제 그룹을 구성하기 전에 EMC Solutions Enabler 소프트웨어가 모든 클러스터 노드에 설치되어 있어야 합니다. 먼저 클러스터의 공유 디스크에서 EMC SRDF 장치 그룹을 구성합니다. EMC SRDF 장치 그룹을 구성하는 방법에 대한 자세한 내용은 EMC SRDF 제품 설명서를 참조하십시오.

EMC SRDF를 사용하고 있는 경우 정적 장치 대신 동적 장치를 사용해야 합니다. 정적 장치의 경우 기본 복제를 변경하는 데 몇 분 정도 걸리고, 페일오버 시간에 영향을 미칠 수 있습니다.

  1. 저장소 어레이에 연결된 모든 노드에서 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 복제된 데이터로 구성된 각 노드에서 Symmetrix 장치 구성을 검색합니다.

    이 작업은 몇 분 정도 걸릴 수 있습니다.


    # /usr/symcli/bin/symcfg discover
    
  3. 복제본 쌍을 아직 생성하지 않았으면 지금 생성합니다.

    symrdf 명령을 사용하여 복제본 쌍을 만듭니다. 복제본 쌍 만들기에 대한 지침은 SRDF 문서를 참조하십시오.

  4. 복제된 장치로 구성된 각 노드에서 데이터 복제가 제대로 설정되어 있는지 확인합니다.


    # /usr/symcli/bin/symdg show group-name
    
  5. 장치 그룹의 스왑을 수행합니다.

    1. 기본 및 보조 복제본이 동기화되는지 확인합니다.


      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
      
    2. symdg show 명령을 사용하여 기본 복제본이 포함되는 노드와 보조 복제본이 포함되는 노드를 결정합니다.


      # /usr/symcli/bin/symdg show group-name
      

      RDF1 장치가 있는 노드에는 기본 복제본이 포함되고, RDF2 장치 상태가 있는 노드에는 보조 복제본이 포함됩니다.

    3. 보조 복제본을 활성화합니다.


      # /usr/symcli/bin/symrdf -g group-name failover
      
    4. RDF1 및 RDF2 장치를 스왑합니다.


      # /usr/symcli/bin/symrdf -g group-name swap -refresh R1
      
    5. 복제본 쌍을 활성화합니다.


      # /usr/symcli/bin/symrdf -g group-name establish
      
    6. 기본 노드 및 보조 복제본이 동기화되는지 확인합니다.


      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
      
  6. 원래 기본 복제본이 있었던 노드에서 5단계의 모든 사항을 반복합니다.

다음 순서

EMC SRDF 복제 장치를 위한 장치 그룹을 구성한 후, 복제된 장치가 사용하는 장치 식별자(Device Identifier, DID) 드라이버를 구성해야 합니다.

ProcedureEMC SRDF(Symmetrix Remote Data Facility)를 사용하여 복제용 DID 장치를 구성하는 방법

이 절차에서는 복제된 장치가 사용하는 장치 식별자(Device Identifier, DID) 드라이버를 구성합니다.

시작하기 전에

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 구성된 RDF1과 RDF2 장치에 해당하는 DID 장치를 결정합니다.


    # /usr/symcli/bin/symdg show group-name
    

    주 –

    시스템에서 전체 Solaris 장치 패치를 표시하지 않으면 환경 변수 SYMCLI_FULL_PDEVNAME를 1로 설정하고 symdg -show 명령을 다시 입력합니다.


  3. Solaris 장치에 해당하는 DID 장치를 결정합니다.


    # cldevice list -v
    
  4. 일치하는 DID 장치의 각 쌍의 경우 인스턴스를 복제된 단일 DID 장치로 결합합니다. RDF2/보조측에서 다음 명령을 실행합니다.


    # cldevice combine -t srdf -g replication-device-group \
     -d destination-instance source-instance
    

    주 –

    -T 옵션은 SRDF 데이터 복제 장치용으로 지원되지 않습니다.


    -t replication-type

    복제 유형을 지정합니다. EMC SRDF의 경우 SRDF를 입력합니다.

    -g replication-device-group

    symdg show 명령에 표시된 대로 장치 그룹 이름을 지정합니다.

    -d destination-instance

    RDF1 장치에 해당하는 DID 인스턴스를 지정합니다.

    source-instance

    RDF2 장치에 해당하는 DID 인스턴스를 지정합니다.


    주 –

    잘못된 DID 장치를 결합하려면 scdidadm 명령에 -b 옵션을 사용하여 2개의 DID 장치 결합의 실행을 취소합니다.


    # scdidadm -b device 
    
    -b device

    인스턴스가 결합된 경우 destination_device에 해당하는 DID 인스턴스입니다.


  5. DID 인스턴스가 결합되었는지 확인합니다.


    # cldevice list -v device
    
  6. SRDF 복제가 설정되어 있는지 확인합니다.


    # cldevice show device
    
  7. 모든 노드에서, 결합된 모든 DID 인스턴스에 대한 DID 장치를 액세스할 수 있는지 확인합니다.


    # cldevice list -v
    
다음 순서

복제된 장치에서 사용하는 장치 식별자(Device Identifier, DID) 드라이버를 구성한 후에는 EMC SRDF 복제 전역 장치 그룹 구성을 확인해야 합니다.

ProcedureEMC SRDF(Symmetrix Remote Data Facility) 복제 전역 장치 그룹 구성을 확인하는 방법

시작하기 전에

전역 장치 그룹을 확인하기 전에 먼저 전역 장치 그룹을 만듭니다. Solstice DiskSuite 또는 Solaris Volume Manager 장치 그룹 생성에 대한 자세한 내용은 장치 그룹 추가 및 등록 방법(Solaris Volume Manager)을 참조하십시오. VERITAS Volume Manager 장치 그룹 만들기에 대한 자세한 내용은 SPARC: 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)을 참조하십시오.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 기본 장치 그룹이 기본 복제본을 포함하는 노드와 동일한 노드에 해당하는지 확인합니다.


    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
    
  2. 장치 그룹이 올바로 구성되고 복제본이 양 노드 사이에서 이동할 수 있는지 확인하려면 시험적으로 스위치오버를 수행해 봅니다.

    장치 그룹이 오프라인이면 온라인으로 전환합니다.


    # cldevicegroup switch -n nodename group-name
    
    -n nodename

    장치 그룹이 전환되는 노드. 이 노드가 새 기본 노드가 됩니다.

  3. 다음 명령의 출력을 비교하여 스위치오버가 성공적으로 이루어졌는지 확인합니다.


    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
    

예: Sun Cluster용 SRDF 복제 그룹 구성

이 예제에서는 클러스터에서 SRDF 복제 설정에 필요한 Sun Cluster 특정 단계를 완료합니다. 이 예제는 다음 작업이 이미 수행된 것으로 가정합니다.

이 예에서는 노드가 4개인 클러스터를 호출하며 이 클러스터에는 2개의 노드가 하나의 Symmetrix에 연결되어 있고 다른 2개의 노드가 보조 Symmetrix에 연결되어 있습니다. SRDF 장치 그룹은 dg1라고 합니다.


예 5–15 복제본 쌍 만들기

모든 노드에서 다음 명령을 수행합니다.


# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd

Symmetrix ID: 000187990182

        Device Name          Directors                   Device                
--------------------------- ------------ --------------------------------------
                                                                           Cap 
Sym  Physical               SA :P DA :IT  Config        Attribute    Sts   (MB)
--------------------------- ------------- -------------------------------------

0067 c5t600604800001879901* 16D:0 02A:C1  RDF2+Mir      N/Grp'd      RW    4315
0068 c5t600604800001879901* 16D:0 16B:C0  RDF1+Mir      N/Grp'd      RW    4315
0069 c5t600604800001879901* 16D:0 01A:C0  RDF1+Mir      N/Grp'd      RW    4315
...

RDF1측에 있는 모든 노드에서 다음을 입력합니다.


# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

RDF2측에 있는 모든 노드에서 다음을 입력합니다.


# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067


예 5–16 데이터 복제 설정 확인

클러스터에 있는 하나의 노드에서 다음을 입력합니다.


# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
    Device Group in GNS                          : No
    Valid                                        : Yes
    Symmetrix ID                                 : 000187900023
    Group Creation Time                          : Thu Sep 13 13:21:15 2007
    Vendor ID                                    : EMC Corp
    Application ID                               : SYMCLI

    Number of STD Devices in Group               :    1
    Number of Associated GK's                    :    0
    Number of Locally-associated BCV's           :    0
    Number of Locally-associated VDEV's          :    0
    Number of Remotely-associated BCV's (STD RDF):    0
    Number of Remotely-associated BCV's (BCV RDF):    0
    Number of Remotely-assoc'd RBCV's (RBCV RDF) :    0

    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...
# symrdf -g dg1 establish

Execute an RDF 'Incremental Establish' operation for device
group 'dg1' (y/[n]) ? y

An RDF 'Incremental Establish' operation execution is
in progress for device group 'dg1'. Please wait...

    Write Disable device(s) on RA at target (R2)..............Done.
    Suspend RDF link(s).......................................Done.
    Mark target (R2) devices to refresh from source (R1)......Started.
    Device: 0067 ............................................ Marked.
    Mark target (R2) devices to refresh from source (R1)......Done.
    Merge device track tables between source and target.......Started.
    Device: 0067 ............................................ Merged.
    Merge device track tables between source and target.......Done.
    Resume RDF link(s)........................................Started.
    Resume RDF link(s)........................................Done.

The RDF 'Incremental Establish' operation successfully initiated for
device group 'dg1'.

#  
# symrdf -g dg1 query  


Device Group (DG) Name             : dg1
DG's Type                          : RDF2
DG's Symmetrix ID                  : 000187990182


       Target (R2) View                 Source (R1) View     MODES           
--------------------------------    ------------------------ ----- ------------
             ST                  LI      ST                                    
Standard      A                   N       A                                   
Logical       T  R1 Inv   R2 Inv  K       T  R1 Inv   R2 Inv       RDF Pair    
Device  Dev   E  Tracks   Tracks  S Dev   E  Tracks   Tracks MDA   STATE       
-------------------------------- -- ------------------------ ----- ------------

DEV001  0067 WD       0        0 RW 0067 RW       0        0 S..   Synchronized

Total          -------- --------           -------- --------
  MB(s)             0.0      0.0                0.0      0.0

Legend for MODES:

 M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
 D(omino)           : X = Enabled, . = Disabled
 A(daptive Copy)    : D = Disk Mode, W = WP Mode, . = ACp off

# 


예 5–17 사용되는 디스크에 해당하는 DID 표시

동일한 절차가 RDF1과 RDF2측에 적용됩니다.

dymdg show dg 명령 출력의 PdevName 필드에서 살펴볼 수 있습니다.

RDF1측에서 다음을 입력합니다.


# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...

해당하는 DID를 얻으려면 다음을 입력합니다.


# scdidadm -L | grep c5t6006048000018790002353594D303637d0
217      pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217   
217      pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 
#

해당하는 DID를 나열하려면 다음을 입력합니다.


# cldevice show d217

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 

RDF2측에서 다음을 입력합니다.

dymdg show dg 명령 출력의 PdevName 필드에서 살펴볼 수 있습니다.


# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF2     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067      WD      4315
        }

    Device Group RDF Information
...

해당하는 DID를 얻으려면 다음을 입력합니다.


# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108      pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
108      pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
# 

해당하는 DID를 나열하려면 다음을 입력합니다.


# cldevice show d108

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d108
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 


예 5–18 DID 인스턴스 결합

RDF2측에서 다음을 입력합니다.


# cldevice combine -t srdf -g dg1 -d d217 d108
# 


예 5–19 결합된 DID 표시

클러스터에 있는 임의의 노드에서 다음을 입력합니다.


# cldevice show d217 d108
cldevice:  (C727402) Could not locate instance "108".

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     srdf
  default_fencing:                                 global

# 

클러스터 파일 시스템 관리 개요

1334 Zones클러스터 파일 시스템 관리에는 특별한 Sun Cluster 명령이 필요하지 않습니다. 다른 Solaris 파일 시스템을 관리하는 경우와 마찬가지로 mountnewfs 등의 표준 Solaris 파일 시스템 명령을 사용하여 클러스터 파일 시스템을 관리합니다. 클러스터 파일 시스템을 마운트할 때는 mount 명령에 -g 옵션을 지정합니다. 또한 부트할 때 클러스터 파일 시스템이 자동으로 마운트될 수도 있습니다. 클러스터 파일 시스템은 전역 영역에서만 표시됩니다. 비전역 영역에서 클러스터 파일 시스템 데이터에 액세스해야 하는 경우, zoneadm(1M) 또는 HAStoragePlus를 사용하여 데이터를 비전역 영역에 매핑합니다.


주 –

클러스터 파일 시스템이 파일을 읽을 때는 파일 시스템이 해당 파일에 대한 액세스 시간을 업데이트하지 않습니다.


클러스터 파일 시스템 제한 사항

클러스터 파일 시스템 관리에 적용되는 제한 사항은 다음과 같습니다.

SPARC: VxFS 지원을 위한 설명

다음 VxFS 기능은 Sun Cluster 3.2 클러스터 파일 시스템에서 지원되지 않습니다. 그러나 로컬 파일 시스템에서는 지원됩니다.

캐시 보고(이 기능은 사용할 수는 있지만 적용 결과는 지정된 노드에서만 볼 수 있습니다.)

클러스터 파일 시스템에서 지원되는 다른 모든 VxFS 기능과 옵션은 Sun Cluster 3.2 소프트웨어에서 지원됩니다. 클러스터 구성에서 지원되는 VxFS 옵션에 대한 자세한 내용은 VxFS 설명서를 참조하십시오.

고가용성의 클러스터 파일 시스템을 생성하기 위해 VxFS를 사용하는 다음의 안내 사항은 Sun Cluster 3.2 구성에 해당하는 내용입니다.

VxFS 클러스터 파일 시스템을 관리하기 위한 다음의 안내 사항은 Sun Cluster 3.2에 해당하는 내용이 아닙니다. 그러나 이 방법은 UFS 클러스터 파일 시스템을 관리하는 방법과 다릅니다.

장치 그룹 관리

클러스터 요구 사항이 변경됨에 따라 클러스터에서 장치 그룹의 추가, 제거 또는 수정이 필요할 수 있습니다. Sun Cluster에는 이러한 변경을 위해 clsetup라는 대화식 인터페이스가 제공됩니다. clsetupcluster 명령을 생성합니다. 몇 가지 절차 뒤에 다음과 같은 생성된 명령의 예가 나옵니다. 다음 표는 장치 그룹 관리에 대한 작업을 나열하고 이 절의 해당 절차에 대한 링크를 제공합니다.


주의 – 주의 –

다른 노드가 활성 클러스터 구성원이고 이 중 하나 이상에 디스크 세트가 있는 경우에는 클러스터 외부에서 부트된 클러스터 노드에 metaset —s setname —f -t를 실행하면 안 됩니다.



주 –

Sun Cluster 소프트웨어는 자동으로 클러스터의 각 디스크와 테이프 장치에 대한 원시 디스크 장치 그룹을 만듭니다. 그러나 사용자가 클러스터 장치 그룹을 전역 장치로 액세스할 때까지 클러스터 장치 그룹이 오프라인 상태를 유지합니다.


표 5–4 작업 맵: 장치 그룹 관리

작업 

지침 

cldevice populate 명령을 사용하여 재구성 재부트 없이 전역 장치의 이름 공간을 업데이트합니다.

전역 장치 이름 공간을 업데이트하는 방법

metaset 명령을 사용하여 Solaris Volume Manager 디스크 세트를 추가하고 이 세트를 장치 그룹으로 등록합니다.

장치 그룹 추가 및 등록 방법(Solaris Volume Manager)

metasetmetaclear 명령을 사용하여 구성에서 Solaris Volume Manager 장치 그룹을 제거합니다.

장치 그룹 제거 및 등록 해제 방법(Solaris Volume Manager)

cldevicegroup, metasetclsetup 명령을 사용하여 모든 장치 그룹에서 노드를 제거합니다.

모든 장치 그룹에서 노드를 제거하는 방법

metaset 명령을 사용하여 Solaris Volume Manager 장치 그룹에서 노드를 제거합니다.

장치 그룹에서 노드를 제거하는 방법(Solaris Volume Manager)

SPARC: VxVM 명령 및 clsetup 명령을 사용하여 VERITAS Volume Manager 디스크 그룹을 장치 그룹으로 추가합니다.

SPARC: 디스크를 초기화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)

SPARC: 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)

SPARC: 기존 장치 그룹에 새 볼륨을 추가하는 방법(VERITAS Volume Manager)

SPARC: 기존 디스크 그룹을 장치 그룹으로 변환하는 방법(VERITAS Volume Manager)

SPARC: 장치 그룹에 새 부 번호를 할당하는 방법(VERITAS Volume Manager)

SPARC: 디스크 그룹을 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)

로컬 디스크 그룹을 장치 그룹으로 변환하는 방법(VxVM)

장치 그룹을 로컬 디스크 그룹으로 변환하는 방법(VxVM)

SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)

SPARC: cldevicegroup을 생성하기 위해 clsetup 명령을 사용하여 구성에서 VERITAS Volume Manager 장치 그룹을 제거합니다.

SPARC: 장치 그룹에서 볼륨을 제거하는 방법(VERITAS Volume Manager)

SPARC: 장치 그룹 제거 및 등록 해제 방법(VERITAS Volume Manager)

SPARC: cldevicegroup을 생성하기 위해 clsetup을 사용하여 VERITAS Volume Manager 장치 그룹에 노드를 추가합니다.

SPARC: 장치 그룹에 노드를 추가하는 방법(VERITAS Volume Manager)

SPARC: cldevicegroup을 생성하기 위해 clsetup을 사용하여 VERITAS Volume Manager 장치 그룹에서 노드를 제거합니다.

SPARC: 장치 그룹에서 노드를 제거하는 방법(VERITAS Volume Manager)

cldevicegroup 명령을 사용하여 원시 디스크 장치 그룹에서 노드를 제거합니다.

원시 디스크 장치 그룹에서 노드를 제거하는 방법

cldevicegroup을 생성하는 clsetup 명령을 사용하여 장치 그룹의 등록 정보를 변경합니다.

장치 그룹의 등록 정보 변경 방법

cldevicegroup show 명령을 사용하여 장치 그룹 및 등록 정보를 표시합니다.

장치 그룹 구성 목록을 표시하는 방법

cldevicegroup을 생성하기 위해 clsetup을 사용하여 장치 그룹에 대해 원하는 보조 노드 수로 변경합니다.

장치 그룹에 대한 보조 노드의 수 설정 방법

cldevicegroup switch 명령을 사용하여 장치 그룹에 대한 기본 노드로 전환합니다.

장치 그룹의 기본 노드를 전환하는 방법

metaset 또는 vxdg 명령을 사용하여 장치 그룹을 유지 보수 상태로 둡니다.

장치 그룹을 유지 보수 상태로 만드는 방법

Procedure전역 장치 이름 공간을 업데이트하는 방법

새 전역 장치를 추가할 때 cldevice populate 명령을 실행하여 수동으로 전역 장치의 이름 공간을 업데이트합니다.


주 –

cldevice populate 명령을 실행하는 노드가 현재 클러스터 구성원이 아니면 명령이 적용되지 않습니다. /global/.devices/node@nodeID 파일 시스템이 마운트되지 않은 경우에도 명령이 적용되지 않습니다.


이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 클러스터의 각 노드에서 devfsadm(1M) 명령을 실행하십시오.

    클러스터의 모든 노드에서 동시에 이 명령을 실행할 수 있습니다.

  3. 이름 공간을 재구성합니다.


    # cldevice populate
    
  4. 디스크 세트를 만들기 전에 각 노드에서 cldevice populate 명령이 완료되었는지 확인합니다.

    cldevice 명령이 단 하나의 노드에서 실행될 경우에도 이 명령은 모든 노드에 있는 동일한 명령을 원격으로 호출합니다. cldevice populate 명령 처리가 완료되었는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행합니다.


    # ps -ef | grep scgdevs
    

예 5–20 전역 장치 이름 공간 업데이트

다음은 성공적으로 cldevice populate 명령을 실행한 경우 생성되는 출력의 예입니다.


# devfsadm
cldevice populate 
Configuring the /dev/global directory (global devices)...
obtaining access to all attached disks
reservation program successfully exiting
# ps -ef | grep scgdevs

Procedure장치 그룹 추가 및 등록 방법(Solaris Volume Manager)

metaset 명령을 사용하여 Solaris Volume Manager 디스크 세트를 만들고 디스크 세트를 Sun Cluster 장치 그룹으로 등록합니다. 디스크 세트를 등록하면 디스크 세트에 지정한 이름이 자동으로 장치 그룹에 할당됩니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 디스크 세트를 생성할 디스크에 연결된 노드 중 하나에서 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. SPARC: Solaris 9 전용: 구성에 필요한 Solstice DiskSuite 메타 장치 또는 Solaris Volume Manager 볼륨의 이름 수를 계산한 다음 각 노드에서 /kernel/drv/md.conf 파일을 수정합니다. Solaris 10을 실행 중인 경우 이 단계는 필요하지 않습니다.

    Solaris OS용 Sun Cluster 소프트웨어 설치 안내서의 “메타 장치 또는 볼륨 이름 및 디스크 세트 수를 설정하는 방법”을 참조하십시오.

  3. Solaris Volume Manager 디스크 세트를 추가하고 Sun Cluster가 있는 장치 그룹으로 등록합니다. 복수 소유자 디스크 그룹을 만들려면 –M 옵션을 사용합니다.


    # metaset -s diskset -a -M -h nodelist
    
    -s diskset

    만들 디스크 세트를 지정합니다.

    -a -h nodelist

    디스크 세트를 마스터할 수 있는 노드 목록을 추가합니다.

    -M

    디스크 그룹의 소유자를 여러 명으로 지정합니다.


    주 –

    metaset 명령을 실행하여 클러스터에 Solstice DiskSuite/Solaris Volume Manager 장치 그룹을 설치하면 해당 장치 그룹에 포함된 노드 수에 관계 없이 기본적으로 보조 노드 수가 하나가 됩니다. 장치 그룹이 만들어진 후 clsetup 유틸리티를 사용하여 원하는 보조 노드의 수를 변경할 수 있습니다. 디스크 페일오버에 대한 자세한 내용은 장치 그룹에 대한 보조 노드의 수 설정 방법을 참조하십시오.


  4. 복제된 디스크 그룹을 구성하는 경우, 장치 그룹에 대한 복제 등록 정보를 설정합니다.


    # cldevicegroup sync devicegroup
    
  5. 장치 그룹이 추가되었는지 확인합니다.

    장치 그룹 이름은 metaset로 지정한 디스크 세트 이름과 일치합니다.


    # cldevicegroup list 
    
  6. DID 매핑을 나열하십시오.


    # cldevice show | grep Device
    
    • 디스크 세트를 마스터하거나 마스터할 수도 있는 클러스터 노드가 공유하는 드라이브를 선택하십시오.

    • 디스크 세트에 드라이브를 추가할 때 /dev/did/rdsk/dN 형식의 전체 DID 장치 이름을 사용합니다.

    다음 예에서 DID 장치 /dev/did/rdsk/d3에 대한 항목은 드라이브가 phys-schost-1phys-schost-2에 의해 공유됨을 나타냅니다.


    === DID Device Instances ===                   
    DID Device Name:                                /dev/did/rdsk/d1
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t0d0
    DID Device Name:                                /dev/did/rdsk/d2
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t6d0
    DID Device Name:                                /dev/did/rdsk/d3
      Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
      Full Device Path:                               phys-schost-2:/dev/rdsk/c1t1d0
    …
  7. 디스크 세트에 드라이브를 추가하십시오.

    전체 DID 경로 이름을 사용합니다.


    # metaset -s setname -a /dev/did/rdsk/dN
    
    -s setname

    디스크 세트 이름을 장치 그룹 이름과 동일하게 지정합니다.

    -a

    디스크 세트에 드라이브를 추가합니다.


    주 –

    드라이브를 디스크 세트에 추가할 때는 하위 수준 장치 이름(cNtXdY)을 사용하지 마십시오. 하위 레벨 장치 이름은 로컬 이름이므로 클러스터 전체에 걸쳐 고유하지 않기 때문에 이 이름을 사용하면 메타 세트가 스위치오버되지 않을 수도 있습니다.


  8. 디스크 세트와 드라이브의 상태를 확인하십시오.


    # metaset -s setname
    

예 5–21 Solaris Volume Manager 디스크 그룹 추가

다음 예에서는 디스크 드라이브 /dev/did/rdsk/d1/dev/did/rdsk/d2가 있는 디스크 세트 및 장치 그룹을 생성하고 장치 그룹의 생성을 확인하는 방법을 보여줍니다.


# metaset -s dg-schost-1 -a -h phys-schost-1

# cldevicegroup list
dg-schost-1 
metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2

장치 그룹 제거 및 등록 해제 방법(Solaris Volume Manager)

장치 그룹은 Sun Cluster에 등록된 Solaris Volume Manager 디스크 세트입니다. Solaris Volume Manager 장치 그룹을 제거하려면 metaclearmetaset 명령을 사용합니다. 이 명령은 동일한 이름의 장치 그룹을 제거하고 Sun Cluster 장치 그룹에서 디스크 그룹의 등록을 해제합니다.

디스크 세트를 제거하는 단계는 Solaris Volume Manager 설명서를 참조하십시오.

Procedure모든 장치 그룹에서 노드를 제거하는 방법

잠재적 기본 노드 목록에 노드를 나열하는 모든 장치 그룹에서 클러스터 노드를 제거하려면 이 절차를 수행하십시오.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 제거할 노드(모든 장치 그룹의 잠재적 기본 노드)에서 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 장치 그룹 또는 제거할 노드의 그룹이 구성원인지 판별합니다.

    각 장치 그룹에 대한 Device group node list에서 노드의 이름을 찾습니다.


    # cldevicegroup list -v
    
  3. 단계 2에서 식별된 장치 그룹이 SVM 장치 그룹 유형인 경우, 각 장치 그룹 유형에 대해 장치 그룹에서 노드를 제거하는 방법(Solaris Volume Manager)의 단계를 수행합니다.

  4. 단계 2에서 식별된 장치 그룹이 VxVM 장치 그룹 유형인 경우, 각 장치 그룹 유형에 대해 SPARC: 장치 그룹에서 노드를 제거하는 방법(VERITAS Volume Manager)의 단계를 수행합니다.

  5. 제거할 노드가 속한 원시 디스크 장치 그룹이 구성원인지 확인합니다.


    # cldevicegroup list -v
    
  6. 단계 5에 나열된 장치 그룹이 Disk 또는 Local_Disk 장치 그룹 유형인 경우, 각 장치 그룹에 대해 원시 디스크 장치 그룹에서 노드를 제거하는 방법의 단계를 수행합니다.

  7. 모든 장치 그룹의 잠재적인 기본 노드 목록에서 노드가 제거되었는지 확인합니다.

    해당 노드가 장치 그룹의 잠재적인 기본 노드로서 목록에 포함되어 있지 않으면 명령을 실행해도 아무것도 반환되지 않습니다.


    # cldevicegroup list -v  nodename
    

Procedure장치 그룹에서 노드를 제거하는 방법(Solaris Volume Manager)

Solaris Volume Manager 장치 그룹의 잠재적인 기본 노드 목록에서 클러스터 노드를 제거하려면 이 절차를 따릅니다. 제거할 노드가 있는 각 장치 그룹에 대하여 metaset 명령을 반복합니다.


주의 – 주의 –

다른 노드가 활성 클러스터 구성원이고 이 중 하나 이상에 디스크 세트가 있는 경우에는 클러스터 외부에서 부트된 클러스터 노드에 metaset —s setname —f -t를 실행하면 안 됩니다.


이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 노드가 여전히 장치 그룹에 속해 있는지와 장치 그룹이 Solaris Volume Manager 장치 그룹인지를 확인합니다.

    장치 그룹 유형 SDS/SVM은 Solaris Volume Manager 장치 그룹을 나타냅니다.


    phys-schost-1% cldevicegroup show devicegroup
    
  2. 어느 노드가 현재 장치 그룹의 기본 노드인지 확인합니다.


    # cluster status -t devicegroup
    
  3. 현재 수정할 장치 그룹이 있는 노드에서 수퍼유저로 전환합니다.

  4. 장치 그룹에서 노드의 호스트 이름을 삭제합니다.


    # metaset -s setname -d -h nodelist
    
    -s setname

    장치 그룹 이름을 지정합니다.

    -d

    -h를 사용하여 확인한 노드를 장치 그룹에서 삭제합니다.

    -h nodelist

    제거할 하나 또는 여러 노드의 노드 이름을 지정합니다.


    주 –

    업데이트를 완료하는 데 몇 분이 걸릴 수 있습니다.


    명령이 실패하면 명령에 -f(강제 실행) 옵션을 추가합니다.


    # metaset -s setname -d -f -h nodelist
    
  5. 제거할 잠재적인 기본 노드에서 각 장치 그룹에 대해 단계 4를 반복합니다.

  6. 노드가 장치 그룹에서 제거되었는지 확인합니다.

    장치 그룹 이름은 metaset로 지정한 디스크 세트 이름과 일치합니다.


    phys-schost-1% cldevicegroup list -v devicegroup
    

예 5–22 장치 그룹에서 노드 제거(Solaris Volume Manager)

다음은 장치 그룹 구성에서 호스트 이름 phys-schost-2를 제거하는 예입니다. 이 예에서는 지정된 장치 그룹의 잠재적인 기본 노드인 phys-schost-2를 제거합니다. cldevicegroup show 명령을 실행하여 노드가 제거되었는지 확인합니다. 제거된 노드가 더 이상 화면의 텍스트에 표시되지 않는지 확인하십시오.


[Determine the Solaris Volume Manager
 device group for the node:]
# cldevicegroup show dg-schost-1
=== Device Groups ===                          

Device Group Name:                    dg-schost-1
  Type:                                 SVM
  failback:                             no
  Node List:                            phys-schost-1, phys-schost-2
  preferenced:                          yes
  numsecondaries:                       1
  diskset name:                         dg-schost-1
[Determine which node is the current primary for the device group:]
# cldevicegroup status dg-schost-1
=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary         Secondary      Status
-----------------    -------         ---------      ------
dg-schost-1          phys-schost-1   phys-schost-2  Online
[Become superuser on the node that currently owns the device group.]
[Remove the host name from the device group:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[Verify removal of the node:]
phys-schost-1% cldevicegroup list -v dg-schost-1
=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary         Secondary      Status
-----------------    -------         ---------      ------
dg-schost-1          phys-schost-1   -              Online

Procedure하나의 클러스터에 네 개 이상의 디스크 세트를 만드는 방법

Solaris 9를 실행하고 있고 클러스터에 세 개 이상의 디스크 세트를 만들려면 디스크 세트를 만들기 전에 다음 단계를 수행합니다. Solaris 10을 실행 중인 경우 이 절차를 수행할 필요가 없습니다. 디스크 세트 설치가 처음인 경우 또는 완전하게 구성된 클러스터에 디스크 세트를 더 추가하려는 경우 다음 단계를 따릅니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. md_nsets 변수의 값을 충분히 크게 설정해야 합니다. 이 값은 클러스터에 만들 총 디스크 세트 수에 맞춰야 합니다.

    1. 클러스터의 노드에서 /kernel/drv/md.conf 파일에 있는 md_nsets 변수의 값을 확인하십시오.

    2. 클러스터에 있는 디스크 세트 수가 기존의 md_nsets 값에서 1을 뺀 값보다 크면 각 노드에서 md_nsets의 값을 늘리십시오.

      디스크 세트의 허용되는 최대 수는 md_nsets 값에서 1을 뺀 수입니다. md_nsets 변수에 설정할 수 있는 최대값은 32입니다.

    3. 클러스터의 각 노드에서 /kernel/drv/md.conf 파일이 동일한지 확인하십시오.


      주의 – 주의 –

      이 설명을 따르지 않으면 심각한 Solaris Volume Manager 오류가 발생하여 데이터를 잃을 수 있습니다.


    4. 하나의 노드에서 클러스터를 종료하십시오.


      # cluster shutdown -g0 -y
      
    5. 클러스터의 각 노드를 재부트하십시오.

      • SPARC 기반 시스템에서는 다음 명령을 수행하십시오.


        ok boot
        
      • x86 기반 시스템에서는 다음을 수행합니다.

        GRUB 메뉴가 나타나면 적절한 Solaris 항목을 선택하고 Enter 키를 누르십시오. GRUB 메뉴가 다음과 같이 나타납니다.


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.
  2. 클러스터의 각 노드에서 devfsadm(1M) 명령을 실행하십시오.

    클러스터의 모든 노드에서 동시에 이 명령을 실행할 수 있습니다.

  3. 클러스터의 한 노드에서 cldevice populate 명령을 실행합니다.

  4. 디스크 세트를 만들기 전에 각 노드에서 cldevice populate 명령이 완료되었는지 확인합니다.

    cldevice 명령이 단 하나의 노드에서 실행될 경우에도 이 명령은 모든 노드에 있는 동일한 명령을 원격으로 호출합니다. cldevice populate 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행합니다.


    # ps -ef | grep scgdevs
    

ProcedureSPARC: 디스크를 초기화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)


주 –

이 절차는 디스크를 초기화하는 데만 사용됩니다. 디스크를 캡슐화하려면 SPARC: 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)의 절차를 사용합니다.


VxVM 디스크 그룹을 추가한 후에 장치 그룹을 등록해야 합니다.

VxVM을 사용하여 Oracle Parallel Server 또는 Oracle RAC를 위한 공유 디스크 그룹을 설치하는 경우에는 VERITAS Volume Manager Administrator's Reference Guide에서 설명하는 VxVM의 클러스터 기능을 사용하십시오.

  1. 추가되는 디스크 그룹을 구성하는 디스크에 물리적으로 연결된 클러스터 노드에서 수퍼유저로 전환합니다.

  2. VxVM 디스크 그룹과 볼륨을 만듭니다.

    원하는 방법을 사용하여 디스크 그룹과 볼륨을 만드십시오.


    주 –

    미러된 볼륨을 설정하는 경우에는 더티 영역 로깅(Dirty Region Logging, DRL)을 사용하여 노드 장애 발생 후의 볼륨 복구 시간을 단축하십시오. 그러나 DRL을 사용하면 I/O 처리량이 줄어들 수 있습니다.


    이 단계를 완료하기 위한 절차에 대한 내용은 VERITAS Volume Manager 설명서를 참조하십시오.

  3. VxVM 디스크 그룹을 Sun Cluster 장치 그룹으로 등록합니다.

    SPARC: 디스크 그룹을 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)을 참조하십시오.

    Oracle Parallel Server 또는 Oracle RAC 공유 디스크 그룹은 클러스터 프레임워크에 등록하지 마십시오.

ProcedureSPARC: 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)


주 –

이 절차는 디스크 캡슐화 전용입니다. 디스크를 초기화하려면 SPARC: 디스크를 초기화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)의 절차를 사용합니다.


먼저 루트가 아닌 디스크를 VxVM 디스크 그룹으로 캡슐화한 다음 디스크 그룹을 Sun Cluster 장치 그룹으로 등록하여 Sun Cluster 장치 그룹으로 변환할 수 있습니다.

디스크 캡슐화는 VxVM 디스크 그룹을 처음 만들 때만 지원됩니다. VxVM 디스크 그룹이 만들어지고 Sun Cluster 장치 그룹으로 등록되고 나면 초기화될 수 있는 디스크만 디스크 그룹에 추가해야 합니다.

VxVM을 사용하여 Oracle Parallel Server 또는 Oracle RAC를 위한 공유 디스크 그룹을 설치하는 경우에는 VERITAS Volume Manager Administrator's Reference Guide에서 설명하는 VxVM의 클러스터 기능을 사용하십시오.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 캡슐화되는 디스크의 파일 시스템 항목이 /etc/vfstab 파일에 있으면 mount at boot 옵션이 no로 설정되어야 합니다.

    디스크가 캡슐화되고 Sun Cluster 장치 그룹으로 등록된 후에 다시 이 옵션을 yes로 설정합니다.

  3. 디스크를 캡슐화합니다.

    vxdiskadm 메뉴나 그래픽 사용자 인터페이스(GUI)를 사용하여 디스크를 캡슐화합니다. VxVM을 사용하려면 디스크 시작 부분이나 끝 부분에 할당되지 않은 실린더가 있어야 하고 두 개의 빈 분할 영역이 있어야 합니다. 또한 전체 디스크에 슬라이스 2가 설정되어야 합니다. 자세한 내용은 vxdiskadm 매뉴얼 페이지를 참조하십시오.

  4. 노드를 종료하고 다시 시작합니다.

    clnode evacuate 명령은 지정된 노드의 비전역 영역을 포함하여 모든 자원 그룹 및 장치 그룹을 다음 우선 순위의 기본 노드로 전환합니다. shutdown 명령을 사용하여 노드를 종료하고 다시 시작합니다.


    # clnode evacuate  node[,...]
    # shutdown -g0 -y -i6
    
  5. 필요에 따라, 모든 자원 그룹과 장치 그룹을 원래 노드로 다시 전환합니다.

    처음에 자원 그룹과 장치 그룹이 기본 노드로 페일백하도록 구성되었으면 이 단계가 필요없습니다.


    # cldevicegroup switch -n node devicegroup 
    # clresourcegroup switch -z zone -n node resourcegroup 
    
    node

    노드의 이름입니다.

    zone

    자원 그룹을 마스터할 수 있는 node에 있는 비전역 영역의 이름입니다. 자원 그룹을 생성할 때 비전역 영역을 지정한 경우에만 zone을 지정하십시오.

  6. VxVM 디스크 그룹을 Sun Cluster 장치 그룹으로 등록합니다.

    SPARC: 디스크 그룹을 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)을 참조하십시오.

    Oracle Parallel Server 또는 Oracle RAC 공유 디스크 그룹은 클러스터 프레임워크에 등록하지 마십시오.

  7. 단계 2에서 mount at boot 옵션을 no로 설정한 경우 다시 yes로 설정합니다.

ProcedureSPARC: 기존 장치 그룹에 새 볼륨을 추가하는 방법(VERITAS Volume Manager)

새 볼륨을 기존 VxVM 장치 그룹에 추가할 때 온라인 장치 그룹의 기본 노드에서 다음 절차를 수행합니다.


주 –

볼륨을 추가한 다음 SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)의 절차를 사용하여 구성 변경 사항을 등록해야 합니다.


이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.readsolaris.cluster.administer RBAC 인증을 제공하는 역할로 전환합니다.

  2. 새 볼륨을 추가할 장치 그룹의 기본 노드를 판별합니다.


    # cldevicegroup status
    
  3. 장치 그룹이 오프라인 상태이면 장치 그룹을 온라인 상태로 전환합니다.


    # cldevicegroup switch -n nodename devicegroup
    
    nodename

    장치 그룹을 전환할 노드의 이름을 지정합니다. 이 노드가 새 기본 노드가 됩니다.

    devicegroup

    전환할 장치 그룹을 지정합니다.

  4. 기본 노드(현재 장치 그룹을 마스터하는 노드)에서 디스크 그룹에 VxVM 볼륨을 만듭니다.

    VxVM 볼륨을 만드는 데 사용하는 절차는 VERITAS Volume Manager 설명서를 참조하십시오.

  5. VxVM 디스크 그룹 변경 사항을 동기화하여 전역 이름 공간을 업데이트합니다.

    # cldevicegroup sync

    SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager).

ProcedureSPARC: 기존 디스크 그룹을 장치 그룹으로 변환하는 방법(VERITAS Volume Manager)

디스크 그룹을 현재 노드로 가져온 다음 Sun Cluster 장치 그룹으로 등록하여 VxVM 디스크 그룹을 Sun Cluster 장치 그룹으로 변환할 수 있습니다.

  1. 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. VxVM 디스크 그룹을 현재 노드로 가져옵니다.


    # vxdg import diskgroup
    
  3. VxVM 디스크 그룹을 Sun Cluster 장치 그룹으로 등록합니다.

    SPARC: 디스크 그룹을 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)을 참조하십시오.

ProcedureSPARC: 장치 그룹에 새 부 번호를 할당하는 방법(VERITAS Volume Manager)

부 번호가 다른 디스크 그룹과 충돌하여 장치 그룹 등록이 실패한 경우 새 디스크 그룹에 사용하지 않은 새로운 부 번호를 할당해야 합니다. 새 부 번호를 할당한 후에 절차를 다시 실행하여 디스크 그룹을 Sun Cluster 장치 그룹으로 등록합니다.

  1. 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. 사용하는 부 번호를 확인하십시오.


    # ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
    
  3. 사용하지 않는 다른 1000의 배수를 새 디스크 그룹의 기본 부 번호로 선택합니다.

  4. 새 부 번호를 디스크 그룹에 할당합니다.


    # vxdg reminor diskgroup base-minor-number
    
  5. VxVM 디스크 그룹을 Sun Cluster 장치 그룹으로 등록합니다.

    SPARC: 디스크 그룹을 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)을 참조하십시오.


예 5–23 SPARC: 장치 그룹에 새 부 번호를 할당하는 방법

이 예에서는 부 번호 16000-16002 및 4000-4001을 사용합니다. vxdg reminor 명령을 사용하면 기본 부 번호 5000을 새 장치 그룹에 할당할 수 있습니다.


# ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
/global/.devices/node@nodeid/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@nodeid/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

ProcedureSPARC: 디스크 그룹을 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)

이 절차에서는 clsetup 유틸리티를 사용하여 관련된 VxVM 디스크 그룹을 Sun Cluster 장치 그룹으로 등록합니다.


주 –

장치 그룹이 클러스터에 등록된 후에는 VxVM 명령을 사용하여 VxVM 디스크 그룹을 가져오거나 내보내지 마십시오. VxVM 디스크 그룹이나 볼륨을 변경하는 경우, SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)의 절차에 따라 장치 그룹 구성 변경을 등록합니다. 다음 절차를 수행하면 전역 이름 공간이 올바른 상태로 유지됩니다.


이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

시작하기 전에

VxVM 장치 그룹을 등록하기 전에 다음의 필수 조건이 완료되었는지 확인합니다.

기본 설정 순서를 정의할 때, 노드가 실패하고 나중에 클러스터로 복귀한 경우, 장치 그룹을 우선 순위가 높은 기본 노드로 다시 전환할지 여부도 지정해야 합니다.

노드 기본 설정 및 장애 복구 옵션에 대한 자세한 내용은 cldevicegroup(1CL)을 참조하십시오.

노드 기본 설정 순서에 따라 기본이 아닌 (예비) 클러스터 노드가 보조 노드로 전환됩니다. 장치 그룹에 대한 보조 노드의 기본 개수는 일반적으로 1로 설정됩니다. 이 기본 설정은 정상 작동 중에 여러 보조 노드의 기본 검사점 작업으로 인하여 성능이 저하되는 것을 최소화합니다. 예를 들어, 노드가 네 개인 클러스터에서는 기본적으로 기본 노드 하나, 보조 노드 하나, 예비 노드 두 개를 구성합니다. 또한, 장치 그룹에 대한 보조 노드의 수 설정 방법을 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. clsetup 유틸리티를 시작합니다.


    # clsetup
    

    주 메뉴가 표시됩니다.

  3. VxVM 장치 그룹 작업을 하려면 장치 그룹 및 볼륨 옵션에 해당하는 번호를 입력합니다.

    장치 그룹 메뉴가 표시됩니다.

  4. VxVM 장치 그룹에 등록하려면, VxVM 디스크 그룹을 장치 그룹으로 등록하는 옵션에 해당하는 번호를 입력합니다.

    지침에 따라 Sun Cluster 장치 그룹으로 등록할 VxVM 디스크 그룹의 이름을 입력합니다.

    장치 그룹이 저장소 기반 복제를 사용하여 복제된 경우 이 이름은 복제 그룹 이름과 같아야 합니다.

    Oracle Parallel Server/Oracle RAC용 공유 디스크 그룹을 설정하기 위해 VxVM를 사용하는 경우, 클러스터 프레임워크에 공유 디스크 그룹을 등록하지 마십시오. VERITAS Volume Manager Administrator's Reference Guide의 설명에 따라 VxVM의 클러스터 기능을 사용하십시오.

  5. 장치 그룹을 등록하려고 할 때 다음 오류가 발생하면 장치 그룹의 부 번호를 다시 지정합니다.


    scconf: Failed to add device group - in use

    장치 그룹의 부 번호를 다시 지정하려면 SPARC: 장치 그룹에 새 부 번호를 할당하는 방법(VERITAS Volume Manager)의 절차를 수행합니다. 이 절차를 수행하면 기존 장치 그룹이 사용하는 부 번호와 충돌하지 않도록 부 번호를 새로 지정할 수 있습니다.

  6. 복제된 디스크 그룹을 구성하는 경우, 장치 그룹에 대한 복제 등록 정보를 설정합니다.


    # cldevicegroup sync devicegroup
    
  7. 장치 그룹이 등록되고 온라인 상태인지 확인합니다.

    장치 그룹이 올바로 등록되면 다음 명령을 사용할 때 새 장치 그룹에 대한 정보가 표시됩니다.


    # cldevicegroup status devicegroup
    

    주 –

    VxVM 디스크 그룹이나 볼륨에 대한 구성 정보를 변경할 경우에는 clsetup을 사용하여 장치 그룹을 동기화해야 합니다. 이러한 구성 변경에는 그룹, 소유자 또는 기존 볼륨 사용 권한뿐 아니라 볼륨 추가나 제거도 포함됩니다. 구성을 변경한 후에 다시 등록하면 전역 이름 공간이 올바른 상태가 됩니다. 전역 장치 이름 공간을 업데이트하는 방법을 참조하십시오.



예 5–24 SPARC: VERITAS Volume Manager 장치 그룹 등록

다음 예는 VxVM 장치 그룹(dg1)을 등록할 때 clsetup 명령에 의해 생성된 cldevicegroup 명령과 확인 단계를 보여줍니다. 이 예에서는 전에 VxVM 디스크 그룹 및 볼륨을 만들었다고 가정합니다.


# clsetup

# cldevicegroup create -t vxvm -n phys-schost-1,phys-schost-2 -p failback=true dg1


# cldevicegroup status dg1

=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary        Secondary      Status
-----------------    -------        ---------      ------
dg1                  phys-schost-1  phys-schost-2  Online

참조

VxVM 장치 그룹에 클러스터 파일 시스템을 생성하려면 클러스터 파일 시스템을 추가하는 방법을 참조하십시오.

부 번호에 문제가 있으면 SPARC: 장치 그룹에 새 부 번호를 할당하는 방법(VERITAS Volume Manager)을 참조하십시오.

ProcedureSPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)

VxVM 디스크 그룹이나 볼륨에 대한 구성 정보를 변경할 경우 Sun Cluster 장치 그룹에 대한 구성 변경을 등록해야 합니다. 변경 후에 등록하면 전역 이름 공간이 올바른 상태로 유지됩니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. clsetup 유틸리티를 시작합니다.


    # clsetup
    

    주 메뉴가 표시됩니다.

  3. VxVM 장치 그룹 작업을 하려면 장치 그룹 및 볼륨 옵션에 해당하는 번호를 입력합니다.

    장치 그룹 메뉴가 표시됩니다.

  4. 구성 변경을 등록하려면 VxVM 장치 그룹에 대한 볼륨 정보를 동기화하는 옵션에 해당하는 번호를 입력합니다.

    지시에 따라 구성이 변경된 VxVM 디스크 그룹의 이름을 입력합니다.


예 5–25 SPARC: VERITAS Volume Manager 디스크 그룹 구성 변경 등록

다음 예는 변경된 VxVM 장치 그룹(dg1)을 등록할 때 clsetup 명령에 의해 생성된 cldevicegroup 명령을 나타냅니다. 이 예에서는 전에 VxVM 디스크 그룹 및 볼륨을 만들었다고 가정합니다.


# clsetup
 
cldevicegroup sync dg1

Procedure로컬 디스크 그룹을 장치 그룹으로 변환하는 방법(VxVM)

로컬 VxVM 디스크 그룹을 전역 액세스 가능한 VxVM 장치 그룹으로 변경하려면 이 절차를 수행합니다.

  1. 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. clsetup 유틸리티를 시작합니다.


    # clsetup
    
  3. localonly 등록 정보를 설정 해제합니다.

    1. 메뉴 항목에서 장치 그룹 및 볼륨을 선택합니다.

    2. 메뉴 항목에서 로컬 VxVM 디스크 그룹을 VxVM 장치 그룹으로 재설정을 선택합니다.

    3. localonly 등록 정보 설정을 해제하려면 다음 지침을 따릅니다.

  4. 디스크 그룹을 마스터할 수 있는 노드를 지정합니다.

    1. clsetup 유틸리티의 주 메뉴로 복귀합니다.

    2. 메뉴 항목에서 장치 그룹 및 볼륨을 선택합니다.

    3. 메뉴 항목에서 디스크 그룹 등록을 선택합니다.

    4. 지침을 따라 디스크 그룹을 마스터할 수 있는 노드를 지정합니다.

    5. 구성이 완료되면 clsetup 유틸리티를 종료합니다.

  5. 장치 그룹이 구성되었는지 확인합니다.


    phys-schost# cldevicegroup show
    

Procedure장치 그룹을 로컬 디스크 그룹으로 변환하는 방법(VxVM)

VxVM 장치 그룹을 Sun Cluster 소프트웨어가 관리하지 않는 로컬 VxVM 디스크 그룹으로 변경하려면 다음 절차를 수행합니다. 로컬 디스크 그룹의 노드 목록에 두 개 이상의 노드가 있을 수 있지만 한 번에 한 노드만 로컬 디스크 그룹을 마스터할 수 있습니다.

  1. 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. 장치 그룹을 오프라인으로 전환합니다.


    phys-schost# cldevicegroup offline devicegroup
    
  3. 장치 그룹의 등록을 해제합니다.

    1. clsetup 유틸리티를 시작합니다.


      phys-schost# clsetup
      
    2. 메뉴 항목에서 장치 그룹 및 볼륨을 선택합니다.

    3. 메뉴 항목에서 VxVM 디스크 그룹 등록 해제를 선택합니다.

    4. 지침을 따라 Sun Cluster 소프트웨어에서 등록 해제할 VxVM 디스크 그룹을 지정합니다.

    5. clsetup 유틸리티를 종료합니다.

  4. Sun Cluster 소프트웨어에 디스크 그룹이 더 이상 등록되지 않았는지 확인합니다.


    phys-schost# cldevicegroup status
    

    등록 해제된 장치 그룹은 명령 출력에 더 이상 나타나지 않습니다.

  5. 디스크 그룹을 가져옵니다.


    phys-schost# vxdg import diskgroup
    
  6. 디스크 그룹의 localonly 등록 정보를 설정합니다.

    1. clsetup 유틸리티를 시작합니다.


      phys-schost# clsetup
      
    2. 메뉴 항목에서 장치 그룹 및 볼륨을 선택합니다.

    3. 메뉴 항목에서 VxVM 디스크 그룹을 로컬 디스크 그룹으로 설정을 선택합니다.

    4. 지침을 따라 localonly 구성 정보를 설정하고 디스크 그룹을 독점적으로 마스터하는 단일 노드를 지정합니다.

    5. 구성이 완료되면 clsetup 유틸리티를 종료합니다.

  7. 디스크 그룹이 로컬 디스크 그룹으로 성공적으로 구성되었는지 확인합니다.


    phys-schost# vxdg list diskgroup
    

ProcedureSPARC: 장치 그룹에서 볼륨을 제거하는 방법(VERITAS Volume Manager)


주 –

장치 그룹에서 볼륨을 제거한 후 SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)의 절차를 수행하여 구성 변경 사항을 장치 그룹에 등록해야 합니다.


이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.readsolaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 장치 그룹에 대한 기본 노드와 상태를 판별합니다.


    # cldevicegroup status devicegroup
    
  3. 장치 그룹이 오프라인이면 온라인으로 전환합니다.


    # cldevicegroup online devicegroup
    
  4. 기본 노드(현재 장치 그룹을 마스터하는 노드)에서 디스크 그룹에 있는 VxVM 볼륨을 제거합니다.


    # vxedit -g diskgroup -rf rm volume
    
    -g diskgroup

    볼륨을 포함하는 VxVM 디스크 그룹을 지정합니다.

    -rf rm volume

    지정된 볼륨을 제거합니다. -r 옵션은 작업을 순환시킵니다. -f 옵션은 사용 가능한 볼륨을 제거합니다.

  5. clsetup 유틸리티를 사용하여 장치 그룹 구성 변경을 전역 이름 공간에 등록합니다.

    SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)을 참조하십시오.

ProcedureSPARC: 장치 그룹 제거 및 등록 해제 방법(VERITAS Volume Manager)

Sun Cluster 장치 그룹을 제거하면 VxVM 해당 디스크 그룹이 삭제되지 않고 내보내기됩니다. 그러나 VxVM 디스크 그룹이 계속 남아 있어도 다시 등록하지 않으면 클러스터에서 사용할 수 없습니다.

이 절차에서는 clsetup 유틸리티를 사용하여 VxVM 디스크 그룹을 제거하고 Sun Cluster 장치 그룹을 등록 해제합니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 장치 그룹을 오프라인으로 전환합니다.


    # cldevicegroup offline devicegroup
    
  3. clsetup 유틸리티를 시작합니다.


    # clsetup
    

    주 메뉴가 표시됩니다.

  4. VxVM 장치 그룹 작업을 하려면 장치 그룹 및 볼륨 옵션에 해당하는 번호를 입력합니다.

    장치 그룹 메뉴가 표시됩니다.

  5. VxVM 디스크 그룹을 등록 해제하려면, VxVM 장치 그룹을 등록 해제하는 옵션에 해당하는 번호를 입력합니다.

    지침에 따라 등록 해제할 VxVM 디스크 그룹의 이름을 입력합니다.


예 5–26 SPARC: VERITAS Volume Manager 장치 그룹 제거 및 등록 해제

다음 예에서는 오프라인으로 전환된 VxVM 장치 그룹 dg1과 장치 그룹을 제거하고 등록 해제할 때 clsetup에 의해 생성되는 cldevicegroup 명령을 보여줍니다.


# cldevicegroup offline dg1
# clsetup

   cldevicegroup delete dg1

ProcedureSPARC: 장치 그룹에 노드를 추가하는 방법(VERITAS Volume Manager)

이 절차에서는 clsetup 유틸리티를 사용하여 장치 그룹에 노드를 추가합니다.

VxVM 장치 그룹에 노드를 추가하기 위한 필수 조건은 다음과 같습니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.readsolaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. clsetup 유틸리티를 시작합니다.


    # clsetup
    

    주 메뉴가 표시됩니다.

  3. VxVM 장치 그룹 작업을 하려면 장치 그룹 및 볼륨 옵션에 해당하는 번호를 입력합니다.

    장치 그룹 메뉴가 표시됩니다.

  4. VxVM 장치 그룹에 노드를 추가하려면, VxVM 장치 그룹에 노드를 추가하는 옵션에 해당하는 번호를 입력합니다.

    지침에 따라 장치 그룹 및 노드 이름을 입력합니다.

  5. 노드가 추가되었는지 확인합니다.

    다음 명령을 실행하여 장치 그룹 정보에 새 디스크가 표시되는지 확인하십시오.


    # cldevicegroup show devicegroup 
    

예 5–27 SPARC: VERITAS Volume Manager 장치 그룹에 노드 추가

다음 예는 VxVM 장치 그룹(dg1 )에 노드(phys-schost-3)를 추가할 때 clsetup 명령에 의해 생성되는 scconf 명령과 확인 단계를 보여줍니다.


# clsetup
 
cldevicegroup add-node -n phys-schost-3 dg1
  
# cldevicegroup show dg1

=== Device Groups === 

Device Group Name:                        dg1
  Type:                                     VxVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-3
  preferenced:                              no
  numsecondaries:                           1
  diskgroup names:                             dg1

ProcedureSPARC: 장치 그룹에서 노드를 제거하는 방법(VERITAS Volume Manager)

VERITAS Volume Manager(VxVM) 장치 그룹(디스크 그룹)의 잠재적인 기본 노드 목록에서 클러스터 노드를 제거하려면 이 절차를 수행하십시오.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 노드가 아직 그룹의 구성원인지 그리고 그룹이 VxVM 장치 그룹인지를 확인합니다.

    장치 그룹 유형이 VxVM이면 VxVM 장치 그룹임을 나타냅니다.


    phys-schost-1% cldevicegroup show devicegroup
    
  2. 현재 클러스터 구성원 노드에서 수퍼유저 또는 solaris.cluster.read solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  3. clsetup 유틸리티를 시작합니다.


    # clsetup
    

    주 메뉴가 표시됩니다.

  4. 장치 그룹을 재구성하려면, 장치 그룹 및 볼륨 옵션에 해당하는 번호를 입력합니다.

  5. VxVM 장치 그룹에서 노드를 제거하려면 VxVM 장치 그룹에서 노드를 제거하는 옵션에 해당하는 번호를 입력합니다.

    화면의 메시지에 따라 장치 그룹에서 클러스터 노드를 제거합니다. 다음 정보를 묻는 메시지가 나타납니다.

    • VxVM 장치 그룹

    • 노드 이름

  6. 하나 또는 여러 VxVM 장치 그룹에서 노드가 제거되었는지 확인합니다.


    # cldevicegroup show devicegroup
    

예 5–28 SPARC: 장치 그룹에서 노드 제거(VxVM)

이 예에서는 phys-schost-1 노드를 dg1 VxVM 장치 그룹에서 제거하는 것을 보여줍니다.


[Determine the VxVM device group for the node:]
# cldevicegroup show dg1

=== Device Groups === 

Device Group Name:                        dg1
  Type:                                     VXVM
  failback:                                 no
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              no
  numsecondaries:                           1
  diskgroup names:                             dg1
[Become superuser and start the clsetup utility:]
# clsetup
 Select Device groups and volumes>Remove a node from a VxVM device group.

Answer the questions when prompted. 
You will need the following information.
  Name:            Example:
  VxVM device group name    dg1
  node names                phys-schost-1

[Verify that the cldevicegroup command executed properly:]
 cldevicegroup remove-node -n phys-schost-1 dg1
 
    Command completed successfully.
Dismiss the clsetup  Device Groups Menu and Main Menu.
[Verify that the node was removed:]
# cldevicegroup show dg1

=== Device Groups === 

Device Group Name:                        dg1
  Type:                                     VXVM
  failback:                                 no
  Node List:                                phys-schost-2
  preferenced:                              no
  numsecondaries:                           1
  device names:                             dg1

Procedure원시 디스크 장치 그룹에서 노드를 제거하는 방법

원시 디스크 장치 그룹의 잠재적인 기본 노드 목록에서 클러스터 노드를 제거하려면 다음 절차를 수행합니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 제거할 노드 이외의 노드에서 수퍼유저 또는 solaris.cluster.readsolaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 제거할 노드와 연결된 장치 그룹을 식별하고, 원시 디스크 장치 그룹을 판별합니다.


    # cldevicegroup show -n nodename -t rawdisk +
    
  3. Local_Disk 원시 디스크 장치 그룹 각각의 localonly 등록 정보를 비활성화합니다.


    # cldevicegroup set -p localonly=false devicegroup
    

    localonly 등록 정보에 대한 자세한 내용은 cldevicegroup(1CL) 매뉴얼 페이지를 참조하십시오.

  4. 제거할 노드에 연결된 모든 원시 디스크 장치 그룹의 localonly 등록 정보를 비활성화해야 합니다.

    Disk 장치 그룹 유형은 해당 원시 디스크 장치 그룹에 대해 localonly 등록 정보가 비활성화된 것을 나타냅니다.


    # cldevicegroup show -n nodename -t rawdisk -v + 
    
  5. 단계 2에서 식별한 모든 원시 디스크 장치에서 노드를 제거합니다.

    제거할 노드가 연결된 각 원시 디스크 장치 그룹에 대하여 이 단계를 완료해야 합니다.


    # cldevicegroup remove-node -n nodename devicegroup
    

예 5–29 SPARC: 원시 장치 그룹에서 노드 제거

이 예에서는 원시 디스크 장치 그룹에서 노드(phys-schost-2)를 제거하는 방법을 설명합니다. 모든 명령이 클러스터의 다른 노드(phys-schost-1)에서 실행됩니다.


[Identify the device groups connected to the node being removed, and determine which are raw-disk device groups:]
phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk -v +	
Device Group Name:                              dsk/d4
  Type:                                           Disk
  failback:                                       false
  Node List:                                      phys-schost-2
  preferenced:                                    false
  localonly:                                      false
  autogen                                         true
  numsecondaries:                                 1
  device names:                                   phys-schost-2

Device Group Name:                              dsk/d2
  Type:                                           VxVM
  failback:                                       true
  Node List:                                      pbrave2
  preferenced:                                    false
  localonly:                                      false
  autogen                                         true
  numsecondaries:                                 1
  diskgroup name:                                 vxdg1

Device Group Name:                              dsk/d1
  Type:                                           SVM
  failback:                                       false
  Node List:                                      pbrave1, pbrave2
  preferenced:                                    true
  localonly:                                      false
  autogen                                         true
  numsecondaries:                                 1
  diskset name:                                   ms1
(dsk/d4) Device group node list:  phys-schost-2
	(dsk/d2) Device group node list:  phys-schost-1, phys-schost-2
	(dsk/d1) Device group node list:  phys-schost-1, phys-schost-2
[Disable the localonly flag for each local disk on the node:]
phys-schost-1# cldevicegroup set -p localonly=false dsk/d4
[Verify that the localonly flag is disabled:]
phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk +   
 (dsk/d4) Device group type:          Disk
 (dsk/d8) Device group type:          Local_Disk
[Remove the node from all raw-disk device groups:]

phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d4
phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d2
phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d1

Procedure장치 그룹의 등록 정보 변경 방법

장치 그룹의 기본 소유권 설정 방식은 preferenced라는 소유권 기본 설정 속성을 기반으로 합니다. 이 속성이 설정되지 않은 경우에는 다른 노드가 소유하지 않은 장치 그룹의 디스크에 처음으로 액세스를 시도하는 노드가 해당 그룹을 소유하게 됩니다. 그러나 이 속성이 설정되면 노드가 소유권을 얻기 위해 시도하는 순서를 지정해야 합니다.

preferenced 속성을 비활성화하면 failback 속성도 자동으로 비활성화됩니다. 그러나 preferenced 속성을 활성화하거나 재활성화하려는 경우 failback 속성을 활성화하거나 비활성화하도록 선택할 수 있습니다.

preferenced 속성이 활성화되거나 다시 활성화되면 기본 소유권 순위 목록에서 노드 순서를 다시 지정해야 합니다.

이 절차에서는 Solaris Volume Manager 또는 VxVM 장치 그룹에 대한 preferenced 속성 및 failback 속성을 설정 또는 설정을 해제하기 위해 clsetup 명령을 사용합니다.

시작하기 전에

이 절차를 수행하려면 속성 값을 변경할 장치 그룹의 이름이 필요합니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.readsolaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. clsetup 유틸리티를 시작합니다.


    # clsetup
    

    주 메뉴가 표시됩니다.

  3. 장치 그룹 작업을 하려면 장치 그룹 및 볼륨 옵션에 해당하는 번호를 입력합니다.

    장치 그룹 메뉴가 표시됩니다.

  4. 장치 그룹의 키 등록 정보를 변경하려면 VxVM 또는 Solaris Volume Manager 장치 그룹의 키 등록 정보를 변경하는 옵션에 해당하는 번호를 입력합니다.

    주요 등록 정보 변경 메뉴가 표시됩니다.

  5. 장치 그룹의 등록 정보를 변경하려면 기본 설정 및/또는 장애 복구 등록 정보를 변경하는 옵션에 해당하는 번호를 입력합니다.

    지침에 따라 장치 그룹에 대한 preferencedfailback 옵션을 설정합니다.

  6. 장치 그룹 속성이 변경되었는지 확인하십시오.

    다음 명령을 실행하여 장치 그룹 정보가 표시되는지 확인합니다.


    # cldevicegroup show -v devicegroup 
    

예 5–30 장치 그룹의 등록 정보 변경

다음은 장치 그룹(dg-schost-1)에 대한 속성 값을 설정할 때 clsetup에 의해 생성된 cldevicegroup 명령을 보여줍니다.


# cldevicegroup set -p preferenced=true -p failback=true -p numsecondaries=1 \
-p nodelist=phys-schost-1,phys-schost-2 dg-schost-1
# cldevicegroup show dg-schost-1

=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     SVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              yes
  numsecondaries:                           1
  diskset names:                             dg-schost-1

Procedure장치 그룹에 대한 보조 노드의 수 설정 방법

numsecondaries 등록 정보는 기본 노드가 실패할 경우 그룹을 마스터할 수 있는 장치 그룹 내의 노드 수를 지정합니다. 장치 서비스를 위한 보조 노드의 기본 수는 1입니다. 값은 1부터 장치 그룹에서 작동하는 기본 이외의 공급자 노드 수까지, 정수로 설정할 수 있습니다.

이 설정은 클러스터의 성능과 가용성 사이에 균형을 맞추는 데 중요한 역할을 하는 값입니다. 예를 들어, 보조 노드 수를 증가시키면 클러스터에서 동시에 여러 번 장애가 발생할 경우에도 장치 그룹이 작동할 확률이 높아집니다. 또한 보조 노드 수를 증가시키면 정상 작동 중에 주기적으로 성능이 떨어집니다. 일반적으로 보조 노드 수가 적을수록 성능은 좋아지지만 가용성은 떨어집니다. 그러나 보조 노드 수가 많다고 해서 문제가 발생하는 파일 시스템이나 장치 그룹의 가용성이 항상 높아지는 것은 아닙니다. 자세한 내용은 Sun Cluster Concepts Guide for Solaris OS의 3 장, Key Concepts for System Administrators and Application Developers을 참조하십시오.

numsecondaries 등록 정보가 변경되면, 실제 보조 노드 수와 원하는 개수가 맞지 않을 경우에 보조 노드가 장치 그룹에 추가되거나 장치 그룹에서 제거됩니다.

이 절차에서는 장치 그룹의 모든 유형에 대하여 numsecondaries 등록 정보를 설정하기 위해 clsetup 유틸리티를 사용합니다. 장치 그룹을 구성할 때 장치 그룹 옵션에 대한 자세한 내용은 cldevicegroup(1CL)을 참조하십시오.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.readsolaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. clsetup 유틸리티를 시작합니다.


    # clsetup
    

    주 메뉴가 표시됩니다.

  3. 장치 그룹 작업을 하려면 장치 그룹 및 볼륨이라는 레이블이 붙은 옵션을 선택합니다.

    장치 그룹 메뉴가 표시됩니다.

  4. 장치 그룹의 키 등록 정보를 변경하려면 장치 그룹에서 키 등록 정보 변경이라는 레이블이 붙은 옵션을 선택합니다.

    주요 등록 정보 변경 메뉴가 표시됩니다.

  5. 보조 노드의 수를 변경하려면 numsecondaries 등록 정보를 변경하는 옵션에 해당하는 번호를 입력합니다.

    지침에 따라 장치 그룹에 대해 구성할 원하는 보조 노드의 수를 입력합니다. 그러면 해당하는 cldevicegroup 명령이 실행되고 로그가 인쇄되고 유틸리티는 이전 메뉴로 복귀합니다.

  6. 장치 그룹 구성을 검증합니다.


    # cldevicegroup show dg-schost-1
    === Device Groups ===                          
    
    Device Group Name:                    dg-schost-1
      Type:                                 VxVm  This might also be SDS or Local_Disk.
      failback:                             yes
      Node List:                            phys-schost-1, phys-schost-2 phys-schost-3
      preferenced:                          yes
      numsecondaries:                       1
      diskgroup names:                         dg-schost-1

    주 –

    클러스터에 등록된 VxVM 디스크 그룹 또는 볼륨에 대한 구성 정보를 변경하는 경우 clsetup 명령을 사용하여 장치 그룹을 다시 등록해야 합니다. 이러한 구성 변경에는 그룹, 소유자 또는 기존 볼륨 사용 권한뿐 아니라 볼륨 추가나 제거도 포함됩니다. 구성을 변경한 후에 다시 등록하면 전역 이름 공간이 올바른 상태가 됩니다. 전역 장치 이름 공간을 업데이트하는 방법을 참조하십시오.


  7. 장치 그룹 속성이 변경되었는지 확인합니다.

    다음 명령을 실행하여 표시되는 장치 그룹 정보를 확인합니다.


    # cldevicegroup show -v devicegroup 
    

예 5–31 필요한 보조 노드 수 변경(Solstice DiskSuite 또는 Solaris Volume Manager)

다음 예에서는 장치 그룹(dg-schost-1)에 대한 보조 노드의 수를 구성할 때 clsetup에 의해 생성된 cldevicegroup 명령을 나타냅니다. 이 예에서는 전에 디스크 그룹과 볼륨을 만들었다고 가정합니다.


# cldevicegroup set -p numsecondaries=1 dg-schost-1
# cldevicegroup show -v dg-schost-1

=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     SVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              yes
  numsecondaries:                           1
  diskset names:                             dg-schost-1


예 5–32 SPARC: 필요한 보조 노드 수 설정(VERITAS Volume Manager)

다음 예에서는 장치 그룹(dg-schost-1)에 대한 보조 노드의 수를 2로 설정할 때 clsetup에 의해 생성된 cldevicegroup 명령을 보여줍니다. 장치 그룹을 만든 후 보조 노드의 수를 변경하는 방법에 대한 자세한 내용은 장치 그룹에 대한 보조 노드의 수 설정 방법을 참조하십시오.


# cldevicegroup set -p numsecondaries=2 dg-schost-1

# cldevicegroup show dg-schost-1
=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     VxVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              yes
  numsecondaries:                           1
  diskgroup names:                             dg-schost-1 


예 5–33 원하는 보조 노드의 수를 기본값으로 설정

다음은 null 문자열 값을 사용하여 보조 노드의 기본 개수를 구성하는 예입니다. 기본값이 변경될 경우에도 장치 그룹이 기본값을 사용하도록 구성됩니다.


# cldevicegroup set -p numsecondaries= dg-schost-1
# cldevicegroup show -v dg-schost-1

=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     SVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2 phys-schost-3
  preferenced:                              yes
  numsecondaries:                           1
  diskset names:                             dg-schost-1

Procedure장치 그룹 구성 목록을 표시하는 방법

구성 목록을 표시하기 위해 수퍼유저로 전환할 필요는 없습니다. 그러나, solaris.cluster.read 인증이 필요합니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 다음 방법 중 하나를 사용합니다.

    Sun Cluster Manager GUI

    자세한 내용은 Sun Cluster Manager 온라인 도움말을 참조하십시오.

    cldevicegroup show

    클러스터의 모든 장치 그룹에 대한 구성 목록을 표시하려면 cldevicegroup show 명령을 사용합니다.

    cldevicegroup show devicegroup

    단일 장치 그룹의 구성을 표시하려면 cldevicegroup show devicegroup 명령을 사용합니다.

    cldevicegroup status devicegroup

    단일 장치 그룹의 상태를 판별하려면 cldevicegroup status devicegroup 명령을 사용합니다.

    cldevicegroup status +

    클러스터의 모든 장치 그룹의 상태를 판별하려면 cldevicegroup status + 명령을 사용합니다.

    이러한 명령에 대한 자세한 내용을 보려면 -v 옵션을 사용합니다.


예 5–34 모든 장치 그룹의 상태 표시


# cldevicegroup status +

=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary         Secondary        Status
-----------------    -------         ---------        ------
dg-schost-1          phys-schost-2   phys-schost-1    Online
dg-schost-2          phys-schost-1   --               Offline
dg-schost-3          phys-schost-3   phy-shost-2      Online


예 5–35 특정 장치 그룹의 구성 표시


# cldevicegroup show dg-schost-1

=== Device Groups ===                          

Device Group Name:                              dg-schost-1
  Type:                                           SVM
  failback:                                       yes
  Node List:                                      phys-schost-2, phys-schost-3
  preferenced:                                    yes
  numsecondaries:                                 1
  diskset names:                                   dg-schost-1

Procedure장치 그룹의 기본 노드를 전환하는 방법

다음 절차를 수행하면 비활성 장치 그룹을 시작(온라인으로 전환)할 수도 있습니다.

Sun Cluster Manager GUI를 사용하여 비활성 장치 그룹을 온라인으로 전환하거나 장치 그룹에 대한 기본을 전환할 수도 있습니다. 자세한 내용은 Sun Cluster Manager 온라인 도움말을 참조하십시오.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 프로파일로 전환합니다.

  2. 기본 장치 그룹을 전환하려면 cldevicegroup switch를 사용합니다.


    # cldevicegroup switch -n nodename devicegroup 
    
    -n nodename

    전환할 대상 노드의 이름을 지정합니다. 이 노드가 새 기본 노드가 됩니다.

    devicegroup

    전환할 장치 그룹을 지정합니다.

  3. 장치 그룹이 새로운 기본 노드로 전환되었는지 확인합니다.

    장치 그룹이 올바로 등록되면 다음 명령을 사용할 때 새 장치 그룹에 대한 정보가 표시됩니다.


    # cldevice status devicegroup
    

예 5–36 장치 그룹에 대한 기본 노드 전환

다음 예는 장치 그룹에 대한 기본 노드를 전환하는 방법과 변경을 확인하는 방법입니다.


# cldevicegroup switch -n phys-schost-1 dg-schost-1

# cldevicegroup status dg-schost-1

=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary        Secondary       Status
-----------------    -------        ---------       ------
dg-schost-1          phys-schost-1   phys-schost-2  Online

Procedure장치 그룹을 유지 보수 상태로 만드는 방법

장치 그룹을 유지 보수 상태로 두면 장치 중 하나가 액세스되더라도 장치 그룹이 온라인으로 자동 전환되지 않습니다. 복구 절차를 완료하기 위해 모든 I/O 작업을 중단해야 하는 경우에는 복구가 완료될 때까지 장치 그룹을 유지 보수 상태로 바꿔야 합니다. 장치 그룹을 유지 보수 상태로 만들면 한 노드에서 디스크 세트나 디스크 그룹이 복구되는 동안 다른 노드에서 디스크 그룹이 온라인 상태가 되지 않도록 하여 데이터 손실을 방지합니다.


주 –

디스크 그룹을 유지 보수 상태로 만들려면 먼저 장치에 대한 모든 액세스를 중단하고 관련 파일 시스템의 마운트를 모두 해제해야 합니다.


이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 장치 그룹을 유지 보수 상태로 만듭니다.

    1. 장치 그룹이 활성화되어 있으면 비활성화합니다.


      # cldevicegroup disable devicegroup
      
    2. 장치 그룹을 오프라인으로 전환합니다.


      # cldevicegroup offline devicegroup
      
  2. 복구 절차를 수행하기 위해 디스크 세트나 디스크 그룹에 대한 소유권이 필요한 경우 직접 해당 디스크 세트나 디스크 그룹을 가져옵니다.

    Solaris Volume Manager의 경우:


    # metaset -C take -f -s diskset
    

    주의 – 주의 –

    Solaris Volume Manager 디스크 세트에 대한 소유권을 받는 경우에는 장치 그룹이 유지 보수 상태에 있을 때 metaset -C take 명령을 반드시 사용해야 합니다. metaset -t 명령을 사용하면 소유권을 받을 때 장치 그룹이 온라인 상태로 전환됩니다. VxVM 디스크 그룹을 가져올 경우에는 디스크 그룹을 가져올 때 -t 플래그를 사용해야 합니다. -t 플래그를 사용하면 이 노드가 재부트될 때 자동으로 디스크 그룹을 가져오지 않습니다.


    VERITAS Volume Manager의 경우:


    # vxdg -t import disk-group-name
    
  3. 수행해야 할 복구 절차를 완료합니다.

  4. 디스크 세트나 디스크 그룹에 대한 소유권을 해제합니다.


    주의 – 주의 –

    장치 그룹을 유지 보수 상태에서 해제하기 전에 디스크 세트나 디스크 그룹에 대한 소유권을 해제해야 합니다. 소유권 해제가 실패하면 데이터 손실이 일어날 수 있습니다.


    • Solaris Volume Manager의 경우:


      # metaset -C release -s diskset
      
    • VERITAS Volume Manager의 경우:


      # vxdg deport diskgroupname
      
  5. 장치 그룹을 온라인으로 전환합니다.


    # cldevicegroup online devicegroup
    # cldevicegroup enable devicegroup
    

예 5–37 장치 그룹을 유지 보수 상태로 만들기

이 예에서는 장치 그룹 dg-schost-1을 유지 보수 상태로 만들고 유지 보수 상태에서 장치 그룹을 제거하는 방법을 보여줍니다.


[Place the device group in maintenance state.]
# cldevicegroup disable dg-schost-1
# cldevicegroup offline dg-schost-1 
[If needed, manually import the disk set or disk group.]
For Solaris Volume Manager:
  # metaset -C take -f -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg -t import dg1
  
[Complete all necessary repair procedures.]
  
[Release ownership.]
For Solaris Volume Manager:
  # metaset -C release -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg deport dg1
  
[Bring the device group online.]
# cldevicegroup online dg-schost-1
# cldevicegroup enable dg-schost-1

저장소 장치에 대한 SCSI 프로토콜 설정 관리

Sun Cluster 소프트웨어를 설치하면 모든 저장소 장치에 SCSI 예약이 자동으로 할당됩니다. 다음 절차에 따라 장치 설정을 확인하고 필요에 따라 장치 설정을 겹쳐 씁니다.

Procedure모든 저장소 장치에 대한 기본 전역 SCSI 프로토콜 설정을 표시하는 방법

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 수퍼유저 또는 solaris.cluster.read RBAC 인증을 제공하는 역할로 전환합니다.

  2. 모든 노드에 현재 기본 전역 SCSI 프로토콜 설정을 표시합니다.


    # cluster show -t global
    

    자세한 내용은 cluster(1CL) 매뉴얼 페이지를 참조하십시오.


예 5–38 모든 저장소 장치에 대한 기본 전역 SCSI 프로토콜 설정 표시

다음 예에서는 클러스터의 모든 저장소 장치에 대한 SCSI 프로토콜 설정을 표시합니다.


# cluster show -t global

=== Cluster ===                                

Cluster Name:                                   racerxx
  installmode:                                    disabled
  heartbeat_timeout:                              10000
  heartbeat_quantum:                              1000
  private_netaddr:                                172.16.0.0
  private_netmask:                                255.255.248.0
  max_nodes:                                      64
  max_privatenets:                                10
  global_fencing:                                 scsi3
  Node List:                                      phys-racerxx-1, phys-racerxx-2

Procedure단일 저장소 장치의 SCSI 프로토콜 표시 방법

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 수퍼유저 또는 solaris.cluster.read RBAC 인증을 제공하는 역할로 전환합니다.

  2. 모든 노드에 저장소 장치의 SCSI 프로토콜을 표시합니다.


    # cldevice show device
    
    device

    장치 경로 이름 또는 장치 이름.

    자세한 정보는 cldevice(1CL)매뉴얼 페이지를 참조하십시오.


예 5–39 단일 장치의 SCSI 프로토콜 표시

다음 예에서는 장치 /dev/rdsk/c4t8d0에 대한 SCSI 프로토콜을 표시합니다.


# cldevice show /dev/rdsk/c4t8d0


=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d3
  Full Device Path:                               phappy1:/dev/rdsk/c4t8d0
  Full Device Path:                               phappy2:/dev/rdsk/c4t8d0
  Replication:                                    none
  default_fencing:                                global

Procedure모든 저장소 장치에 대한 기본 전역 SCSI 프로토콜 설정을 변경하는 방법

단일 저장소 장치의 기본 경계 설정은 장치의 기본 경계가 pathcount 또는 scsi3으로 설정될 때 전역 설정으로 대체됩니다. 저장소 장치의 기본 경계 설정이 global인 경우 저장소 장치는 전역 설정을 사용하게 됩니다. 예를 들어, 저장소 장치의 기본 설정이 pathcount인 경우에는 이 절차를 따라 전역 SCSI 프로토콜 설정을 scsi3으로 변경해도 설정이 변경되지 않습니다. 단일 장치의 기본 설정을 변경하려면 단일 저장소 장치에 대한 SCSI 프로토콜을 변경하는 방법을 사용해야 합니다.

쿼럼 장치에 대한 기본 경계 설정을 변경하려면 장치의 구성을 해제하고, 설정을 변경한 다음 쿼럼 장치를 재구성해야 합니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 쿼럼 장치가 아닌 모든 저장소 장치에 대한 SCSI 프로토콜을 설정합니다.


    cluster set -p global_fencing={scsi3 | pathcount}
    -p global_fencing

    모든 공유 장치에 대하여 현재 기본 경계 알고리즘을 설정합니다.

    scsi3

    SCSI-3 프로토콜을 사용합니다.

    pathcount

    공유 장치에 첨부된 DID 경로의 수로 경계 프로토콜을 판별합니다.


예 5–40 모든 저장소 장치에 대한 기본 전역 SCSI 프로토콜 설정 표시

다음 예에서는 클러스터의 모든 저장소 장치에 대한 SCSI 프로토콜을 SCSI-3으로 설정합니다.


# cluster set -p global_fencing=scsi3

Procedure단일 저장소 장치에 대한 SCSI 프로토콜을 변경하는 방법

쿼럼 장치에 대한 기본 경계 설정을 변경하려면 장치를 재구성해야 합니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 저장소 장치에 대한 SCSI 프로토콜을 설정합니다.


    # cldevice set -p default_fencing ={pathcount | scsi3 | global} device
    
    -p

    장치 등록 정보를 수정합니다.

    pathcount

    공유 장치에 첨부된 DID 경로의 수로 경계 프로토콜을 판별합니다.

    scsi3

    SCSI-3 프로토콜을 사용합니다.

    전역

    기본 경계 설정으로 전역을 사용합니다.

    device

    장치 경로의 이름 또는 장치 이름을 지정합니다.

    자세한 내용은 cluster(1CL) 매뉴얼 페이지를 참조하십시오.


예 5–41 단일 장치의 SCSI 프로토콜 설정

다음 예에서는 장치 11을 장치 번호에 의해 지정된 SCSI-3 프로토콜로 설정합니다.


# cldevice set -p default_fencing=scsi3 5

클러스터 파일 시스템 관리

클러스터 파일 시스템은 클러스터의 모든 노드에서 읽고 액세스할 수 있는 전역적으로 사용 가능한 파일 시스템입니다.

표 5–5 작업 맵: 클러스터 파일 시스템 관리

작업 

지침 

newfs(1M)mkdir 명령을 사용하여 Sun Cluster 초기 설치 후 클러스터 파일 시스템을 추가합니다.

클러스터 파일 시스템을 추가하는 방법

fuser(1M)umount(1M)를 사용하여 클러스터 파일 시스템을 제거합니다.

클러스터 파일 시스템을 제거하는 방법

노드를 지나는 일관성을 위해 sccheck(1M)를 사용하여 클러스터의 전역 마운트 지점을 확인합니다.

클러스터에서 전역 마운트를 확인하는 방법

Procedure클러스터 파일 시스템을 추가하는 방법

처음 Sun Cluster를 설치한 후에 만드는 각 클러스터 파일 시스템에 대하여 이 작업을 수행하십시오.


주의 – 주의 –

정확한 디스크 장치 이름을 지정해야 합니다. 클러스터 파일 시스템을 만들면 디스크에 있는 데이터가 모두 삭제됩니다. 잘못된 장치 이름을 지정하면 지우려고 하지 않은 데이터가 삭제됩니다.


다음의 필수 조건은 추가적인 클러스터 파일 시스템을 추가하기 전에 완료되어야 함을 확인하십시오.

Sun Cluster Manager를 사용하여 데이터 서비스를 설치한 경우에 클러스터 파일 시스템을 만들 충분한 공유 디스크가 있었으면 이미 하나 이상의 클러스터 파일 시스템이 있습니다.

이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 임의의 클러스터의 노드에서 수퍼유저로 전환합니다.


    정보 –

    더 빨리 파일 시스템을 만들려면 파일 시스템을 만드는 전역 장치 기본에서 수퍼유저로 전환합니다.


  2. newfs 명령을 사용하여 파일 시스템을 생성합니다.


    주 –

    newfs 명령은 새 UFS 파일 시스템을 만드는 데만 사용합니다. 새 VxFS 파일 시스템을 만들려면 VxFS 문서에 있는 절차를 수행하십시오.



    # newfs raw-disk-device
    

    다음 표는 raw-disk-device 인자 이름의 예입니다. 이름 지정 규칙은 볼륨 관리자마다 다릅니다.

    볼륨 관리자 

    디스크 장치 이름 

    설명 

    Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    oracle 디스크 세트에 포함된 원시 디스크 장치 d1

    SPARC: VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹에 포함된 원시 디스크 장치 vol01

    없음 

    /dev/global/rdsk/d1s3

    블록 슬라이스 d1s3에 대한 원시 디스크 장치

  3. 클러스터의 각 노드에서 클러스터 파일 시스템에 대한 마운트 지점 디렉토리를 만듭니다.

    해당 노드에서 클러스터 파일 시스템에 액세스하지 않더라도 각 노드에 마운트 지점이 필요합니다.


    정보 –

    관리를 쉽게 하기 위해서는 /global/devicegroup 디렉토리에 마운트 지점을 작성하십시오. 이 위치를 사용하면 로컬 파일 시스템에서 전역으로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.



    # mkdir -p /global/devicegroup mountpoint
    
    devicegroup

    장치를 포함하는 장치 그룹의 이름에 해당되는 디렉토리 이름

    mountpoint

    클러스터 파일 시스템을 마운트할 디렉토리의 이름

  4. 클러스터의 각 노드에서 /etc/vfstab 파일에 마운트 포인트에 대한 항목을 추가하십시오.

    1. 다음 필수 마운트 옵션을 사용하십시오.


      주 –

      모든 클러스터 파일 시스템에 로깅이 필요합니다.


      • Solaris UFS logging – global,logging 마운트 옵션을 사용합니다. UFS 마운트 옵션에 대한 자세한 내용은 mount_ufs(1M) 매뉴얼 페이지를 참조하십시오.


        주 –

        UFS 클러스터 파일 시스템에는 syncdir 마운트 옵션을 지정할 필요가 없습니다. syncdir 옵션을 지정하면 파일 시스템이 POSIX와 호환되도록 작동합니다. 이 옵션을 지정하지 않으면 UFS 파일 시스템과 동일하게 작동합니다. syncdir을 지정하지 않으면 데이터를 파일에 추가하는 경우 디스크 블록을 할당하는 쓰기 성능이 크게 향상됩니다. 그러나 어떤 경우에는 syncdir을 사용하지 않으면 파일을 닫을 때까지 공간 부족 상태가 발견되지 않을 수 있습니다. syncdir을 지정하지 않아서 문제가 발생하는 경우는 거의 없습니다. syncdir(및 POSIX 호환 작동)을 사용하면 파일을 닫기 전에 공간 부족 상태가 발견됩니다.


      • Solaris Volume Manager 트랜잭션 볼륨 –로깅 마운트 옵션을 사용하지 말고 전역 마운트 옵션을 사용하십시오. 트랜스 메타 장치 설정 방법은 Solaris Volume Manager 문서를 참조하십시오.


        주 –

        이후의 Solaris 소프트웨어 릴리스에서는 트랜잭션 볼륨이 Solaris OS에서 없어질 예정입니다. Solaris UFS는 시스템 관리 요구 사항과 오버헤드는 줄이면서 기능은 동일하지만 보다 우수한 성능을 제공합니다.


      • VxFS 로깅 – globallog 마운트 옵션을 사용합니다. 자세한 내용은 VxFS 소프트웨어와 함께 제공된 mount_vxfs 매뉴얼 페이지를 참조하십시오.

    2. 클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.

    3. 각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.

    4. 각 노드의 /etc/vfstab 파일에 있는 장치 항목 순서가 동일한지 확인하십시오.

    5. 파일 시스템의 부트 순서 종속성을 확인하십시오.

      예를 들어, phys-schost-1/global/oracle의 디스크 장치 d0을 마운트하고 phys-schost-2/global/oracle/logs의 디스크 장치 d1을 마운트한다고 가정합니다. 이러한 구성에서는 phys-schost-1이 부트되어 /global/oracle을 마운트한 후에만 phys-schost-2가 부트하여 /global/oracle/logs를 마운트할 수 있습니다.

    자세한 내용은 vfstab(4) 매뉴얼 페이지를 참조하십시오.

  5. 클러스터의 노드에 마운트 지점이 있는지와 /etc/vfstab 파일 항목이 클러스터의 모든 노드에 대해 올바른지 확인하십시오.


     # sccheck
    

    오류가 발생하지 않으면 아무 것도 반환되지 않습니다.

  6. 클러스터의 임의의 노드에서 클러스터 파일 시스템을 마운트합니다.


    # mount /global/devicegroup mountpoint
    
  7. 클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되는지 확인합니다.

    df 또는 mount 명령을 사용하여 마운트된 파일 시스템을 표시할 수 있습니다.

    Sun Cluster 환경에서 VxFS 클러스터 파일 시스템을 관리하려면 VxFS 클러스터 파일 시스템이 마운트된 기본 노드에서만 관리 명령을 실행하십시오.


예 5–42 클러스터 파일 시스템 추가

다음 예에서는 Solaris Volume Manager 메타 장치 또는 볼륨 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 만듭니다.


# newfs /dev/md/oracle/rdsk/d1
...
 
[on each node:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
# /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[save and exit]
 
[on one node:]
# sccheck
# mount /dev/md/oracle/dsk/d1 /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
on Sun Oct 3 08:56:16 2001

Procedure클러스터 파일 시스템을 제거하는 방법

클러스터 파일 시스템을 마운트 해제하여 제거합니다. 또한, 데이터를 제거하거나 삭제하려면 시스템에서 주요 디스크 장치(또는 메타 장치나 볼륨)을 제거하십시오.


주 –

cluster shutdown 명령을 실행하여 전체 클러스터를 중지시키면 시스템이 종료될 때 클러스터 파일 시스템이 자동으로 마운트 해제됩니다. 단일 노드를 중지하기 위해 shutdown 명령을 실행하면 클러스터 파일 시스템이 마운트되지 않습니다. 그러나 디스크에 연결된 노드가 현재 종료되는 노드 하나뿐인 경우에는 해당 디스크에 있는 클러스터 파일 시스템에 액세스하려고 하면 오류가 발생합니다.


다음의 필수 조건은 클러스터 파일 시스템을 마운트 해제하기 전에 완료되어야 함을 확인하십시오.

  1. 임의의 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. 마운트할 클러스터 파일 시스템을 결정합니다.


    # mount -v
    
  3. 각 노드에서 클러스터 파일 시스템을 사용하는 모든 프로세스를 표시하십시오. 그러면 중지시킬 프로세스를 알 수 있습니다.


    # fuser -c [ -u ] mountpoint
    
    -c

    파일 시스템의 마운트 지점인 파일과 마운트된 파일 시스템 내의 모든 파일에 대하여 보고합니다.

    -u

    (옵션) 각 프로세스 ID에 대한 사용자 로그인 이름을 표시합니다.

    mountpoint

    프로세스를 중지시킬 클러스터 파일 시스템의 이름을 지정합니다.

  4. 각 노드에서 클러스터 파일 시스템에 대한 모든 프로세스를 중지시킵니다.

    원하는 방법을 사용하여 프로세스를 중지시키십시오. 필요한 경우 다음 명령을 사용하여 클러스터 파일 시스템과 관련된 프로세스를 강제로 종료하십시오.


    # fuser -c -k mountpoint
    

    클러스터 파일 시스템을 사용하는 각 프로세스에 SIGKILL 명령이 전달됩니다.

  5. 각 노드에서 파일 시스템을 사용하는 프로세스가 없는지 확인합니다.


    # fuser -c mountpoint
    
  6. 한 노드에서만 파일 시스템을 마운트 해제합니다.


    # umount mountpoint
    
    mountpoint

    마운트를 해제할 클러스터 파일 시스템의 이름을 지정합니다. 이것은 클러스터 파일 시스템이 마운트되는 디렉토리 이름 또는 파일 시스템의 장치 이름 경로일 수 있습니다.

  7. (옵션) /etc/vfstab 파일을 편집하여 제거되는 클러스터 파일 시스템에 대한 항목을 삭제합니다.

    /etc/vfstab 파일에 이 클러스터 파일 시스템에 대한 항목이 있는 각 클러스터 노드에서 이 단계를 수행하십시오.

  8. (옵션) 디스크 장치 group/metadevice/volume/plex를 제거합니다.

    자세한 내용은 볼륨 관리자 설명서를 참조하십시오.


예 5–43 클러스터 파일 시스템 제거

다음 예에서는 Solaris Volume Manager 메타 장치 또는 볼륨 /dev/md/oracle/rdsk/d1에 마운트된 UFS 클러스터 파일 시스템을 제거합니다.


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(On each node, remove the highlighted entry:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[Save and exit.]

클러스터 파일 시스템의 데이터를 제거하려면 하부 장치를 제거하십시오. 자세한 내용은 볼륨 관리자 설명서를 참조하십시오.


Procedure클러스터에서 전역 마운트를 확인하는 방법

sccheck(1M) 유틸리티는 /etc/vfstab 파일에서 클러스터 파일 시스템의 항목에 대한 구문을 검증합니다. 오류가 발생하지 않으면 아무 것도 반환되지 않습니다.


주 –

장치나 볼륨 관리 구성 요소에 영향을 미친 클러스터 파일 시스템을 제거하는 등 클러스터 구성을 변경한 후에는 sccheck를 실행합니다.


  1. 임의의 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. 클러스터 전역 마운트를 확인합니다.


     # sccheck
    

디스크 경로 모니터링 관리

디스크 경로 모니터링(DPM) 관리 명령을 사용하면 보조 디스크 경로 오류에 대한 알림을 받을 수 있습니다. 디스크 경로 모니터링과 관련된 관리 작업을 수행하려면 이 절의 절차를 수행하십시오. 디스크 경로 모니터링 데몬에 대한 개념 정보는 Sun Cluster Concepts Guide for Solaris OS의 3 장, Key Concepts for System Administrators and Application Developers을 참조하십시오. scdpm 명령 옵션 및 관련 명령 설명에 대한 자세한 내용은 cldevice(1CL) 매뉴얼 페이지를 참조하십시오. 데몬이 보고하는 로그 오류에 관한 자세한 내용은 syslogd(1M) 매뉴얼 페이지를 참조하십시오.


주 –

cldevice 명령을 사용하여 노드에 I/O 장치를 추가할 때 모니터된 모니터링 목록에 디스크 경로가 자동으로 추가됩니다. Sun Cluster 명령을 사용하여 노드에서 장치를 제거할 경우에도 디스크 경로가 자동으로 모니터 해제됩니다.


표 5–6 작업 맵: 디스크 경로 모니터링 관리

작업 

지침 

cldevice monitor 명령을 사용하여 디스크 경로를 모니터합니다.

디스크 경로를 모니터하는 방법

cldevice unmonitor 명령을 사용하여 디스크 경로의 모니터를 해제합니다.

디스크 경로 모니터링을 해제하는 방법

cldevice status 명령을 사용하여 노드에 대한 잘못된 디스크 경로의 상태를 인쇄합니다.

오류 디스크 경로를 인쇄하는 방법

cldevice 명령을 사용하여 파일에서 디스크 경로를 모니터합니다.

파일의 디스크 경로 모니터링 방법

모니터된 모든 디스크 경로가 실패될 때 clnode set 명령을 사용하여 노드의 자동 재부트를 활성화하거나 비활성화할 수 있습니다.

모니터된 모든 디스크 경로가 실패할 때 노드의 자동 재부트를 활성화하는 방법

모니터된 모든 디스크 경로가 실패할 때 노드의 자동 재부트를 비활성화하는 방법

잘못된 디스크 경로 상태를 확인합니다. 모니터된 DID 장치를 부트 시 사용할 수 없고 DID 인스턴스가 DID 드라이버로 업로드되지 않으면 잘못된 디스크 경로 상태가 보고될 수 있습니다.  

디스크 경로 상태 오류를 해결하는 방법

다음 절의 절차에서는 디스크 경로 인수를 포함하는 cldevice 명령을 실행합니다. 디스크 경로 인수는 노드 이름 및 디스크 이름으로 구성됩니다. 노드 이름은 필수 항목이 아니며 노드 이름을 지정하지 않은 경우 기본적으로 all로 설정됩니다.

Procedure디스크 경로를 모니터하는 방법

클러스터의 디스크 경로를 모니터하려면 이 작업을 수행하십시오.


주의 – 주의 –

DPM은 Sun Cluster 3.1 10/03 소프트웨어보다 먼저 릴리스된 버전을 실행하는 노드에서는 지원되지 않습니다. 순환 업그레이드가 진행되는 동안에는 DPM 명령을 사용하지 마십시오. 모든 노드를 업그레이드한 후 DPM 명령을 사용하려면 노드가 온라인 상태여야 합니다.


이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 디스크 경로를 모니터합니다.


    # cldevice monitor -n node disk
    
  3. 디스크 경로가 모니터되는지 확인합니다.


    # cldevice status device
    

예 5–44 단일 노드의 디스크 경로 모니터링

다음 예에서는 단일 노드의 schost-1:/dev/did/rdsk/d1 디스크 경로를 모니터합니다. schost-1 노드의 DPM 데몬에서만 /dev/did/dsk/d1 디스크에 대한 경로를 모니터합니다.


# cldevice monitor -n schost-1 /dev/did/dsk/d1
# cldevice status d1

Device Instance   Node           Status
--------------- ---- ------
/dev/did/rdsk/d1   phys-schost-1 Ok


예 5–45 모든 노드의 디스크 경로 모니터링

다음 예에서는 모든 노드의 schost-1:/dev/did/dsk/d1 디스크 경로를 모니터합니다. /dev/did/dsk/d1이 유효한 경로인 모든 노드에서 DPM이 시작됩니다.


# cldevice monitor /dev/did/dsk/d1
# cldevice status /dev/did/dsk/d1

Device Instance   Node           Status
--------------- ---- ------
/dev/did/rdsk/d1   phys-schost-1 Ok


예 5–46 CCR의 디스크 구성 다시 읽기

다음 예에서는 데몬이 CCR의 디스크 구성을 다시 읽어서 모니터된 디스크 경로를 상태와 함께 인쇄합니다.


# cldevice monitor +
# cldevice status
Device Instance              Node               Status
---------------              ----               ------
/dev/did/rdsk/d1             schost-1           Ok
/dev/did/rdsk/d2             schost-1           Ok
/dev/did/rdsk/d3             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d4             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d5             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d6             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d7             schost-2           Ok
/dev/did/rdsk/d8             schost-2           Ok

Procedure디스크 경로 모니터링을 해제하는 방법

디스크 경로의 모니터를 해제하려면 다음 절차를 수행합니다.


주의 – 주의 –

DPM은 Sun Cluster 3.1 10/03 소프트웨어보다 먼저 릴리스된 버전을 실행하는 노드에서는 지원되지 않습니다. 순환 업그레이드가 진행되는 동안에는 DPM 명령을 사용하지 마십시오. 모든 노드를 업그레이드한 후 DPM 명령을 사용하려면 노드가 온라인 상태여야 합니다.


이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 모니터링을 해제할 디스크 경로의 상태를 확인합니다.


    # cldevice status device
    
  3. 각 노드에서 해당하는 디스크 경로의 모니터링을 해제합니다.


    # cldevice unmonitor -n node disk
    

예 5–47 디스크 경로 모니터링 취소

다음 예에서는 schost-2:/dev/did/rdsk/d1 디스크 경로에 대한 모니터링을 해제하고 디스크 경로를 전체 클러스터 상태와 함께 인쇄합니다.


# cldevice unmonitor -n schost2 /dev/did/rdsk/d1
# cldevice status -n schost2 /dev/did/rdsk/d1

Device Instance              Node               Status
---------------              ----               ------
/dev/did/rdsk/d1             schost-2           Unmonitored

Procedure오류 디스크 경로를 인쇄하는 방법

클러스터의 오류 디스크 경로를 인쇄하려면 다음 절차를 사용하십시오.


주의 – 주의 –

DPM은 Sun Cluster 3.1 10/03 소프트웨어보다 먼저 릴리스된 버전을 실행하는 노드에서는 지원되지 않습니다. 순환 업그레이드가 진행되는 동안에는 DPM 명령을 사용하지 마십시오. 모든 노드를 업그레이드한 후 DPM 명령을 사용하려면 노드가 온라인 상태여야 합니다.


  1. 임의의 클러스터의 노드에서 수퍼유저로 전환합니다.

  2. 클러스터에서 오류가 발생한 디스크 경로를 인쇄합니다.


    # cldevice status -s fail
    

예 5–48 오류 디스크 경로 인쇄

다음 예에서는 전체 클러스터에서 오류가 발생한 디스크 경로를 인쇄합니다.


# cldevice status -s fail
     
Device Instance               Node              Status
---------------               ----              ------
dev/did/dsk/d4                phys-schost-1     fail

Procedure디스크 경로 상태 오류를 해결하는 방법

다음 이벤트가 발생하는 경우 DPM이 온라인 상태로 전환되면 오류가 있는 경로의 상태가 업데이트되지 않을 수 있습니다.

모니터된 DID 장치를 부트 시 사용할 수 없고 따라서 DID 인스턴스가 DID 드라이버로 업로드되지 않으므로 잘못된 디스크 경로 상태가 보고됩니다. 이 상황이 발생하면 DID 정보를 수동으로 업데이트해야 합니다.

  1. 한 노드에서 전역 장치 이름 공간을 업데이트합니다.


    # cldevice populate
    
  2. 각 노드에서 다음 단계로 진행하기 전에 명령 처리가 완료되었는지 확인합니다.

    이 명령이 하나의 노드에서 실행되더라도 모든 노드에서 원격으로 실행됩니다. 명령 처리가 완료되었는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행합니다.


    # ps -ef | grep scgdevs
    
  3. DPM 폴링 시간 프레임 내에서 오류가 있는 디스크 경로 상태가 이제 정상인지 확인합니다.


    # cldevice status disk-device
    
    Device Instance               Node                  Status
    ---------------               ----                  ------
    dev/did/dsk/dN                phys-schost-1         Ok

Procedure파일의 디스크 경로 모니터링 방법

파일의 디스크 경로를 모니터링 또는 모니터링 해제하려면 다음 절차를 수행하십시오.

파일을 사용하여 클러스터 구성을 변경하려면 맨 먼저 현재 구성을 내보내야 합니다. 이 내보내기 작업에서는 변경할 구성 항목을 설정하기 위해 수정할 수 있는 XML 파일을 만듭니다. 이 절차의 지침은 전체 프로세스를 설명합니다.


주의 – 주의 –

DPM은 Sun Cluster 3.1 10/03 소프트웨어보다 먼저 릴리스된 버전을 실행하는 노드에서는 지원되지 않습니다. 순환 업그레이드가 진행되는 동안에는 DPM 명령을 사용하지 마십시오. 모든 노드를 업그레이드한 후 DPM 명령을 사용하려면 노드가 온라인 상태여야 합니다.


이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 장치 구성을 XML 파일로 내보냅니다.


    # cldevice export -o configurationfile
    
    -o configurationfile

    XML 파일의 파일 이름을 지정합니다.

  3. 구성 파일을 수정하여 장치 경로를 모니터합니다.

    모니터할 장치 경로를 찾고 monitored 속성을 true로 설정합니다.

  4. 장치 경로를 모니터합니다.


    # cldevice monitor -i configurationfile
    
    -i configurationfile

    수정된 XML 파일의 이름을 지정합니다.

  5. 이제 장치 경로가 모니터되는지 확인합니다.


    # cldevice status
    

예 5–49 파일을 사용한 디스크 경로 모니터

다음은 노드 phys-schost–2 및 장치 d3 사이의 장치 경로를 XML 파일을 사용하여 모니터하는 예입니다.

맨 처음 현재 클러스터 구성을 내보냅니다.


# cldevice export -o deviceconfig

deviceconfig XML 파일은 phys-schost–2d3 간의 경로가 현재 모니터되고 있지 않음을 나타냅니다.


<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
   <deviceList readonly="true">
    <device name="d3" ctd="c1t8d0">
      <devicePath nodeRef="phys-schost-1" monitored="true"/>
      <devicePath nodeRef="phys-schost-2" monitored="false"/>
    </device>
  </deviceList>
</cluster>

경로를 모니터 하려면 다음과 같이 monitored 속성을 true로 설정합니다.


<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
   <deviceList readonly="true">
    <device name="d3" ctd="c1t8d0">
      <devicePath nodeRef="phys-schost-1" monitored="true"/>
      <devicePath nodeRef="phys-schost-2" monitored="true"/>
    </device>
  </deviceList>
</cluster>

파일을 읽고 모니터링을 시작하려면 cldevice 명령을 사용합니다.


# cldevice monitor -i deviceconfig

장치가 지금 모니터되고 있는지 확인하려면 cldevice 명령을 사용합니다.


# cldevice status

참조

클러스터 구성 내보내기 및 XML 파일 결과를 클러스터 구성 설정에 사용하는 데 대한 자세한 내용은 cluster(1CL)clconfiguration(5CL) 매뉴얼 페이지를 참조하십시오.

Procedure모니터된 모든 디스크 경로가 실패할 때 노드의 자동 재부트를 활성화하는 방법

이 기능을 활성화한 상태에서는 다음 조건이 충족될 경우 노드가 자동으로 재부트됩니다.

노드를 재부트하면 해당 노드에서 마스터되는 모든 자원 그룹 및 장치 그룹이 다른 노드에서 재시작됩니다.

노드가 자동으로 재부트된 후 노드의 모든 모니터된 디스크 경로가 액세스할 수 없는 상태로 된 경우, 노드는 다시 자동으로 재부트되지 않습니다. 그러나, 노드가 재부트된 후 디스크 경로가 사용 가능한 상태로 되었다가 실패한 경우 노드가 다시 자동으로 재부트됩니다.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 클러스터의 모든 노드는 모니터된 모든 디스크가 실패할 때 노드를 자동으로 재부트합니다.


    # clnode set -p reboot_on_path_failure=enabled +
    

Procedure모니터된 모든 디스크 경로가 실패할 때 노드의 자동 재부트를 비활성화하는 방법

자동 재부트를 비활성화한 상태에서 노드의 모니터된 모든 디스크 경로가 실패하면 노드가 자동으로 재부트되지 않습니다.

  1. 클러스터의 아무 노드에서나 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

  2. 클러스터의 모든 노드에 대해, 모니터된 모든 디스크 경로가 실패할 경우 자동 재부트를 비활성화합니다.


    # clnode set -p reboot_on_path_failure=disabled +