Sun Cluster Geographic Edition 시스템 관리 설명서

9장 Hitachi TrueCopy 소프트웨어를 사용한 데이터 복제

데이터 복제 중에 1차 클러스터의 데이터가 백업 또는 2차 클러스터로 복사됩니다. 2차 클러스터는 1차 클러스터와 지리적으로 떨어져 있는 사이트에 위치할 수 있습니다. 이 거리는 데이터 복제 제품에서 사용 가능한 거리 지원에 따라 다릅니다.

Sun Cluster Geographic Edition 소프트웨어는 데이터 복제를 위해 Hitachi TrueCopy 소프트웨어의 사용을 지원합니다. Hitachi TrueCopy 소프트웨어를 사용하여 데이터를 복제하기 전에 Hitachi TrueCopy 설명서에 익숙하고 Hitachi TrueCopy 제품 및 최신 Hitachi TrueCopy 패치가 사용자 시스템에 설치되어 있어야 합니다. Hitachi TrueCopy 소프트웨어의 설치 정보는 Hitachi TrueCopy 제품 설명서를 참조하십시오.

이 장에서는 Hitachi TrueCopy 소프트웨어를 사용한 데이터 복제 구성 및 관리 절차를 설명합니다. 이 장은 다음 항목으로 구성되어 있습니다.

데이터 복제 장치 그룹 작성 및 삭제에 대한 정보는 Hitachi TrueCopy 데이터 복제 장치 그룹 관리를 참조하십시오. 복제의 전역 및 자세한 런타임 상태 얻기에 대한 정보는 Hitachi TrueCopy 데이터 복제의 런타임 상태 점검을 참조하십시오.

Hitachi TrueCopy 보호 그룹에서 데이터 복제 관리

이 절은 보호 그룹에서 Hitachi TrueCopy 데이터 복제 구성 단계를 요약합니다.

표 9–1 Hitachi TrueCopy 데이터 복제용 작업 관리

작업 

설명 

Hitachi TrueCopy 소프트웨어의 초기 구성을 수행합니다. 

Hitachi TrueCopy 소프트웨어의 초기 구성 을 참조하십시오.

Hitachi TrueCopy 데이터 복제를 위해 구성되는 보호 그룹을 작성합니다. 

Hitachi TrueCopy 보호 그룹 작성 및 구성 방법을 참조하십시오.

Hitachi TrueCopy 에 의해 제어되는 장치 그룹을 추가합니다. 

Hitachi TrueCopy 보호 그룹에 데이터 복제 장치 그룹을 추가하는 방법을 참조하십시오.

보호 그룹에 응용 프로그램 자원 그룹을 추가합니다. 

Hitachi TrueCopy 보호 그룹에 응용 프로그램 자원 그룹을 추가하는 방법을 참조하십시오.

2차 클러스터에 보호 그룹 구성을 복제합니다.  

Hitachi TrueCopy 보호 그룹 구성을 파트너 클러스터에 복제하는 방법을 참조하십시오.

설정을 검증하기 위한 구성된 파트너쉽 및 보호 그룹 테스트 

연습용 작업 전환 또는 작업 인계를 수행하고 몇 가지 간단한 실패 시나리오를 테스트합니다. 11 장, Hitachi TrueCopy 데이터 복제를 사용하는 서비스 마이그레이션을 참조하십시오.

보호 그룹을 활성화합니다. 

Hitachi TrueCopy 보호 그룹 활성화 방법 을 참조하십시오.

복제의 런타임 상태를 점검합니다. 

Hitachi TrueCopy 데이터 복제의 런타임 상태 점검을 참조하십시오.

실패를 검출합니다. 

Hitachi TrueCopy 데이터 복제를 사용하는 시스템의 클러스터 실패 검출을 참조하십시오.

작업 전환을 사용하여 서비스를 이전합니다. 

작업 전환으로 Hitachi TrueCopy 데이터 복제를 사용하는 서비스 마이그레이션을 참조하십시오.

작업 인계를 사용하여 서비스를 이전합니다. 

Hitachi TrueCopy 데이터 복제를 사용하는 시스템에서 강제 작업 인계를 참조하십시오.

강제 작업 인계 후 데이터를 복구합니다. 

Hitachi TrueCopy 복제를 사용하는 시스템에서 원래의 1차 클러스터로 서비스 장애 복구를 참조하십시오.

데이터 복제 오류를 검출하고 복구합니다. 

Hitachi TrueCopy 데이터 복제 오류에서 복구를 참조하십시오.

Hitachi TrueCopy 소프트웨어의 초기 구성

이 절에서는 1차 및 2차 클러스터에서 Hitachi TrueCopy 소프트웨어를 구성하는 방법에 대해 설명합니다. 또한 Hitachi TrueCopy 보호 그룹 작성을 위한 사전조건에 대한 정보가 포함되어 있습니다.

1차 및 2차 클러스터의 초기 구성은 다음을 포함합니다.

데이터 복제를 위해 Hitachi TrueCopy 명령 제어 인터페이스(CCI)를 사용하는 경우 RAID Manager를 사용해야 합니다. 사용해야 하는 버전에 대한 정보는 Sun Cluster Geographic Edition 설치 안내서를 참조하십시오.


주 –

이 모델은 Sun StorEdge 9970/9980 Array 또는 Hitachi Lightning 9900 Series Storage와의 특정 하드웨어 구성이 필요합니다. 현재 지원되는 Sun Cluster 구성에 대한 정보는 Sun 서비스 담당자에게 문의하십시오.


Sun Cluster Geographic Edition 소프트웨어는 Sun Cluster 소프트웨어에서 지원되는 하드웨어 구성을 지원합니다. 현재 지원되는 Sun Cluster 구성에 대한 정보는 Sun 서비스 담당자에게 문의하십시오.


주의 – 주의 –

저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로서 지원하지 않습니다. 자세한 정보는 Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OSSun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OSUsing Storage-Based Data Replication을 참조하십시오.


Hitachi TrueCopy 소프트웨어를 사용한 1차 클러스터의 데이터 복제 구성

이 절에서는 Sun Cluster Geographic Edition 소프트웨어의 Hitachi TrueCopy 데이터 복제를 구성하기 전에 1차 클러스터에서 수행해야 하는 단계를 설명합니다. 각 단계를 보여주기 위해 이 절은 d1d2라고 부르는 두 개의 디스크 또는 LUN 예를 사용합니다. 이들 디스크는 apprg1이라는 응용 프로그램용 데이터를 보유하는 Hitachi TrueCopy 어레이에 있습니다.

/etc/horcm.conf 파일 구성

먼저 1차 클러스터의 공유 디스크에서 Hitachi TrueCopy 장치 그룹을 구성합니다. 디스크 d1d2devgroup1이라는 Hitachi TrueCopy 장치 그룹에 속하도록 구성됩니다. 이 구성 정보는 Hitachi 어레이에 액세스하는 클러스터의 각 노드에 있는 /etc/horcm.conf 파일에 지정됩니다. 응용 프로그램 apprg1이 이들 클러스터 노드에서 실행할 수 있습니다.

/etc/horcm.conf 파일의 구성 방법에 대한 자세한 정보는 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.

다음 표는 /etc/horcm.conf 파일에 있는 본 예제의 구성 정보를 설명합니다.

표 9–2 1차 클러스터의 /etc/horcm.conf 파일 섹션 예

dev_group

dev_name

port number

TargetID

LU number

MU number

devgroup1

pair1

CL1–A

0

1

 

devgroup1

pair2

CL1–A

0

2

 

표에 있는 구성 정보는 Hitachi TrueCopy 장치 그룹 devgroup1이 두 쌍을 포함하고 있음을 표시합니다. 첫 번째 쌍인 pair1d1 디스크에서 유래하며, <CL1–A , 0, 1>로 식별됩니다. 두 번째 쌍인 pair2d2 디스크에서 유래하며 <CL1–A, 0, 2>로 식별됩니다. 디스크 d1 d2의 복제가 지리적으로 분리된 Hitachi TrueCopy 어레이에 위치합니다. 원격 Hitachi TrueCopy가 파트너 클러스터에 연결되어 있습니다.

ProcedureHitachi TrueCopy 복제에서 사용할 볼륨 구성 방법

Hitachi TrueCopy는 VERITAS Volume Manager 볼륨을 지원합니다. 디스크 d1d2에 VERITAS Volume Manager 볼륨을 구성해야 합니다.


주의 – 주의 –

저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로서 지원하지 않습니다. 자세한 정보는 Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OSUsing Storage-Based Data Replication을 참조하십시오.


단계
  1. cluster-paris의 공유 디스크에 VERITAS Volume Manager 디스크 그룹을 작성합니다.

    예를 들어, d1d2 디스크가 vxdiskadmvxdg 명령과 같은 명령을 사용하여 oradg1이라는 VERITAS Volume Manager 디스크 그룹의 일부로서 구성됩니다.

  2. 구성이 완료된 후 vxdg list 명령을 사용하여 디스크 그룹이 작성되었는지 확인합니다.

    이 명령의 출력이 oradg1을 디스크 그룹으로 표시해야 합니다.

  3. VERITAS Volume Manager 볼륨을 작성합니다.

    예를 들어 vol1이라는 볼륨이 oradg1 디스크 그룹에 작성됩니다. vxassist와 같은 적당한 VERITAS Volume Manager 명령이 볼륨을 구성하는 데 사용됩니다.

ProcedureHitachi TrueCopy로 제어되는 Sun Cluster 장치 그룹 구성 방법

시작하기 전에

저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로서 지원하지 않습니다. 자세한 정보는 Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OSSun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OSUsing Storage-Based Data Replication.

단계
  1. 이전 절차에서 구성한 VERITAS Volume Manager 디스크 그룹을 등록합니다.

    Sun Cluster 명령인 scsetup 또는 scconf를 사용하십시오.

    이들 명령에 대한 자세한 정보는 scsetup(1M) 또는 scconf(1M) 매뉴얼 페이지를 참조하십시오.

  2. 다시 scsetup 또는 scconf 명령을 사용하여 VERITAS Volume Manager 구성을 Sun Cluster 소프트웨어와 동기화합니다.

  3. 구성이 완료된 후 디스크 그룹 등록을 검증합니다.


    # scstat -D

    VERITAS Volume Manager 디스크 그룹 oradg1이 출력에 표시되어야 합니다.

    scstat 명령에 대한 자세한 정보는 scstat(1M) 매뉴얼 페이지를 참조하십시오.

ProcedureHitachi TrueCopy 복제를 위한 고가용성 파일 시스템 구성 방법

시작하기 전에

cluster-paris에 파일 시스템을 구성하기 전에, 응용 프로그램 자원 그룹, 장치 그룹 및 마운트 지점 같이 사용자에게 필요한 Sun Cluster 엔티티가 이미 구성되었는지 확인합니다.

저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로서 지원하지 않습니다. 자세한 정보는 Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OSSun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OSUsing Storage-Based Data Replication.

단계
  1. 명령행에서 vol1 볼륨에 필수 파일 시스템을 작성합니다.

  2. /etc/vfstab 파일에 마운트 위치 같은 정보가 들어있는 항목을 추가합니다.

    파일 시스템이 로컬로 또는 전역으로 마운트될지 여부는 사용자의 성능 요구사항이나 사용 중인 응용 프로그램 자원 그룹의 유형 같은 다양한 요소에 달려있습니다.


    주 –

    이 파일의 mount at boot 필드를 no로 설정해야 합니다. 이 값은 파일 시스템이 클러스터 시작 시 2차 클러스터에 마운트하는 것을 방지합니다. 대신 응용 프로그램이 1차 클러스터에서 온라인 상태가 될 때 Sun Cluster 소프트웨어 및 Sun Cluster Geographic Edition 프레임워크는 HAStoragePlus 자원을 사용하여 파일 시스템을 마운트합니다. 데이터는 2차 클러스터에 마운트되지 않아야 합니다. 그렇지 않으면 데이터가 1차 클러스터에서 2차 클러스터로 복제되지 않습니다.


  3. HAStoragePlus 자원을 응용 프로그램 자원 그룹 apprg1에 추가합니다.

    이 자원을 응용 프로그램 자원 그룹에 추가하면 응용 프로그램이 온라인이 되기 전에 필요한 파일 시스템이 다시 마운트됩니다.

    HAStoragePlus 자원 유형에 대한 자세한 정보는 Sun Cluster 3.1 Data Service Planning and Administration Guide를 참조하십시오.


예 9–1 고가용성 클러스터 전역 파일 시스템 구성

이 예는 apprg1 자원 그룹이 이미 존재한다고 가정합니다.

  1. UNIX 파일 시스템(UFS)을 작성합니다.


    # newfs dev/vx/dsk/oradg1/vol1
  2. /etc/vfstab 파일의 항목이 다음과 같이 작성됩니다.


    # /dev/vs/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample 
    ufs 2 no logging
  3. HAStoragePlus 자원 유형을 추가합니다.


    # scrgadm -a -j rs-hasp -g apprg1 -t SUNW.HAStoragePlus 
    -x FilesystemMountPoints=/mounts/sample -x AffinityOn=TRUE 
    -x GlobalDevicePaths=oradg1

Hitachi TrueCopy 소프트웨어를 사용한 2차 클러스터의 데이터 복제 구성

이 절에서는 Sun Cluster Geographic Edition 소프트웨어에서 Hitachi TrueCopy 데이터 복제를 구성하기 전에 2차 클러스터에서 수행해야 하는 단계를 설명합니다.

/etc/horcm.conf 파일 구성

1차 클러스터에서 수행한 대로 2차 클러스터의 공유 디스크에 Hitachi TrueCopy 장치 그룹을 구성해야 합니다. 디스크 d1d2devgroup1이라는 Hitachi TrueCopy 장치 그룹에 속하도록 구성됩니다. 이 구성 정보는 Hitachi 어레이에 액세스하는 클러스터의 각 노드에 있는 /etc/horcm.conf 파일에 지정됩니다. 응용 프로그램 apprg1이 이들 클러스터 노드에서 실행할 수 있습니다.

/etc/horcm.conf 파일 구성 방법에 대한 자세한 정보는 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.

다음 표는 /etc/horcm.conf 파일에 있는 본 예제의 구성 정보를 설명합니다.

표 9–3 2차 클러스터의 /etc/horcm.conf 파일 섹션 예

dev_group

dev_name

port number

TargetID

LU number

MU number

devgroup1

pair1

CL1–C

0

20

 

devgroup1

pair2

CL1–C

0

21

 

표에 있는 구성 정보는 Hitachi TrueCopy 장치 그룹 devgroup1이 두 쌍을 포함하고 있음을 표시합니다. 첫 번째 쌍인 pair1d1 디스크에서 유래하며, <CL1–C , 0, 20>으로 식별됩니다. 두 번째 쌍인 pair2d2 디스크에서 유래하며 <CL1–C, 0, 21>로 식별됩니다.

2차 클러스터에서 /etc/horcm.conf 파일을 구성한 후 다음과 같이 pairdisplay 명령을 사용하여 쌍의 상태를 볼 수 있습니다.


phys-paris-1# pairdisplay -g devgroup1
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1..  SMPL ----  ------,----- ----  -
devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..SMPL ----  ------,----- ----  -
devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2..  SMPL ----  ------,----- ----  -
devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..SMPL ----  ------,----- ----  -

2차 클러스터에 기타 엔티티 구성

다음, 볼륨 관리자, Sun Cluster 장치 그룹 및 고가용성 클러스터 전역 파일 시스템을 구성해야 합니다. 다음 두 방법으로 이들 엔티티를 구성할 수 있습니다.

이러한 방법은 각각 다음 절차에서 설명됩니다.

Procedure1차 클러스터에서 볼륨 관리자 구성 정보를 복제하는 방법

시작하기 전에

저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로서 지원하지 않습니다. See Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OSUsing Storage-Based Data Replication for more information.

단계
  1. devgroup1 장치 그룹에 대한 복제를 시작합니다.


    phys-paris-1# paircreate -g devgroup1 -vl -f async
    
    phys-paris-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-A , 0, 1) 54321   1..P-VOL COPY ASYNC ,12345 609   -
    devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,-----   1   -
    devgroup1 pair2(L) (CL1-A , 0, 2) 54321   2..P-VOL COPY ASYNC ,12345 610   -
    devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,-----   2   -
  2. 2차 클러스터에서 해당 쌍의 상태가 PAIR가 되기를 기다립니다.


    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1     - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345, 609   - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2     - 
    devgroup1 pair2(R) (CL1-A , 0, 2)54321    2..P-VOL PAIR ASYNC,12345, 610   -
  3. pairsplit 명령을 사용하여 쌍을 분리하고 cluster-newyork의 2차 볼륨이 -rw 옵션을 사용하여 쓰기 가능한지 확인합니다.


    phys-newyork-1# pairsplit -g devgroup1 -rw 
    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, -----  1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PSUS ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PSUS ASYNC,12345  610   W
  4. VERITAS Volume Manager 디스크 그룹 oradg1을 가져옵니다.


    phys-newyork-1# vxdg -C import oradg1
  5. VERITAS Volume Manager 디스크 그룹을 성공적으로 가져왔는지 확인합니다.


    phys-newyork-1# vxdg list
  6. VERITAS Volume Manager 볼륨을 활성화합니다.


    phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b
  7. VERITAS Volume Manager 볼륨이 인식되고 사용 가능한지 확인합니다.


    phys-newyork-1# vxprint
  8. VERITAS Volume Manager 디스크 그룹 oradg1을 Sun Cluster에 등록합니다.


    phys-newyork-1# scconf -a -D type=vxvm, name=oradg1, \
    nodelist=phys-newyork-1:phys-newyork-2
  9. 볼륨 관리자 정보를 Sun Cluster 장치 그룹과 동기화하고 출력을 확인합니다.


    phys-newyork-1# scconf -c -D name=oradg1,sync
    phys-newyork-1# scstat -D
  10. phys-newyork-1/etc/vfstab 파일에 항목을 추가합니다.


    phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 \
    /mounts/sample ufs 2 no logging
  11. phys-newyork-1에 마운트 디렉토리를 작성합니다.


    phys-newyork-1# mkdir -p /mounts/sample
  12. scrgadm 명령을 사용하여 응용 프로그램 자원 그룹 apprg1을 작성합니다.


    phys-newyork-1# scrgadm -a -g apprg1
  13. apprg1HAStoragePlus 자원을 작성합니다.


    phys-newyork-1# scrgadm -a -j rs-hasp -g apprg1 -t SUNW.HAStoragePlus \
    -x FilesystemMountPoints=/mounts/sample -x AffinityOn=TRUE \
    -x GlobalDevicePaths=oradg1 \
  14. 필요한 경우 응용 프로그램 자원 그룹을 온라인으로 만든 후 다시 오프라인으로 만들어서 올바르게 구성되었는지 확인합니다.


    phys-newyork-1# scswitch -z -g apprg1 -h phys-newyork-1
    phs-newyork-1# scswitch -F -g apprg1
  15. 파일 시스템을 마운트 해제합니다.


    phys-newyork-1# umount /mounts/sample
  16. Sun Cluster 장치 그룹을 오프라인으로 만듭니다.


    phys-newyork-1# scswitch -F -D oradg1
  17. VERITAS Volume Manager 디스크 그룹이 추방되었는지 확인합니다.


    phys-newyork-1# vxdg list
  18. Hitachi TrueCopy 쌍을 다시 설정합니다.


    phys-newyork-1# pairresync -g devgroup1 
    phys-newyork-1# pairdisplay -g devgroup1 
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----   1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PAIR ASYNC,12345  610   W

    2차 클러스터의 초기 구성이 이제 완료되었습니다.

Procedure볼륨 관리자 구성의 사본 작성 방법

이 작업은 VERITAS Volume Manager 명령인 vxdiskadm vxassist 명령을 사용하여 1차 클러스터 cluster-paris에서 2차 클러스터 cluster-newyork의 LUN으로 볼륨 관리자 구성을 복사합니다.


주 –

이 절차 내내 장치 그룹 devgroup1SMPL 상태에 있어야 합니다.


단계
  1. 쌍이 SMPL 상태에 있는지 확인합니다.


    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ----   - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..SMPL ---- ------,----- ----   - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ----   - 
    devgroup1 pair2(R) (CL1-A, 0, 2) 54321    2..SMPL ---- ------,----- ----   -
  2. cluster-paris의 공유 디스크에 VERITAS Volume Manager 디스크 그룹을 작성합니다.

    예를 들어, d1d2 디스크가 vxdiskadmvxdg 명령과 같은 명령을 사용하여 oradg1이라는 VERITAS Volume Manager 디스크 그룹의 일부로서 구성됩니다.

  3. 구성이 완료된 후 vxdg list 명령을 사용하여 디스크 그룹이 작성되었는지 확인합니다.

    이 명령의 출력이 oradg1을 디스크 그룹으로 표시해야 합니다.

  4. VERITAS Volume Manager 볼륨을 작성합니다.

    예를 들어 vol1이라는 볼륨이 oradg1 디스크 그룹에 작성됩니다. vxassist와 같은 적당한 VERITAS Volume Manager 명령이 볼륨을 구성하는 데 사용됩니다.

  5. VERITAS Volume Manager 디스크 그룹을 가져옵니다.


    phys-newyork-1# vxdg -C import oradg1
  6. VERITAS Volume Manager 디스크 그룹을 성공적으로 가져왔는지 확인합니다.


    phys-newyork-1# vxdg list
  7. VERITAS Volume Manager 볼륨을 활성화합니다.


    phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b
  8. VERITAS Volume Manager 볼륨이 인식되고 사용 가능한지 확인합니다.


    phys-newyork-1# vxprint
  9. VERITAS Volume Manager 디스크 그룹 oradg1을 Sun Cluster에 등록합니다.


    phys-newyork-1# scconf -a -D type=vxvm, name=oradg1, \
    nodelist=phys-newyork-1:phys-newyork-2
  10. VERITAS Volume Manager 정보를 Sun Cluster 장치 그룹과 동기화하고 출력을 확인합니다.


    phys-newyork-1# scconf -c -D name=oradg1, sync
    phys-newyork-1# scstat -D
  11. UNIX 파일 시스템을 작성합니다.


    phys-newyork-1# newfs dev/vx/dsk/oradg1/vol1
  12. phys-newyork-1/etc/vfstab 파일에 항목을 추가합니다.


    phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample \
    ufs 2 no logging
  13. phys-newyork-1에 마운트 디렉토리를 작성합니다.


    phys-newyork-1# mkdir -p /mounts/sample
  14. scrgadm 명령을 사용하여 응용 프로그램 자원 그룹 apprg1을 작성합니다.


    phys-newyork-1# scrgadm -a -g apprg1
  15. apprg1HAStoragePlus 자원을 작성합니다.


    phys-newyork-1# scrgadm -a -j rs-hasp -g apprg1 -t SUNW.HAStoragePlus \
    -x FilesystemMountPoints=/mounts/sample -x AffinityOn=TRUE \
    -x GlobalDevicePaths=oradg1 \
  16. 필요한 경우 응용 프로그램 자원 그룹을 온라인으로 만든 후 다시 오프라인으로 만들어서 올바르게 구성되었는지 확인합니다.


    phys-newyork-1# scswitch -z -g apprg1 -h phys-newyork-1
    phs-newyork-1# scswitch -F -g apprg1
  17. 파일 시스템을 마운트 해제합니다.


    phys-newyork-1# umount /mounts/sample
  18. Sun Cluster 장치 그룹을 오프라인으로 만듭니다.


    phys-newyork-1# scswitch -F -D oradg1
  19. VERITAS Volume Manager 디스크 그룹이 추방되었는지 확인합니다.


    phys-newyork-1# vxdg list
  20. 쌍이 여전히 SMPL 상태에 있는지 확인합니다.


    phys-newyork-1# pairdisplay -g devgroup1 
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,-----  ----  - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..SMPL ---- ------,-----  ----  - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,-----  ----  - 
    devgroup1 pair2(R) (CL1-A, 0, 2)  54321   2..SMPL ---- ------,-----  ----  -