JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris Cluster 시스템 관리 설명서     Oracle Solaris Cluster (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris Cluster 관리 방법 소개

2.  Oracle Solaris Cluster 및 RBAC

3.  클러스터 종료 및 부트

4.  데이터 복제 접근 방식

5.  전역 장치, 디스크 경로 모니터링 및 클러스터 파일 시스템 관리

전역 장치 및 전역 이름 공간 관리 개요

Solaris Volume Manager에 대한 전역 장치 사용 권한

전역 장치 동적 재구성

Veritas Volume Manager(VERITAS 볼륨 관리자)를 사용하여 관리할 때 고려할 사항

저장소 기반 복제 장치 관리

Hitachi TrueCopy 복제 장치 관리

Hitachi TrueCopy 복제 그룹을 구성하는 방법

Hitachi TrueCopy를 사용하여 복제용 DID 장치를 구성하는 방법

Hitachi TrueCopy 복제 전역 장치 그룹 구성을 확인하는 방법

예: Oracle Solaris Cluster용 TrueCopy 복제 그룹 구성

EMC Symmetrix Remote Data Facility 복제 장치 관리

EMC SRDF 복제 그룹 구성 방법

EMC SRDF를 사용하여 복제할 DID 장치를 구성하는 방법

EMC SRDF 복제 전역 장치 그룹 구성 검증 방법

예: Oracle Solaris Cluster용 SRDF 복제 그룹 구성

클러스터 파일 시스템 관리 개요

클러스터 파일 시스템 제한

VxFS 지원을 위한 설명

장치 그룹 관리

전역 장치 이름 공간 업데이트 방법

전역 장치 이름 공간에 사용되는 lofi 장치의 크기 변경 방법

전역 장치 이름 공간 마이그레이션

전용 파티션에서 lofi 장치로 전역 장치 이름 공간 마이그레이션 방법

lofi 장치에서 전용 파티션으로 전역 장치 이름 공간 마이그레이션 방법

장치 그룹 추가 및 등록

장치 그룹 추가 및 등록 방법(Solaris Volume Manager)

장치 그룹 추가 및 등록 방법(원시 디스크)

복제된 장치 그룹 추가 및 등록 방법(ZFS)

디스크를 초기화할 때 새 디스크 그룹을 만드는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

장치 그룹 유지 보수

장치 그룹 제거 및 등록 해제 방법(Solaris Volume Manager)

모든 장치 그룹에서 노드를 제거하는 방법

장치 그룹에서 노드를 제거하는 방법(Solaris Volume Manager)

디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

기존 장치 그룹에 새 볼륨을 추가하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

기존 디스크 그룹을 장치 그룹으로 변환하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

장치 그룹에 새 부 번호를 할당하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

디스크 그룹을 장치 그룹으로 등록하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

디스크 그룹 구성의 변경 사항을 등록하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

로컬 디스크 그룹을 장치 그룹으로 변환하는 방법(VxVM)

장치 그룹을 로컬 디스크 그룹으로 변환하는 방법(VxVM)

장치 그룹에서 볼륨을 제거하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

장치 그룹 제거 및 등록 해제 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

장치 그룹에 노드를 추가하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

장치 그룹에서 노드를 제거하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

원시 디스크 장치 그룹에서 노드를 제거하는 방법

장치 그룹 등록 정보 변경 방법

장치 그룹에 원하는 보조 수를 설정하는 방법

장치 그룹 구성을 나열하는 방법

장치 그룹에 대한 기본을 전환하는 방법

장치 그룹을 유지 보수 상태로 전환하는 방법

저장 장치에 대한 SCSI 프로토콜 설정 관리

모든 저장 장치에 대한 기본 전역 SCSI 프로토콜 설정을 표시하는 방법

단일 저장 장치의 SCSI 프로토콜을 표시하는 방법

모든 저장 장치에 대한 기본 전역 보호(fencing) 프로토콜 설정을 변경하는 방법

단일 저장 장치에 대한 보호(fencing) 프로토콜을 변경하는 방법

클러스터 파일 시스템 관리

클러스터 파일 시스템을 추가하는 방법

클러스터 파일 시스템을 제거하는 방법

클러스터에서 전역 마운트를 확인하는 방법

디스크 경로 모니터링 관리

디스크 경로를 모니터링하는 방법

디스크 경로 모니터링을 해제하는 방법

오류 디스크 경로를 인쇄하는 방법

디스크 경로 상태 오류를 해결하는 방법

파일의 디스크 경로를 모니터링하는 방법

모니터링된 모든 공유 디스크 경로가 실패할 경우 노드의 자동 재부트를 활성화하는 방법

모니터링된 모든 공유 디스크 경로가 실패할 경우 노드의 자동 재부트를 비활성화하는 방법

6.  쿼럼 관리

7.  클러스터 상호 연결 및 공용 네트워크 관리

8.  노드 추가 및 제거

9.  클러스터 관리

10.  CPU 사용 제어 구성

11.  Oracle Solaris Cluster 소프트웨어 및 펌웨어 패치

12.  클러스터 백업 및 복원

13.  그래픽 사용자 인터페이스를 사용한 Oracle Solaris Cluster 관리

A.  예

색인

저장소 기반 복제 장치 관리

저장소 기반 복제로 복제된 장치를 포함하도록 Oracle Solaris Cluster 장치 그룹을 구성할 수 있습니다. Oracle Solaris Cluster 소프트웨어에서는 저장소 기반 복제용으로 Hitachi TrueCopy 및 EMC Symmetrix Remote Data Facility 소프트웨어를 지원합니다.

Hitachi TrueCopy 또는 EMC Symmetrix Remote Data Facility 소프트웨어로 데이터를 복제하기 전에 저장소 기반 복제 설명서를 숙지하고 시스템에 저장소 기반 복제 제품과 최신 패치를 설치해야 합니다. 저장소 기반 복제 소프트웨어 설치에 대한 자세한 내용은 제품 설명서를 참조하십시오.

저장소 기반 복제 소프트웨어는 기본 복제본 장치 및 보조 복제본 장치로 된 한 쌍의 장치를 복제본으로 구성합니다. 어느 경우이든, 한 노드 세트에 연결된 장치가 기본 복제본이 됩니다. 그 외 다른 노드 세트에 연결된 장치는 보조 복제본이 됩니다.

Oracle Solaris Cluster 구성에서 기본 복제본은 복제본이 속한 Oracle Solaris Cluster 장치 그룹이 이동할 때마다 자동으로 이동합니다. 따라서 기본 복제본을 Oracle Solaris Cluster 구성에서 직접 이동시키면 안 됩니다. 대신 관련 Oracle Solaris Cluster 장치 그룹을 옮겨서 이동해야 합니다.


주의

주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager, Veritas Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다.


이 절에서는 다음 절차에 대해 설명합니다.

Hitachi TrueCopy 복제 장치 관리

다음 표는 Hitachi TrueCopy 저장소 기반 복제 장치를 설정하기 위해 수행해야 할 작업의 목록입니다.

표 5-2 작업 맵: Hitachi TrueCopy 저장소 기반 복제 장치 관리

작업
지침
저장 장치 및 노드에 TrueCopy 소프트웨어 설치
Hitachi 저장 장치와 함께 제공된 문서를 참조하십시오.
Hitachi 복제 그룹 구성
DID 장치 구성
복제 그룹 등록
구성 검증

Hitachi TrueCopy 복제 그룹을 구성하는 방법

시작하기 전에

먼저 기본 클러스터의 공유 디스크에서 Hitachi TrueCopy 장치 그룹을 구성합니다. 이 구성 정보는 Hitachi 어레이에 액세스하는 각 클러스터 노드의 /etc/horcm.conf 파일에 지정됩니다. /etc/horcm.conf 파일을 구성하는 방법에 대한 자세한 내용은 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.


주의

주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager, Veritas Volume Manager, ZFS 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다.


  1. 저장소 어레이에 연결된 모든 노드에서 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.
  2. horcm 항목을 /etc/services 파일에 추가합니다.
    horcm  9970/udp

    새 항목에 대하여 포트 번호 및 프로토콜 이름을 지정합니다.

  3. /etc/horcm.conf 파일의 Hitachi TrueCopy 장치 그룹 구성 정보를 지정합니다.

    지침은 TrueCopy 소프트웨어와 함께 제공된 문서를 참조하십시오.

  4. 모든 노드에서 horcmstart.sh 명령을 실행하여 TrueCopy CCI 데몬을 시작합니다.
    # /usr/bin/horcmstart.sh
  5. 복제본 쌍을 아직 생성하지 않았으면 지금 생성합니다.

    원하는 보호(fence) 수준의 복제본 쌍을 만들려면 paircreate 명령을 사용합니다. 복제본 쌍 생성에 대한 지침은 TrueCopy 문서를 참조하십시오.

  6. 복제 장치가 구성된 각 노드에서 pairdisplay 명령을 사용하여 데이터 복제가 올바로 설정되었는지 확인합니다. 보호(fence) 수준이 ASYNC인 Hitachi TrueCopy 또는 Hitachi Universal Replicator 장치 그룹은 시스템의 다른 모든 장치 그룹과 해당 ctgid를 공유할 수 없습니다.
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -
  7. 모든 노드가 복제 그룹을 마스터할 수 있는지 확인합니다.
    1. pairdisplay 명령을 사용하여 기본 복제본이 포함되는 노드 및 보조 복제본이 포함되는 노드를 판별합니다.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

      P-VOL 상태인 로컬(L) 장치가 있는 노드는 기본 복제본을 포함하고 S-VOL 상태인 로컬(L) 장치가 있는 노드는 보조 복제본을 포함합니다.

    2. 보조 복제본을 포함하는 노드에서 horctakeover 명령을 실행하여 보조 노드를 마스터로 만듭니다.
      # horctakeover -g group-name

      다음 단계로 가기 전, 초기 데이터 복사가 완료되기를 기다립니다.

    3. horctakeover 명령을 수행한 노드에 P-VOL 상태의 로컬(L) 장치가 있는지 확인합니다.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..S-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..P-VOL PAIR NEVER ,----- 58   -
    4. 기본 복제본이 원래 있던 노드에서 horctakeover 명령을 실행합니다.
      # horctakeover -g group-name
    5. pairdisplay 명령을 사용하여 기본 노드가 원래 구성으로 변경되는지 확인합니다.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

다음 순서

Hitachi TrueCopy를 사용하여 복제용 DID 장치를 구성하는 방법의 지침에 따라 복제된 장치의 구성을 계속합니다.

Hitachi TrueCopy를 사용하여 복제용 DID 장치를 구성하는 방법

시작하기 전에

복제된 장치를 위한 장치 그룹을 구성한 후, 복제된 장치가 사용하는 DID를 구성해야 합니다.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 클러스터의 임의 노드에서 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.
  2. 모든 노드에서 horcmd 데몬이 실행되고 있는지 확인합니다.

    데몬이 실행되고 있지 않으면 다음 명령을 사용하여 데몬을 시작합니다. 데몬이 이미 실행 중이면 시스템에 메시지가 표시됩니다.

    # /usr/bin/horcmstart.sh
  3. pairdisplay 명령을 실행하여 어느 노드에 보조 복제본이 있는지 판별합니다.
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

    S-VOL 상태인 로컬(L) 장치가 있는 노드에 보조 복제본이 포함되어 있습니다.

  4. 보조 복제본이 있는 노드(이전 단계에서 판별한)에서 저장소 기반 복제를 사용하기 위한 DID 장치를 구성합니다.

    이 명령은 장치 복제본 쌍의 분리된 DID 인스턴스 두 개를 단일 논리 DID 인스턴스로 결합합니다. 단일 인스턴스를 통해 양쪽에서 볼륨 관리 소프트웨어가 장치를 사용할 수 있습니다.


    주의

    주의 - 여러 노드가 보조 복제본에 연결된 경우, 노드 중 하나에서만 이 명령을 실행합니다.


    # cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
    primary-replica-nodename

    기본 복제본을 포함하는 원격 노드의 이름을 지정합니다.

    -S

    현재 노드가 아닌 소스 노드를 지정합니다.

    secondary replica-nodename

    보조 복제본을 포함하는 원격 노드의 이름을 지정합니다.


    주 - 기본적으로 현재 노드는 소스 노드입니다. 다른 소스 노드를 지정하려면 -S 옵션을 사용합니다.


  5. DID 인스턴스가 결합되었는지 확인합니다.
    # cldevice list -v logical_DID_device
  6. TrueCopy 복제가 설정되었는지 확인합니다.
    # cldevice show logical_DID_device

    명령 출력에 TrueCopy가 복제 유형인 것으로 표시됩니다.

  7. DID 재매핑을 수행해도 모든 복제 장치가 성공적으로 결합되지 않으면 수동으로 각 복제 장치를 결합합니다.

    주의

    주의 - 수동으로 DID 인스턴스를 결합할 때에는 특별한 주의가 필요합니다. 장치 재매핑이 잘못되면 데이터 손상이 발생할 수 있습니다.


    1. 보조 복제본이 포함된 모든 노드에서 cldevice combine 명령을 실행합니다.
      # cldevice combine -d destination-instance source-instance
      -d destination-instance

      기본 복제본에 해당하는 원격 DID 인스턴스.

      source-instance

      보조 복제본에 해당하는 로컬 DID 인스턴스.

    2. DID 재매핑이 성공적으로 이루어졌는지 확인합니다.
      # cldevice list desination-instance source-instance

    DID 인스턴스 중 하나는 나열되지 않습니다.

  8. 모든 노드에서, 결합된 모든 DID 인스턴스에 대한 DID 장치를 액세스할 수 있는지 확인합니다.
    # cldevice list -v

다음 순서

복제된 장치 그룹의 구성을 완료하려면 다음 절차의 단계를 수행합니다.

Hitachi TrueCopy 복제 전역 장치 그룹 구성을 확인하는 방법

시작하기 전에

전역 장치 그룹을 확인하기 전에 먼저 전역 장치 그룹을 만듭니다. Solaris Volume Manager, Veritas Volume Manager, ZFS 또는 원시 디스크의 장치 그룹을 사용할 수 있습니다. 자세한 내용은 다음을 참조하십시오.


주의

주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager, Veritas Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다.


phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 기본 장치 그룹이 기본 복제본을 포함하는 노드와 동일한 노드에 해당하는지 확인합니다.
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
  2. 복제 등록 정보가 해당 장치 그룹에 대해 설정되어 있는지 확인합니다.
    # cldevicegroup show -n nodename group-name
  3. 복제 등록 정보가 해당 장치에 대해 설정되어 있는지 확인합니다.
    # usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
  4. 장치 그룹이 올바로 구성되고 복제본이 양 노드 사이에서 이동할 수 있는지 확인하려면 시험적으로 스위치오버를 수행해 봅니다.

    장치 그룹이 오프라인이면 온라인으로 전환합니다.

    # cldevicegroup switch -n nodename group-name
    -n nodename

    장치 그룹이 전환되는 노드. 이 노드는 새 기본 노드가 됩니다.

  5. 다음 명령의 출력을 비교하여 스위치오버가 성공적으로 이루어졌는지 확인합니다.
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name

예: Oracle Solaris Cluster용 TrueCopy 복제 그룹 구성

이 예제에서는 클러스터에서 TrueCopy 복제 설정에 필요한 Oracle Solaris Cluster 특정 단계를 완료합니다. 이 예제는 다음 작업이 이미 수행된 것으로 가정합니다.

이 예에는 TrueCopy를 사용하는 3 노드 클러스터가 필요합니다. 클러스터는 두 원격 사이트에 걸쳐 있으며 한 사이트에 두 개의 노드, 그리고 다른 한 사이트에 하나의 노드가 있습니다. 각 사이트에는 자체의 Hitachi 저장 장치가 있습니다.

다음 예에서는 각 노드의 TrueCopy /etc/horcm.conf 구성 파일을 보여 줍니다.

예 5-1 노드 1의 TrueCopy 구성 파일

HORCM_DEV 
#dev_group     dev_name    port#       TargetID     LU#       MU# 
VG01           pair1       CL1-A         0          29 
VG01           pair2       CL1-A         0          30 
VG01           pair3       CL1-A         0          31 
HORCM_INST 
#dev_group     ip_address   service 
VG01           node-3       horcm

예 5-2 노드 2의 TrueCopy 구성 파일

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU#
VG01              pair1          CL1-A         0         29 
VG01              pair2          CL1-A         0         30 
VG01              pair3          CL1-A         0         31 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-3          horcm

예 5-3 노드 3의 TrueCopy 구성 파일

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU# 
VG01              pair1          CL1-C         0         09 
VG01              pair2          CL1-C         0         10 
VG01              pair3          CL1-C         0         11 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-1          horcm 
VG01              node-2          horcm

위 예제에서 세 개의 LUN은 두 사이트 사이에서 복제됩니다. LUN은 모두 VG01이라는 복제 그룹에 있습니다. pairdisplay 명령은 이 정보를 확인하고 노드 3에 기본 복제본이 있음을 보여 줍니다.

예 5-4 노드 1의 pairdisplay 명령 출력

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

예 5-5 노드 2의 pairdisplay 명령 출력

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

예 5-6 노드 3의 pairdisplay 명령 출력

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair1(R)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair2(L)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair2(R)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair3(L)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  - 
VG01    pair3(R)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 

사용되는 디스크를 보려면 다음 예와 같이 pairdisplay 명령의 -fd 옵션을 사용합니다.

예 5-7 노드 1의 pairdisplay 명령 출력, 사용되는 디스크 표시

# pairdisplay -fd -g VG01 
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M 
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  - 
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

예 5-8 노드 2의 pairdisplay 명령 출력, 사용되는 디스크 표시

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  -
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  -
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  -
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER  ,61114    30  -
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  -
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

예 5-9 노드 3의 pairdisplay 명령 출력, 사용되는 디스크 표시

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M 
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064  58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114  29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114  30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064  60..P-VOL PAIR NEVER  ,61114    31  - 
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114  31..S-VOL PAIR NEVER  ,-----    60  -

이 예제는 다음 디스크를 사용하고 있음을 보여줍니다.

이들 디스크에 해당하는 DID 장치를 보려면 다음 예와 같이 cldevice list 명령을 사용합니다.

예 5-10 사용되는 디스크에 해당하는 DID 표시

# cldevice list -v

DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
12              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
12              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
13              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
13              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
14              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
14              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223  
23              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

각 복제 장치 쌍에 대한 DID 인스턴스를 결합하는 경우 cldevice list 명령은 DID 인스턴스 12를 22와 결합하고 인스턴스 13을 23과 결합하고 인스턴스 14를 24와 결합해야 합니다. 노드 3에 기본 복제본이 있으므로 노드 1 또는 노드 2에서 cldevice -T 명령을 실행합니다. 항상 보조 복제본이 있는 노드에서 인스턴스를 결합합니다. 양쪽 노드가 아닌 단일 노드에서만 이 명령을 실행하십시오.

다음 예제는 노드 1에서 명령을 실행하여 DID 인스턴스를 결합할 때의 출력입니다.

예 5-11 DID 인스턴스 결합

# cldevice replicate -D node-3
Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

cldevice list 출력을 확인하면 이제 두 사이트의 LUN에 동일한 DID 인스턴스가 있는 것을 알 수 있습니다. 다음 예제와 같이, 동일한 DID 인스턴스가 있어 각 복제본 쌍이 단일 DID 장치처럼 보입니다.

예 5-12 결합된 DID 표시

# cldevice list -v
DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222  
22          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22
23          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

다음은 볼륨 관리자 장치 그룹을 생성하는 단계입니다. 기본 복제본이 있는 노드(이 예에서는 노드 3)에서 이 명령을 실행합니다. 다음 예와 같이 장치 그룹에 복제본 그룹과 동일한 이름을 지정합니다.

예 5-13 Solaris Volume Manager 장치 그룹의 생성

# metaset -s VG01 -ah phys-deneb-3
# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1

Host                Owner
  phys-deneb-3       Yes
  phys-deneb-1
  phys-deneb-2

Drive Dbase
d22   Yes
d23   Yes
d24   Yes

이 시점에서는 장치 그룹을 사용할 수 있고, 메타 장치를 생성할 수 있으며, 장치 그룹을 세 노드 중 하나로 이동할 수 있습니다. 그러나, 보다 효율적인 전환 및 장애 조치를 위해 cldevicegroup set 명령을 실행하여 클러스터 구성에 복제된 장치 그룹을 표시합니다.

예 5-14 효율적인 스위치오버 및 페일오버

# cldevicegroup sync VG01 
# cldevicegroup show VG01
=== Device Groups===

Device Group Name                       VG01   
  Type:                                   SVM   
  failback:                               no   
  Node List:                              phys-deneb-3, phys-deneb-1, phys-deneb-2   
  preferenced:                            yes   
  numsecondaries:                         1   
  device names:                           VG01   
  Replication type:                       truecopy

복제 그룹의 구성은 이 단계로 완료됩니다. 성공적으로 구성되었는지 확인하려면 Hitachi TrueCopy 복제 전역 장치 그룹 구성을 확인하는 방법의 단계를 수행합니다.

EMC Symmetrix Remote Data Facility 복제 장치 관리

다음 표에는 EMC SRDF(Symmetrix Remote Data Facility) 저장소 기반 복제 장치를 설정하고 관리하기 위해 수행해야 할 작업이 나열되어 있습니다.

표 5-3 작업 맵: EMC SRDF 저장소 기반 복제 장치 관리

작업
지침
저장 장치 및 노드에 SRDF 소프트웨어 설치
EMC 저장 장치와 함께 제공된 문서
EMC 복제 그룹 구성
DID 장치 구성
복제 그룹 등록
구성 검증
캠퍼스 클러스터의 기본 룸이 완전히 실패한 후 수동으로 데이터 복구

EMC SRDF 복제 그룹 구성 방법

시작하기 전에

EMC SRDF(Symmetrix Remote Data Facility) 복제 그룹을 구성하기 전에 EMC Solutions Enabler 소프트웨어가 모든 클러스터 노드에 설치되어 있어야 합니다. 먼저 클러스터의 공유 디스크에서 EMC SRDF 장치 그룹을 구성합니다. EMC SRDF 장치 그룹을 구성하는 방법에 대한 자세한 내용은 EMC SRDF 제품 설명서를 참조하십시오.

EMC SRDF를 사용하고 있는 경우 정적 장치 대신 동적 장치를 사용해야 합니다. 정적 장치의 경우 기본 복제를 변경하는 데 몇 분 정도 걸리고, 페일오버 시간에 영향을 미칠 수 있습니다.


주의

주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager, Veritas Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다.


  1. 저장소 어레이에 연결된 모든 노드에서 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.
  2. 복제된 데이터로 구성된 각 노드에서 Symmetrix 장치 구성을 검색합니다.

    이 작업은 몇 분 정도 걸릴 수 있습니다.

    # /usr/symcli/bin/symcfg discover
  3. 복제본 쌍을 아직 생성하지 않았으면 지금 생성합니다.

    symrdf 명령을 사용하여 복제본 쌍을 만듭니다. 복제본 쌍 만들기에 대한 지침은 SRDF 문서를 참조하십시오.

  4. 복제된 장치로 구성된 각 노드에서 데이터 복제가 제대로 설정되어 있는지 확인합니다.
    # /usr/symcli/bin/symdg show group-name
  5. 장치 그룹의 스왑을 수행합니다.
    1. 기본 및 보조 복제본이 동기화되는지 확인합니다.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
    2. symdg show 명령을 사용하여 기본 복제본이 포함되는 노드와 보조 복제본이 포함되는 노드를 결정합니다.
      # /usr/symcli/bin/symdg show group-name

      RDF1 장치가 있는 노드에는 기본 복제본이 포함되고, RDF2 장치 상태가 있는 노드에는 보조 복제본이 포함됩니다.

    3. 보조 복제본을 활성화합니다.
      # /usr/symcli/bin/symrdf -g group-name failover
    4. RDF1 및 RDF2 장치를 스왑합니다.
      # /usr/symcli/bin/symrdf -g group-name swap -refresh R1
    5. 복제본 쌍을 활성화합니다.
      # /usr/symcli/bin/symrdf -g group-name establish
    6. 기본 노드 및 보조 복제본이 동기화되는지 확인합니다.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
  6. 원래 기본 복제본이 있었던 노드에서 5단계의 모든 사항을 반복합니다.

다음 순서

EMC SRDF 복제 장치를 위한 장치 그룹을 구성한 후, 복제된 장치가 사용하는 장치 식별자(Device Identifier, DID) 드라이버를 구성해야 합니다.

EMC SRDF를 사용하여 복제할 DID 장치를 구성하는 방법

이 절차에서는 복제된 장치가 사용하는 장치 식별자(Device Identifier, DID) 드라이버를 구성합니다.

시작하기 전에

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 클러스터의 임의 노드에서 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.
  2. 구성된 RDF1과 RDF2 장치에 해당하는 DID 장치를 결정합니다.
    # /usr/symcli/bin/symdg show group-name

    주 - 시스템에 전체 Oracle Solaris 장치 패치가 표시되지 않으면 환경 변수 SYMCLI_FULL_PDEVNAME를 1로 설정하고 symdg -show 명령을 다시 입력합니다.


  3. Oracle Solaris 장치에 해당하는 DID 장치를 결정합니다.
    # cldevice list -v
  4. 일치하는 DID 장치의 각 쌍의 경우 인스턴스를 복제된 단일 DID 장치로 결합합니다. RDF2/보조측에서 다음 명령을 실행합니다.
    # cldevice combine -t srdf -g replication-device-group \
     -d destination-instance source-instance

    주 - -T 옵션은 SRDF 데이터 복제 장치용으로 지원되지 않습니다.


    -t replication-type

    복제 유형을 지정합니다. EMC SRDF의 경우 SRDF를 입력합니다.

    -g replication-device-group

    symdg show 명령에 표시된 대로 장치 그룹 이름을 지정합니다.

    -d destination-instance

    RDF1 장치에 해당하는 DID 인스턴스를 지정합니다.

    source-instance

    RDF2 장치에 해당하는 DID 인스턴스를 지정합니다.


    주 - 잘못된 DID 장치를 결합하려면 scdidadm 명령에 -b 옵션을 사용하여 2개의 DID 장치 결합의 실행을 취소합니다.

    # scdidadm -b device 
    -b device

    인스턴스가 결합된 경우 destination_device에 해당하는 DID 인스턴스입니다.


  5. 복제 장치 그룹 이름이 변경된 경우 Hitachi TrueCopy 및 SRDF에 대해 추가 단계가 필요합니다. 1 - 4단계를 완료한 후 해당하는 추가 단계를 수행합니다.
    항목
    설명
    TrueCopy
    복제 장치 그룹(및 해당 전역 장치 그룹) 이름이 변경된 경우, cldevice replicate 명령을 다시 실행하여 복제된 장치 정보를 업데이트해야 합니다.
    SRDF
    복제 장치 그룹(및 해당 전역 장치 그룹) 이름이 변경된 경우, 먼저 scdidadm -b 명령을 사용하여 기존 정보를 제거함으로써 복제된 장치 정보를 업데이트해야 합니다. 마지막 단계는 cldevice combine 명령을 사용하여 업데이트된 새 장치를 만드는 것입니다.
  6. DID 인스턴스가 결합되었는지 확인합니다.
    # cldevice list -v device
  7. SRDF 복제가 설정되어 있는지 확인합니다.
    # cldevice show device
  8. 모든 노드에서, 결합된 모든 DID 인스턴스에 대한 DID 장치를 액세스할 수 있는지 확인합니다.
    # cldevice list -v

다음 순서

복제된 장치에서 사용하는 장치 식별자(Device Identifier, DID) 드라이버를 구성한 후에는 EMC SRDF 복제 전역 장치 그룹 구성을 확인해야 합니다.

EMC SRDF 복제 전역 장치 그룹 구성 검증 방법

시작하기 전에

전역 장치 그룹을 확인하기 전에 먼저 전역 장치 그룹을 만듭니다. Solaris Volume Manager, Veritas Volume Manager, ZFS 또는 원시 디스크의 장치 그룹을 사용할 수 있습니다. 자세한 내용은 다음을 참조하십시오.


주의

주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager, Veritas Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다.


phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 기본 장치 그룹이 기본 복제본을 포함하는 노드와 동일한 노드에 해당하는지 확인합니다.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
  2. 장치 그룹이 올바로 구성되고 복제본이 양 노드 사이에서 이동할 수 있는지 확인하려면 시험적으로 스위치오버를 수행해 봅니다.

    장치 그룹이 오프라인이면 온라인으로 전환합니다.

    # cldevicegroup switch -n nodename group-name
    -n nodename

    장치 그룹이 전환되는 노드. 이 노드가 새 기본 노드가 됩니다.

  3. 다음 명령의 출력을 비교하여 스위치오버가 성공적으로 이루어졌는지 확인합니다.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name

예: Oracle Solaris Cluster용 SRDF 복제 그룹 구성

이 예제에서는 클러스터에서 SRDF 복제 설정에 필요한 Oracle Solaris Cluster 특정 단계를 완료합니다. 이 예제는 다음 작업이 이미 수행된 것으로 가정합니다.

이 예에서는 노드가 4개인 클러스터를 호출하며 이 클러스터에는 2개의 노드가 하나의 Symmetrix에 연결되어 있고 다른 2개의 노드가 보조 Symmetrix에 연결되어 있습니다. SRDF 장치 그룹은 dg1이라고 합니다.

예 5-15 복제본 쌍 만들기

모든 노드에서 다음 명령을 실행합니다.

# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd

Symmetrix ID: 000187990182

        Device Name          Directors                   Device                
--------------------------- ------------ --------------------------------------
                                                                           Cap 
Sym  Physical               SA :P DA :IT  Config        Attribute    Sts   (MB)
--------------------------- ------------- -------------------------------------

0067 c5t600604800001879901* 16D:0 02A:C1  RDF2+Mir      N/Grp'd      RW    4315
0068 c5t600604800001879901* 16D:0 16B:C0  RDF1+Mir      N/Grp'd      RW    4315
0069 c5t600604800001879901* 16D:0 01A:C0  RDF1+Mir      N/Grp'd      RW    4315
...

RDF1측에 있는 모든 노드에서 다음을 입력합니다.

# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

RDF2측에 있는 모든 노드에서 다음을 입력합니다.

# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067

예 5-16 데이터 복제 설정 확인

클러스터에 있는 하나의 노드에서 다음을 입력합니다.

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
    Device Group in GNS                          : No
    Valid                                        : Yes
    Symmetrix ID                                 : 000187900023
    Group Creation Time                          : Thu Sep 13 13:21:15 2007
    Vendor ID                                    : EMC Corp
    Application ID                               : SYMCLI

    Number of STD Devices in Group               :    1
    Number of Associated GK's                    :    0
    Number of Locally-associated BCV's           :    0
    Number of Locally-associated VDEV's          :    0
    Number of Remotely-associated BCV's (STD RDF):    0
    Number of Remotely-associated BCV's (BCV RDF):    0
    Number of Remotely-assoc'd RBCV's (RBCV RDF) :    0

    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...
# symrdf -g dg1 establish

Execute an RDF 'Incremental Establish' operation for device
group 'dg1' (y/[n]) ? y

An RDF 'Incremental Establish' operation execution is
in progress for device group 'dg1'. Please wait...

    Write Disable device(s) on RA at target (R2)..............Done.
    Suspend RDF link(s).......................................Done.
    Mark target (R2) devices to refresh from source (R1)......Started.
    Device: 0067 ............................................ Marked.
    Mark target (R2) devices to refresh from source (R1)......Done.
    Merge device track tables between source and target.......Started.
    Device: 0067 ............................................ Merged.
    Merge device track tables between source and target.......Done.
    Resume RDF link(s)........................................Started.
    Resume RDF link(s)........................................Done.

The RDF 'Incremental Establish' operation successfully initiated for
device group 'dg1'.

#  
# symrdf -g dg1 query  


Device Group (DG) Name             : dg1
DG's Type                          : RDF2
DG's Symmetrix ID                  : 000187990182


       Target (R2) View                 Source (R1) View     MODES           
--------------------------------    ------------------------ ----- ------------
             ST                  LI      ST                                    
Standard      A                   N       A                                   
Logical       T  R1 Inv   R2 Inv  K       T  R1 Inv   R2 Inv       RDF Pair    
Device  Dev   E  Tracks   Tracks  S Dev   E  Tracks   Tracks MDA   STATE       
-------------------------------- -- ------------------------ ----- ------------

DEV001  0067 WD       0        0 RW 0067 RW       0        0 S..   Synchronized

Total          -------- --------           -------- --------
  MB(s)             0.0      0.0                0.0      0.0

Legend for MODES:

 M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
 D(omino)           : X = Enabled, . = Disabled
 A(daptive Copy)    : D = Disk Mode, W = WP Mode, . = ACp off

# 

예 5-17 사용되는 디스크에 해당하는 DID 표시

동일한 절차가 RDF1과 RDF2측에 적용됩니다.

dymdg show dg 명령 출력의 PdevName 필드에서 살펴볼 수 있습니다.

RDF1측에서 다음을 입력합니다.

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...

해당하는 DID를 얻으려면 다음을 입력합니다.

# scdidadm -L | grep c5t6006048000018790002353594D303637d0
217      pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217   
217      pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 
#

해당하는 DID를 나열하려면 다음을 입력합니다.

# cldevice show d217

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 

RDF2측에서 다음을 입력합니다.

dymdg show dg 명령 출력의 PdevName 필드에서 살펴볼 수 있습니다.

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF2     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067      WD      4315
        }

    Device Group RDF Information
...

해당하는 DID를 얻으려면 다음을 입력합니다.

# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108      pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
108      pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
# 

해당하는 DID를 나열하려면 다음을 입력합니다.

# cldevice show d108

=== DID Device Instances ===                   

DID Device Name:            /dev/did/rdsk/d108
  Full Device Path:               pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:               pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                    none
  default_fencing:                global

# 

예 5-18 DID 인스턴스 결합

RDF2측에서 다음을 입력합니다.

# cldevice combine -t srdf -g dg1 -d d217 d108
# 

예 5-19 결합된 DID 표시

클러스터에 있는 임의의 노드에서 다음을 입력합니다.

# cldevice show d217 d108
cldevice:  (C727402) Could not locate instance "108".

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     srdf
  default_fencing:                                 global

# 

기본 룸이 완전히 실패된 후 EMC SRDF 데이터 복구 방법

이 절차에서는 캠퍼스 클러스터의 기본 룸이 완전히 실패하여 보조 룸으로 페일오버된 다음 다시 온라인 상태로 전환될 때 데이터 복구를 수행합니다. 캠퍼스 클러스터의 기본 룸은 기본 노드 및 저장소 사이트입니다. 룸의 완전한 오류에는 룸에 있는 호스트와 저장소 둘 다의 오류가 포함됩니다. 기본 룸이 실패하면 Oracle Solaris Cluster가 보조 룸으로 자동 페일오버되며 보조 룸의 저장 장치를 읽고 쓸 수 있는 상태로 만들고 해당 장치 그룹 및 자원 그룹의 페일오버를 사용합니다.

기본 룸이 온라인 상태로 돌아오면 보조 룸에 기록된 SRDF 장치 그룹에서 데이터를 수동으로 복구하고 재동기화할 수 있습니다. 이 절차에서는 원래 보조 룸(이 절차에서는 보조 룸에 대해 phys-campus-2 사용)에서 원래 기본 룸(phys-campus-1)으로 데이터를 동기화하여 SRDF 장치 그룹을 복구합니다. 또한 SRDF 장치 그룹 유형을 phys-campus-2의 RDF1 및 phys-campus-1의 RDF2로 변경합니다.

시작하기 전에

수동 페일오버를 수행하려면 먼저 EMC 복제 그룹을 등록해야 할 뿐만 아니라 EMC 복제 그룹과 DID 장치를 구성해야 합니다. Solaris Volume Manager 장치 그룹 생성에 대한 내용은 장치 그룹 추가 및 등록 방법(Solaris Volume Manager)을 참조하십시오. Veritas Volume Manager(VERITAS 볼륨 관리자) 장치 그룹 생성에 대한 내용은 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))을 참조하십시오.


주 - 이러한 지침에서는 기본 룸이 완전히 페일오버된 다음 다시 온라인 상태가 된 후 SRDF 데이터를 수동으로 복구하는 데 사용할 수 있는 한 가지 방법을 보여 줍니다. 추가 방법은 EMC 설명서를 확인하십시오.


이러한 단계를 수행하려면 캠퍼스 클러스터의 기본 룸에 로그인합니다. 아래 절차에서 dg1은 SRDF 장치 그룹 이름입니다. 실패 시 이 절차의 기본 룸은 phys-campus-1이고 보조 룸은 phys-campus-2입니다.

  1. 캠퍼스 클러스터의 기본 룸에 로그인하고 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.
  2. 기본 룸에서 symrdf 명령을 사용하여 RDF 장치의 복제 상태를 쿼리하고 해당 장치에 대한 정보를 확인합니다.
    phys-campus-1# symrdf -g dg1 query

    참고 - split 상태의 장치 그룹은 동기화되지 않습니다.


  3. RDF 쌍 상태가 split이고 장치 그룹 유형이 RDF1인 경우 SRDF 장치 그룹을 강제로 페일오버합니다.
    phys-campus-1# symrdf -g dg1 -force failover
  4. RDF 장치의 상태를 확인합니다.
    phys-campus-1# symrdf -g dg1 query
  5. 페일오버 후 페일오버된 RDF 장치에서 데이터를 스왑할 수 있습니다.
    phys-campus-1# symrdf -g dg1 swap
  6. RDF 장치에 대해 상태 및 기타 정보를 확인합니다.
    phys-campus-1# symrdf -g dg1 query
  7. 기본 룸에 SRDF 장치 그룹을 설정합니다.
    phys-campus-1# symrdf -g dg1 establish
  8. 장치 그룹이 동기화된 상태에 있는지, 장치 그룹 유형이 RDF2인지 확인합니다.
    phys-campus-1# symrdf -g dg1 query

예 5-20 기본 사이트 페일오버 후 수동으로 EMC SRDF 데이터 복구

이 예에서는 캠퍼스 클러스터의 기본 룸이 페일오버되고 보조 룸을 사용하여 데이터를 기록한 다음 기본 룸이 다시 온라인 상태가 된 후 EMC SRDF 데이터를 수동으로 복구하는 데 필요한 Oracle Solaris Cluster 관련 단계에 대해 설명합니다. 이 예에서 SRDF 장치 그룹은 dg1이고 표준 논리적 장치는 DEV001입니다. 실패 시 기본 룸은 phys-campus-1이고 보조 룸은 phys-campus-2입니다. 캠퍼스 클러스터의 기본 룸 phys-campus-1에서 단계를 수행합니다.

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012RW  0  0NR 0012RW  2031   O S.. Split

phys-campus-1# symdg list | grep RDF
dg1 RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 -force failover
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012  WD  0  0 NR 0012 RW  2031  O S..  Failed Over

phys-campus-1# symdg list | grep RDF
dg1  RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 swap
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 NR 0012 RW  0  2031 S.. Suspended

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 establish
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 RW 0012 RW  0  0 S.. Synchronized

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0