Solaris OS용 Sun Cluster 소프트웨어 설치 안내서

3장 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

볼륨 관리 계획에 있는 계획 정보와 함께 이 장의 절차를 사용하여 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에 필요한 로컬 디스크 및 멀티 호스트 디스크를 설치 및 구성합니다. 자세한 내용은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서를 참조하십시오.


주 –

DiskSuite Tool(Solstice DiskSuite metatool) 및 Solaris Management Console(Solaris 볼륨 관리자)의 Enhanced Storage 모듈은 Sun Cluster 소프트웨어와 호환되지 않습니다. 명령줄 인터페이스 또는 Sun Cluster 유틸리티를 사용하여 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 구성하십시오.


이 장에서는 다음 정보와 절차를 설명합니다.

작업 맵: Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

다음 표는 Sun Cluster 구성에 필요한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 설치하고 구성하기 위해 수행할 작업 목록입니다. 다음과 같은 조건에서는 특정 절차를 생략할 수 있습니다.

표 3–1 작업 맵: Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

작업 

지침 

1. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 

1a. Solstice DiskSuite 또는 Solaris 볼륨 관리자 구성 레이아웃 계획 

1b. (Solaris 8 전용) Solstice DiskSuite 소프트웨어 설치

Solstice DiskSuite 소프트웨어를 설치하는 방법

1c. 구성에 필요한 메타 장치 이름 및 디스크 세트 수 계산, /kernel/drv/md.conf 파일 수정

메타 장치나 볼륨 이름 및 디스크 세트 수를 설정하는 방법

1d. 로컬 디스크에 상태 데이터베이스 복제본 만들기 

상태 데이터베이스 복제본을 만드는 방법

1e. (옵션) 루트 디스크에 파일 시스템 미러

루트 디스크 미러링

2. 디스크 세트 만들기 

2a. metaset 명령을 사용하여 디스크 세트 만들기

디스크 세트 작성 방법

2b. 디스크 세트에 드라이브 추가 

디스크 세트에 드라이브를 추가하는 방법

2c. (옵션) 디스크 세트에서 디스크 드라이브를 재분할하여 슬라이스 1에서 6까지에 공간 할당

디스크 세트의 드라이브를 다시 분할하는 방법

2d. /etc/lvm/md.tab 파일에 DID 의사 드라이버 매핑 표시 및 메타 장치나 볼륨 정의

md.tab 파일을 만드는 방법

2e. md.tab 파일 초기화

메타 장치나 볼륨을 활성화하는 방법

3. (이중 문자열 구성 전용)이중 문자열 mediator 호스트 구성, mediator 데이터 상태 확인 및 필요할 경우에 잘못된 mediator 데이터 수정

  1. Mediator 호스트를 추가하는 방법

  2. Mediator 데이터의 상태를 검사하는 방법

4. 클러스터 구성 

클러스터 구성

Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

이 절에서는 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성에 대한 다음 정보와 절차를 설명합니다.

Solstice DiskSuite 또는 Solaris 볼륨 관리자 구성의 예

다음은 각 디스크 세트에 배치할 디스크 드라이브 수를 결정하는 프로세스를 설명하는 예입니다. 이 예에서는 세 개의 저장 장치가 사용됩니다. 기존 응용 프로그램은 NFS(각각 5GB인 파일 시스템 2개) 및 2개의 ORACLE 데이터베이스(5GB 및 10GB)를 통해 실행됩니다.

다음 표에서는 샘플 구성에 필요한 드라이브 수를 결정하는 계산 방법을 설명합니다. 세 개의 저장 장치가 있는 구성에서는 28개의 드라이브가 필요합니다. 디스크 드라이브는 세 개의 저장 장치 각각에 가능한 균등하게 분배되어야 합니다. 필요한 드라이브 수가 반올림되었기 때문에 5GB 파일 시스템에 1GB 디스크 공간이 추가되었습니다.

표 3–2 구성에 필요한 드라이브 수 결정

사용 

데이터 

필요한 디스크 저장소 

필요한 드라이브 수 

nfs1

5GB 

3x2.1GB 디스크 * 2 (미러) 

nfs2

5GB 

3x2.1GB 디스크 * 2 (미러) 

SPARC: oracle1

5GB 

3x2.1GB 디스크 * 2 (미러) 

SPARC: oracle2

10GB 

5x2.1GB 디스크 * 2 (미러) 

10 

다음 표는 두 개의 디스크 세트와 네 가지 데이터 서비스에 드라이브를 할당하는 예입니다.

표 3–3 디스크 세트 나누기

디스크 세트 

데이터 서비스 

드라이브 

저장 장치 1 

저장 장치 2 

저장 장치 3 

dg-schost-1

nfs1, oracle1

12 

dg-schost-2

nfs2, oracle2

16 

처음에는 각 저장 장치마다 4개의 드라이브(총 12개 드라이브)가 dg-schost-1에 할당되고 5개 또는 6개의 드라이브(총 16개 드라이브)가 dg-schost-2에 할당됩니다.

핫 스패어 디스크는 두 디스크 세트에 할당되지 않습니다. 각 디스크 세트의 저장 장치마다 최소 하나의 핫 스페어 디스크를 남겨 두면 하나의 드라이브를 핫 스페어로 사용하여 완전한 양방향 미러링을 복원할 수 있습니다.

Solstice DiskSuite 소프트웨어를 설치하는 방법


주 –

다음과 같은 경우에는 이 절차를 수행하지 마십시오.


클러스터의 각 노드에서 다음 작업을 수행하십시오.

  1. 다음 정보를 준비하십시오.

  2. 클러스터 노드에서 수퍼유저가 되십시오.

  3. CD-ROM에서 설치하는 경우에는 Solaris 8 소프트웨어 CD-ROM 두 번째 장을 노드의 CD-ROM 드라이브에 넣으십시오.

    이 단계에서는 볼륨 관리 데몬 vold(1M)가 실행되고 있고 CD-ROM 장치를 관리하도록 구성되어 있다고 가정합니다.

  4. 다음 예에 표시된 순서로 Solstice DiskSuite 소프트웨어 패키지를 설치하십시오.


    # cd /cdrom/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packagespkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] optional-pkgs
    


    주 –

    설치할 Solstice DiskSuite 소프트웨어 패치가 있으면 Solstice DiskSuite 소프트웨어를 설치한 후에 재부트하지 마십시오.


    모든 Solstice DiskSuite 설치에 SUNWmdrSUNWmdu 패키지가 필요합니다. 64비트 Solstice DiskSuite 설치에는 SUNWmdx 패키지도 필요합니다.

    옵션 소프트웨어 패키지에 대한 정보는 Solstice DiskSuite 설치 설명서를 참조하십시오.

  5. CD-ROM에서 설치한 경우에는 CD-ROM을 빼십시오.

  6. Solstice DiskSuite 패치가 있으면 설치하십시오.

    패치 위치 및 설치 지침은 Sun Cluster 3.1 릴리스 정보의 “패치 및 필수 펌웨어 수준”을 참조하십시오.

  7. 클러스터의 다른 노드에서 단계 1부터 단계 6까지 반복하십시오.

  8. 클러스터의 한 노드에서 직접 Solstice DiskSuite에 대한 전역 장치 이름 공간을 채우십시오.


    # scgdevs
    


    주 –

    scgdevs 명령은 다음과 비슷한 메시지를 반환할 수 있습니다.


    Could not open /dev/rdsk/c0t6d0s2 to verify device id, Device busy

    나열된 장치가 CD-ROM 장치이면 메시지를 무시해도 됩니다.


  9. 클러스터에서 사용할 것으로 예상되는 메타 장치 이름과 디스크 세트 수를 설정하십시오.

    메타 장치나 볼륨 이름 및 디스크 세트 수를 설정하는 방법으로 이동하십시오.

메타 장치나 볼륨 이름 및 디스크 세트 수를 설정하는 방법


주 –

SunPlex Installer를 사용하여 Solstice DiskSuite 소프트웨어를 설치했으면 이 절차를 수행하지 마십시오. 대신 루트 디스크 미러링로 이동하십시오.


이 절차에서는 구성에 필요한 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨 이름 또는 디스크 세트의 수를 결정하는 방법을 설명합니다. 또한 /kernel/drv/md.conf 파일을 수정하여 이러한 개수를 지정하는 방법도 설명합니다.


정보 –

각 디스크 세트의 메타 장치나 볼륨 이름 개수 기본값은 128이지만 대부분의 구성에서 기본값보다 많은 개수가 필요합니다. 구성을 구현하기 전에 이 개수를 늘리십시오. 그러면 나중에 관리 시간을 줄일 수 있습니다.

또한 nmd 필드 및 md_nsets 필드의 값을 가능한 최소값으로 유지하십시오. nmdmd_nsets에 의해 결정되는 가능한 모든 장치를 위한 메모리 구조가 해당 장치를 만들지 않은 경우에도 존재합니다. 최적의 성능을 얻으려면 nmdmd_nsets의 값을 사용할 메타 장치나 볼륨 수보다 약간 높게 유지하십시오.


  1. 디스크 장치 그룹 구성 워크시트를 준비하십시오.

  2. 클러스터에서 필요할 것으로 예상되는 총 디스크 세트 수를 계산한 다음 개인 디스크 관리를 위한 디스크 세트 수 하나를 추가하십시오.

    클러스터의 최대 디스크 세트 수는 32개입니다. 31개는 일반 용도로 사용하는 디스크 세트이고 하나는 개인 디스크 관리에 사용하는 디스크 세트입니다. 기본 디스크 세트 수는 4입니다. 단계 4md_nsets필드에 이 값을 입력합니다.

  3. 클러스터의 디스크 세트에서 필요할 것으로 예상되는 메타 장치나 볼륨 이름 중에서 가장 큰 값을 결정하십시오.

    각 디스크 세트에 최대 8192개까지 메타 장치나 볼륨 이름을 사용할 수 있습니다. 나중에 단계 4에서 nmd 필드에 이 값을 입력합니다.

    1. 각 디스크 세트에 필요할 것으로 예상되는 메타 장치나 볼륨 이름의 수를 결정하십시오.

      로컬 메타 장치나 볼륨을 사용하는 경우에는 각 로컬 메타 장치나 볼륨 이름이 전체 클러스터에서 고유해야 하고 클러스터에 있는 다른 장치 ID 이름과 동일한 이름을 사용하지 않아야 합니다.


      정보 –

      장치 ID 이름에만 사용할 번호 범위와 로컬 메타 장치나 볼륨 이름에만 사용할 각 노드 범위를 선택하십시오. 예를 들어, 장치 ID 이름에 d1부터 d100까지의 범위를 사용할 수 있습니다. 노드 1의 로컬 메타 장치 또는 볼륨은 범위가 d100부터 d199까지인 이름을 사용할 수 있습니다. 노드 2의 로컬 메타 장치 또는 볼륨은 d200부터 d299까지를 사용할 수 있습니다.


    2. 디스크 세트에 필요할 것으로 예상되는 메타 장치나 볼륨 이름 중에서 가장 큰 값을 결정하십시오.

      메타 장치나 볼륨 이름의 개수는 실제 개수를 기반으로 하지 않고 메타 장치나 볼륨 이름의 을 기반으로 설정합니다. 예를 들어, 메타 장치나 볼륨의 이름 범위가 d950부터 d1000까지이면 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에서는 값을 50개가 아닌 1000개의 이름으로 설정해야 합니다.

  4. 각 노드에서 수퍼유저가 되어 /kernel/drv/md.conf 파일을 편집하십시오.


    주의 – 주의 –

    각 노드에서 제공되는 디스크 세트 수와 관계없이 모든 클러스터 노드 또는 클러스터 쌍 토폴로지에 포함된 클러스터 쌍에 동일한 /kernel/drv/md.conf 파일이 있어야 합니다. 이 설명을 따르지 않으면 심각한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 오류가 발생하여 데이터를 잃을 수 있습니다.


    1. md_nsets 필드를 단계 2에서 결정한 값으로 설정하십시오.

    2. nmd 필드를 단계 3에서 결정한 값으로 설정하십시오.

  5. 각 노드에서 재구성 재부트를 수행하십시오.


    # touch /reconfigure
    # shutdown -g0 -y -i6
    

    재구성 재부트를 수행하고 나면 /kernel/drv/md.conf 파일의 변경 사항이 적용됩니다.

  6. 로컬 상태 데이터베이스 복제본을 만드십시오.

    상태 데이터베이스 복제본을 만드는 방법으로 이동하십시오.

상태 데이터베이스 복제본을 만드는 방법


주 –

SunPlex Installer를 사용하여 Solstice DiskSuite 소프트웨어를 설치했으면 이 절차를 수행하지 마십시오. 대신 루트 디스크 미러링로 이동하십시오.


클러스터의 각 노드에서 이 절차를 수행하십시오.

  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. 각 클러스터 노드에 대한 하나 이상의 로컬 장치에 상태 데이터베이스 복제본을 만드십시오.

    사용할 슬라이스를 지정하는 데 장치 ID 이름(dN)이 아니라 물리적 이름 (cNtXdYsZ)을 사용합니다.


    # metadb -af slice-1 slice-2 slice-3
    


    정보 –

    Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 실행하기 위해 필요한 상태 데이터를 보호하려면 각 노드에 대한 복제본을 세 개 이상 만드십시오. 또한 두 개 이상의 장치에 복제본을 만들면 장치 중 하나에 장애가 발생할 경우에도 보호할 수 있습니다.


    자세한 내용은 metadb(1M) 설명서 페이지와 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서를 참조하십시오.

  3. 복제본을 확인하십시오.


    # metadb
    

    metadb 명령을 실행하면 복제본 목록이 표시됩니다.

  4. 루트 디스크에 파일 시스템을 미러하려면 루트 디스크 미러링으로 이동하십시오.

    그렇지 않은 경우에는 클러스터에 디스크 세트 만들기로 이동하여 Solstice DiskSuite 또는 Solaris 볼륨 관리자 디스크 세트를 만드십시오.

예: 상태 데이터베이스 복제본 만들기

다음 예에서는 3개의 Solstice DiskSuite 상태 데이터베이스 복제본을 보여 줍니다. 각 복제본은 서로 다른 장치에 만들어집니다. Solaris 볼륨 관리자의 경우에는 복제본의 크기가 더 큽니다.


# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7
# metadb
flags            first blk      block count
    a       u       16          1034         /dev/dsk/c0t0d0s7
    a       u       16          1034         /dev/dsk/c0t1d0s7
    a       u       16          1034         /dev/dsk/c1t0d0s7

루트 디스크 미러링

루트 디스크를 미러링하면 시스템 디스크 하나에 장애가 발생할 경우에도 클러스터 노드가 종료되지 않습니다. 루트 디스크에 네 가지 유형의 파일 시스템을 만들 수 있습니다. 각 파일 시스템 유형이 서로 다른 방법으로 미러됩니다.

다음 절차를 사용하여 각 유형의 파일 시스템을 미러링하십시오.


주 –

이 미러링 절차의 단계 중 일부는 다음과 비슷한 오류 메시지를 표시할 수 있으며 시스템을 손상시키지 않으므로 무시할 수 있습니다.


metainit: dg-schost-1: d1s0: not a metadevice



주의 – 주의 –

로컬 디스크 미러링의 경우 디스크 이름을 지정할 때 경로로 /dev/global을 사용하지 마십시오. 클러스터 파일 시스템이 아닌 시스템에 이 경로를 지정하면 시스템이 부트되지 않습니다.


루트(/) 파일 시스템을 미러링하는 방법

이 절차를 사용하여 루트(/) 파일 시스템을 미러합니다.

  1. 노드에서 수퍼유저가 되십시오.

  2. metainit(1M) 명령을 사용하여 루트 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.

    루트 디스크 슬라이스의 물리 디스크 이름(cNtXdYsZ)을 지정하십시오.


    # metainit -f submirror1 1 1 root-disk-slice
    

  3. 두 번째 연결을 만드십시오.


    # metainit submirror2 1 1 submirror-disk-slice
    

  4. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    


    주 –

    미러의 메타 장치 이름이나 볼륨 이름은 전체 클러스터에서 반드시 고유해야 합니다.


  5. metaroot(1M) 명령을 실행하십시오.

    이 명령을 실행하면 메타 장치나 볼륨의 루트(/) 파일 시스템으로 부트할 수 있도록 /etc/vfstab/etc/system 파일이 편집됩니다.


    # metaroot mirror
    

  6. lockfs(1M) 명령을 실행하십시오.

    이 명령을 실행하면 로그에 기록된 모든 트랜잭션을 내보내서 마운트된 모든 UFS 파일 시스템의 마스터 파일에 기록합니다.


    # lockfs -fa
    

  7. 노드에서 자원 그룹 또는 장치 그룹을 이동하십시오.


    # scswitch -S -h from-node
    
    -S

    모든 자원 그룹과 장치 그룹을 이동합니다.

    -h from-node

    자원 또는 장치 그룹을 이동할 노드의 이름을 지정합니다.

  8. 노드를 재부트하십시오.

    이 명령을 실행하면 새로 미러된 루트(/) 파일 시스템을 다시 마운트합니다.


    # shutdown -g0 -y -i6
    

  9. metattach(1M) 명령을 사용하여 두 번째 하위 미러를 미러에 연결하십시오.


    # metattach mirror submirror2
    

  10. 루트 디스크를 미러하기 위해 사용된 디스크가 두 개 이상의 노드와 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.

    다음 단계를 수행하여 루트 디스크를 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.

    1. 필요한 경우 scdidadm(1M) -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시하십시오.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      

    2. 원시 디스크 장치 그룹의 노드 목록을 확인하십시오.

      다음과 같이 출력됩니다.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …

    3. 노드 목록에 두 개 이상의 이름이 포함된 경우에는 노드 목록에서 루트 디스크를 미러하는 노드를 제외한 모든 노드를 제거하십시오.

      루트 디스크를 미러하는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.

      nodelist=node

      노드 목록에서 제거할 노드 이름을 지정합니다.

    4. scconf(1M) 명령을 사용하여 localonly 등록 정보를 활성화하십시오.

      localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

      localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.

  11. 나중에 사용할 수 있도록 대체 부트 경로를 기록하십시오.

    기본 부트 장치에 장애가 발생하면 이 대체 부트 장치에서 부트할 수 있습니다. 대체 부트 장치에 대한 자세한 내용은 Solstice DiskSuite 4.2.1 User's Guide의 “Troubleshooting the System” 또는 Solaris Volume Manager Administration Guide의 “Mirroring root (/) Special Considerations”를 참조하십시오.


    # ls -l /dev/rdsk/root-disk-slice
    

  12. 클러스터의 다른 노드에서 단계 1부터 단계 11까지 반복하십시오.

    미러에 대한 각 메타 장치 이름이나 볼륨 이름이 전체 클러스터에서 고유한지 확인하십시오.

  13. (옵션) 전역 이름 공간인 /global/.devices/node@nodeid를 미러하려면 전역 이름 공간을 미러하는 방법으로 이동하십시오.

  14. (옵션) 마운트 해제할 수 없는 파일 시스템을 미러하려면 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하는 방법으로 이동하십시오.

  15. (옵션) 사용자 정의 파일 시스템을 미러하려면 마운트 해제할 수 있는 파일 시스템을 미러하는 방법으로 이동하십시오.

  16. 디스크 세트를 만들려면 클러스터에 디스크 세트 만들기로 이동하십시오.

예: 루트(/) 파일 시스템 미러링

다음 예는 노드 phys-schost-1d0 미러를 작성하는 것을 보여주며, c0t0d0s0 분할 영역의 d10 하위 미러, c2t2d0s0 분할 영역의 d20 하위 미러로 구성됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.


(Create the mirror)
# metainit -f d10 1 1 c0t0d0s0
d11: Concat/Stripe is setup
# metainit d20 1 1 c2t2d0s0
d12: Concat/Stripe is setup
# metainit d0 -m d10
d10: Mirror is setup
# metaroot d0
# lockfs -fa
 
(Move resource groups and device groups from phys-schost-1)
# scswitch -S -h phys-schost-1
 
(Reboot the node)
# shutdown -g0 -y -i6
 
(Attach the second submirror)
# metattach d0 d20
d0: Submirror d20 is attached
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:						dsk/d2
…
  (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true
 
(Record the alternate boot path)
# ls -l /dev/rdsk/c2t2d0s0
lrwxrwxrwx  1 root     root          57 Apr 25 20:11 /dev/rdsk/c2t2d0s0 
–> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw

전역 이름 공간을 미러하는 방법

전역 이름 공간 /global/.devices/node@/nodeid를 미러하려면 다음 절차를 사용하십시오.

  1. 클러스터의 노드에서 수퍼유저가 되십시오.

  2. 전역 이름 공간 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.

    디스크 슬라이스의 물리적 디스크 이름(cNtXdYsZ)을 사용하십시오.


    # metainit -f submirror1 1 1 diskslice
    

  3. 두 번째 연결을 만드십시오.


    # metainit submirror2 1 1 submirror-diskslice
    

  4. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    


    주 –

    미러의 메타 장치 이름이나 볼륨 이름은 전체 클러스터에서 반드시 고유해야 합니다.


  5. 두 번째 하위 미러를 미러에 연결하십시오.

    이것을 연결하면 하위 미러 동기화가 시작됩니다.


    # metattach mirror submirror2
    

  6. /etc/vfstab 파일에서 /global/.devices/node@nodeid 파일 시스템에 대한 항목을 편집하십시오.

    device to mountdevice to fsck 열의 이름을 미러 이름으로 바꾸십시오.


    # 
    vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /global/.devices/node@nodeid ufs 2 no global

  7. 클러스터의 다른 노드에서 단계 1부터 단계 6까지 반복하십시오.

  8. 단계 5에서 시작된 미러 동기화가 완료될 때까지 기다리십시오.

    metastat(1M) 명령을 사용하여 미러 상태를 확인하고 미러 동기화가 완료되었는지 확인하십시오.


    # metastat mirror
    

  9. 전역 이름 공간을 미러하는 데 사용되는 디스크가 두 개 이상의 노드에 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.

    다음 단계를 수행하여 전역 이름 공간을 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.

    1. 필요한 경우 scdidadm(1M) 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시하십시오.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      

    2. 원시 디스크 장치 그룹의 노드 목록을 확인하십시오.

      다음과 같이 출력됩니다.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …

    3. 노드 목록에 두 개 이상의 노드 이름이 포함된 경우에는 디스크가 미러되는 노드를 제외한 모든 노드를 노드 목록에서 제거하십시오.

      디스크가 미러되는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.

      nodelist=node

      노드 목록에서 제거할 노드 이름을 지정합니다.

    4. scconf(1M) 명령을 사용하여 localonly 등록 정보를 활성화하십시오.

      localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

      localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.

  10. (옵션) 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하려면 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하는 방법으로 이동하십시오.

  11. (옵션) 사용자 정의 파일 시스템을 미러하려면 마운트 해제할 수 있는 파일 시스템을 미러하는 방법으로 이동하십시오.

  12. 디스크 세트를 만들려면 클러스터에 디스크 세트 만들기로 이동하십시오.

예: 전역 이름 공간 미러링

다음은 c0t0d0s3 분할 영역의 d111 하위 미러와 c2t2d0s3 분할 영역의 d121 하위 미러로 구성된 d101 미러를 만드는 예입니다. /etc/vfstab 파일에서 /global/.devices/node@1에 대한 항목이 미러 이름 d101을 사용하도록 업데이트됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.


(Create the mirror)
# metainit -f d111 1 1 c0t0d0s3
d111: Concat/Stripe is setup
# metainit d121 1 1 c2t2d0s3
d121: Concat/Stripe is setup
# metainit d101 -m d111
d101: Mirror is setup
# metattach d101 d121
d101: Submirror d121 is attached
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global
 
(View the sync status)
# metastat d101
d101: Mirror
      Submirror 0: d111
         State: Okay
      Submirror 1: d121
         State: Resyncing
      Resync in progress: 15 % done
…
 
(Identify the device-ID name of the mirrored disk's raw-disk device group)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:						dsk/d2
…
  (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true

마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하는 방법

/usr, /opt 또는 swap과 같이 정상적으로 시스템을 사용하는 동안 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하려면 이 절차를 사용하십시오.

  1. 클러스터의 노드에서 수퍼유저가 되십시오.

  2. 마운트 해제할 수 있는 파일 시스템이 있는 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.

    디스크 슬라이스의 물리 디스크 이름(cNtXdYsZ)을 지정하십시오.


    # metainit -f submirror1 1 1 diskslice
    

  3. 두 번째 연결을 만드십시오.


    # metainit submirror2 1 1 submirror-diskslice
    

  4. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    


    주 –

    이 미러의 메타 장치 이름이나 볼륨 이름은 전체 클러스터에서 고유하지 않아도 됩니다.


  5. 미러할 나머지 마운트 해제할 수 있는 각 파일 시스템에 대해 단계 1부터 단계 4까지 반복하십시오.

  6. 각 노드의 /etc/vfstab 파일에서 미러한 마운트 해제할 수 있는 각 파일 시스템에 대한 항목을 편집하십시오.

    device to mountdevice to fsck 열의 이름을 미러 이름으로 바꾸십시오.


    # vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global

  7. 노드에서 자원 그룹 또는 장치 그룹을 이동하십시오.


    # scswitch -S -h from-node
    
    -S

    모든 자원 그룹과 장치 그룹을 이동합니다.

    -h from-node

    자원 또는 장치 그룹을 이동할 노드의 이름을 지정합니다.

  8. 노드를 재부트하십시오.


    # shutdown -g0 -y -i6
    

  9. 두 번째 하위 미러를 각 미러에 연결하십시오.

    이것을 연결하면 하위 미러 동기화가 시작됩니다.


    # metattach mirror submirror2
    

  10. 단계 9에서 시작된 미러 동기화가 완료될 때까지 기다리십시오.

    metastat(1M) 명령을 사용하여 미러 상태를 확인하고 미러 동기화가 완료되었는지 확인하십시오.


    # metastat mirror
    

  11. 마운트 해제할 수 없는 파일 시스템을 미러하는 데 사용되는 디스크가 두 개 이상의 노드에 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.

    다음 단계를 수행하여 마운트 해제할 수 없는 파일 시스템을 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.

    1. 필요한 경우 scdidadm -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시하십시오.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      …
      1            phys-schost-3:/dev/rdsk/c1t1d0    /dev/did/rdsk/d2
      

    2. 원시 디스크 장치 그룹의 노드 목록을 확인하십시오.

      다음과 같이 출력됩니다.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …

    3. 노드 목록에 두 개 이상의 노드 이름이 포함된 경우에는 루트 디스크가 미러되는 노드를 제외한 모든 노드를 노드 목록에서 제거하십시오.

      루트 디스크가 미러되는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.

      nodelist=node

      노드 목록에서 제거할 노드 이름을 지정합니다.

    4. scconf(1M) 명령을 사용하여 localonly 등록 정보를 활성화하십시오.

      localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

      localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.

  12. (옵션) 사용자 정의 파일 시스템을 미러하려면 마운트 해제할 수 있는 파일 시스템을 미러하는 방법으로 이동하십시오.

  13. 디스크 세트를 만들려면 클러스터에 디스크 세트 만들기로 이동하십시오.

예: 마운트 해제할 수 없는 파일 시스템 미러링

다음은 c0t0d0s1에 있는 /usr을 미러하기 위해 노드 phys-schost-1에 미러 d1을 만드는 예입니다. 미러 d1c0t0d0s1 분할 영역에 있는 하위 미러 d11c2t2d0s1 분할 영역에 있는 하위 미러 d21로 구성됩니다. /etc/vfstab 파일에서 /usr에 대한 항목이 미러 이름 d1을 사용하도록 업데이트됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.


(Create the mirror)
# metainit -f d11 1 1 c0t0d0s1
d11: Concat/Stripe is setup
# metainit d21 1 1 c2t2d0s1
d21: Concat/Stripe is setup
# metainit d1 -m d11
d1: Mirror is setup
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs  2       no global
 
(Move resource groups and device groups from phys-schost-1)
# scswitch -S -h phys-schost-1
 
(Reboot the node)
# shutdown -g0 -y -i6
 
(Attach the second submirror)
# metattach d1 d21
d1: Submirror d21 is attached
 
(View the sync status)
# metastat d1
d1: Mirror
      Submirror 0: d11
         State: Okay
      Submirror 1: d21
         State: Resyncing
      Resync in progress: 15 % done
…
 
(Identify the device-ID name of the mirrored disk's raw-disk device group)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:						dsk/d2
…
  (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true

마운트 해제할 수 있는 파일 시스템을 미러하는 방법

마운트 해제할 수 있는 사용자 정의된 파일 시스템을 미러하려면 이 절차를 사용하십시오. 이 절차에서는 노드를 재부트하지 않아도 됩니다.

  1. 클러스터의 노드에서 수퍼유저가 되십시오.

  2. 미러할 파일 시스템을 마운트 해제하십시오.

    파일 시스템에 실행되고 있는 프로세스가 없어야 합니다.


    # umount /mount-point
    

    자세한 내용은 umount(1M) 설명서 페이지 및 System Administration Guide: Basic Administration의 “Mounting and Unmounting File Systems”를 참조하십시오.

  3. 마운트 해제할 수 있는 사용자 정의된 파일 시스템이 있는 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.

    디스크 슬라이스의 물리 디스크 이름(cNtXdYsZ)을 지정하십시오.


    # metainit -f submirror1 1 1 diskslice
    

  4. 두 번째 연결을 만드십시오.


    # metainit submirror2 1 1 submirror-diskslice
    

  5. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    


    주 –

    이 미러의 메타 장치 이름이나 볼륨 이름은 전체 클러스터에서 고유하지 않아도 됩니다.


  6. 미러하려는 마운트할 수 있는 각 파일 시스템에 대하여 단계 1부터 단계 5까지 반복하십시오.

  7. 각 노드의 /etc/vfstab 파일에서 미러한 각 파일 시스템에 대한 항목을 편집하십시오.

    device to mountdevice to fsck 열의 이름을 미러 이름으로 바꾸십시오.


    # vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global

  8. 두 번째 하위 미러를 미러에 연결하십시오.

    이것을 연결하면 하위 미러 동기화가 시작됩니다.


    # metattach mirror submirror2
    

  9. 단계 8에서 시작된 미러 동기화가 완료될 때까지 기다리십시오.

    미러 상태를 보려면 metastat(1M) 명령을 사용하십시오.


    # metastat mirror
    

  10. 사용자 정의 파일 시스템을 미러하는 데 사용되는 디스크가 두 개 이상의 노드에 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.

    다음 단계를 수행하여 사용자 정의 파일 시스템을 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.

    1. 필요한 경우 scdidadm -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시하십시오.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d4는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      

    2. 원시 디스크 장치 그룹의 노드 목록을 확인하십시오.

      다음과 같이 출력됩니다.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …

    3. 노드 목록에 두 개 이상의 노드 이름이 포함된 경우에는 루트 디스크를 미러하는 노드를 제외한 모든 노드를 노드 목록에서 제거하십시오.

      루트 디스크를 미러하는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.

      nodelist=node

      노드 목록에서 제거할 노드 이름을 지정합니다.

    4. scconf(1M) 명령을 사용하여 localonly 등록 정보를 활성화하십시오.

      localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

      localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.

  11. 미러된 파일 시스템을 마운트하십시오.


    # mount /mount-point
    

    자세한 내용은 mount(1M) 설명서 페이지 및 System Administration Guide: Basic Administration의 “Mounting and Unmounting File Systems”를 참조하십시오.

  12. 디스크 세트를 만드십시오.

    클러스터에 디스크 세트 만들기로 이동하십시오.

예: 마운트 해제할 수 있는 파일 시스템 미러링

다음은 c0t0d0s4에 있는 /export를 미러하기 위하여 미러 d4를 만드는 예입니다. 미러 d4는 분할 영역 c0t0d0s4에 있는 하위 미러 d14와 분할 영역 c2t2d0s4에 있는 하위 미러 d24로 구성됩니다. /etc/vfstab 파일에서 /export에 대한 항목이 미러 이름 d4를 사용하도록 업데이트됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.


(Unmount the file system)
# umount /export
 
(Create the mirror)
# metainit -f d14 1 1 c0t0d0s4
d14: Concat/Stripe is setup
# metainit d24 1 1 c2t2d0s4
d24: Concat/Stripe is setup
# metainit d4 -m d14
d4: Mirror is setup
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no	global
 
(Attach the second submirror)
# metattach d4 d24
d4: Submirror d24 is attached
 
(View the sync status)
# metastat d4
d4: Mirror
      Submirror 0: d14
         State: Okay
      Submirror 1: d24
         State: Resyncing
      Resync in progress: 15 % done
…
 
(Identify the device-ID name of the mirrored disk's raw-disk device group)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:						dsk/d2
…
  (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true
 
(Mount the file system)
# mount /export

클러스터에 디스크 세트 만들기

이 절에서는 클러스터 구성을 위해 디스크 세트를 만드는 방법을 설명합니다. 다음과 같은 경우에는 디스크 세트를 만들 필요가 없을 수도 있습니다.

이 절에서 설명하는 절차는 다음과 같습니다.

디스크 세트 작성 방법

이 절차를 수행하여 디스크 세트를 만드십시오.

  1. 새 디스크 세트를 만들고 나면 클러스터의 디스크 세트가 4개 이상이 되는지 확인하십시오.

    • 클러스터에 있는 디스크 세트가 3개 이하인 경우에는 단계 2로 이동하십시오.

    • 클러스터에 4개 이상의 디스크 세트가 있을 경우에는 다음 단계를 수행하여 클러스터를 준비하십시오.

      디스크 세트를 처음으로 설치하든 완전히 구성된 클러스터에 추가하든 관계없이 이 작업을 수행해야 합니다.

    1. 클러스터의 노드에서 /kernel/drv/md.conf 파일에 있는 md_nsets 변수의 값을 확인하십시오.

    2. 클러스터에 있는 전체 디스크 세트 수가 기존의 md_nsets 값에서 1을 뺀 값보다 크면 각 노드에서 md_nsets의 값을 원하는 값으로 크게 설정하십시오.

      디스크 세트 수의 최대값은 md_nsets의 구성된 값보다 하나 작은 값까지 사용할 수 있습니다. md_nsets의 최대 값은 32이므로 만들 수 있는 최대 디스크 세트 수는 31개입니다.

    3. 클러스터의 각 노드에서 /kernel/drv/md.conf 파일이 동일한지 확인하십시오.


      주의 – 주의 –

      이 설명을 따르지 않으면 심각한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 오류가 발생하여 데이터를 잃을 수 있습니다.


    4. 어느 노드에서든 md.conf 파일을 변경한 경우에는 다음 단계를 수행하여 변경 사항이 적용되도록 하십시오.

      1. 하나의 노드에서 클러스터를 종료하십시오.


        # scshutdown -g0 -y
        

      2. 클러스터의 각 노드를 재부트하십시오.


        ok> boot
        

    5. 클러스터의 각 노드에서 devfsadm(1M) 명령을 실행하십시오.

      클러스터의 모든 노드에서 동시에 이 명령을 실행할 수 있습니다.

    6. 클러스터의 한 노드에서 scgdevs(1M) 명령을 사용하여 전역 장치 이름 공간을 업데이트하십시오.

    7. 각 노드에서 디스크 세트를 만들기 전에 scgdevs 명령이 완료되었는지 확인하십시오.

      scgdevs 명령이 한 노드에서 실행될 경우에도 이 명령은 모든 노드에 있는 동일한 명령을 원격으로 호출합니다. scgdevs 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행하십시오.


      % ps -ef | grep scgdevs
      

  2. 만들려는 디스크 세트가 다음 요구 사항 중 한 가지를 충족시켜야 합니다.

    • 디스크 세트가 정확히 2개의 디스크 문자열로 구성된 경우 디스크 세트는 정확히 2개의 노드에 연결되어야 하며 정확히 2개의 mediator 호스트를 사용해야 합니다. 이러한 mediator 호스트는 디스크 세트에 사용된 2개의 호스트와 같아야 합니다. 이중 문자열 mediator 구성 방법은 이중 문자열 Mediator 구성을 참조하십시오.

    • 디스크 세트가 3개 이상의 디스크 문자열로 구성된 경우 임의로 선택한 2개의 디스크 문자열 S1과 S2의 드라이브 총 수가 세 번째 문자열 S3의 드라이브 수보다 큰지 확인합니다. 요구 사항을 공식으로 표현하면 개수(S1) + 개수(S2) > 개수(S3)이 됩니다.

  3. 로컬 상태 데이터베이스 복제본이 있는지 확인하십시오.

    자세한 내용은 상태 데이터베이스 복제본을 만드는 방법을 참조하십시오.

  4. 디스크 세트를 마스터할 클러스터 노드에서 수퍼유저가 되십시오.

  5. 디스크 세트를 만드십시오.

    다음 명령은 디스크 세트를 만들어 Sun Cluster 디스크 장치 그룹으로 등록합니다.


    # metaset -s setname -a -h node1 node2
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -a

    디스크 세트를 추가합니다(만듭니다).

    -h node1

    디스크 세트를 마스터할 기본 노드의 이름을 지정합니다.

    node2

    디스크 세트를 마스터할 보조 노드의 이름을 지정합니다.


    주 –

    metaset 명령을 사용하여 클러스터에 Solstice DiskSuite 또는 Solaris 볼륨 관리자 장치 그룹을 구성하면 기본적으로 하나의 보조 노드가 지정됩니다. 장치 그룹이 만들어진 후에 scsetup(1M) 유틸리티를 사용하여 장치 그룹에서 보조 노드의 수를 원하는 대로 변경할 수 있습니다. numsecondaries 등록 정보를 변경하는 방법은 Solaris OS용 Sun Cluster 시스템 관리 안내서의 “디스크 장치 그룹 관리”를 참조하십시오.


  6. 새 디스크 세트의 상태를 확인하십시오.


    # metaset -s setname
    

  7. 디스크 세트에 드라이브를 추가하십시오.

    디스크 세트에 드라이브 추가로 이동하십시오.

예—디스크 세트 만들기

다음 명령을 실행하면 기본 노드가 될 수 있는 노드로 지정된 phys-schost-1phys-schost-2 노드를 사용하여 두 개의 디스크 세트 dg-schost-1dg-schost-2를 만듭니다.


# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2
# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2

디스크 세트에 드라이브 추가

디스크 세트에 드라이브를 추가할 때 볼륨 관리 소프트웨어는 드라이브를 다음과 같이 다시 분할하여 디스크 세트의 상태 데이터베이스가 드라이브에 배치될 수 있도록 합니다.

디스크 세트에 드라이브를 추가하는 방법

  1. 노드에서 수퍼유저가 되십시오.

  2. 디스크 세트가 만들어졌는지 확인하십시오.

    자세한 내용은 디스크 세트 작성 방법을 참조하십시오.

  3. DID 매핑을 나열하십시오.


    # scdidadm -L
    

    • 디스크 세트를 마스터하거나 마스터할 수도 있는 클러스터 노드가 공유하는 드라이브를 선택하십시오.

    • 디스크 세트에 디스크 드라이브를 추가할 경우 전체 장치 ID 경로 이름을 사용하십시오.

    출력되는 첫 번째 열은 DID 인스턴스 번호이고, 두 번째 열은 전체 물리적 경로 이름이고, 세 번째 열은 전체 장치 ID 경로 이름(의사 경로)입니다. 공유 드라이브에는 동일한 DID 인스턴스 번호에 대하여 두 개 이상의 항목이 있습니다.

    다음 예에서, DID 인스턴스 번호 2의 항목은 phys-schost-1phys-schost-2가 공유하는 드라이브를 가리키며, 전체 장치 ID 경로 이름은 /dev/did/rdsk/d2입니다.


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    …

  4. 디스크 세트의 소유권을 가지십시오.


    # metaset -s setname -t
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -t

    디스크 세트의 소유권을 가집니다.

  5. 디스크 세트에 드라이브를 추가하십시오.

    전체 장치 ID 경로 이름을 사용하십시오.


    # metaset -s setname -a drivename
    

    -a

    디스크 세트에 드라이브를 추가합니다.

    drivename

    공유 드라이브의 전체 장치 ID 경로 이름입니다.


    주 –

    드라이브를 디스크 세트에 추가할 때는 하위 수준 장치 이름(cNtXdY)을 사용하지 마십시오. 하위 수준 장치 이름은 로컬 이름이므로 전체 클러스터에서 고유하지 않기 때문에 이 이름을 사용하면 메타 세트가 스위치오버되지 않을 수도 있습니다.


  6. 디스크 세트와 드라이브의 상태를 확인하십시오.


    # metaset -s setname
    

  7. (옵션) 메타 장치 또는 볼륨에서 사용하기 위해 드라이브를 다시 분할하려면 디스크 세트의 드라이브를 다시 분할하는 방법으로 이동하십시오.

  8. md.tab 파일을 만드는 방법으로 이동하여 md.tab 파일에서 메타 장치나 볼륨을 정의하십시오.

예: 디스크 세트에 드라이브 추가

metaset 명령을 사용하면 드라이브 /dev/did/rdsk/d1/dev/did/rdsk/d2가 디스크 세트 dg-schost-1에 추가됩니다.


# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2

디스크 세트의 드라이브를 다시 분할하는 방법

metaset(1M) 명령을 실행하면 디스크 세트에서 드라이브를 다시 분할하여 슬라이스 7에서 각 드라이브의 작은 공간을 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에 사용할 수 있도록 예약합니다. 각 드라이브의 나머지 공간은 슬라이스 0에 할당됩니다. 드라이브를 더 효율적으로 사용하려면 이 절차를 사용하여 디스크 레이아웃을 변경하십시오. 슬라이스 1부터 6까지 공간을 할당하면 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨을 설정할 때 이 슬라이스를 사용할 수 있습니다.

  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. format 명령을 사용하여 디스크 세트의 각 드라이브에 대한 디스크 분할을 변경하십시오.

    드라이브를 다시 분할할 때 metaset(1M) 명령이 드라이브를 다시 분할하지 않도록 하려면 다음과 같은 조건이 필요합니다.

    • 실린더 0에서 시작하고 상태 데이터베이스 복제본을 저장할만큼 충분히 큰 슬라이스 7을 만드십시오. Solstice DiskSuite 또는 Solaris 볼륨 관리자 관리 설명서를 참조하여 볼륨 관리자 소프트웨어 버전에 맞는 상태 데이터베이스 복제본 크기를 결정하십시오.

    • 슬라이스 7의 Flag 필드를 wu (읽기, 쓰기, 마운트 해제 가능)로 설정하십시오. 읽기 전용으로 설정하지 마십시오.

    • 슬라이스 7이 드라이브의 다른 슬라이스와 겹치지 않도록 하십시오.

    자세한 내용은 format(1M) 설명서 페이지를 참조하십시오.

  3. md.tab 파일을 사용하여 메타 장치나 볼륨을 정의하십시오.

    md.tab 파일을 만드는 방법으로 이동하십시오.

md.tab 파일을 만드는 방법

클러스터의 각 노드에 /etc/lvm/md.tab 파일을 만드십시오. 만든 디스크 세트에 대하여 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨을 정의하려면 md.tab 파일을 사용하십시오.


주 –

로컬 메타 장치나 볼륨을 사용하는 경우에는 로컬 메타 장치나 볼륨의 이름이 디스크 세트를 만드는 데 사용된 장치 ID 이름과 구별되어야 합니다. 예를 들어, /dev/did/dsk/d3이 디스크 세트에서 장치 ID 이름으로 사용되면 /dev/md/dsk/d3을 로컬 메타 장치나 볼륨의 이름으로 사용하지 마십시오. 이름 지정 규칙 /dev/md/setname/{r}dsk/d#을 사용하는 공유 메타 장치나 볼륨에는 이 요구 사항이 적용되지 않습니다.



정보 –

클러스터 환경에서 로컬 메타 장치나 볼륨 사이의 혼동을 피하려면 전체 클러스터에서 각 로컬 메타 장치나 볼륨의 이름이 고유하도록 지정하십시오. 예를 들어, 노드 1에는 d100-d199 사이의 이름을 선택하고 노드 2에는 d200-d299 사이의 이름을 선택합니다.


  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. md.tab 파일을 만들 때 참조할 수 있도록 DID 매핑을 표시하십시오.

    md.tab 파일에 하위 수준 장치 이름(cNtXdY) 대신 전체 장치 ID 경로 이름을 사용하십시오.


    # scdidadm -L
    

    다음 예에서 출력되는 첫 번째 열은 DID 인스턴스 번호이고, 두 번째 열은 전체 경로(물리적 경로)이고, 세 번째 열은 전체 장치 ID 경로 이름(의사 경로)입니다.


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    …

  3. /etc/lvm/md.tab 파일을 만들고 원하는 텍스트 편집기를 사용하여 직접 파일을 편집하십시오.

    md.tab 파일을 만드는 방법은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서와 md.tab(4) 설명서 페이지를 참조하십시오.


    주 –

    하위 미러에 사용될 드라이브에 기존 데이터가 있는 경우 메타 장치 또는 볼륨을 설정하기 전에 데이터를 백업해야 합니다. 그런 다음 데이터를 미러에 복원합니다.


  4. md.tab 파일에 정의된 메타 장치나 볼륨을 활성화하십시오.

    메타 장치나 볼륨을 활성화하는 방법으로 이동하십시오.

예: md.tab 파일 샘플

다음 샘플 md.tab 파일에서는 이름이 dg-schost-1인 디스크 세트를 정의합니다. md.tab 파일에서 행의 순서는 중요하지 않습니다.


dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20
    dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
    dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

다음은 Solstice DiskSuite 용어를 사용하는 예입니다. Solaris 볼륨 관리자에서는 트랜스 메타 장치를 트랜잭션 볼륨이라고 하고 메타 장치를 볼륨이라고 합니다. 이외의 경우에는 다음 프로세스가 두 가지 볼륨 관리자에 모두 사용됩니다.

md.tab 파일 샘플은 다음과 같이 구성되어 있습니다.

  1. 첫 번째 줄에서는 장치 d0을 메타 장치 d10d20의 미러로 정의합니다. -m 옵션은 이 장치가 미러 장치임을 지정합니다.


    dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20

  2. 두 번째 줄에서는 메타 장치 d10(d0의 첫 번째 하위 미러)을 단방향 스트라이프로 정의합니다.


    dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0

  3. 세 번째 줄에서는 메타 장치 d20(d0의 두 번째 하위 미러)을 단방향 스트라이프로 정의합니다.


    dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

메타 장치나 볼륨을 활성화하는 방법

md.tab 파일에 정의된 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨을 활성화하려면 이 절차를 수행하십시오.

  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. md.tab 파일이 /etc/lvm 디렉토리에 있어야 합니다.

  3. 명령이 실행되는 노드의 디스크 세트에 대한 소유권이 있어야 합니다.

  4. 디스크 세트의 소유권을 가지십시오.


    # metaset -s setname -t
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -t

    디스크 세트의 소유권을 가집니다.

  5. md.tab 파일에 정의된 디스크 세트의 메타 장치 또는 볼륨을 활성화하십시오.


    # metainit -s setname -a
    
    -a

    md.tab 파일에 있는 모든 메타 장치를 활성화합니다.

  6. 각 마스터 및 로그 장치에 대하여 두 번째 하위 미러(submirror2)를 연결하십시오.

    md.tab 파일에 정의된 메타 장치나 볼륨이 활성화되면 마스터 장치와 로그 장치의 첫 번째 하위 미러(submirror1)만 연결되므로 submirror2는 직접 연결해야 합니다.


    # metattach mirror submirror2
    

  7. 클러스터의 각 디스크 세트에 대하여 단계 3부터 단계 6까지 반복하십시오.

    필요한 경우 드라이브에 연결된 다른 노드에서 metainit(1M) 명령을 실행하십시오. 클러스터 쌍 토폴로지의 경우에는 일부 노드에서 드라이브에 액세스하지 못할 수도 있기 때문에 이 단계가 필요합니다.

  8. 메타 장치나 볼륨의 상태를 확인하십시오.


    # metastat -s setname
    

    자세한 내용은 metastat(1M) 설명서 페이지를 참조하십시오.

  9. 클러스터에 정확히 디스크 외장 장치 2개와 노드 2개로 구성된 디스크 세트가 포함된 경우에는 이중 문자열 mediator를 추가하십시오.

    이중 문자열 Mediator 구성으로 이동하십시오.

  10. 클러스터 파일 시스템을 만드는 방법으로 이동하여 클러스터 파일 시스템을 만드십시오.

예: md.tab 파일에 정의된 메타 장치나 볼륨 활성화

다음 예에서는 디스크 세트 dg-schost-1에 대하여 md.tab 파일에 정의된 모든 메타 장치가 활성화됩니다. 그런 다음 마스터 장치 dg-schost-1/d1과 로그 장치 dg-schost-1/d4의 두 번째 하위 미러가 활성화됩니다.


# metainit -s dg-schost-1 -a
# metattach dg-schost-1/d1 dg-schost-1/d3
# metattach dg-schost-1/d4 dg-schost-1/d6

이중 문자열 Mediator 구성

이 절에서는 다음 정보와 절차를 설명합니다.

이중 문자열 Mediator 요구 사항

이중 문자열 mediator 또는 mediator 호스트는 mediator 데이터를 저장하는 클러스터 노드입니다. mediator 데이터는 다른 mediator의 위치에 대한 정보를 제공하고 데이터베이스 복제본에 저장된 완결 계수와 동일한 완결 계수를 포함합니다. 이 완결 계수는 mediator 데이터가 데이터베이스 복제본의 데이터와 동기화되어 있는지 확인하는 데 사용됩니다.

이중 문자열 mediator는 정확히 2개의 디스크 문자열과 2개의 클러스터 노드로 구성되는 모든 Solstice DiskSuite 또는 Solaris 볼륨 관리자 디스크 세트에 필요합니다. 디스크 문자열은 디스크 외장 장치, 포함된 물리적 드라이브, 외장 장치와 노드 사이의 케이블, 인터페이스 어댑터 카드 등으로 구성됩니다. mediator를 사용하면 이중 문자열 구성에서 하나의 문자열에 장애가 발생할 경우에도 Sun Cluster 소프트웨어가 최신 데이터를 유지할 수 있습니다. mediator를 사용하는 이중 문자열 구성에는 다음 규칙이 적용됩니다.

전체 클러스터에 정확히 두 개의 노드가 있어야 이 규칙이 충족되는 것은 아닙니다. 두 디스크 문자열이 있는 디스크 세트만 정확히 두 노드에 연결되어야 합니다. 이 규칙에 따라 N+1 클러스터 및 여러 가지 다른 토폴로지를 구성할 수 있습니다.

Mediator 호스트를 추가하는 방법

구성에 이중 문자열 mediator가 필요한 경우 다음 절차를 수행하십시오.

  1. mediator 호스트를 추가할 대상 디스크 세트를 마스터하는 노드에서 수퍼유저가 되십시오.

  2. metaset(1M) 명령을 실행하여 디스크 세트에 연결된 각 노드를 해당 디스크 세트에 대한 mediator 호스트로 추가하십시오.


    # metaset -s setname -a -m mediator-host-list
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -a

    디스크 세트에 추가합니다.

    -m mediator-host-list

    추가할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다.

    metaset 명령에 사용하는 mediator 관련 옵션에 대한 자세한 내용은 mediator(7D) 설명서 페이지를 참조하십시오.

  3. mediator 데이터의 상태를 확인하십시오.

    Mediator 데이터의 상태를 검사하는 방법으로 이동하십시오.

예: Mediator 호스트 추가

다음은 노드 phys-schost-1phys-schost-2를 디스크 세트 dg-schost-1의 mediator 호스트로 추가하는 예입니다. 두 명령은 노드 phys-schost-1에서 실행됩니다.


# metaset -s dg-schost-1 -a -m phys-schost-1
# metaset -s dg-schost-1 -a -m phys-schost-2

Mediator 데이터의 상태를 검사하는 방법

  1. Mediator 호스트를 추가하는 방법의 설명에 따라 mediator 호스트를 추가하십시오.

  2. medstat 명령을 실행하십시오.


    # medstat -s setname
    
    -s setname

    디스크 세트 이름을 지정합니다.

    자세한 내용은 medstat(1M) 설명서 페이지를 참조하십시오.

  3. medstat 출력의 상태 필드 값이 Bad이면 영향을 받은 mediator 호스트를 복구하십시오.

    잘못된 Mediator 데이터를 복구하는 방법으로 이동하십시오.

  4. 클러스터 파일 시스템을 만드는 방법으로 이동하여 클러스터 파일 시스템을 만드십시오.

잘못된 Mediator 데이터를 복구하는 방법

잘못된 mediator 데이터를 복구하려면 다음 절차를 수행하십시오.

  1. Mediator 데이터의 상태를 검사하는 방법의 설명에 따라 잘못된 mediator 데이터가 있는 모든 mediator 호스트를 확인하십시오.

  2. 영향을 받은 디스크 세트가 있는 노드에서 수퍼유저가 되십시오.

  3. 영향을 받은 모든 디스크 세트에서 잘못된 mediator 데이터가 있는 mediator 호스트를 모두 제거하십시오.


    # metaset -s setname -d -m mediator-host-list
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -d

    디스크 세트에서 삭제합니다.

    -m mediator-host-list

    제거할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다.

  4. 단계 3에서 제거한 mediator 호스트를 각각 복원합니다.


    # metaset -s setname -a -m mediator-host-list
    
    -a

    디스크 세트에 추가합니다.

    -m mediator-host-list

    추가할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다.

    metaset 명령에 사용하는 mediator 관련 옵션에 대한 자세한 내용은 mediator(7D) 설명서 페이지를 참조하십시오.

  5. 클러스터 파일 시스템을 만드십시오.

    클러스터 파일 시스템을 만드는 방법으로 이동하십시오.