Solaris OS용 Sun Cluster 소프트웨어 설치 안내서

3장 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

이 장의 절차와 볼륨 관리 계획의 계획 정보에 따라 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어의 로컬 및 다중 호스트 디스크를 설치하고 구성합니다. 자세한 내용은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서를 참조하십시오.


주 –

DiskSuite Tool(Solstice DiskSuite metatool) 및 Solaris Management Console(Solaris 볼륨 관리자)의 Enhanced Storage 모듈은 Sun Cluster 소프트웨어와 호환되지 않습니다. 명령줄 인터페이스 또는 Sun Cluster 유틸리티를 사용하여 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 구성하십시오.


이 장은 다음 내용으로 구성되어 있습니다.

Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

이 절에서는 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성에 대한 정보와 절차를 설명합니다. 다음과 같은 조건에서는 특정 절차를 생략할 수 있습니다.

다음 표는 Sun Cluster 구성에 필요한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 설치하고 구성하기 위해 수행할 작업 목록입니다.

표 3–1 작업 맵: Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

작업 

지침 

1. Solstice DiskSuite 또는 Solaris 볼륨 관리자 구성 레이아웃 계획 

볼륨 관리 계획

2. Solstice DiskSuite 소프트웨어 설치(Solaris 8 전용)

Solstice DiskSuite 소프트웨어를 설치하는 방법

3. (Solaris 8 및 Solaris 9만 해당) 구성에 필요한 메타 장치 이름 및 디스크 세트의 수를 계산하고 /kernel/drv/md.conf 파일을 수정합니다.

메타 장치나 볼륨 이름 및 디스크 세트 수를 설정하는 방법

4. 로컬 디스크에 상태 데이터베이스 복제본 만들기 

상태 데이터베이스 복제본을 만드는 방법

5. (옵션) 루트 디스크에 파일 시스템 미러

루트 디스크 미러링

ProcedureSolstice DiskSuite 소프트웨어를 설치하는 방법


주 –

다음과 같은 경우에는 이 절차를 수행하지 마십시오.


클러스터의 각 노드에서 다음 작업을 수행하십시오.

시작하기 전에

다음 작업을 수행합니다.

단계
  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. CD-ROM에서 설치하는 경우에는 2 CD-ROM의 Solaris 8 Software 2를 노드의 CD-ROM 드라이브에 넣으십시오.

    이 단계에서는 볼륨 관리 데몬 vold(1M)이 실행되고 있고 CD-ROM 장치를 관리하도록 구성되어 있다고 가정합니다.

  3. Solstice DiskSuite 소프트웨어 패키지를 설치하십시오.

    다음 예에 표시된 순서대로 패키지를 설치하십시오.


    # cd /cdrom/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packagespkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] optional-pkgs
    
    • 모든 Solstice DiskSuite 설치에 SUNWmdrSUNWmdu 패키지가 필요합니다.

    • 64비트 Solstice DiskSuite 설치에는 SUNWmdx 패키지도 필요합니다.

    • 옵션 소프트웨어 패키지에 대한 정보는 Solstice DiskSuite 설치 설명서를 참조하십시오.


    주 –

    설치할 Solstice DiskSuite 소프트웨어 패치가 있으면 Solstice DiskSuite 소프트웨어를 설치한 후에 재부트하지 마십시오.


  4. CD-ROM에서 설치한 경우에는 CD-ROM을 빼십시오.

  5. Solstice DiskSuite 패치가 있으면 설치하십시오.

    패치 위치 및 설치 지침은 Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트패치 및 필수 펌웨어 수준을 참조하십시오.

  6. 클러스터의 나머지 노드 각각에서 단계 1 ~ 단계 5를 반복합니다.

  7. 클러스터의 한 노드에서 직접 Solstice DiskSuite에 대한 전역 장치 이름 공간을 채우십시오.


    # scgdevs
    
다음 순서

SunPlex Installer을 사용하여 Solstice DiskSuite 소프트웨어를 설치했으면 루트 디스크 미러링으로 이동합니다

클러스터가 Solaris 10 OS에서 실행하고 있으면 상태 데이터베이스 복제본을 만드는 방법으로 이동합니다.

그렇지 않으면 메타 장치나 볼륨 이름 및 디스크 세트 수를 설정하는 방법으로 이동합니다.

일반 오류

scgdevs 명령은 Could not open /dev/rdsk/c0t6d0s2 to verify device id, Device busy와 유사한 메시지를 반환할 수 있습니다. 나열된 장치가 CD-ROM 장치이면 메시지를 무시해도 됩니다.

Procedure메타 장치나 볼륨 이름 및 디스크 세트 수를 설정하는 방법


주 –

다음과 같은 경우에는이 절차를 수행하지 마십시오.


이 절차에서는 구성에 필요한 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨 이름 또는 디스크 세트의 수를 결정하는 방법을 설명합니다. 또한 /kernel/drv/md.conf 파일을 수정하여 이러한 개수를 지정하는 방법도 설명합니다.


정보 –

각 디스크 세트의 메타 장치나 볼륨 이름 개수 기본값은 128이지만 대부분의 구성에서 기본값보다 많은 개수가 필요합니다. 구성을 구현하기 전에 이 개수를 늘리십시오. 그러면 나중에 관리 시간을 줄일 수 있습니다.

또한, nmd 필드 및 md_nsets 필드의 값을 가능한 최소값으로 유지하십시오. nmdmd_nsets에 의해 결정되는 가능한 모든 장치를 위한 메모리 구조가 해당 장치를 만들지 않은 경우에도 존재합니다. 최적의 성능을 얻으려면 nmdmd_nsets의 값을 사용할 메타 장치나 볼륨의 수보다 조금만 높게 유지하십시오.


시작하기 전에

완성된 디스크 장치 그룹 구성 워크시트가 사용 가능한 경우.

단계
  1. 클러스터에서 필요할 것으로 예상되는 총 디스크 세트 수를 계산한 다음 개인 디스크 관리를 위한 디스크 세트 수 하나를 추가합니다.

    클러스터의 최대 디스크 세트 수는 32개입니다. 31개는 일반 용도로 사용하는 디스크 세트이고 하나는 개인 디스크 관리에 사용하는 디스크 세트입니다. 기본적으로 디스크 세트 수는 4개입니다. 단계 3에서 md_nsets 필드에 이 값을 입력합니다.

  2. 클러스터의 디스크 세트에서 필요할 것으로 예상되는 메타 장치나 볼륨 이름 중에서 가장 큰 값으로 계산합니다.

    각 디스크 세트에 최대 8192개까지 메타 장치나 볼륨 이름을 사용할 수 있습니다. 단계 3에서 nmd 필드에 이 값을 입력합니다.

    1. 각 디스크 세트에 필요할 것으로 예상되는 메타 장치나 볼륨 이름의 수를 결정하십시오.

      로컬 메타 장치 또는 볼륨을 사용하고 있는 경우, 전역 장치 파일 시스템인 /global/.devices/node@ nodeid가 마운트된 각 로컬 메타 장치나 볼륨 이름이 클러스터 전체에 걸쳐 고유한지, 그리고 클러스터의 장치 ID 이름과 동일한 이름을 사용하지 않는지 확인합니다.


      정보 –

      장치 ID 이름에만 사용할 번호 범위와 로컬 메타 장치나 볼륨 이름에만 사용할 각 노드 범위를 선택하십시오. 예를 들어, 장치 ID 이름에 d1부터 d100까지의 범위를 사용할 수 있습니다. 노드 1의 로컬 메타 장치나 볼륨은 범위가 d100부터 d199까지인 이름을 사용할 수 있습니다. 노드 2의 로컬 메타 장치 또는 볼륨은 d200부터 d299까지를 사용할 수 있습니다.


    2. 디스크 세트에 필요할 것으로 예상되는 메타 장치나 볼륨 이름 중에서 가장 큰 값으로 계산합니다.

      메타 장치나 볼륨 이름의 개수는 실제 개수가 아닌 메타 장치나 볼륨 이름의 을 기반으로 설정합니다. 예를 들어, 메타 장치나 볼륨의 이름 범위가 d950부터 d1000까지이면 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에서는 값을 50개가 아닌 1000개의 이름으로 설정해야 합니다.

  3. 각 노드에서 수퍼유저가 되어 /kernel/drv/md.conf 파일을 편집합니다.


    Caution – Caution –

    각 노드에서 제공되는 디스크 세트 수와 관계없이 모든 클러스터 노드 또는 클러스터 쌍 토폴로지에 포함된 클러스터 쌍에 동일한 /kernel/drv/md.conf 파일이 있어야 합니다. 이 설명을 따르지 않으면 심각한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 오류가 발생하여 데이터를 잃을 수 있습니다.


    1. md_nsets 필드를 단계 1에서 결정한 값으로 설정합니다.

    2. nmd 필드를 단계 2에서 결정한 값으로 설정합니다.

  4. 각 노드에서 재구성 재부트를 수행하십시오.


    # touch /reconfigure
    # shutdown -g0 -y -i6
    

    재구성 재부트를 수행하고 나면 /kernel/drv/md.conf 파일의 변경 사항이 적용됩니다.

다음 순서

로컬 상태 데이터베이스 복제본을 만드십시오. 상태 데이터베이스 복제본을 만드는 방법으로 이동합니다.

Procedure상태 데이터베이스 복제본을 만드는 방법


주 –

SunPlex Installer를 사용하여 Solstice DiskSuite 소프트웨어를 설치했으면 이 절차를 수행하지 마십시오. 대신 루트 디스크 미러링으로 이동합니다.


클러스터의 각 노드에서 이 절차를 수행하십시오.

단계
  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. 각 클러스터 노드에 대한 하나 이상의 로컬 장치에 상태 데이터베이스 복제본을 만드십시오.

    사용할 슬라이스를 지정하려면 장치 ID 이름(dN)이 아닌 물리적 이름(cNtXdY sZ)을 사용합니다.


    # metadb -af slice-1 slice-2 slice-3
    

    정보 –

    Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 실행하기 위해 필요한 상태 데이터를 보호하려면 각 노드에 대한 복제본을 세 개 이상 만드십시오. 또한 두 개 이상의 장치에 복제본을 만들면 장치 중 하나에 장애가 발생할 경우에도 보호할 수 있습니다.


    자세한 내용은 metadb(1M) 설명서 페이지와 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서를 참조하십시오.

  3. 복제본을 확인하십시오.


    # metadb
    

    metadb 명령을 실행하면 복제본 목록이 표시됩니다.


예 3–1 상태 데이터베이스 복제본 만들기

다음 예에서는 3개의 Solstice DiskSuite 상태 데이터베이스 복제본을 보여 줍니다. 각 복제본은 서로 다른 장치에 만들어집니다. Solaris 볼륨 관리자의 경우에는 복제본의 크기가 더 큽니다.


# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7
# metadb
flags            first blk      block count
    a       u       16          1034         /dev/dsk/c0t0d0s7
    a       u       16          1034         /dev/dsk/c0t1d0s7
    a       u       16          1034         /dev/dsk/c1t0d0s7

다음 순서

루트 디스크에서 파일 시스템을 미러하려면 루트 디스크 미러링으로 이동합니다.

그렇지 않으면 클러스터에 디스크 세트 만들기로 이동하여 Solstice DiskSuite 또는 Solaris 볼륨 관리자 디스크 세트를 만듭니다.

루트 디스크 미러링

루트 디스크를 미러링하면 시스템 디스크 하나에 장애가 발생할 경우에도 클러스터 노드가 종료되지 않습니다. 루트 디스크에 네 가지 유형의 파일 시스템을 만들 수 있습니다. 각 파일 시스템 유형이 서로 다른 방법으로 미러됩니다.

다음 절차를 사용하여 각 유형의 파일 시스템을 미러링하십시오.


Caution – Caution –

로컬 디스크 미러링의 경우 디스크 이름을 지정할 때 경로로 /dev/global을 사용하지 마십시오. 클러스터 파일 시스템이 아닌 시스템에 이 경로를 지정하면 시스템이 부트되지 않습니다.


Procedure루트(/) 파일 시스템을 미러링하는 방법

이 절차를 사용하여 루트(/) 파일 시스템을 미러합니다.

단계
  1. 노드에서 수퍼유저가 되십시오.

  2. 단일 슬라이스(단방향) 연결에 루트 슬라이스를 놓습니다.

    루트 디스크 슬라이스의 물리적 디스크 이름(cNtXdYsZ)을 지정합니다.


    # metainit -f submirror1 1 1 root-disk-slice
    
  3. 두 번째 연결을 만드십시오.


    # metainit submirror2 1 1 submirror-disk-slice
    
  4. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    

    주 –

    장치가 전역 장치 파일 시스템 /global/.devices/node@nodeid를 마운트할 때 사용할 로컬 장치인 경우, 미러의 메타 장치나 볼륨 이름은 반드시 클러스터 전체에 걸쳐 고유해야 합니다.


  5. metaroot(1M) 명령을 실행합니다.

    이 명령을 실행하면 메타 장치나 볼륨의 루트(/) 파일 시스템으로 부트할 수 있도록 /etc/vfstab/etc/system 파일이 편집됩니다.


    # metaroot mirror
    
  6. lockfs(1M) 명령을 실행합니다.

    이 명령을 실행하면 로그에 기록된 모든 트랜잭션을 내보내서 마운트된 모든 UFS 파일 시스템의 마스터 파일에 기록합니다.


    # lockfs -fa
    
  7. 노드에서 자원 그룹 또는 장치 그룹을 이동하십시오.


    # scswitch -S -h from-node
    
    -S

    모든 자원 그룹과 장치 그룹을 이동합니다.

    -h from-node

    자원 또는 장치 그룹을 이동할 노드의 이름을 지정합니다.

  8. 노드를 재부트하십시오.

    이 명령을 실행하면 새로 미러된 루트(/) 파일 시스템을 다시 마운트합니다.


    # shutdown -g0 -y -i6
    
  9. 보조 하위 미러를 미러에 연결하려면 metattach(1M) 명령을 사용합니다.


    # metattach mirror submirror2
    
  10. 루트 디스크를 미러하기 위해 사용된 디스크가 두 개 이상의 노드와 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.

    다음 단계를 수행하여 루트 디스크를 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.

    1. 필요한 경우 scdidadm(1M) -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시합니다.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      
    2. 원시 디스크 장치 그룹의 노드 목록을 확인하십시오.

      출력 내용은 다음과 같습니다.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …
    3. 노드 목록에 두 개 이상의 이름이 포함된 경우에는 노드 목록에서 루트 디스크를 미러하는 노드를 제외한 모든 노드를 제거하십시오.

      루트 디스크를 미러하는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.

      nodelist=node

      노드 목록에서 제거할 노드 이름을 지정합니다.

    4. localonly 등록 정보를 활성화하려면 scconf(1M) 명령을 사용합니다.

      localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

      localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.

  11. 나중에 사용할 수 있도록 대체 부트 경로를 기록합니다.

    기본 부트 장치에 장애가 발생하면 이 대체 부트 장치에서 부트할 수 있습니다. 대체 부트 장치에 대한 자세한 내용은 Solstice DiskSuite 4.2.1 User’s Guide의 7 장, Troubleshooting the System, Solaris Volume Manager Administration GuideSpecial Considerations for Mirroring root (/) 또는 Solaris Volume Manager Administration GuideCreating a RAID-1 Volume를 참조하십시오.


    # ls -l /dev/rdsk/root-disk-slice
    
  12. 클러스터의 나머지 노드 각각에 대해 단계 1 ~ 단계 11을 반복합니다.

    전역 장치 파일 시스템인 /global/.devices/node@nodeid가 마운트될 미러의 메타 장치나 볼륨 이름이 각각 클러스터 전체에 걸쳐 고유한지 확인합니다.


예 3–2 루트 (/) 파일 시스템 미러링

다음 예는 노드 phys-schost-1d0 미러를 작성하는 것을 보여주며, c0t0d0s0 분할 영역의 d10 하위 미러, c2t2d0s0 분할 영역의 d20 하위 미러로 구성됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.


(Create the mirror)
# metainit -f d10 1 1 c0t0d0s0
d11: Concat/Stripe is setup
# metainit d20 1 1 c2t2d0s0
d12: Concat/Stripe is setup
# metainit d0 -m d10
d10: Mirror is setup
# metaroot d0
# lockfs -fa
 
(Move resource groups and device groups from phys-schost-1)
# scswitch -S -h phys-schost-1
 
(Reboot the node)
# shutdown -g0 -y -i6
 
(Attach the second submirror)
# metattach d0 d20
d0: Submirror d20 is attached
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:						dsk/d2
…
  (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true
 
(Record the alternate boot path)
# ls -l /dev/rdsk/c2t2d0s0
lrwxrwxrwx  1 root     root          57 Apr 25 20:11 /dev/rdsk/c2t2d0s0 
–> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw

다음 순서

전역 이름 공간 /global/.devices/node@nodeid를 미러하려면 전역 이름 공간을 미러링하는 방법으로 이동합니다.

마운트 해제할 수 없는 파일 시스템을 미러하려면 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하는 방법으로 이동합니다.

사용자 정의 파일 시스템을 미러하려면 마운트 해제할 수 있는 파일 시스템을 미러하는 방법으로 이동합니다.

그렇지 않으면 클러스터에 디스크 세트 만들기로 이동하여 디스크 세트를 만듭니다.

일반 오류

이 미러링 절차 중 일부 단계에서 metainit: dg-schost-1: d1s0: not a metadevice와 유사한 오류 메시지가 발생할 수 있습니다. 이러한 오류 메시지는 무해하며 무시해도 됩니다.

Procedure전역 이름 공간을 미러링하는 방법

전역 이름 공간 /global/.devices/node@nodeid/를 미러하려면 다음 절차를 사용합니다.

단계
  1. 클러스터의 노드에서 수퍼유저가 되십시오.

  2. 단일 슬라이스(단방향) 연결에 전역 이름 공간을 놓습니다.

    디스크 슬라이스의 물리적 디스크 이름(cNtXdYsZ)을 사용하십시오.


    # metainit -f submirror1 1 1 diskslice
    
  3. 두 번째 연결을 만드십시오.


    # metainit submirror2 1 1 submirror-diskslice
    
  4. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    

    주 –

    전역 장치 파일 시스템인 /global/.devices/node@nodeid가 마운트될 미러의 메타 장치나 볼륨 이름은 반드시 클러스터 전체에 걸쳐 고유해야 합니다.


  5. 두 번째 하위 미러를 미러에 연결하십시오.

    이것을 연결하면 하위 미러 동기화가 시작됩니다.


    # metattach mirror submirror2
    
  6. /etc/vfstab 파일에서 /global/.devices/node@nodeid 파일 시스템에 대한 항목을 편집하십시오.

    device to mountdevice to fsck 열의 이름을 미러 이름으로 바꿉니다.


    # 
    vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /global/.devices/node@nodeid ufs 2 no global
  7. 클러스터의 나머지 노드 각각에서 단계 1 ~ 단계 6을 반복합니다.

  8. 단계 5에서 시작한 미러 동기화가 완료될 때까지 기다립니다.

    metastat(1M) 명령을 사용하여 미러 상태를 확인하고 미러 동기화가 완료되었는지 확인합니다.


    # metastat mirror
    
  9. 전역 이름 공간을 미러하는 데 사용되는 디스크가 두 개 이상의 노드에 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.

    다음 단계를 수행하여 전역 이름 공간을 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.

    1. 필요한 경우 scdidadm(1M) 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시합니다.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      
    2. 원시 디스크 장치 그룹의 노드 목록을 확인하십시오.

      다음과 같이 출력됩니다.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …
    3. 노드 목록에 두 개 이상의 노드 이름이 포함된 경우에는 디스크가 미러되는 노드를 제외한 모든 노드를 노드 목록에서 제거하십시오.

      디스크가 미러되는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.

      nodelist=node

      노드 목록에서 제거할 노드 이름을 지정합니다.

    4. localonly 등록 정보를 활성화합니다.

      localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

      localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.


예 3–3 전역 이름 공간 미러링

다음은 c0t0d0s3 분할 영역의 d111 하위 미러와 c2t2d0s3 분할 영역의 d121 하위 미러로 구성된 d101 미러를 만드는 예입니다. /etc/vfstab 파일에서 /global/.devices/node@1에 대한 항목이 미러 이름 d101을 사용하도록 갱신됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.


(Create the mirror)
# metainit -f d111 1 1 c0t0d0s3
d111: Concat/Stripe is setup
# metainit d121 1 1 c2t2d0s3
d121: Concat/Stripe is setup
# metainit d101 -m d111
d101: Mirror is setup
# metattach d101 d121
d101: Submirror d121 is attached
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global
 
(View the sync status)
# metastat d101
d101: Mirror
      Submirror 0: d111
         State: Okay
      Submirror 1: d121
         State: Resyncing
      Resync in progress: 15 % done
…
 
(Identify the device-ID name of the mirrored disk's raw-disk device group)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:						dsk/d2
…
  (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true

다음 순서

마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하려면 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하는 방법으로 이동합니다.

사용자 정의 파일 시스템을 미러하려면 마운트 해제할 수 있는 파일 시스템을 미러하는 방법으로 이동합니다.

그렇지 않으면 클러스터에 디스크 세트 만들기로 이동하여 디스크 세트를 만듭니다.

일반 오류

이 미러링 절차 중 일부 단계에서 metainit: dg-schost-1: d1s0: not a metadevice와 유사한 오류 메시지가 발생할 수 있습니다. 이러한 오류 메시지는 무해하며 무시해도 됩니다.

Procedure마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하는 방법

/usr, /opt 또는 swap과 같이 정상적으로 시스템을 사용하는 동안 마운트 해제할 수 없는 루트(/) 이외의 파일 시스템을 미러하려면 이 절차를 사용하십시오.

단계
  1. 클러스터의 노드에서 수퍼유저가 되십시오.

  2. 마운트 해제 가능한 파일 시스템이 있는 슬라이스를 단일 슬라이스(단방향) 연결에 놓습니다.

    디스크 슬라이스의 물리적 디스크 이름(cNtX dYsZ)을 지정합니다.


    # metainit -f submirror1 1 1 diskslice
    
  3. 두 번째 연결을 만드십시오.


    # metainit submirror2 1 1 submirror-diskslice
    
  4. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    

    주 –

    이 미러의 메타 장치 이름이나 볼륨 이름은 전체 클러스터에서 고유하지 않아도 됩니다.


  5. 나머지 마운트 해제 가능한 파일 시스템 중 미러할 각 시스템에 대해 단계 1 ~ 단계 4를 반복합니다.

  6. 각 노드의 /etc/vfstab 파일에서 미러한 마운트 해제할 수 있는 각 파일 시스템에 대한 항목을 편집하십시오.

    device to mountdevice to fsck 열의 이름을 미러 이름으로 바꿉니다.


    # vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global
  7. 노드에서 자원 그룹 또는 장치 그룹을 이동하십시오.


    # scswitch -S -h from-node
    
    -S

    모든 자원 그룹과 장치 그룹을 이동합니다.

    -h from-node

    자원 또는 장치 그룹을 이동할 노드의 이름을 지정합니다.

  8. 노드를 재부트하십시오.


    # shutdown -g0 -y -i6
    
  9. 두 번째 하위 미러를 각 미러에 연결하십시오.

    이것을 연결하면 하위 미러 동기화가 시작됩니다.


    # metattach mirror submirror2
    
  10. 단계 9에서 시작한 미러 동기화가 완료될 때까지 기다립니다.

    metastat(1M) 명령을 사용하여 미러 상태를 확인하고 미러 동기화가 완료되었는지 확인합니다.


    # metastat mirror
    
  11. 마운트 해제 가능한 파일 시스템 미러에 사용되는 디스크가 하나 이상의 노드와 물리적으로 연결된 경우(멀티호스팅된 경우) localonly 등록 정보를 활성화합니다.

    다음 단계를 수행하여 마운트 해제할 수 없는 파일 시스템을 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.

    1. 필요한 경우, scdidadm -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시합니다.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 출력의 세 번째 열인 전체 장치 ID 경로 이름의 일부입니다.


      # scdidadm -L
      …
      1            phys-schost-3:/dev/rdsk/c1t1d0    /dev/did/rdsk/d2
      
    2. 원시 디스크 장치 그룹의 노드 목록을 확인하십시오.

      다음과 같이 출력됩니다.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …
    3. 노드 목록에 두 개 이상의 노드 이름이 포함된 경우에는 루트 디스크가 미러되는 노드를 제외한 모든 노드를 노드 목록에서 제거하십시오.

      루트 디스크가 미러되는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.

      nodelist=node

      노드 목록에서 제거할 노드 이름을 지정합니다.

    4. localonly 등록 정보를 활성화합니다.

      localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

      localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.


예 3–4 마운트 해제할 수 없는 파일 시스템 미러링

다음은 c0t0d0s1에 있는 /usr을 미러하기 위해 노드 phys-schost-1에 미러 d1을 만드는 예입니다. 미러 d1c0t0d0s1 분할 영역에 있는 하위 미러 d11c2t2d0s1 분할 영역에 있는 하위 미러 d21로 구성됩니다. /etc/vfstab 파일에서 /usr에 대한 항목이 미러 이름 d1을 사용하도록 업데이트됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.


(Create the mirror)
# metainit -f d11 1 1 c0t0d0s1
d11: Concat/Stripe is setup
# metainit d21 1 1 c2t2d0s1
d21: Concat/Stripe is setup
# metainit d1 -m d11
d1: Mirror is setup
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs  2       no global
 
(Move resource groups and device groups from phys-schost-1)
# scswitch -S -h phys-schost-1
 
(Reboot the node)
# shutdown -g0 -y -i6
 
(Attach the second submirror)
# metattach d1 d21
d1: Submirror d21 is attached
 
(View the sync status)
# metastat d1
d1: Mirror
      Submirror 0: d11
         State: Okay
      Submirror 1: d21
         State: Resyncing
      Resync in progress: 15 % done
…
 
(Identify the device-ID name of the mirrored disk's raw-disk device group)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:						dsk/d2
…
  (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true

다음 순서

사용자 정의 파일 시스템을 미러하려면 마운트 해제할 수 있는 파일 시스템을 미러하는 방법으로 이동합니다.

그렇지 않으면 클러스터에 디스크 세트 만들기로 이동하여 디스크 세트를 만듭니다.

일반 오류

이 미러링 절차 중 일부 단계에서 metainit: dg-schost-1: d1s0: not a metadevice와 유사한 오류 메시지가 발생할 수 있습니다. 이러한 오류 메시지는 무해하며 무시해도 됩니다.

Procedure마운트 해제할 수 있는 파일 시스템을 미러하는 방법

마운트 해제할 수 있는 사용자 정의된 파일 시스템을 미러하려면 이 절차를 사용하십시오. 이 절차에서는 노드를 재부트하지 않아도 됩니다.

단계
  1. 클러스터의 노드에서 수퍼유저가 되십시오.

  2. 미러할 파일 시스템을 마운트 해제하십시오.

    파일 시스템에 실행되고 있는 프로세스가 없어야 합니다.


    # umount /mount-point
    

    자세한 내용은 umount(1M) 설명서 페이지 및 System Administration Guide: Devices and File Systems의 18 장, Mounting and Unmounting File Systems (Tasks)를 참조하십시오.

  3. 마운트 해제 가능한 사용자 정의 파일 시스템이 들어 있는 슬라이스를 단일 슬라이스(단방향) 연결에 놓습니다.

    디스크 슬라이스의 물리적 디스크 이름(cNtXdYsZ)을 지정합니다.


    # metainit -f submirror1 1 1 diskslice
    
  4. 두 번째 연결을 만드십시오.


    # metainit submirror2 1 1 submirror-diskslice
    
  5. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    

    주 –

    이 미러의 메타 장치 이름이나 볼륨 이름은 전체 클러스터에서 고유하지 않아도 됩니다.


  6. 미러할 마운트 가능 파일 시스템 각각에 대해 단계 1 ~ 단계 5를 반복합니다.

  7. 각 노드의 /etc/vfstab 파일에서 미러한 각 파일 시스템에 대한 항목을 편집하십시오.

    device to mountdevice to fsck 열의 이름을 미러 이름으로 바꿉니다.


    # vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global
  8. 두 번째 하위 미러를 미러에 연결하십시오.

    이것을 연결하면 하위 미러 동기화가 시작됩니다.


    # metattach mirror submirror2
    
  9. 단계 8에서 시작한 미러 동기화가 완료될 때까지 기다립니다.

    미러 상태를 보려면 metastat(1M) 명령을 사용합니다.


    # metastat mirror
    
  10. 사용자 정의 파일 시스템을 미러하는 데 사용되는 디스크가 두 개 이상의 노드에 물리적으로 연결된 경우(멀티 호스트)에는 localonly 등록 정보를 활성화하십시오.

    다음 단계를 수행하여 사용자 정의 파일 시스템을 미러하는 데 사용되는 디스크에 대해 원시 디스크 장치 그룹의 localonly 등록 정보를 활성화하십시오. 부트 장치가 여러 노드에 연결된 경우 부트 장치가 노드에 액세스하지 못하는 문제를 방지하기 위해 localonly 등록 정보를 활성화해야 합니다.

    1. 필요한 경우 scdidadm -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 장치 ID 경로 이름을 표시하십시오.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d4는 전체 장치 ID 경로 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      
    2. 원시 디스크 장치 그룹의 노드 목록을 확인하십시오.

      다음과 같이 출력됩니다.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …
    3. 노드 목록에 두 개 이상의 이름이 포함된 경우에는 노드 목록에서 루트 디스크를 미러하는 노드를 제외한 모든 노드를 제거하십시오.

      루트 디스크를 미러하는 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      원시 디스크 장치 그룹의 이름을 클러스터에서 고유하게 지정합니다.

      nodelist=node

      노드 목록에서 제거할 노드 이름을 지정합니다.

    4. localonly 등록 정보를 활성화합니다.

      localonly 등록 정보가 활성화된 경우 원시 디스크 장치 그룹은 해당 노드 목록의 노드에서만 사용합니다. 따라서 부트 장치가 여러 노드에 연결된 경우에 노드가 부트 장치에 액세스하지 못하는 문제가 발생하지 않습니다.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

      localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.

  11. 미러된 파일 시스템을 마운트하십시오.


    # mount /mount-point
    

    자세한 내용은 mount(1M) 설명서 페이지 및 System Administration Guide: Devices and File Systems의 18 장, Mounting and Unmounting File Systems (Tasks)를 참조하십시오.


예 3–5 마운트 해제 가능한 파일 시스템 미러링

다음은 c0t0d0s4에 있는 /export를 미러하기 위하여 미러 d4를 만드는 예입니다. 미러 d4는 분할 영역 c0t0d0s4에 있는 하위 미러 d14와 분할 영역 c2t2d0s4에 있는 하위 미러 d24로 구성됩니다. /etc/vfstab 파일에서 /export에 대한 항목이 미러 이름 d4를 사용하도록 업데이트됩니다. c2t2d0 장치는 멀티 호스트 디스크이므로 localonly 등록 정보가 활성화됩니다.


(Unmount the file system)
# umount /export
 
(Create the mirror)
# metainit -f d14 1 1 c0t0d0s4
d14: Concat/Stripe is setup
# metainit d24 1 1 c2t2d0s4
d24: Concat/Stripe is setup
# metainit d4 -m d14
d4: Mirror is setup
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
# /dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no    global
 
(Attach the second submirror)
# metattach d4 d24
d4: Submirror d24 is attached
 
(View the sync status)
# metastat d4
d4: Mirror
       Submirror 0: d14
          State: Okay
       Submirror 1: d24
          State: Resyncing
       Resync in progress: 15 % done
…
 
(Identify the device-ID name of the mirrored disk's raw-disk device group)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:                       dsk/d2
…
  (dsk/d2) Device group node list:       phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true 
 
(Mount the file system)
# mount /export

다음 순서

디스크 세트를 만들려면 다음 중 하나로 이동합니다.

디스크 세트가 추가로 필요한 경우 다음 중 하나로 이동합니다.

일반 오류

이 미러링 절차 중 일부 단계에서 metainit: dg-schost-1: d1s0: not a metadevice와 유사한 오류 메시지가 발생할 수 있습니다. 이러한 오류 메시지는 무해하며 무시해도 됩니다.

클러스터에 디스크 세트 만들기

이 절에서는 클러스터 구성을 위해 디스크 세트를 만드는 방법을 설명합니다. 다음과 같은 경우에는 디스크 세트를 만들 필요가 없을 수도 있습니다.

다음 표에서는 디스크 세트를 만들기 위해 수행하는 작업 목록을 표시합니다.

표 3–2 작업 맵: Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

작업 

지침 

1. metaset 명령을 사용하여 디스크 세트를 만듭니다.

디스크 세트 작성 방법

2. 디스크 세트에 드라이브를 추가합니다. 

디스크 세트에 드라이브를 추가하는 방법

3. (옵션) 디스크 세트의 디스크 드라이브를 다시 분할하여 슬라이스 1 ~ 6에 공간을 할당합니다.

디스크 세트의 드라이브를 다시 분할하는 방법

4. /etc/lvm/md.tab 파일에 DID 의사 드라이버 매핑 목록을 표시하고 메타 장치나 볼륨을 정의합니다.

md.tab 파일을 만드는 방법

5. md.tab 파일을 초기화합니다.

메타 장치나 볼륨을 활성화하는 방법

Procedure디스크 세트 작성 방법

이 절차를 수행하여 디스크 세트를 만드십시오.

단계
  1. (Solaris 8 또는 Solaris 9) 새 디스크 세트를 만든 후에 클러스터가 4개 이상의 디스크 세트를 포함할 것인지를 결정합니다.

    • 클러스터가 디스크 세트를 4개 이상 포함하지 않으면 단계 9로 건너뜁니다.

    • 클러스터가 4개 이상의 디스크 세트를 포함할 경우 단계 2로 진행하여 클러스터를 준비합니다. 디스크 세트를 처음으로 설치하든 완전히 구성된 클러스터에 추가하든 관계없이 이 작업을 수행해야 합니다.

    • 클러스터가 Solaris 10 OS에서 실행되는 경우 Solaris 볼륨 관리자는 필요한 구성 변경을 자동으로 수행합니다. 단계 9로 건너뜁니다.

  2. 클러스터의 노드에서 /kernel/drv/md.conf 파일에 있는 md_nsets 변수의 값을 확인하십시오.

  3. 클러스터에 있는 전체 디스크 세트 수가 기존의 md_nsets 값에서 1을 뺀 값보다 크면 각 노드에서 md_nsets의 값을 원하는 값으로 크게 설정하십시오.

    디스크 세트 수의 최대값은 md_nsets의 구성된 값보다 하나 작은 값까지 사용할 수 있습니다. md_nsets의 최대 값은 32이므로 만들 수 있는 최대 디스크 세트 수는 31개입니다.

  4. 클러스터의 각 노드에서 /kernel/drv/md.conf 파일이 동일한지 확인하십시오.


    Caution – Caution –

    이 설명을 따르지 않으면 심각한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 오류가 발생하여 데이터를 잃을 수 있습니다.


  5. 어느 노드에서든 md.conf 파일을 변경한 경우에는 다음 단계를 수행하여 변경 사항이 적용되도록 하십시오.

    1. 하나의 노드에서 클러스터를 종료하십시오.


      # scshutdown -g0 -y
      
    2. 클러스터의 각 노드를 재부트하십시오.


      ok> boot
      
  6. 클러스터의 각 노드에서 devfsadm(1M) 명령을 실행합니다.

    클러스터의 모든 노드에서 동시에 이 명령을 실행할 수 있습니다.

  7. 클러스터의 한 노드에서 scgdevs(1M) 명령을 실행하여 전역 장치 이름 공간을 업데이트합니다.

  8. 디스크 세트를 만들기 전에 각 노드에서 scgdevs 명령 처리가 완료되었는지 확인합니다.

    scgdevs 명령이 한 노드에서 실행될 경우에도 이 명령은 모든 노드에 있는 동일한 명령을 원격으로 호출합니다. scgdevs 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행하십시오.


     % ps -ef | grep scgdevs
    
  9. 만들려는 디스크 세트가 다음 요구 사항 중 하나를 충족시켜야 합니다.

    • 디스크 세트가 정확히 2개의 디스크 문자열로 구성된 경우 디스크 세트는 정확히 2개의 노드에 연결되어야 하며 정확히 2개의 mediator 호스트를 사용해야 합니다. 이러한 mediator 호스트는 디스크 세트에 사용된 2개의 호스트와 같아야 합니다. 이중 문자열 mediator 구성 방법에 대한 자세한 내용은 이중 문자열 Mediator 구성을 참조하십시오.

    • 디스크 세트가 3개 이상의 디스크 문자열로 구성된 경우 임의로 선택한 2개의 디스크 문자열 S1과 S2의 드라이브 총 수가 세 번째 문자열 S3의 드라이브 수보다 큰지 확인합니다. 요구 사항을 공식으로 표현하면 개수(S1) + 개수(S2) > 개수(S3)이 됩니다.

  10. 로컬 상태 데이터베이스 복제본이 있는지 확인하십시오.

    자세한 내용은 상태 데이터베이스 복제본을 만드는 방법을 참조하십시오.

  11. 디스크 세트를 마스터할 클러스터 노드에서 수퍼유저가 되십시오.

  12. 디스크 세트를 만드십시오.

    다음 명령은 디스크 세트를 만들어 Sun Cluster 디스크 장치 그룹으로 등록합니다.


    # metaset -s setname -a -h node1 node2
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -a

    디스크 세트를 추가합니다(만듭니다).

    -h node1

    디스크 세트를 마스터할 기본 노드의 이름을 지정합니다.

    node2

    디스크 세트를 마스터할 보조 노드의 이름을 지정합니다.


    주 –

    metaset 명령을 사용하여 클러스터에 Solstice DiskSuite 또는 Solaris 볼륨 관리자 장치 그룹을 구성하면 기본적으로 하나의 보조 노드가 지정됩니다. 장치 그룹이 만들어진 후에 scsetup(1M) 유틸리티를 사용하여 장치 그룹에서 보조 노드의 수를 원하는 대로 변경할 수 있습니다. numsecondaries 등록 정보 변경 방법에 대한 자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서디스크 장치 그룹 관리를 참조하십시오.


  13. 새 디스크 세트의 상태를 확인하십시오.


    # metaset -s setname
    

예 3–6 디스크 세트 만들기

다음 명령을 실행하면 기본 노드가 될 수 있는 노드로 지정된 phys-schost-1phys-schost-2 노드를 사용하여 두 개의 디스크 세트 dg-schost-1dg-schost-2를 만듭니다.


# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2
# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2

다음 순서

디스크 세트에 드라이브를 추가하십시오. 디스크 세트에 드라이브 추가로 이동합니다.

디스크 세트에 드라이브 추가

디스크 세트에 드라이브를 추가할 때 볼륨 관리 소프트웨어는 드라이브를 다음과 같이 다시 분할하여 디스크 세트의 상태 데이터베이스가 드라이브에 배치될 수 있도록 합니다.

Procedure디스크 세트에 드라이브를 추가하는 방법

시작하기 전에

디스크 세트가 만들어졌는지 확인하십시오. 자세한 내용은 디스크 세트 작성 방법을 참조하십시오.

단계
  1. 노드에서 수퍼유저가 되십시오.

  2. DID 매핑을 나열하십시오.


    # scdidadm -L
    
    • 디스크 세트를 마스터하거나 마스터할 수도 있는 클러스터 노드가 공유하는 드라이브를 선택하십시오.

    • 디스크 세트에 디스크 드라이브를 추가할 경우 전체 장치 ID 경로 이름을 사용하십시오.

    출력되는 첫 번째 열은 DID 인스턴스 번호이고, 두 번째 열은 전체 물리적 경로 이름이고, 세 번째 열은 전체 장치 ID 경로 이름(의사 경로)입니다. 공유 드라이브에는 동일한 DID 인스턴스 번호에 대하여 두 개 이상의 항목이 있습니다.

    다음 예에서, DID 인스턴스 번호 2의 항목은 phys-schost-1phys-schost-2가 공유하는 드라이브를 가리키며, 전체 장치 ID 경로 이름은 /dev/did/rdsk/d2입니다.


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    …
  3. 디스크 세트의 소유자가 됩니다.


    # metaset -s setname -t
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -t

    디스크 세트의 소유권을 가집니다.

  4. 디스크 세트에 드라이브를 추가하십시오.

    전체 장치 ID 경로 이름을 사용하십시오.


    # metaset -s setname -a drivename
    
    -a

    디스크 세트에 드라이브를 추가합니다.

    drivename

    공유 드라이브의 전체 장치 ID 경로 이름입니다.


    주 –

    드라이브를 디스크 세트에 추가할 때는 하위 수준 장치 이름(cNtXdY)을 사용하지 마십시오. 하위 레벨 장치 이름은 로컬 이름이므로 전체 클러스터에서 고유하지 않기 때문에 이 이름을 사용하면 메타 세트가 전환되지 않을 수도 있습니다.


  5. 디스크 세트와 드라이브의 상태를 확인하십시오.


    # metaset -s setname
    

예 3–7 디스크 세트에 드라이브 추가

metaset 명령을 사용하면 드라이브 /dev/did/rdsk/d1/dev/did/rdsk/d2가 디스크 세트 dg-schost-1에 추가됩니다.


# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2

다음 순서

메타 장치 또는 볼륨에서 사용하기 위해 드라이브를 다시 분할하려면 디스크 세트의 드라이브를 다시 분할하는 방법으로 이동합니다.

그렇지 않으면 md.tab 파일을 만드는 방법으로 이동한 다음 md.tab 파일을 사용하여 메타 장치 또는 볼륨을 정의합니다.

Procedure디스크 세트의 드라이브를 다시 분할하는 방법

metaset(1M) 명령을 실행하면 디스크 세트에서 드라이브를 다시 분할하여 슬라이스 7에서 각 드라이브의 작은 공간을 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에 사용할 수 있도록 예약합니다. 각 드라이브의 나머지 공간은 슬라이스 0에 할당됩니다. 드라이브를 더 효율적으로 사용하려면 이 절차를 사용하여 디스크 레이아웃을 변경하십시오. 슬라이스 1부터 6까지 공간을 할당하면 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨을 설정할 때 이 슬라이스를 사용할 수 있습니다.

단계
  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. format 명령을 사용하여 디스크 세트의 각 드라이브에 대한 디스크 분할을 변경하십시오.

    드라이브를 다시 분할할 때 metaset(1M) 명령이 드라이브를 다시 분할하지 않도록 하려면 다음 조건을 충족시켜야 합니다.

    • 실린더 0에서 시작하고 상태 데이터베이스 복제본을 저장할만큼 충분히 큰 슬라이스 7을 만드십시오. Solstice DiskSuite 또는 Solaris 볼륨 관리자 관리 설명서를 참조하여 볼륨 관리자 소프트웨어 버전에 맞는 상태 데이터베이스 복제본 크기를 결정하십시오.

    • 슬라이스 7의 Flag 필드를 wu (읽기, 쓰기, 마운트 해제 가능)로 설정하십시오. 읽기 전용으로 설정하지 마십시오.

    • 슬라이스 7이 드라이브의 다른 슬라이스와 겹치지 않도록 하십시오.

    자세한 내용은 format(1M) 설명서 페이지를 참조하십시오.

다음 순서

md.tab 파일을 사용하여 메타 장치나 볼륨을 정의하십시오. md.tab 파일을 만드는 방법으로 이동합니다.

Proceduremd.tab 파일을 만드는 방법

클러스터의 각 노드에 /etc/lvm/md.tab 파일을 만드십시오. 만든 디스크 세트에 대하여 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨을 정의하려면 md.tab 파일을 사용하십시오.


주 –

로컬 메타 장치나 볼륨을 사용하는 경우에는 로컬 메타 장치나 볼륨의 이름이 디스크 세트를 만드는 데 사용된 장치 ID 이름과 구별되어야 합니다. 예를 들어, /dev/did/dsk/d3이 디스크 세트에서 장치 ID 이름으로 사용되면 /dev/md/dsk/d3을 로컬 메타 장치나 볼륨의 이름으로 사용하지 마십시오. 이름 지정 규칙 /dev/md/setname/{r}dsk/d#을 사용하는 공유 메타 장치나 볼륨에는 이 요구 사항이 적용되지 않습니다.


단계
  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. md.tab 파일을 만들 때 참조할 수 있도록 DID 매핑을 표시하십시오.

    md.tab파일에서 하위 수준의 장치 이름(cN tXdY) 대신 전체 장치 ID 경로 이름을 사용합니다.


    # scdidadm -L
    

    다음 예에서 출력되는 첫 번째 열은 DID 인스턴스 번호이고, 두 번째 열은 전체 경로(물리적 경로)이고, 세 번째 열은 전체 장치 ID 경로 이름(의사 경로)입니다.


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    …
  3. /etc/lvm/md.tab 파일을 만들고 원하는 텍스트 편집기를 사용하여 직접 파일을 편집하십시오.


    주 –

    하위 미러에 사용될 드라이브에 기존 데이터가 있는 경우 메타 장치 또는 볼륨을 설정하기 전에 데이터를 백업해야 합니다. 그런 다음 데이터를 미러에 복원합니다.


    클러스터 환경에서 로컬 메타 장치나 볼륨 사이의 혼동을 피하려면 전체 클러스터에서 각 로컬 메타 장치나 볼륨의 이름이 고유하도록 지정하십시오. 예를 들어, 노드 1에는 d100-d199 사이의 이름을 선택하고 노드 2에는 d200-d299 사이의 이름을 선택합니다.

    md.tab 파일을 만드는 방법에 대한 자세한 내용은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서 및 md.tab(4) 설명서 페이지를 참조하십시오.


예 3–8 샘플 md.tab 파일

다음 샘플 md.tab 파일에서는 이름이 dg-schost-1인 디스크 세트를 정의합니다. md.tab 파일에서 행의 순서는 중요하지 않습니다.


dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20
    dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
    dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

다음은 Solstice DiskSuite 용어를 사용하는 예입니다. Solaris 볼륨 관리자에서는 트랜스 메타 장치를 트랜잭션 볼륨이라고 하고 메타 장치를 볼륨이라고 합니다. 이외의 경우에는 다음 프로세스가 두 가지 볼륨 관리자에 모두 사용됩니다.

md.tab 파일 샘플은 다음과 같이 구성되어 있습니다.

  1. 첫 번째 줄에서는 장치 d0을 메타 장치 d10d20의 미러로 정의합니다. -m 옵션은 이 장치가 미러 장치임을 지정합니다.


    dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20
  2. 두 번째 줄에서는 메타 장치 d10 (d0의 첫 번째 하위 미러)을 단방향 스트라이프로 정의합니다.


    dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
  3. 세 번째 줄에서는 메타 장치 d20(d0의 두 번째 하위 미러)을 단방향 스트라이프로 정의합니다.


    dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

다음 순서

md.tab 파일에 정의된 메타 장치나 볼륨을 활성화하십시오. 메타 장치나 볼륨을 활성화하는 방법으로 이동합니다.

Procedure메타 장치나 볼륨을 활성화하는 방법

md.tab 파일에 정의된 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨을 활성화하려면 이 절차를 수행합니다.

단계
  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. md.tab 파일이 /etc/lvm 디렉토리에 있어야 합니다.

  3. 명령이 실행되는 노드의 디스크 세트에 대한 소유권이 있어야 합니다.

  4. 디스크 세트의 소유권을 가지십시오.


    # scswitch -z setname -h node
    
    -z setname

    디스크 세트 이름을 지정합니다.

    -h node

    소유권을 갖는 노드를 지정합니다.

  5. md.tab 파일에 정의된 디스크 세트의 메타 장치 또는 볼륨을 활성화하십시오.


    # metainit -s setname -a
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -a

    md.tab 파일에 있는 모든 메타 장치를 활성화합니다.

  6. 각 마스터 및 로그 장치에 대하여 두 번째 하위 미러(submirror2)를 연결하십시오.

    md.tab 파일의 메타 장치 또는 볼륨이 활성화되면 마스터 및 로그 장치의 첫 번째 하위 미러(submirror1)만 연결되기 때문에 submirror2는 수동으로 연결해야 합니다.


    # metattach mirror submirror2
    
  7. 클러스터의 각 디스크 세트에서 단계 3 ~ 단계 6을 반복합니다.

    필요한 경우, 드라이브에 연결된 다른 노드에서 metainit(1M) 명령을 실행합니다. 클러스터 쌍 토폴로지의 경우에는 일부 노드에서 드라이브에 액세스하지 못할 수도 있기 때문에 이 단계가 필요합니다.

  8. 메타 장치나 볼륨의 상태를 확인하십시오.


    # metastat -s setname
    

    자세한 내용은 metastat(1M) 설명서 페이지를 참조하십시오.


예 3–9 md.tab 파일에 정의된 메타 장치 또는 볼륨 활성화

다음 예에서는 디스크 세트 dg-schost-1에 대하여 md.tab 파일에 정의된 모든 메타 장치가 활성화됩니다. 그런 다음 마스터 장치 dg-schost-1/d1과 로그 장치 dg-schost-1/d4의 두 번째 하위 미러가 활성화됩니다.


# metainit -s dg-schost-1 -a
# metattach dg-schost-1/d1 dg-schost-1/d3
# metattach dg-schost-1/d4 dg-schost-1/d6

다음 순서

클러스터에 정확히 디스크 외장 장치 2개와 노드 2개로 구성된 디스크 세트가 포함된 경우에는 이중 문자열 mediator를 추가하십시오. 이중 문자열 Mediator 구성으로 이동합니다.

그렇지 않으면 클러스터 파일 시스템을 만드는 방법으로 이동하여 클러스터 파일 시스템을 만듭니다.

이중 문자열 Mediator 구성

이 절에서는 이중 문자열 mediator 호스트 구성에 대한 정보 및 절차에 대해 소개합니다. 이중 문자열 mediator는 정확하게 2개의 디스크 문자열과 2개의 클러스터 노드로 구성된 모든 Solstice DiskSuite 또는 Solaris 볼륨 관리자 디스크 세트에서 필요합니다. mediator를 사용하면 이중 스트링 구성에서 하나의 스트링에 장애가 발생할 경우에도 Sun Cluster 소프트웨어가 최신 데이터를 유지할 수 있습니다.

이중 문자열 mediator 또는 mediator 호스트는 mediator 데이터를 저장하는 클러스터 노드입니다. mediator 데이터는 다른 mediator의 위치에 대한 정보를 제공하고 데이터베이스 복제본에 저장된 완결 계수와 동일한 완결 계수를 포함합니다. 이 완결 계수는 mediator 데이터가 데이터베이스 복제본의 데이터와 동기화되어 있는지 확인하는 데 사용됩니다.

디스크 문자열은 디스크 외장 장치, 포함된 물리적 드라이브, 외장 장치와 노드 사이의 케이블, 인터페이스 어댑터 카드 등으로 구성됩니다.

다음 표에서는 이중 문자열 mediator 호스트를 구성할 때 수행하는 작업 목록을 표시합니다.

표 3–3 작업 맵: Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

작업 

지침 

1. 이중 문자열 mediator 호스트를 구성합니다. 

이중 문자열 Mediator 요구 사항

Mediator 호스트를 추가하는 방법

2. mediator 데이터의 상태를 확인합니다. 

Mediator 데이터의 상태를 검사하는 방법

3. 필요한 경우, 잘못된 mediator 데이터를 수정합니다. 

잘못된 Mediator 데이터를 복구하는 방법

이중 문자열 Mediator 요구 사항

mediator를 사용하는 이중 문자열 구성에는 다음 규칙이 적용됩니다.

전체 클러스터에 정확히 두 개의 노드가 있어야 이 규칙이 충족되는 것은 아닙니다. 두 디스크 문자열이 있는 디스크 세트만 정확히 두 노드에 연결되어야 합니다. 이 규칙에 따라 N+1 클러스터 및 여러 가지 다른 토폴로지를 구성할 수 있습니다.

ProcedureMediator 호스트를 추가하는 방법

구성에 이중 문자열 mediator가 필요한 경우 다음 절차를 수행하십시오.

단계
  1. mediator 호스트를 추가할 대상 디스크 세트를 마스터하는 노드에서 수퍼유저가 되십시오.

  2. 디스크 세트와 연결된 각 노드를 해당 디스크 세트의 mediator 호스트에 추가합니다.


    # metaset -s setname -a -m mediator-host-list
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -a

    디스크 세트에 추가합니다.

    -m mediator-host-list

    추가할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다.

    metaset 명령에 사용하는 mediator 관련 옵션에 대한 자세한 내용은 mediator(7D) 설명서 페이지를 참조하십시오.


예 3–10 Mediator 호스트 추가

다음은 노드 phys-schost-1phys-schost-2를 디스크 세트 dg-schost-1의 mediator 호스트로 추가하는 예입니다. 두 명령은 노드 phys-schost-1에서 실행됩니다.


# metaset -s dg-schost-1 -a -m phys-schost-1
# metaset -s dg-schost-1 -a -m phys-schost-2

다음 순서

mediator 데이터의 상태를 확인하십시오. Mediator 데이터의 상태를 검사하는 방법으로 이동합니다.

ProcedureMediator 데이터의 상태를 검사하는 방법

시작하기 전에

Mediator 호스트를 추가하는 방법에서 설명한 대로 mediator 호스트를 추가했는지 확인합니다.

단계
  1. mediator 데이터 상태를 표시합니다.


    # medstat -s setname
    
    -s setname

    디스크 세트 이름을 지정합니다.

    자세한 내용은 medstat(1M) 설명서 페이지를 참조하십시오.

  2. medstat 출력의 상태 필드 값이 Bad이면 영향을 받은 mediator 호스트를 복구하십시오.

    잘못된 Mediator 데이터를 복구하는 방법으로 이동합니다.

다음 순서

클러스터 파일 시스템을 만드는 방법으로 이동하여 클러스터 파일 시스템을 만듭니다.

Procedure잘못된 Mediator 데이터를 복구하는 방법

잘못된 mediator 데이터를 복구하려면 다음 절차를 수행하십시오.

단계
  1. 잘못된 mediator 데이터가 있는 mediator 호스트를 Mediator 데이터의 상태를 검사하는 방법의 절차에서 설명한 대로 모두 식별합니다.

  2. 영향을 받은 디스크 세트가 있는 노드에서 수퍼유저가 되십시오.

  3. 영향을 받은 모든 디스크 세트에서 잘못된 mediator 데이터가 있는 mediator 호스트를 모두 제거하십시오.


    # metaset -s setname -d -m mediator-host-list
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -d

    디스크 세트에서 삭제합니다.

    -m mediator-host-list

    제거할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다.

  4. 단계 3에서 제거된 mediator 호스트를 각각 복원합니다.


    # metaset -s setname -a -m mediator-host-list
    
    -a

    디스크 세트에 추가합니다.

    -m mediator-host-list

    추가할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다.

    metaset 명령에 사용하는 mediator 관련 옵션에 대한 자세한 내용은 mediator(7D) 설명서 페이지를 참조하십시오.

다음 순서

클러스터 파일 시스템을 만드십시오. 클러스터 파일 시스템을 만드는 방법으로 이동합니다.