Sun Cluster 3.0 U1 설치 안내서

Solstice DiskSuite 소프트웨어 설치 및 구성

시작하기 전에 다음 정보를 확인하십시오.

다음 표에는 Sun Cluster 구성에 필요한 Solstice DiskSuite 소프트웨어를 설치하고 구성하기 위해 수행할 작업 목록이 있습니다.


주 -

SunPlex Manager를 사용하여 Solstice DiskSuite 소프트웨어를 설치한 경우에는 "Solstice DiskSuite소프트웨어 설치 방법"부터 "메타 장치 상태 데이터베이스 복제를 만드는 방법"까지의 절차가 이미 완료되었습니다.


표 A-1 작업 맵: Solstice DiskSuite 소프트웨어 설치 및 구성

작업 

참고 항목 

Solstice DiskSuite 구성 레이아웃 계획 

"볼륨 관리 계획"

"Solstice DiskSuite구성 예"

Solstice DiskSuite소프트웨어 설치 

"Solstice DiskSuite소프트웨어 설치 방법"

구성에 필요한 메타 장치 이름 및 디스크 세트 수 계산, /kernel/drv/md.conf 파일 수정

"메타 장치 이름 및 디스크 세트 수 설정 방법"

로컬 디스크에 메타 장치 상태 데이터베이스 복제 만들기 

"메타 장치 상태 데이터베이스 복제를 만드는 방법"

(선택 항목) 루트 디스크에 파일 시스템 이중화

"루트 디스크 이중화"

metaset 명령을 사용하여 디스크 세트 만들기

"디스크 세트를 만드는 방법"

디스크 세트에 디스크 드라이브 추가 

"드라이브를 디스크 세트에 추가하는 방법"

디스크 세트의 드라이브를 재분할하여 슬라이스 1 - 6에 공간 할당 

"디스크 세트의 드라이브를 다시 분할하는 방법"

/etc/lvm/md.tab 파일에 장치 ID 의사 드라이버 매핑 표시 및 메타 장치 정의

"md.tab 파일을 만드는 방법"

md.tab 파일 초기화

"메타 장치를 활성화하는 방법"

이중 문자열 구성의 경우 mediator 호스트 구성, mediator 데이터 상태 확인 및 필요할 경우에 잘못된 mediator 데이터 수정 

"mediator 호스트를 추가하는 방법"

"Mediator 데이터의 상태를 검사하는 방법"

"잘못된 mediator 데이터를 복구하는 방법"

클러스터 구성 

"클러스터 구성"

Solstice DiskSuite소프트웨어 설치 방법


주 -

SunPlex Manager를 사용하여 Solstice DiskSuite 소프트웨어를 설치한 경우에는 이 절차를 수행하지 마십시오. 대신 "루트 디스크 이중화"를 진행하십시오.


클러스터의 각 노드에 대하여 다음 작업을 수행하십시오.

  1. 클러스터 노드에 대하여 superuser가 되어야 합니다.

  2. CD-ROM에서 설치하는 경우에는 Solaris 8 Software CD-ROM 두 장 중 두 번째 장을 노드의 CD-ROM 드라이브에 넣으십시오.

    이 단계에서는 CD-ROM 장치를 관리할 수 있도록 볼륨 관리 데몬 vold(1M)를 구성하여 실행하고 있다고 가정합니다.

  3. Solstice DiskSuite 소프트웨어 패키지를 설치하십시오.


    주 -

    설치할 Solstice DiskSuite 소프트웨어 패치가 있으면 Solstice DiskSuite 소프트웨어를 설치한 후에 다시 부트하지 마십시오.


    다음 예에서 설명하는 순서에 따라 소프트웨어 패키지를 설치하십시오.


    # cd /cdrom/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packages
    # pkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] optional-pkgs
    

    SUNWmdrSUNWmdu 패키지는 모든 Solstice DiskSuite설치 과정에 필요합니다. 64비트 Solstice DiskSuite 설치에는 SUNWmdx 패키지도 필요합니다.

    선택적 소프트웨어 패키지에 대한 정보는 Solstice DiskSuite 설치 설명서를 참조하십시오.

  4. CD-ROM에서 설치한 경우에는 CD-ROM을 빼십시오.

  5. Solstice DiskSuite 패치를 설치하십시오.

    패치 및 설치 방법을 보려면 Sun Cluster 3.0 U1 릴리스 정보를 참조하십시오.

  6. 클러스터의 다른 노드에 대하여 단계 1부터 단계 5까지 반복하십시오.

  7. 클러스터의 한 노드에서 직접 Solstice DiskSuite에 대한 글로벌 장치 이름 공간을 채우십시오.


    # scgdevs
    

  8. 클러스터에서 예상하는 메타 장치 이름과 디스크 세트 수를 설정하십시오.

    "메타 장치 이름 및 디스크 세트 수 설정 방법"으로 이동하십시오.

메타 장치 이름 및 디스크 세트 수 설정 방법


주 -

SunPlex Manager를 사용하여 Solstice DiskSuite 소프트웨어를 설치한 경우에는 이 절차를 수행하지 마십시오. 대신 "루트 디스크 이중화"를 진행하십시오.


이 절차에서는 구성을 위해 필요한 메타 장치 이름의 개수를 계산하는 방법과 /kernel/drv/md.conf 파일을 수정하는 방법을 설명합니다.


정보 -

각 디스크 세트의 메타 장치 이름 개수 기본값은 128이지만 대부분의 구성에서 기본값보다 많은 개수가 필요합니다. 구성을 구현하기 전에 이 개수를 늘리십시오. 그러면 나중에 관리 시간을 줄일 수 있습니다.


  1. 클러스터의 디스크 세트에 필요한 메타 장치 이름의 최대 크기를 계산하십시오.

    각 디스크 세트에 최대 8192개까지 메타 장치 이름을 사용할 수 있습니다. 계산된 이 값을 nmd 필드에 입력합니다.

    1. 각 디스크 세트에 필요한 메타 장치 이름의 크기를 계산하십시오.

      로컬 메타 장치를 사용하는 경우에는 각 로컬 메타 장치 이름이 전체 클러스터에서 고유하고 클러스터에 있는 다른 DID(장치 ID)와 동일한 이름을 사용하지 않아야 합니다.


      정보 -

      DID 이름에만 사용할 번호 범위와 로컬 메타 장치 이름에만 사용할 각 노드 범위를 선택하십시오. 예를 들어, DID는 d1부터 d1000까지의 이름을 사용하고 노드 1의 로컬 메타 장치는 d1100부터 d1199까지의 이름을 사용하고 노드 2의 로컬 메타 장치는 d1200부터 d1299까지의 이름을 사용할 수 있습니다.


    2. 디스크 세트에 사용할 메타 장치 이름의 최대 크기를 결정하십시오.

      메타 장치 이름의 크기는 실제 크기를 기반으로 하지 않고 메타 장치 이름 을 기반으로 설정합니다. 예를 들어, 메타 장치 이름의 범위가 d950부터 d1000까지이면 Solstice DiskSuite소프트웨어에 50개가 아닌 1000개의 이름이 필요합니다.

  2. 클러스터에서 예상되는 총 디스크 세트 수를 계산한 다음 개인용 디스크 관리를 위해 하나를 추가하십시오.

    클러스터에 최대 32개의 디스크 세트를 사용할 수 있습니다. 기본 설정된 디스크 세트 수는 4개입니다. 계산된 이 값을 md_nsets 필드에 입력합니다.

  3. 각 노드에서 /kernel/drv/md.conf 파일을 편집하십시오.


    주의 - 주의 -

    각 노드에서 제공되는 디스크 세트 수와 관계 없이 모든 클러스터 노드 또는 클러스터 쌍 토폴로지에 포함된 클러스터 쌍에 동일한 /kernel/drv/md.conf 파일이 있어야 합니다. 이 지침을 따르지 않으면 심각한 Solstice DiskSuite오류가 발생하여 데이터가 손실될 수 있습니다.


    1. 계산된 메타 장치 이름 크기가 128을 넘으면 nmd 필드를 단계 1에서 계산된 크기로 설정하십시오.

    2. md_nsets 필드를 단계 2에서 계산된 크기로 설정하십시오.

  4. 각 노드에 대하여 재구성 재부트를 수행하십시오.


    # touch /reconfigure
    # shutdown -g0 -y -i6
    

    재구성 재부트를 수행하고 나면 /kernel/drv/md.conf 파일의 변경 사항이 적용됩니다.

  5. 로컬 복제를 만드십시오.

    "메타 장치 상태 데이터베이스 복제를 만드는 방법"으로 이동하십시오.

메타 장치 상태 데이터베이스 복제를 만드는 방법


주 -

SunPlex Manager를 사용하여 Solstice DiskSuite 소프트웨어를 설치한 경우에는 이 절차를 수행하지 마십시오. 대신 "루트 디스크 이중화"를 진행하십시오.


클러스터의 각 노드에 대하여 이 절차를 수행하십시오.

  1. 클러스터 노드에 대하여 superuser가 되어야 합니다.

  2. metadb 명령을 사용하여 각 클러스터 노드에 대한 복제를 하나 이상의 로컬 디스크에 만드십시오.

    자세한 내용은 metadb(1M) 설명서 페이지와 Solstice DiskSuite 문서를 참조하십시오.


    정보 -

    Solstice DiskSuite 소프트웨어를 실행하기 위해 메타 장치 상태 데이터를 보호하려면 각 노드에 대한 복제를 세 개 이상 만드십시오. 또한 두 개 이상의 디스크에 복제를 만들면 디스크 중 하나에 장애가 발생할 경우에도 보호할 수 있습니다.


  3. 복제를 확인하십시오.


    # metadb
    

  4. 루트 디스크의 파일 시스템을 이중화하시겠습니까?

예: 메타 장치 상태 데이터베이스 복제 만들기

다음은 서로 다른 디스크에 세 개의 메타 장치 상태 데이터베이스 복제를 만드는 예입니다.


# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7
# metadb
flags            first 
blk      block count     a       u       16&
           1034        /
dev/dsk/c0t0d0s7
    a       u       105
0          1034        
 /dev/dsk/c0
t0d0s7
    a       u       208
4          1034        
 /dev/dsk/c0
t0d0s7

루트 디스크 이중화

루트 디스크를 이중화하면 시스템 디스크 하나에 장애가 발생할 경우에도 클러스터 노드가 종료되지 않습니다. 루트 디스크에 네 가지 유형의 파일 시스템을 만들 수 있습니다. 각 파일 시스템 유형이 서로 다른 방법으로 이중화됩니다.

다음 절차를 사용하여 각 유형의 파일 시스템을 이중화하십시오.


주 -

이 이중화 절차 중 일부 단계에서 다음과 유사한 오류 메시지가 나타날 수 있습니다. 이 오류는 치명적인 오류가 아니므로 무시해도 됩니다.


metainit: dg-schost-1: d1s0: not a metadevice



주의 - 주의 -

로컬 디스크를 이중화할 경우에는 디스크 이름을 지정할 때 /dev/global을 경로로 사용하지 마십시오. 클러스터 파일 시스템이 아닌 시스템에 이 경로를 지정하면 시스템이 부트되지 않습니다.


루트(/) 파일 시스템을 이중화하는 방법

루트(/) 파일 시스템을 이중화하려면 이 절차를 사용하십시오.

  1. 클러스터의 한 노드에 대하여 superuser가 되십시오.

  2. metainit(1M) 명령을 사용하여 루트 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.


    # metainit -f submirror1 1 1 root-disk-slice
    

  3. 두 번째 연결을 만드십시오.


    # metainit -f submirror2 1 1 submirror-disk-slice
    

  4. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    


    주 -

    전체 클러스터에서 미러의 메타 장치 이름이 반드시 고유해야 합니다.


  5. metaroot(1M) 명령을 실행하십시오.

    이 명령을 실행하면 메타 장치의 루트(/) 파일 시스템으로 시스템을 부트할 수 있도록 /etc/vfstab/etc/system 파일이 편집됩니다.


    # metaroot mirror
    

  6. lockfs(1M) 명령을 실행하십시오.

    이 명령을 실행하면 로그에 기록된 모든 트랜잭션을 내보내서 마운트된 모든 UFS 파일 시스템의 마스터 파일에 기록합니다.


    # lockfs -fa
    

  7. 노드에서 자원 그룹이나 장치 그룹을 제거하십시오.


    # scswitch -S -h node
    
    -S

    모든 자원 그룹과 장치 그룹을 제거합니다.

    -h node

    자원 또는 장치 그룹을 제거할 노드의 이름을 지정합니다.

  8. 노드를 다시 부트하십시오.


    # shutdown -g0 -y -i6
    

  9. metattach(1M) 명령을 사용하여 두 번째 하위 미러를 미러에 연결하십시오.


    # metattach mirror submirror2
    

  10. 루트 디스크를 이중화하는 데 사용된 디스크가 둘 이상의 노드에 물리적으로 연결되어 있으면(멀티 포트) 루트 디스크를 이중화하는 데 사용된 디스크에 대하여 원시 디스크 장치 그룹의 localonly 특성을 활성화하십시오.

    부트 장치가 여러 노드에 연결되어 있으면 부트 장치에서 노드를 사용할 수 있도록 localonly 특성을 설정해야 합니다.

    1. 필요하면 scdidadm -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 DID(장치 ID) 의사 드라이버 이름을 사용하십시오.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 DID 의사 드라이버의 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      ...
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      # scconf -c -D name=dsk/d2,localonly=true
      

      localonly 특성에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.

    2. scconf(1M) 명령을 사용하여 localonly 특성을 활성화하십시오.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

  11. 나중에 사용할 수 있는 다른 부트 경로를 기록하십시오.


    # ls -l /dev/rdsk/root-disk-slice
    

  12. 클러스터의 다른 노드에 대하여 단계 1부터 단계 11까지 반복하십시오.

    미러에 대한 각 메타 장치 이름이 전체 클러스터에서 고유한지 확인하십시오.

  13. 글로벌 이름 공간, /global/.devices/node@nodeid를 이중화하시겠습니까?

  14. 마운트를 해제할 수 없는 파일 시스템을 이중화하시겠습니까?

  15. 사용자 정의된 파일 시스템을 이중화하시겠습니까?

예: 루트(/) 파일 시스템 이중화

다음 예에서는 c0t0d0s0 파티션의 d10 하위 미러와 c2t2d0s0 파티션의 d20 하위 미러로 구성된 d0 미러를 phys-schost-1 노드에 만듭니다. c2t2d0 디스크는 멀티 포트 디스크이므로 localonly 특성이 활성화됩니다.


(Create the mirror)
# metainit -f d10 1 1 c0t0d0s0
d11: Concat/Stripe is setup
# metainit -f d20 1 1 c2t2d0s0
d12: Concat/Stripe is setup
# metainit d0 -m d10
d10: Mirror is setup
# metaroot d0
# lockfs -fa
 
(Reboot the node)
# scswitch -S -h phys-schost-1
# shutdown -g0 -y -i6
 
(Attach the second submirror)
# metattach d0 d20
d0: Submirror d20 is attached
 
(Enable the localonly property of the mirrored disk's
raw disk device group)
# scconf -c -D name=dsk/d2,localonly=true
 
(Record the alternate boot path)
# ls -l /dev/rdsk/c2t2d0s0
lrwxrwxrwx  1 
root     root          57 Apr 25 20:11 
/dev/rdsk/c2t2d0s0 -> 
../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw

글로벌 이름 공간을 이중화하는 방법

글로벌 이름 공간, /global/.devices/node@nodeid를 이중화하려면 이 절차를 사용하십시오.

  1. 클러스터의 한 노드에 대하여 superuser가 되십시오.

  2. 글로벌 이름 공간 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.


    # metainit -f submirror1 1 1 diskslice
    

  3. 두 번째 연결을 만드십시오.


    # metainit -f submirror2 1 1 submirror-disk-slice
    

  4. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    


    주 -

    전체 클러스터에서 미러의 메타 장치 이름이 반드시 고유해야 합니다.


  5. 두 번째 하위 미러를 미러에 연결하십시오.

    연결하면 하위 미러 동기화가 시작됩니다.


    # metattach mirror submirror2
    

  6. /global/.devices/node@nodeid 파일 시스템에 대한 /etc/vfstab 파일 항목을 편집하십시오.

    device to mountdevice to fsck 열의 이름을 미러 이름으로 바꾸십시오.


    # vi /etc/vfstab
    #device        device          mount     
         FS      fsck    mount   mount
    #to mount      to fsck         point        
      type    pass    at boot options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /global/.devices/node@nodeid ufs 2
    no global

  7. 클러스터의 다른 노드에 대하여 단계 1부터 단계 6까지 반복하십시오.

    미러에 대한 각 메타 장치 이름이 전체 클러스터에서 고유한지 확인하십시오.

  8. 단계 5에서 시작된 미러 동기화가 완료될 때까지 기다리십시오.

    미러 상태를 보려면 metastat(1M) 명령을 사용하십시오.


    # metastat mirror
    

  9. 글로벌 이름 공간을 이중화하는 데 사용된 디스크가 둘 이상의 노드에 물리적으로 연결되어 있으면(멀티 포트) 글로벌 이름 공간을 이중화하는 데 사용된 디스크에 대하여 원시 디스크 장치 그룹의 localonly 특성을 활성화하십시오.

    부트 장치가 여러 노드에 연결되어 있으면 부트 장치에서 노드를 사용할 수 있도록 localonly 특성을 설정해야 합니다.

    1. 필요하면 scdidadm -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 DID(장치 ID) 의사 드라이버 이름을 사용하십시오.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 DID 의사 드라이버의 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      ... 1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      # scconf -c -D name=dsk/d2,localonly=true
      

      localonly 특성에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.

    2. scconf(1M) 명령을 사용하여 localonly 특성을 활성화하십시오.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

  10. 마운트를 해제할 수 없는 파일 시스템을 이중화하시겠습니까?

  11. 사용자 정의된 파일 시스템을 이중화하시겠습니까?

예: 글로벌 이름 공간 이중화

다음 예에서는 c0t0d0s3 파티션의 d111 하위 미러와 c2t2d0s3 파티션의 d121 하위 미러로 구성된 d101 미러를 만듭니다. 미러 이름 d101을 사용할 수 있도록 /global/.devices/node@1에 대한 /etc/vfstab 파일 항목이 갱신됩니다. c2t2d0 디스크는 멀티 포트 디스크이므로 localonly 특성이 활성화됩니다.


(Create the mirror)
# metainit -f d111 1 1 c0t0d0s3
d111: Concat/Stripe is setup
# metainit -f d121 1 1 c2t2d0s3
d121: Concat/Stripe is setup
# metainit d101 -m d111
d101: Mirror is setup
# metattach d101 d121
d101: Submirror d121 is attached
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device          mount           FS      fsck    mount   
mount
#to mount      to 
fsck         point           type    pass    at boot options
#
/dev/md/dsk/d101 /dev/md/rdsk/d101 
/global/.devices/node@1 ufs 2 no global
 
(View the sync status)
# metastat d101
d101: Mirror
      Submirror 0: d111
         State: Okay
      Submirror 1: d121
         State: Resyncing
      Resync in progress: 15 % done
...
 
(Identify the DID name of the mirrored disk's raw
disk device group)
# scdidadm -L
...
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Enable the localonly property of the mirrored disk's
raw disk device group)
# scconf -c -D name=dsk/d2,localonly=true

마운트를 해제할 수 없는 파일 시스템을 이중화하는 방법

/usr, /opt 또는 swap과 같이 정상적으로 시스템을 사용하는 동안에 마운트를 해제할 수 없는 파일 시스템을 이중화하려면 이 절차를 사용하십시오.

  1. 클러스터의 한 노드에 대하여 superuser가 되십시오.

  2. 마운트를 해제할 수 있는 파일 시스템이 있는 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.


    # metainit -f submirror1 1 1 diskslice
    

  3. 두 번째 연결을 만드십시오.


    # metainit -f submirror2 1 1 submirror-disk-slice
    

  4. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    


    주 -

    미러의 메타 장치 이름은 전체 클러스터에서 고유하지 않아도 됩니다.


  5. 이중화하려는 마운트를 해제할 수 있는 각 파일 시스템에 대하여 단계 1부터 단계 4까지 반복하십시오.

  6. 각 노드에서 이중화된 마운트를 해제할 수 있는 각 파일 시스템에 대한 /etc/vfstab 파일 항목을 편집하십시오.

    device to mountdevice to fsck 열의 이름을 미러 이름으로 바꾸십시오.


    # vi /etc/vfstab
    #device        device         mount           FS     fsck    m
    ount   mount 
    #to mount      to fsck        point           type    p
    ass    at boot options # /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem  ufs     2       n
    o      global

  7. 노드에서 자원 그룹이나 장치 그룹을 제거하십시오.


    # scswitch -S -h node
    
    -S

    모든 자원 그룹과 장치 그룹을 제거합니다.

    -h node

    자원 또는 장치 그룹을 제거할 노드의 이름을 지정합니다.

  8. 노드를 다시 부트하십시오.


    # shutdown -g0 -y -i6
    

  9. 두 번째 하위 미러를 각 미러에 연결하십시오.

    연결하면 하위 미러 동기화가 시작됩니다.


    # metattach mirror submirror2
    

  10. 단계 9에서 시작된 미러 동기화가 완료될 때까지 기다리십시오.

    미러 상태를 보려면 metastat(1M) 명령을 사용하십시오.


    # metastat mirror
    

  11. 마운트를 해제할 수 있는 파일 시스템을 이중화하는 데 사용된 디스크가 둘 이상의 노드에 물리적으로 연결되어 있으면(멀티 포트) 마운트를 해제할 수 있는 파일 시스템을 이중화하는 데 사용된 디스크에 대하여 원시 디스크 장치 그룹의 localonly 특성을 활성화하십시오.

    부트 장치가 여러 노드에 연결되어 있으면 부트 장치에서 노드를 사용할 수 있도록 localonly 특성을 설정해야 합니다.

    1. 필요하면 scdidadm -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 DID(장치 ID) 의사 드라이버 이름을 사용하십시오.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d2는 전체 DID 의사 드라이버의 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      ... 
      1            phys-schost-3:/dev/rdsk/c1t1d0   /dev/did/r
      dsk/d2
      # scconf -c -D name=dsk/d2,localonly=true
      

      localonly 특성에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.

    2. scconf(1M) 명령을 사용하여 localonly 특성을 활성화하십시오.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

  12. 사용자 정의된 파일 시스템을 이중화하시겠습니까?

예: 마운트를 해제할 수 있는 파일 시스템 이중화

다음 예에서는 c0t0d0s1에 있는 /usr을 이중화하는 d1 미러를 phys-schost-1 노드에 만듭니다. d1 미러는 c0t0d0s1 파티션에 있는 d11 하위 미러와 c2t2d0s1 파티션에 있는 d21 하위 미러로 구성됩니다. d1을 미러 이름으로 사용하도록 /usr에 대한 /etc/vfstab 파일 항목이 갱신됩니다. c2t2d0 디스크는 멀티 포트 디스크이므로 localonly 특성이 활성화됩니다.


(Create the mirror)
# metainit -f d111 1 1 c0t0d0s3
d111: Concat/Stripe is setup
# metainit -f d121 1 1 c2t2d0s3
d121: Concat/Stripe is setup
# metainit d101 -m d111
d101: Mirror is setup
# metattach d101 d121
d101: Submirror d121 is attached
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device          mount           FS      fsck    mount   
mount
#to mount      to 
fsck         point           type    pass    at boot options
#
/dev/md/dsk/d101 /dev/md/rdsk/d101 
/global/.devices/node@1 ufs 2 no global
 
(View the sync status)
# metastat d101
d101: Mirror
      Submirror 0: d111
         State: Okay
      Submirror 1: d121
         State: Resyncing
      Resync in progress: 15 % done
...
 
(Identify the DID name of the mirrored disk's raw
disk device group)
# scdidadm -L
...
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Enable the localonly property of the mirrored disk's
raw disk device group)
# scconf -c -D name=dsk/d2,localonly=true

사용자 정의 파일 시스템을 이중화하는 방법

사용자 정의 파일 시스템을 이중화하려면 이 절차를 사용하십시오. 이 절차에서는 노드를 다시 부트하지 않아도 됩니다.

  1. 클러스터의 한 노드에 대하여 superuser가 되십시오.

  2. 사용자 정의된 파일 시스템이 있는 슬라이스로 단일 슬라이스(단방향) 연결을 만드십시오.


    # metainit -f submirror1 1 1 diskslice
    

  3. 두 번째 연결을 만드십시오.


    # metainit -f submirror2 1 1 submirror-disk-slice
    

  4. 하위 미러가 하나 있는 단방향 미러를 만드십시오.


    # metainit mirror -m submirror1
    


    주 -

    미러의 메타 장치 이름은 전체 클러스터에서 고유하지 않아도 됩니다.


  5. 이중화하려는 각 사용자 정의 파일 시스템에 대하여 단계 1부터 단계 4까지 반복하십시오.

  6. 각 노드에서 이중화된 각 사용자 정의 파일 시스템에 대한 /etc/vfstab 파일 항목을 편집하십시오.

    device to mountdevice to fsck 열의 이름을 미러 이름으로 바꾸십시오.


    # vi /etc/vfstab
    #device        device          mount           FS      fsck    mount   mount
    #to mount      to fsck         point           type    pass    at boot options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror 
    /filesystem  ufs     2     ;  no      global

  7. 두 번째 하위 미러를 미러에 연결하십시오.

    연결하면 하위 미러 동기화가 시작됩니다.


    # metattach mirror submirror2
    

  8. 단계 7에서 시작된 미러 동기화가 완료될 때까지 기다리십시오.

    미러 상태를 보려면 metastat(1M) 명령을 사용하십시오.


    # metastat mirror
    

  9. 사용자 정의 파일 시스템을 이중화하는 데 사용된 디스크가 둘 이상의 노드에 물리적으로 연결되어 있으면(멀티 포트) 사용자 정의 파일 시스템을 이중화하는 데 사용된 디스크에 대하여 원시 디스크 장치 그룹의 localonly 특성을 활성화하십시오.

    부트 장치가 여러 노드에 연결되어 있으면 부트 장치에서 노드를 사용할 수 있도록 localonly 특성을 설정해야 합니다.

    1. 필요하면 scdidadm -L 명령을 사용하여 원시 디스크 장치 그룹의 전체 DID(장치 ID) 의사 드라이버 이름을 사용하십시오.

      다음 예에서 원시 디스크 장치 그룹 이름 dsk/d4는 전체 DID 의사 드라이버의 이름이 출력되는 세 번째 열에 포함되어 있습니다.


      # scdidadm -L
      ... 1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      # scconf -c -D name=dsk/d2,localonly=true
      

      localonly 특성에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.

    2. scconf(1M) 명령을 사용하여 localonly 특성을 활성화하십시오.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      원시 디스크 장치 그룹의 이름을 지정합니다.

  10. 디스크 세트를 만드십시오.

    "디스크 세트를 만드는 방법"으로 이동하십시오.

예: 사용자 정의 파일 시스템 이중화

다음 예에서는 c0t0d0s4에 있는 /home을 이중화하여 d4 미러를 만듭니다. d4 미러는 c0t0d0s4 파티션의 d14 하위 미러와 c2t2d0s4 파티션의 d24 하위 미러로 구성됩니다. d4를 미러 이름으로 사용하도록 /home에 대한 /etc/vfstab 파일 항목이 갱신됩니다. c2t2d0 디스크는 멀티 포트 디스크이므로 localonly 특성이 활성화됩니다.


(Create the mirror)
# metainit -f d14 1 1 c0t0d0s4
d14: Concat/Stripe is setup
# metainit -f d24 1 1 c2t2d0s4
d24: Concat/Stripe is setup
# metainit d4 -m d14
d4: Mirror is setup
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device        mount           FS      fsck    mount   mount
#to mount      to 
fsck         point           type    pass    at boot options
#
/dev/md/dsk/d4 /dev/md/rdsk/d4 
/home          
 ufs     2       no 
     global
 
(Attach the second submirror)
# metattach d4 d24
d4: Submirror d24 is attached
 
(View the sync status)
# metastat d4
d4: Mirror
      Submirror 0: d14
         State: Okay
      Submirror 1: d24
         State: Resyncing
      Resync in progress: 15 % done
...
 
(Identify the DID name of the mirrored disk's raw
disk device group)
# scdidadm -L
...
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Enable the localonly property of the mirrored disk's
raw disk device group)
# scconf -c -D name=dsk/d2,localonly=true

디스크 세트를 만드는 방법

만드는 각 디스크 세트에 대하여 이 절차를 수행하십시오.


주 -

SunPlex Manager를 사용하여 Solstice DiskSuite를 설치한 경우에는 디스크 세트 세 개 중 하나가 있을 것입니다. SunPlex Manager를 사용하여 만든 메타 세트에 대한 내용은 "SunPlex Manager를 사용하여 Sun Cluster 소프트웨어 설치"를 참조하십시오.


  1. 만들려는 디스크 세트가 다음 요구 사항 중 한 가지를 충족시켜야 합니다.

    • 정확하게 두 개의 디스크 문자열로 구성되어 있으면 디스크 세트가 정확히 두 개의 노드에 연결되어 정확히 두 개의 mediator 호스트를 사용해야 합니다. 이 호스트는 디스크 세트에 사용되는 두 호스트와 동일해야 합니다. mediator 설정 방법은 "Mediator 개요"를 참조하십시오.

    • 세 개 이상의 디스크 문자열로 구성된 경우에는 두 디스크 문자열 S1과 S2에 대한 총 디스크 수가 세 번째 문자열 S3의 디스크 수보다 많아야 합니다. 요구 조건을 공식으로 표현하면 개수(S1) + 개수(S2) > 개수(S3)가 됩니다.

  2. root는 그룹 14의 구성원이어야 합니다.


    # vi /etc/group
    ... sysadmin::14:root ...

  3. 로컬 메타 장치 상태 데이터베이스 복제가 있어야 합니다.

    자세한 내용은 "메타 장치 상태 데이터베이스 복제를 만드는 방법"을 참조하십시오.

  4. 디스크 세트를 마스터할 클러스터 노드에 대하여 superuser가 되어야 합니다.

  5. 디스크 세트를 만드십시오.

    이 명령을 사용하면 디스크 세트를 Sun Cluster 디스크 장치 그룹으로 등록합니다.


    # metaset -s setname -a -h node1 node2
    
    -s setname

    디스크 세트 이름을 지정합니다

    -a

    디스크 세트를 만들어 추가합니다

    -h node1

    디스크 세트를 마스터할 1차 노드의 이름을 지정합니다

    node2

    디스크 세트를 마스터할 2차 노드의 이름을 지정합니다

  6. 새 디스크 세트의 상태를 확인하십시오.


    # metaset -s setname
    

  7. 드라이브를 디스크 세트에 추가하십시오.

    "디스크 세트에 드라이브 추가"로 이동하십시오.

예: 디스크 세트 만들기

다음 명령을 실행하면 1차로 할당된 phys-schost-1phys-schost-2 노드를 사용하여 dg-schost-1dg-schost-2 두 개의 디스크 세트를 만듭니다.


# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2
# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2

디스크 세트에 드라이브 추가

디스크 드라이브를 디스크 세트에 추가하면 디스크 세트에 대한 메타 장치 상태 데이터베이스가 드라이브에 저장될 수 있도록 다음과 같이 Solstice DiskSuite가 드라이브를 다시 분할합니다.

드라이브를 디스크 세트에 추가하는 방법
  1. 노드에 대하여 superuser가 되어야 합니다.

  2. 디스크 세트가 만들어졌는지 확인하십시오.

    자세한 내용은 "디스크 세트를 만드는 방법"을 참조하십시오.

  3. DID(장치 ID) 매핑을 표시하십시오.


    # scdidadm -L
    

    • 디스크 세트를 마스터하거나 마스터할 수도 있는 클러스터 노드가 공유하는 드라이브를 선택하십시오.

    • 드라이브를 디스크 세트에 추가할 때는 DID 의사 드라이버의 전체 이름을 사용하십시오.

    출력되는 첫 번째 열은 DID 인스턴스 번호이고, 두 번째 열은 전체 경로(물리적 경로)이고, 세 번째 열은 DID 의사 드라이버의 전체 이름(의사 경로)입니다. 공유 드라이브에는 동일한 DID 인스턴스 번호에 대하여 두 개 이상의 항목이 있습니다.

    다음 예에서 DID 인스턴스 번호 2의 항목은 phys-schost-1phys-schost-2가 공유하고 전체 DID 이름이 /dev/did/rdsk/d2인 드라이브를 나타냅니다.


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    ...

  4. 디스크 세트에 대한 소유권을 받으십시오.


    # metaset -s setname -t
    
    -s setname

    디스크 세트 이름을 지정합니다

    -t

    디스크 세트에 대한 소유권을 받습니다

  5. 드라이브를 디스크 세트에 추가하십시오.

    DID 의사 드라이버의 전체 이름을 사용하십시오.


    # metaset -s setname -a DIDname
    
    -a

    디스크 드라이브를 디스크 세트에 추가합니다

    DIDname

    공유 디스크의 DID(장치 ID) 이름


    주 -

    드라이브를 디스크 세트에 추가할 때는 하위 레벨 장치 이름(cNtXdY)을 사용하지 마십시오. 하위 레벨 장치 이름은 로컬 이름이므로 전체 클러스터에서 고유하지 않기 때문에 이 이름을 사용하면 메타 세트가 스위치오버되지 않을 수도 있습니다.


  6. 디스크 세트와 드라이브의 상태를 확인하십시오.


    # metaset -ssetname
    

  7. 메타 장치에 사용할 수 있도록 드라이브를 다시 분할하시겠습니까?

예: 디스크 세트에 드라이브 추가

metaset 명령을 사용하면 /dev/did/dsk/d1/dev/did/dsk/d2 디스크 드라이브가 dg-schost-1 디스크 세트에 추가됩니다.


# metaset -s dg-schost-1 -a /dev/did/dsk/d1 /dev/did/dsk/d2

디스크 세트의 드라이브를 다시 분할하는 방법

metaset(1M) 명령을 사용하면 각 드라이브의 일부분을 슬라이스 7에 예약하여 Solstice DiskSuite 소프트웨어에서 사용할 수 있도록 디스크 세트의 드라이브를 다시 분할합니다. 각 드라이브의 나머지 공간은 슬라이스 0에 할당됩니다. 디스크를 더 효율적으로 사용하려면 이 절차를 사용하여 디스크 레이아웃을 변경하십시오. 슬라이스 1부터 6까지 공간을 할당하면 메타 장치를 설정할 때 이 슬라이스를 사용할 수 있습니다.

  1. 클러스터 노드에 대하여 superuser가 되어야 합니다.

  2. 디스크 세트의 각 드라이브에 대한 디스크 분할을 변경하려면 format(1M) 명령을 사용하십시오.

    metaset(1M) 명령을 사용하여 드라이브를 다시 분할할 때 디스크를 다시 분할하지 않도록 하려면 다음과 같은 조건이 필요합니다.

    • 실린더 0에서 시작하고 상태 데이터베이스 복제(약 2MB)가 포함될 만큼 큰 슬라이스 7을 만드십시오.

    • 슬라이스 7의 Flag 필드를 V_UNMT(마운트 해제 가능)로 설정하고 읽기 전용으로 설정하지는 마십시오.

    • 슬라이스 7이 디스크의 다른 슬라이스와 겹쳐지지 않도록 하십시오.

    자세한 내용은 format(1M) 설명서 페이지를 참조하십시오.

  3. md.tab 파일을 사용하여 메타 장치를 정의하십시오.

    "md.tab 파일을 만드는 방법"으로 이동하십시오.

md.tab 파일을 만드는 방법

클러스터의 각 노드에 /etc/lvm/md.tab 파일을 만드십시오. 만든 디스크 세트에 대한 메타 장치를 정의하려면 md.tab 파일을 사용하십시오.


주 -

로컬 메타 장치를 사용하는 경우에는 로컬 장치 이름이 디스크 세트를 만드는 데 사용한 DID(장치 ID) 이름과 구분되어야 합니다. 예를 들어, 디스크 세트에 DID 이름 /dev/did/dsk/d3가 사용되면 로컬 메타 장치 이름은 /dev/md/dsk/d3를 사용하지 마십시오. 이름 지정 규약 /dev/md/setname/{r}dsk/d#을 사용하는 공유 메타 장치에는 이 요구 조건이 적용되지 않습니다.



정보 -

클러스터 환경에서 로컬 메타 장치 사이의 혼동을 피하려면 전체 클러스터에서 각 로컬 메타 장치의 이름이 고유한 이름 지정 체계를 사용하십시오. 예를 들어, 노드 1에는 d100-d199 사이의 이름을 선택하고 노드 2에는 d200-d299 사이의 이름을 선택합니다.


  1. 클러스터 노드에 대하여 superuser가 되어야 합니다.

  2. md.tab 파일을 만들 때 DID 매핑을 표시하여 참조하십시오.

    하위 레벨 장치 이름(cNtXdY) 대신 md.tab 파일에 DID 의사 드라이버의 전체 이름을 사용하십시오.


    # scdidadm -L
    

    다음 예에서 출력되는 첫 번째 열은 DID 인스턴스 번호이고, 두 번째 열은 전체 경로(물리적 경로)이고, 세 번째 열은 DID 의사 드라이버의 전체 이름(의사 경로)입니다.


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    ...

  3. /etc/lvm/md.tab 파일을 만들고 원하는 텍스트 편집기를 사용하여 직접 파일을 편집하십시오.

    md.tab 파일을 만드는 방법은 Solstice DiskSuite 문서와 md.tab(4) 설명서 페이지를 참조하십시오.


    주 -

    하위 미러에 사용할 기존 데이터가 디스크에 있으면 메타 장치를 설정하기 전에 데이터를 백업하여 미러에 복원해야 합니다.


  4. md.tab 파일에 정의된 메타 장치를 활성화하십시오.

    "메타 장치를 활성화하는 방법"으로 이동하십시오.

예: md.tab 샘플 파일

다음 md.tab 샘플 파일은 이름이 dg-schost-1인 디스크 세트의 메타 장치를 정의합니다. md.tab 파일의 줄 순서는 중요하지 않습니다.


dg-schost-1/d0 -t dg-schost-1/d1 dg-schost-1/d4dg-schost-1/d1 -m dg-schost-1/d2dg-schost-1/d2 1 1 /dev/did/rdsk/d1s4
dg-schost-1/d3 1 1 /dev/did/rdsk/d55s4dg-schost-1/d4 -m dg-schost-1/d5dg-schost-1/d5 1 1 /dev/did/rdsk/d3s5
dg-schost-1/d6 1 1 /dev/did/rdsk/d57s5

md.tab 샘플 파일은 다음과 같이 구성되어 있습니다.

메타 장치를 활성화하는 방법

md.tab 파일에 정의된 메타 장치를 활성화하려면 이 절차를 수행하십시오.

  1. 클러스터 노드에 대하여 superuser가 되어야 합니다.

  2. md.tab 파일이 /etc/lvm 디렉토리에 있어야 합니다.

  3. 명령이 실행되는 노드의 디스크 세트에 대한 소유권이 있어야 합니다.

  4. 디스크 세트에 대한 소유권을 받으십시오.


    # metaset -s setname -t
    
    -s setname

    디스크 세트 이름을 지정합니다

    -t

    디스크 세트에 대한 소유권을 받습니다

  5. md.tab 파일에 정의된 디스크 세트의 메타 장치를 활성화합니다.


    # metainit -s setname -a
    
    -a

    md.tab 파일에 있는 모든 메타 장치를 활성화합니다.

  6. 각 마스터 및 로그 장치에 대하여 두 번째 하위 미러(submirror2)를 연결하십시오.

    md.tab 파일의 메타 장치가 활성화되면 마스터 및 로그 장치의 첫 번째 하위 미러(submirror1)만 연결되므로 submirror2는 직접 연결해야 합니다.


    # metattach mirror submirror2
    

  7. 클러스터의 각 디스크 세트에 대하여 단계 3부터 단계 6까지 반복하십시오.

    필요하면 디스크에 연결된 다른 노드에서 metainit(1M) 명령을 실행하십시오. 클러스터 쌍 토폴로지의 경우에는 모든 노드에서 디스크에 액세스할 수가 없기 때문에 이 단계가 필요합니다.

  8. 메타 장치의 상태를 확인하십시오.


    # metastat -s setname
    

    자세한 내용은 medstat(1M) 설명서 페이지를 참조하십시오.

  9. 클러스터에 정확하게 두 개의 디스크 포함과 두 개의 노드로 구성된 디스크 세트가 포함되어 있습니까?

예: md.tab 파일의 메타 장치 활성화

다음 예에서는 dg-schost-1 디스크 세트에 대하여 md.tab 파일에 정의된 모든 메타 장치가 활성화됩니다. 그런 다음 마스터 장치의 두 번째 하위 미러 dg-schost-1/d1과 로그 장치 dg-schost-1/d4가 활성화됩니다.


# metainit -s dg-schost-1 -a
# metattach dg-schost-1/d1 dg-schost-1/d3
# metattach dg-schost-1/d4 dg-schost-1/d6

Mediator 개요

mediator 또는 mediator 호스트는 mediator 데이터를 저장하는 클러스터 노드입니다. mediator 데이터는 다른 mediator의 위치에 대한 정보를 제공하고 데이터베이스 복제에 저장된 완결 계수와 동일한 완결 계수를 포함합니다. 이 완결 계수는 mediator 데이터가 데이터베이스 복제의 데이터와 동기화되어 있는지 확인하는 데 사용됩니다.

정확히 두 개의 디스크 문자열과 두 개의 클러스터 노드로 구성된 모든 Solstice DiskSuite 디스크 세트에 mediator가 필요합니다. 디스크 문자열은 디스크 포함, 포함된 물리적 디스크, 디스크 포함과 노드 사이의 케이블, 인터페이스 어댑터 카드 등으로 구성됩니다. mediator를 사용하면 이중 문자열 구성에서 단일 문자열이 실패할 경우에 Sun Cluster 소프트웨어가 최근 데이터를 유지할 수 있습니다. mediator를 사용하는 이중 문자열 구성에는 다음 규칙이 적용됩니다.

전체 클러스터에 정확히 두 개의 노드가 있어야 이 규칙이 충족되는 것은 아닙니다. 두 개의 디스크 문자열이 있는 디스크 세트가 정확히 두 개의 노드에 연결되기만 하면 됩니다. 이 규칙에 따라 N+1 클러스터 및 여러 가지 다른 토폴로지를 구성할 수 있습니다.

mediator 호스트를 추가하는 방법

구성에 mediator가 필요하면 다음 절차를 수행하십시오.

  1. mediator 호스트를 추가할 디스크 세트를 마스터하는 노드에 대하여 superuser가 되어야 합니다.

  2. metaset(1M) 명령을 실행하여 디스크 세트에 연결된 각 노드를 해당 디스크 세트의 mediator 호스트로 추가하십시오.


    # metaset -s setname -a -m mediator-host-list
    
    -s setname

    디스크 세트 이름을 지정합니다

    -a

    디스크 세트에 추가합니다

    -m mediator-host-list

    추가할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다.

    metaset 명령에 사용하는 mediator 관련 옵션에 대한 자세한 내용은 mediator(7) 설명서 페이지를 참조하십시오.

  3. mediator 데이터의 상태를 확인하십시오.

    "Mediator 데이터의 상태를 검사하는 방법"으로 이동하십시오.

예: mediator 호스트 추가

다음 예에서는 phys-schost-1phys-schost-2 노드를 dg-schost-1 디스크 세트의 mediator 호스트로 추가합니다. phys-schost-1 노드에서 다음 두 명령이 실행됩니다.


# metaset -s dg-schost-1 -a -m phys-schost-1
# metaset -s dg-schost-1 -a -m phys-schost-2

Mediator 데이터의 상태를 검사하는 방법

  1. "mediator 호스트를 추가하는 방법"의 설명에 따라 mediator 호스트를 추가하십시오.

  2. medstat 명령을 실행하십시오.


    # medstat -s setname
    
    -s setname

    디스크 세트 이름을 지정합니다

    자세한 내용은 medstat(1M) 설명서 페이지를 참조하십시오.

  3. Status 필드의 값이 Bad입니까?

잘못된 mediator 데이터를 복구하는 방법

잘못된 mediator 데이터를 복구하려면 다음 절차를 수행하십시오.

  1. "Mediator 데이터의 상태를 검사하는 방법" 절차의 설명에 따라 잘못된 mediator 데이터가 있는 mediator 호스트를 확인하십시오.

  2. 영향을 받은 디스크 세트가 있는 노드에 대하여 superuser가 되어야 합니다.

  3. 영향을 받은 모든 디스크 세트에서 잘못된 mediator 데이터가 있는 mediator 호스트를 제거하십시오.


    # metaset -s setname -d -m mediator-host-list
    
    -s setname

    디스크 세트 이름을 지정합니다

    -d

    디스크 세트에서 삭제합니다

    -m mediator-host-list

    제거할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다

  4. mediator 호스트를 복원하십시오.


    # metaset -s setname -a -m mediator-host-list
    
    -a

    디스크 세트에 추가합니다

    -m mediator-host-list

    추가할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다

    metaset 명령에 사용하는 mediator 관련 옵션에 대한 자세한 내용은 mediator(7) 설명서 페이지를 참조하십시오.

  5. 클러스터 파일 시스템을 만드십시오.

    "클러스터 파일 시스템 추가 방법"으로 이동하십시오.