Sun Cluster 3.0 시스템 관리 안내서

3.4 클러스터 파일 시스템 관리

표 3-2 작업 맵: 클러스터 파일 시스템 관리

작업 

지시사항에 대해서는, ...로 이동하십시오 

초기 Sun Cluster 설치 후 클러스터 파일 시스템 추가 

- newfsmakedir를 사용하십시오.

"3.4.1 추가 클러스터 파일 시스템 추가"

클러스터 파일 시스템을 제거하십시오.  

- fuserumount를 사용하십시오.

"3.4.2 클러스터 파일 시스템 제거 방법"

노드간 일관성을 위해 글로벌 마운트 포인트를 확인하십시오.  

- sccheck를 사용하십시오.

"3.4.3 클러스터에서 글로벌 마운트 확인 방법"

3.4.1 추가 클러스터 파일 시스템 추가

처음 Sun Cluster을 설치한 후 작성하는 각 클러스터 파일 시스템에 대해 이 작업을 수행하십시오.


주의 - 주의 -

올바른 디스크 디바이스 이름을 지정했는지 확인하십시오. 클러스터 파일 시스템을 작성하면 디스크에 있는 모든 데이터가 손상됩니다. 잘못된 디바이스 이름을 지정하면, 지우려고 하지 않은 데이터를 지우게 됩니다.


추가 클러스터 파일 시스템을 추가하기 위한 필수조건은 다음과 같습니다.

  1. 클러스터의 노드에 대해 수퍼유저가 되십시오.


    정보 -

    보다 빠른 파일 시스템 작성을 위해, 파일 시스템을 작성할 글로벌 디바이스의 현재 1차 디바이스에 대해 수퍼유저가 되십시오.


  2. newfs(1M) 명령을 사용하여 파일 시스템을 작성하십시오.


    # newfs raw-disk-device
    

    표 3-3에서는 raw-disk-device 인수의 이름에 대한 예를 보여줍니다. 이름 지정 규약이 각 볼륨 관리자에 대해 다르다는 것에 유의하십시오.

    표 3-3 샘플 원천 디스크 디바이스 이름

    볼륨 관리자가 ... 인 경우  

    디스크 디바이스 이름은 ... 일 수 있습니다... 

    설명 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 메타 세트 내의 원천 디스크 디바이스 d1.

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹 내의 원천 디스크 디바이스 vol01.

    없음 

    /dev/global/rdsk/d1s3

    블록 슬라이스 d1s3에 대한 원천 디스크 디바이스.

  3. 클러스터의 각 노드에서, 클러스터 파일 시스템에 대한 마운트 지점 디렉토리를 작성하십시오.

    마운트 지점은 클러스터 파일 시스템이 해당 노드에서 액세스되지 않는 경우에도 각 노드에서 필요합니다.


    # mkdir -p /global/device-group/mount-point
    
    device-group

    디바이스를 포함하는 디바이스 그룹의 이름과 일치하는 디렉토리의 이름.

    mount-point

    클러스터 파일 시스템을 마운트할 디렉토리의 이름.


    정보 -

    관리를 쉽게 하기 위해서는, /global/device-group 디렉토리에 마운트 지점을 작성하십시오. 이렇게 하면 전역에서 사용할 수 있는 클러스터 파일 시스템을 로컬 파일 시스템과 쉽게 구별할 수 있습니다.


  4. 클러스터의 각 노드에서, 마운트 지점에 대한 /etc/vfstab 파일에 항목을 추가하십시오.

    1. 클러스터 파일 시스템을 자동으로 마운트하려면, mount at boot 필드를 yes로 설정하십시오.

    2. 다음 필수 마운트 옵션을 사용하십시오.

      • global 마운트 옵션은 모든 클러스터 파일 시스템에 필요합니다. 이 옵션은 파일 시스템을 클러스터 파일 시스템으로 정의합니다.

      • 파일 시스템 로그 기록은 모든 클러스터 파일 시스템에 필요합니다. UFS 로그 기록은 Solstice DiskSuite metatrans 장치를 사용하거나 또는 직접 Solaris UFS 마운트 옵션을 사용하여 수행할 수 있습니다. 그러나, 이 두 접근이 결합될 수는 없습니다. 직접 Solaris UFS 로그 기록을 사용하는 경우, logging 마운트 옵션이 사용되어야 합니다. 그렇지 않고 metatrans 파일 시스템 로그 기록이 사용되는 경우, 추가 마운트 옵션이 필요하지 않습니다.

    3. 각 클러스터 파일 시스템의 경우, /etc/vfstab 항목에 있는 정보가 해당 항목을 갖고 있는 각 노드에 대해 동일한지 확인하십시오.

    4. 파일 시스템의 시동 순서 종속성에 주목하십시오.

      일반적으로, 클러스터 파일 시스템에 대해 마운트 포인트가 필요없습니다. 예를 들어, phys-schost-1/global/oracle에 있는 디스크 디바이스 d0을 마운트하고, phys-schost-2/global/oracle/logs에 있는 디스크 디바이스 d1을 마운트하는 시나리오를 고려해보십시오. 이 구성으로, phys-schost-2phys-schost-1이 시동되어 /global/oracle을 마운트한 후에만 시동되어 /global/oracle/logs를 마운트할 수 있습니다.

    5. 각 노드의 /etc/vfstab 파일에 있는 항목이 동일한 순서로 공통 디바이스를 나열하는지 확인하십시오.

      예를 들어 phys-schost-1phys-schost-2에 디바이스 d0, d1d2에 대한 실제 접속이 있는 경우, 각 /etc/vfstab 파일에 있는 항목은 d0, d1d2로 나열되어야 합니다.

    세부사항은 vfstab(4) 매뉴얼 페이지를 참조하십시오.

  5. 클러스터의 노드에 마운트 지점이 있는지와 /etc/vfstab 파일 항목이 클러스터의 모든 노드에 대해 올바른지 확인하십시오.


    # sccheck
    

    오류가 없으면, 아무 것도 리턴되지 않습니다.

  6. 클러스터의 노드에서, 클러스터 파일 시스템을 마운트하십시오.


    # mount /global/device-group/mount-point
    
  7. 클러스터의 각 노드에서, 클러스터 파일 시스템이 마운트되는지 확인하십시오.

    df(1M) 또는 mount(1M) 명령을 사용하여 마운트된 파일 시스템을 나열할 수 있습니다.

3.4.1.1 예제-클러스터 파일 시스템 추가

다음 예제에서는 Solstice DiskSuite 메타 디바이스 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 작성합니다.


# newfs /dev/md/oracle/rdsk/d1
...
 
[on each node:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device           device       mount   FS      fsck    mount   mount
#to mount        to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
[save and exit]
 
[on one node:]
# sccheck
 
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999

3.4.2 클러스터 파일 시스템 제거 방법

단순히 클러스터 파일 시스템을 마운트 취소하여 이를 `제거'하십시오. 또한 데이터를 제거하거나 삭제하려는 경우, 시스템에서 주요 디스크 디바이스(또는 메타 디바이스 또는 볼륨)를 제거하십시오.


주 -

클러스터 파일 시스템은 scshutdown(1M)을 실행하여 전체 클러스터를 정지할 때 일어나는 시스템 종료의 일부로서 자동으로 마운트 취소됩니다. 클러스터 파일 시스템은 shutdown을 실행하여 단일 노드를 정지할 때 마운트 취소되지 않습니다. 그러나 시스템 종료되고 있는 노드가 디스크에 연결된 유일한 노드인 경우, 해당 디스크에 있는 클러스터 파일 시스템에 액세스하려는 모든 시도는 오류로 나타납니다.


클러스터 파일 시스템을 마운트 취소하기 위한 필수조건은 다음과 같습니다.

  1. 클러스터의 노드에 대해 수퍼유저가 되십시오.

  2. 마운트되는 클러스터 파일 시스템을 판별하십시오.


    # mount -v
    
  3. 각 노드에서, 클러스터 파일 시스템을 사용하고 있는 모든 프로세스를 나열하므로, 정지하려는 프로세스를 사용자가 알게 됩니다.


    # fuser -c [ -u ] mount-point
    
    -c

    파일 시스템 및 마운트된 해당 파일 시스템 내의 모든 파일에 대한 마운트 지점인 파일에 대해 보고합니다.

    -u

    (선택적) 각 프로세스 ID에 대한 사용자 로그인 이름을 표시합니다.

    mount-point

    프로세스를 정지하려는 클러스터 파일 시스템의 이름을 지정합니다.

  4. 각 노드에서, 클러스터 파일 시스템에 대한 모든 프로세스를 정지하십시오.

    프로세스 정지를 위해 선호되는 메소드를 사용하십시오. 필요할 경우, 다음 명령을 사용하여 클러스터 파일 시스템과 연관된 프로세스의 종료를 강제 실행하십시오.


    # fuser -c -k mount-point
    

    SIGKILL은 클러스터 파일 시스템을 사용하는 각 프로세스로 보내집니다.

  5. 각 노드에서 프로세스가 파일 시스템을 사용하고 있지 않은지 확인하십시오.


    # fuser -c mount-point
    
  6. 단지 한 노드에서, 파일 시스템을 마운트 취소하십시오.


    # umount mount-point
    
    mount-point

    마운트 취소하려는 클러스터 파일 시스템의 이름을 지정합니다. 이것은 클러스터 파일 시스템이 마운트되는 디렉토리 이름 또는 파일 시스템의 디바이스 이름 경로일 수 있습니다.

  7. (선택적) /etc/vfstab 파일을 편집하여 제거되고 있는 클러스터 파일 시스템에 대한 항목을 삭제하십시오.

    /etc/vfstab 파일에 있는 클러스터 파일 시스템의 항목이 있는 각 클러스터 노드에서 이 단계를 수행하십시오.

  8. (선택적) 디스크 디바이스 group/metadevice/plex를 제거하십시오.

    자세한 내용은 볼륨 관리자 문서를 참조하십시오.

3.4.2.1 예제-클러스터 파일 시스템 제거

다음 예제에서는 Solstice DiskSuite 메타 디바이스 /dev/md/oracle/rdsk/d1에서 UFS 클러스터 파일 시스템을 제거합니다.


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct  3 08:56:16 1999
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(on each node, remove the highlighted entry:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
[Save and exit.]

주 -

클러스터 파일 시스템의 데이터를 제거하려면, 주요 디바이스를 제거하십시오. 자세한 내용은 볼륨 관리자 문서를 참조하십시오.


3.4.3 클러스터에서 글로벌 마운트 확인 방법

sccheck(1M) 유틸리티는 /etc/vfstab 파일에 있는 클러스터 파일 시스템의 항목에 대한 구문을 확인합니다. 오류가 없으면, 아무 것도 리턴되지 않습니다.


주 -

디바이스 또는 볼륨 관리 구성요소에 영향을 준 클러스터 구성 변경(예: 클러스터 파일 시스템 제거)을 작성한 후 sccheck를 실행하십시오.


  1. 클러스터의 노드에 대해 수퍼유저가 되십시오.

  2. 클러스터 글로벌 마운트를 확인하십시오.


    # sccheck
    

3.4.4 디스크 디바이스 그룹에서 노드 제거 방법(Solstice DiskSuite)

이 프로시저를 사용하여 Solstice DiskSuite를 실행하는 디스크 디바이스 그룹(디스크 세트)에서 클러스터 노드를 제거하십시오.

  1. 제거될 노드가 멤버인 디스크 디바이스 그룹(들)을 판별하십시오.


    # scstat -D
    
  2. 노드를 제거하려는 디스크 디바이스 그룹을 현재 소유하는 노드에 대해 수퍼유저가 되십시오.

  3. 제거될 노드의 디스크 디바이스 그룹 호스트 이름을 삭제하십시오.

    제거될 노드에서 각 디스크 디바이스 그룹에 대해 이 단계를 반복하십시오.


    # metaset -s setname -d -f -h node
    
    -s setname

    디스크 디바이스 그룹(디스크 세트) 이름을 지정합니다

    -f

    강제 실행

    -d

    디스크 디바이스 그룹으로부터 삭제합니다

    -h nodelist

    디스크 디바이스 그룹을 제어할 수 있는 노드의 목록에서 노드를 제거합니다.


    주 -

    갱신은 완료하는데 몇 분이 걸릴 수 있습니다.


  4. 노드가 디스크 디바이스 그룹으로부터 제거되었는지 확인하십시오.

    디스크 디바이스 그룹 이름은 metaset로 지정된 디스크 세트 이름과 일치합니다.


    # scstat -D
    

3.4.4.1 예제-디스크 디바이스 그룹에서 노드 제거(SDS)

다음 예에서는 모든 디스크 디바이스 그룹(메타 세트)으로부터 호스트 이름을 제거하는 것을 보여주고 노드가 디스크 디바이스 그룹으로부터 제거되었는지 확인합니다. 예에서는 단일 디스크 디바이스 그룹 제거에 대해 보여주지만, 노드는 동시에 한 개 이상의 디스크 디바이스에 속할 수 있습니다. 노드를 제거하려는 각 디스크 디바이스 그룹에 대해 metaset 명령을 반복하십시오.


[Determine the disk device group(s) for the node:]
# scstat -D
  -- Device Group Servers --
                      Device Group  Primary       Secondary
                      ------------  -------       ---------
  Device group servers: dg-schost-1  phys-schost-1  phys-schost-2
[Become superuser.]
[Remove the hostname from all disk device groups:]
# metaset -s dg-schost-1 -d -f -h phys-schost-2
[Verify removal of the node:]
# scstat -D
  -- Device Group Servers --
                       Device Group  Primary       Secondary
                       ------------  -------       ---------
  Device group servers: dg-schost-1  phys-schost-1  -

3.4.5 디스크 디바이스 그룹에서 노드 제거 방법(VERITAS Volume Manager)

이 프로시저를 사용하여 VxVM(VERITAS Volume Manager)를 실행하는 기존 클러스터 디스크 디바이스 그룹(디스크 그룹)에서 클러스터 노드를 제거하십시오.

  1. 제거될 노드가 멤버인 디스크 디바이스 그룹을 판별하십시오.


    # scstat -D
    
  2. 현재 클러스터 멤버 노드에 대해 수퍼유저가 되십시오.

  3. scsetup 유틸리티를 실행하십시오.


    # scsetup
    

    기본 메뉴가 나타납니다.

  4. 3(디바이스 그룹 및 볼륨)을 입력하여 디스크 디바이스 그룹을 재구성하십시오.

  5. 5(VxVM 디바이스 그룹에서 노드 제거)를 입력하여 VxVM 디스크 디바이스 그룹에서 노드를 제거하십시오.

    프롬프트를 따라 디스크 디바이스 그룹에서 클러스터 노드를 제거하십시오. 다음에 대한 정보가 필요하게 됩니다.

    VxVM 디바이스 그룹

    노드 이름

  6. 노드가 VxVM 디스크 디바이스 그룹으로부터 제거되었는지 확인하십시오.


    # scstat -D	
      ...
      Device group name: devicegroupname
      Device group type: VxVM
      Device group failback enabled: no
      Device group node list: nodename
      Diskgroup name: diskgroupname
      ...

3.4.5.1 예제-디스크 디바이스 그룹에서 노드 제거(VxVM)

이 예에서는 dg1 VxVM 디스크 디바이스 그룹에서 phys-schost-4라는 노드를 제거하는 것을 보여줍니다.


[Determine the disk device group for the node:]
# scstat -D
  -- Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
  Device group servers: dg-schost-1  phys-schost-1  phys-schost-2
[Become superuser and execute the scsetup utility:]
# scsetup
[Select option 3:]
*** Main Menu ***
    Please select from one of the following options:
      ...
      3) Device groups and volumes
      ...
    Option: 3
[Select option 5:]
*** Device Groups Menu ***
    Please select from one of the following options:
      ...
      5) Remove a node from a VxVM device group
      ...
    Option:  5
[Answer the questions to remove the node:]
>>> Remove a Node from a VxVM Device Group <<<
    ...
    Is it okay to continue (yes/no) [yes]? yes
    ...
    Name of the VxVM device group from which you want to remove a node?  dg1
    Name of the node to remove from this group?  phys-schost-4
    Is it okay to proceed with the update (yes/no) [yes]? yes
 
scconf -r -D name=dg1,nodelist=phys-schost-4
 
    Command completed successfully.
    Hit ENTER to continue: 

[Quit the scsetup Device Groups Menu and Main Menu:]
    ...
    Option:  q
[Verify that the node was removed:]
# scstat -D
  ...
  Device group name: 		dg1
  Device group type: 	VxVM
  Device group failback enabled: 	no
  Device group node list: 	phys-schost-3
  Diskgroup name: 	dg1
  ...