Solaris OS용 Sun Cluster 시스템 관리 안내서

클러스터 파일 시스템 관리

클러스터 파일 시스템은 클러스터의 모든 노드에서 읽고 액세스할 수 있는 전역적으로 사용 가능한 파일 시스템입니다.

표 4–3 작업 맵: 클러스터 파일 시스템 관리

작업  

참고 항목  

처음 Sun Cluster 설치 후 클러스터 파일 시스템 추가  

- newfs(1M)mkdir 사용

클러스터 파일 시스템 추가 방법

클러스터 파일 시스템 제거  

- fuser(1M)umount(1M) 사용

클러스터 파일 시스템 제거 방법

노드 사이에 전역 마운트 지점의 일관성 확인  

- sccheck(1M) 사용

클러스터에서 전역 마운트를 확인하는 방법

클러스터 파일 시스템 추가 방법

처음 Sun Cluster를 설치한 후에 만드는 각 클러스터 파일 시스템에 대하여 이 작업을 수행하십시오.


주의 – 주의 –

정확한 디스크 장치 이름을 지정해야 합니다. 클러스터 파일 시스템을 만들면 디스크에 있는 데이터가 모두 삭제됩니다. 잘못된 장치 이름을 지정하면 지우지 않을 데이터가 삭제됩니다.


클러스터 파일 시스템을 추가하기 위한 사전 조건은 다음과 같습니다.

SunPlex Manger를 사용하여 데이터 서비스를 설치한 경우에 공유 디스크에 클러스터 파일 시스템을 만들 충분한 공간이 있었으면 이미 하나 이상의 클러스터 파일 시스템이 있습니다.

  1. 클러스터의 노드에서 수퍼유저가 됩니다.


    정보 –

    더 빨리 파일 시스템을 만들려면 파일 시스템을 만드는 전역 장치 기본에서 수퍼유저가 됩니다.


  2. newfs 명령을 사용하여 파일 시스템을 만듭니다.


    주 –

    newfs 명령은 새 UFS 파일 시스템을 만드는 데만 사용됩니다. 새 VxFS 파일 시스템을 만들려면 VxFS 설명서에 있는 절차를 수행하십시오.



    # newfs raw-disk-device
    

    다음 표는 raw-disk-device 인자 이름의 예입니다. 이름 지정 규칙은 볼륨 관리자마다 다릅니다.

    표 4–4 원시 디스크 장치 이름의 예

    볼륨 관리자  

    디스크 장치 이름  

    설명 

    Solstice DiskSuite/Solaris 볼륨 관리자 

    /dev/md/oracle/rdsk/d1

    oracle 디스크 세트에 포함된 원시 디스크 장치 d1

    SPARC: VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹에 포함된 원시 디스크 장치 vol01

    없음 

    /dev/global/rdsk/d1s3

    블록 슬라이스 d1s3에 대한 원시 디스크 장치

  3. 클러스터의 각 노드에서 클러스터 파일 시스템에 대한 마운트 지점 디렉토리를 만듭니다.

    해당 노드에서 클러스터 파일 시스템에 액세스하지 않더라도 각 노드에 마운트 지점이 필요합니다.


    정보 –

    관리 작업을 쉽게 하려면 /global/device-group 디렉토리에 마운트 지점을 만드십시오. 이 위치를 사용하면 로컬 파일 시스템에서 전역으로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    장치를 포함하는 장치 그룹의 이름에 해당되는 디렉토리 이름

    mountpoint

    클러스터 파일 시스템을 마운트할 디렉토리의 이름

  4. 클러스터의 각 노드에서 /etc/vfstab 파일에 마운트 지점에 대한 항목을 추가합니다.

    1. 다음 필수 마운트 옵션을 사용하십시오.


      주 –

      모든 클러스터 파일 시스템에 로깅이 필요합니다.


      • Solaris UFS 로깅 – global,logging 마운트 옵션을 사용합니다. UFS 마운트 옵션에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.


        주 –

        UFS 클러스터 파일 시스템에는 syncdir 마운트 옵션을 지정할 필요가 없습니다. syncdir 옵션을 지정하면 파일 시스템이 POSIX와 호환되도록 작동합니다. 이 옵션을 지정하지 않으면 UFS 파일 시스템에서와 동일하게 작동합니다. syncdir 옵션을 지정하지 않으면 데이터를 파일에 추가하는 경우처럼 디스크 블록을 할당하는 쓰기 성능이 크게 향상됩니다. 그러나 어떤 경우에는 syncdir을 사용하지 않으면 파일을 닫을 때까지 공간 부족 상태가 발견되지 않을 수 있습니다. syncdir을 지정하지 않아 문제가 발생할 가능성은 적습니다. syncdir(및 POSIX 호환 작동)을 사용하면 파일을 닫기 전에 공간 부족 상태가 발견됩니다.


      • Solstice DiskSuite/Solaris 볼륨 관리자 트랜스 메타 장치 또는 트랜잭션 볼륨 – logging 마운트 옵션은 사용하지 말고 global 마운트 옵션을 사용합니다. 트랜스 메타 장치 및 트랜잭션 볼륨 설정에 대한 자세한 내용은 Solstice DiskSuite/Solaris 볼륨 관리자 설명서를 참조하십시오.


        주 –

        이후의 Solaris 릴리스에서는 트랜잭션 볼륨이 Solaris 운영 환경에서 없어질 예정입니다. Solaris 8 릴리스에 처음 도입된 Solaris UFS 로깅은 보다 우수한 성능으로 동일한 기능을 제공할 뿐만 아니라 시스템 요구 사항과 오버헤드가 적습니다.


      • VxFS 로깅 – globallog 마운트 옵션을 사용합니다. 자세한 내용은 VxFS 소프트웨어와 함께 제공된 mount_vxfs 설명서 페이지를 참조하십시오.

    2. 클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.

    3. 각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.

    4. 각 노드의 /etc/vfstab 파일에 있는 장치 항목 순서가 동일한지 확인하십시오.

    5. 파일 시스템의 부트 순서 종속성을 확인하십시오.

      예를 들어, phys-schost-1/global/oracle의 디스크 장치 d0을 마운트하고 phys-schost-2/global/oracle/logs의 디스크 장치 d1을 마운트한다고 가정합니다. 이러한 구성에서는 phys-schost-1이 부트되어 /global/oracle을 마운트한 후에만 phys-schost-2가 부트하여 /global/oracle/logs를 마운트할 수 있습니다.

    자세한 내용은 vfstab(4) 설명서 페이지를 참조하십시오.

  5. 클러스터의 노드에서 마운트 지점이 있는지 그리고 /etc/vfstab 파일 항목이 클러스터의 모든 노드에서 올바른지 확인합니다.


    # sccheck
    

    오류가 없으면 아무 것도 반환되지 않습니다.

  6. 클러스터의 임의의 노드에서 클러스터 파일 시스템을 마운트합니다.


    # mount /global/device-group/mountpoint
    

  7. 클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되는지 확인합니다.

    df 또는 mount 명령을 사용하여 마운트된 파일 시스템을 표시할 수 있습니다.

    Sun Cluster 환경에서 VxFS 클러스터 파일 시스템을 관리하려면 VxFS 클러스터 파일 시스템이 마운트된 기본 노드에서만 관리 명령을 실행하십시오.

예—클러스터 파일 시스템 추가

다음 예에서는 Solstice DiskSuite/Solaris 볼륨 관리자 메타 장치 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 만듭니다.


# newfs /dev/md/oracle/rdsk/d1
...
 
[각 노드에서]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs  2    yes global,logging
[저장 및 종료]
 
[하나의 노드에서]
# sccheck
# mount /dev/md/oracle/dsk/d1 /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2001

클러스터 파일 시스템 제거 방법

클러스터 파일 시스템을 마운트 해제하여 제거합니다. 데이터도 제거하거나 삭제하려면 시스템에서 주요 디스크 장치(또는 메타 장치나 볼륨)를 제거하십시오.


주 –

scshutdown(1M)을 실행하여 전체 클러스터를 중지시키면 시스템이 종료될 때 클러스터 파일 시스템의 마운트가 자동으로 해제됩니다. 단일 노드를 중지하기 위해 shutdown 명령을 실행하면 클러스터 파일 시스템이 마운트되지 않습니다. 그러나 디스크에 연결된 노드가 현재 종료되는 노드 하나뿐인 경우에는 해당 디스크에 있는 클러스터 파일 시스템에 액세스하려고 하면 오류가 발생합니다.


클러스터 파일 시스템의 마운트를 해제하기 위한 사전 조건은 다음과 같습니다.

  1. 클러스터의 노드에서 수퍼유저가 됩니다.

  2. 마운트할 클러스터 파일 시스템을 결정합니다.


    # mount -v
    

  3. 각 노드마다 어떤 프로세스를 중지할 것인지 확인할 수 있도록 클러스터 파일 시스템을 사용하는 모든 프로세스를 나열합니다.


    # fuser -c [ -u ] mountpoint
    

    -c

    파일 시스템의 마운트 지점인 파일과 마운트된 파일 시스템 내의 모든 파일에 대하여 보고합니다.

    -u

    (옵션) 각 프로세스 ID에 대한 사용자 로그인 이름을 표시합니다.

    mountpoint

    프로세스를 중지시킬 클러스터 파일 시스템의 이름을 지정합니다.

  4. 각 노드에서 클러스터 파일 시스템에 대한 모든 프로세스를 중지시킵니다.

    원하는 방법을 사용하여 프로세스를 중지시키십시오. 필요한 경우 다음 명령을 사용하여 클러스터 파일 시스템과 관련된 프로세스를 강제로 종료하십시오.


    # fuser -c -k mountpoint
    

    클러스터 파일 시스템을 사용하는 각 프로세스에 SIGKILL 명령이 전달됩니다.

  5. 각 노드에서 파일 시스템을 사용하는 프로세스가 없는지 확인합니다.


    # fuser -c mountpoint
    

  6. 한 노드에서만 파일 시스템 마운트를 해제합니다.


    # umount mountpoint
    

    mountpoint

    마운트를 해제할 클러스터 파일 시스템의 이름을 지정합니다. 이것은 클러스터 파일 시스템이 마운트되는 디렉토리 이름 또는 파일 시스템의 장치 이름 경로일 수 있습니다.

  7. (옵션) /etc/vfstab 파일을 편집하여 제거 중인 클러스터 파일 시스템의 항목을 삭제합니다.

    /etc/vfstab 파일에 이 클러스터 파일 시스템에 대한 항목이 있는 각 클러스터 노드에서 이 단계를 수행하십시오.

  8. (옵션) 디스크 장치 group/metadevice/plex를 제거합니다.

    자세한 내용은 볼륨 관리자 설명서를 참조하십시오.

예—클러스터 파일 시스템 제거

다음 예에서는 Solstice DiskSuite/Solaris 볼륨 관리자 메타 장치 /dev/md/oracle/rdsk/d1에 마운트된 UFS 클러스터 파일 시스템을 제거합니다.


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(각 노드에서 강조 표시된 항목 제거)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
[저장 및 종료]

주 –

클러스터 파일 시스템의 데이터를 제거하려면 하부 장치를 제거하십시오. 자세한 내용은 볼륨 관리자 설명서를 참조하십시오.


클러스터에서 전역 마운트를 확인하는 방법

sccheck(1M) 유틸리티에서는 /etc/vfstab 파일의 클러스터 파일 시스템에 대한 항목 구문을 검증합니다. 오류가 없으면 아무 것도 반환되지 않습니다.


주 –

장치나 볼륨 관리 구성 요소에 영향을 미친 클러스터 파일 시스템을 제거하는 등 클러스터 구성을 변경한 후에는 sccheck를 실행합니다.


  1. 클러스터의 노드에서 수퍼유저가 됩니다.

  2. 클러스터 전역 마운트를 확인합니다.


     # sccheck