Sun Cluster 3.0 U1 시스템 관리 안내서

3.4.1 클러스터 파일 시스템을 추가하는 방법

처음 Sun Cluster를 설치한 후에 만드는 각 클러스터 파일 시스템에 대해 이 작업을 수행하십시오.


주의 - 주의 -

정확한 디스크 장치 이름을 지정해야 합니다. 클러스터 파일 시스템을 만들면 디스크에 있는 데이터가 모두 삭제됩니다. 잘못된 장치 이름을 지정하면 삭제하지 않을 데이터가 삭제됩니다.


클러스터 파일 시스템을 추가하기 위한 사전 조건은 다음과 같습니다.

  1. 클러스터의 노드에 대해 수퍼유저가 되십시오.


    정보 -

    더 빨리 파일 시스템을 만들려면 파일 시스템을 만드는 글로벌 장치 1차에 대하여 수퍼유저가 되십시오.


  2. newfs(1M) 명령을 사용하여 파일 시스템을 만드십시오.


    # newfs raw-disk-device
    

    다음 표는 raw-disk-device 인수 이름의 예입니다. 이름 지정 규약은 볼륨 관리자마다 다릅니다.

    표 3-3 샘플 원시 디스크 장치 이름

    볼륨 관리자 

    디스크 장치 이름 

    설명 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 디스크 세트에 포함된 원시 디스크 장치 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹에 포함된 원시 디스크 장치 vol01

    없음 

    /dev/global/rdsk/d1s3

    블록 슬라이스 d1s3에 대한 원시 디스크 장치

  3. 클러스터의 각 노드에서 클러스터 파일 시스템에 대한 마운트 포인트 디렉토리를 만드십시오.

    클러스터 파일 시스템이 액세스되지 않는 각 노드에도 마운트 포인트가 필요합니다.


    # mkdir -p /global/device-group/mount-point
    

    device-group

    장치를 포함하는 장치 그룹의 이름에 해당되는 디렉토리 이름

    mount-point

    클러스터 파일 시스템을 마운트할 디렉토리의 이름


    정보 -

    관리를 쉽게 하려면/global/device-group 디렉토리에 마운트 포인트를 만드십시오. 이 위치를 사용하면 로컬 파일 시스템에서 글로벌로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.


  4. 클러스터의 각 노드에서 마운트 포인트에 대한 항목을 /etc/vfstab 파일에 추가하십시오.

    1. 다음 필수 마운트 옵션을 사용하십시오.


      주 -

      로그 기록은 모든 클러스터 파일 시스템에 필요합니다.


      • Solaris UFS logging - global,logging 마운트 옵션을 사용합니다. UFS 마운트 옵션에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.


        주 -

        UFS 클러스터 파일 시스템에는syncdir 마운트 옵션을 지정할 필요가 없습니다. syncdir옵션을 지정하면 파일 시스템이 POSIX와 호환되도록 작동합니다. 이 옵션을 지정하지 않으면 UFS 파일 시스템에서 보는 것처럼 작동합니다. syncdir옵션을 지정하지 않으면 데이터를 파일에 추가하는 경우처럼 디스크 블록을 할당하는 쓰기 성능이 크게 향상됩니다. 그러나 syncdir옵션을 지정하지 않으면 파일을 닫을 때까지 공간 부족 상태를 발견하지 못할 수 있습니다. syncdir옵션을 지정하지 않아서 문제가 발생하는 경우는 거의 없습니다. syncdir(및 POSIX 동작)을 사용하면 파일을 닫기 전에 공간 부족 상태가 발견됩니다.


      • Solstice DiskSuite trans metadevice - logging 마운트 옵션을 사용하지 않고 global 마운트 옵션을 사용합니다. 트랜스 메타 장치 설정 방법은 Solstice DiskSuite 문서를 참조하십시오

    2. 클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.

    3. 각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.

    4. 각 노드의 /etc/vfstab 파일에 있는 항목에 표시된 장치의 순서가 동일한지 확인하십시오.

    5. 파일 시스템의 부트 순서 종속성을 확인하십시오.

      예를 들어, phys-schost-1가 디스크 장치 d0/global/oracle에 마운트하고 phys-schost-2이 디스크 장치 d1/global/oracle/logs에 마운트한다고 가정합니다. 이러한 구성에서는 phys-schost-1이 부트되어 /global/oracle을 마운트한 후에만 phys-schost-2가 부트하여 /global/oracle/logs를 마운트할 수 있습니다.

    자세한 내용은 vfstab(4) 설명서 페이지를 참조하십시오.

  5. 클러스터의 노드에 마운트 포인트가 있는지 그리고 /etc/vfstab 파일 항목이 클러스터의 모든 노드에 대해 올바른지 확인하십시오.


    # sccheck
    

    오류가 없으면 아무 것도 반환되지 않습니다.

  6. 클러스터의 임의의 노드에서 클러스터 파일 시스템을 마운트하십시오.


    # mount /global/device-group/mount-point
    

  7. 클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되는지 확인하십시오.

    df(1M) 또는 mount(1M) 명령을 사용하여 마운트된 파일 시스템을 표시할 수 있습니다.

3.4.1.1 예: 클러스터 파일 시스템 추가

다음 예에서는 Solstice DiskSuite 메타 장치 /dev/md/oracle/rdsk/d1에 UFS 파일 시스템을 만듭니다.


# newfs /dev/md/oracle/rdsk/d1
...
 
[on each node:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount         mount
#to mount              to fsck                point           type pass  at boot     options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs  2    yes       global,logging
[save and exit]
 
[on one node:]
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun May 3 08:56:16 2001