Sun Cluster 3.0 설치 안내서

클러스터 파일 시스템 추가 방법

추가한 각 클러스터 파일 시스템에 대해 이 작업을 수행하십시오.


주의 - 주의 -

파일 시스템을 작성하면 디스크의 데이터가 소멸됩니다. 올바른 디스크 디바이스 이름을 지정하였는지 확인하십시오. 잘못된 디바이스 이름을 지정할 경우, 새로운 파일 시스템이 작성될 때 그 내용을 지웁니다.


  1. 클러스터의 노드에서 수퍼유저가 되어야 합니다.


    정보 -

    더 빠르게 파일 시스템을 작성하려면, 파일 시스템을 작성하는 글로벌 디바이스의 현재 1차 노드에서 수퍼유저가 되어야 합니다.


  2. newfs(1M) 명령을 사용하여 파일 시스템을 작성하십시오.


    # newfs raw-disk-device
    

    다음 테이블은 raw-disk-device 인수 이름의 예를 보여줍니다. 이름지정 규정은 각 볼륨 관리자마다 다릅니다.

    표 2-3 원래 디스크 디바이스 이름 샘플

    볼륨 관리자 

    디스크 디바이스 이름 샘플 

    설명 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 디스크세트 내의 원래 디스크 디바이스 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹 내의 원래 디스크 디바이스 vo101

    없음 

    /dev/global/rdsk/d1s3

    원래 디스크 디바이스 d1s3

  3. 각각의 클러스터 노드에서, 클러스터 파일 시스템마다 마운트 지점 디렉토리를 작성하십시오.

    마운트 지점은 클러스터 파일 시스템이 해당 노드에서 액세스되지 않을 경우에도 각 노드에서 필요합니다.


    # mkdir -p /global/device-group/mount-point
    
    device-group

    디바이스를 포함하는 디바이스 그룹의 이름에 해당되는 디렉토리 이름

    mount-point

    클러스터 파일 시스템을 마운트할 디렉토리 이름


    정보 -

    편리한 관리를 위해, /global/device-group 디렉토리에 마운트 지점을 작성하십시오. 이 위치는 클러스터 파일 시스템을 쉽게 구별할 수 있게 하고, 로컬 파일 시스템에서 글로벌로 사용가능합니다.


  4. 클러스터의 각 노드에서, 마운트 지점에 대해 항목을 /etc/vfstab 파일에 추가하십시오.


    주 -

    syncdir 마운트 옵션은 클러스터 파일 시스템에 대해 필수 옵션이 아닙니다. syncdir을 지정할 경우, POSIX를 준수하는 파일 시스템 동작이 보장됩니다. 그렇게 하지 않으면, UFS 파일 시스템에서와 같은 동작을 수반하게 됩니다. syncdir을 지정하지 않으면 데이터를 파일에 추가하는 것처럼, 디스크 블록을 할당하는 쓰기의 성능이 현저하게 향상될 수 있습니다. 그러나 일부 경우에 syncdir이 없으면, 파일을 닫을 때가지 공간 부족 상태를 발견하지 못합니다. syncdir을 지정하지 않을 경우, 문제점이 발생하는 경우가 거의 없습니다. syncdir(및 POSIX 동작)을 사용하면, 닫기 전에 공간 부족 상태가 발견되었을 것입니다.


    1. 클러스터 파일 시스템을 자동으로 마운트하려면, mount at boot 필드를 yes로 설정하십시오.

    2. 다음 필수 마운트 옵션을 사용하십시오.

      • Solaris UFS logging을 사용할 경우, global,logging 마운트 옵션을 사용하십시오.

      • 클러스터 파일 시스템이 Solstice DiskSuite trans 메타디바이스를 사용할 경우, global 마운트 옵션을 사용하십시오(logging 마운트 옵션을 사용하지 마십시오). trans 메타디바이스 설정에 대해서는 Solstice DiskSuite 문서를 참조하십시오


      주 -

      로그 기록은 모든 클러스터 파일 시스템에 필요합니다.


    3. 각 클러스터 파일 시스템에 대해, /etc/vfstab 항목의 정보가 각 노드에서 같은 지 확인하십시오.

    4. 파일 시스템의 시동 순서 종속성에 대해 확인하십시오.

      예를 들어, phys-schost-1이 디스크 디바이스 d0/global/oracle에 마운트하고, phys-schost-2가 디스크 디바이스 d1/global/oracle/logs에 마운트한다고 가정합니다. 이 구성에서, phys-schost-1이 시동되고 /global/oracle을 마운트한 후에만 phys-schost-2가 시동되고 /global/oracle/logs를 마운트할 수 있습니다.

    5. 각 노드의 /etc/vfstab 파일에 있는 항목들이 디바이스들을 동일한 순서대로 나열하는지 확인하십시오.

    세부사항은 vfstab(4) man 페이지를 참조하십시오.

  5. 클러스터의 임의의 노드에서, 마운트 지점이 존재하고 /etc/vfstab 파일 항목이 클러스터의 모든 노드에서 올바른지 확인하십시오.


    # sccheck
    

    어떤 오류도 발생하지 않으면, 어떤 것도 리턴되지 않습니다.

  6. 클러스터의 임의의 노드에서, 클러스터 파일 시스템을 마운트하십시오.


    # mount /global/device-group/mount-point
    
  7. 클러스터의 각 노드에서, 클러스터 파일 시스템이 마운트되었는지 확인하십시오.

    df(1M) 또는 mount(1M) 명령을 사용하여 마운트된 파일 시스템을 나열할 수 있습니다.

예-클러스터 파일 시스템 작성

다음 예는 Solstice DiskSuite 메타디바이스 /dev/md/oracle/rdsk/d1에서 UFS 클러스터 파일 시스템을 작성합니다.


# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node:)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node:)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999

이동해야 할 곳

클러스터 노드가 여러 개의 공용 서브넷에 연결되어 있는 경우, 추가 공용 네트워크 어댑터를 구성하려면 "추가 공용 네트워크 어댑터 구성 방법"로 이동하십시오.

그렇지 않고, PNM을 구성하고 NAFO 그룹을 설정하려면, "PNM(Public Network Management) 구성 방법"로 이동하십시오.