Sun Cluster 3.0 시스템 관리 안내서

3.4.1 추가 클러스터 파일 시스템 추가

처음 Sun Cluster을 설치한 후 작성하는 각 클러스터 파일 시스템에 대해 이 작업을 수행하십시오.


주의 - 주의 -

올바른 디스크 디바이스 이름을 지정했는지 확인하십시오. 클러스터 파일 시스템을 작성하면 디스크에 있는 모든 데이터가 손상됩니다. 잘못된 디바이스 이름을 지정하면, 지우려고 하지 않은 데이터를 지우게 됩니다.


추가 클러스터 파일 시스템을 추가하기 위한 필수조건은 다음과 같습니다.

  1. 클러스터의 노드에 대해 수퍼유저가 되십시오.


    정보 -

    보다 빠른 파일 시스템 작성을 위해, 파일 시스템을 작성할 글로벌 디바이스의 현재 1차 디바이스에 대해 수퍼유저가 되십시오.


  2. newfs(1M) 명령을 사용하여 파일 시스템을 작성하십시오.


    # newfs raw-disk-device
    

    표 3-3에서는 raw-disk-device 인수의 이름에 대한 예를 보여줍니다. 이름 지정 규약이 각 볼륨 관리자에 대해 다르다는 것에 유의하십시오.

    표 3-3 샘플 원천 디스크 디바이스 이름

    볼륨 관리자가 ... 인 경우  

    디스크 디바이스 이름은 ... 일 수 있습니다... 

    설명 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 메타 세트 내의 원천 디스크 디바이스 d1.

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹 내의 원천 디스크 디바이스 vol01.

    없음 

    /dev/global/rdsk/d1s3

    블록 슬라이스 d1s3에 대한 원천 디스크 디바이스.

  3. 클러스터의 각 노드에서, 클러스터 파일 시스템에 대한 마운트 지점 디렉토리를 작성하십시오.

    마운트 지점은 클러스터 파일 시스템이 해당 노드에서 액세스되지 않는 경우에도 각 노드에서 필요합니다.


    # mkdir -p /global/device-group/mount-point
    
    device-group

    디바이스를 포함하는 디바이스 그룹의 이름과 일치하는 디렉토리의 이름.

    mount-point

    클러스터 파일 시스템을 마운트할 디렉토리의 이름.


    정보 -

    관리를 쉽게 하기 위해서는, /global/device-group 디렉토리에 마운트 지점을 작성하십시오. 이렇게 하면 전역에서 사용할 수 있는 클러스터 파일 시스템을 로컬 파일 시스템과 쉽게 구별할 수 있습니다.


  4. 클러스터의 각 노드에서, 마운트 지점에 대한 /etc/vfstab 파일에 항목을 추가하십시오.

    1. 클러스터 파일 시스템을 자동으로 마운트하려면, mount at boot 필드를 yes로 설정하십시오.

    2. 다음 필수 마운트 옵션을 사용하십시오.

      • global 마운트 옵션은 모든 클러스터 파일 시스템에 필요합니다. 이 옵션은 파일 시스템을 클러스터 파일 시스템으로 정의합니다.

      • 파일 시스템 로그 기록은 모든 클러스터 파일 시스템에 필요합니다. UFS 로그 기록은 Solstice DiskSuite metatrans 장치를 사용하거나 또는 직접 Solaris UFS 마운트 옵션을 사용하여 수행할 수 있습니다. 그러나, 이 두 접근이 결합될 수는 없습니다. 직접 Solaris UFS 로그 기록을 사용하는 경우, logging 마운트 옵션이 사용되어야 합니다. 그렇지 않고 metatrans 파일 시스템 로그 기록이 사용되는 경우, 추가 마운트 옵션이 필요하지 않습니다.

    3. 각 클러스터 파일 시스템의 경우, /etc/vfstab 항목에 있는 정보가 해당 항목을 갖고 있는 각 노드에 대해 동일한지 확인하십시오.

    4. 파일 시스템의 시동 순서 종속성에 주목하십시오.

      일반적으로, 클러스터 파일 시스템에 대해 마운트 포인트가 필요없습니다. 예를 들어, phys-schost-1/global/oracle에 있는 디스크 디바이스 d0을 마운트하고, phys-schost-2/global/oracle/logs에 있는 디스크 디바이스 d1을 마운트하는 시나리오를 고려해보십시오. 이 구성으로, phys-schost-2phys-schost-1이 시동되어 /global/oracle을 마운트한 후에만 시동되어 /global/oracle/logs를 마운트할 수 있습니다.

    5. 각 노드의 /etc/vfstab 파일에 있는 항목이 동일한 순서로 공통 디바이스를 나열하는지 확인하십시오.

      예를 들어 phys-schost-1phys-schost-2에 디바이스 d0, d1d2에 대한 실제 접속이 있는 경우, 각 /etc/vfstab 파일에 있는 항목은 d0, d1d2로 나열되어야 합니다.

    세부사항은 vfstab(4) 매뉴얼 페이지를 참조하십시오.

  5. 클러스터의 노드에 마운트 지점이 있는지와 /etc/vfstab 파일 항목이 클러스터의 모든 노드에 대해 올바른지 확인하십시오.


    # sccheck
    

    오류가 없으면, 아무 것도 리턴되지 않습니다.

  6. 클러스터의 노드에서, 클러스터 파일 시스템을 마운트하십시오.


    # mount /global/device-group/mount-point
    
  7. 클러스터의 각 노드에서, 클러스터 파일 시스템이 마운트되는지 확인하십시오.

    df(1M) 또는 mount(1M) 명령을 사용하여 마운트된 파일 시스템을 나열할 수 있습니다.

3.4.1.1 예제-클러스터 파일 시스템 추가

다음 예제에서는 Solstice DiskSuite 메타 디바이스 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 작성합니다.


# newfs /dev/md/oracle/rdsk/d1
...
 
[on each node:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device           device       mount   FS      fsck    mount   mount
#to mount        to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
[save and exit]
 
[on one node:]
# sccheck
 
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999