Sun Custer 3.0 5/02 추가 정보

클러스터 파일 시스템을 추가하는 방법(5/02)

단계 2, 단계 4단계 8이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 다음과 같이 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

추가하는 각 클러스터 파일 시스템에 대해 이 절차를 수행하십시오.


Caution - Caution -

파일 시스템을 만들면 디스크의 데이터가 모두 삭제됩니다. 정확한 디스크 장치 이름을 지정해야 합니다. 잘못된 장치 이름을 지정하면 지우려고 하지 않은 데이터가 삭제됩니다.


SunPlex Manager를 사용하여 데이터 서비스를 설치한 경우에 클러스터 파일 시스템을 만들 충분한 공유 디스크가 있었으면 이미 하나 이상의 클러스터 파일 시스템이 있습니다.

  1. 볼륨 관리자 소프트웨어를 설치하고 구성해야 합니다.

    볼륨 관리자 설치 절차는 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성"을 참조하십시오.

  2. VxFS(VERITAS File System) 소프트웨어를 설치하시겠습니까?

    • 아니면 단계 3으로 이동하십시오.

    • 그러면 다음 단계를 수행하십시오.

    1. VxFS 설치 문서의 절차에 따라 클러스터의 각 노드에 VxFS 소프트웨어를 설치하십시오.

    2. 각 노드의 /etc/system 파일에서 다음 항목에 대한 설정 값을 0x4000에서 0x6000으로 변경하십시오.


      set rpcmod:svc_default_stksize=0x6000

      Sun Cluster 소프트웨어를 실행하려면 기본 스택 크기를 0x6000 이상으로 설정해야 합니다. VxFS를 설치하면 이 설정이 0x4000으로 변경되기 때문에 VxFS를 설치한 후에 다시 0x6000으로 직접 변경해야 합니다.

  3. 클러스터의 노드에서 수퍼유저가 되십시오.


    정보 -

    더 빠르게 파일 시스템을 만들려면 파일 시스템을 만들 대상 글로벌 장치의 현재 1차 노드에서 수퍼유저가 되십시오.


  4. 파일 시스템을 만드십시오.

    • VxFS 파일 시스템의 경우에는 VxFS 문서에 있는 절차를 참조하십시오.

    • UFS 파일 시스템의 경우에는 newfs(1M) 명령을 사용하십시오.


      # newfs raw-disk-device
      

    다음 표는 raw-disk-device 인수에 사용되는 이름의 예입니다. 이름 지정 규약은 볼륨 관리자마다 다릅니다.

    표 4-3 원시 디스크 장치 이름의 예

    볼륨 관리자 

    디스크 장치 이름의 예 

    설명 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 디스크 세트에 있는 원시 디스크 장치 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹에 있는 원시 디스크 장치 vol01

    없음 

    /dev/global/rdsk/d1s3

    원시 디스크 장치 d1s3

  5. 클러스터의 각 노드에서 클러스터 파일 시스템에 대한 마운트 포인트 디렉토리를 만드십시오.

    클러스터 파일 시스템이 액세스되지 않는 각 노드에도 마운트 포인트가 필요합니다.


    정보 -

    관리 작업을 쉽게 하려면 /global/device-group 디렉토리에 마운트 포인트를 만드십시오. 이 위치를 사용하면 로컬 파일 시스템에서 글로벌로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    장치를 포함하는 장치 그룹의 이름에 해당하는 디렉토리 이름

    mountpoint

    클러스터 파일 시스템을 마운트할 디렉토리의 이름

  6. 클러스터의 각 노드에서 /etc/vfstab 파일에 마운트 포인트에 대한 항목을 추가하십시오.

    1. 다음과 같은 필수 마운트 옵션을 사용하십시오.

      모든 클러스터 파일 시스템에 로그 기록이 필요합니다.

      • Solaris UFS 로그 기록 - global,logging 마운트 옵션을 사용합니다. UFS 마운트 옵션에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.


        주 -

        UFS 클러스터 파일 시스템에는 syncdir 마운트 옵션을 지정할 필요가 없습니다. syncdir 옵션을 지정하면 파일 시스템이 write() 시스템 호출에 대하여 POSIX와 호환되도록 작동합니다. 즉 write() 명령이 성공하면 디스크에 공간이 있는 것으로 판단할 수 있습니다. syncdir 옵션을 지정하지 않으면 UFS 파일 시스템에서 보는 것처럼 작동합니다. syncdir 옵션을 지정하지 않으면 데이터를 파일에 추가하는 경우처럼 디스크 블록을 할당하는 쓰기 성능이 크게 향상됩니다. 그러나 syncdir 옵션을 지정하지 않으면 파일을 닫을 때까지 공간 부족 상태(ENOSPC)를 발견하지 못할 수 있습니다. 페일오버 이후에 아주 짧은 시간 동안에만 파일을 닫을 때 ENOSPC 상태를 볼 수 있습니다. syncdir(및 POSIX 호환 작동)을 사용하면 파일을 닫기 전에 공간 부족 상태가 발견됩니다.


      • Solstice DiskSuite 트랜스 메타 장치 - logging 마운트 옵션을 사용하지 않고 global 마운트 옵션을 사용합니다. 트랜스 메타 장치 설정 방법은 Solstice DiskSuite 문서를 참조하십시오.

      • VxFS 로그 기록 - global, log 마운트 옵션을 사용합니다. VxFS 마운트 옵션에 대한 자세한 내용은 mount_vxfs(1M) 설명서 페이지를 참조하십시오.

    2. 클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.

    3. 각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.

    4. 각 노드의 /etc/vfstab 파일에 있는 장치 항목 순서가 동일한지 확인하십시오.

    5. 파일 시스템의 부트 순서 의존성을 확인하십시오.

      예를 들어, phys-schost-1/global/oracle의 디스크 장치 d0을 마운트하고 phys-schost-2/global/oracle/logs의 디스크 장치 d1을 마운트한다고 가정합니다. 이러한 구성에서는 phys-schost-1이 부트되어 /global/oracle을 마운트한 후에만 phys-schost-2가 부트하여 /global/oracle/logs를 마운트할 수 있습니다.

    자세한 내용은 vfstab(4) 설명서 페이지를 참조하십시오.

  7. 클러스터의 노드에 마운트 포인트가 있는지 그리고 /etc/vfstab 파일 항목이 클러스터의 모든 노드에 대해 올바른지 확인하십시오.


    # sccheck
    

    오류가 발생하지 않으면 아무 것도 반환되지 않습니다.

  8. 클러스터의 임의의 노드에서 클러스터 파일 시스템을 마운트하십시오.


    # mount /global/device-group/mountpoint
    


    주 -

    VxFS(VERITAS File System)의 경우에는 현재 device-group의 마스터 노드에서 파일 시스템을 마운트해야 파일 시스템이 성공적으로 마운트됩니다. 또한, VxFS 파일 시스템 마운트를 해제할 때도 현재 device-group의 마스터 노드에서 파일 시스템 마운트를 해제해야 성공적으로 해제됩니다.


  9. 클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되었는지 확인하십시오.

    df(1M) 또는 mount(1M) 명령을 사용하여 마운트된 파일 시스템을 표시할 수 있습니다.

    Sun Cluster 환경에서 VxFS 클러스터 파일 시스템을 관리하려면 VxFS 클러스터 파일 시스템이 마운트된 1차 노드에서만 관리 명령을 실행하십시오.

  10. 클러스터 노드가 둘 이상의 공용 서브넷에 연결되어 있습니까?

    • 그러면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "추가 공용 네트워크 어댑터를 구성하는 방법"으로 이동하여 공용 네트워크 어댑터를 추가로 구성하십시오.

    • 아니면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "PNM(Public Network Management)을 구성하는 방법"으로 이동하여 PNM을 구성하고 NAFO 그룹을 설정하십시오.

예: 클러스터 파일 시스템 만들기

다음은 Solstice DiskSuite 메타 장치 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 만드는 예입니다.


# newfs /dev/md/oracle/rdsk/d1
...
 
(각 노드에서)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(저장하고 종료)
 
(한 노드에서)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000