만들려는 클러스터 파일 시스템마다 이 절차를 수행합니다. 로컬 파일 시스템과 달리 클러스터 파일 시스템은 클러스터의 모든 노드에서 액세스할 수 있습니다. SunPlex Installer를 사용하여 데이터 서비스를 설치한 경우 SunPlex Installer가 하나 이상의 클러스터 파일 시스템을 이미 만들었을 수 있습니다.
파일 시스템을 만들면 디스크의 데이터가 모두 삭제됩니다. 정확한 디스크 장치 이름을 지정해야 합니다. 잘못된 장치 이름을 지정하면 삭제하지 말아야 할 데이터가 삭제됩니다.
다음 작업을 수행합니다.
볼륨 관리자 소프트웨어를 설치하고 구성해야 합니다. 볼륨 관리자 설치 절차는 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 또는 SPARC: VxVM 소프트웨어 설치 및 구성을 참조하십시오.
만들려는 각 클러스터 파일 시스템에서 사용할 마운트 옵션을 결정합니다. 다음 표에 설명된 Sun Cluster 마운트 옵션 요구 사항 및 제한 사항을 준수하십시오.
UFS 마운트 옵션에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.
Sun StorEdge QFS 공유 파일 시스템용 마운트 매개 변수
마운트 매개 변수 |
설명 |
---|---|
shared |
필수. 이 옵션은 이 시스템이 공유 파일 시스템이기 때문에 클러스터의 모든 노드에 전역적으로 표시됨을 지정합니다. |
/etc/vfstab 파일의 설정이 /etc/opt/SUNWsamfs/samfs.cmd 파일의 설정과 충돌하지 않아야 합니다. /etc/vfstab 파일의 설정이 /etc/opt/SUNWsamfs/samfs.cmd 파일의 설정을 대체합니다.
QFS 마운트 매개 변수에 대한 자세한 내용은 mount_samfs(1M) 설명서 페이지를 참조하십시오.
Sun Cluster Support for Oracle Real Application Clusters와 같은 특정 데이터 서비스에는 QFS 마운트 매개 변수에 대한 추가 요구 사항과 지침이 있습니다. 추가 요구 사항은 해당 데이터 서비스 설명서를 참조하십시오.
/etc/vfstab 마운트 매개 변수로 로깅이 활성화되지 않았고 Sun Cluster 소프트웨어에 QFS 공유 파일 시스템 로깅이 필요하지 않습니다.
마운트 옵션 |
설명 |
---|---|
global |
필수. 이 옵션은 파일 시스템이 클러스터의 모든 노드에서 전역으로 볼 수 있게 합니다. |
log |
필수. 이 옵션은 로깅을 활성화합니다. |
VxFS 마운트 옵션에 대한 자세한 내용은 VxFS mount_vxfs 설명서 페이지 및 Solaris OS용 Sun Cluster 시스템 관리 안내서의 클러스터 파일 시스템 관리 개요를 참조하십시오.
클러스터의 노드에서 수퍼유저가 됩니다.
더 빨리 파일 시스템을 만들려면 파일 시스템을 만드는 현재 기본 전역 장치에서 수퍼유저가 됩니다.
파일 시스템을 만드십시오.
UFS 파일 시스템의 경우에는 newfs(1M) 명령을 사용합니다.
# newfs raw-disk-device |
다음 표는 raw-disk-device 인자 이름의 예입니다. 이름 지정 규칙은 볼륨 관리자마다 다릅니다.
볼륨 관리자 |
디스크 장치 이름 샘플 |
설명 |
---|---|---|
Solstice DiskSuite 또는 Solaris 볼륨 관리자 |
/dev/md/nfs/rdsk/d1 |
nfs 디스크 세트에 있는 원시 디스크 장치 d1 |
SPARC: VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 디스크 그룹에 있는 원시 디스크 장치 vol01 |
없음 |
/dev/global/rdsk/d1s3 |
원시 디스크 장치 d1s3 |
Sun StorEdge QFS 파일 시스템에서는 Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide의 구성 정의 절차를 수행합니다.
SPARC: VERITAS File System(VxFS) 파일 시스템의 경우 VxFS 설명서에 있는 절차를 따르십시오.
클러스터의 각 노드에서 클러스터 파일 시스템에 대해 마운트 지점 디렉토리를 만듭니다.
클러스터 파일 시스템이 액세스되지 않는 각 노드에도 마운트 지점이 필요합니다.
손쉽게 관리하려면 /global/device-group/ 디렉토리에 마운트 포인트를 만듭니다. 이 위치를 사용하면 로컬 파일 시스템에서 전역으로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.
# mkdir -p /global/device-group/mountpoint/ |
장치를 포함하는 장치 그룹의 이름에 해당하는 디렉토리 이름
클러스터 파일 시스템을 마운트할 디렉토리 이름
클러스터의 각 노드에서 /etc/vfstab 파일에 마운트 포인트에 대한 항목을 추가하십시오.
자세한 내용은 vfstab(4) 설명서 페이지를 참조하십시오.
각 항목에서 사용하는 파일 시스템 유형에 대한 필수 마운트 옵션을 지정합니다.
Solstice DiskSuite 트랜잭션 메타 장치 또는 Solaris 볼륨 관리자 트랜잭션 볼륨에 대해서는 logging 마운트 옵션을 사용하지 마십시오. 트랜잭션 메타 장치 및 트랜잭션 볼륨은 자체 로깅을 제공합니다.
또한, Solaris 볼륨 관리자 transactional-volume logging(이전의 Solstice DiskSuite trans-metadevice logging)은 앞으로 발표될 Solaris 릴리스부터는 Solaris OS에서 제거될 예정입니다. Solaris UFS logging은 시스템 관리 요구 사항과 오버헤드는 줄이면서 기능은 동일하지만 보다 우수한 성능을 제공합니다.
클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.
각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.
각 노드의 /etc/vfstab 파일에 있는 장치 항목 순서가 동일한지 확인하십시오.
파일 시스템의 부트 순서 종속성을 확인하십시오.
예를 들어, phys-schost-1이 /global/oracle/의 디스크 장치 d0을 마운트하고 phys-schost-2가 /global/oracle/logs/의 디스크 장치 d1을 마운트한다고 가정합니다. 이러한 구성에서는 phys-schost-1이 부트되어 /global/oracle/을 마운트한 후에만 phys-schost-2가 부트되어 /global/oracle/logs/를 마운트할 수 있습니다.
클러스터에 포함된 임의의 노드에서 sccheck(1M) 유틸리티를 실행합니다.
sccheck 유틸리티는 마운트 지점이 있는지 확인합니다. 또한 /etc/vfstab 파일 항목이 클러스터의 모든 노드에서 올바른지 확인합니다.
# sccheck |
오류가 발생하지 않으면 아무 것도 반환되지 않습니다.
클러스터 파일 시스템을 마운트합니다.
# mount /global/device-group/mountpoint/ |
UFS 및 QFS의 경우 클러스터의 노드에서 클러스터 파일 시스템을 마운트합니다.
SPARC: VxFS의 경우, device-group의 현재 마스터에서 클러스터 파일 시스템을 마운트하여 파일 시스템이 성공적으로 마운트되는지 확인합니다. 또한, VxFS 파일 시스템을 마운트 해제할 때도 현재 device-group의 마스터 노드에서 파일 시스템을 마운트 해제해야 성공적으로 마운트 해제됩니다.
Sun Cluster 환경에서 VxFS 클러스터 파일 시스템을 관리하려면 VxFS 클러스터 파일 시스템이 마운트되는 기본 노드에서만 관리 명령을 실행하십시오.
클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되는지 확인합니다.
다음은 Solstice DiskSuite 메타 장치 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 만드는 예입니다.
# newfs /dev/md/oracle/rdsk/d1 … (on each node) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |
Solaris 8 OS에서 Sun Cluster 소프트웨어를 설치했거나 SunPlex Installer을 사용하여 클러스터를 설치할 경우, Internet Protocol (IP) Network Multipathing 그룹을 구성하는 방법으로 이동합니다.
개인 호스트 이름을 변경하려면 개인 호스트 이름을 변경하는 방법으로 이동합니다.
Sun Cluster 소프트웨어를 설치하기 전에 사용자 고유의 /etc/inet/ntp.conf 파일을 설치하지 않은 경우 NTP 구성 파일을 설치하거나 만듭니다. NTP(Network Time Protocol)를 구성하는 방법으로 이동합니다.
SPARC: 클러스터를 모니터하도록 Sun Management Center를 구성하려면 SPARC: Sun Management Center용 Sun Cluster 모듈 설치로 이동합니다.
그렇지 않으면 타사 회사 응용 프로그램을 설치하고 자원 유형을 등록한 다음 자원 그룹을 설정하고 데이터 서비스를 구성합니다. Sun Cluster Data Services Planning and Administration Guide for Solaris OS 및 응용 프로그램 소프트웨어와 함께 제공된 설명서의 절차를 수행합니다.