Oracle Hierarchical Storage Manager and StorageTek QFS Software 고가용성 구성은 무중단 파일 시스템 및 아카이빙 서비스를 유지 관리하도록 설계되었습니다. 고가용성 솔루션에서 Oracle Hierarchical Storage Manager 또는 QFS 소프트웨어는 Oracle Solaris Cluster 소프트웨어, 중복 하드웨어 및 중복 통신과 통합되어 있습니다. 따라서 호스트 시스템 또는 구성 요소가 실패하거나 관리자에 의해 서비스가 중단된 경우 Oracle HSM 서비스는 사용자 및 응용 프로그램이 액세스할 수 있는 대체 호스트로 자동으로 페일오버됩니다. 따라서 고가용성 구성은 장비 및 시스템 오류로 인한 작동 중지 시간을 최소화합니다.
고가용성 구성은 복잡하지만 예측할 수 없는 상호 작용과 잠재적인 데이터 손상을 방지하도록 신중하게 설계 및 배치해야 합니다. 따라서 이 장에서는 지원되는 구성 설명부터 시작합니다. 이 절을 학습하고 나서 가용성 요구 사항에 가장 적합한 구성을 선택합니다. 그런 다음 이후의 절에서는 선택한 구성을 설정하는 방법에 대해 설명합니다.
공유 Oracle Solaris Cluster 구성에서 하드웨어 아키텍처를 혼합할 수 없습니다. 모든 노드는 SPARC 아키텍처, x86-64 아키텍처(Solaris 11.1 전용) 또는 32비트 x86 아키텍처(Solaris 10 이전)를 사용해야 합니다.
클러스터화된 다중 호스트 솔루션에서는 저장된 데이터의 무결성을 보장하기 위해 파일 시스템, 응용 프로그램, 운영체제, 클러스터링 소프트웨어 및 스토리지 간의 상호 작용을 신중하게 제어해야 합니다. 따라서 복잡성 및 잠재적 위험을 최소화하기 위해 4가지 특정 배치 요구 사항 세트에 맞게 지원되는 고가용성 Oracle HSM 구성이 제공됩니다.
HA-QFS(고가용성 QFS) 구성은 호스트 오류가 발생한 경우에도 QFS 비공유 독립형 파일 시스템을 계속 액세스할 수 있게 합니다. 파일 시스템은 Solaris Cluster 소프트웨어가 SUNW.HAStoragePlus
유형의 리소스로 관리하는 2노드 클러스터에서 두 노드 모두에 구성됩니다. 그러나 특정 시점에 하나의 노드만 QFS 파일 시스템을 마운트합니다. 파일 시스템을 마운트하는 노드가 실패할 경우 클러스터링 소프트웨어는 페일오버를 자동으로 시작하고 나머지 노드에 파일 시스템을 다시 마운트합니다.
클라이언트는 활성 클러스터 노드를 파일 서버로 사용하여 NFS(네트워크 파일 시스템), HA-NFS(고가용성 NFS) 또는 SMB/CIFS 공유를 통해 데이터에 액세스합니다.
구현 지침은 고가용성 QFS 비공유 파일 시스템을 참조하십시오.
HA-COTC(High Availability-Clients Outside the Cluster) 구성은 서버가 실패한 경우에도 QFS 파일 시스템 클라이언트가 해당 데이터에 계속 액세스할 수 있도록 QFS 메타데이터 서버의 가용성을 유지 관리합니다. 파일 시스템은 공유됩니다. QFS 활성/잠재적 메타데이터 서버는 Solaris Cluster 소프트웨어가 관리하는 2노드 클러스터에서 호스트됩니다. SUNW.qfs
유형의 Oracle HSM 고가용성 리소스는 클러스터 내의 공유 파일 시스템 서버에 대한 페일오버를 관리합니다. 모든 클라이언트는 클러스터 외부에서 호스팅됩니다. 클러스터화된 서버는 메타데이터의 가용성을 보장하고 I/O 라이센스를 발행하며 파일 시스템의 일관성을 유지 관리합니다.
활성 메타데이터 서버를 호스팅하는 노드가 실패할 경우 Solaris Cluster 소프트웨어는 정상적인 노드에서 잠재적 MDS를 자동으로 활성화하고 페일오버를 시작합니다. QFS 파일 시스템은 공유되므로 새로 활성화된 메타데이터 서버에 이미 마운트되어 있고 클라이언트에 마운트된 상태로 남아 있습니다. 클라이언트는 계속해서 메타데이터 업데이트 및 I/O 임대를 수신하므로 파일 시스템이 중단 없이 계속될 수 있습니다.
HA-COTC 구성에서는 물리적으로 별개인 mm
메타데이터 장치 및 mr
데이터 장치가 있는 고성능 ma
파일 시스템을 사용해야 합니다. 범용 ms
파일 시스템 및 md
장치는 지원되지 않습니다.
표준 NFS(네트워크 파일 시스템) 또는 SMB/CIFS를 사용하여 Oracle HSM을 실행하지 않는 클라이언트와 HA-COTC 파일 시스템을 공유할 수 있습니다. 그러나 HA-NFS는 지원되지 않습니다.
구현 지침은 고가용성 QFS 공유 파일 시스템, 클러스터 외부의 클라이언트를 참조하십시오.
HA-SAM(High-Availability Oracle Hierarchical Storage Manager) 구성은 서버 호스트가 실패한 경우에도 QFS 메타데이터 서버 및 Oracle Hierarchical Storage Manager 응용 프로그램이 계속 작동하도록 보장하여 아카이빙 파일 시스템의 가용성을 유지 관리합니다. 파일 시스템은 Solaris Cluster 소프트웨어가 관리하는 2노드 클러스터에서 호스트되는 활성/잠재적 QFS 메타데이터 서버 간에 공유됩니다. SUNW.qfs
유형의 Oracle HSM 고가용성 리소스는 서버에 대한 페일오버를 관리합니다.
활성 Oracle HSM 메타데이터 서버 노드가 실패할 경우 클러스터링 소프트웨어는 잠재적 메타데이터 서버 노드를 자동으로 활성화하고 페일오버를 시작합니다. QFS 파일 시스템이 공유되고 이미 모든 노드에 마운트되어 있으므로 데이터 및 메타데이터에 중단 없이 계속 액세스할 수 있습니다.
클라이언트는 활성 클러스터 노드를 파일 서버로 사용하여 HA-NFS(고가용성 네트워크 파일 시스템), NFS 또는 SMB/CIFS 공유를 통해 데이터에 액세스합니다.
구현 지침은 고가용성 Oracle HSM 공유 아카이빙 파일 시스템 을 참조하십시오.
SC-RAC(Solaris Cluster-Oracle Real Application Cluster) 구성은 QFS 파일 시스템을 사용하는 고가용성 데이터베이스 솔루션을 지원합니다. RAC 소프트웨어는 I/O 요청을 조정하고 작업 로드를 분배하며 클러스터의 노드에서 실행되는 여러 Oracle 데이터베이스 인스턴스에 대한 일관된 단일 데이터베이스 파일 세트를 유지 관리합니다. SC-RAC 구성에서 Oracle 데이터베이스, Oracle RAC(Real Application Cluster) 및 QFS 소프트웨어는 클러스터에 있는 둘 이상의 노드에서 실행됩니다. Solaris Cluster 소프트웨어는 클러스터를 SUNW.qfs
유형의 리소스로 관리합니다. 하나의 노드가 QFS 공유 파일 시스템의 MDS(메타데이터 서버)로 구성됩니다. 나머지 노드는 파일 시스템을 클라이언트로 공유하는 잠재적 메타데이터 서버로 구성됩니다. 활성 메타데이터 서버 노드가 실패할 경우 Solaris Cluster 소프트웨어는 정상적인 노드에서 잠재적 메타데이터 서버를 자동으로 활성화하고 페일오버를 시작합니다. QFS 파일 시스템이 공유되고 이미 모든 노드에 마운트되어 있으므로 데이터에 중단 없이 계속 액세스할 수 있습니다.
HA-QFS(고가용성 QFS) 파일 시스템을 구성하려면 SUNW.HAStoragePlus
유형의 리소스로 관리되는 2노드 Solaris Cluster에서 동일한 호스트 2개를 설정합니다. 그런 다음 두 노드 모두에서 QFS 비공유 파일 시스템을 구성합니다. 특정 시점에 하나의 노드만 파일 시스템을 마운트합니다. 그러나 하나의 노드가 실패할 경우 클러스터링 소프트웨어는 페일오버를 자동으로 시작하고 작동 중인 노드에 파일 시스템을 다시 마운트합니다.
HA-QFS(고가용성 QFS) 파일 시스템을 설정하려면 다음과 같이 하십시오.
필요한 경우 HA-NFS(고가용성 네트워크 파일 시스템) 공유 구성
HA-NFS 설정에 대한 자세한 지침은 Oracle Solaris Cluster 온라인 설명서 라이브러리에 포함된 Oracle Solaris Cluster Data Service for Network File System (NFS) Guide에 나와 있습니다.
클러스터 노드 중 하나에 root
로 로그인합니다.
예제에서는 호스트가 qfs1mds-node1
및 qfs1mds-node2
입니다. qfs1mds-node1
호스트에 로그인합니다.
[qfs1mds-node1]root@solaris:~#
원하는 QFS 파일 시스템을 호스트에서 구성합니다(마운트하지는 않음).
범용 ms
파일 시스템 구성 또는 고성능 ma
파일 시스템 구성의 지침에 따라 파일 시스템을 구성합니다. HA-QFS 구성은 QFS 공유 파일 시스템을 지원하지 않습니다.
나머지 클러스터 노드에 root
로 로그인합니다.
예제에서는 ssh
를 사용하여 qfs1mds-node2
호스트에 로그인합니다.
[qfs1mds-node1]root@solaris:~# ssh root@qfs1mds-node2 Password: [qfs1mds-node2]root@solaris:~#
두번째 노드에서 동일한 QFS 파일 시스템을 구성합니다.
이제 고가용성 QFS 파일 시스템 구성을 수행합니다.
다음과 같이 하십시오.
클러스터 노드 중 하나에 root
로 로그인합니다.
예제에서는 호스트가 qfs1mds-node1
및 qfs1mds-node2
입니다. qfs1mds-node1
호스트에 로그인합니다.
[qfs1mds-node1]root@solaris:~#
아직 정의하지 않은 경우 Solaris Cluster 소프트웨어에 대한 SUNW.HAStoragePlus
리소스 유형을 정의합니다. clresourcetype
register
SUNW.HAStoragePlus
명령을 사용합니다.
HAStoragePlus
는 디스크 장치 그룹, 클러스터 파일 시스템 및 로컬 파일 시스템 간의 종속성을 정의 및 관리하는 Solaris Cluster 리소스 유형입니다. 이 리소스 유형은 페일오버 이후 데이터 서비스의 시작을 조정하여 서비스를 다시 시작하려고 할 때 필요한 모든 구성 요소가 준비되도록 합니다. 자세한 내용은 SUNW.HAStoragePlus
매뉴얼 페이지를 참조하십시오.
[qfs1mds-node1]root@solaris:~# clresourcetype register SUNW.HAStoragePlus [qfs1mds-node1]root@solaris:~#
SUNW.HAStoragePlus
유형의 새 Solaris Cluster 리소스와 이를 포함할 새 리소스 그룹을 만듭니다. /usr/global/bin/clresource
create
-g
resource-group
-t
SUNW.HAStoragePlus
-x
FilesystemMountPoints=/global/
mount-point
-x
FilesystemCheckCommand=/bin/true
QFS-resource
명령을 사용합니다. 설명:
resource-group
은 파일 시스템 리소스 그룹에 사용하도록 선택한 이름입니다.
mount-point
는 QFS 파일 시스템이 마운트되는 디렉토리입니다.
QFS-resource
는 SUNW.HAStoragePlus
리소스에 사용하도록 선택한 이름입니다.
예제에서는 마운트 지점 디렉토리 /global/qfs1
및 SUNW.HAStoragePlus
리소스 haqfs
가 있는 리소스 그룹 qfsrg
를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[qfs1mds-node1]root@solaris:~# clresource create -g qfsrg -t SUNW.HAStoragePlus \ -x FilesystemMountPoints=/global/hsmqfs1/qfs1 \ -x FilesystemCheckCommand=/bin/true haqfs [qfs1mds-node1]root@solaris:~#
클러스터의 노드를 표시합니다. clresourcegroup
status
명령을 사용합니다.
예제에서는 QFS 파일 시스템 호스트 노드가 qfs1mds-1
및 qfs1mds-2
입니다. qfs1mds-1
노드는 Online
상태이므로 파일 시스템을 마운트하고 qfsrg
리소스 그룹을 호스팅하는 주 노드입니다.
[qfs1mds-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ qfsrg qfs1mds-1 No Online qfs1mds-2 No Offline [qfs1mds-node1]root@solaris:~#
리소스 그룹을 보조 노드로 이동하여 리소스 그룹이 올바르게 페일오버되는지 확인합니다. Solaris Cluster 명령 clresourcegroup
switch
-n
node2
group-name
을 사용합니다. 여기서 node2
는 보조 노드의 이름이고 group-name
은 HA-QFS 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status
를 사용하여 결과를 확인합니다.
예제에서는 haqfs
리소스 그룹을 qfs1mds-node2
로 이동하고 이 리소스 그룹이 지정된 노드에서 온라인 상태가 되는지 확인합니다.
[qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node2 qfsrg [qfs1mds-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ qfsrg qfs1mds-1 No Offline qfs1mds-2 No Online [qfs1mds-node1]root@solaris:~#
리소스 그룹을 다시 주 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup
switch
-n
node1
group-name
을 사용합니다. 여기서 node1
은 주 노드의 이름이고 group-name
은 HA-QFS 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status
를 사용하여 결과를 확인합니다.
예제에서는 qfsrg
리소스 그룹을 qfs1mds-node1
로 성공적으로 다시 이동합니다.
[qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node1 qfsrg [qfs1mds-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ qfsrg qfs1mds-node1 No Online qfs1mds-node2 No Offline [qfs1mds-node1]root@solaris:~#
HA-NFS(고가용성 네트워크 파일 시스템) 공유를 구성해야 할 경우 지금 구성합니다. 지침은 Oracle Solaris Cluster 온라인 설명서 라이브러리에 포함된 Oracle Solaris Cluster Data Service for Network File System (NFS) Guide를 참조하십시오.
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.
HA-COTC(High Availability-Clients Outside the Cluster) 구성은 Solaris Cluster 소프트웨어에 의해 관리되는 고가용성 클러스터의 노드에서 MDS(중요 메타데이터 서버)를 호스팅하는 비아카이빙 QFS 공유 파일 시스템입니다. 이 배열은 서버가 실패한 경우에도 파일 시스템 클라이언트가 해당 데이터에 계속 액세스할 수 있도록 QFS 메타데이터 및 파일 액세스 임대에 대한 페일오버 보호를 제공합니다. 그러나 파일 시스템 클라이언트와 데이터 장치가 클러스터 외부에 남아 있으므로 Solaris Cluster가 QFS 공유 데이터의 제어를 QFS 소프트웨어와 경합하지 않습니다.
HA-COTC 파일 시스템을 구성하려면 아래 작업을 수행합니다.
필요한 경우 NFS 및 SMB/CIFS를 사용하여 여러 호스트에서 파일 시스템 액세스에 설명된 대로 NFS(네트워크 파일 시스템) 공유를 구성합니다. HA-NFS(고가용성 NFS)는 지원되지 않습니다.
QFS 공유 파일 시스템에서는 모든 호스트가 파일 시스템의 메타데이터에 액세스할 수 있도록 메타데이터 서버에서 hosts 파일을 구성해야 합니다. hosts 파일은 /etc/opt/SUNWsamfs/
디렉토리에 mcf
파일과 나란히 저장됩니다. 공유 파일 시스템의 초기 생성 중 sammkfs
-S
명령은 이 파일에 저장된 설정을 사용하여 공유를 구성합니다. 따라서 아래 절차를 사용하여 지금 만듭니다.
HA-COTC 클러스터의 주 노드에 root
로 로그인합니다.
예제에서는 호스트가 qfs1mds-node1
및 qfs1mds-node2
입니다. qfs1mds-node1
호스트에 로그인합니다.
[qfs1mds-node1]root@solaris:~#
클러스터 구성을 표시합니다. /usr/global/bin/cluster
show
명령을 사용합니다. 각 Node Name
에 대한 레코드를 찾은 다음 각 네트워크 어댑터의 privatehostname
, Transport Adapter
이름 및 ip_address
등록 정보를 메모합니다.
명령의 출력이 상당히 길 수 있으므로 아래 예제에서는 긴 표시가 줄임표(...)로 축약되어 있습니다.
예제에서는 각 노드에 2개의 네트워크 인터페이스인 qfe3
및 hme0
이 있습니다.
hme0
어댑터는 클러스터가 노드 간의 내부 통신에 사용하는 개인 네트워크의 IP 주소를 가집니다. Solaris Cluster 소프트웨어는 각 개인 주소에 해당하는 개인 호스트 이름을 지정합니다.
기본적으로 주 노드의 개인 호스트 이름은 clusternode1-priv
이고 보조 노드의 개인 호스트 이름은 clusternode2-priv
입니다.
qfe3
어댑터는 클러스터가 데이터 전송에 사용하는 공용 IP 주소 및 호스트 이름인 qfs1mds-node1
및 qfs1mds-node2
를 가집니다.
[qfs1mds-node1]root@solaris:~# cluster show ... === Cluster Nodes === Node Name: qfs1mds-node1... privatehostname: clusternode1-priv... Transport Adapter List: qfe3, hme0... Transport Adapter: qfe3... Adapter Property(ip_address): 172.16.0.12... Transport Adapter: hme0... Adapter Property(ip_address): 10.0.0.129... Node Name: qfs1mds-node2... privatehostname: clusternode2-priv... Transport Adapter List: qfe3, hme0... Adapter Property(ip_address): 172.16.0.13... Transport Adapter: hme0 Adapter Property(ip_address): 10.0.0.122
텍스트 편집기를 사용하여 메타데이터 서버에서 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일을 만듭니다. 여기서 family-set-name
은 파일 시스템의 패밀리 세트 이름에 대한 이름입니다.
예제에서는 vi
텍스트 편집기를 사용하여 hosts.qfs1
파일을 만듭니다. 일부 선택적 머리글을 추가하여 호스트 테이블의 열을 표시하고 각 라인을 해시 기호(#)로 시작하여 주석이라는 것을 나타냅니다.
[qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1 # /etc/opt/SUNWsamfs/hosts.qfs1 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ----------
테이블의 첫번째 열에 주 및 보조 메타데이터 서버 노드의 호스트 이름과 그 뒤에 약간의 공백을 입력합니다. 각 항목을 별개의 라인에 배치합니다.
hosts 파일에서 라인은 행(레코드)이고 공백은 열(필드) 구분자입니다. 예제에서 처음 두 행의 Host Name
열에는 파일 시스템에 대한 메타데이터 서버를 호스트하는 클러스터 노드의 호스트 이름인 qfs1mds-node1
및 qfs1mds-node2
값이 포함됩니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- qfs1mds-node1 qfs1mds-node2
각 라인의 두번째 열에서 Host Name
호스트에 대한 Network Interface
정보 제공을 시작합니다. 각 HA-COTC 클러스터 노드의 Solaris Cluster 개인 호스트 이름 또는 개인 네트워크 주소와 그 뒤에 콤마를 입력합니다.
HA-COTC 서버 노드는 고가용성 클러스터 내의 서버-서버 통신에 개인 호스트 이름을 사용합니다. 예제에서는 Solaris Cluster 소프트웨어에 의해 지정된 기본 이름인 개인 호스트 이름 clusternode1-priv
및 clusternode2-priv
를 사용합니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- qfs1mds-node1 clusternode1-priv, qfs1mds-node2 clusternode2-priv,
각 라인의 두번째 열에서 콤마 뒤에 활성 메타데이터 서버에 대한 가상 공용 호스트 이름과 그 뒤에 공백을 입력합니다.
HA-COTC 서버 노드는 모두 클러스터 외부에 상주하는 클라이언트와 통신하기 위해 공용 데이터 네트워크를 사용합니다. 페일오버 도중 활성 메타데이터 서버의 IP 주소 및 호스트 이름이 변경되므로(qfs1mds-node1
에서 qfs1mds-node2
로 변경되거나 그 반대로 변경) 두 경우 모두에 가상 호스트 이름 qfs1mds
를 사용합니다. 나중에 qfs1mds
에 대한 요청을 항상 활성 메타데이터 서버로 경로를 지정하도록 Solaris Cluster 소프트웨어를 구성할 것입니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- qfs1mds-node1 clusternode1-priv,qfs1mds qfs1mds-node2 clusternode2-priv,qfs1mds
각 라인의 세번째 열에 서버의 순서 번호(활성 메타데이터 서버의 경우 1
이고 잠재적 메타데이터 서버의 경우 2
)와 그 뒤에 공백을 입력합니다.
이 예제에서는 메타데이터 서버가 하나만 있고 주 노드 qfs1mds-node1
이 활성 메타데이터 서버이므로 해당 순서가 1
이고 보조 노드 qfs1mds-node2
는 해당 순서가 2
입니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- qfs1mds-node1 clusternode1-priv,qfs1mds 1 qfs1mds-node2 clusternode2-priv,qfs1mds 2
각 라인의 네번째 열에 0
(영)과 그 뒤에 공백을 입력합니다.
네번째 열의 0
(영), -
(하이픈) 또는 빈 값은 호스트가 공유 파일 시스템에 액세스할 수 있도록 구성된 켜짐 상태라는 것을 나타냅니다. 1
(숫자 1)은 호스트가 파일 시스템에 액세스할 수 있도록 구성되지 않은 off 상태라는 것을 나타냅니다(공유 파일 시스템을 관리할 때 이러한 값을 사용하는 방법에 대한 자세한 내용은 samsharefs
매뉴얼 페이지 참조).
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- qfs1mds-node1 clusternode1-priv,qfs1mds 1 0 qfs1mds-node2 clusternode2-priv,qfs1mds 2 0
주 노드의 라인에서 다섯번째 열에 server
키워드를 입력합니다.
server
키워드는 기본 활성 메타데이터 서버를 식별합니다.
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------ ----------------------------- ------- --- ----------
qfs1mds-node1 clusternode1-priv,qfs1mds 1 0 server
qfs1mds-node2 clusternode2-priv,qfs1mds 2 0
각 클라이언트 호스트에 대해 Server Ordinal
값을 0
으로 설정하는 라인을 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
서버 순서 0
은 호스트가 서버가 아니라 클라이언트라는 것을 식별합니다. HA-COTC 클라이언트는 클러스터의 멤버가 아니므로 클러스터의 공용 데이터 네트워크를 통해서만 통신합니다. 이 클라이언트는 공용 IP 주소만 가집니다. 예제에서는 호스트 이름 대신 공용 IP 주소 172.16.0.133
및 172.16.0.147
을 사용하여 두 클라이언트 qfs1client1
및 qfs1client2
를 추가합니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- qfs1mds-node1 clusternode1-priv,qfs1mds 1 0 server qfs1mds-node2 clusternode2-priv,qfs1mds 2 0 qfs1client1 172.16.0.133 0 0 qfs1client2 172.16.0.147 0 0 :wq [qfs1mds-node1]root@solaris:~#
전역 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일의 복사본을 QFS 잠재적 메타데이터 서버(두번째 HA-COTC 클러스터 노드)에 배치합니다.
이제 HA-COTC 클러스터 외부의 QFS 서버 및 클라이언트에서 로컬 hosts 파일 만들기를 수행합니다.
클러스터 외부의 클라이언트와 파일 시스템을 공유하는 고가용성 구성에서는 클라이언트가 Solaris Cluster 소프트웨어에 의해 정의된 공용 데이터 네트워크만 사용하여 파일 시스템 서버와 통신하도록 해야 합니다. 이렇게 하려면 특별히 구성된 QFS 로컬 hosts 파일을 사용하여 클라이언트와 서버의 여러 네트워크 인터페이스 간에 네트워크 트래픽을 선택적으로 경로를 지정합니다.
각 파일 시스템 호스트는 먼저 메타데이터 서버에서 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일을 검사하여 다른 호스트에 대한 네트워크 인터페이스를 식별합니다. 그런 다음 고유의 특정 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
파일이 있는지 확인합니다. 로컬 hosts 파일이 없는 경우 전역 hosts 파일에 지정된 인터페이스 주소를 전역 파일에 지정된 순서대로 사용합니다. 그러나 로컬 hosts 파일이 있는 경우 로컬 파일을 전역 파일과 비교하여 양쪽 파일에 나열된 인터페이스만 로컬 파일에 지정된 순서대로 사용합니다. 따라서 각 파일의 다른 배열에서 다른 주소를 사용하여 다른 호스트에 사용되는 인터페이스를 제어할 수 있습니다.
로컬 hosts 파일을 구성하려면 아래 설명된 절차를 사용하십시오.
HA-COTC 클러스터의 주 노드에 root
로 로그인합니다.
예제에서는 호스트가 qfs1mds-node1
및 qfs1mds-node2
입니다. qfs1mds-node1
호스트에 로그인합니다.
[qfs1mds-node1]root@solaris:~#
각 활성/잠재적 메타데이터 서버에 로컬 hosts 파일을 만듭니다. 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
을 사용합니다. 여기서 family-set-name
은 공유 파일 시스템의 장비 식별자입니다. 활성/잠재적 서버에서 사용할 네트워크 인터페이스만 포함하십시오.
예제에서는 활성 및 잠재적 메타데이터 서버가 개인 네트워크를 통해 서로 통신하고 공용 네트워크를 통해 클라이언트와 통신하게 하려고 합니다. 따라서 활성 및 잠재적 서버의 로컬 hosts 파일 hosts.qfs1.local
에는 활성 및 잠재적 서버에 대한 클러스터 개인 주소만 나열됩니다.
[qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local # /etc/opt/SUNWsamfs/hosts.qfs1.local # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- qfs1mds-node1 clusternode1-priv 1 0 server qfs1mds-node2 clusternode2-priv 2 0 qfs1client1 172.16.0.133 0 0 qfs1client2 172.16.0.147 0 0 :wq [qfs1mds-node1]root@solaris:~# ssh root@qfs1mds-node2 Password:
[qfs1mds-node2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local # /etc/opt/SUNWsamfs/hosts.qfs1.local # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- qfs1mds-node1 clusternode1-priv 1 0 server qfs1mds-node2 clusternode2-priv 2 0 qfs1client1 172.16.0.133 0 0 qfs1client2 172.16.0.147 0 0 :wq [qfs1mds-node2]root@solaris:~# exit [qfs1mds-node1]root@solaris:~#
텍스트 편집기를 사용하여 각 클라이언트에 로컬 hosts 파일을 만듭니다. 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
을 사용합니다. 여기서 family-set-name
은 공유 파일 시스템의 장비 식별자입니다. 클라이언트에서 사용할 네트워크 인터페이스만 포함하십시오. 그런 다음 파일을 저장하고 편집기를 닫습니다.
예제에서는 vi
편집기를 사용합니다. 클라이언트가 공용 데이터 네트워크를 통해 서버와만 통신하게 하려고 합니다. 따라서 파일에는 활성 메타데이터 서버에 대한 가상 호스트 이름 qfs1mds
만 포함됩니다. Solaris Cluster 소프트웨어는 qfs1mds
에 대한 요청을 활성 상태인 서버 노드에 경로를 지정합니다.
[qfs1mds-node1]root@solaris:~# ssh root@qfsclient1 Password: [qfs1client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local # /etc/opt/SUNWsamfs/hosts.qfs1.local # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- qfs1mds qfs1mds 1 0 server :wq qfs1client1]root@solaris:~# exit [qfs1mds-node1]root@solaris:~# ssh root@qfs1client2 Password: [qfs1client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local # /etc/opt/SUNWsamfs/hosts.qfs1.local # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- qfs1mds qfs1mds 1 0 server :wq [qfs1client2]root@solaris:~# exit [qfs1mds-node1]root@solaris:~#
이제 주 HA-COTC 클러스터 노드에서 활성 QFS 메타데이터 서버 구성을 수행합니다.
활성 메타데이터 서버를 구성하려면 다음 작업을 수행합니다.
HA-COTC 클러스터에 대한 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버 둘 다로 사용될 클러스터 노드를 선택합니다. root
로 로그인합니다.
예제에서는 qfs1mds-node1
이 주 노드 및 활성 메타데이터 서버입니다.
[qfs1mds-node1]root@solaris:~#
QFS 파일 시스템에 사용할 전역 스토리지 장치를 선택합니다. Solaris Cluster 명령 /usr/global/bin/cldevice
list
-v
를 사용합니다.
Solaris Cluster 소프트웨어는 클러스터 노드에 연결되는 모든 장치에 고유 DID(장치 식별자)를 지정합니다. 전역 장치는 클러스터의 모든 노드에서 액세스할 수 있고 로컬 장치는 해당 장치를 마운트하는 호스트에서만 액세스할 수 있습니다. 전역 장치는 페일오버 후에 계속 액세스할 수 있습니다. 로컬 장치는 그렇지 않습니다.
예제에서는 d1
, d2
, d7
및 d8
장치를 두 노드 모두에서 액세스할 수 없습니다. 따라서 고가용성 QFS 공유 파일 시스템을 구성할 때 d3
, d4
및 d5
장치 중에서 선택합니다.
[qfs1mds-node1]root@solaris:~# cldevice list -v DID Device Full Device Path ---------- ---------------- d1 qfs1mds-node1:/dev/rdsk/c0t0d0 d2 qfs1mds-node1:/dev/rdsk/c0t6d0 d3 qfs1mds-node1:/dev/rdsk/c1t1d0 d3 qfs1mds-node2:/dev/rdsk/c1t1d0 d4 qfs1mds-node1:/dev/rdsk/c1t2d0 d4 qfs1mds-node2:/dev/rdsk/c1t2d0 d5 qfs1mds-node1:/dev/rdsk/c1t3d0 d5 qfs1mds-node2:/dev/rdsk/c1t3d0 d6 qfs1mds-node2:/dev/rdsk/c0t0d0 d7 qfs1mds-node2:/dev/rdsk/c0t1d0
선택한 주 노드에서 md
또는 mr
데이터 서비스를 사용하는 고성능 ma
파일 시스템을 만듭니다. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 엽니다.
예제에서는 파일 시스템 qfs1
을 구성합니다. d3
장치를 메타데이터 장치로 구성하고(장비 유형 mm
) d4
및 d5
장치를 데이터 장치로 사용합니다(장비 유형 mr
).
[qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ---------------- qfs1 100 ma qfs1 - /dev/did/dsk/d3s0 101 mm qfs1 - /dev/did/dsk/d4s0 102 mr qfs1 - /dev/did/dsk/d5s1 103 mr qfs1 -
/etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템 항목의 Additional Parameters
열에 shared
매개변수를 입력합니다. 파일을 저장합니다.
[qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ---------------- qfs1 100 ma qfs1 - shared /dev/did/dsk/d3s0 101 mm qfs1 - /dev/did/dsk/d4s0 102 mr qfs1 - /dev/did/dsk/d5s1 103 mr qfs1 - :wq [qfs1mds-node1]root@solaris:~#
mcf
파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd
명령을 사용하고 발견된 모든 오류를 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs1mds-node1
호스트에서 mcf
파일을 검사합니다.
[qfs1mds-node1]root@solaris:~# sam-fsd
...
Would start sam-archiverd()
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[qfs1mds-node1]root@solaris:~#
파일 시스템을 만듭니다. /opt/SUNWsamfs/sbin/
sammkfs
-S
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 파일 시스템의 장비 식별자입니다.
sammkfs
명령은 주 노드 qfs1mds-node1
에서 hosts.
family-set-name
및 mcf
파일을 읽고 지정된 등록 정보를 가진 공유 파일 시스템을 만듭니다.
[qfs1mds-node1]root@solaris:~# sammkfs -S qfs1 Building 'qfs1' will destroy the contents of devices: ... Do you wish to continue? [y/N]yes ... [qfs1mds-node1]root@solaris:~#
이제 클러스터 제어에서 데이터 장치 제외를 수행합니다.
기본적으로 Solaris Cluster 소프트웨어는 클러스터의 배타적인 사용을 위해 디스크 장치를 보호합니다. 그러나 HA-COTC 구성에서는 메타데이터(mm
) 장치만 클러스터의 일부입니다. 데이터(mr
) 장치는 클러스터 외부의 파일 시스템 클라이언트와 공유되고 클라이언트 호스트에 직접 연결됩니다. 따라서 데이터(mr
) 장치를 클러스터 소프트웨어의 제어 밖에 두어야 합니다. 이를 위해 다음 두 가지 방법 중 하나를 사용할 수 있습니다.
HA-COTC 클러스터의 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버에 로그인합니다. root
로 로그인합니다.
예제에서는 qfs1mds-node1
이 주 노드 및 활성 메타데이터 서버입니다.
[qfs1mds-node1]root@solaris:~#
/etc/opt/SUNWsamfs/mcf
파일에 정의된 각 데이터(mr
) 장치에 대해 보호를 사용 안함으로 설정합니다. cldevice
set
-p
default_fencing=
nofencing-noscrub
device-identifier
명령을 사용합니다. 여기서 device-identifier
는 mcf
파일의 첫번째 열에 있는 장치에 대해 나열된 장치 식별자입니다.
메타데이터(mm
) 장치에 대한 보호를 사용 안함으로 설정하지 마십시오. HA-COTC 구성에서 QFS 메타데이터(mm
) 장치는 클러스터의 일부이지만 QFS 공유 데이터(mr
) 장치는 그렇지 않습니다. 데이터 장치는 클러스터 외부의 클라이언트에 직접 연결됩니다. 이러한 이유로 HA-COTC 데이터(mr
) 장치는 Solaris Cluster 소프트웨어에서 관리하지 않는 로컬 장치로 관리되어야 합니다. 그렇지 않은 경우 Solaris Cluster 소프트웨어 및 QFS가 서로 작업을 방해하고 데이터를 손상시킬 수 있습니다.
위 예제에서는 d4
및 d5
장치를 파일 시스템 qfs1
에 대한 데이터 장치로 구성했습니다. 따라서 이러한 장치에 대한 보호를 전역적으로 사용 안함으로 설정합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[qfs1mds-node1]root@solaris:~# cldevice set -p \ default_fencing=nofencing-noscrub d4 [qfs1mds-node1]root@solaris:~# cldevice set -p \ default_fencing=nofencing-noscrub d5
이제 주 HA-COTC 클러스터 노드에 QFS 파일 시스템 마운트를 수행합니다.
HA-COTC 클러스터의 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버에 로그인합니다. root
로 로그인합니다.
예제에서는 qfs1mds-node1
이 주 노드 및 활성 메타데이터 서버입니다.
[qfs1mds-node1]root@solaris:~#
파일 시스템의 일부인 모든 데이터(mr
) 장치를 localonly
장치 그룹에 배치합니다. cldevicegroup
set
-d
device-identifier-list
-p
localonly=
true
-n
active-mds-node
device-group
명령을 사용합니다. 여기서 device-list
는 콤마로 구분된 장치 식별자 목록이고 active-mds-node
는 활성 메타데이터 서버가 일반적으로 상주하는 주 노드이며 device-group
은 장치 그룹에 사용하도록 선택한 이름입니다.
다음 예제에서는 데이터 장치 d4
및 d5
(mcf
장비 번호 102
및 103
)를 주 노드의 로컬 장치 그룹 mdsdevgrp
에 배치합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[qfs1mds-node1]root@solaris:~# cldevicegroup set -d d4,d5 -p localonly=true \ -n node1mds mdsdevgrp [qfs1mds-node1]root@solaris:~#
이제 주 HA-COTC 클러스터 노드에 QFS 파일 시스템 마운트를 수행합니다.
HA-COTC 클러스터의 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버에 로그인합니다. root
로 로그인합니다.
예제에서는 qfs1mds-node1
이 주 노드 및 활성 메타데이터 서버입니다.
[qfs1mds-node1]root@solaris:~#
운영체제의 /etc/vfstab
파일을 백업합니다.
[qfs1mds-node1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
텍스트 편집기에서 운영체제의 /etc/vfstab
파일을 열고 새 파일 시스템에 대한 라인을 시작합니다. 첫번째 열(Device
to
Mount
)에 파일 시스템 이름과 하나 이상의 공백을 차례로 입력합니다.
예제에서는 vi
텍스트 편집기를 사용합니다. qfs1
파일 시스템에 대한 라인을 시작합니다.
[qfs1mds-node1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ------------ ------ ---- ------- --------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs1 -
/etc/vfstab
파일의 두번째 열(Device
to
fsck
)에 하이픈(-
)과 하나 이상의 공백을 차례로 입력합니다.
하이픈은 운영체제에 파일 시스템 무결성 검사를 건너뛰도록 지시합니다. 이러한 검사는 SAMFS 파일 시스템이 아니라 UFS를 위한 것입니다.
[qfs1mds-node1]root@solaris:~# vi /etc/vfstab
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- ------------ ------ ---- ------- ---------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
qfs1 -
/etc/vfstab
파일의 세번째 열에 클러스터를 기준으로 파일 시스템의 마운트 지점을 입력합니다. 시스템 루트 디렉토리의 바로 아래에 있지 않은 하위 디렉토리를 선택합니다.
공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs
리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다. 예제에서는 클러스터의 마운트 지점을 /global/ha-cotc/qfs1
로 설정합니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------------------- ------ ---- ------- --------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
qfs1 - /global/ha-cotc/qfs1
공유 QFS 파일 시스템의 경우와 마찬가지로 /etc/vfstab
파일 레코드의 나머지 필드를 채웁니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
#File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------------------- ------ ---- ------- -------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs1 - /global/ha-cotc/qfs1 samfs - no shared :wq [qfs1mds-node1]root@solaris:~#
고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.
mkdir
명령을 -p
(parents) 옵션과 함께 사용하면 /global
디렉토리가 만들어집니다(아직 없는 경우).
[qfs1mds-node1]root@solaris:~# mkdir -p /global/ha-cotc/qfs1
주 노드에 고가용성 공유 파일 시스템을 마운트합니다.
[qfs1mds-node1]root@solaris:~# mount /global/ha-cotc/qfs1
이제 보조 HA-COTC 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성을 수행합니다.
2노드 클러스터의 보조 노드는 잠재적 메타데이터 서버로 사용됩니다. 잠재적 메타데이터 서버는 메타데이터 장치에 액세스할 수 있으므로 메타데이터 서버의 역할을 담당할 수 있는 호스트입니다. 따라서 주 노드의 활성 메타데이터 서버가 실패할 경우 Solaris Cluster 소프트웨어는 보조 노드로 페일오버하여 잠재적 메타데이터 서버를 활성화할 수 있습니다. 잠재적 메타데이터 서버를 구성하려면 다음 작업을 수행합니다.
HA-COTC 클러스터의 보조 노드에 root
로 로그인합니다.
예제에서는 qfs1mds-node2
가 보조 노드 및 잠재적 메타데이터 서버입니다.
[qfs1mds-node2]root@solaris:~#
/etc/opt/SUNWsamfs/mcf
파일을 주 노드에서 보조 노드로 복사합니다.
mcf
파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd
명령을 사용하고 발견된 모든 오류를 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs1mds-node1
호스트에서 mcf
파일을 검사합니다.
[qfs1mds-node2]root@solaris:~# sam-fsd
...
Would start sam-archiverd()
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[qfs1mds-node2]root@solaris:~#
이제 보조 HA-COTC 클러스터 노드에 QFS 파일 시스템 마운트를 수행합니다.
HA-COTC 클러스터의 보조 노드에 root
로 로그인합니다.
예제에서는 qfs1mds-node2
가 보조 노드입니다.
[qfs1mds-node2]root@solaris:~#
운영체제의 /etc/vfstab
파일을 백업합니다.
[qfs1mds-node2]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
텍스트 편집기에서 운영체제의 /etc/vfstab
파일을 열고 새 파일 시스템에 대한 라인을 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
이 예에서는 vi
편집기를 사용합니다.
[qfs1mds-node2]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------------------- ------ ---- ------- ------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs1 - /global/ha-cotc/qfs1 samfs - no shared :wq [qfs1mds-node2]root@solaris:~#
보조 노드에서 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.
[qfs1mds-node2]root@solaris:~# mkdir -p /global/ha-cotc/qfs1 [qfs1mds-node2]root@solaris:~#
보조 노드에 고가용성 공유 파일 시스템을 마운트합니다.
[qfs1mds-node2]root@solaris:~# mount /global/ha-cotc/qfs1 [qfs1mds-node2]root@solaris:~#
이제 HA-COTC 메타데이터 서버의 페일오버 구성을 수행합니다.
Solaris Cluster 소프트웨어가 관리하는 클러스터에서 Oracle HSM 공유 파일 시스템을 호스팅할 경우 Oracle HSM 소프트웨어에 의해 정의된 리소스 유형인 SUNW.qfs
클러스터 리소스를 만들어 메타데이터 서버의 페일오버를 구성합니다(자세한 내용은 SUNW.qfs
매뉴얼 페이지 참조). HA-COTC 구성에 대한 리소스를 만들고 구성하려면 다음과 같이 하십시오.
HA-COTC 클러스터의 주 노드에 root
로 로그인합니다.
예제에서는 qfs1mds-node1
이 주 노드입니다.
[qfs1mds-node1]root@solaris:~#
Solaris Cluster 소프트웨어에 대한 QFS 리소스 유형 SUNW.qfs
를 정의합니다. clresourcetype
register
SUNW.qfs
명령을 사용합니다.
[qfs1mds-node1]root@solaris:~# clresourcetype register SUNW.qfs [qfs1mds-node1]root@solaris:~#
등록 파일을 찾을 수 없어 등록에 실패한 경우 /opt/SUNWsamfs/sc/etc/
디렉토리에 대한 심볼릭 링크를 Solaris Cluster가 리소스 유형 등록 파일을 유지하는 디렉토리인 /opt/cluster/lib/rgm/rtreg/
에 배치합니다.
Oracle HSM 소프트웨어를 설치하기 전에 Oracle Solaris Cluster 소프트웨어를 설치하지 않았습니다. 일반적으로 Oracle HSM는 설치 도중 Solaris Cluster를 감지한 경우 SUNW.qfs
등록 파일의 위치를 자동으로 제공합니다. 따라서 링크를 수동으로 만들 필요가 없습니다.
[qfs1mds-node1]root@solaris:~# cd /opt/cluster/lib/rgm/rtreg/ [qfs1mds-node1]root@solaris:~# ln -s /opt/SUNWsamfs/sc/etc/SUNW.qfs SUNW.qfs [qfs1mds-node1]root@solaris:~#
QFS 메타데이터 서버에 대한 리소스 그룹을 만듭니다. Solaris Cluster 명령 clresourcegroup
create
-n
node-list
group-name
을 사용합니다. 여기서 node-list
는 콤마로 구분된 클러스터 노드 이름 2개의 목록이고 group-name
은 리소스 그룹에 사용할 이름입니다.
예제에서는 HA-COTC 서버 노드가 멤버로 포함된 리소스 그룹 qfsrg
를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[qfs1mds-node1]root@solaris:~# clresourcegroup create -n \ qfs1mds-node1,qfs1mds-node2 qfsrg [qfs1mds-node1]root@solaris:~#
새 리소스 그룹에서 활성 메타데이터 서버에 대한 가상 호스트 이름을 설정합니다. Solaris Cluster 명령 clreslogicalhostname
create
-g
group-name
virtualMDS
를 사용합니다. 여기서 group-name
은 QFS 리소스 그룹의 이름이고 virtualMDS
는 가상 호스트 이름입니다.
공유 파일 시스템에 대한 hosts 파일에 사용한 것과 같은 가상 호스트 이름을 사용합니다. 예제에서는 가상 호스트 qfs1mds
를 qfsr
리소스 그룹에서 만듭니다.
[qfs1mds-node1]root@solaris:~# clreslogicalhostname create -g qfsrg qfs1mds
QFS 파일 시스템 리소스를 리소스 그룹에 추가합니다. clresource
create
-g
group-name
-t
SUNW.qfs
-x
QFSFileSystem=
mount-point
-y
Resource_dependencies=
virtualMDS
resource-name
명령을 사용합니다. 설명:
group-name
은 QFS 리소스 그룹의 이름입니다.
mount-point
는 시스템 루트 디렉토리 바로 아래에 있지 않은 하위 디렉토리인 클러스터의 파일 시스템에 대한 마운트 지점입니다.
공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs
리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다.
virtualMDS
는 활성 메타데이터 서버의 가상 호스트 이름입니다.
resource-name
은 리소스에 제공할 이름입니다.
예제에서는 SUNW.qfs
유형의 hasqfs
라는 리소스를 리소스 그룹 qfsrg
에서 만듭니다. SUNW.qfs
확장 등록 정보 QFSFileSystem
을 /global/ha-cotc/qfs1
마운트 지점으로 설정하고 표준 등록 정보 Resource_dependencies
를 활성 메타데이터 서버 qfs1mds
에 대한 논리 호스트로 설정합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[qfs1mds-node1]root@solaris:~# clresource create -g qfsrg -t SUNW.qfs \ -x QFSFileSystem=/global/ha-cotc/qfs1 -y Resource_dependencies=qfs1mds hasqfs
자원 그룹을 온라인으로 전환합니다. clresourcegroup
online
-emM
group-name
명령을 사용합니다. 여기서 group-name
은 QFS 리소스 그룹의 이름입니다.
예제에서는 qfsr
리소스 그룹을 온라인 상태로 만듭니다.
[qfs1mds-node1]root@solaris:~# clresourcegroup manage qfsrg [qfs1mds-node1]root@solaris:~# clresourcegroup online -emM qfsrg
QFS 리소스 그룹이 온라인 상태인지 확인합니다. Solaris Cluster clresourcegroup
status
명령을 사용합니다.
예제에서는 qfsrg
리소스 그룹이 주 노드 sam1mds-node1
에서 online
상태입니다.
[qfs1mds-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ qfsrg qfs1mds-node1 No Online qfs1mds-node2 No Offline
리소스 그룹을 보조 노드로 이동하여 리소스 그룹이 올바르게 페일오버되는지 확인합니다. Solaris Cluster 명령 clresourcegroup
switch
-n
node2
group-name
을 사용합니다. 여기서 node2
는 보조 노드의 이름이고 group-name
은 HA-QFS 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status
를 사용하여 결과를 확인합니다.
예제에서는 qfsrg
리소스 그룹을 qfs1mds-node2
로 이동하고 이 리소스 그룹이 지정된 노드에서 온라인 상태가 되는지 확인합니다.
[qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node2 qfsrg [qfs1mds-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ qfsrg qfs1mds-node1 No Offline qfs1mds-node2 No Online
리소스 그룹을 다시 주 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup
switch
-n
node1
group-name
을 사용합니다. 여기서 node1
은 주 노드의 이름이고 group-name
은 HA-QFS 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status
를 사용하여 결과를 확인합니다.
예제에서는 qfsrg
리소스 그룹을 qfs1mds-node1
로 성공적으로 다시 이동합니다.
[qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node1 qfsrg [qfs1mds-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ qfsrg qfs1mds-node1 No Online qfs1mds-node2 No Offline
클라이언트가 클러스터 내에 있는 메타데이터 서버의 고가용성 구성에 방해가 되지 않도록 각 호스트를 파일 시스템의 메타데이터 장치에 액세스할 수 없는 QFS 클라이언트로 구성합니다.
HA-COTC 공유 파일 시스템의 각 클라이언트에 대해 다음과 같이 하십시오.
HA-COTC 클러스터의 주 노드에 로그인합니다. root
로 로그인합니다.
[qfs1mds-node1]root@solaris:~#
클러스터에 대한 장치 구성을 표시합니다. Solaris Cluster 명령 /usr/global/bin/cldevice
list
-v
를 사용합니다.
[qfs1mds-node1]root@solaris:~# cldevice list -v DID Device Full Device Path ---------- ---------------- d1 qfs1mds-node1:/dev/rdsk/c0t0d0 d2 qfs1mds-node1:/dev/rdsk/c0t6d0 ... d7 qfs1mds-node2:/dev/rdsk/c0t1d0 [qfs1mds-node1]root@solaris:~#
cldevice
list
-v
명령의 출력을 검사합니다. 각 QFS 데이터(mr
) 장치의 장치 식별자에 해당하는 /dev/rdsk/
경로를 메모합니다.
예제에서 QFS 데이터 장치는 d4
및 d5
입니다.
[qfs1mds-node1]root@solaris:~# cldevice list -v DID Device Full Device Path ---------- ---------------- d1 qfs1mds-node1:/dev/rdsk/c0t0d0 d2 qfs1mds-node1:/dev/rdsk/c0t6d0 d3 qfs1mds-node1:/dev/rdsk/c1t1d0 d3 qfs1mds-node2:/dev/rdsk/c1t1d0 d4 qfs1mds-node1:/dev/rdsk/c1t2d0 d4 qfs1mds-node2:/dev/rdsk/c1t2d0 d5 qfs1mds-node1:/dev/rdsk/c1t3d0 d5 qfs1mds-node2:/dev/rdsk/c1t3d0 d6 qfs1mds-node2:/dev/rdsk/c0t0d0 d7 qfs1mds-node2:/dev/rdsk/c0t1d0 [qfs1mds-node1]root@solaris:~#
HA-COTC 클러스터의 클라이언트 호스트에 root
로 로그인합니다.
예제에서는 qfs1client1
이 클라이언트 호스트입니다.
[qfs1mds-node1]root@solaris:~# ssh root@qfs1client1 [qfs1client1]root@solaris:~#
클라이언트 호스트에서 공유 파일 시스템에 대한 구성 정보를 검색합니다. samfsconfig
/dev/rdsk/*
명령을 사용합니다.
samfsconfig
/dev/rdsk/*
명령은 QFS 파일 시스템에 속하는 연결된 장치를 지정된 경로에서 검색합니다. 예제에서 이 명령은 qfs1
데이터(mr
) 장치에 대한 경로를 찾습니다. 예상대로 이 명령은 메타데이터(mm
) 장치를 찾지 않으므로 공유 데이터 장치를 나열하기 전에 Missing
slices
및 Ordinal
0
메시지를 반환합니다.
[qfs1client1]root@solaris:~# samfsconfig /dev/rdsk/* # Family Set 'qfs1' Created Thu Dec 21 07:17:00 2013 # Missing slices # Ordinal 0 # /dev/rdsk/c1t2d0s0 102 mr qfs1 - # /dev/rdsk/c1t3d0s1 103 mr qfs1 -
samfsconfig
명령 출력을 서버의 Solaris Cluster cldevice
list
명령 출력과 비교합니다. 둘 다 mr
데이터 장치에 대해 동일한 장치 경로를 보고하는지 확인합니다.
컨트롤러 번호(c
N
)가 다를 수 있지만 samfsconfig
및 cldevice
list
명령은 동일한 장치를 나타내야 합니다. 예제에서는 samfsconfig
및 cldevice
list
명령이 동일한 장치를 가리킵니다.
메타데이터 서버 노드에서 /etc/opt/SUNWsamfs/mcf
파일은 클러스터 장치 식별자 d4
및 d5
를 사용하여 공유 mr
데이터 장치 102
및 103
을 식별합니다.
/dev/did/dsk/d4s0 102 mr qfs1 - /dev/did/dsk/d5s1 103 mr qfs1 -
메타데이터 서버 노드의 cldevice
list
명령은 클러스터 장치 식별자 d4
및 d5
를 경로 /dev/rdisk/c1t2d0
및 /dev/rdisk/c1t3d0
에 매핑합니다.
d4 qfs1mds-node1:/dev/rdsk/c1t2d0 d5 qfs1mds-node1:/dev/rdsk/c1t3d0
또한 클라이언트 노드에서 samfsconfig
명령은 경로 /dev/rdisk/c1t2d0
및 /dev/rdisk/c1t3d0
을 사용하여 공유 mr
데이터 장치 102
및 103
을 식별합니다.
/dev/rdsk/c1t2d0s0 102 mr qfs1 - /dev/rdsk/c1t3d0s1 103 mr qfs1 -
클라이언트의 /etc/opt/SUNWsamfs/mcf
파일을 텍스트 편집기에서 엽니다. HA-COTC 공유 파일 시스템에 대한 항목을 추가합니다. 이 항목은 메타데이터 서버 mcf
파일의 해당 항목과 정확히 일치해야 합니다.
예제에서는 vi
편집기를 사용하여 QFS 공유 파일 시스템 qfs1
(장비 순서 번호 100
)에 대한 항목을 만듭니다.
[qfs1client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ---------------- qfs1 100 ma qfs1 - shared
새 라인에서 HA-COTC 공유 파일 시스템의 메타데이터(mm
) 장치에 대한 항목을 시작합니다. 첫번째 열(Equipment
Identifier
)에 nodev
키워드를 입력합니다.
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#------------------ --------- --------- ------- ------ ----------------
qfs1 100 ma qfs1 - shared
nodev
HA-COTC 파일 시스템의 메타데이터(mm
) 장치에 대한 나머지 필드에 메타데이터 서버 mcf
파일에서 사용된 것과 동일한 장비 순서 번호, 패밀리 세트 및 장치 상태 매개변수를 채웁니다.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ---------------- qfs1 100 ma qfs1 - shared nodev 101 mm qfs1 -
samfsconfig
출력에서 데이터(mr
) 장치에 대한 전체 항목을 복사합니다. 클라이언트의 /etc/opt/SUNWsamfs/mcf
파일에 항목을 붙여넣습니다. samfsconfig
에 의해 삽입된 선행 주석(#
) 표시를 제거합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- qfs1 100 ma qfs1 - shared nodev 101 mm qfs1 - /dev/rdsk/c1t2d0s0 102 mr qfs1 - /dev/rdsk/c1t3d0s1 103 mr qfs1 - :wq [qfs1client1]root@solaris:~#
mcf
파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd
명령을 사용하고 발견된 모든 오류를 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs1client1
호스트에서 mcf
파일을 검사합니다.
[qfs1client1]root@solaris:~# sam-fsd
...
Would start sam-archiverd()
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[qfs1client1]root@solaris:~#
클라이언트 운영체제의 /etc/vfstab
파일을 텍스트 편집기에서 열고 서버에서 사용된 것과 동일한 매개변수를 사용하여 새 파일 시스템에 대한 항목을 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
이 예에서는 vi
편집기를 사용합니다.
[qfs1client1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------------------- ------ ---- ------- ------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs1 - /global/ha-cotc/qfs1 samfs - no shared :wq [qfs1client1]root@solaris:~#
클라이언트에서 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.
[qfs1client1]root@solaris:~# mkdir -p /global/qfs1 [qfs1client1]root@solaris:~#
고가용성 공유 파일 시스템을 클라이언트에 마운트합니다.
예제에서
[qfs1client1]root@solaris:~# mount /global/qfs1 [qfs1client1]root@solaris:~#
모든 HA-COTC 클라이언트가 구성될 때까지 이 절차를 반복합니다.
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.
HA-SAM(High-Availability Oracle Hierarchical Storage Manager) 구성은 서버 호스트가 실패한 경우에도 QFS 메타데이터 서버 및 Oracle Hierarchical Storage Manager 응용 프로그램이 계속 작동하도록 보장하여 아카이빙 파일 시스템의 가용성을 유지 관리합니다. 파일 시스템은 Solaris Cluster 소프트웨어가 관리하는 2노드 클러스터에서 호스트되는 활성/잠재적 QFS 메타데이터 서버 간에 공유됩니다. 활성 클러스터 노드가 실패한 경우 클러스터링 소프트웨어는 작동 중인 노드에서 잠재적 Oracle HSM 서버를 자동으로 활성화하고 실행 중인 작업에 대한 제어 권한을 이전합니다. QFS 파일 시스템 및 Oracle HSM 응용 프로그램의 로컬 스토리지 디렉토리가 공유되고 이미 마운트되었으므로 데이터 및 메타데이터에 중단 없이 계속 액세스할 수 있습니다.
HA-SAM 구성은 활성 메타데이터 서버를 통해 모든 I/O를 전송하여 클러스터화된 환경에서 파일 시스템 일관성을 유지합니다. HA-SAM 파일 시스템은 순전히 접근성을 위해서만 공유됩니다. 다른 SAM-QFS 공유 파일 시스템 구성처럼 잠재적 메타데이터 서버 호스트를 파일 시스템 클라이언트로 사용할 수 없습니다. 잠재적 메타데이터 서버는 노드 페일오버 중 활성화되지 않은 경우 I/O를 수행하지 않습니다. NFS를 사용하는 클라이언트와 HA-SAM 파일 시스템을 공유할 수 있습니다. 그러나 활성 메타데이터 서버 노드에서 배타적으로 공유를 내보냈는지 확인해야 합니다.
고가용성 아카이빙 파일 시스템은 3개의 Solaris Cluster 리소스 유형에 따라 다릅니다.
SUNW.hasam
주 호스트가 실패할 경우 SUNW.hasam
리소스는 Oracle Hierarchical Storage Manager 응용 프로그램의 페일오버를 관리합니다. SUNW.hasam
소프트웨어는 Oracle HSM 소프트웨어 배포에 포함됩니다.
SUNW.qfs
주 호스트가 실패할 경우 SUNW.qfs
리소스는 QFS 메타데이터 서버에 대한 페일오버를 관리합니다. SUNW.qfs
소프트웨어는 Oracle HSM 소프트웨어 배포에 포함되어 있습니다(자세한 내용은 SUNW.qfs
매뉴얼 페이지 참조).
SUNW.HAStoragePlus
주 호스트가 실패할 경우 SUNW.HAStoragePlus
리소스는 Oracle Hierarchical Storage Manager의 로컬 스토리지에 대한 페일오버를 관리합니다. Oracle HSM 응용 프로그램은 서버 호스트의 로컬 파일 시스템에서 휘발성 아카이빙 정보(작업 대기열 및 이동식 매체 카탈로그)를 유지 관리합니다. SUNW.HAStoragePlus
는 Solaris Cluster 소프트웨어에 표준 리소스 유형으로 포함되어 있습니다(리소스 유형에 대한 자세한 내용은 Oracle Solaris Cluster Documentation Library에서 Data Services Planning and Administration 설명서 참조).
필요한 구성 요소의 인스턴스를 구성하고 작동 중인 HA-SAM 아카이빙 구성에 통합하려면 다음 작업을 수행합니다.
필요한 경우 HA-NFS(고가용성 네트워크 파일 시스템) 공유 구성
HA-NFS 설정에 대한 자세한 지침은 Oracle Solaris Cluster 온라인 설명서 라이브러리에 포함된 Oracle Solaris Cluster Data Service for Network File System (NFS) Guide에 나와 있습니다.
아카이빙 Oracle HSM 공유 파일 시스템에서 메타데이터 서버의 hosts 파일을 구성하여 두 노드 모두의 호스트가 파일 시스템의 메타데이터에 액세스할 수 있게 해야 합니다. hosts 파일은 /etc/opt/SUNWsamfs/
디렉토리에 mcf
파일과 나란히 저장됩니다. 공유 파일 시스템의 초기 생성 중 sammkfs
-S
명령은 이 파일에 저장된 설정을 사용하여 공유를 구성합니다. 따라서 아래 절차를 사용하여 지금 만듭니다.
HA-SAM 클러스터의 주 노드에 root
로 로그인합니다.
예제에서는 sam1mds-node1
이 주 노드입니다.
[sam1mds-node1]root@solaris:~#
클러스터 구성을 표시합니다. /usr/global/bin/cluster
show
명령을 사용합니다. 출력에서 각 Node
Name
에 대한 레코드를 찾아서 privatehostname
과 각 네트워크 어댑터의 Transport
Adapter
이름 및 ip_address
등록 정보를 메모합니다.
예제에서는 각 노드에 2개의 네트워크 인터페이스인 hme0
및 qfe3
이 있습니다.
hme0
어댑터는 클러스터가 노드 간의 내부 통신에 사용하는 개인 네트워크의 IP 주소를 가집니다. Solaris Cluster 소프트웨어는 각 개인 주소에 해당하는 privatehostname
을 지정합니다.
기본적으로 주 노드의 개인 호스트 이름은 clusternode1-priv
이고 보조 노드의 개인 호스트 이름은 clusternode2-priv
입니다.
qfe3
어댑터는 클러스터가 데이터 전송에 사용하는 공용 IP 주소와 공용 호스트 이름인 sam1mds-node1
및 sam1mds-node2
를 가집니다.
표시는 줄임표(...
)를 사용하여 축약되어 있습니다.
[sam1mds-node1]root@solaris:~# cluster show ... === Cluster Nodes === Node Name: sam1mds-node1... privatehostname: clusternode1-priv... Transport Adapter List: qfe3, hme0... Transport Adapter: qfe3... Adapter Property(ip_address): 172.16.0.12... Transport Adapter: hme0... Adapter Property(ip_address): 10.0.0.129... Node Name: sam1mds-node2... privatehostname: clusternode2-priv... Transport Adapter List: qfe3, hme0... Adapter Property(ip_address): 172.16.0.13... Transport Adapter: hme0... Adapter Property(ip_address): 10.0.0.122
텍스트 편집기를 사용하여 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일을 만듭니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템 장비에 지정되는 패밀리 세트 이름입니다.
예제에서는 vi
텍스트 편집기를 사용하여 hosts.sam1
파일을 만듭니다. 일부 선택적 머리글을 추가하여 호스트 테이블의 열을 표시하고 각 라인을 해시 기호(#
)로 시작하여 주석이라는 것을 나타냅니다.
[sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sam1 # /etc/opt/SUNWsamfs/hosts.sam1 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ----------
테이블의 첫번째 열에 주 및 보조 메타데이터 서버 노드의 호스트 이름과 그 뒤에 약간의 공백을 입력합니다(각 항목을 별개의 라인에 입력).
hosts 파일에서 라인은 행(레코드)이고 공백은 열(필드) 구분자입니다. 예제에서 처음 두 행의 Host Name
열에는 파일 시스템에 대한 메타데이터 서버를 호스트하는 클러스터 노드의 호스트 이름인 sam1mds-node1
및 sam1mds-node2
값이 포함됩니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- sam1mds-node1 sam1mds-node2
각 라인의 두번째 열에서 Host Name
열에 나열된 호스트에 대한 Network Interface
정보 제공을 시작합니다. 각 HA-SAM 클러스터 노드의 Solaris Cluster 개인 호스트 이름 또는 개인 네트워크 주소와 그 뒤에 콤마를 입력합니다.
HA-SAM 서버 노드는 고가용성 클러스터 내의 서버-서버 통신에 개인 호스트 이름을 사용합니다. 예제에서는 Solaris Cluster 소프트웨어에 의해 지정된 기본 이름인 개인 호스트 이름 clusternode1-priv
및 clusternode2-priv
를 사용합니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- sam1mds-node1 clusternode1-priv, sam1mds-node2 clusternode2-priv,
각 라인의 두번째 열에서 콤마 뒤에 활성 메타데이터 서버에 대한 공용 호스트 이름과 그 뒤에 공백을 입력합니다.
HA-SAM 서버 노드는 클러스터 외부의 호스트와 통신하기 위해 공용 데이터 네트워크를 사용합니다. 페일오버 도중 활성 메타데이터 서버의 IP 주소 및 호스트 이름이 변경되므로(sam1mds-node1
에서 sam1mds-node2
로 변경되거나 그 반대로 변경) 두 경우 모두에 가상 호스트 이름 sam1mds
를 사용합니다. 나중에 sam1mds
에 대한 요청을 항상 활성 메타데이터 서버로 경로를 지정하도록 Solaris Cluster 소프트웨어를 구성할 것입니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- sam1mds-node1 clusternode1-priv,sam1mds sam1mds-node2 clusternode2-priv,sam1mds
각 라인의 세번째 열에 서버의 순서 번호(활성 메타데이터 서버의 경우 1
이고 잠재적 메타데이터 서버의 경우 2
)와 그 뒤에 공백을 입력합니다.
이 예제에서는 메타데이터 서버가 하나만 있고 주 노드 sam1mds-node1
이 활성 메타데이터 서버이므로 해당 순서가 1
이고 보조 노드 sam1mds-node2
는 해당 순서가 2
입니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- sam1mds-node1 clusternode1-priv,sam1mds 1 sam1mds-node2 clusternode2-priv,sam1mds 2
각 라인의 네번째 열에 0
(영)과 그 뒤에 공백을 입력합니다.
네번째 열의 0
, -
(하이픈) 또는 공백 값은 호스트가 on으로 구성되었고 공유 파일 시스템에 액세스할 수 있음을 나타냅니다. 1
(숫자 1)은 호스트가 파일 시스템에 액세스할 수 있도록 구성되지 않은 off 상태라는 것을 나타냅니다(공유 파일 시스템을 관리할 때 이러한 값을 사용하는 방법에 대한 자세한 내용은 samsharefs
매뉴얼 페이지 참조).
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- sam1mds-node1 clusternode1-priv,sam1mds 1 0 sam1mds-node2 clusternode2-priv,sam1mds 2 0
주 노드의 라인에서 다섯번째 열에 server
키워드를 입력합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
server 키워드는 기본 활성 메타데이터 서버를 식별합니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- sam1mds-node1 clusternode1-priv,sam1mds 1 0 server sam1mds-node2 clusternode2-priv,sam1mds 2 0 :wq [sam1mds-node1]root@solaris:~#
전역 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일의 복사본을 잠재적 메타데이터 서버에 배치합니다.
이제 두 HA-SAM 클러스터 노드 모두에서 로컬 hosts 파일 만들기를 수행합니다.
고가용성 아카이빙 공유 파일 시스템에서는 서버가 Solaris Cluster 소프트웨어에 의해 정의된 개인 네트워크를 사용하여 서로 통신하도록 해야 합니다. 이렇게 하려면 특별히 구성된 로컬 hosts 파일을 사용하여 서버의 네트워크 인터페이스 간에 네트워크를 트래픽을 선택적으로 경로를 지정합니다.
각 파일 시스템 호스트는 먼저 메타데이터 서버에서 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일을 검사하여 다른 호스트에 대한 네트워크 인터페이스를 식별합니다. 그런 다음 고유의 특정 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
파일이 있는지 확인합니다. 로컬 hosts 파일이 없는 경우 전역 hosts 파일에 지정된 인터페이스 주소를 전역 파일에 지정된 순서대로 사용합니다. 그러나 로컬 hosts 파일이 있는 경우 로컬 파일을 전역 파일과 비교하여 양쪽 파일에 나열된 인터페이스만 로컬 파일에 지정된 순서대로 사용합니다. 따라서 각 파일의 다른 배열에서 다른 주소를 사용하여 다른 호스트에 사용되는 인터페이스를 제어할 수 있습니다.
로컬 hosts 파일을 구성하려면 아래 설명된 절차를 사용하십시오.
HA-SAM 클러스터의 주 노드에 root
로 로그인합니다.
예제에서는 sam1mds-node1
이 주 노드입니다.
[sam1mds-node1]root@solaris:~#
텍스트 편집기에서 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
을 사용하여 활성 메타데이터 서버에 로컬 hosts 파일을 만듭니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템 장비에 지정되는 패밀리 세트 이름입니다. 활성 서버가 잠재적 서버와 통신할 때 사용할 네트워크 인터페이스만 포함합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
예제에서는 활성 및 잠재적 메타데이터 서버가 개인 네트워크를 통해 서로 통신하게 하려고 합니다. 따라서 활성 메타데이터 서버의 로컬 hosts 파일 hosts.sam1.local
에는 활성 및 잠재적 서버에 대한 클러스터 개인 주소만 나열됩니다.
[sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sam1.local # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- sam1mds-node1 clusternode1-priv 1 0 server sam1mds-node2 clusternode2-priv 2 0 :wq [sam1mds-node1]root@solaris:~#
보조 클러스터 노드에 root
로 로그인합니다.
예제에서는 sam1mds-node2
가 보조 노드입니다.
[sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2 Password: [sam1mds-node2]root@solaris:~#
텍스트 편집기를 사용하여 잠재적 메타데이터 서버에 로컬 hosts 파일을 만듭니다. 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
을 사용합니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템 장비에 지정되는 패밀리 세트 이름입니다. 잠재적 서버가 활성 서버와 통신할 때 사용할 네트워크 인터페이스만 포함합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
예제에서는 활성 및 잠재적 메타데이터 서버가 개인 네트워크를 통해 서로 통신하게 하려고 합니다. 따라서 잠재적 메타데이터 서버의 로컬 hosts 파일 hosts.sam1.local
에는 활성 및 잠재적 서버에 대한 클러스터 개인 주소만 나열됩니다.
[sam1mds-node2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sam1.local # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ ----------------------------- ------- --- ---------- sam1mds-node1 clusternode1-priv 1 0 server sam1mds-node2 clusternode2-priv 2 0 :wq [sam1mds-node2]root@solaris:~# exit [sam1mds-node1]root@solaris:~#
이제 주 HA-SAM 클러스터 노드에서 활성 QFS 메타데이터 서버 구성을 수행합니다.
HA-SAM 클러스터에 대한 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버 둘 다로 사용될 클러스터 노드를 선택합니다. root
로 로그인합니다.
예제에서는 sam1mds-node1
이 주 노드입니다.
[sam1mds-node1]root@solaris:~#
QFS 파일 시스템에 사용할 전역 스토리지 장치를 선택합니다. /usr/global/bin/cldevice
list
-v
명령을 사용합니다.
Solaris Cluster 소프트웨어는 클러스터 노드에 연결되는 모든 장치에 고유 DID(장치 식별자)를 지정합니다. 전역 장치는 클러스터의 모든 노드에서 액세스할 수 있고 로컬 장치는 해당 장치를 마운트하는 호스트에서만 액세스할 수 있습니다. 전역 장치는 페일오버 후에 계속 액세스할 수 있습니다. 로컬 장치는 그렇지 않습니다.
예제에서는 d1
, d2
, d7
및 d8
장치를 두 노드 모두에서 액세스할 수 없습니다. 따라서 고가용성 QFS 공유 파일 시스템을 구성할 때 d3
, d4
및 d5
장치 중에서 선택합니다.
[sam1mds-node1]root@solaris:~# cldevice list -v DID Device Full Device Path ---------- ---------------- d1 sam1mds-node1:/dev/rdsk/c0t0d0 d2 sam1mds-node1:/dev/rdsk/c0t6d0 d3 sam1mds-node1:/dev/rdsk/c1t1d0 d3 sam1mds-node2:/dev/rdsk/c1t1d0 d4 sam1mds-node1:/dev/rdsk/c1t2d0 d4 sam1mds-node2:/dev/rdsk/c1t2d0 d5 sam1mds-node1:/dev/rdsk/c1t3d0 d5 sam1mds-node2:/dev/rdsk/c1t3d0 d6 sam1mds-node2:/dev/rdsk/c0t0d0 d7 sam1mds-node2:/dev/rdsk/c0t1d0
선택한 주 노드에서 mr
데이터 장치를 사용하는 고성능 ma
파일 시스템을 만듭니다. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 엽니다.
예제에서는 파일 시스템 sam1
을 구성합니다. d3
장치를 메타데이터 장치로 구성하고(장비 유형 mm
) d4
및 d5
장치를 데이터 장치로 사용합니다(장비 유형 mr
).
[sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- sam1 100 ma sam1 - /dev/did/dsk/d3s0 101 mm sam1 - /dev/did/dsk/d4s0 102 mr sam1 - /dev/did/dsk/d5s1 103 mr sam1 -
/etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템 항목의 Additional Parameters
열에 shared
매개변수를 입력합니다. 파일을 저장합니다.
[sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- sam1 100 ma sam1 - shared /dev/did/dsk/d3s0 101 mm sam1 - /dev/did/dsk/d4s0 102 mr sam1 - /dev/did/dsk/d5s1 103 mr sam1 - :wq [sam1mds-node1]root@solaris:~#
mcf
파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd
명령을 사용하고 발견된 모든 오류를 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 sam1mds-node1
호스트에서 mcf
파일을 검사합니다.
[sam1mds-node1]root@solaris:~# sam-fsd
...
Would start sam-archiverd()
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[sam1mds-node1]root@solaris:~#
파일 시스템을 만듭니다. /opt/SUNWsamfs/sbin/sammkfs
-S
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템 장비에 지정된 패밀리 세트 이름입니다.
sammkfs
명령은 hosts.
family-set-name
및 mcf
파일을 읽고 지정된 등록 정보를 가진 Oracle HSM 파일 시스템을 만듭니다.
[sam1mds-node1]root@solaris:~# sammkfs -S sam1 Building 'sam1' will destroy the contents of devices: ... Do you wish to continue? [y/N]yes ... [sam1mds-node1]root@solaris:~#
텍스트 편집기에서 운영체제의 /etc/vfstab
파일을 열고 새 파일 시스템에 대한 라인을 시작합니다. 첫번째 열에 파일 시스템 이름과 공백을 입력하고 두번째 열에 하이픈과 추가 공백을 입력합니다.
예제에서는 vi
텍스트 편집기를 사용합니다. sam1
파일 시스템에 대한 라인을 시작합니다. 하이픈은 운영체제에서 UFS 도구를 사용하여 파일 시스템 무결성을 검사하려는 시도를 방지합니다.
[sam1mds-node1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ------------ ------ ---- ------- --------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sam1 -
/etc/vfstab
파일의 세번째 열에 클러스터를 기준으로 파일 시스템의 마운트 지점을 입력합니다. 시스템 루트 디렉토리의 바로 아래에 있지 않은 하위 디렉토리를 선택합니다.
공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs
리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다. 예제에서는 클러스터의 마운트 지점을 /global/ha-sam/sam1
로 설정합니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- ------------------- ------ ---- ------- ---------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sam1 - /global/ha-sam/sam1
모든 Oracle HSM 공유 파일 시스템의 경우와 마찬가지로 /etc/vfstab
파일 레코드의 나머지 필드를 채웁니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
#File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ------------------- ------ ---- ------- --------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sam1 - /global/ha-sam/sam1 samfs - no shared :wq [sam1mds-node1]root@solaris:~#
고가용성 파일 시스템에 대한 마운트 지점을 만듭니다.
mkdir
명령을 -p
(parents) 옵션과 함께 사용하면 /global
디렉토리가 만들어집니다(아직 없는 경우).
[sam1mds-node1]root@solaris:~# mkdir -p /global/ha-sam/sam1
주 노드에 고가용성 공유 파일 시스템을 마운트합니다.
[sam1mds-node1]root@solaris:~# mount /global/ha-sam/sam1
이제 보조 HA-SAM 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성을 수행합니다.
2노드 클러스터의 보조 노드는 잠재적 메타데이터 서버로 사용됩니다. 잠재적 메타데이터 서버는 메타데이터 장치에 액세스할 수 있으므로 메타데이터 서버의 역할을 담당할 수 있는 호스트입니다. 따라서 주 노드의 활성 메타데이터 서버가 실패할 경우 Solaris Cluster 소프트웨어는 보조 노드로 페일오버하여 잠재적 메타데이터 서버를 활성화할 수 있습니다.
HA-SAM 클러스터의 보조 노드에 root
로 로그인합니다.
예제에서는 sam1mds-node2
가 보조 노드입니다.
[sam1mds-node2]root@solaris:~#
/etc/opt/SUNWsamfs/mcf
파일을 주 노드에서 보조 노드로 복사합니다.
mcf
파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd
명령을 사용하고 발견된 모든 오류를 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 sam1mds-node1
호스트에서 mcf
파일을 검사합니다.
[sam1mds-node2]root@solaris:~# sam-fsd
...
Would start sam-archiverd()
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[sam1mds-node2]root@solaris:~#
파일 시스템을 만듭니다. /opt/SUNWsamfs/sbin/sammkfs
-S
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템 장비에 지정된 패밀리 세트 이름입니다.
sammkfs
명령은 hosts.
family-set-name
및 mcf
파일을 읽고 지정된 등록 정보를 가진 Oracle HSM 파일 시스템을 만듭니다.
[sam1mds-node2]root@solaris:~# sammkfs sam1 Building 'sam1' will destroy the contents of devices: ... Do you wish to continue? [y/N]yes ... [sam1mds-node2]root@solaris:~#
텍스트 편집기에서 운영체제의 /etc/vfstab
파일을 열고 새 파일 시스템에 대한 라인을 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
이 예에서는 vi
편집기를 사용합니다.
[sam1mds-node2]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ------------------- ------ ---- ------- -------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sam1 - /global/ha-sam/sam1 samfs - no shared :wq [sam1mds-node2]root@solaris:~#
보조 노드에서 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.
[sam1mds-node2]root@solaris:~# mkdir -p /global/ha-sam/sam1
보조 노드에 고가용성 공유 파일 시스템을 마운트합니다.
[sam1mds-node2]root@solaris:~# mount /global/ha-sam/sam1
이제 HA-SAM 클러스터 리소스 그룹 만들기를 수행합니다.
HA-SAM 솔루션에 대한 고가용성 리소스를 관리할 리소스 그룹을 만듭니다.
HA-SAM 클러스터의 주 클러스터 노드에 root
로 로그인합니다.
예제에서는 주 노드가 sam1mds-node1
입니다.
[sam1mds-node1]root@solaris:~#
HA-SAM 솔루션 리소스를 관리할 Solaris Cluster 리소스 그룹을 만듭니다. clresourcegroup
create
-n
node1
,node2
groupname
명령을 사용합니다. 설명:
node1
은 주 클러스터 노드의 호스트 이름입니다.
node2
는 보조 클러스터 노드의 호스트 이름입니다.
groupname
은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다.
예제에서는 has-rg
라는 리소스 그룹을 만들고 sam1mds-node1
및 sam1mds-node2
호스트를 포함합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node1]root@solaris:~# clresourcegroup create \ -n sam1mds-node1,sam1mds-node2 has-rg
이제 Oracle HSM 구성 파일을 포함하도록 고가용성 로컬 파일 시스템 구성을 수행합니다.
페일오버 후에 성공적으로 복구하려면 Oracle HSM 소프트웨어가 페일오버 발생 시 실행하고 있던 아카이빙 작업을 다시 시작해야 합니다. 아카이빙 작업을 다시 시작하려면 소프트웨어가 일반적으로 활성 메타데이터 서버의 로컬 파일 시스템에 저장되어 있는 시스템 구성 및 상태 정보에 액세스할 수 있어야 합니다. 따라서 클러스터의 두 노드에서 모두 항상 액세스할 수 있는 고가용성 로컬 파일 시스템으로 필요한 정보를 이동해야 합니다.
필요한 파일 시스템을 만들려면 다음과 같이 하십시오.
HA-SAM 클러스터의 주 노드에 root
로 로그인합니다.
예제에서는 주 노드가 sam1mds-node1
입니다.
[sam1mds-node1]root@solaris:~#
주 클러스터 노드에서 전역 장치의 사용 가능한 슬라이스에 UFS 파일 시스템을 만듭니다. newfs
/dev/global/dsk/d
X
s
Y
명령을 사용합니다. 여기서 X
는 전역 장치의 DID(장치 식별자) 번호이고 Y
는 슬라이스 번호입니다.
예제에서는 /dev/global/dsk/d10s0
에 새 파일 시스템을 만듭니다.
[sam1mds-node1]root@solaris:~# newfs /dev/global/dsk/d10s0 newfs: construct a new file system /dev/global/dsk/d10s0: (y/n)? y /dev/global/dsk/d10s0: 1112940 sectors in 1374 cylinders of 15 tracks, 54 sectors 569.8MB in 86 cyl groups (16 c/g, 6.64MB/g, 3072 i/g) super-block backups(for fsck -b #) at: 32, 13056, 26080, 39104, 52128, 65152, 78176, 91200, 104224, . . . [sam1mds-node1]root@solaris:~#
주 클러스터 노드에서 운영체제의 /etc/vfstab
파일을 텍스트 편집기에서 엽니다. 새 UFS 파일 시스템에 대한 라인을 추가합니다. 파일을 저장하고 편집기를 닫습니다.
새 라인은 /dev/global/dsk/d
X
s
Y
/dev/global/dsk/d
X
s
Y
/global/
mount_point
ufs
5
no
global
형식의 공백으로 구분된 목록이어야 합니다. 설명:
X
는 파일 시스템을 보관하는 전역 장치의 DID(장치 식별자) 번호입니다.
Y
는 파일 시스템을 보관하는 슬라이스의 번호입니다.
/dev/global/dsk/d
X
s
Y
는 마운트할 파일 시스템 장치의 이름입니다.
/dev/global/dsk/d
X
s
Y
는 fsck
명령에서 검사할 파일 시스템 장치의 이름입니다.
mount_point
는 UFS 파일을 마운트할 하위 디렉토리의 이름입니다.
ufs
는 파일 시스템 유형입니다.
5
는 권장되는 fsck
전달 번호입니다.
no
는 운영체제에 시작 시 파일 시스템을 마운트하지 않도록 지시합니다.
global
은 두 노드가 모두 액세스할 수 있도록 파일 시스템을 마운트합니다.
예제에서는 vi
편집기를 사용합니다. 파일 시스템 이름은 /dev/global/dsk/d10s0
이고 마운트 지점은 /global/
hasam_cfg
입니다(파일 시스템은 한 라인으로 입력하며 페이지에 맞추기 위해 줄바꿈이 삽입되고 백슬래시 문자로 이스케이프됨).
[sam1mds-node1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ------------------- ------ ---- ------- -------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sam1 - /global/ha-samsam1 samfs - no shared /dev/global/dsk/d10s0 /dev/global/rdsk/d10s0 /global/hasam_cfg ufs 5 \ no global :wq [sam1mds-node2]root@solaris:~#
주 클러스터 노드에서 고가용성 로컬 파일 시스템에 대한 마운트 지점을 만듭니다. mkdir
-p
/global/
mount_point
명령을 사용합니다. 여기서 mount_point
는 선택한 마운트 지점 디렉토리입니다.
예제에서는 /global/hasam_cfg
디렉토리를 만듭니다.
[sam1mds-node1]root@solaris:~# mkdir -p /global/hasam_cfg
보조 클러스터 노드에 root
로 로그인합니다.
예제에서 보조 노드는 sam1mds-node2
입니다. ssh
를 사용하여 로그인합니다.
[sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2 Password: [sam1mds-node2]root@solaris:~#
보조 노드에서 운영체제의 /etc/vfstab
파일을 텍스트 편집기에서 엽니다. 새 UFS 파일 시스템에 대한 동일한 항목을 추가합니다. 파일을 저장하고 편집기를 닫습니다.
[sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2 Password: [sam1mds-node2]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ------------------- ------ ---- ------- -------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sam1 - /global/ha-samsam1 samfs - no shared /dev/global/dsk/d10s0 /dev/global/rdsk/d10s0 /global/hasam_cfg ufs 5 \ no global :wq [sam1mds-node1]root@solaris:~#
보조 노드에서 동일한 마운트 지점을 만듭니다.
예제에서는 /global/hasam_cfg
디렉토리를 만듭니다. 그런 다음 ssh
세션을 닫고 주 노드에서 작업을 재개합니다.
[sam1mds-node2]root@solaris:~# mkdir -p /global/hasam_cfg [sam1mds-node2]root@solaris:~# exit [sam1mds-node1]root@solaris:~#
주 노드에서 고가용성 로컬 파일 시스템을 마운트합니다. mount
/global/
mount_point
명령을 사용합니다. 여기서 mount_point
는 선택한 마운트 지점 디렉토리입니다.
이 명령은 두 노드 모두에서 UFS 파일 시스템을 마운트합니다. 예제에서는 /global/
hasam_cfg
에 파일 시스템을 마운트합니다.
[sam1mds-node1]root@solaris:~# mount /global/hasam_cfg [sam1mds-node1]root@solaris:~#
주 노드에서 Oracle HSM 스테이징 정보를 보관할 하위 디렉토리를 만듭니다. mkdir
-p
/global/
mount_point
/catalog
명령을 사용합니다. 여기서 mount_point
는 선택한 마운트 지점 디렉토리입니다.
[sam1mds-node1]root@solaris:~# mkdir /global/hasam_cfg/catalog [sam1mds-node1]root@solaris:~#
주 노드에서 Oracle HSM 아카이브 카탈로그를 보관할 하위 디렉토리를 만듭니다. mkdir
-p
/global/
mount_point
/stager
명령을 사용합니다. 여기서 mount_point
는 선택한 마운트 지점 디렉토리입니다.
[sam1mds-node1]root@solaris:~# mkdir /global/hasam_cfg/stager [sam1mds-node1]root@solaris:~#
이제 Oracle HSM 구성 파일을 고가용성 로컬 파일 시스템으로 재배치를 수행합니다.
HA-SAM 클러스터의 주 노드에 root
로 로그인합니다.
예제에서는 주 노드가 sam1mds-node1
입니다.
[sam1mds-node1]root@solaris:~#
주 노드에서 catalog/
및 stager/
디렉토리를 /var/opt/SUNWsamfs/
의 해당 기본 위치에서 임시 위치로 복사합니다.
예제에서는 디렉토리를 /var/tmp/
에 재귀적으로 복사합니다(아래의 첫번째 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node1]root@solaris:~# cp -r /var/opt/SUNWsamfs/catalog \ /var/tmp/catalog [sam1mds-node1]root@solaris:~# cp -r /var/opt/SUNWsamfs/stager /var/tmp/stager [sam1mds-node1]root@solaris:~#
주 노드에서 catalog/
및 stager/
디렉토리를 /var/opt/SUNWsamfs/
에서 삭제합니다.
[sam1mds-node1]root@solaris:~# rm -rf /var/opt/SUNWsamfs/catalog [sam1mds-node1]root@solaris:~# rm -rf /var/opt/SUNWsamfs/stager [sam1mds-node1]root@solaris:~#
주 노드에서 카탈로그 정보의 기본 위치와 고가용성 UFS 로컬 파일 시스템의 새 위치 간에 심볼릭 링크를 만듭니다. ln
-s
/global/
mount_point
/catalog
/var/opt/SUNWsamfs/catalog
명령을 사용합니다. 설명:
mount_point
는 고가용성 로컬 파일 시스템이 노드의 루트 파일 시스템에 연결되는 하위 디렉토리의 이름입니다.
/var/opt/SUNWsamfs/catalog
가 기본 위치입니다.
심볼릭 링크는 카탈로그 정보 요청을 새 위치로 자동으로 재지정합니다. 예제에서는 새 위치 /global/hasam_cfg/catalog
를 가리키는 catalog
링크를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node1]root@solaris:~# ln -s /global/hasam_cfg/catalog \ /var/opt/SUNWsamfs/catalog [sam1mds-node1]root@solaris:~#
주 노드에서 스테이징 정보의 기본 위치와 고가용성 UFS 로컬 파일 시스템의 새 위치 간에 심볼릭 링크를 만듭니다. ln
-s
/global/
mount_point
/stager
/var/opt/SUNWsamfs/stager
명령을 사용합니다. 설명:
mount_point
는 고가용성 로컬 파일 시스템이 노드의 루트 파일 시스템에 연결되는 하위 디렉토리의 이름입니다.
/var/opt/SUNWsamfs/stager
가 기본 위치입니다.
심볼릭 링크는 스테이저 정보 요청을 새 위치로 자동으로 재지정합니다. 예제에서는 새 위치 /global/hasam_cfg/stager
를 가리키는 stager
링크를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node1]root@solaris:~# ln -s /global/hasam_cfg/stager \ /var/opt/SUNWsamfs/stager [sam1mds-node1]root@solaris:~#
주 노드에서 기본 /var/opt/SUNWsamfs/catalog
및 /var/opt/SUNWsamfs/stager
위치가 심볼릭 링크로 대체되었는지 확인합니다. 또한 링크가 고가용성 파일 시스템의 새 위치를 가리키는지 확인합니다.
예제에서는 링크가 올바릅니다.
[sam1mds-node1]root@solaris:~# ls -l /var/opt/SUNWsamfs/catalog lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/catalog -> /global/hasam_cfg/catalog [sam1mds-node1]root@solaris:~# ls -l /var/opt/SUNWsamfs/stager lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/stager -> /global/hasam_cfg/stager [sam1mds-node1]root@solaris:~#
임시 위치의 catalog/
및 stager/
디렉토리 내용을 고가용성 파일 시스템에 복사합니다.
예제에서는 /var/tmp/
의 catalog/
및 stager/
디렉토리를 새 위치 /global/hasam_cfg/stager
에 복사합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node1]root@solaris:~# cp -rp /var/tmp/catalog/* \ /var/opt/SUNWsamfs/catalog [sam1mds-node1]root@solaris:~# cp -rp /var/tmp/stager/* \ /var/opt/SUNWsamfs/stager [sam1mds-node1]root@solaris:~#
HA-SAM 클러스터의 보조 노드에 root
로 로그인합니다.
예제에서는 ssh
(보안 셸)를 사용하여 보조 노드인 sam1mds-node2
에 로그인합니다.
[sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2 Password: [sam1mds-node2]root@solaris:~#
보조 노드에서 카탈로그 정보의 기본 위치와 고가용성 UFS 로컬 파일 시스템의 새 위치 간에 심볼릭 링크를 만듭니다. ln
-s
/global/
mount_point
/catalog
/var/opt/SUNWsamfs/catalog
명령을 사용합니다. 설명:
mount_point
는 고가용성 로컬 파일 시스템이 노드의 루트 파일 시스템에 연결되는 하위 디렉토리의 이름입니다.
/var/opt/SUNWsamfs/catalog
가 기본 위치입니다.
심볼릭 링크는 카탈로그 정보 요청을 새 위치로 자동으로 재지정합니다. 예제에서는 새 위치 /global/hasam_cfg/catalog
를 가리키는 catalog
링크를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node2]root@solaris:~# ln -s /global/hasam_cfg/catalog \ /var/opt/SUNWsamfs/catalog [sam1mds-node2]root@solaris:~#
보조 노드에서 스테이징 정보의 기본 위치와 고가용성 UFS 로컬 파일 시스템의 새 위치 간에 심볼릭 링크를 만듭니다. ln
-s
/global/
mount_point
/stager
/var/opt/SUNWsamfs/stager
명령을 사용합니다. 설명:
mount_point
는 고가용성 로컬 파일 시스템이 노드의 루트 파일 시스템에 연결되는 하위 디렉토리의 이름입니다.
/var/opt/SUNWsamfs/stager
가 기본 위치입니다.
심볼릭 링크는 스테이저 정보 요청을 새 위치로 자동으로 재지정합니다. 예제에서는 새 위치 /global/hasam_cfg/stager
를 가리키는 stager
링크를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node2]root@solaris:~# ln -s /global/hasam_cfg/stager \ /var/opt/SUNWsamfs/stager [sam1mds-node2]root@solaris:~#
보조 노드에서 기본 /var/opt/SUNWsamfs/catalog
및 /var/opt/SUNWsamfs/stager
위치가 심볼릭 링크로 대체되었는지 확인합니다. 또한 링크가 고가용성 파일 시스템의 새 위치를 가리키는지 확인합니다.
예제에서는 링크가 올바릅니다. 따라서 ssh
세션을 닫고 주 노드에서 작업을 재개합니다.
[sam1mds-node2]root@solaris:~# ls -l /var/opt/SUNWsamfs/catalog lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/catalog -> /global/hasam_cfg/catalog [sam1mds-node2]root@solaris:~# ls -l /var/opt/SUNWsamfs/stager lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/stager -> /global/hasam_cfg/stager [sam1mds-node2]root@solaris:~# exit [sam1mds-node1]root@solaris:~#
이제 고가용성 로컬 파일 시스템을 사용하도록 HA-SAM 클러스터 구성을 수행합니다.
HA-SAM 클러스터의 주 노드에서 SUNW.HAStoragePlus
리소스 유형을 클러스터 구성의 일부로 등록합니다. Solaris Cluster 명령 clresourcetype
register
SUNW.HAStoragePlus
를 사용합니다.
[sam1mds-node1]root@solaris:~# clresourcetype register SUNW.HAStoragePlus [sam1mds-node1]root@solaris:~#
주 노드에서 SUNW.HAStoragePlus
리소스 유형의 새 인스턴스를 만들어 Solaris Cluster 리소스 그룹과 연관시킵니다. clresource
create
-g
groupname
-t
SUNW.HAStoragePlus
-x
FilesystemMountPoints=
mountpoint
-x
AffinityOn=TRUE
resourcename
명령을 사용합니다. 설명:
groupname
은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다.
SUNW.HAStoragePlus
는 로컬 파일 시스템의 페일오버를 지원하는 Solaris Cluster 리소스 유형입니다.
mountpoint
는 카탈로그 및 스테이저 파일을 보관할 고가용성 로컬 파일 시스템에 대한 마운트 지점입니다.
resourcename
은 리소스 자체에 사용하도록 선택한 이름입니다.
예제에서는 SUNW.HAStoragePlus
유형의 has-cfg
라는 리소스를 만듭니다. 새 리소스를 리소스 그룹 has-rg
에 추가합니다. 그런 다음 리소스 확장 속성을 구성합니다. FilesystemMountPoints
를 /global/hasam_cfg
로 설정하고 AffinityOn
을 TRUE
로 설정합니다(아래 명령은 각각 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node1]root@solaris:~# clresource create -g has-rg \ -t SUNW.HAStoragePlus -x FilesystemMountPoints=/global/hasam_cfg \ -x AffinityOn=TRUE has-cfg [sam1mds-node1]root@solaris:~#
이제 QFS 파일 시스템 메타데이터 서버의 페일오버 구성을 수행합니다.
Oracle HSM 소프트웨어에 의해 정의된 리소스 유형인 SUNW.qfs
클러스터 리소스를 만들어 메타데이터 서버의 페일오버를 구성합니다(자세한 내용은 SUNW.qfs
매뉴얼 페이지 참조). HA-SAM 구성에 대한 리소스를 만들고 구성하려면 다음과 같이 하십시오.
HA-SAM 클러스터의 주 클러스터 노드에 root
로 로그인합니다.
예제에서는 주 노드가 sam1mds-node1
입니다.
[sam1mds-node1]root@solaris:~#
Solaris Cluster 소프트웨어에 대한 리소스 유형 SUNW.qfs
를 정의합니다. clresourcetype
register
SUNW.qfs
명령을 사용합니다.
[sam1mds-node1]root@solaris:~# clresourcetype register SUNW.qfs [qfs1mds-node1]root@solaris:~#
등록 파일을 찾을 수 없어 등록에 실패한 경우 /opt/SUNWsamfs/sc/etc/
디렉토리에 대한 심볼릭 링크를 Solaris Cluster가 리소스 유형 등록 파일을 유지하는 디렉토리인 /opt/cluster/lib/rgm/rtreg/
에 배치합니다.
Oracle HSM 소프트웨어를 설치하기 전에 Oracle Solaris Cluster 소프트웨어를 설치하지 않은 경우 등록이 실패합니다. 일반적으로 Oracle HSM는 설치 도중 Solaris Cluster를 감지한 경우 SUNW.qfs
등록 파일의 위치를 자동으로 제공합니다. 예제에서는 수동으로 링크를 만듭니다.
[qfs1mds-node1]root@solaris:~# cd /opt/cluster/lib/rgm/rtreg/ [qfs1mds-node1]root@solaris:~# ln -s /opt/SUNWsamfs/sc/etc/SUNW.qfs SUNW.qfs [qfs1mds-node1]root@solaris:~#
새 리소스 그룹에서 활성 메타데이터 서버에 대한 가상 호스트 이름을 설정합니다. Solaris Cluster 명령 clreslogicalhostname
create
-g
group-name
virtualMDS
를 사용합니다. 설명:
group-name
은 QFS 리소스 그룹의 이름입니다.
virtualMDS
는 가상 호스트 이름입니다.
공유 파일 시스템에 대한 hosts 파일에 사용한 것과 같은 가상 호스트 이름을 사용합니다. 예제에서는 가상 호스트 이름 sam1mds
를 has-rg
리소스 그룹에 추가합니다.
[sam1mds-node1]root@solaris:~# clreslogicalhostname create -g has-rg sam1mds [qfs1mds-node1]root@solaris:~#
Oracle HSM 파일 시스템 리소스를 리소스 그룹에 추가합니다. clresource
create
-g
groupname
-t
SUNW.qfs
-x
QFSFileSystem=
mount-point
명령을 사용합니다. 설명:
groupname
은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다.
SUNW.qfs
는 QFS 파일 시스템 메타데이터 서버의 페일오버를 지원하는 Solaris Cluster 리소스 유형입니다.
mount-point
는 시스템 루트 디렉토리 바로 아래에 있지 않은 하위 디렉토리인 클러스터의 파일 시스템에 대한 마운트 지점입니다.
공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs
리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다.
resource-name
은 리소스 자체에 사용하도록 선택한 이름입니다.
예제에서는 SUNW.qfs
유형의 has-qfs
라는 리소스를 리소스 그룹 has-rg
에서 만듭니다. SUNW.qfs
확장 등록 정보 QFSFileSystem
을 /global/ha-sam/sam1
마운트 지점으로 설정합니다. 표준 등록 정보 Resource_dependencies
를 활성 메타데이터 서버를 나타내는 가상 호스트 이름인 sam1mds
로 설정합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node1]root@solaris:~# clresource create -g has-rg -t SUNW.qfs \ -x QFSFileSystem=/global/ha-sam/sam1 -y Resource_dependencies=sam1mds has-qfs [sam1mds-node1]root@solaris:~#
이제 Oracle Hierarchical Storage Manager 응용 프로그램의 페일오버 구성을 수행합니다.
Oracle HSM SUNW.hasam
리소스를 만들어 Oracle Hierarchical Storage Manager 응용 프로그램의 페일오버를 구성합니다. 이 리소스 유형은 Oracle HSM 프로세스의 정상적인 종료 및 다시 시작을 조정합니다.
Oracle HSM 응용 프로그램의 페일오버를 구성하려면 다음과 같이 하십시오.
HA-SAM 클러스터의 주 클러스터 노드에 root
로 로그인합니다.
예제에서는 주 노드가 sam1mds-node1
입니다.
[sam1mds-node1]root@solaris:~#
Solaris Cluster 소프트웨어에 대한 리소스 유형 SUNW.hasam
을 정의합니다. clresourcetype
register
SUNW.hasam
명령을 사용합니다.
[sam1mds-node1]root@solaris:~# clresourcetype register SUNW.hasam [sam1mds-node1]root@solaris:~#
Oracle HSM SUNW.hasam
리소스를 리소스 그룹에 추가합니다. clresource
create
-g
groupname
-t
SUNW.hasam
-x
QFSName=
fs-name
-x
CatalogFileSystem=
mount-point
resource-name
명령을 사용합니다. 설명:
groupname
은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다.
SUNW.hasam
은 Oracle Hierarchical Storage Manager 응용 프로그램의 페일오버를 지원하는 Solaris Cluster 리소스 유형입니다.
mount-point
는 Oracle HSM 아카이브 카탈로그를 보관하는 전역 파일 시스템의 마운트 지점입니다.
resource-name
은 리소스 자체에 사용하도록 선택한 이름입니다.
예제에서는 SUNW.hasam
유형의 has-sam
이라는 리소스를 리소스 그룹 has-rg
에서 만듭니다. SUNW.hasam
확장 등록 정보 QFSName
을 mcf
파일에 지정된 QFS 파일 시스템 이름인 sam1
로 설정합니다. SUNW.hasam
확장 등록 정보 CatalogFileSystem
을 /global/hasam_cfg
마운트 지점으로 설정합니다.
[sam1mds-node1]root@solaris:~# clresource create -g has-rg -t SUNW.hasam \ -x QFSName=sam1 -x CatalogFileSystem=/global/hasam_cfg has-sam [sam1mds-node1]root@solaris:~#
이제 HA-SAM 솔루션에 대한 클러스터 리소스 종속성 정의를 수행합니다.
HA-SAM 클러스터의 주 클러스터 노드에 root
로 로그인합니다.
예제에서는 주 노드가 sam1mds-node1
입니다.
[sam1mds-node1]root@solaris:~#
고가용성 로컬 파일 시스템을 사용할 수 없는 경우 QFS 파일 시스템이 시작되면 안됩니다. 따라서 SUNW.qfs
리소스가 SUNW.HAStoragePlus
리소스에 종속되게 합니다. Solaris Cluster 명령 clresource set -p Resource_dependencies=
dependency
resource-name
을 사용합니다. 설명:
dependency
는 SUNW.HAStoragePlus
리소스의 이름입니다.
resource-name
은 SUNW.qfs
리소스의 이름입니다.
예제에서는 SUNW.qfs
리소스가 SUNW.HAStoragePlus
리소스인 has-cfg
에 종속되게 합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node1]root@solaris:~# clresource set \ -p Resource_dependencies=has-cfg has-qfs [sam1mds-node1]root@solaris:~#
QFS 활성 메타데이터 서버가 온라인 상태가 아니면 클러스터가 가상 호스트 이름을 사용할 수 있게 하면 안됩니다. 따라서 가상 호스트 이름이 SUNW.qfs
리소스에 종속되게 합니다. Solaris Cluster 명령 clresource set -p Resource_dependencies=
virtualMDS
resource-name
을 사용합니다. 설명:
virtualMDS
는 활성 Oracle HSM 메타데이터 서버를 나타내는 가상 호스트 이름입니다.
resource-name
은 SUNW.qfs
리소스의 이름입니다.
예제에서 SUNW.qfs
리소스를 설정할 때 만든 가상 호스트 이름은 sam1mds
입니다. 리소스 자체의 이름은 has-qfs
입니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[sam1mds-node1]root@solaris:~# clresource set \ -p Resource_dependencies=sam1mds has-qfs [sam1mds-node1]root@solaris:~#
이제 HA-SAM 리소스 그룹을 온라인 상태로 전환 및 구성 테스트를 수행합니다.
HA-SAM 클러스터의 주 클러스터 노드에 root
로 로그인합니다.
예제에서는 주 노드가 sam1mds-node1
입니다.
[sam1mds-node1]root@solaris:~#
자원 그룹을 온라인으로 전환합니다. Solaris Cluster 명령 clresourcegroup
manage
groupname
및 clresourcegroup
online
-emM
groupname
을 사용합니다. 여기서 groupname
은 HA-SAM 리소스 그룹의 이름입니다.
예제에서는 has-rg
리소스 그룹을 온라인 상태로 전환합니다.
[sam1mds-node1]root@solaris:~# clresourcegroup manage has-rg [sam1mds-node1]root@solaris:~# clresourcegroup online -emM has-rg [sam1mds-node1]root@solaris:~#
HA-SAM 리소스 그룹이 온라인 상태인지 확인합니다. Solaris Cluster clresourcegroup
status
명령을 사용합니다.
예제에서는 has-rg
리소스 그룹이 주 노드 sam1mds-node1
에서 online
상태입니다.
[sam1mds-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ has-rg sam1mds-node1 No Online sam1mds-node2 No Offline [sam1mds-node1]root@solaris:~#
다음에는 리소스 그룹이 제대로 페일오버되는지 확인합니다. 리소스 그룹을 보조 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup
switch
-n
node2
groupname
을 사용합니다. 여기서 node2
는 보조 노드의 이름이고 groupname
은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup
status
를 사용하여 결과를 검사합니다.
예제에서는 has-rg
리소스 그룹을 sam1mds-node2
로 이동하고 이 리소스 그룹이 지정된 노드에서 온라인 상태가 되는지 확인합니다.
[sam1mds-node1]root@solaris:~# clresourcegroup switch -n sam1mds-node2 has-rg [sam1mds-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ has-rg sam1mds-node1 No Offline sam1mds-node2 No Online [sam1mds-node1]root@solaris:~#
리소스 그룹을 다시 주 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup
switch
-n
node1
groupname
을 사용합니다. 여기서 node1
은 주 노드의 이름이고 groupname
은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status
를 사용하여 결과를 확인합니다.
예제에서는 has-rg
리소스 그룹을 sam1mds-node1
로 성공적으로 다시 이동합니다.
[sam1mds-node1]root@solaris:~# clresourcegroup switch -n sam1mds-node1 has-rg [sam1mds-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ has-rg sam1mds-node1 No Online sam1mds-node2 No Offline [sam1mds-node1]root@solaris:~#
필요한 경우 HA-NFS(고가용성 네트워크 파일 시스템) 공유를 지금 구성합니다.
HA-NFS 설정에 대한 자세한 지침은 Oracle Solaris Cluster 온라인 설명서 라이브러리에 포함된 Oracle Solaris Cluster Data Service for Network File System (NFS) Guide에 나와 있습니다.
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.
SC-RAC(Solaris Cluster-Oracle Real Application Cluster) 구성에서 Solaris Cluster 소프트웨어는 QFS 공유 파일 시스템을 또한 Oracle 데이터베이스 및 Oracle RAC(Real Application Cluster) 소프트웨어를 호스팅하는 노드에 마운트된 SUNW.qfs
리소스로 관리합니다. 모든 노드는 하나의 활성 메타데이터 서버 및 다른 잠재적 메타데이터 서버가 있는 QFS 서버로 구성됩니다. 활성 메타데이터 서버 노드가 실패할 경우 Solaris Cluster 소프트웨어는 정상적인 노드에서 잠재적 메타데이터 서버를 자동으로 활성화하고 페일오버를 시작합니다. Oracle RAC를 통해 I/O가 조정되며 QFS 파일 시스템이 공유되고 이미 모든 노드에 마운트되어 있습니다. 따라서 데이터에 중단 없이 계속 액세스할 수 있습니다.
SC-RAC 구성에서 RAC 소프트웨어는 I/O 요청을 조정하고 작업 로드를 분배하며 클러스터의 노드에서 실행되는 여러 Oracle 데이터베이스 인스턴스에 대한 일관된 단일 데이터베이스 파일 세트를 유지 관리합니다. 파일 시스템 무결성이 RAC에서 보장되므로 QFS 잠재적 메타데이터 서버는 공유 파일 시스템의 클라이언트로 I/O를 수행할 수 있습니다. 자세한 내용은 Oracle Solaris Cluster Online Documentation Library에서 Oracle Real Application Clusters에 대한 Oracle Solaris Cluster 데이터 서비스 설명서를 참조하십시오.
SC-RAC 파일 시스템을 구성하려면 아래 작업을 수행합니다.
주 SC-RAC 클러스터 노드에서 활성 QFS 메타데이터 서버 구성 또는 소프트웨어 RAID 스토리지를 사용하여 SC-RAC 노드에서 QFS 메타데이터 서버 구성
필요한 경우 NFS 및 SMB/CIFS를 사용하여 여러 호스트에서 파일 시스템 액세스에 설명된 대로 NFS(네트워크 파일 시스템) 공유를 구성합니다. HA-NFS(고가용성 NFS)는 지원되지 않습니다.
QFS 공유 파일 시스템에서는 모든 호스트가 파일 시스템의 메타데이터에 액세스할 수 있도록 메타데이터 서버에서 hosts 파일을 구성해야 합니다. hosts 파일은 /etc/opt/SUNWsamfs/
디렉토리에 mcf
파일과 나란히 저장됩니다. 공유 파일 시스템의 초기 생성 중 sammkfs
-S
명령은 이 파일에 저장된 설정을 사용하여 공유를 구성합니다. 따라서 아래 절차를 사용하여 지금 만듭니다.
SC-RAC 클러스터의 주 클러스터 노드에 root
로 로그인합니다.
예제에서는 주 노드가 qfs1rac-node1
입니다.
[qfs1rac-node1]root@solaris:~#
클러스터 구성을 표시합니다. /usr/global/bin/cluster
show
명령을 사용합니다. 출력에서 각 Node Name
에 대한 레코드를 찾아서 privatehostname
과 각 네트워크 어댑터의 Transport
Adapter
이름 및 ip_address
등록 정보를 메모합니다.
예제에서는 각 노드에 2개의 네트워크 인터페이스인 qfe3
및 hme0
이 있습니다.
hme0
어댑터는 클러스터가 노드 간의 내부 통신에 사용하는 개인 네트워크의 IP 주소를 가집니다. Solaris Cluster 소프트웨어는 각 개인 주소에 해당하는 privatehostname
을 지정합니다.
기본적으로 주 노드의 개인 호스트 이름은 clusternode1-priv
이고 보조 노드의 개인 호스트 이름은 clusternode2-priv
입니다.
qfe3
어댑터는 클러스터가 데이터 전송에 사용하는 공용 IP 주소 및 공용 호스트 이름인 qfs1rac-node1
및 qfs1rac-node2
를 가집니다.
표시는 줄임표(...
)를 사용하여 축약되어 있습니다.
[qfs1rac-node1]root@solaris:~# cluster show
...
=== Cluster Nodes ===
Node Name: qfs1rac-node1...
privatehostname: clusternode1-priv...
Transport Adapter List: qfe3, hme0...
Transport Adapter: qfe3...
Adapter Property(ip_address): 172.16.0.12...
Transport Adapter: hme0...
Adapter Property(ip_address): 10.0.0.129...
Node Name: qfs1rac-node2...
privatehostname: clusternode2-priv...
Transport Adapter List: qfe3, hme0...
Adapter Property(ip_address): 172.16.0.13...
Transport Adapter: hme0
Adapter Property(ip_address): 10.0.0.122...
Node Name: qfs1rac-node3...
privatehostname: clusternod3-priv...
Transport Adapter List: qfe3, hme0...
Adapter Property(ip_address): 172.16.0.33...
Transport Adapter: hme0
Adapter Property(ip_address): 10.0.0.092
텍스트 편집기를 사용하여 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일을 만듭니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템 장비에 지정되는 패밀리 세트 이름입니다.
예제에서는 vi
텍스트 편집기를 사용하여 hosts.qfs1rac
파일을 만듭니다. 일부 선택적 머리글을 추가하여 호스트 테이블의 열을 표시하고 각 라인을 해시 기호(#
)로 시작하여 주석이라는 것을 나타냅니다.
[qfs1rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1rac # /etc/opt/SUNWsamfs/hosts.qfs1rac # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ -------------------------------- ------- --- ----------
테이블의 첫번째 열에 주 및 보조 메타데이터 서버 노드의 호스트 이름과 그 뒤에 약간의 공백을 입력합니다. 각 항목을 별개의 라인에 배치합니다.
hosts 파일에서 라인은 행(레코드)이고 공백은 열(필드) 구분자입니다. 예제에서 처음 두 행의 Host Name 열에는 클러스터 노드의 호스트 이름인 qfs1rac-node1
, qfs1rac-node2
및 qfs1rac-node3
이 나열됩니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ -------------------------------- ------- --- ---------- qfs1rac-node1 qfs1rac-node2 qfs1rac-node3
각 라인의 두번째 열에서 Host Name
호스트에 대한 Network Interface
정보 제공을 시작합니다. 각 SC-RAC 클러스터 노드의 Solaris Cluster 개인 호스트 이름 또는 개인 네트워크 주소와 그 뒤에 콤마를 입력합니다.
SC-RAC 서버 노드는 고가용성 클러스터 내의 서버-서버 통신에 개인 호스트 이름을 사용합니다. 예제에서는 Solaris Cluster 소프트웨어에 의해 지정된 기본 이름인 개인 호스트 이름 clusternode1-priv
, clusternode2-priv
및 clusternode3-priv
를 사용합니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ -------------------------------- ------- --- ---------- qfs1rac-node1 clusternode1-priv, qfs1rac-node2 clusternode2-priv, qfs1rac-node3 clusternode3-priv,
각 라인의 두번째 열에서 콤마 뒤에 활성 메타데이터 서버에 대한 공용 호스트 이름과 그 뒤에 공백을 입력합니다.
SC-RAC 서버 노드는 모두 클러스터 외부에 상주하는 클라이언트와 통신하기 위해 공용 데이터 네트워크를 사용합니다. 페일오버 도중 활성 메타데이터 서버의 IP 주소 및 호스트 이름이 변경되므로(예를 들어, qfs1rac-node1
에서 qfs1rac-node2
로 변경) 가상 호스트 이름 qfs1rac-mds
를 사용하여 활성 서버를 나타냅니다. 나중에 qfs1rac-mds
에 대한 요청을 현재 활성 메타데이터 서버를 호스팅하는 노드로 항상 경로를 지정하도록 Solaris Cluster 소프트웨어를 구성할 것입니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ -------------------------------- ------- --- ---------- qfs1rac-node1 clusternode1-priv,qfs1rac-mds qfs1rac-node2 clusternode2-priv,qfs1rac-mds qfs1rac-node3 clusternode3-priv,qfs1rac-mds
각 라인의 세번째 열에 서버의 순서 번호(활성 메타데이터 서버의 경우 1
이고 잠재적 메타데이터 서버의 경우 2
)와 그 뒤에 공백을 입력합니다.
예제에서는 주 노드 qfs1rac-node1
이 활성 메타데이터 서버입니다. 따라서 순서 1
입니다. 두번째 노드 qfs1rac-node2
는 순서 2
입니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ -------------------------------- ------- --- ---------- qfs1rac-node1 clusternode1-priv,qfs1rac-mds 1 qfs1rac-node2 clusternode2-priv,qfs1rac-mds 2 qfs1rac-node3 clusternode3-priv,qfs1rac-mds 3
각 라인의 네번째 열에 0
(영)과 그 뒤에 공백을 입력합니다.
네번째 열의 0
, -
(하이픈) 또는 공백 값은 호스트가 on으로 구성되었고 공유 파일 시스템에 액세스할 수 있음을 나타냅니다. 1
(숫자 1)은 호스트가 파일 시스템에 액세스할 수 있도록 구성되지 않은 off
상태라는 것을 나타냅니다(공유 파일 시스템을 관리할 때 이러한 값을 사용하는 방법에 대한 자세한 내용은 samsharefs
매뉴얼 페이지 참조).
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ -------------------------------- ------- --- ---------- qfs1rac-node1 clusternode1-priv,qfs1rac-mds 1 0 qfs1rac-node2 clusternode2-priv,qfs1rac-mds 2 0 qfs1rac-node3 clusternode3-priv,qfs1rac-mds 3 0
주 노드의 라인에서 다섯번째 열에 server
키워드를 입력합니다. 파일을 저장하고 편집기를 닫습니다.
server 키워드는 기본 활성 메타데이터 서버를 식별합니다.
# Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------ -------------------------------- ------- --- ---------- qfs1rac-node1 clusternode1-priv,qfs1rac-mds 1 0 server qfs1rac-node2 clusternode2-priv,qfs1rac-mds 2 0 qfs1rac-node3 clusternode3-priv,qfs1rac-mds 2 0 :wq [qfs1rac-node1]root@solaris:~#
전역 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일의 복사본을 SC-RAC 클러스터의 각 노드에 배치합니다.
이제 주 SC-RAC 클러스터 노드에서 활성 QFS 메타데이터 서버 구성을 수행합니다.
SC-RAC 클러스터에 대한 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버 둘 다로 사용될 클러스터 노드를 선택합니다. root
로 로그인합니다.
예제에서는 주 노드가 qfs1rac-node1
입니다.
[qfs1rac-node1]root@solaris:~#
QFS 파일 시스템에 사용할 전역 스토리지 장치를 선택합니다. /usr/global/bin/cldevice
list
-v
명령을 사용합니다.
Solaris Cluster 소프트웨어는 클러스터 노드에 연결되는 모든 장치에 고유 DID(장치 식별자)를 지정합니다. 전역 장치는 클러스터의 모든 노드에서 액세스할 수 있고 로컬 장치는 해당 장치를 마운트하는 호스트에서만 액세스할 수 있습니다. 전역 장치는 페일오버 후에 계속 액세스할 수 있습니다. 로컬 장치는 그렇지 않습니다.
예제에서는 d1
, d2
, d6
, d7
및 d8
장치를 일부 노드에서 액세스할 수 없습니다. 따라서 고가용성 QFS 공유 파일 시스템을 구성할 때 d3
, d4
및 d5
장치 중에서 선택합니다.
[qfs1rac-node1]root@solaris:~# cldevice list -v DID Device Full Device Path ---------- ---------------- d1 qfs1rac-node1:/dev/rdsk/c0t0d0 d2 qfs1rac-node1:/dev/rdsk/c0t6d0 d3 qfs1rac-node1:/dev/rdsk/c1t1d0 d3 qfs1rac-node2:/dev/rdsk/c1t1d0 d3 qfs1rac-node3:/dev/rdsk/c1t1d0 d4 qfs1rac-node1:/dev/rdsk/c1t2d0 d4 qfs1rac-node2:/dev/rdsk/c1t2d0 d4 qfs1rac-node3:/dev/rdsk/c1t2d0 d5 qfs1rac-node1:/dev/rdsk/c1t3d0 d5 qfs1rac-node2:/dev/rdsk/c1t3d0 d5 qfs1rac-node3:/dev/rdsk/c1t3d0 d6 qfs1rac-node2:/dev/rdsk/c0t0d0 d7 qfs1rac-node2:/dev/rdsk/c0t1d0 d8 qfs1rac-node3:/dev/rdsk/c0t1d0
mr
데이터 장치를 사용하는 고성능 공유 ma
파일 시스템을 만듭니다. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 엽니다.
예제에서는 파일 시스템 qfs1rac
를 구성합니다. d3
장치를 메타데이터 장치로 구성하고(장비 유형 mm
) d4
및 d5
장치를 데이터 장치로 사용합니다(장비 유형 mr
).
[qfs1rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ -------------- qfs1rac 100 ma qfs1rac - /dev/did/dsk/d3s0 101 mm qfs1rac - /dev/did/dsk/d4s0 102 mr qfs1rac - /dev/did/dsk/d5s0 103 mr qfs1rac - ...
/etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템 항목의 Additional Parameters
열에 shared
매개변수를 입력합니다. 파일을 저장합니다.
[qfs1rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ -------------- qfs1rac 100 ma qfs1rac - shared /dev/did/dsk/d3s0 101 mm qfs1rac - /dev/did/dsk/d4s0 102 mr qfs1rac - /dev/did/dsk/d5s0 103 mr qfs1rac - ... :wq [qfs1rac-node1]root@solaris:~#
mcf
파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd
명령을 사용하고 발견된 모든 오류를 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs1rac-node1
호스트에서 mcf
파일을 검사합니다.
[qfs1rac-node1]root@solaris:~# sam-fsd
...
Would start sam-archiverd()
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[qfs1rac-node1]root@solaris:~#
파일 시스템을 만듭니다. /opt/SUNWsamfs/sbin/sammkfs
-S
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 파일 시스템에 대한 장비 식별자입니다.
sammkfs
명령은 hosts.
family-set-name
및 mcf
파일을 읽고 지정된 등록 정보를 가진 공유 파일 시스템을 만듭니다.
[qfs1rac-node1]root@solaris:~# sammkfs -S qfs1rac Building 'qfs1rac' will destroy the contents of devices: ... Do you wish to continue? [y/N]yes ... [qfs1rac-node1]root@solaris:~#
텍스트 편집기에서 운영체제의 /etc/vfstab
파일을 열고 새 파일 시스템에 대한 라인을 시작합니다. 첫번째 열에 파일 시스템 이름과 공백을 입력하고 두번째 열에 하이픈과 추가 공백을 입력합니다.
예제에서는 vi
텍스트 편집기를 사용합니다. qfs1rac
파일 시스템에 대한 라인을 시작합니다. 하이픈은 운영체제에서 UFS 도구를 사용하여 파일 시스템 무결성을 검사하려는 시도를 방지합니다.
[qfs1rac-node1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- --------------- ------ ---- ------- ------------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs1rac -
/etc/vfstab
파일의 세번째 열에 클러스터를 기준으로 파일 시스템의 마운트 지점을 입력합니다. 시스템 루트 디렉토리의 바로 아래에 있지 않은 하위 디렉토리를 지정합니다.
공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs
리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다. 예제에서는 qfs1rac
파일 시스템에 대한 마운트 지점이 /global/sc-rac/qfs1rac
입니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- ----------------------- ------ ---- ------- ----------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
qfs1rac - /global/sc-rac/qfs1rac
파일 시스템 유형 samfs
를 네번째 열에 입력하고 -
(하이픈)을 다섯번째 열에 입력하고 no
를 여섯번째 열에 입력합니다.
#File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ----------------------- ------ ---- ------- ---------- /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs1rac - /global/sc-rac/qfs1rac samfs - no :wq [qfs1rac-node1]root@solaris:~#
/etc/vfstab
파일의 일곱번째 열에 아래 나열된 마운트 옵션을 입력합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
다음 마운트 옵션은 SC-RAC 클러스터 구성에 권장됩니다. 이러한 마운트 옵션을 여기에서 /etc/vfstab
에 지정하거나 더 편리한 경우 /etc/opt/SUNWsamfs/samfs.cmd
파일에 지정할 수 있습니다.
shared
stripe=1
sync_meta=1
mh_write
qwrite
forcedirectio
notrace
rdlease=300
wrlease=300
aplease=300
예제에서는 페이지 레이아웃에 맞게 목록이 축약되었습니다.
#File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs1rac - /global/sc-rac/qfs1rac samfs - no shared,...=300 :wq [qfs1rac-node1]root@solaris:~#
고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.
[qfs1rac-node1]root@solaris:~# mkdir -p /global/sc-rac/qfs1rac [qfs1rac-node1]root@solaris:~#
주 노드에 고가용성 공유 파일 시스템을 마운트합니다.
[qfs1rac-node1]root@solaris:~# mount /global/sc-rac/qfs1rac [qfs1rac-node1]root@solaris:~#
이제 나머지 SC-RAC 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성을 수행합니다.
클러스터의 나머지 노드는 잠재적 메타데이터 서버로 사용됩니다. 잠재적 메타데이터 서버는 메타데이터 장치에 액세스하고 메타데이터 서버의 역할을 담당할 수 있는 호스트입니다. 따라서 주 노드의 활성 메타데이터 서버가 실패할 경우 Solaris Cluster 소프트웨어는 보조 노드로 페일오버하여 잠재적 메타데이터 서버를 활성화할 수 있습니다.
SC-RAC 클러스터의 각 나머지 노드에 대해 다음과 같이 하십시오.
노드에 root
로 로그인합니다.
예제에서는 현재 노드가 qfs1rac-node2
입니다.
[qfs1rac-node2]root@solaris:~#
/etc/opt/SUNWsamfs/mcf
파일을 주 노드에서 현재 노드로 복사합니다.
mcf
파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd
명령을 실행하고 발견된 모든 오류를 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs1rac-node2
호스트에서 mcf
파일을 검사합니다.
[qfs1rac-node2]root@solaris:~# sam-fsd
...
Would start sam-archiverd()
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[qfs1rac-node2]root@solaris:~#
텍스트 편집기에서 운영체제의 /etc/vfstab
파일을 열고 새 파일 시스템에 대한 라인을 시작합니다.
이 예에서는 vi
편집기를 사용합니다.
[qfs1rac-node2]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ---------------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs1rac - /global/sc-rac/qfs1rac samfs - no
/etc/vfstab
파일의 일곱번째 열에 아래 나열된 마운트 옵션을 입력합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
다음 마운트 옵션은 SC-RAC 클러스터 구성에 권장됩니다. 이러한 마운트 옵션을 여기에서 /etc/vfstab
에 지정하거나 더 편리한 경우 /etc/opt/SUNWsamfs/samfs.cmd
파일에 지정할 수 있습니다.
shared
stripe=1
sync_meta=1
mh_write
qwrite
forcedirectio
notrace
rdlease=300
wrlease=300
aplease=300
예제에서는 페이지 레이아웃에 맞게 목록이 축약되었습니다.
#File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ---------------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs1rac - /global/sc-rac/qfs1rac samfs - no shared,...=300 :wq [qfs1rac-node2]root@solaris:~#
보조 노드에서 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.
[qfs1rac-node2]root@solaris:~# mkdir -p /global/sc-rac/qfs1rac [qfs1rac-node2]root@solaris:~#
보조 노드에 고가용성 공유 파일 시스템을 마운트합니다.
[qfs1rac-node2]root@solaris:~# mount /global/sc-rac/qfs1rac [qfs1rac-node2]root@solaris:~#
이제 SC-RAC 메타데이터 서버의 페일오버 구성을 수행합니다.
Solaris Cluster 소프트웨어가 관리하는 클러스터에서 Oracle HSM 공유 파일 시스템을 호스팅할 경우 Oracle HSM 소프트웨어에 의해 정의된 리소스 유형인 SUNW.qfs
클러스터 리소스를 만들어 메타데이터 서버의 페일오버를 구성합니다(자세한 내용은 SUNW.qfs
매뉴얼 페이지 참조). SC-RAC 구성에 대한 리소스를 만들고 구성하려면 다음과 같이 하십시오.
SC-RAC 클러스터의 주 노드에 root
로 로그인합니다.
예제에서는 주 노드가 qfs1rac-node1
입니다.
[qfs1rac-node1]root@solaris:~#
Solaris Cluster 소프트웨어에 대한 QFS 리소스 유형 SUNW.qfs
를 정의합니다. clresourcetype
register
SUNW.qfs
명령을 사용합니다.
[qfs1rac-node1]root@solaris:~# clresourcetype registerSUNW.qfs [qfs1rac-node1]root@solaris:~#
등록 파일을 찾을 수 없어 등록에 실패한 경우 /opt/SUNWsamfs/sc/etc/
디렉토리에 대한 심볼릭 링크를 Solaris Cluster가 리소스 유형 등록 파일을 유지하는 디렉토리인 /opt/cluster/lib/rgm/rtreg/
에 배치합니다.
Oracle HSM 소프트웨어를 설치하기 전에 Oracle Solaris Cluster 소프트웨어를 설치하지 않았습니다. 일반적으로 Oracle HSM는 설치 도중 Solaris Cluster를 감지한 경우 SUNW.qfs
등록 파일의 위치를 자동으로 제공합니다. 따라서 링크를 수동으로 만들 필요가 없습니다.
[qfs1rac-node1]root@solaris:~# cd /opt/cluster/lib/rgm/rtreg/ [qfs1rac-node1]root@solaris:~# ln -s /opt/SUNWsamfs/sc/etc/SUNW.qfs SUNW.qfs [qfs1rac-node1]root@solaris:~#
QFS 메타데이터 서버에 대한 리소스 그룹을 만듭니다. Solaris Cluster 명령 clresourcegroup
create
-n
node-list
group-name
을 사용합니다. 여기서 node-list
는 콤마로 구분된 클러스터 노드 목록이고 group-name
은 리소스 그룹에 사용할 이름입니다.
예제에서는 SC-RAC 서버 노드가 멤버로 포함된 리소스 그룹 qfsracrg
를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[qfs1rac-node1]root@solaris:~# clresourcegroup create \ -n qfs1rac-node1,qfs1rac-node2 qfsracrg [qfs1rac-node1]root@solaris:~#
새 리소스 그룹에서 활성 메타데이터 서버에 대한 가상 호스트 이름을 설정합니다. Solaris Cluster 명령 clreslogicalhostname
create
-g
group-name
을 사용합니다. 여기서 group-name
은 QFS 리소스 그룹의 이름이고 virtualMDS
는 가상 호스트 이름입니다.
공유 파일 시스템에 대한 hosts 파일에 사용한 것과 같은 가상 호스트 이름을 사용합니다. 예제에서는 qfsracrg
리소스 그룹에 가상 호스트 qfs1rac-mds
를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[qfs1rac-node1]root@solaris:~# clreslogicalhostname create \ -g qfsracrg qfs1rac-mds [qfs1rac-node1]root@solaris:~#
QFS 파일 시스템 리소스를 리소스 그룹에 추가합니다. clresource
create
-g
group-name
-t
SUNW.qfs
-x
QFSFileSystem=
mount-point
-y
Resource_dependencies=
virtualMDS
resource-name
명령을 사용합니다. 설명:
group-name
은 QFS 리소스 그룹의 이름입니다.
mount-point
는 시스템 루트 디렉토리 바로 아래에 있지 않은 하위 디렉토리인 클러스터의 파일 시스템에 대한 마운트 지점입니다.
공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs
리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다.
virtualMDS
는 활성 메타데이터 서버의 가상 호스트 이름입니다.
resource-name
은 리소스에 제공할 이름입니다.
예제에서는 SUNW.qfs
유형의 scrac
라는 리소스를 리소스 그룹 qfsracrg
에서 만듭니다. SUNW.qfs
확장 등록 정보 QFSFileSystem
을 /global/sc-rac/qfs1rac
마운트 지점으로 설정합니다. 표준 등록 정보 Resource_dependencies
를 활성 메타데이터 서버의 논리적 호스트인 qfs1rac-mds
로 설정합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[qfs1rac-node1]root@solaris:~# create -g qfsracrg -t SUNW.qfs \ -x QFSFileSystem=/global/sc-rac/qfs1rac \ -y Resource_dependencies=qfs1rac-mds scrac [qfs1rac-node1]root@solaris:~#
자원 그룹을 온라인으로 전환합니다. Solaris Cluster 명령 clresourcegroup
manage
group-name
및 clresourcegroup
online
-emM
group-name
을 사용합니다. 여기서 group-name
은 QFS 리소스 그룹의 이름입니다.
예제에서는 qfsracrg
리소스 그룹을 온라인 상태로 만듭니다.
[qfs1rac-node1]root@solaris:~# clresourcegroup manage qfsracrg [qfs1rac-node1]root@solaris:~# clresourcegroup online -emM qfsracrg [qfs1rac-node1]root@solaris:~#
QFS 리소스 그룹이 온라인 상태인지 확인합니다. Solaris Cluster 명령 clresourcegroup
status
를 사용합니다.
예제에서는 qfsracrg
리소스 그룹이 주 노드 qfs1rac-node1
에서 online
상태입니다.
[qfs1rac-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ qfsracrg qfs1rac-node1 No Online qfs1rac-node2 No Offline qfs1rac-node3 No Offline [qfs1rac-node1]root@solaris:~#
리소스 그룹이 제대로 페일오버되는지 확인합니다. 리소스 그룹을 보조 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup
switch
-n
node2
group-name
을 사용합니다. 여기서 node2
는 보조 노드의 이름이고 group-name
은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup
status
를 사용하여 결과를 검사합니다.
예제에서는 qfsracrg
리소스 그룹을 qfs1rac-node2
및 qfs1rac-node3
으로 이동하고 이 리소스 그룹이 지정된 노드에서 온라인 상태가 되는지 확인합니다.
[qfs1rac-node1]root@solaris:~# clresourcegroup switch -n qfs1rac-node2 qfsracrg [qfs1rac-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ qfsracrg qfs1rac-node1 No Offline qfs1rac-node2 No Online qfs1rac-node3 No Offline [qfs1rac-node1]root@solaris:~# clresourcegroup switch -n qfs1rac-node3 qfsracrg [qfs1rac-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ qfsracrg qfs1rac-node1 No Offline qfs1rac-node2 No Offline qfs1rac-node3 No Online [qfs1rac-node1]root@solaris:~#
리소스 그룹을 다시 주 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup
switch
-n
node1
group-name
을 사용합니다. 여기서 node1
은 주 노드의 이름이고 group-name
은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup
status
를 사용하여 결과를 검사합니다.
예제에서는 qfsracrg
리소스 그룹을 qfs1rac-node1
로 성공적으로 다시 이동합니다.
[qfs1rac-node1]root@solaris:~# clresourcegroup switch -n qfs1rac-node1 qfsracrg [qfs1rac-node1]root@solaris:~# clresourcegroup status === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- ------------- --------- ------ samr qfs1rac-node1 No Online qfs1rac-node2 No Offline qfs1rac-node3 No Offline [qfs1rac-node1]root@solaris:~#
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.
고가용성 파일 시스템은 데이터 및 메타데이터를 중복 주 스토리지 장치에 저장해야 합니다. 중복 디스크 배열 하드웨어는 메타데이터를 위한 RAID-1 또는 RAID-10 및 데이터를 위한 RAID-5를 사용하여 이 중복성을 제공할 수 있습니다. 그러나 일반 이중 포트 SCSI 디스크 장치 또는 JBOD(Just a Bunch Of Disks) 배열을 주 스토리지로 사용해야 할 경우 소프트웨어에서 필요한 중복성을 제공해야 합니다.
이러한 이유로 SC-RAC 구성은 Oracle SVM(Solaris Volume Manager) 다중 소유자 디스크 세트에 기초한 소프트웨어 RAID 구성을 지원합니다. 이 절에서는 이러한 변형된 SC-RAC 파일 시스템 구성을 설정할 때 수행해야 하는 기본 단계에 대해 설명합니다.
중복 스토리지 배열을 관리하기 위해서만 Solaris Volume Manager를 사용해야 합니다. 별개의 장치에서 스토리지를 연결하지 마십시오. 이 경우 I/O가 구성 요소 장치에 비효율적으로 분산되고 QFS 파일 시스템 성능이 저하됩니다.
다음 작업을 수행합니다.
Solaris 11부터 SVM(Solaris Volume Manager)은 더 이상 Solaris에 포함되지 않습니다. 그러나 Solaris Cluster 4 소프트웨어는 Solaris Volume Manager를 계속해서 지원합니다. 따라서 이 소프트웨어를 사용하려면 Solaris 10 9/10 릴리스에 포함된 버전을 다운로드하여 설치해야 합니다. 클러스터의 각 노드에 대해 다음과 같이 하십시오.
노드에 root
로 로그인합니다.
아래 예제에서는 Solaris IPS(이미지 패키징 시스템)를 사용하여 클러스터 노드 qfs2rac-node1
을 구성합니다.
[qfs2rac-node1]root@solaris:~#
로컬로 사용 가능한 SVM(Solaris Volume Manager) 패키지를 확인합니다. pkg
info
svm
명령을 사용합니다.
[qfs2rac-node1]root@solaris:~# pkg info svm pkg: info: no packages matching the following patterns you specified are installed on the system. Try specifying -r to query remotely: svm [qfs2rac-node1]root@solaris:~#
패키지를 로컬로 찾을 수 없는 경우 Solaris IPS(이미지 패키징 시스템) 저장소를 확인합니다. pkg
-r
svm
명령을 사용합니다.
[qfs2rac-node1]root@solaris:~# pkg -r svm Name: storage/svm Summary: Solaris Volume Manager Description: Solaris Volume Manager commands Category: System/Core State: Not installed Publisher: solaris Version: 0.5.11 Build Release: 5.11 Branch: 0.175.0.0.0.2.1 Packaging Date: October 19, 2011 06:42:14 AM Size: 3.48 MB FMRI: pkg://solaris/storage/svm@0.5.11,5.11-0.175.0.0.0.2.1:20111019T064214Z [qfs2rac-node1]root@solaris:~#
패키지를 설치합니다. pkg
install
storage/svm
명령을 사용합니다.
[qfs2rac-node1]root@solaris:~# pkg install storage/svm Packages to install: 1 Create boot environment: No Create backup boot environment: Yes Services to change: 1 DOWNLOAD PKGS FILES XFER (MB) Completed 1/1 104/104 1.6/1.6 PHASE ACTIONS Install Phase 168/168 PHASEITEMS Package State Update Phase 1/1 Image State Update Phase 2/2 [qfs2rac-node1]root@solaris:~#
설치가 완료되면 metadb
의 위치를 확인합니다. which
metadb
명령을 사용합니다.
[qfs2rac-node1]root@solaris:~# which metadb /usr/sbin/metadb [qfs2rac-node1]root@solaris:~#
설치를 확인합니다. metadb
명령을 사용합니다.
[qfs2rac-node1]root@solaris:~# metadb
[qfs2rac-node1]root@solaris:~#
metadb
에서 오류가 반환될 경우 kernel/drv/md.conf
파일이 있는지 확인합니다.
[qfs2rac-node1]root@solaris:~# metadb metadb: <HOST>: /dev/md/admin: No such file or directory [qfs2rac-node1]root@solaris:~# ls -l /kernel/drv/md.conf -rw-r--r-- 1 root sys 295 Apr 26 15:07 /kernel/drv/md.conf [qfs2rac-node1]root@solaris:~#
kernel/drv/md.conf
파일이 없을 경우 만듭니다. root
를 파일 소유자로 만들고 sys
를 그룹 소유자로 만듭니다. 권한을 644
로 설정합니다.
예제에서는 vi
편집기를 사용하여 파일을 만듭니다. 파일의 내용은 다음과 같아야 합니다.
[qfs2rac-node1]root@solaris:~# vi kernel/drv/md.conf ################################################### #pragma ident "@(#)md.conf 2.1 00/07/07 SMI" # # Copyright (c) 1992-1999 by Sun Microsystems, Inc. # All rights reserved. # name="md" parent="pseudo" nmd=128 md_nsets=4; #################################################### :wq [qfs2rac-node1]root@solaris:~# chown root:sys kernel/drv/md.conf [qfs2rac-node1]root@solaris:~# chmod 644 [qfs2rac-node1]root@solaris:~#
md.conf
파일을 동적으로 다시 스캔하고 장치 트리가 업데이트되었는지 확인합니다. update_drv
-f
md
명령을 사용합니다.
예제에서는 장치 트리가 업데이트되었습니다. 따라서 Solaris Volume Manager가 설치되었습니다.
[qfs2rac-node1]root@solaris:~# update_drv -f md [qfs2rac-node1]root@solaris:~# ls -l /dev/md/admin lrwxrwxrwx 1 root root 31 Apr 20 10:12 /dev/md/admin -> ../../devices/pseudo/md@0:admin [qfs2rac-node1]root@solaris:~#
이제 Solaris Volume Manager 다중 소유자 디스크 그룹 만들기를 수행합니다.
SC-RAC 구성의 모든 노드에 root
로 로그인합니다.
예제에서는 qfs2rac-node1
노드에 로그인합니다. 그런 다음 새 터미널 창을 열고 ssh
를 사용하여 qfs2rac-node2
및 qfs2rac-node3
노드에 로그인합니다.
[qfs2rac-node1]root@solaris:~# [qfs2rac-node1]root@solaris:~# ssh root@qfs2rac-node2 Password: [qfs2rac-node2]root@solaris:~# [qfs2rac-node1]root@solaris:~# ssh root@qfs2rac-node3 Password: [qfs2rac-node3]root@solaris:~#
Oracle Solaris Cluster 4.x를 Solaris 11.x 이상에서 사용하는 중이고 Solaris Volume Manager 설치를 아직 수행하지 않은 경우 계속하기 전에 각 노드에서 설치를 수행합니다.
Solaris 11부터 Solaris Volume Manager는 기본적으로 설치되지 않습니다.
각 노드에서 새 상태 데이터베이스 장치를 연결하고 상태 데이터베이스 복제본 3개를 만듭니다. metadb
-a
-f
-c3
device-name
명령을 사용합니다. 여기서 device-name
은 c
X
t
Y
d
Y
s
Z
형태의 물리적 장치 이름입니다.
Solaris Cluster DID(장치 식별자)를 사용하지 마십시오. 물리적 장치 이름을 사용합니다. 예제에서는 3개의 클러스터 노드 모두에서 상태 데이터베이스 장치를 만듭니다.
[qfs2rac-node1]root@solaris:~# metadb -a -f -c3 /dev/rdsk/c0t0d0 [qfs2rac-node2]root@solaris:~# metadb -a -f -c3 /dev/rdsk/c0t6d0 [qfs2rac-node3]root@solaris:~# metadb -a -f -c3 /dev/rdsk/c0t4d0
하나의 노드에 Solaris Volume Manager 다중 소유자 디스크 그룹을 만듭니다. metaset
-s
diskset
-M
-a
-h
host-list
명령을 사용합니다. 여기서 host-list
는 공백으로 구분된 소유자 목록입니다.
Solaris Volume Manager는 디스크 세트당 최대 4개의 호스트를 지원합니다. 예제에서는 qfs2rac-node1
에 디스크 그룹 datadisks
를 만들고 3개 노드 qfs2rac-node1
, qfs2rac-node2
및 qfs2rac-node3
을 소유자로 지정합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[qfs2rac-node1]root@solaris:~# metaset -s datadisks -M -a -h qfs2rac-node1 \ qfs2rac-node2 qfs2rac-node3
노드 중 하나에 있는 장치를 나열합니다. Solaris Cluster 명령 cldevice
list
-n
-v
를 사용합니다.
[qfs2rac-node1]root@solaris:~# cldevice list -n -v DID Device Full Device Path ---------- ---------------- d13 qfs2rac-node1:/dev/rdsk/c6t600C0FF00000000000332B62CF3A6B00d0 d14 qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E950F1FD9600d0 d15 qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E9124FAF9C00d0 ... [qfs2rac-node1]root@solaris:~#
cldevice
list
-n
-v
명령의 출력에서 미러링할 장치를 선택합니다.
예제에서는 4개의 미러를 위한 네 쌍의 장치인 d21
및 d13
, d14
및 d17
, d23
및 d16
, d15
및 d19
를 선택합니다.
[qfs2rac-node1]root@solaris:~# cldevice list -n -v DID Device Full Device Path ---------- ---------------- d13 qfs2rac-node1:/dev/rdsk/c6t600C0FF00000000000332B62CF3A6B00d0 d14 qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E950F1FD9600d0 d15 qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E9124FAF9C00d0 d16 qfs2rac-node1:/dev/rdsk/c6t600C0FF00000000000332B28488B5700d0 d17 qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB474EC5DE900d0 d18 qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E975EDA6A000d0 d19 qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB47E331ACF00d0 d20 qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E9780ECA8100d0 d21 qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000004CAD5B68A7A100d0 d22 qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB43CF85DA800d0 d23 qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000004CAD7CC3CDE500d0 d24 qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB4259B272300d0 .... [qfs2rac-node1]root@solaris:~#
선택한 장치를 동일한 노드의 디스크 세트에 추가합니다. metaset
-a
devicelist
명령을 사용합니다. 여기서 devicelist
는 공백으로 구분된 하나 이상의 클러스터 장치 식별자 목록입니다.
예제에서는 나열된 디스크를 다중 소유자 디스크 세트 dataset1
에 추가합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).
[qfs2rac-node1]root@solaris:~# metaset -s dataset1 -M -a -h /dev/did/rdsk/d21 \ /dev/did/rdsk/d13 /dev/did/rdsk/d14 /dev/did/rdsk/d17 /dev/did/rdsk/d23 \ /dev/did/rdsk/d16 /dev/did/rdsk/d15 /dev/did/rdsk/d19 [qfs2rac-node1]root@solaris:~#
이제 QFS 데이터 및 메타데이터에 대한 미러링된 볼륨 만들기를 수행합니다.
구성 요소 간의 관계를 명확하게 유지하기 위해 만들려는 RAID-0 논리 볼륨 및 RAID-1 미러에 대한 이름 지정 체계를 결정합니다.
일반적으로 RAID-1 미러는 d
n
으로 이름이 지정되고 여기서 n
은 정수입니다. RAID-1 미러를 구성하는 RAID-0 볼륨은 d
n
X
로 이름이 지정되고 여기서 X
는 미러 내에서 장치의 위치를 나타내는 정수입니다(일반적으로 양방향 미러의 경우 0
또는 1
).
이 절차의 예제에서는 RAID-0 논리 볼륨 쌍에서 양방향 RAID-1 미러를 만듭니다. 따라서 미러의 이름을 d1
, d2
, d3
, d4
등으로 지정합니다. 그런 다음 RAID-0 볼륨을 포함하는 RAID-1 미러에 대한 각 쌍의 RAID-0 볼륨 이름을 d10
및 d11
, d20
및 d21
, d30
및 d31
, d40
및 d41
등으로 지정합니다.
다중 소유자 디스크 세트를 만든 노드에 로그인합니다. root
로 로그인합니다.
위 예제에서는 qfs2rac-node1
에서 디스크 세트를 만들었습니다.
[qfs2rac-node1]root@solaris:~#
첫번째 RAID-0 논리 볼륨을 만듭니다. metainit
-s
diskset-name
device-name
number-of-stripes
components-per-stripe
component-names
명령을 사용합니다. 여기서 각 항목은 다음과 같습니다.
diskset-name
은 디스크 세트에 사용하도록 선택한 이름입니다.
device-name
은 RAID-0 논리 볼륨에 사용하도록 선택한 이름입니다.
number-of-stripes
는 1
입니다.
components-per-stripe
는 1
입니다.
component-name
은 RAID-0 볼륨에서 사용할 디스크 세트 구성 요소의 장치 이름입니다.
예제에서는 다중 소유자 디스크 세트 dataset1
의 클러스터(DID) 장치 /dev/did/dsk/d21s0
을 사용하여 RAID-0 논리 볼륨 d10
을 만듭니다.
[qfs2rac-node1]root@solaris:~# metainit -s dataset1 d10 1 1 /dev/did/dsk/d21s0 [qfs2rac-node1]root@solaris:~#
나머지 RAID-0 논리 볼륨을 만듭니다.
[qfs2rac-node1]root@solaris:~# metainit -s dataset1 d11 1 1 /dev/did/dsk/d13s0 [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d20 1 1 /dev/did/dsk/d14s0 [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d21 1 1 /dev/did/dsk/d17s0 [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d30 1 1 /dev/did/dsk/d23s0 [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d31 1 1 /dev/did/dsk/d16s0 [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d40 1 1 /dev/did/dsk/d15s0 [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d41 1 1 /dev/did/dsk/d19s0 ... [qfs2rac-node1]root@solaris:~#
첫번째 RAID-1 미러를 만듭니다. metainit
-s
diskset-name
RAID-1-mirrorname
-m
RAID-0-volume0
명령을 사용합니다. 여기서 각 항목은 다음과 같습니다.
diskset-name
은 다중 소유자 디스크 세트의 이름입니다.
RAID-1-mirrorname
은 RAID-1 미러링된 볼륨의 이름입니다.
RAID-0-volume0
은 미러에 추가하는 중인 첫번째 RAID-0 논리 볼륨입니다.
예제에서는 d1
미러를 만들고 미러의 첫번째 RAID-0 볼륨 d10
을 추가합니다.
[qfs2rac-node1]root@solaris:~# metainit -s dataset1 d1 -m d10 [qfs2rac-node1]root@solaris:~#
나머지 RAID-0 볼륨을 첫번째 RAID-1 미러에 추가합니다. metattach
-s
diskset-name
RAID-1-mirrorname
RAID-0-volume
명령을 사용합니다. 여기서 각 항목은 다음과 같습니다.
diskset-name
은 다중 소유자 디스크 세트의 이름입니다.
RAID-1-mirrorname
은 RAID-1 미러링된 볼륨의 이름입니다.
RAID-0-volume
은 미러에 추가하는 중인 RAID-0 논리 볼륨입니다.
예제에서는 d1
이 이중 미러이므로 단일 RAID-0 볼륨 d11
을 추가합니다.
[qfs2rac-node1]root@solaris:~# metattach -s dataset1 d11 d1 [qfs2rac-node1]root@solaris:~#
나머지 미러를 만듭니다.
예제에서는 d2
, d3
, d4
등의 미러를 만듭니다.
[qfs2rac-node1]root@solaris:~# metainit -s dataset1 d2 -m d20 [qfs2rac-node1]root@solaris:~# metattach -s dataset1 d21 d2 [qfs2rac-node1]root@solaris:~# metainit -s dataset2 d3 -m d30 [qfs2rac-node1]root@solaris:~# metattach -s dataset2 d31 d3 [qfs2rac-node1]root@solaris:~# metainit -s dataset2 d4 -m d40 [qfs2rac-node1]root@solaris:~# metattach -s dataset2 d41 d4 ... [qfs2rac-node1]root@solaris:~#
QFS 파일 시스템 메타데이터를 보관할 미러를 선택합니다.
아래 예제에서는 d1
및 d2
미러를 선택합니다.
선택한 미러에서 QFS 메타데이터를 보관할 소프트 분할 영역을 만듭니다. 각 미러에 대해 metainit
-s
diskset-name
partition-name
-p
RAID-1-mirrorname
size
명령을 사용합니다. 설명:
diskset-name
은 다중 소유자 디스크 세트의 이름입니다.
partition-name
은 새 분할 영역의 이름입니다.
RAID-1-mirrorname
은 미러의 이름입니다.
size
는 분할 영역의 크기입니다.
예제에서는 2개의 500GB 분할 영역을 만듭니다. 즉, d1
미러에서 d53
을 만들고 d2
미러에서 d63
을 만듭니다.
[qfs2rac-node1]root@solaris:~# metainit -s dataset1 d53 -p d1 500g [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d63 -p d2 500g
아직 수행하지 않은 경우 모든 SC-RAC 클러스터 노드에서 QFS 공유 파일 시스템 hosts 파일 만들기 절차를 수행합니다. 완료되면 여기로 돌아옵니다.
SC-RAC 클러스터에 대한 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버 둘 다로 사용될 클러스터 노드를 선택합니다. root
로 로그인합니다.
예제에서는 qfs2rac-node1
노드를 선택합니다.
[qfs2rac-node1]root@solaris:~#
주 노드에서 고성능 공유 ma
파일 시스템을 만듭니다. Solaris Volume Manager 미러링된 디스크 볼륨을 mm
메타데이터 장치 및 mr
데이터 장치로 사용합니다. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 필요한 대로 편집한 다음 파일을 저장합니다.
예제에서는 vi
텍스트 편집기를 사용하여 qfs2rac
파일 시스템을 만듭니다. 미러링된 볼륨 d1
및 d2
의 분할 영역은 파일 시스템의 mm
메타데이터 장치 2개인 110
및 120
으로 사용됩니다. 미러링된 볼륨 d3
및 d4
는 파일 시스템의 mr
데이터 장치 2개인 130
및 140
으로 사용됩니다.
[qfs2rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # /etc/opt/SUNWsamfs/mcf file: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters # ----------------------- --------- -------- ------- ------ ---------- qfs2rac 100 ma qfs2rac on shared /dev/md/dataset1/dsk/d53 110 mm qfs2rac on /dev/md/dataset1/dsk/d63 120 mm qfs2rac on /dev/md/dataset1/dsk/d3 130 mr qfs2rac on /dev/md/dataset1/dsk/d4 140 mr qfs2rac on :wq [qfs2rac-node1]root@solaris:~#
mcf
파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/
sam-fsd
명령을 사용하고 발견된 모든 오류를 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs2rac-node1
호스트에서 mcf
파일을 검사합니다.
[qfs2rac-node1]root@solaris:~# sam-fsd
...
Would start sam-archiverd()
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[qfs2rac-node1]root@solaris:~#
파일 시스템을 만듭니다. /opt/SUNWsamfs/sbin/
sammkfs
-S
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 파일 시스템의 장비 식별자입니다.
sammkfs
명령은 hosts.
family-set-name
및 mcf
파일을 읽고 지정된 등록 정보를 가진 공유 파일 시스템을 만듭니다.
[qfs2rac-node1]root@solaris:~# sammkfs -S qfs2rac Building 'qfs2rac' will destroy the contents of devices: ... Do you wish to continue? [y/N]yes ... [qfs2rac-node1]root@solaris:~#
텍스트 편집기에서 운영체제의 /etc/vfstab
파일을 열고 새 파일 시스템에 대한 라인을 시작합니다. 첫번째 열에 파일 시스템 이름과 공백을 입력하고 두번째 열에 하이픈과 추가 공백을 입력합니다.
예제에서는 vi
텍스트 편집기를 사용합니다. qfs2rac
파일 시스템에 대한 라인을 시작합니다. 하이픈은 운영체제에서 UFS 도구를 사용하여 파일 시스템 무결성을 검사하려는 시도를 방지합니다.
[qfs2rac-node1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ---------------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs2rac -
/etc/vfstab
파일의 세번째 열에 클러스터를 기준으로 파일 시스템의 마운트 지점을 입력합니다. 시스템 루트 디렉토리의 바로 아래에 있지 않은 마운트 지점 하위 디렉토리를 지정합니다.
공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs
리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다. 예제에서는 qfs2rac
파일 시스템에 대한 마운트 지점이 /global/sc-rac/qfs2rac
입니다.
#File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ---------------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs2rac - /global/sc-rac/qfs2rac samfs - no
/etc/vfstab
파일의 네번째 열에 파일 시스템 유형(samfs
)을 입력합니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- ---------------------- ------ ---- ------- ------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
qfs2rac - /global/sc-rac/qfs2rac samfs
/etc/vfstab
파일의 다섯번째 열에 fsck
전달 옵션(-
)을 입력합니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- ---------------------- ------ ---- ------- ------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
qfs2rac - /global/sc-rac/qfs2rac samfs -
/etc/vfstab
파일의 여섯번째 열에 부트 시 마운트 옵션(no
)을 입력합니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- ---------------------- ------ ---- ------- ------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
qfs2rac - /global/sc-rac/qfs2rac samfs - no
/etc/vfstab
파일의 일곱번째 열에 sw_raid
마운트 옵션 및 SC-RAC 구성에 권장되는 마운트 옵션을 입력합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
다음 마운트 옵션이 권장됩니다. 이러한 마운트 옵션을 여기에서 /etc/vfstab
에 지정하거나 더 편리한 경우 /etc/opt/SUNWsamfs/samfs.cmd
파일에 지정할 수 있습니다.
shared
stripe=1
sync_meta=1
mh_write
qwrite
forcedirectio
notrace
rdlease=300
wrlease=300
aplease=300
예제에서는 페이지 레이아웃에 맞게 마운트 옵션 목록이 축약되었습니다.
#File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- ---------------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... qfs2rac - /global/sc-rac/qfs2rac samfs - no shared,...sw_raid :wq [qfs2rac-node1]root@solaris:~#
고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.
[qfs2rac-node1]root@solaris:~# mkdir -p /global/sc-rac/qfs2rac [qfs2rac-node1]root@solaris:~#
주 노드에 고가용성 공유 파일 시스템을 마운트합니다.
[qfs2rac-node1]root@solaris:~# mount /global/sc-rac/qfs2rac [qfs2rac-node1]root@solaris:~#
두번째 노드를 설정합니다. 나머지 SC-RAC 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성 절차를 사용하십시오.
페일오버를 구성합니다. SC-RAC 메타데이터 서버의 페일오버 구성 절차를 사용하십시오. 그런 다음 여기로 돌아옵니다.
Solaris Volume Manager 미러링된 볼륨을 사용하여 SC-RAC 구성을 성공적으로 구성했습니다.
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.