9 고가용성 솔루션 준비

Oracle Hierarchical Storage Manager and StorageTek QFS Software 고가용성 구성은 무중단 파일 시스템 및 아카이빙 서비스를 유지 관리하도록 설계되었습니다. 고가용성 솔루션에서 Oracle Hierarchical Storage Manager 또는 QFS 소프트웨어는 Oracle Solaris Cluster 소프트웨어, 중복 하드웨어 및 중복 통신과 통합되어 있습니다. 따라서 호스트 시스템 또는 구성 요소가 실패하거나 관리자에 의해 서비스가 중단된 경우 Oracle HSM 서비스는 사용자 및 응용 프로그램이 액세스할 수 있는 대체 호스트로 자동으로 페일오버됩니다. 따라서 고가용성 구성은 장비 및 시스템 오류로 인한 작동 중지 시간을 최소화합니다.

고가용성 구성은 복잡하지만 예측할 수 없는 상호 작용과 잠재적인 데이터 손상을 방지하도록 신중하게 설계 및 배치해야 합니다. 따라서 이 장에서는 지원되는 구성 설명부터 시작합니다. 이 절을 학습하고 나서 가용성 요구 사항에 가장 적합한 구성을 선택합니다. 그런 다음 이후의 절에서는 선택한 구성을 설정하는 방법에 대해 설명합니다.

공유 Oracle Solaris Cluster 구성에서 하드웨어 아키텍처를 혼합할 수 없습니다. 모든 노드는 SPARC 아키텍처, x86-64 아키텍처(Solaris 11.1 전용) 또는 32비트 x86 아키텍처(Solaris 10 이전)를 사용해야 합니다.

지원되는 고가용성 구성 이해

클러스터화된 다중 호스트 솔루션에서는 저장된 데이터의 무결성을 보장하기 위해 파일 시스템, 응용 프로그램, 운영체제, 클러스터링 소프트웨어 및 스토리지 간의 상호 작용을 신중하게 제어해야 합니다. 따라서 복잡성 및 잠재적 위험을 최소화하기 위해 4가지 특정 배치 요구 사항 세트에 맞게 지원되는 고가용성 Oracle HSM 구성이 제공됩니다.

HA-QFS, 고가용성 QFS 비공유 독립형 파일 시스템 구성

HA-QFS(고가용성 QFS) 구성은 호스트 오류가 발생한 경우에도 QFS 비공유 독립형 파일 시스템을 계속 액세스할 수 있게 합니다. 파일 시스템은 Solaris Cluster 소프트웨어가 SUNW.HAStoragePlus 유형의 리소스로 관리하는 2노드 클러스터에서 두 노드 모두에 구성됩니다. 그러나 특정 시점에 하나의 노드만 QFS 파일 시스템을 마운트합니다. 파일 시스템을 마운트하는 노드가 실패할 경우 클러스터링 소프트웨어는 페일오버를 자동으로 시작하고 나머지 노드에 파일 시스템을 다시 마운트합니다.

클라이언트는 활성 클러스터 노드를 파일 서버로 사용하여 NFS(네트워크 파일 시스템), HA-NFS(고가용성 NFS) 또는 SMB/CIFS 공유를 통해 데이터에 액세스합니다.

구현 지침은 고가용성 QFS 비공유 파일 시스템을 참조하십시오.

HA-COTC, 고가용성 메타데이터 서버가 있는 QFS 공유 파일 시스템

HA-COTC(High Availability-Clients Outside the Cluster) 구성은 서버가 실패한 경우에도 QFS 파일 시스템 클라이언트가 해당 데이터에 계속 액세스할 수 있도록 QFS 메타데이터 서버의 가용성을 유지 관리합니다. 파일 시스템은 공유됩니다. QFS 활성/잠재적 메타데이터 서버는 Solaris Cluster 소프트웨어가 관리하는 2노드 클러스터에서 호스트됩니다. SUNW.qfs 유형의 Oracle HSM 고가용성 리소스는 클러스터 내의 공유 파일 시스템 서버에 대한 페일오버를 관리합니다. 모든 클라이언트는 클러스터 외부에서 호스팅됩니다. 클러스터화된 서버는 메타데이터의 가용성을 보장하고 I/O 라이센스를 발행하며 파일 시스템의 일관성을 유지 관리합니다.

활성 메타데이터 서버를 호스팅하는 노드가 실패할 경우 Solaris Cluster 소프트웨어는 정상적인 노드에서 잠재적 MDS를 자동으로 활성화하고 페일오버를 시작합니다. QFS 파일 시스템은 공유되므로 새로 활성화된 메타데이터 서버에 이미 마운트되어 있고 클라이언트에 마운트된 상태로 남아 있습니다. 클라이언트는 계속해서 메타데이터 업데이트 및 I/O 임대를 수신하므로 파일 시스템이 중단 없이 계속될 수 있습니다.

HA-COTC 구성에서는 물리적으로 별개인 mm 메타데이터 장치 및 mr 데이터 장치가 있는 고성능 ma 파일 시스템을 사용해야 합니다. 범용 ms 파일 시스템 및 md 장치는 지원되지 않습니다.

표준 NFS(네트워크 파일 시스템) 또는 SMB/CIFS를 사용하여 Oracle HSM을 실행하지 않는 클라이언트와 HA-COTC 파일 시스템을 공유할 수 있습니다. 그러나 HA-NFS는 지원되지 않습니다.

구현 지침은 고가용성 QFS 공유 파일 시스템, 클러스터 외부의 클라이언트를 참조하십시오.

HA-SAM, 고가용성, 아카이빙, QFS 공유 파일 시스템 구성

HA-SAM(High-Availability Oracle Hierarchical Storage Manager) 구성은 서버 호스트가 실패한 경우에도 QFS 메타데이터 서버 및 Oracle Hierarchical Storage Manager 응용 프로그램이 계속 작동하도록 보장하여 아카이빙 파일 시스템의 가용성을 유지 관리합니다. 파일 시스템은 Solaris Cluster 소프트웨어가 관리하는 2노드 클러스터에서 호스트되는 활성/잠재적 QFS 메타데이터 서버 간에 공유됩니다. SUNW.qfs 유형의 Oracle HSM 고가용성 리소스는 서버에 대한 페일오버를 관리합니다.

활성 Oracle HSM 메타데이터 서버 노드가 실패할 경우 클러스터링 소프트웨어는 잠재적 메타데이터 서버 노드를 자동으로 활성화하고 페일오버를 시작합니다. QFS 파일 시스템이 공유되고 이미 모든 노드에 마운트되어 있으므로 데이터 및 메타데이터에 중단 없이 계속 액세스할 수 있습니다.

클라이언트는 활성 클러스터 노드를 파일 서버로 사용하여 HA-NFS(고가용성 네트워크 파일 시스템), NFS 또는 SMB/CIFS 공유를 통해 데이터에 액세스합니다.

구현 지침은 고가용성 Oracle HSM 공유 아카이빙 파일 시스템 을 참조하십시오.

SC-RAC, Oracle RAC를 위한 고가용성 QFS 공유 파일 시스템 구성

SC-RAC(Solaris Cluster-Oracle Real Application Cluster) 구성은 QFS 파일 시스템을 사용하는 고가용성 데이터베이스 솔루션을 지원합니다. RAC 소프트웨어는 I/O 요청을 조정하고 작업 로드를 분배하며 클러스터의 노드에서 실행되는 여러 Oracle 데이터베이스 인스턴스에 대한 일관된 단일 데이터베이스 파일 세트를 유지 관리합니다. SC-RAC 구성에서 Oracle 데이터베이스, Oracle RAC(Real Application Cluster) 및 QFS 소프트웨어는 클러스터에 있는 둘 이상의 노드에서 실행됩니다. Solaris Cluster 소프트웨어는 클러스터를 SUNW.qfs 유형의 리소스로 관리합니다. 하나의 노드가 QFS 공유 파일 시스템의 MDS(메타데이터 서버)로 구성됩니다. 나머지 노드는 파일 시스템을 클라이언트로 공유하는 잠재적 메타데이터 서버로 구성됩니다. 활성 메타데이터 서버 노드가 실패할 경우 Solaris Cluster 소프트웨어는 정상적인 노드에서 잠재적 메타데이터 서버를 자동으로 활성화하고 페일오버를 시작합니다. QFS 파일 시스템이 공유되고 이미 모든 노드에 마운트되어 있으므로 데이터에 중단 없이 계속 액세스할 수 있습니다.

고가용성 QFS 비공유 파일 시스템

HA-QFS(고가용성 QFS) 파일 시스템을 구성하려면 SUNW.HAStoragePlus 유형의 리소스로 관리되는 2노드 Solaris Cluster에서 동일한 호스트 2개를 설정합니다. 그런 다음 두 노드 모두에서 QFS 비공유 파일 시스템을 구성합니다. 특정 시점에 하나의 노드만 파일 시스템을 마운트합니다. 그러나 하나의 노드가 실패할 경우 클러스터링 소프트웨어는 페일오버를 자동으로 시작하고 작동 중인 노드에 파일 시스템을 다시 마운트합니다.

HA-QFS(고가용성 QFS) 파일 시스템을 설정하려면 다음과 같이 하십시오.

두 클러스터 노드 모두에서 비공유 QFS 파일 시스템 만들기

  1. 클러스터 노드 중 하나에 root로 로그인합니다.

    예제에서는 호스트가 qfs1mds-node1qfs1mds-node2입니다. qfs1mds-node1 호스트에 로그인합니다.

    [qfs1mds-node1]root@solaris:~# 
    
  2. 원하는 QFS 파일 시스템을 호스트에서 구성합니다(마운트하지는 않음).

    범용 ms 파일 시스템 구성 또는 고성능 ma 파일 시스템 구성의 지침에 따라 파일 시스템을 구성합니다. HA-QFS 구성은 QFS 공유 파일 시스템을 지원하지 않습니다.

  3. 나머지 클러스터 노드에 root로 로그인합니다.

    예제에서는 ssh를 사용하여 qfs1mds-node2 호스트에 로그인합니다.

    [qfs1mds-node1]root@solaris:~# ssh root@qfs1mds-node2
    Password:
    [qfs1mds-node2]root@solaris:~# 
    
  4. 두번째 노드에서 동일한 QFS 파일 시스템을 구성합니다.

  5. 이제 고가용성 QFS 파일 시스템 구성을 수행합니다.

고가용성 QFS 파일 시스템 구성

다음과 같이 하십시오.

  1. 클러스터 노드 중 하나에 root로 로그인합니다.

    예제에서는 호스트가 qfs1mds-node1qfs1mds-node2입니다. qfs1mds-node1 호스트에 로그인합니다.

    [qfs1mds-node1]root@solaris:~# 
    
  2. 아직 정의하지 않은 경우 Solaris Cluster 소프트웨어에 대한 SUNW.HAStoragePlus 리소스 유형을 정의합니다. clresourcetype register SUNW.HAStoragePlus 명령을 사용합니다.

    HAStoragePlus는 디스크 장치 그룹, 클러스터 파일 시스템 및 로컬 파일 시스템 간의 종속성을 정의 및 관리하는 Solaris Cluster 리소스 유형입니다. 이 리소스 유형은 페일오버 이후 데이터 서비스의 시작을 조정하여 서비스를 다시 시작하려고 할 때 필요한 모든 구성 요소가 준비되도록 합니다. 자세한 내용은 SUNW.HAStoragePlus 매뉴얼 페이지를 참조하십시오.

    [qfs1mds-node1]root@solaris:~# clresourcetype register SUNW.HAStoragePlus
    [qfs1mds-node1]root@solaris:~# 
    
  3. SUNW.HAStoragePlus 유형의 새 Solaris Cluster 리소스와 이를 포함할 새 리소스 그룹을 만듭니다. /usr/global/bin/clresource create -g resource-group -t SUNW.HAStoragePlus -x FilesystemMountPoints=/global/mount-point -x FilesystemCheckCommand=/bin/true QFS-resource 명령을 사용합니다. 설명:

    • resource-group은 파일 시스템 리소스 그룹에 사용하도록 선택한 이름입니다.

    • mount-point는 QFS 파일 시스템이 마운트되는 디렉토리입니다.

    • QFS-resourceSUNW.HAStoragePlus 리소스에 사용하도록 선택한 이름입니다.

    예제에서는 마운트 지점 디렉토리 /global/qfs1SUNW.HAStoragePlus 리소스 haqfs가 있는 리소스 그룹 qfsrg를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [qfs1mds-node1]root@solaris:~# clresource create -g qfsrg -t SUNW.HAStoragePlus \
    -x FilesystemMountPoints=/global/hsmqfs1/qfs1 \
    -x FilesystemCheckCommand=/bin/true haqfs 
    [qfs1mds-node1]root@solaris:~# 
    
  4. 클러스터의 노드를 표시합니다. clresourcegroup status 명령을 사용합니다.

    예제에서는 QFS 파일 시스템 호스트 노드가 qfs1mds-1qfs1mds-2입니다. qfs1mds-1 노드는 Online 상태이므로 파일 시스템을 마운트하고 qfsrg 리소스 그룹을 호스팅하는 주 노드입니다.

    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name    Node Name    Suspended   Status
    ----------    ---------    ---------   ------
    qfsrg         qfs1mds-1    No          Online
                  qfs1mds-2    No          Offline
    [qfs1mds-node1]root@solaris:~# 
    
  5. 리소스 그룹을 보조 노드로 이동하여 리소스 그룹이 올바르게 페일오버되는지 확인합니다. Solaris Cluster 명령 clresourcegroup switch -n node2 group-name을 사용합니다. 여기서 node2는 보조 노드의 이름이고 group-name은 HA-QFS 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status를 사용하여 결과를 확인합니다.

    예제에서는 haqfs 리소스 그룹을 qfs1mds-node2로 이동하고 이 리소스 그룹이 지정된 노드에서 온라인 상태가 되는지 확인합니다.

    [qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node2 qfsrg
    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name    Node Name    Suspended   Status
    ----------    ---------    ---------   ------
    qfsrg         qfs1mds-1    No          Offline
                  qfs1mds-2    No          Online
    [qfs1mds-node1]root@solaris:~# 
    
  6. 리소스 그룹을 다시 주 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup switch -n node1 group-name을 사용합니다. 여기서 node1은 주 노드의 이름이고 group-name은 HA-QFS 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status를 사용하여 결과를 확인합니다.

    예제에서는 qfsrg 리소스 그룹을 qfs1mds-node1로 성공적으로 다시 이동합니다.

    [qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node1 qfsrg
    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsrg       qfs1mds-node1   No          Online
                qfs1mds-node2   No          Offline
    [qfs1mds-node1]root@solaris:~# 
    
  7. HA-NFS(고가용성 네트워크 파일 시스템) 공유를 구성해야 할 경우 지금 구성합니다. 지침은 Oracle Solaris Cluster 온라인 설명서 라이브러리에 포함된 Oracle Solaris Cluster Data Service for Network File System (NFS) Guide를 참조하십시오.

  8. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  9. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.

고가용성 QFS 공유 파일 시스템, 클러스터 외부의 클라이언트

HA-COTC(High Availability-Clients Outside the Cluster) 구성은 Solaris Cluster 소프트웨어에 의해 관리되는 고가용성 클러스터의 노드에서 MDS(중요 메타데이터 서버)를 호스팅하는 비아카이빙 QFS 공유 파일 시스템입니다. 이 배열은 서버가 실패한 경우에도 파일 시스템 클라이언트가 해당 데이터에 계속 액세스할 수 있도록 QFS 메타데이터 및 파일 액세스 임대에 대한 페일오버 보호를 제공합니다. 그러나 파일 시스템 클라이언트와 데이터 장치가 클러스터 외부에 남아 있으므로 Solaris Cluster가 QFS 공유 데이터의 제어를 QFS 소프트웨어와 경합하지 않습니다.

HA-COTC 파일 시스템을 구성하려면 아래 작업을 수행합니다.

두 HA-COTC 클러스터 노드 모두에서 QFS 공유 파일 시스템 hosts 파일 만들기

QFS 공유 파일 시스템에서는 모든 호스트가 파일 시스템의 메타데이터에 액세스할 수 있도록 메타데이터 서버에서 hosts 파일을 구성해야 합니다. hosts 파일은 /etc/opt/SUNWsamfs/ 디렉토리에 mcf 파일과 나란히 저장됩니다. 공유 파일 시스템의 초기 생성 중 sammkfs -S 명령은 이 파일에 저장된 설정을 사용하여 공유를 구성합니다. 따라서 아래 절차를 사용하여 지금 만듭니다.

  1. HA-COTC 클러스터의 주 노드에 root로 로그인합니다.

    예제에서는 호스트가 qfs1mds-node1qfs1mds-node2입니다. qfs1mds-node1 호스트에 로그인합니다.

    [qfs1mds-node1]root@solaris:~# 
    
  2. 클러스터 구성을 표시합니다. /usr/global/bin/cluster show 명령을 사용합니다. 각 Node Name에 대한 레코드를 찾은 다음 각 네트워크 어댑터의 privatehostname, Transport Adapter 이름 및 ip_address 등록 정보를 메모합니다.

    명령의 출력이 상당히 길 수 있으므로 아래 예제에서는 긴 표시가 줄임표(...)로 축약되어 있습니다.

    예제에서는 각 노드에 2개의 네트워크 인터페이스인 qfe3hme0이 있습니다.

    • hme0 어댑터는 클러스터가 노드 간의 내부 통신에 사용하는 개인 네트워크의 IP 주소를 가집니다. Solaris Cluster 소프트웨어는 각 개인 주소에 해당하는 개인 호스트 이름을 지정합니다.

      기본적으로 주 노드의 개인 호스트 이름은 clusternode1-priv이고 보조 노드의 개인 호스트 이름은 clusternode2-priv입니다.

    • qfe3 어댑터는 클러스터가 데이터 전송에 사용하는 공용 IP 주소 및 호스트 이름인 qfs1mds-node1qfs1mds-node2를 가집니다.

    [qfs1mds-node1]root@solaris:~# cluster show
    ...
      === Cluster Nodes ===                        
      Node Name:                                    qfs1mds-node1...
        privatehostname:                               clusternode1-priv...
        Transport Adapter List:                        qfe3, hme0...
        Transport Adapter:                          qfe3...
          Adapter Property(ip_address):                172.16.0.12...
        Transport Adapter:                          hme0...
          Adapter Property(ip_address):                10.0.0.129...
      Node Name:                                    qfs1mds-node2...
        privatehostname:                               clusternode2-priv...
        Transport Adapter List:                        qfe3, hme0...
          Adapter Property(ip_address):                172.16.0.13...
        Transport Adapter:                          hme0
          Adapter Property(ip_address):                10.0.0.122
    
  3. 텍스트 편집기를 사용하여 메타데이터 서버에서 /etc/opt/SUNWsamfs/hosts.family-set-name 파일을 만듭니다. 여기서 family-set-name은 파일 시스템의 패밀리 세트 이름에 대한 이름입니다.

    예제에서는 vi 텍스트 편집기를 사용하여 hosts.qfs1 파일을 만듭니다. 일부 선택적 머리글을 추가하여 호스트 테이블의 열을 표시하고 각 라인을 해시 기호(#)로 시작하여 주석이라는 것을 나타냅니다.

    [qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1
    # /etc/opt/SUNWsamfs/hosts.qfs1
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    
  4. 테이블의 첫번째 열에 주 및 보조 메타데이터 서버 노드의 호스트 이름과 그 뒤에 약간의 공백을 입력합니다. 각 항목을 별개의 라인에 배치합니다.

    hosts 파일에서 라인은 행(레코드)이고 공백은 열(필드) 구분자입니다. 예제에서 처음 두 행의 Host Name 열에는 파일 시스템에 대한 메타데이터 서버를 호스트하는 클러스터 노드의 호스트 이름인 qfs1mds-node1qfs1mds-node2 값이 포함됩니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  
    qfs1mds-node2  
    
  5. 각 라인의 두번째 열에서 Host Name 호스트에 대한 Network Interface 정보 제공을 시작합니다. 각 HA-COTC 클러스터 노드의 Solaris Cluster 개인 호스트 이름 또는 개인 네트워크 주소와 그 뒤에 콤마를 입력합니다.

    HA-COTC 서버 노드는 고가용성 클러스터 내의 서버-서버 통신에 개인 호스트 이름을 사용합니다. 예제에서는 Solaris Cluster 소프트웨어에 의해 지정된 기본 이름인 개인 호스트 이름 clusternode1-privclusternode2-priv를 사용합니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,  
    qfs1mds-node2  clusternode2-priv,  
    
  6. 각 라인의 두번째 열에서 콤마 뒤에 활성 메타데이터 서버에 대한 가상 공용 호스트 이름과 그 뒤에 공백을 입력합니다.

    HA-COTC 서버 노드는 모두 클러스터 외부에 상주하는 클라이언트와 통신하기 위해 공용 데이터 네트워크를 사용합니다. 페일오버 도중 활성 메타데이터 서버의 IP 주소 및 호스트 이름이 변경되므로(qfs1mds-node1에서 qfs1mds-node2로 변경되거나 그 반대로 변경) 두 경우 모두에 가상 호스트 이름 qfs1mds를 사용합니다. 나중에 qfs1mds에 대한 요청을 항상 활성 메타데이터 서버로 경로를 지정하도록 Solaris Cluster 소프트웨어를 구성할 것입니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,qfs1mds  
    qfs1mds-node2  clusternode2-priv,qfs1mds  
    
  7. 각 라인의 세번째 열에 서버의 순서 번호(활성 메타데이터 서버의 경우 1이고 잠재적 메타데이터 서버의 경우 2)와 그 뒤에 공백을 입력합니다.

    이 예제에서는 메타데이터 서버가 하나만 있고 주 노드 qfs1mds-node1이 활성 메타데이터 서버이므로 해당 순서가 1이고 보조 노드 qfs1mds-node2는 해당 순서가 2입니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,qfs1mds      1
    qfs1mds-node2  clusternode2-priv,qfs1mds      2
    
  8. 각 라인의 네번째 열에 0(영)과 그 뒤에 공백을 입력합니다.

    네번째 열의 0(영), -(하이픈) 또는 빈 값은 호스트가 공유 파일 시스템에 액세스할 수 있도록 구성된 켜짐 상태라는 것을 나타냅니다. 1(숫자 1)은 호스트가 파일 시스템에 액세스할 수 있도록 구성되지 않은 off 상태라는 것을 나타냅니다(공유 파일 시스템을 관리할 때 이러한 값을 사용하는 방법에 대한 자세한 내용은 samsharefs 매뉴얼 페이지 참조).

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,qfs1mds      1        0
    qfs1mds-node2  clusternode2-priv,qfs1mds      2        0
    
  9. 주 노드의 라인에서 다섯번째 열에 server 키워드를 입력합니다.

    server 키워드는 기본 활성 메타데이터 서버를 식별합니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,qfs1mds      1        0    server
    qfs1mds-node2  clusternode2-priv,qfs1mds      2        0   
     
    
  10. 각 클라이언트 호스트에 대해 Server Ordinal 값을 0으로 설정하는 라인을 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    서버 순서 0은 호스트가 서버가 아니라 클라이언트라는 것을 식별합니다. HA-COTC 클라이언트는 클러스터의 멤버가 아니므로 클러스터의 공용 데이터 네트워크를 통해서만 통신합니다. 이 클라이언트는 공용 IP 주소만 가집니다. 예제에서는 호스트 이름 대신 공용 IP 주소 172.16.0.133172.16.0.147을 사용하여 두 클라이언트 qfs1client1qfs1client2를 추가합니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,qfs1mds      1        0    server
    qfs1mds-node2  clusternode2-priv,qfs1mds      2        0    
    qfs1client1    172.16.0.133                   0        0
    qfs1client2    172.16.0.147                   0        0
    :wq
    [qfs1mds-node1]root@solaris:~# 
    
  11. 전역 /etc/opt/SUNWsamfs/hosts.family-set-name 파일의 복사본을 QFS 잠재적 메타데이터 서버(두번째 HA-COTC 클러스터 노드)에 배치합니다.

  12. 이제 HA-COTC 클러스터 외부의 QFS 서버 및 클라이언트에서 로컬 hosts 파일 만들기를 수행합니다.

HA-COTC 클러스터 외부의 QFS 서버 및 클라이언트에서 로컬 hosts 파일 만들기

클러스터 외부의 클라이언트와 파일 시스템을 공유하는 고가용성 구성에서는 클라이언트가 Solaris Cluster 소프트웨어에 의해 정의된 공용 데이터 네트워크만 사용하여 파일 시스템 서버와 통신하도록 해야 합니다. 이렇게 하려면 특별히 구성된 QFS 로컬 hosts 파일을 사용하여 클라이언트와 서버의 여러 네트워크 인터페이스 간에 네트워크 트래픽을 선택적으로 경로를 지정합니다.

각 파일 시스템 호스트는 먼저 메타데이터 서버에서 /etc/opt/SUNWsamfs/hosts.family-set-name 파일을 검사하여 다른 호스트에 대한 네트워크 인터페이스를 식별합니다. 그런 다음 고유의 특정 /etc/opt/SUNWsamfs/hosts.family-set-name.local 파일이 있는지 확인합니다. 로컬 hosts 파일이 없는 경우 전역 hosts 파일에 지정된 인터페이스 주소를 전역 파일에 지정된 순서대로 사용합니다. 그러나 로컬 hosts 파일이 있는 경우 로컬 파일을 전역 파일과 비교하여 양쪽 파일에 나열된 인터페이스만 로컬 파일에 지정된 순서대로 사용합니다. 따라서 각 파일의 다른 배열에서 다른 주소를 사용하여 다른 호스트에 사용되는 인터페이스를 제어할 수 있습니다.

로컬 hosts 파일을 구성하려면 아래 설명된 절차를 사용하십시오.

  1. HA-COTC 클러스터의 주 노드에 root로 로그인합니다.

    예제에서는 호스트가 qfs1mds-node1qfs1mds-node2입니다. qfs1mds-node1 호스트에 로그인합니다.

    [qfs1mds-node1]root@solaris:~# 
    
  2. 각 활성/잠재적 메타데이터 서버에 로컬 hosts 파일을 만듭니다. 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.family-set-name.local을 사용합니다. 여기서 family-set-name은 공유 파일 시스템의 장비 식별자입니다. 활성/잠재적 서버에서 사용할 네트워크 인터페이스만 포함하십시오.

    예제에서는 활성 및 잠재적 메타데이터 서버가 개인 네트워크를 통해 서로 통신하고 공용 네트워크를 통해 클라이언트와 통신하게 하려고 합니다. 따라서 활성 및 잠재적 서버의 로컬 hosts 파일 hosts.qfs1.local에는 활성 및 잠재적 서버에 대한 클러스터 개인 주소만 나열됩니다.

    [qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local
    # /etc/opt/SUNWsamfs/hosts.qfs1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv              1        0    server 
    qfs1mds-node2  clusternode2-priv              2        0   
    qfs1client1    172.16.0.133                   0        0
    qfs1client2    172.16.0.147                   0        0
    :wq
    [qfs1mds-node1]root@solaris:~# ssh root@qfs1mds-node2
    Password:
    
    [qfs1mds-node2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local
    # /etc/opt/SUNWsamfs/hosts.qfs1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv              1        0    server 
    qfs1mds-node2  clusternode2-priv              2        0   
    qfs1client1    172.16.0.133                   0        0
    qfs1client2    172.16.0.147                   0        0
    :wq
    [qfs1mds-node2]root@solaris:~# exit
    [qfs1mds-node1]root@solaris:~# 
    
  3. 텍스트 편집기를 사용하여 각 클라이언트에 로컬 hosts 파일을 만듭니다. 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.family-set-name.local을 사용합니다. 여기서 family-set-name은 공유 파일 시스템의 장비 식별자입니다. 클라이언트에서 사용할 네트워크 인터페이스만 포함하십시오. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    예제에서는 vi 편집기를 사용합니다. 클라이언트가 공용 데이터 네트워크를 통해 서버와만 통신하게 하려고 합니다. 따라서 파일에는 활성 메타데이터 서버에 대한 가상 호스트 이름 qfs1mds만 포함됩니다. Solaris Cluster 소프트웨어는 qfs1mds에 대한 요청을 활성 상태인 서버 노드에 경로를 지정합니다.

    [qfs1mds-node1]root@solaris:~# ssh root@qfsclient1
    Password:
    [qfs1client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local
    # /etc/opt/SUNWsamfs/hosts.qfs1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds        qfs1mds                        1        0    server 
    :wq
    qfs1client1]root@solaris:~# exit
    [qfs1mds-node1]root@solaris:~# ssh root@qfs1client2
    Password:
    [qfs1client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local
    # /etc/opt/SUNWsamfs/hosts.qfs1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds        qfs1mds                        1        0    server 
    :wq
    [qfs1client2]root@solaris:~# exit
    [qfs1mds-node1]root@solaris:~# 
    
  4. 이제 주 HA-COTC 클러스터 노드에서 활성 QFS 메타데이터 서버 구성을 수행합니다.

주 HA-COTC 클러스터 노드에서 활성 QFS 메타데이터 서버 구성

활성 메타데이터 서버를 구성하려면 다음 작업을 수행합니다.

주 HA-COTC 노드에서 고성능 QFS 파일 시스템 만들기

  1. HA-COTC 클러스터에 대한 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버 둘 다로 사용될 클러스터 노드를 선택합니다. root로 로그인합니다.

    예제에서는 qfs1mds-node1이 주 노드 및 활성 메타데이터 서버입니다.

    [qfs1mds-node1]root@solaris:~# 
    
  2. QFS 파일 시스템에 사용할 전역 스토리지 장치를 선택합니다. Solaris Cluster 명령 /usr/global/bin/cldevice list -v를 사용합니다.

    Solaris Cluster 소프트웨어는 클러스터 노드에 연결되는 모든 장치에 고유 DID(장치 식별자)를 지정합니다. 전역 장치는 클러스터의 모든 노드에서 액세스할 수 있고 로컬 장치는 해당 장치를 마운트하는 호스트에서만 액세스할 수 있습니다. 전역 장치는 페일오버 후에 계속 액세스할 수 있습니다. 로컬 장치는 그렇지 않습니다.

    예제에서는 d1, d2, d7d8 장치를 두 노드 모두에서 액세스할 수 없습니다. 따라서 고가용성 QFS 공유 파일 시스템을 구성할 때 d3, d4d5 장치 중에서 선택합니다.

    [qfs1mds-node1]root@solaris:~# cldevice list -v
    DID Device          Full Device Path
    ----------          ----------------
    d1                  qfs1mds-node1:/dev/rdsk/c0t0d0
    d2                  qfs1mds-node1:/dev/rdsk/c0t6d0
    d3                  qfs1mds-node1:/dev/rdsk/c1t1d0
    d3                  qfs1mds-node2:/dev/rdsk/c1t1d0
    d4                  qfs1mds-node1:/dev/rdsk/c1t2d0
    d4                  qfs1mds-node2:/dev/rdsk/c1t2d0
    d5                  qfs1mds-node1:/dev/rdsk/c1t3d0
    d5                  qfs1mds-node2:/dev/rdsk/c1t3d0
    d6                  qfs1mds-node2:/dev/rdsk/c0t0d0
    d7                  qfs1mds-node2:/dev/rdsk/c0t1d0
    
  3. 선택한 주 노드에서 md 또는 mr 데이터 서비스를 사용하는 고성능 ma 파일 시스템을 만듭니다. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 엽니다.

    예제에서는 파일 시스템 qfs1을 구성합니다. d3 장치를 메타데이터 장치로 구성하고(장비 유형 mm) d4d5 장치를 데이터 장치로 사용합니다(장비 유형 mr).

    [qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   ----------------
    qfs1                  100        ma         qfs1     -        
     /dev/did/dsk/d3s0     101        mm         qfs1     -
     /dev/did/dsk/d4s0     102        mr         qfs1     -
     /dev/did/dsk/d5s1     103        mr         qfs1     -
    
  4. /etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템 항목의 Additional Parameters 열에 shared 매개변수를 입력합니다. 파일을 저장합니다.

    [qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   ----------------
    qfs1                  100        ma         qfs1     -        shared
     /dev/did/dsk/d3s0     101        mm         qfs1     -
     /dev/did/dsk/d4s0     102        mr         qfs1     -
     /dev/did/dsk/d5s1     103        mr         qfs1     -
    :wq
    [qfs1mds-node1]root@solaris:~# 
    
  5. mcf 파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd 명령을 사용하고 발견된 모든 오류를 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs1mds-node1 호스트에서 mcf 파일을 검사합니다.

    [qfs1mds-node1]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs1mds-node1]root@solaris:~# 
    
  6. 파일 시스템을 만듭니다. /opt/SUNWsamfs/sbin/sammkfs -S family-set-name 명령을 사용합니다. 여기서 family-set-name은 파일 시스템의 장비 식별자입니다.

    sammkfs 명령은 주 노드 qfs1mds-node1에서 hosts.family-set-namemcf 파일을 읽고 지정된 등록 정보를 가진 공유 파일 시스템을 만듭니다.

    [qfs1mds-node1]root@solaris:~# sammkfs -S qfs1
    Building 'qfs1' will destroy the contents of devices:
      ...
    Do you wish to continue? [y/N]yes ...
    [qfs1mds-node1]root@solaris:~# 
    
  7. 이제 클러스터 제어에서 데이터 장치 제외를 수행합니다.

클러스터 제어에서 데이터 장치 제외

기본적으로 Solaris Cluster 소프트웨어는 클러스터의 배타적인 사용을 위해 디스크 장치를 보호합니다. 그러나 HA-COTC 구성에서는 메타데이터(mm) 장치만 클러스터의 일부입니다. 데이터(mr) 장치는 클러스터 외부의 파일 시스템 클라이언트와 공유되고 클라이언트 호스트에 직접 연결됩니다. 따라서 데이터(mr) 장치를 클러스터 소프트웨어의 제어 밖에 두어야 합니다. 이를 위해 다음 두 가지 방법 중 하나를 사용할 수 있습니다.

HA-COTC 클러스터에서 QFS 데이터 장치에 대한 보호를 사용 안함으로 설정
  1. HA-COTC 클러스터의 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버에 로그인합니다. root로 로그인합니다.

    예제에서는 qfs1mds-node1이 주 노드 및 활성 메타데이터 서버입니다.

    [qfs1mds-node1]root@solaris:~# 
    
  2. /etc/opt/SUNWsamfs/mcf 파일에 정의된 각 데이터(mr) 장치에 대해 보호를 사용 안함으로 설정합니다. cldevice set -p default_fencing=nofencing-noscrub device-identifier 명령을 사용합니다. 여기서 device-identifiermcf 파일의 첫번째 열에 있는 장치에 대해 나열된 장치 식별자입니다.

    메타데이터(mm) 장치에 대한 보호를 사용 안함으로 설정하지 마십시오. HA-COTC 구성에서 QFS 메타데이터(mm) 장치는 클러스터의 일부이지만 QFS 공유 데이터(mr) 장치는 그렇지 않습니다. 데이터 장치는 클러스터 외부의 클라이언트에 직접 연결됩니다. 이러한 이유로 HA-COTC 데이터(mr) 장치는 Solaris Cluster 소프트웨어에서 관리하지 않는 로컬 장치로 관리되어야 합니다. 그렇지 않은 경우 Solaris Cluster 소프트웨어 및 QFS가 서로 작업을 방해하고 데이터를 손상시킬 수 있습니다.

    위 예제에서는 d4d5 장치를 파일 시스템 qfs1에 대한 데이터 장치로 구성했습니다. 따라서 이러한 장치에 대한 보호를 전역적으로 사용 안함으로 설정합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [qfs1mds-node1]root@solaris:~# cldevice set -p \
    default_fencing=nofencing-noscrub d4
    [qfs1mds-node1]root@solaris:~# cldevice set -p \
    default_fencing=nofencing-noscrub d5 
    
  3. 이제 주 HA-COTC 클러스터 노드에 QFS 파일 시스템 마운트를 수행합니다.

HA-COTC 클러스터의 로컬 전용 장치 그룹에 공유 데이터 장치 배치
  1. HA-COTC 클러스터의 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버에 로그인합니다. root로 로그인합니다.

    예제에서는 qfs1mds-node1이 주 노드 및 활성 메타데이터 서버입니다.

    [qfs1mds-node1]root@solaris:~# 
    
  2. 파일 시스템의 일부인 모든 데이터(mr) 장치를 localonly 장치 그룹에 배치합니다. cldevicegroup set -d device-identifier-list -p localonly=true -n active-mds-node device-group 명령을 사용합니다. 여기서 device-list는 콤마로 구분된 장치 식별자 목록이고 active-mds-node는 활성 메타데이터 서버가 일반적으로 상주하는 주 노드이며 device-group은 장치 그룹에 사용하도록 선택한 이름입니다.

    다음 예제에서는 데이터 장치 d4d5(mcf 장비 번호 102103)를 주 노드의 로컬 장치 그룹 mdsdevgrp에 배치합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [qfs1mds-node1]root@solaris:~# cldevicegroup set -d d4,d5 -p localonly=true \
    -n node1mds mdsdevgrp
    [qfs1mds-node1]root@solaris:~# 
    
  3. 이제 주 HA-COTC 클러스터 노드에 QFS 파일 시스템 마운트를 수행합니다.

주 HA-COTC 노드에 QFS 파일 시스템 마운트

  1. HA-COTC 클러스터의 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버에 로그인합니다. root로 로그인합니다.

    예제에서는 qfs1mds-node1이 주 노드 및 활성 메타데이터 서버입니다.

    [qfs1mds-node1]root@solaris:~# 
    
  2. 운영체제의 /etc/vfstab 파일을 백업합니다.

    [qfs1mds-node1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    
  3. 텍스트 편집기에서 운영체제의 /etc/vfstab 파일을 열고 새 파일 시스템에 대한 라인을 시작합니다. 첫번째 열(Device to Mount)에 파일 시스템 이름과 하나 이상의 공백을 차례로 입력합니다.

    예제에서는 vi 텍스트 편집기를 사용합니다. qfs1 파일 시스템에 대한 라인을 시작합니다.

    [qfs1mds-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount         System  fsck  Mount    Mount
    #to Mount  to fsck  Point         Type    Pass  at Boot  Options
    #--------  -------  ------------  ------  ----  -------  ---------------------
    /devices   -        /devices      devfs   -     no       -
    /proc      -        /proc         proc    -     no       -
    ...
    qfs1       -       
     
    
  4. /etc/vfstab 파일의 두번째 열(Device to fsck)에 하이픈(-)과 하나 이상의 공백을 차례로 입력합니다.

    하이픈은 운영체제에 파일 시스템 무결성 검사를 건너뛰도록 지시합니다. 이러한 검사는 SAMFS 파일 시스템이 아니라 UFS를 위한 것입니다.

    [qfs1mds-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount         System  fsck  Mount    Mount
    #to Mount  to fsck  Point         Type    Pass  at Boot  Options
    #--------  -------  ------------  ------  ----  -------  ---------------------
    /devices   -        /devices      devfs   -     no       -
    /proc      -        /proc         proc    -     no       -
    ...
    qfs1       -       
     
    
  5. /etc/vfstab 파일의 세번째 열에 클러스터를 기준으로 파일 시스템의 마운트 지점을 입력합니다. 시스템 루트 디렉토리의 바로 아래에 있지 않은 하위 디렉토리를 선택합니다.

    공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs 리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다. 예제에서는 클러스터의 마운트 지점을 /global/ha-cotc/qfs1로 설정합니다.

    #File
    #Device    Device   Mount                 System  fsck  Mount    Mount
    #to Mount  to fsck  Point                 Type    Pass  at Boot  Options
    #--------  -------  --------------------  ------  ----  -------  --------------
    /devices   -        /devices              devfs   -     no       -
    /proc      -        /proc                 proc    -     no       -
    ...
    qfs1       -        /global/ha-cotc/qfs1  
    
  6. 공유 QFS 파일 시스템의 경우와 마찬가지로 /etc/vfstab 파일 레코드의 나머지 필드를 채웁니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    #File
    #Device    Device   Mount                 System  fsck  Mount    Mount
    #to Mount  to fsck  Point                 Type    Pass  at Boot  Options
    #--------  -------  --------------------  ------  ----  -------  --------------
    /devices   -        /devices              devfs   -     no       -
    /proc      -        /proc                 proc    -     no       -
    ...
    qfs1       -        /global/ha-cotc/qfs1  samfs   -     no       shared
    :wq
    [qfs1mds-node1]root@solaris:~# 
    
  7. 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.

    mkdir 명령을 -p(parents) 옵션과 함께 사용하면 /global 디렉토리가 만들어집니다(아직 없는 경우).

    [qfs1mds-node1]root@solaris:~# mkdir -p /global/ha-cotc/qfs1
    
  8. 주 노드에 고가용성 공유 파일 시스템을 마운트합니다.

    [qfs1mds-node1]root@solaris:~# mount /global/ha-cotc/qfs1
    
  9. 이제 보조 HA-COTC 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성을 수행합니다.

보조 HA-COTC 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성

2노드 클러스터의 보조 노드는 잠재적 메타데이터 서버로 사용됩니다. 잠재적 메타데이터 서버는 메타데이터 장치에 액세스할 수 있으므로 메타데이터 서버의 역할을 담당할 수 있는 호스트입니다. 따라서 주 노드의 활성 메타데이터 서버가 실패할 경우 Solaris Cluster 소프트웨어는 보조 노드로 페일오버하여 잠재적 메타데이터 서버를 활성화할 수 있습니다. 잠재적 메타데이터 서버를 구성하려면 다음 작업을 수행합니다.

보조 HA-COTC 노드에서 고성능 QFS 파일 시스템 만들기

  1. HA-COTC 클러스터의 보조 노드에 root로 로그인합니다.

    예제에서는 qfs1mds-node2가 보조 노드 및 잠재적 메타데이터 서버입니다.

    [qfs1mds-node2]root@solaris:~# 
    
  2. /etc/opt/SUNWsamfs/mcf 파일을 주 노드에서 보조 노드로 복사합니다.

  3. mcf 파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd 명령을 사용하고 발견된 모든 오류를 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs1mds-node1 호스트에서 mcf 파일을 검사합니다.

    [qfs1mds-node2]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs1mds-node2]root@solaris:~# 
    
  4. 이제 보조 HA-COTC 클러스터 노드에 QFS 파일 시스템 마운트를 수행합니다.

보조 HA-COTC 노드에 QFS 파일 시스템 마운트

  1. HA-COTC 클러스터의 보조 노드에 root로 로그인합니다.

    예제에서는 qfs1mds-node2가 보조 노드입니다.

    [qfs1mds-node2]root@solaris:~# 
    
  2. 운영체제의 /etc/vfstab 파일을 백업합니다.

    [qfs1mds-node2]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    
  3. 텍스트 편집기에서 운영체제의 /etc/vfstab 파일을 열고 새 파일 시스템에 대한 라인을 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    이 예에서는 vi 편집기를 사용합니다.

    [qfs1mds-node2]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount                 System  fsck  Mount    Mount
    #to Mount  to fsck  Point                 Type    Pass  at Boot  Options
    #--------  -------  --------------------  ------  ----  -------  -------------
    /devices   -        /devices              devfs   -     no       -
    /proc      -        /proc                 proc    -     no       -
    ...
    qfs1       -        /global/ha-cotc/qfs1  samfs   -     no       shared
    :wq
    [qfs1mds-node2]root@solaris:~# 
    
  4. 보조 노드에서 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.

    [qfs1mds-node2]root@solaris:~# mkdir -p /global/ha-cotc/qfs1
    [qfs1mds-node2]root@solaris:~# 
    
  5. 보조 노드에 고가용성 공유 파일 시스템을 마운트합니다.

    [qfs1mds-node2]root@solaris:~# mount /global/ha-cotc/qfs1
    [qfs1mds-node2]root@solaris:~# 
    
  6. 이제 HA-COTC 메타데이터 서버의 페일오버 구성을 수행합니다.

HA-COTC 메타데이터 서버의 페일오버 구성

Solaris Cluster 소프트웨어가 관리하는 클러스터에서 Oracle HSM 공유 파일 시스템을 호스팅할 경우 Oracle HSM 소프트웨어에 의해 정의된 리소스 유형인 SUNW.qfs 클러스터 리소스를 만들어 메타데이터 서버의 페일오버를 구성합니다(자세한 내용은 SUNW.qfs 매뉴얼 페이지 참조). HA-COTC 구성에 대한 리소스를 만들고 구성하려면 다음과 같이 하십시오.

  1. HA-COTC 클러스터의 주 노드에 root로 로그인합니다.

    예제에서는 qfs1mds-node1이 주 노드입니다.

    [qfs1mds-node1]root@solaris:~# 
    
  2. Solaris Cluster 소프트웨어에 대한 QFS 리소스 유형 SUNW.qfs를 정의합니다. clresourcetype registerSUNW.qfs 명령을 사용합니다.

    [qfs1mds-node1]root@solaris:~# clresourcetype register SUNW.qfs
    [qfs1mds-node1]root@solaris:~# 
    
  3. 등록 파일을 찾을 수 없어 등록에 실패한 경우 /opt/SUNWsamfs/sc/etc/ 디렉토리에 대한 심볼릭 링크를 Solaris Cluster가 리소스 유형 등록 파일을 유지하는 디렉토리인 /opt/cluster/lib/rgm/rtreg/에 배치합니다.

    Oracle HSM 소프트웨어를 설치하기 전에 Oracle Solaris Cluster 소프트웨어를 설치하지 않았습니다. 일반적으로 Oracle HSM는 설치 도중 Solaris Cluster를 감지한 경우 SUNW.qfs 등록 파일의 위치를 자동으로 제공합니다. 따라서 링크를 수동으로 만들 필요가 없습니다.

    [qfs1mds-node1]root@solaris:~# cd /opt/cluster/lib/rgm/rtreg/
    [qfs1mds-node1]root@solaris:~# ln -s /opt/SUNWsamfs/sc/etc/SUNW.qfs SUNW.qfs
    [qfs1mds-node1]root@solaris:~# 
    
  4. QFS 메타데이터 서버에 대한 리소스 그룹을 만듭니다. Solaris Cluster 명령 clresourcegroup create -n node-list group-name을 사용합니다. 여기서 node-list는 콤마로 구분된 클러스터 노드 이름 2개의 목록이고 group-name은 리소스 그룹에 사용할 이름입니다.

    예제에서는 HA-COTC 서버 노드가 멤버로 포함된 리소스 그룹 qfsrg를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [qfs1mds-node1]root@solaris:~# clresourcegroup create -n \ qfs1mds-node1,qfs1mds-node2 qfsrg
    [qfs1mds-node1]root@solaris:~# 
    
  5. 새 리소스 그룹에서 활성 메타데이터 서버에 대한 가상 호스트 이름을 설정합니다. Solaris Cluster 명령 clreslogicalhostname create -g group-name virtualMDS를 사용합니다. 여기서 group-name은 QFS 리소스 그룹의 이름이고 virtualMDS는 가상 호스트 이름입니다.

    공유 파일 시스템에 대한 hosts 파일에 사용한 것과 같은 가상 호스트 이름을 사용합니다. 예제에서는 가상 호스트 qfs1mdsqfsr 리소스 그룹에서 만듭니다.

    [qfs1mds-node1]root@solaris:~# clreslogicalhostname create -g qfsrg qfs1mds
    
  6. QFS 파일 시스템 리소스를 리소스 그룹에 추가합니다. clresource create -g group-name -t SUNW.qfs -x QFSFileSystem=mount-point -y Resource_dependencies=virtualMDS resource-name 명령을 사용합니다. 설명:

    • group-name은 QFS 리소스 그룹의 이름입니다.

    • mount-point는 시스템 루트 디렉토리 바로 아래에 있지 않은 하위 디렉토리인 클러스터의 파일 시스템에 대한 마운트 지점입니다.

      공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs 리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다.

    • virtualMDS는 활성 메타데이터 서버의 가상 호스트 이름입니다.

    • resource-name은 리소스에 제공할 이름입니다.

    예제에서는 SUNW.qfs 유형의 hasqfs라는 리소스를 리소스 그룹 qfsrg에서 만듭니다. SUNW.qfs 확장 등록 정보 QFSFileSystem/global/ha-cotc/qfs1 마운트 지점으로 설정하고 표준 등록 정보 Resource_dependencies를 활성 메타데이터 서버 qfs1mds에 대한 논리 호스트로 설정합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [qfs1mds-node1]root@solaris:~# clresource create -g qfsrg -t SUNW.qfs \
    -x QFSFileSystem=/global/ha-cotc/qfs1 -y Resource_dependencies=qfs1mds hasqfs 
    
  7. 자원 그룹을 온라인으로 전환합니다. clresourcegroup online -emM group-name 명령을 사용합니다. 여기서 group-name은 QFS 리소스 그룹의 이름입니다.

    예제에서는 qfsr 리소스 그룹을 온라인 상태로 만듭니다.

    [qfs1mds-node1]root@solaris:~# clresourcegroup manage qfsrg
    [qfs1mds-node1]root@solaris:~# clresourcegroup online -emM qfsrg
    
  8. QFS 리소스 그룹이 온라인 상태인지 확인합니다. Solaris Cluster clresourcegroup status 명령을 사용합니다.

    예제에서는 qfsrg 리소스 그룹이 주 노드 sam1mds-node1에서 online 상태입니다.

    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsrg       qfs1mds-node1   No          Online
                qfs1mds-node2   No          Offline
    
  9. 리소스 그룹을 보조 노드로 이동하여 리소스 그룹이 올바르게 페일오버되는지 확인합니다. Solaris Cluster 명령 clresourcegroup switch -n node2 group-name을 사용합니다. 여기서 node2는 보조 노드의 이름이고 group-name은 HA-QFS 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status를 사용하여 결과를 확인합니다.

    예제에서는 qfsrg 리소스 그룹을 qfs1mds-node2로 이동하고 이 리소스 그룹이 지정된 노드에서 온라인 상태가 되는지 확인합니다.

    [qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node2 qfsrg
    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsrg       qfs1mds-node1   No          Offline
                qfs1mds-node2   No          Online
    
  10. 리소스 그룹을 다시 주 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup switch -n node1 group-name을 사용합니다. 여기서 node1은 주 노드의 이름이고 group-name은 HA-QFS 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status를 사용하여 결과를 확인합니다.

    예제에서는 qfsrg 리소스 그룹을 qfs1mds-node1로 성공적으로 다시 이동합니다.

    [qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node1 qfsrg
    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsrg       qfs1mds-node1   No          Online
                qfs1mds-node2   No          Offline
    
  11. 이제 HA-COTC 클러스터 외부의 호스트를 QFS 공유 파일 시스템 클라이언트로 구성을 수행합니다.

HA-COTC 클러스터 외부의 호스트를 QFS 공유 파일 시스템 클라이언트로 구성

클라이언트가 클러스터 내에 있는 메타데이터 서버의 고가용성 구성에 방해가 되지 않도록 각 호스트를 파일 시스템의 메타데이터 장치에 액세스할 수 없는 QFS 클라이언트로 구성합니다.

HA-COTC 공유 파일 시스템의 각 클라이언트에 대해 다음과 같이 하십시오.

  1. HA-COTC 클러스터의 주 노드에 로그인합니다. root로 로그인합니다.

    [qfs1mds-node1]root@solaris:~# 
    
  2. 클러스터에 대한 장치 구성을 표시합니다. Solaris Cluster 명령 /usr/global/bin/cldevice list -v를 사용합니다.

    [qfs1mds-node1]root@solaris:~# cldevice list -v
    DID Device          Full Device Path 
    ----------          ----------------
    d1                  qfs1mds-node1:/dev/rdsk/c0t0d0 
    d2                  qfs1mds-node1:/dev/rdsk/c0t6d0
    ...
    d7                  qfs1mds-node2:/dev/rdsk/c0t1d0
    [qfs1mds-node1]root@solaris:~# 
    
  3. cldevice list -v 명령의 출력을 검사합니다. 각 QFS 데이터(mr) 장치의 장치 식별자에 해당하는 /dev/rdsk/ 경로를 메모합니다.

    예제에서 QFS 데이터 장치는 d4d5입니다.

    [qfs1mds-node1]root@solaris:~# cldevice list -v
    DID Device          Full Device Path
    ----------          ----------------
    d1                  qfs1mds-node1:/dev/rdsk/c0t0d0
    d2                  qfs1mds-node1:/dev/rdsk/c0t6d0
    d3                  qfs1mds-node1:/dev/rdsk/c1t1d0
    d3                  qfs1mds-node2:/dev/rdsk/c1t1d0
    d4                  qfs1mds-node1:/dev/rdsk/c1t2d0
    d4                  qfs1mds-node2:/dev/rdsk/c1t2d0
    d5                  qfs1mds-node1:/dev/rdsk/c1t3d0
    d5                  qfs1mds-node2:/dev/rdsk/c1t3d0
    d6                  qfs1mds-node2:/dev/rdsk/c0t0d0
    d7                  qfs1mds-node2:/dev/rdsk/c0t1d0
    [qfs1mds-node1]root@solaris:~# 
    
  4. HA-COTC 클러스터의 클라이언트 호스트에 root로 로그인합니다.

    예제에서는 qfs1client1이 클라이언트 호스트입니다.

    [qfs1mds-node1]root@solaris:~# ssh root@qfs1client1
    [qfs1client1]root@solaris:~# 
    
  5. 클라이언트 호스트에서 공유 파일 시스템에 대한 구성 정보를 검색합니다. samfsconfig /dev/rdsk/* 명령을 사용합니다.

    samfsconfig /dev/rdsk/* 명령은 QFS 파일 시스템에 속하는 연결된 장치를 지정된 경로에서 검색합니다. 예제에서 이 명령은 qfs1 데이터(mr) 장치에 대한 경로를 찾습니다. 예상대로 이 명령은 메타데이터(mm) 장치를 찾지 않으므로 공유 데이터 장치를 나열하기 전에 Missing slicesOrdinal 0 메시지를 반환합니다.

    [qfs1client1]root@solaris:~# samfsconfig /dev/rdsk/*
    # Family Set 'qfs1' Created Thu Dec 21 07:17:00 2013
    # Missing slices
    # Ordinal 0
    # /dev/rdsk/c1t2d0s0   102        mr       qfs1  -
    # /dev/rdsk/c1t3d0s1   103        mr       qfs1  -
    
  6. samfsconfig 명령 출력을 서버의 Solaris Cluster cldevice list 명령 출력과 비교합니다. 둘 다 mr 데이터 장치에 대해 동일한 장치 경로를 보고하는지 확인합니다.

    컨트롤러 번호(cN)가 다를 수 있지만 samfsconfigcldevice list 명령은 동일한 장치를 나타내야 합니다. 예제에서는 samfsconfigcldevice list 명령이 동일한 장치를 가리킵니다.

    메타데이터 서버 노드에서 /etc/opt/SUNWsamfs/mcf 파일은 클러스터 장치 식별자 d4d5를 사용하여 공유 mr 데이터 장치 102103을 식별합니다.

     /dev/did/dsk/d4s0     102        mr         qfs1  -
     /dev/did/dsk/d5s1     103        mr         qfs1  -
    

    메타데이터 서버 노드의 cldevice list 명령은 클러스터 장치 식별자 d4d5를 경로 /dev/rdisk/c1t2d0/dev/rdisk/c1t3d0에 매핑합니다.

     d4                  qfs1mds-node1:/dev/rdsk/c1t2d0
     d5                  qfs1mds-node1:/dev/rdsk/c1t3d0
    

    또한 클라이언트 노드에서 samfsconfig 명령은 경로 /dev/rdisk/c1t2d0/dev/rdisk/c1t3d0을 사용하여 공유 mr 데이터 장치 102103을 식별합니다.

     /dev/rdsk/c1t2d0s0    102        mr       qfs1  -
     /dev/rdsk/c1t3d0s1    103        mr       qfs1  -
    
  7. 클라이언트의 /etc/opt/SUNWsamfs/mcf 파일을 텍스트 편집기에서 엽니다. HA-COTC 공유 파일 시스템에 대한 항목을 추가합니다. 이 항목은 메타데이터 서버 mcf 파일의 해당 항목과 정확히 일치해야 합니다.

    예제에서는 vi 편집기를 사용하여 QFS 공유 파일 시스템 qfs1(장비 순서 번호 100)에 대한 항목을 만듭니다.

    [qfs1client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   ----------------
    qfs1                  100        ma         qfs1     -        shared
    
  8. 새 라인에서 HA-COTC 공유 파일 시스템의 메타데이터(mm) 장치에 대한 항목을 시작합니다. 첫번째 열(Equipment Identifier)에 nodev 키워드를 입력합니다.

    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   ----------------
    qfs1                  100        ma         qfs1      -       shared
     nodev
    
  9. HA-COTC 파일 시스템의 메타데이터(mm) 장치에 대한 나머지 필드에 메타데이터 서버 mcf 파일에서 사용된 것과 동일한 장비 순서 번호, 패밀리 세트 및 장치 상태 매개변수를 채웁니다.

    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   ----------------
    qfs1                  100        ma         qfs1      -       shared
     nodev                 101        mm         qfs1     -
    
  10. samfsconfig 출력에서 데이터(mr) 장치에 대한 전체 항목을 복사합니다. 클라이언트의 /etc/opt/SUNWsamfs/mcf 파일에 항목을 붙여넣습니다. samfsconfig에 의해 삽입된 선행 주석(#) 표시를 제거합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   -----------------
    qfs1                  100        ma         qfs1      -       shared
     nodev                 101        mm         qfs1     -
     /dev/rdsk/c1t2d0s0    102        mr         qfs1     - 
     /dev/rdsk/c1t3d0s1    103        mr         qfs1     -
    :wq
    [qfs1client1]root@solaris:~# 
    
  11. mcf 파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd 명령을 사용하고 발견된 모든 오류를 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs1client1 호스트에서 mcf 파일을 검사합니다.

    [qfs1client1]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs1client1]root@solaris:~# 
    
  12. 클라이언트 운영체제의 /etc/vfstab 파일을 텍스트 편집기에서 열고 서버에서 사용된 것과 동일한 매개변수를 사용하여 새 파일 시스템에 대한 항목을 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    이 예에서는 vi 편집기를 사용합니다.

    [qfs1client1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount                 System  fsck  Mount    Mount
    #to Mount  to fsck  Point                 Type    Pass  at Boot  Options
    #--------  -------  --------------------  ------  ----  -------  -------------
    /devices   -        /devices              devfs   -     no       -
    /proc      -        /proc                 proc    -     no       -
    ...
    qfs1       -        /global/ha-cotc/qfs1  samfs   -     no       shared
    :wq
    [qfs1client1]root@solaris:~# 
    
  13. 클라이언트에서 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.

    [qfs1client1]root@solaris:~# mkdir -p /global/qfs1
    [qfs1client1]root@solaris:~# 
    
  14. 고가용성 공유 파일 시스템을 클라이언트에 마운트합니다.

    예제에서

    [qfs1client1]root@solaris:~# mount /global/qfs1
    [qfs1client1]root@solaris:~# 
    
  15. 모든 HA-COTC 클라이언트가 구성될 때까지 이 절차를 반복합니다.

  16. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  17. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.

고가용성 Oracle HSM 공유 아카이빙 파일 시스템

HA-SAM(High-Availability Oracle Hierarchical Storage Manager) 구성은 서버 호스트가 실패한 경우에도 QFS 메타데이터 서버 및 Oracle Hierarchical Storage Manager 응용 프로그램이 계속 작동하도록 보장하여 아카이빙 파일 시스템의 가용성을 유지 관리합니다. 파일 시스템은 Solaris Cluster 소프트웨어가 관리하는 2노드 클러스터에서 호스트되는 활성/잠재적 QFS 메타데이터 서버 간에 공유됩니다. 활성 클러스터 노드가 실패한 경우 클러스터링 소프트웨어는 작동 중인 노드에서 잠재적 Oracle HSM 서버를 자동으로 활성화하고 실행 중인 작업에 대한 제어 권한을 이전합니다. QFS 파일 시스템 및 Oracle HSM 응용 프로그램의 로컬 스토리지 디렉토리가 공유되고 이미 마운트되었으므로 데이터 및 메타데이터에 중단 없이 계속 액세스할 수 있습니다.

HA-SAM 구성은 활성 메타데이터 서버를 통해 모든 I/O를 전송하여 클러스터화된 환경에서 파일 시스템 일관성을 유지합니다. HA-SAM 파일 시스템은 순전히 접근성을 위해서만 공유됩니다. 다른 SAM-QFS 공유 파일 시스템 구성처럼 잠재적 메타데이터 서버 호스트를 파일 시스템 클라이언트로 사용할 수 없습니다. 잠재적 메타데이터 서버는 노드 페일오버 중 활성화되지 않은 경우 I/O를 수행하지 않습니다. NFS를 사용하는 클라이언트와 HA-SAM 파일 시스템을 공유할 수 있습니다. 그러나 활성 메타데이터 서버 노드에서 배타적으로 공유를 내보냈는지 확인해야 합니다.

고가용성 아카이빙 파일 시스템은 3개의 Solaris Cluster 리소스 유형에 따라 다릅니다.

  • SUNW.hasam

    주 호스트가 실패할 경우 SUNW.hasam 리소스는 Oracle Hierarchical Storage Manager 응용 프로그램의 페일오버를 관리합니다. SUNW.hasam 소프트웨어는 Oracle HSM 소프트웨어 배포에 포함됩니다.

  • SUNW.qfs

    주 호스트가 실패할 경우 SUNW.qfs 리소스는 QFS 메타데이터 서버에 대한 페일오버를 관리합니다. SUNW.qfs 소프트웨어는 Oracle HSM 소프트웨어 배포에 포함되어 있습니다(자세한 내용은 SUNW.qfs 매뉴얼 페이지 참조).

  • SUNW.HAStoragePlus

    주 호스트가 실패할 경우 SUNW.HAStoragePlus 리소스는 Oracle Hierarchical Storage Manager의 로컬 스토리지에 대한 페일오버를 관리합니다. Oracle HSM 응용 프로그램은 서버 호스트의 로컬 파일 시스템에서 휘발성 아카이빙 정보(작업 대기열 및 이동식 매체 카탈로그)를 유지 관리합니다. SUNW.HAStoragePlus는 Solaris Cluster 소프트웨어에 표준 리소스 유형으로 포함되어 있습니다(리소스 유형에 대한 자세한 내용은 Oracle Solaris Cluster Documentation Library에서 Data Services Planning and Administration 설명서 참조).

필요한 구성 요소의 인스턴스를 구성하고 작동 중인 HA-SAM 아카이빙 구성에 통합하려면 다음 작업을 수행합니다.

두 HA-SAM 클러스터 노드 모두에서 전역 hosts 파일 만들기

아카이빙 Oracle HSM 공유 파일 시스템에서 메타데이터 서버의 hosts 파일을 구성하여 두 노드 모두의 호스트가 파일 시스템의 메타데이터에 액세스할 수 있게 해야 합니다. hosts 파일은 /etc/opt/SUNWsamfs/ 디렉토리에 mcf 파일과 나란히 저장됩니다. 공유 파일 시스템의 초기 생성 중 sammkfs -S 명령은 이 파일에 저장된 설정을 사용하여 공유를 구성합니다. 따라서 아래 절차를 사용하여 지금 만듭니다.

  1. HA-SAM 클러스터의 주 노드에 root로 로그인합니다.

    예제에서는 sam1mds-node1이 주 노드입니다.

    [sam1mds-node1]root@solaris:~# 
    
  2. 클러스터 구성을 표시합니다. /usr/global/bin/cluster show 명령을 사용합니다. 출력에서 각 Node Name에 대한 레코드를 찾아서 privatehostname과 각 네트워크 어댑터의 Transport Adapter 이름 및 ip_address 등록 정보를 메모합니다.

    예제에서는 각 노드에 2개의 네트워크 인터페이스인 hme0qfe3이 있습니다.

    • hme0 어댑터는 클러스터가 노드 간의 내부 통신에 사용하는 개인 네트워크의 IP 주소를 가집니다. Solaris Cluster 소프트웨어는 각 개인 주소에 해당하는 privatehostname을 지정합니다.

      기본적으로 주 노드의 개인 호스트 이름은 clusternode1-priv이고 보조 노드의 개인 호스트 이름은 clusternode2-priv입니다.

    • qfe3 어댑터는 클러스터가 데이터 전송에 사용하는 공용 IP 주소와 공용 호스트 이름인 sam1mds-node1sam1mds-node2를 가집니다.

    표시는 줄임표(...)를 사용하여 축약되어 있습니다.

    [sam1mds-node1]root@solaris:~# cluster show
    ...
      === Cluster Nodes ===                        
      Node Name:                                    sam1mds-node1...
        privatehostname:                               clusternode1-priv...
        Transport Adapter List:                        qfe3, hme0...
        Transport Adapter:                          qfe3...
          Adapter Property(ip_address):                172.16.0.12...
        Transport Adapter:                          hme0...
          Adapter Property(ip_address):                10.0.0.129...
      Node Name:                                    sam1mds-node2...
        privatehostname:                               clusternode2-priv...
        Transport Adapter List:                        qfe3, hme0...
          Adapter Property(ip_address):                172.16.0.13...
        Transport Adapter:                          hme0...
          Adapter Property(ip_address):                10.0.0.122
    
  3. 텍스트 편집기를 사용하여 /etc/opt/SUNWsamfs/hosts.family-set-name 파일을 만듭니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템 장비에 지정되는 패밀리 세트 이름입니다.

    예제에서는 vi 텍스트 편집기를 사용하여 hosts.sam1 파일을 만듭니다. 일부 선택적 머리글을 추가하여 호스트 테이블의 열을 표시하고 각 라인을 해시 기호(#)로 시작하여 주석이라는 것을 나타냅니다.

    [sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sam1
    # /etc/opt/SUNWsamfs/hosts.sam1
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    
  4. 테이블의 첫번째 열에 주 및 보조 메타데이터 서버 노드의 호스트 이름과 그 뒤에 약간의 공백을 입력합니다(각 항목을 별개의 라인에 입력).

    hosts 파일에서 라인은 행(레코드)이고 공백은 열(필드) 구분자입니다. 예제에서 처음 두 행의 Host Name 열에는 파일 시스템에 대한 메타데이터 서버를 호스트하는 클러스터 노드의 호스트 이름인 sam1mds-node1sam1mds-node2 값이 포함됩니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  
    sam1mds-node2  
    
  5. 각 라인의 두번째 열에서 Host Name 열에 나열된 호스트에 대한 Network Interface 정보 제공을 시작합니다. 각 HA-SAM 클러스터 노드의 Solaris Cluster 개인 호스트 이름 또는 개인 네트워크 주소와 그 뒤에 콤마를 입력합니다.

    HA-SAM 서버 노드는 고가용성 클러스터 내의 서버-서버 통신에 개인 호스트 이름을 사용합니다. 예제에서는 Solaris Cluster 소프트웨어에 의해 지정된 기본 이름인 개인 호스트 이름 clusternode1-privclusternode2-priv를 사용합니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv,  
    sam1mds-node2  clusternode2-priv,  
    
  6. 각 라인의 두번째 열에서 콤마 뒤에 활성 메타데이터 서버에 대한 공용 호스트 이름과 그 뒤에 공백을 입력합니다.

    HA-SAM 서버 노드는 클러스터 외부의 호스트와 통신하기 위해 공용 데이터 네트워크를 사용합니다. 페일오버 도중 활성 메타데이터 서버의 IP 주소 및 호스트 이름이 변경되므로(sam1mds-node1에서 sam1mds-node2로 변경되거나 그 반대로 변경) 두 경우 모두에 가상 호스트 이름 sam1mds를 사용합니다. 나중에 sam1mds에 대한 요청을 항상 활성 메타데이터 서버로 경로를 지정하도록 Solaris Cluster 소프트웨어를 구성할 것입니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv,sam1mds  
    sam1mds-node2  clusternode2-priv,sam1mds  
    
  7. 각 라인의 세번째 열에 서버의 순서 번호(활성 메타데이터 서버의 경우 1이고 잠재적 메타데이터 서버의 경우 2)와 그 뒤에 공백을 입력합니다.

    이 예제에서는 메타데이터 서버가 하나만 있고 주 노드 sam1mds-node1이 활성 메타데이터 서버이므로 해당 순서가 1이고 보조 노드 sam1mds-node2는 해당 순서가 2입니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv,sam1mds      1
    sam1mds-node2  clusternode2-priv,sam1mds      2
    
  8. 각 라인의 네번째 열에 0(영)과 그 뒤에 공백을 입력합니다.

    네번째 열의 0, -(하이픈) 또는 공백 값은 호스트가 on으로 구성되었고 공유 파일 시스템에 액세스할 수 있음을 나타냅니다. 1(숫자 1)은 호스트가 파일 시스템에 액세스할 수 있도록 구성되지 않은 off 상태라는 것을 나타냅니다(공유 파일 시스템을 관리할 때 이러한 값을 사용하는 방법에 대한 자세한 내용은 samsharefs 매뉴얼 페이지 참조).

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv,sam1mds      1        0
    sam1mds-node2  clusternode2-priv,sam1mds      2        0
    
  9. 주 노드의 라인에서 다섯번째 열에 server 키워드를 입력합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    server 키워드는 기본 활성 메타데이터 서버를 식별합니다.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv,sam1mds      1        0    server
    sam1mds-node2  clusternode2-priv,sam1mds      2        0   
    :wq
    [sam1mds-node1]root@solaris:~#  
    
  10. 전역 /etc/opt/SUNWsamfs/hosts.family-set-name 파일의 복사본을 잠재적 메타데이터 서버에 배치합니다.

  11. 이제 두 HA-SAM 클러스터 노드 모두에서 로컬 hosts 파일 만들기를 수행합니다.

두 HA-SAM 클러스터 노드 모두에서 로컬 hosts 파일 만들기

고가용성 아카이빙 공유 파일 시스템에서는 서버가 Solaris Cluster 소프트웨어에 의해 정의된 개인 네트워크를 사용하여 서로 통신하도록 해야 합니다. 이렇게 하려면 특별히 구성된 로컬 hosts 파일을 사용하여 서버의 네트워크 인터페이스 간에 네트워크를 트래픽을 선택적으로 경로를 지정합니다.

각 파일 시스템 호스트는 먼저 메타데이터 서버에서 /etc/opt/SUNWsamfs/hosts.family-set-name 파일을 검사하여 다른 호스트에 대한 네트워크 인터페이스를 식별합니다. 그런 다음 고유의 특정 /etc/opt/SUNWsamfs/hosts.family-set-name.local 파일이 있는지 확인합니다. 로컬 hosts 파일이 없는 경우 전역 hosts 파일에 지정된 인터페이스 주소를 전역 파일에 지정된 순서대로 사용합니다. 그러나 로컬 hosts 파일이 있는 경우 로컬 파일을 전역 파일과 비교하여 양쪽 파일에 나열된 인터페이스만 로컬 파일에 지정된 순서대로 사용합니다. 따라서 각 파일의 다른 배열에서 다른 주소를 사용하여 다른 호스트에 사용되는 인터페이스를 제어할 수 있습니다.

로컬 hosts 파일을 구성하려면 아래 설명된 절차를 사용하십시오.

  1. HA-SAM 클러스터의 주 노드에 root로 로그인합니다.

    예제에서는 sam1mds-node1이 주 노드입니다.

    [sam1mds-node1]root@solaris:~# 
    
  2. 텍스트 편집기에서 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.family-set-name.local을 사용하여 활성 메타데이터 서버에 로컬 hosts 파일을 만듭니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템 장비에 지정되는 패밀리 세트 이름입니다. 활성 서버가 잠재적 서버와 통신할 때 사용할 네트워크 인터페이스만 포함합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    예제에서는 활성 및 잠재적 메타데이터 서버가 개인 네트워크를 통해 서로 통신하게 하려고 합니다. 따라서 활성 메타데이터 서버의 로컬 hosts 파일 hosts.sam1.local에는 활성 및 잠재적 서버에 대한 클러스터 개인 주소만 나열됩니다.

    [sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sam1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv              1        0    server 
    sam1mds-node2  clusternode2-priv              2        0   
    :wq
    [sam1mds-node1]root@solaris:~# 
    
  3. 보조 클러스터 노드에 root로 로그인합니다.

    예제에서는 sam1mds-node2가 보조 노드입니다.

    [sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2
    Password:
    [sam1mds-node2]root@solaris:~# 
    
  4. 텍스트 편집기를 사용하여 잠재적 메타데이터 서버에 로컬 hosts 파일을 만듭니다. 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.family-set-name.local을 사용합니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템 장비에 지정되는 패밀리 세트 이름입니다. 잠재적 서버가 활성 서버와 통신할 때 사용할 네트워크 인터페이스만 포함합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    예제에서는 활성 및 잠재적 메타데이터 서버가 개인 네트워크를 통해 서로 통신하게 하려고 합니다. 따라서 잠재적 메타데이터 서버의 로컬 hosts 파일 hosts.sam1.local에는 활성 및 잠재적 서버에 대한 클러스터 개인 주소만 나열됩니다.

    [sam1mds-node2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sam1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv              1        0    server 
    sam1mds-node2  clusternode2-priv              2        0   
    :wq
    [sam1mds-node2]root@solaris:~# exit
    [sam1mds-node1]root@solaris:~# 
    
  5. 이제 주 HA-SAM 클러스터 노드에서 활성 QFS 메타데이터 서버 구성을 수행합니다.

주 HA-SAM 클러스터 노드에서 활성 QFS 메타데이터 서버 구성

  1. HA-SAM 클러스터에 대한 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버 둘 다로 사용될 클러스터 노드를 선택합니다. root로 로그인합니다.

    예제에서는 sam1mds-node1이 주 노드입니다.

    [sam1mds-node1]root@solaris:~# 
    
  2. QFS 파일 시스템에 사용할 전역 스토리지 장치를 선택합니다. /usr/global/bin/cldevice list -v 명령을 사용합니다.

    Solaris Cluster 소프트웨어는 클러스터 노드에 연결되는 모든 장치에 고유 DID(장치 식별자)를 지정합니다. 전역 장치는 클러스터의 모든 노드에서 액세스할 수 있고 로컬 장치는 해당 장치를 마운트하는 호스트에서만 액세스할 수 있습니다. 전역 장치는 페일오버 후에 계속 액세스할 수 있습니다. 로컬 장치는 그렇지 않습니다.

    예제에서는 d1, d2, d7d8 장치를 두 노드 모두에서 액세스할 수 없습니다. 따라서 고가용성 QFS 공유 파일 시스템을 구성할 때 d3, d4d5 장치 중에서 선택합니다.

    [sam1mds-node1]root@solaris:~# cldevice list -v
    DID Device          Full Device Path
    ----------          ----------------
    d1                  sam1mds-node1:/dev/rdsk/c0t0d0
    d2                  sam1mds-node1:/dev/rdsk/c0t6d0
    d3                  sam1mds-node1:/dev/rdsk/c1t1d0
    d3                  sam1mds-node2:/dev/rdsk/c1t1d0
    d4                  sam1mds-node1:/dev/rdsk/c1t2d0
    d4                  sam1mds-node2:/dev/rdsk/c1t2d0
    d5                  sam1mds-node1:/dev/rdsk/c1t3d0
    d5                  sam1mds-node2:/dev/rdsk/c1t3d0
    d6                  sam1mds-node2:/dev/rdsk/c0t0d0
    d7                  sam1mds-node2:/dev/rdsk/c0t1d0
    
  3. 선택한 주 노드에서 mr 데이터 장치를 사용하는 고성능 ma 파일 시스템을 만듭니다. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 엽니다.

    예제에서는 파일 시스템 sam1을 구성합니다. d3 장치를 메타데이터 장치로 구성하고(장비 유형 mm) d4d5 장치를 데이터 장치로 사용합니다(장비 유형 mr).

    [sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   -----------------
    sam1                  100        ma         sam1     -        
     /dev/did/dsk/d3s0     101        mm         sam1     -
     /dev/did/dsk/d4s0     102        mr         sam1     -
     /dev/did/dsk/d5s1     103        mr         sam1     -
    
  4. /etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템 항목의 Additional Parameters 열에 shared 매개변수를 입력합니다. 파일을 저장합니다.

    [sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   -----------------
    sam1                  100        ma         sam1     -        shared
     /dev/did/dsk/d3s0     101        mm         sam1     -
     /dev/did/dsk/d4s0     102        mr         sam1     -
     /dev/did/dsk/d5s1     103        mr         sam1     -
    :wq
    [sam1mds-node1]root@solaris:~# 
    
  5. mcf 파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd 명령을 사용하고 발견된 모든 오류를 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 sam1mds-node1 호스트에서 mcf 파일을 검사합니다.

    [sam1mds-node1]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [sam1mds-node1]root@solaris:~# 
    
  6. 파일 시스템을 만듭니다. /opt/SUNWsamfs/sbin/sammkfs -S family-set-name 명령을 사용합니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템 장비에 지정된 패밀리 세트 이름입니다.

    sammkfs 명령은 hosts.family-set-namemcf 파일을 읽고 지정된 등록 정보를 가진 Oracle HSM 파일 시스템을 만듭니다.

    [sam1mds-node1]root@solaris:~# sammkfs -S sam1
    Building 'sam1' will destroy the contents of devices:
      ...
    Do you wish to continue? [y/N]yes ...
    [sam1mds-node1]root@solaris:~# 
    
  7. 텍스트 편집기에서 운영체제의 /etc/vfstab 파일을 열고 새 파일 시스템에 대한 라인을 시작합니다. 첫번째 열에 파일 시스템 이름과 공백을 입력하고 두번째 열에 하이픈과 추가 공백을 입력합니다.

    예제에서는 vi 텍스트 편집기를 사용합니다. sam1 파일 시스템에 대한 라인을 시작합니다. 하이픈은 운영체제에서 UFS 도구를 사용하여 파일 시스템 무결성을 검사하려는 시도를 방지합니다.

    [sam1mds-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount         System  fsck  Mount    Mount
    #to Mount  to fsck  Point         Type    Pass  at Boot  Options
    #--------  -------  ------------  ------  ----  -------  ---------------------
    /devices   -        /devices      devfs   -     no       -
    /proc      -        /proc         proc    -     no       -
    ...
    sam1       -        
    
  8. /etc/vfstab 파일의 세번째 열에 클러스터를 기준으로 파일 시스템의 마운트 지점을 입력합니다. 시스템 루트 디렉토리의 바로 아래에 있지 않은 하위 디렉토리를 선택합니다.

    공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs 리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다. 예제에서는 클러스터의 마운트 지점을 /global/ha-sam/sam1로 설정합니다.

    #File
    #Device    Device   Mount               System  fsck  Mount    Mount
    #to Mount  to fsck  Point               Type    Pass  at Boot  Options
    #--------  -------  ------------------- ------  ----  -------  ---------------
    /devices   -        /devices            devfs   -     no       -
    /proc      -        /proc               proc    -     no       -
    ...
    sam1       -        /global/ha-sam/sam1  
    
  9. 모든 Oracle HSM 공유 파일 시스템의 경우와 마찬가지로 /etc/vfstab 파일 레코드의 나머지 필드를 채웁니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    #File
    #Device    Device   Mount               System  fsck  Mount    Mount
    #to Mount  to fsck  Point               Type    Pass  at Boot  Options
    #--------  -------  ------------------- ------  ----  -------  ---------------
    /devices   -        /devices            devfs   -     no       -
    /proc      -        /proc               proc    -     no       -
    ...
    sam1       -        /global/ha-sam/sam1 samfs   -     no       shared
    :wq
    [sam1mds-node1]root@solaris:~# 
    
  10. 고가용성 파일 시스템에 대한 마운트 지점을 만듭니다.

    mkdir 명령을 -p(parents) 옵션과 함께 사용하면 /global 디렉토리가 만들어집니다(아직 없는 경우).

    [sam1mds-node1]root@solaris:~# mkdir -p /global/ha-sam/sam1
    
  11. 주 노드에 고가용성 공유 파일 시스템을 마운트합니다.

    [sam1mds-node1]root@solaris:~# mount /global/ha-sam/sam1
    
  12. 이제 보조 HA-SAM 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성을 수행합니다.

보조 HA-SAM 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성

2노드 클러스터의 보조 노드는 잠재적 메타데이터 서버로 사용됩니다. 잠재적 메타데이터 서버는 메타데이터 장치에 액세스할 수 있으므로 메타데이터 서버의 역할을 담당할 수 있는 호스트입니다. 따라서 주 노드의 활성 메타데이터 서버가 실패할 경우 Solaris Cluster 소프트웨어는 보조 노드로 페일오버하여 잠재적 메타데이터 서버를 활성화할 수 있습니다.

  1. HA-SAM 클러스터의 보조 노드에 root로 로그인합니다.

    예제에서는 sam1mds-node2가 보조 노드입니다.

    [sam1mds-node2]root@solaris:~# 
    
  2. /etc/opt/SUNWsamfs/mcf 파일을 주 노드에서 보조 노드로 복사합니다.

  3. mcf 파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd 명령을 사용하고 발견된 모든 오류를 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 sam1mds-node1 호스트에서 mcf 파일을 검사합니다.

    [sam1mds-node2]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [sam1mds-node2]root@solaris:~# 
    
  4. 파일 시스템을 만듭니다. /opt/SUNWsamfs/sbin/sammkfs -S family-set-name 명령을 사용합니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템 장비에 지정된 패밀리 세트 이름입니다.

    sammkfs 명령은 hosts.family-set-namemcf 파일을 읽고 지정된 등록 정보를 가진 Oracle HSM 파일 시스템을 만듭니다.

    [sam1mds-node2]root@solaris:~# sammkfs sam1
    Building 'sam1' will destroy the contents of devices:
      ...
    Do you wish to continue? [y/N]yes ...
    [sam1mds-node2]root@solaris:~# 
    
  5. 텍스트 편집기에서 운영체제의 /etc/vfstab 파일을 열고 새 파일 시스템에 대한 라인을 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    이 예에서는 vi 편집기를 사용합니다.

    [sam1mds-node2]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount               System  fsck  Mount    Mount
    #to Mount  to fsck  Point               Type    Pass  at Boot  Options
    #--------  -------  ------------------- ------  ----  -------  --------------
    /devices   -        /devices            devfs   -     no       -
    /proc      -        /proc               proc    -     no       -
    ...
    sam1       -        /global/ha-sam/sam1 samfs   -     no       shared
    :wq
    [sam1mds-node2]root@solaris:~# 
    
  6. 보조 노드에서 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.

    [sam1mds-node2]root@solaris:~# mkdir -p /global/ha-sam/sam1
    
  7. 보조 노드에 고가용성 공유 파일 시스템을 마운트합니다.

    [sam1mds-node2]root@solaris:~# mount /global/ha-sam/sam1
    
  8. 이제 HA-SAM 클러스터 리소스 그룹 만들기를 수행합니다.

HA-SAM 클러스터 리소스 그룹 만들기

HA-SAM 솔루션에 대한 고가용성 리소스를 관리할 리소스 그룹을 만듭니다.

  1. HA-SAM 클러스터의 주 클러스터 노드에 root로 로그인합니다.

    예제에서는 주 노드가 sam1mds-node1입니다.

    [sam1mds-node1]root@solaris:~# 
    
  2. HA-SAM 솔루션 리소스를 관리할 Solaris Cluster 리소스 그룹을 만듭니다. clresourcegroup create -n node1,node2  groupname 명령을 사용합니다. 설명:

    • node1은 주 클러스터 노드의 호스트 이름입니다.

    • node2는 보조 클러스터 노드의 호스트 이름입니다.

    • groupname은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다.

    예제에서는 has-rg라는 리소스 그룹을 만들고 sam1mds-node1sam1mds-node2 호스트를 포함합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node1]root@solaris:~# clresourcegroup create \
    -n sam1mds-node1,sam1mds-node2 has-rg
    
  3. 이제 Oracle HSM 구성 파일을 포함하도록 고가용성 로컬 파일 시스템 구성을 수행합니다.

Oracle HSM 구성 파일에 대한 고가용성 로컬 파일 시스템 구성

페일오버 후에 성공적으로 복구하려면 Oracle HSM 소프트웨어가 페일오버 발생 시 실행하고 있던 아카이빙 작업을 다시 시작해야 합니다. 아카이빙 작업을 다시 시작하려면 소프트웨어가 일반적으로 활성 메타데이터 서버의 로컬 파일 시스템에 저장되어 있는 시스템 구성 및 상태 정보에 액세스할 수 있어야 합니다. 따라서 클러스터의 두 노드에서 모두 항상 액세스할 수 있는 고가용성 로컬 파일 시스템으로 필요한 정보를 이동해야 합니다.

필요한 파일 시스템을 만들려면 다음과 같이 하십시오.

  1. HA-SAM 클러스터의 주 노드에 root로 로그인합니다.

    예제에서는 주 노드가 sam1mds-node1입니다.

    [sam1mds-node1]root@solaris:~# 
    
  2. 주 클러스터 노드에서 전역 장치의 사용 가능한 슬라이스에 UFS 파일 시스템을 만듭니다. newfs /dev/global/dsk/dXsY 명령을 사용합니다. 여기서 X는 전역 장치의 DID(장치 식별자) 번호이고 Y는 슬라이스 번호입니다.

    예제에서는 /dev/global/dsk/d10s0에 새 파일 시스템을 만듭니다.

    [sam1mds-node1]root@solaris:~# newfs /dev/global/dsk/d10s0
    newfs: construct a new file system /dev/global/dsk/d10s0: (y/n)? y
    /dev/global/dsk/d10s0: 1112940 sectors in 1374 cylinders of 15 tracks,
    54 sectors 569.8MB in 86 cyl groups (16 c/g, 6.64MB/g, 3072 i/g) 
    super-block backups(for fsck -b #) at:
    32, 13056, 26080, 39104, 52128, 65152, 78176, 91200, 104224, . . .
    [sam1mds-node1]root@solaris:~# 
    
  3. 주 클러스터 노드에서 운영체제의 /etc/vfstab 파일을 텍스트 편집기에서 엽니다. 새 UFS 파일 시스템에 대한 라인을 추가합니다. 파일을 저장하고 편집기를 닫습니다.

    새 라인은 /dev/global/dsk/dXsY /dev/global/dsk/dXsY /global/mount_point ufs 5 no global 형식의 공백으로 구분된 목록이어야 합니다. 설명:

    • X는 파일 시스템을 보관하는 전역 장치의 DID(장치 식별자) 번호입니다.

    • Y는 파일 시스템을 보관하는 슬라이스의 번호입니다.

    • /dev/global/dsk/dXsY는 마운트할 파일 시스템 장치의 이름입니다.

    • /dev/global/dsk/dXsYfsck 명령에서 검사할 파일 시스템 장치의 이름입니다.

    • mount_point는 UFS 파일을 마운트할 하위 디렉토리의 이름입니다.

    • ufs는 파일 시스템 유형입니다.

    • 5는 권장되는 fsck 전달 번호입니다.

    • no는 운영체제에 시작 시 파일 시스템을 마운트하지 않도록 지시합니다.

    • global은 두 노드가 모두 액세스할 수 있도록 파일 시스템을 마운트합니다.

    예제에서는 vi 편집기를 사용합니다. 파일 시스템 이름은 /dev/global/dsk/d10s0이고 마운트 지점은 /global/hasam_cfg입니다(파일 시스템은 한 라인으로 입력하며 페이지에 맞추기 위해 줄바꿈이 삽입되고 백슬래시 문자로 이스케이프됨).

    [sam1mds-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount               System  fsck  Mount    Mount
    #to Mount  to fsck  Point               Type    Pass  at Boot  Options
    #--------  -------  ------------------- ------  ----  -------  --------------
    /devices   -        /devices            devfs   -     no       -
    /proc      -        /proc               proc    -     no       -
    ...
    sam1       -        /global/ha-samsam1  samfs   -     no       shared
    /dev/global/dsk/d10s0   /dev/global/rdsk/d10s0  /global/hasam_cfg  ufs  5 \
         no   global
    :wq
    [sam1mds-node2]root@solaris:~# 
    
  4. 주 클러스터 노드에서 고가용성 로컬 파일 시스템에 대한 마운트 지점을 만듭니다. mkdir -p /global/mount_point 명령을 사용합니다. 여기서 mount_point는 선택한 마운트 지점 디렉토리입니다.

    예제에서는 /global/hasam_cfg 디렉토리를 만듭니다.

    [sam1mds-node1]root@solaris:~# mkdir -p /global/hasam_cfg
    
  5. 보조 클러스터 노드에 root로 로그인합니다.

    예제에서 보조 노드는 sam1mds-node2입니다. ssh를 사용하여 로그인합니다.

    [sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2
    Password:
    [sam1mds-node2]root@solaris:~# 
    
  6. 보조 노드에서 운영체제의 /etc/vfstab 파일을 텍스트 편집기에서 엽니다. 새 UFS 파일 시스템에 대한 동일한 항목을 추가합니다. 파일을 저장하고 편집기를 닫습니다.

    [sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2
    Password:
    [sam1mds-node2]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount               System  fsck  Mount    Mount
    #to Mount  to fsck  Point               Type    Pass  at Boot  Options
    #--------  -------  ------------------- ------  ----  -------  --------------
    /devices   -        /devices            devfs   -     no       -
    /proc      -        /proc               proc    -     no       -
    ...
    sam1       -        /global/ha-samsam1  samfs   -     no       shared
    /dev/global/dsk/d10s0   /dev/global/rdsk/d10s0  /global/hasam_cfg  ufs  5  \
        no   global
    :wq
    [sam1mds-node1]root@solaris:~# 
    
  7. 보조 노드에서 동일한 마운트 지점을 만듭니다.

    예제에서는 /global/hasam_cfg 디렉토리를 만듭니다. 그런 다음 ssh 세션을 닫고 주 노드에서 작업을 재개합니다.

    [sam1mds-node2]root@solaris:~# mkdir -p /global/hasam_cfg
    [sam1mds-node2]root@solaris:~# exit
    [sam1mds-node1]root@solaris:~# 
    
  8. 주 노드에서 고가용성 로컬 파일 시스템을 마운트합니다. mount /global/mount_point 명령을 사용합니다. 여기서 mount_point는 선택한 마운트 지점 디렉토리입니다.

    이 명령은 두 노드 모두에서 UFS 파일 시스템을 마운트합니다. 예제에서는 /global/hasam_cfg에 파일 시스템을 마운트합니다.

    [sam1mds-node1]root@solaris:~# mount /global/hasam_cfg
    [sam1mds-node1]root@solaris:~# 
    
  9. 주 노드에서 Oracle HSM 스테이징 정보를 보관할 하위 디렉토리를 만듭니다. mkdir -p /global/mount_point/catalog 명령을 사용합니다. 여기서 mount_point는 선택한 마운트 지점 디렉토리입니다.

    [sam1mds-node1]root@solaris:~# mkdir /global/hasam_cfg/catalog
    [sam1mds-node1]root@solaris:~# 
    
  10. 주 노드에서 Oracle HSM 아카이브 카탈로그를 보관할 하위 디렉토리를 만듭니다. mkdir -p /global/mount_point/stager 명령을 사용합니다. 여기서 mount_point는 선택한 마운트 지점 디렉토리입니다.

    [sam1mds-node1]root@solaris:~# mkdir /global/hasam_cfg/stager
    [sam1mds-node1]root@solaris:~# 
    
  11. 이제 Oracle HSM 구성 파일을 고가용성 로컬 파일 시스템으로 재배치를 수행합니다.

Oracle HSM 구성 파일을 고가용성 로컬 파일 시스템으로 재배치

  1. HA-SAM 클러스터의 주 노드에 root로 로그인합니다.

    예제에서는 주 노드가 sam1mds-node1입니다.

    [sam1mds-node1]root@solaris:~# 
    
  2. 주 노드에서 catalog/stager/ 디렉토리를 /var/opt/SUNWsamfs/의 해당 기본 위치에서 임시 위치로 복사합니다.

    예제에서는 디렉토리를 /var/tmp/에 재귀적으로 복사합니다(아래의 첫번째 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node1]root@solaris:~# cp -r /var/opt/SUNWsamfs/catalog \
    /var/tmp/catalog 
    [sam1mds-node1]root@solaris:~# cp -r /var/opt/SUNWsamfs/stager /var/tmp/stager
    [sam1mds-node1]root@solaris:~# 
    
  3. 주 노드에서 catalog/stager/ 디렉토리를 /var/opt/SUNWsamfs/에서 삭제합니다.

    [sam1mds-node1]root@solaris:~# rm -rf /var/opt/SUNWsamfs/catalog 
    [sam1mds-node1]root@solaris:~# rm -rf /var/opt/SUNWsamfs/stager
    [sam1mds-node1]root@solaris:~# 
    
  4. 주 노드에서 카탈로그 정보의 기본 위치와 고가용성 UFS 로컬 파일 시스템의 새 위치 간에 심볼릭 링크를 만듭니다. ln -s /global/mount_point/catalog /var/opt/SUNWsamfs/catalog 명령을 사용합니다. 설명:

    • mount_point는 고가용성 로컬 파일 시스템이 노드의 루트 파일 시스템에 연결되는 하위 디렉토리의 이름입니다.

    • /var/opt/SUNWsamfs/catalog가 기본 위치입니다.

    심볼릭 링크는 카탈로그 정보 요청을 새 위치로 자동으로 재지정합니다. 예제에서는 새 위치 /global/hasam_cfg/catalog를 가리키는 catalog 링크를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node1]root@solaris:~# ln -s /global/hasam_cfg/catalog \
    /var/opt/SUNWsamfs/catalog
    [sam1mds-node1]root@solaris:~# 
    
  5. 주 노드에서 스테이징 정보의 기본 위치와 고가용성 UFS 로컬 파일 시스템의 새 위치 간에 심볼릭 링크를 만듭니다. ln -s /global/mount_point/stager /var/opt/SUNWsamfs/stager 명령을 사용합니다. 설명:

    • mount_point는 고가용성 로컬 파일 시스템이 노드의 루트 파일 시스템에 연결되는 하위 디렉토리의 이름입니다.

    • /var/opt/SUNWsamfs/stager가 기본 위치입니다.

    심볼릭 링크는 스테이저 정보 요청을 새 위치로 자동으로 재지정합니다. 예제에서는 새 위치 /global/hasam_cfg/stager를 가리키는 stager 링크를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node1]root@solaris:~# ln -s /global/hasam_cfg/stager \ /var/opt/SUNWsamfs/stager
    [sam1mds-node1]root@solaris:~# 
    
  6. 주 노드에서 기본 /var/opt/SUNWsamfs/catalog/var/opt/SUNWsamfs/stager 위치가 심볼릭 링크로 대체되었는지 확인합니다. 또한 링크가 고가용성 파일 시스템의 새 위치를 가리키는지 확인합니다.

    예제에서는 링크가 올바릅니다.

    [sam1mds-node1]root@solaris:~# ls -l /var/opt/SUNWsamfs/catalog
    lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/catalog -> /global/hasam_cfg/catalog
    [sam1mds-node1]root@solaris:~# ls -l /var/opt/SUNWsamfs/stager
    lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/stager -> /global/hasam_cfg/stager
    [sam1mds-node1]root@solaris:~# 
    
  7. 임시 위치의 catalog/stager/ 디렉토리 내용을 고가용성 파일 시스템에 복사합니다.

    예제에서는 /var/tmp/catalog/stager/ 디렉토리를 새 위치 /global/hasam_cfg/stager에 복사합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node1]root@solaris:~# cp -rp /var/tmp/catalog/* \
    /var/opt/SUNWsamfs/catalog
    [sam1mds-node1]root@solaris:~# cp -rp /var/tmp/stager/* \
    /var/opt/SUNWsamfs/stager
    [sam1mds-node1]root@solaris:~# 
    
  8. HA-SAM 클러스터의 보조 노드에 root로 로그인합니다.

    예제에서는 ssh(보안 셸)를 사용하여 보조 노드인 sam1mds-node2에 로그인합니다.

    [sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2
    Password:
    [sam1mds-node2]root@solaris:~# 
    
  9. 보조 노드에서 카탈로그 정보의 기본 위치와 고가용성 UFS 로컬 파일 시스템의 새 위치 간에 심볼릭 링크를 만듭니다. ln -s /global/mount_point/catalog /var/opt/SUNWsamfs/catalog 명령을 사용합니다. 설명:

    • mount_point는 고가용성 로컬 파일 시스템이 노드의 루트 파일 시스템에 연결되는 하위 디렉토리의 이름입니다.

    • /var/opt/SUNWsamfs/catalog가 기본 위치입니다.

    심볼릭 링크는 카탈로그 정보 요청을 새 위치로 자동으로 재지정합니다. 예제에서는 새 위치 /global/hasam_cfg/catalog를 가리키는 catalog 링크를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node2]root@solaris:~# ln -s /global/hasam_cfg/catalog \
    /var/opt/SUNWsamfs/catalog
    [sam1mds-node2]root@solaris:~# 
    
  10. 보조 노드에서 스테이징 정보의 기본 위치와 고가용성 UFS 로컬 파일 시스템의 새 위치 간에 심볼릭 링크를 만듭니다. ln -s /global/mount_point/stager /var/opt/SUNWsamfs/stager 명령을 사용합니다. 설명:

    • mount_point는 고가용성 로컬 파일 시스템이 노드의 루트 파일 시스템에 연결되는 하위 디렉토리의 이름입니다.

    • /var/opt/SUNWsamfs/stager가 기본 위치입니다.

    심볼릭 링크는 스테이저 정보 요청을 새 위치로 자동으로 재지정합니다. 예제에서는 새 위치 /global/hasam_cfg/stager를 가리키는 stager 링크를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node2]root@solaris:~# ln -s /global/hasam_cfg/stager \ /var/opt/SUNWsamfs/stager
    [sam1mds-node2]root@solaris:~# 
    
  11. 보조 노드에서 기본 /var/opt/SUNWsamfs/catalog/var/opt/SUNWsamfs/stager 위치가 심볼릭 링크로 대체되었는지 확인합니다. 또한 링크가 고가용성 파일 시스템의 새 위치를 가리키는지 확인합니다.

    예제에서는 링크가 올바릅니다. 따라서 ssh 세션을 닫고 주 노드에서 작업을 재개합니다.

    [sam1mds-node2]root@solaris:~# ls -l /var/opt/SUNWsamfs/catalog
    lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/catalog -> /global/hasam_cfg/catalog
    [sam1mds-node2]root@solaris:~# ls -l /var/opt/SUNWsamfs/stager
    lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/stager -> /global/hasam_cfg/stager
    [sam1mds-node2]root@solaris:~# exit
    [sam1mds-node1]root@solaris:~#  
    
  12. 이제 고가용성 로컬 파일 시스템을 사용하도록 HA-SAM 클러스터 구성을 수행합니다.

고가용성 로컬 파일 시스템을 사용하도록 HA-SAM 클러스터 구성

  1. HA-SAM 클러스터의 주 노드에서 SUNW.HAStoragePlus 리소스 유형을 클러스터 구성의 일부로 등록합니다. Solaris Cluster 명령 clresourcetype register SUNW.HAStoragePlus를 사용합니다.

    [sam1mds-node1]root@solaris:~# clresourcetype register SUNW.HAStoragePlus
    [sam1mds-node1]root@solaris:~# 
    
  2. 주 노드에서 SUNW.HAStoragePlus 리소스 유형의 새 인스턴스를 만들어 Solaris Cluster 리소스 그룹과 연관시킵니다. clresource create -g groupname -t SUNW.HAStoragePlus -x FilesystemMountPoints=mountpoint -x AffinityOn=TRUE resourcename 명령을 사용합니다. 설명:

    • groupname은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다.

    • SUNW.HAStoragePlus는 로컬 파일 시스템의 페일오버를 지원하는 Solaris Cluster 리소스 유형입니다.

    • mountpoint는 카탈로그 및 스테이저 파일을 보관할 고가용성 로컬 파일 시스템에 대한 마운트 지점입니다.

    • resourcename은 리소스 자체에 사용하도록 선택한 이름입니다.

    예제에서는 SUNW.HAStoragePlus 유형의 has-cfg라는 리소스를 만듭니다. 새 리소스를 리소스 그룹 has-rg에 추가합니다. 그런 다음 리소스 확장 속성을 구성합니다. FilesystemMountPoints/global/hasam_cfg로 설정하고 AffinityOnTRUE로 설정합니다(아래 명령은 각각 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node1]root@solaris:~# clresource create -g has-rg \
    -t SUNW.HAStoragePlus -x FilesystemMountPoints=/global/hasam_cfg \
    -x AffinityOn=TRUE has-cfg
    [sam1mds-node1]root@solaris:~# 
    
  3. 이제 QFS 파일 시스템 메타데이터 서버의 페일오버 구성을 수행합니다.

QFS 파일 시스템 메타데이터 서버의 페일오버 구성

Oracle HSM 소프트웨어에 의해 정의된 리소스 유형인 SUNW.qfs 클러스터 리소스를 만들어 메타데이터 서버의 페일오버를 구성합니다(자세한 내용은 SUNW.qfs 매뉴얼 페이지 참조). HA-SAM 구성에 대한 리소스를 만들고 구성하려면 다음과 같이 하십시오.

  1. HA-SAM 클러스터의 주 클러스터 노드에 root로 로그인합니다.

    예제에서는 주 노드가 sam1mds-node1입니다.

    [sam1mds-node1]root@solaris:~# 
    
  2. Solaris Cluster 소프트웨어에 대한 리소스 유형 SUNW.qfs를 정의합니다. clresourcetype registerSUNW.qfs 명령을 사용합니다.

    [sam1mds-node1]root@solaris:~# clresourcetype register SUNW.qfs
    [qfs1mds-node1]root@solaris:~# 
    
  3. 등록 파일을 찾을 수 없어 등록에 실패한 경우 /opt/SUNWsamfs/sc/etc/ 디렉토리에 대한 심볼릭 링크를 Solaris Cluster가 리소스 유형 등록 파일을 유지하는 디렉토리인 /opt/cluster/lib/rgm/rtreg/에 배치합니다.

    Oracle HSM 소프트웨어를 설치하기 전에 Oracle Solaris Cluster 소프트웨어를 설치하지 않은 경우 등록이 실패합니다. 일반적으로 Oracle HSM는 설치 도중 Solaris Cluster를 감지한 경우 SUNW.qfs 등록 파일의 위치를 자동으로 제공합니다. 예제에서는 수동으로 링크를 만듭니다.

    [qfs1mds-node1]root@solaris:~# cd /opt/cluster/lib/rgm/rtreg/
    [qfs1mds-node1]root@solaris:~# ln -s /opt/SUNWsamfs/sc/etc/SUNW.qfs SUNW.qfs
    [qfs1mds-node1]root@solaris:~# 
    
  4. 새 리소스 그룹에서 활성 메타데이터 서버에 대한 가상 호스트 이름을 설정합니다. Solaris Cluster 명령 clreslogicalhostname create -g group-name virtualMDS를 사용합니다. 설명:

    • group-name은 QFS 리소스 그룹의 이름입니다.

    • virtualMDS는 가상 호스트 이름입니다.

    공유 파일 시스템에 대한 hosts 파일에 사용한 것과 같은 가상 호스트 이름을 사용합니다. 예제에서는 가상 호스트 이름 sam1mdshas-rg 리소스 그룹에 추가합니다.

    [sam1mds-node1]root@solaris:~# clreslogicalhostname create -g has-rg sam1mds
    [qfs1mds-node1]root@solaris:~# 
    
  5. Oracle HSM 파일 시스템 리소스를 리소스 그룹에 추가합니다. clresource create -g groupname -t SUNW.qfs -x QFSFileSystem=mount-point 명령을 사용합니다. 설명:

    • groupname은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다.

    • SUNW.qfs는 QFS 파일 시스템 메타데이터 서버의 페일오버를 지원하는 Solaris Cluster 리소스 유형입니다.

    • mount-point는 시스템 루트 디렉토리 바로 아래에 있지 않은 하위 디렉토리인 클러스터의 파일 시스템에 대한 마운트 지점입니다.

      공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs 리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다.

    • resource-name은 리소스 자체에 사용하도록 선택한 이름입니다.

    예제에서는 SUNW.qfs 유형의 has-qfs라는 리소스를 리소스 그룹 has-rg에서 만듭니다. SUNW.qfs 확장 등록 정보 QFSFileSystem/global/ha-sam/sam1 마운트 지점으로 설정합니다. 표준 등록 정보 Resource_dependencies를 활성 메타데이터 서버를 나타내는 가상 호스트 이름인 sam1mds로 설정합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node1]root@solaris:~# clresource create -g has-rg -t SUNW.qfs \
    -x QFSFileSystem=/global/ha-sam/sam1 -y Resource_dependencies=sam1mds has-qfs 
    [sam1mds-node1]root@solaris:~# 
    
  6. 이제 Oracle Hierarchical Storage Manager 응용 프로그램의 페일오버 구성을 수행합니다.

Oracle Hierarchical Storage Manager 응용 프로그램의 페일오버 구성

Oracle HSM SUNW.hasam 리소스를 만들어 Oracle Hierarchical Storage Manager 응용 프로그램의 페일오버를 구성합니다. 이 리소스 유형은 Oracle HSM 프로세스의 정상적인 종료 및 다시 시작을 조정합니다.

Oracle HSM 응용 프로그램의 페일오버를 구성하려면 다음과 같이 하십시오.

  1. HA-SAM 클러스터의 주 클러스터 노드에 root로 로그인합니다.

    예제에서는 주 노드가 sam1mds-node1입니다.

    [sam1mds-node1]root@solaris:~# 
    
  2. Solaris Cluster 소프트웨어에 대한 리소스 유형 SUNW.hasam을 정의합니다. clresourcetype register SUNW.hasam 명령을 사용합니다.

    [sam1mds-node1]root@solaris:~# clresourcetype register SUNW.hasam
    [sam1mds-node1]root@solaris:~# 
    
  3. Oracle HSM SUNW.hasam 리소스를 리소스 그룹에 추가합니다. clresource create -g groupname -t SUNW.hasam -x QFSName=fs-name -x CatalogFileSystem=mount-point resource-name 명령을 사용합니다. 설명:

    • groupname은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다.

    • SUNW.hasam은 Oracle Hierarchical Storage Manager 응용 프로그램의 페일오버를 지원하는 Solaris Cluster 리소스 유형입니다.

    • mount-point는 Oracle HSM 아카이브 카탈로그를 보관하는 전역 파일 시스템의 마운트 지점입니다.

    • resource-name은 리소스 자체에 사용하도록 선택한 이름입니다.

    예제에서는 SUNW.hasam 유형의 has-sam이라는 리소스를 리소스 그룹 has-rg에서 만듭니다. SUNW.hasam 확장 등록 정보 QFSNamemcf 파일에 지정된 QFS 파일 시스템 이름인 sam1로 설정합니다. SUNW.hasam 확장 등록 정보 CatalogFileSystem/global/hasam_cfg 마운트 지점으로 설정합니다.

    [sam1mds-node1]root@solaris:~# clresource create -g has-rg -t SUNW.hasam \
    -x QFSName=sam1 -x CatalogFileSystem=/global/hasam_cfg has-sam
    [sam1mds-node1]root@solaris:~# 
    
  4. 이제 HA-SAM 솔루션에 대한 클러스터 리소스 종속성 정의를 수행합니다.

HA-SAM 솔루션에 대한 클러스터 리소스 종속성 정의

  1. HA-SAM 클러스터의 주 클러스터 노드에 root로 로그인합니다.

    예제에서는 주 노드가 sam1mds-node1입니다.

    [sam1mds-node1]root@solaris:~# 
    
  2. 고가용성 로컬 파일 시스템을 사용할 수 없는 경우 QFS 파일 시스템이 시작되면 안됩니다. 따라서 SUNW.qfs 리소스가 SUNW.HAStoragePlus 리소스에 종속되게 합니다. Solaris Cluster 명령 clresource set -p Resource_dependencies=dependency resource-name을 사용합니다. 설명:

    • dependencySUNW.HAStoragePlus 리소스의 이름입니다.

    • resource-nameSUNW.qfs 리소스의 이름입니다.

    예제에서는 SUNW.qfs 리소스가 SUNW.HAStoragePlus 리소스인 has-cfg에 종속되게 합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node1]root@solaris:~# clresource set \
    -p Resource_dependencies=has-cfg has-qfs
    [sam1mds-node1]root@solaris:~# 
    
  3. QFS 활성 메타데이터 서버가 온라인 상태가 아니면 클러스터가 가상 호스트 이름을 사용할 수 있게 하면 안됩니다. 따라서 가상 호스트 이름이 SUNW.qfs 리소스에 종속되게 합니다. Solaris Cluster 명령 clresource set -p Resource_dependencies=virtualMDS resource-name을 사용합니다. 설명:

    • virtualMDS는 활성 Oracle HSM 메타데이터 서버를 나타내는 가상 호스트 이름입니다.

    • resource-nameSUNW.qfs 리소스의 이름입니다.

    예제에서 SUNW.qfs 리소스를 설정할 때 만든 가상 호스트 이름은 sam1mds입니다. 리소스 자체의 이름은 has-qfs입니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [sam1mds-node1]root@solaris:~# clresource set \
    -p Resource_dependencies=sam1mds has-qfs
    [sam1mds-node1]root@solaris:~# 
    
  4. 이제 HA-SAM 리소스 그룹을 온라인 상태로 전환 및 구성 테스트를 수행합니다.

HA-SAM 리소스 그룹을 온라인 상태로 전환 및 구성 테스트

  1. HA-SAM 클러스터의 주 클러스터 노드에 root로 로그인합니다.

    예제에서는 주 노드가 sam1mds-node1입니다.

    [sam1mds-node1]root@solaris:~# 
    
  2. 자원 그룹을 온라인으로 전환합니다. Solaris Cluster 명령 clresourcegroup manage groupnameclresourcegroup online -emM groupname을 사용합니다. 여기서 groupname은 HA-SAM 리소스 그룹의 이름입니다.

    예제에서는 has-rg 리소스 그룹을 온라인 상태로 전환합니다.

    [sam1mds-node1]root@solaris:~# clresourcegroup manage has-rg
    [sam1mds-node1]root@solaris:~# clresourcegroup online -emM has-rg
    [sam1mds-node1]root@solaris:~# 
    
  3. HA-SAM 리소스 그룹이 온라인 상태인지 확인합니다. Solaris Cluster clresourcegroup status 명령을 사용합니다.

    예제에서는 has-rg 리소스 그룹이 주 노드 sam1mds-node1에서 online 상태입니다.

    [sam1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    has-rg      sam1mds-node1   No          Online
                sam1mds-node2   No          Offline
    [sam1mds-node1]root@solaris:~# 
    
  4. 다음에는 리소스 그룹이 제대로 페일오버되는지 확인합니다. 리소스 그룹을 보조 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup switch -n node2 groupname을 사용합니다. 여기서 node2는 보조 노드의 이름이고 groupname은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status를 사용하여 결과를 검사합니다.

    예제에서는 has-rg 리소스 그룹을 sam1mds-node2로 이동하고 이 리소스 그룹이 지정된 노드에서 온라인 상태가 되는지 확인합니다.

    [sam1mds-node1]root@solaris:~# clresourcegroup switch -n sam1mds-node2 has-rg
    [sam1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    has-rg      sam1mds-node1   No          Offline
                sam1mds-node2   No          Online
    [sam1mds-node1]root@solaris:~# 
    
  5. 리소스 그룹을 다시 주 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup switch -n node1 groupname을 사용합니다. 여기서 node1은 주 노드의 이름이고 groupname은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status를 사용하여 결과를 확인합니다.

    예제에서는 has-rg 리소스 그룹을 sam1mds-node1로 성공적으로 다시 이동합니다.

    [sam1mds-node1]root@solaris:~# clresourcegroup switch -n sam1mds-node1 has-rg
    [sam1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    has-rg      sam1mds-node1   No          Online
                sam1mds-node2   No          Offline
    [sam1mds-node1]root@solaris:~# 
    
  6. 필요한 경우 HA-NFS(고가용성 네트워크 파일 시스템) 공유를 지금 구성합니다.

    HA-NFS 설정에 대한 자세한 지침은 Oracle Solaris Cluster 온라인 설명서 라이브러리에 포함된 Oracle Solaris Cluster Data Service for Network File System (NFS) Guide에 나와 있습니다.

  7. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  8. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.

고가용성 QFS 공유 파일 시스템 및 Oracle RAC

SC-RAC(Solaris Cluster-Oracle Real Application Cluster) 구성에서 Solaris Cluster 소프트웨어는 QFS 공유 파일 시스템을 또한 Oracle 데이터베이스 및 Oracle RAC(Real Application Cluster) 소프트웨어를 호스팅하는 노드에 마운트된 SUNW.qfs 리소스로 관리합니다. 모든 노드는 하나의 활성 메타데이터 서버 및 다른 잠재적 메타데이터 서버가 있는 QFS 서버로 구성됩니다. 활성 메타데이터 서버 노드가 실패할 경우 Solaris Cluster 소프트웨어는 정상적인 노드에서 잠재적 메타데이터 서버를 자동으로 활성화하고 페일오버를 시작합니다. Oracle RAC를 통해 I/O가 조정되며 QFS 파일 시스템이 공유되고 이미 모든 노드에 마운트되어 있습니다. 따라서 데이터에 중단 없이 계속 액세스할 수 있습니다.

SC-RAC 구성에서 RAC 소프트웨어는 I/O 요청을 조정하고 작업 로드를 분배하며 클러스터의 노드에서 실행되는 여러 Oracle 데이터베이스 인스턴스에 대한 일관된 단일 데이터베이스 파일 세트를 유지 관리합니다. 파일 시스템 무결성이 RAC에서 보장되므로 QFS 잠재적 메타데이터 서버는 공유 파일 시스템의 클라이언트로 I/O를 수행할 수 있습니다. 자세한 내용은 Oracle Solaris Cluster Online Documentation Library에서 Oracle Real Application Clusters에 대한 Oracle Solaris Cluster 데이터 서비스 설명서를 참조하십시오.

SC-RAC 파일 시스템을 구성하려면 아래 작업을 수행합니다.

모든 SC-RAC 클러스터 노드에서 QFS 공유 파일 시스템 hosts 파일 만들기

QFS 공유 파일 시스템에서는 모든 호스트가 파일 시스템의 메타데이터에 액세스할 수 있도록 메타데이터 서버에서 hosts 파일을 구성해야 합니다. hosts 파일은 /etc/opt/SUNWsamfs/ 디렉토리에 mcf 파일과 나란히 저장됩니다. 공유 파일 시스템의 초기 생성 중 sammkfs -S 명령은 이 파일에 저장된 설정을 사용하여 공유를 구성합니다. 따라서 아래 절차를 사용하여 지금 만듭니다.

  1. SC-RAC 클러스터의 주 클러스터 노드에 root로 로그인합니다.

    예제에서는 주 노드가 qfs1rac-node1입니다.

    [qfs1rac-node1]root@solaris:~# 
    
  2. 클러스터 구성을 표시합니다. /usr/global/bin/cluster show 명령을 사용합니다. 출력에서 각 Node Name에 대한 레코드를 찾아서 privatehostname과 각 네트워크 어댑터의 Transport Adapter 이름 및 ip_address 등록 정보를 메모합니다.

    예제에서는 각 노드에 2개의 네트워크 인터페이스인 qfe3hme0이 있습니다.

    • hme0 어댑터는 클러스터가 노드 간의 내부 통신에 사용하는 개인 네트워크의 IP 주소를 가집니다. Solaris Cluster 소프트웨어는 각 개인 주소에 해당하는 privatehostname을 지정합니다.

      기본적으로 주 노드의 개인 호스트 이름은 clusternode1-priv이고 보조 노드의 개인 호스트 이름은 clusternode2-priv입니다.

    • qfe3 어댑터는 클러스터가 데이터 전송에 사용하는 공용 IP 주소 및 공용 호스트 이름인 qfs1rac-node1qfs1rac-node2를 가집니다.

    표시는 줄임표(...)를 사용하여 축약되어 있습니다.

    [qfs1rac-node1]root@solaris:~# cluster show
    ...
      === Cluster Nodes ===                        
      Node Name:                                    qfs1rac-node1...
        privatehostname:                               clusternode1-priv...
        Transport Adapter List:                        qfe3, hme0...
        Transport Adapter:                          qfe3...
          Adapter Property(ip_address):                172.16.0.12...
        Transport Adapter:                          hme0...
          Adapter Property(ip_address):                10.0.0.129...
      Node Name:                                    qfs1rac-node2...
        privatehostname:                               clusternode2-priv...
        Transport Adapter List:                        qfe3, hme0...
          Adapter Property(ip_address):                172.16.0.13...
        Transport Adapter:                          hme0
          Adapter Property(ip_address):                10.0.0.122...
      Node Name:                                    qfs1rac-node3...
        privatehostname:                               clusternod3-priv...
        Transport Adapter List:                        qfe3, hme0...
          Adapter Property(ip_address):                172.16.0.33...
        Transport Adapter:                          hme0
          Adapter Property(ip_address):                10.0.0.092
    
  3. 텍스트 편집기를 사용하여 /etc/opt/SUNWsamfs/hosts.family-set-name 파일을 만듭니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템 장비에 지정되는 패밀리 세트 이름입니다.

    예제에서는 vi 텍스트 편집기를 사용하여 hosts.qfs1rac 파일을 만듭니다. 일부 선택적 머리글을 추가하여 호스트 테이블의 열을 표시하고 각 라인을 해시 기호(#)로 시작하여 주석이라는 것을 나타냅니다.

    [qfs1rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1rac
    # /etc/opt/SUNWsamfs/hosts.qfs1rac
    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    
  4. 테이블의 첫번째 열에 주 및 보조 메타데이터 서버 노드의 호스트 이름과 그 뒤에 약간의 공백을 입력합니다. 각 항목을 별개의 라인에 배치합니다.

    hosts 파일에서 라인은 행(레코드)이고 공백은 열(필드) 구분자입니다. 예제에서 처음 두 행의 Host Name 열에는 클러스터 노드의 호스트 이름인 qfs1rac-node1, qfs1rac-node2qfs1rac-node3이 나열됩니다.

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  
    qfs1rac-node2  
    qfs1rac-node3  
    
  5. 각 라인의 두번째 열에서 Host Name 호스트에 대한 Network Interface 정보 제공을 시작합니다. 각 SC-RAC 클러스터 노드의 Solaris Cluster 개인 호스트 이름 또는 개인 네트워크 주소와 그 뒤에 콤마를 입력합니다.

    SC-RAC 서버 노드는 고가용성 클러스터 내의 서버-서버 통신에 개인 호스트 이름을 사용합니다. 예제에서는 Solaris Cluster 소프트웨어에 의해 지정된 기본 이름인 개인 호스트 이름 clusternode1-priv, clusternode2-privclusternode3-priv를 사용합니다.

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  clusternode1-priv,  
    qfs1rac-node2  clusternode2-priv,  
    qfs1rac-node3  clusternode3-priv,  
    
  6. 각 라인의 두번째 열에서 콤마 뒤에 활성 메타데이터 서버에 대한 공용 호스트 이름과 그 뒤에 공백을 입력합니다.

    SC-RAC 서버 노드는 모두 클러스터 외부에 상주하는 클라이언트와 통신하기 위해 공용 데이터 네트워크를 사용합니다. 페일오버 도중 활성 메타데이터 서버의 IP 주소 및 호스트 이름이 변경되므로(예를 들어, qfs1rac-node1에서 qfs1rac-node2로 변경) 가상 호스트 이름 qfs1rac-mds를 사용하여 활성 서버를 나타냅니다. 나중에 qfs1rac-mds에 대한 요청을 현재 활성 메타데이터 서버를 호스팅하는 노드로 항상 경로를 지정하도록 Solaris Cluster 소프트웨어를 구성할 것입니다.

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  clusternode1-priv,qfs1rac-mds   
    qfs1rac-node2  clusternode2-priv,qfs1rac-mds   
    qfs1rac-node3  clusternode3-priv,qfs1rac-mds   
    
  7. 각 라인의 세번째 열에 서버의 순서 번호(활성 메타데이터 서버의 경우 1이고 잠재적 메타데이터 서버의 경우 2)와 그 뒤에 공백을 입력합니다.

    예제에서는 주 노드 qfs1rac-node1이 활성 메타데이터 서버입니다. 따라서 순서 1입니다. 두번째 노드 qfs1rac-node2는 순서 2입니다.

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  clusternode1-priv,qfs1rac-mds     1
    qfs1rac-node2  clusternode2-priv,qfs1rac-mds     2
    qfs1rac-node3  clusternode3-priv,qfs1rac-mds     3
    
  8. 각 라인의 네번째 열에 0(영)과 그 뒤에 공백을 입력합니다.

    네번째 열의 0, -(하이픈) 또는 공백 값은 호스트가 on으로 구성되었고 공유 파일 시스템에 액세스할 수 있음을 나타냅니다. 1(숫자 1)은 호스트가 파일 시스템에 액세스할 수 있도록 구성되지 않은 off 상태라는 것을 나타냅니다(공유 파일 시스템을 관리할 때 이러한 값을 사용하는 방법에 대한 자세한 내용은 samsharefs 매뉴얼 페이지 참조).

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  clusternode1-priv,qfs1rac-mds     1        0
    qfs1rac-node2  clusternode2-priv,qfs1rac-mds     2        0
    qfs1rac-node3  clusternode3-priv,qfs1rac-mds     3        0
    
  9. 주 노드의 라인에서 다섯번째 열에 server 키워드를 입력합니다. 파일을 저장하고 편집기를 닫습니다.

    server 키워드는 기본 활성 메타데이터 서버를 식별합니다.

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  clusternode1-priv,qfs1rac-mds     1        0    server
    qfs1rac-node2  clusternode2-priv,qfs1rac-mds     2        0  
    qfs1rac-node3  clusternode3-priv,qfs1rac-mds     2        0  
    :wq
    [qfs1rac-node1]root@solaris:~# 
    
  10. 전역 /etc/opt/SUNWsamfs/hosts.family-set-name 파일의 복사본을 SC-RAC 클러스터의 각 노드에 배치합니다.

  11. 이제 주 SC-RAC 클러스터 노드에서 활성 QFS 메타데이터 서버 구성을 수행합니다.

주 SC-RAC 클러스터 노드에서 활성 QFS 메타데이터 서버 구성

  1. SC-RAC 클러스터에 대한 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버 둘 다로 사용될 클러스터 노드를 선택합니다. root로 로그인합니다.

    예제에서는 주 노드가 qfs1rac-node1입니다.

    [qfs1rac-node1]root@solaris:~# 
    
  2. QFS 파일 시스템에 사용할 전역 스토리지 장치를 선택합니다. /usr/global/bin/cldevice list -v 명령을 사용합니다.

    Solaris Cluster 소프트웨어는 클러스터 노드에 연결되는 모든 장치에 고유 DID(장치 식별자)를 지정합니다. 전역 장치는 클러스터의 모든 노드에서 액세스할 수 있고 로컬 장치는 해당 장치를 마운트하는 호스트에서만 액세스할 수 있습니다. 전역 장치는 페일오버 후에 계속 액세스할 수 있습니다. 로컬 장치는 그렇지 않습니다.

    예제에서는 d1, d2, d6, d7d8 장치를 일부 노드에서 액세스할 수 없습니다. 따라서 고가용성 QFS 공유 파일 시스템을 구성할 때 d3, d4d5 장치 중에서 선택합니다.

    [qfs1rac-node1]root@solaris:~# cldevice list -v
    DID Device          Full Device Path
    ----------          ----------------
    d1                  qfs1rac-node1:/dev/rdsk/c0t0d0
    d2                  qfs1rac-node1:/dev/rdsk/c0t6d0
    d3                  qfs1rac-node1:/dev/rdsk/c1t1d0
    d3                  qfs1rac-node2:/dev/rdsk/c1t1d0
    d3                  qfs1rac-node3:/dev/rdsk/c1t1d0
    d4                  qfs1rac-node1:/dev/rdsk/c1t2d0
    d4                  qfs1rac-node2:/dev/rdsk/c1t2d0
    d4                  qfs1rac-node3:/dev/rdsk/c1t2d0
    d5                  qfs1rac-node1:/dev/rdsk/c1t3d0
    d5                  qfs1rac-node2:/dev/rdsk/c1t3d0
    d5                  qfs1rac-node3:/dev/rdsk/c1t3d0
    d6                  qfs1rac-node2:/dev/rdsk/c0t0d0
    d7                  qfs1rac-node2:/dev/rdsk/c0t1d0
    d8                  qfs1rac-node3:/dev/rdsk/c0t1d0
    
  3. mr 데이터 장치를 사용하는 고성능 공유 ma 파일 시스템을 만듭니다. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 엽니다.

    예제에서는 파일 시스템 qfs1rac를 구성합니다. d3 장치를 메타데이터 장치로 구성하고(장비 유형 mm) d4d5 장치를 데이터 장치로 사용합니다(장비 유형 mr).

    [qfs1rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   --------------
    qfs1rac               100        ma         qfs1rac  -        
     /dev/did/dsk/d3s0     101        mm         qfs1rac  -
     /dev/did/dsk/d4s0     102        mr         qfs1rac  -
     /dev/did/dsk/d5s0     103        mr         qfs1rac  -
    ...
    
  4. /etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템 항목의 Additional Parameters 열에 shared 매개변수를 입력합니다. 파일을 저장합니다.

    [qfs1rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   --------------
    qfs1rac               100        ma         qfs1rac  -        shared
     /dev/did/dsk/d3s0     101        mm         qfs1rac  -
     /dev/did/dsk/d4s0     102        mr         qfs1rac  -
     /dev/did/dsk/d5s0     103        mr         qfs1rac  -
    ...
    :wq
    [qfs1rac-node1]root@solaris:~# 
    
  5. mcf 파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd 명령을 사용하고 발견된 모든 오류를 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs1rac-node1 호스트에서 mcf 파일을 검사합니다.

    [qfs1rac-node1]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs1rac-node1]root@solaris:~# 
    
  6. 파일 시스템을 만듭니다. /opt/SUNWsamfs/sbin/sammkfs -S family-set-name 명령을 사용합니다. 여기서 family-set-name은 파일 시스템에 대한 장비 식별자입니다.

    sammkfs 명령은 hosts.family-set-namemcf 파일을 읽고 지정된 등록 정보를 가진 공유 파일 시스템을 만듭니다.

    [qfs1rac-node1]root@solaris:~# sammkfs -S qfs1rac
    Building 'qfs1rac' will destroy the contents of devices:
      ...
    Do you wish to continue? [y/N]yes ...
    [qfs1rac-node1]root@solaris:~# 
    
  7. 텍스트 편집기에서 운영체제의 /etc/vfstab 파일을 열고 새 파일 시스템에 대한 라인을 시작합니다. 첫번째 열에 파일 시스템 이름과 공백을 입력하고 두번째 열에 하이픈과 추가 공백을 입력합니다.

    예제에서는 vi 텍스트 편집기를 사용합니다. qfs1rac 파일 시스템에 대한 라인을 시작합니다. 하이픈은 운영체제에서 UFS 도구를 사용하여 파일 시스템 무결성을 검사하려는 시도를 방지합니다.

    [qfs1rac-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount            System  fsck  Mount    Mount
    #to Mount  to fsck  Point            Type    Pass  at Boot  Options
    #--------  -------  ---------------  ------  ----  -------  ------------------
    /devices   -        /devices         devfs   -     no       -
    /proc      -        /proc            proc    -     no       -
    ...
    qfs1rac    -        
    
  8. /etc/vfstab 파일의 세번째 열에 클러스터를 기준으로 파일 시스템의 마운트 지점을 입력합니다. 시스템 루트 디렉토리의 바로 아래에 있지 않은 하위 디렉토리를 지정합니다.

    공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs 리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다. 예제에서는 qfs1rac 파일 시스템에 대한 마운트 지점이 /global/sc-rac/qfs1rac입니다.

    #File
    #Device    Device   Mount                    System  fsck  Mount    Mount
    #to Mount  to fsck  Point                    Type    Pass  at Boot  Options
    #--------  -------  -----------------------  ------  ----  -------  ----------
    /devices   -        /devices                 devfs   -     no       -
    /proc      -        /proc                    proc    -     no       -
    ...
    qfs1rac    -        /global/sc-rac/qfs1rac 
     
    
  9. 파일 시스템 유형 samfs를 네번째 열에 입력하고 -(하이픈)을 다섯번째 열에 입력하고 no를 여섯번째 열에 입력합니다.

    #File
    #Device    Device   Mount                    System  fsck  Mount    Mount
    #to Mount  to fsck  Point                    Type    Pass  at Boot  Options
    #--------  -------  -----------------------  ------  ----  -------  ----------
    /devices   -        /devices                 devfs   -     no       -
    /proc      -        /proc                    proc    -     no       -
    ...
    qfs1rac    -        /global/sc-rac/qfs1rac   samfs   -     no
    :wq
    [qfs1rac-node1]root@solaris:~# 
    
  10. /etc/vfstab 파일의 일곱번째 열에 아래 나열된 마운트 옵션을 입력합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    다음 마운트 옵션은 SC-RAC 클러스터 구성에 권장됩니다. 이러한 마운트 옵션을 여기에서 /etc/vfstab에 지정하거나 더 편리한 경우 /etc/opt/SUNWsamfs/samfs.cmd 파일에 지정할 수 있습니다.

    • shared

    • stripe=1

    • sync_meta=1

    • mh_write

    • qwrite

    • forcedirectio

    • notrace

    • rdlease=300

    • wrlease=300

    • aplease=300

    예제에서는 페이지 레이아웃에 맞게 목록이 축약되었습니다.

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- --------------------   ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs1rac   -       /global/sc-rac/qfs1rac samfs  -    no      shared,...=300
    :wq
    [qfs1rac-node1]root@solaris:~# 
    
  11. 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.

    [qfs1rac-node1]root@solaris:~# mkdir -p /global/sc-rac/qfs1rac
    [qfs1rac-node1]root@solaris:~# 
    
  12. 주 노드에 고가용성 공유 파일 시스템을 마운트합니다.

    [qfs1rac-node1]root@solaris:~# mount /global/sc-rac/qfs1rac
    [qfs1rac-node1]root@solaris:~# 
    
  13. 이제 나머지 SC-RAC 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성을 수행합니다.

나머지 SC-RAC 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성

클러스터의 나머지 노드는 잠재적 메타데이터 서버로 사용됩니다. 잠재적 메타데이터 서버는 메타데이터 장치에 액세스하고 메타데이터 서버의 역할을 담당할 수 있는 호스트입니다. 따라서 주 노드의 활성 메타데이터 서버가 실패할 경우 Solaris Cluster 소프트웨어는 보조 노드로 페일오버하여 잠재적 메타데이터 서버를 활성화할 수 있습니다.

SC-RAC 클러스터의 각 나머지 노드에 대해 다음과 같이 하십시오.

  1. 노드에 root로 로그인합니다.

    예제에서는 현재 노드가 qfs1rac-node2입니다.

    [qfs1rac-node2]root@solaris:~# 
    
  2. /etc/opt/SUNWsamfs/mcf 파일을 주 노드에서 현재 노드로 복사합니다.

  3. mcf 파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd 명령을 실행하고 발견된 모든 오류를 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs1rac-node2 호스트에서 mcf 파일을 검사합니다.

    [qfs1rac-node2]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs1rac-node2]root@solaris:~# 
    
  4. 텍스트 편집기에서 운영체제의 /etc/vfstab 파일을 열고 새 파일 시스템에 대한 라인을 시작합니다.

    이 예에서는 vi 편집기를 사용합니다.

    [qfs1rac-node2]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount                  System  fsck  Mount    Mount
    #to Mount  to fsck  Point                  Type    Pass  at Boot  Options
    #--------  -------  ---------------------- ------  ----  -------  ------------
    /devices   -        /devices               devfs   -     no       -
    /proc      -        /proc                  proc    -     no       -
    ...
    qfs1rac    -        /global/sc-rac/qfs1rac samfs   -     no
    
  5. /etc/vfstab 파일의 일곱번째 열에 아래 나열된 마운트 옵션을 입력합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    다음 마운트 옵션은 SC-RAC 클러스터 구성에 권장됩니다. 이러한 마운트 옵션을 여기에서 /etc/vfstab에 지정하거나 더 편리한 경우 /etc/opt/SUNWsamfs/samfs.cmd 파일에 지정할 수 있습니다.

    • shared

    • stripe=1

    • sync_meta=1

    • mh_write

    • qwrite

    • forcedirectio

    • notrace

    • rdlease=300

    • wrlease=300

    • aplease=300

    예제에서는 페이지 레이아웃에 맞게 목록이 축약되었습니다.

    #File
    #Device   Device  Mount                  System  fsck  Mount   Mount
    #to Mount to fsck Point                  Type    Pass  at Boot Options
    #-------- ------- ---------------------- ------  ----  ------- ------------
    /devices  -       /devices               devfs   -     no      -
    /proc     -       /proc                  proc    -     no      -
    ...
    qfs1rac   -       /global/sc-rac/qfs1rac samfs   -     no      shared,...=300
    :wq
    [qfs1rac-node2]root@solaris:~# 
    
  6. 보조 노드에서 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.

    [qfs1rac-node2]root@solaris:~# mkdir -p /global/sc-rac/qfs1rac
    [qfs1rac-node2]root@solaris:~# 
    
  7. 보조 노드에 고가용성 공유 파일 시스템을 마운트합니다.

    [qfs1rac-node2]root@solaris:~# mount /global/sc-rac/qfs1rac
    [qfs1rac-node2]root@solaris:~# 
    
  8. 이제 SC-RAC 메타데이터 서버의 페일오버 구성을 수행합니다.

SC-RAC 메타데이터 서버의 페일오버 구성

Solaris Cluster 소프트웨어가 관리하는 클러스터에서 Oracle HSM 공유 파일 시스템을 호스팅할 경우 Oracle HSM 소프트웨어에 의해 정의된 리소스 유형인 SUNW.qfs 클러스터 리소스를 만들어 메타데이터 서버의 페일오버를 구성합니다(자세한 내용은 SUNW.qfs 매뉴얼 페이지 참조). SC-RAC 구성에 대한 리소스를 만들고 구성하려면 다음과 같이 하십시오.

  1. SC-RAC 클러스터의 주 노드에 root로 로그인합니다.

    예제에서는 주 노드가 qfs1rac-node1입니다.

    [qfs1rac-node1]root@solaris:~# 
    
  2. Solaris Cluster 소프트웨어에 대한 QFS 리소스 유형 SUNW.qfs를 정의합니다. clresourcetype registerSUNW.qfs 명령을 사용합니다.

    [qfs1rac-node1]root@solaris:~# clresourcetype registerSUNW.qfs
    [qfs1rac-node1]root@solaris:~# 
    
  3. 등록 파일을 찾을 수 없어 등록에 실패한 경우 /opt/SUNWsamfs/sc/etc/ 디렉토리에 대한 심볼릭 링크를 Solaris Cluster가 리소스 유형 등록 파일을 유지하는 디렉토리인 /opt/cluster/lib/rgm/rtreg/에 배치합니다.

    Oracle HSM 소프트웨어를 설치하기 전에 Oracle Solaris Cluster 소프트웨어를 설치하지 않았습니다. 일반적으로 Oracle HSM는 설치 도중 Solaris Cluster를 감지한 경우 SUNW.qfs 등록 파일의 위치를 자동으로 제공합니다. 따라서 링크를 수동으로 만들 필요가 없습니다.

    [qfs1rac-node1]root@solaris:~# cd /opt/cluster/lib/rgm/rtreg/
    [qfs1rac-node1]root@solaris:~# ln -s /opt/SUNWsamfs/sc/etc/SUNW.qfs SUNW.qfs
    [qfs1rac-node1]root@solaris:~# 
    
  4. QFS 메타데이터 서버에 대한 리소스 그룹을 만듭니다. Solaris Cluster 명령 clresourcegroup create -n node-list group-name을 사용합니다. 여기서 node-list는 콤마로 구분된 클러스터 노드 목록이고 group-name은 리소스 그룹에 사용할 이름입니다.

    예제에서는 SC-RAC 서버 노드가 멤버로 포함된 리소스 그룹 qfsracrg를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [qfs1rac-node1]root@solaris:~# clresourcegroup create \
    -n qfs1rac-node1,qfs1rac-node2 qfsracrg
    [qfs1rac-node1]root@solaris:~# 
    
  5. 새 리소스 그룹에서 활성 메타데이터 서버에 대한 가상 호스트 이름을 설정합니다. Solaris Cluster 명령 clreslogicalhostname create -g group-name을 사용합니다. 여기서 group-name은 QFS 리소스 그룹의 이름이고 virtualMDS는 가상 호스트 이름입니다.

    공유 파일 시스템에 대한 hosts 파일에 사용한 것과 같은 가상 호스트 이름을 사용합니다. 예제에서는 qfsracrg 리소스 그룹에 가상 호스트 qfs1rac-mds를 만듭니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [qfs1rac-node1]root@solaris:~# clreslogicalhostname create \
    -g qfsracrg qfs1rac-mds
    [qfs1rac-node1]root@solaris:~# 
    
  6. QFS 파일 시스템 리소스를 리소스 그룹에 추가합니다. clresource create -g group-name -t SUNW.qfs -x QFSFileSystem=mount-point -y Resource_dependencies=virtualMDS resource-name 명령을 사용합니다. 설명:

    • group-name은 QFS 리소스 그룹의 이름입니다.

    • mount-point는 시스템 루트 디렉토리 바로 아래에 있지 않은 하위 디렉토리인 클러스터의 파일 시스템에 대한 마운트 지점입니다.

      공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs 리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다.

    • virtualMDS는 활성 메타데이터 서버의 가상 호스트 이름입니다.

    • resource-name은 리소스에 제공할 이름입니다.

    예제에서는 SUNW.qfs 유형의 scrac라는 리소스를 리소스 그룹 qfsracrg에서 만듭니다. SUNW.qfs 확장 등록 정보 QFSFileSystem/global/sc-rac/qfs1rac 마운트 지점으로 설정합니다. 표준 등록 정보 Resource_dependencies를 활성 메타데이터 서버의 논리적 호스트인 qfs1rac-mds로 설정합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [qfs1rac-node1]root@solaris:~# create -g qfsracrg -t SUNW.qfs \
    -x QFSFileSystem=/global/sc-rac/qfs1rac \
    -y Resource_dependencies=qfs1rac-mds scrac 
    [qfs1rac-node1]root@solaris:~# 
    
  7. 자원 그룹을 온라인으로 전환합니다. Solaris Cluster 명령 clresourcegroup manage group-nameclresourcegroup online -emM group-name을 사용합니다. 여기서 group-name은 QFS 리소스 그룹의 이름입니다.

    예제에서는 qfsracrg 리소스 그룹을 온라인 상태로 만듭니다.

    [qfs1rac-node1]root@solaris:~# clresourcegroup manage qfsracrg
    [qfs1rac-node1]root@solaris:~# clresourcegroup online -emM qfsracrg
    [qfs1rac-node1]root@solaris:~# 
    
  8. QFS 리소스 그룹이 온라인 상태인지 확인합니다. Solaris Cluster 명령 clresourcegroup status를 사용합니다.

    예제에서는 qfsracrg 리소스 그룹이 주 노드 qfs1rac-node1에서 online 상태입니다.

    [qfs1rac-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsracrg    qfs1rac-node1   No          Online
                qfs1rac-node2   No          Offline
                qfs1rac-node3   No          Offline
    [qfs1rac-node1]root@solaris:~# 
    
  9. 리소스 그룹이 제대로 페일오버되는지 확인합니다. 리소스 그룹을 보조 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup switch -n node2 group-name을 사용합니다. 여기서 node2는 보조 노드의 이름이고 group-name은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status를 사용하여 결과를 검사합니다.

    예제에서는 qfsracrg 리소스 그룹을 qfs1rac-node2qfs1rac-node3으로 이동하고 이 리소스 그룹이 지정된 노드에서 온라인 상태가 되는지 확인합니다.

    [qfs1rac-node1]root@solaris:~# clresourcegroup switch -n qfs1rac-node2 qfsracrg
    [qfs1rac-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsracrg    qfs1rac-node1   No          Offline
                qfs1rac-node2   No          Online
                qfs1rac-node3   No          Offline
    [qfs1rac-node1]root@solaris:~# clresourcegroup switch -n qfs1rac-node3 qfsracrg
    [qfs1rac-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsracrg    qfs1rac-node1   No          Offline
                qfs1rac-node2   No          Offline
                qfs1rac-node3   No          Online
    [qfs1rac-node1]root@solaris:~# 
    
  10. 리소스 그룹을 다시 주 노드로 이동합니다. Solaris Cluster 명령 clresourcegroup switch -n node1 group-name을 사용합니다. 여기서 node1은 주 노드의 이름이고 group-name은 HA-SAM 리소스 그룹에 사용하도록 선택한 이름입니다. 그런 다음 clresourcegroup status를 사용하여 결과를 검사합니다.

    예제에서는 qfsracrg 리소스 그룹을 qfs1rac-node1로 성공적으로 다시 이동합니다.

    [qfs1rac-node1]root@solaris:~# clresourcegroup switch -n qfs1rac-node1 qfsracrg
    [qfs1rac-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    samr        qfs1rac-node1   No          Online
                qfs1rac-node2   No          Offline
                qfs1rac-node3   No          Offline
    [qfs1rac-node1]root@solaris:~# 
    
  11. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  12. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.

소프트웨어 RAID 스토리지를 사용하여 SC-RAC 노드에서 QFS 메타데이터 서버 구성

고가용성 파일 시스템은 데이터 및 메타데이터를 중복 주 스토리지 장치에 저장해야 합니다. 중복 디스크 배열 하드웨어는 메타데이터를 위한 RAID-1 또는 RAID-10 및 데이터를 위한 RAID-5를 사용하여 이 중복성을 제공할 수 있습니다. 그러나 일반 이중 포트 SCSI 디스크 장치 또는 JBOD(Just a Bunch Of Disks) 배열을 주 스토리지로 사용해야 할 경우 소프트웨어에서 필요한 중복성을 제공해야 합니다.

이러한 이유로 SC-RAC 구성은 Oracle SVM(Solaris Volume Manager) 다중 소유자 디스크 세트에 기초한 소프트웨어 RAID 구성을 지원합니다. 이 절에서는 이러한 변형된 SC-RAC 파일 시스템 구성을 설정할 때 수행해야 하는 기본 단계에 대해 설명합니다.

중복 스토리지 배열을 관리하기 위해서만 Solaris Volume Manager를 사용해야 합니다. 별개의 장치에서 스토리지를 연결하지 마십시오. 이 경우 I/O가 구성 요소 장치에 비효율적으로 분산되고 QFS 파일 시스템 성능이 저하됩니다.

다음 작업을 수행합니다.

Solaris 11+에 Solaris Volume Manager 설치

Solaris 11부터 SVM(Solaris Volume Manager)은 더 이상 Solaris에 포함되지 않습니다. 그러나 Solaris Cluster 4 소프트웨어는 Solaris Volume Manager를 계속해서 지원합니다. 따라서 이 소프트웨어를 사용하려면 Solaris 10 9/10 릴리스에 포함된 버전을 다운로드하여 설치해야 합니다. 클러스터의 각 노드에 대해 다음과 같이 하십시오.

  1. 노드에 root로 로그인합니다.

    아래 예제에서는 Solaris IPS(이미지 패키징 시스템)를 사용하여 클러스터 노드 qfs2rac-node1을 구성합니다.

    [qfs2rac-node1]root@solaris:~# 
    
  2. 로컬로 사용 가능한 SVM(Solaris Volume Manager) 패키지를 확인합니다. pkg info svm 명령을 사용합니다.

    [qfs2rac-node1]root@solaris:~# pkg info svm
    pkg: info: no packages matching the following patterns you specified are
    installed on the system.  Try specifying -r to query remotely:
            svm
    [qfs2rac-node1]root@solaris:~# 
    
  3. 패키지를 로컬로 찾을 수 없는 경우 Solaris IPS(이미지 패키징 시스템) 저장소를 확인합니다. pkg -r svm 명령을 사용합니다.

    [qfs2rac-node1]root@solaris:~# pkg -r svm
              Name: storage/svm
           Summary: Solaris Volume Manager
       Description: Solaris Volume Manager commands
          Category: System/Core
             State: Not installed
         Publisher: solaris
           Version: 0.5.11
     Build Release: 5.11
            Branch: 0.175.0.0.0.2.1
    Packaging Date: October 19, 2011 06:42:14 AM 
              Size: 3.48 MB
              FMRI: pkg://solaris/storage/svm@0.5.11,5.11-0.175.0.0.0.2.1:20111019T064214Z
    [qfs2rac-node1]root@solaris:~# 
    
  4. 패키지를 설치합니다. pkg install storage/svm 명령을 사용합니다.

    [qfs2rac-node1]root@solaris:~# pkg install storage/svm
               Packages to install:   1
           Create boot environment:  No
    Create backup boot environment: Yes
                Services to change:   1
    DOWNLOAD      PKGS       FILES    XFER (MB)
    Completed      1/1     104/104      1.6/1.6
    PHASE            ACTIONS
    Install Phase    168/168 
    PHASEITEMS
    Package State Update Phase         1/1 
    Image State Update Phase           2/2 
    [qfs2rac-node1]root@solaris:~# 
    
  5. 설치가 완료되면 metadb의 위치를 확인합니다. which metadb 명령을 사용합니다.

    [qfs2rac-node1]root@solaris:~# which metadb
    /usr/sbin/metadb
    [qfs2rac-node1]root@solaris:~# 
    
  6. 설치를 확인합니다. metadb 명령을 사용합니다.

    [qfs2rac-node1]root@solaris:~# metadb
    [qfs2rac-node1]root@solaris:~# 
    
  7. metadb에서 오류가 반환될 경우 kernel/drv/md.conf 파일이 있는지 확인합니다.

    [qfs2rac-node1]root@solaris:~# metadb
    metadb: <HOST>: /dev/md/admin: No such file or directory
    [qfs2rac-node1]root@solaris:~# ls -l /kernel/drv/md.conf 
    -rw-r--r--   1 root     sys          295 Apr 26 15:07 /kernel/drv/md.conf
    [qfs2rac-node1]root@solaris:~# 
    
  8. kernel/drv/md.conf 파일이 없을 경우 만듭니다. root를 파일 소유자로 만들고 sys를 그룹 소유자로 만듭니다. 권한을 644로 설정합니다.

    예제에서는 vi 편집기를 사용하여 파일을 만듭니다. 파일의 내용은 다음과 같아야 합니다.

    [qfs2rac-node1]root@solaris:~# vi kernel/drv/md.conf
    ###################################################
    #pragma ident   "@(#)md.conf    2.1   00/07/07 SMI"
    #
    # Copyright (c) 1992-1999 by Sun Microsystems, Inc.
    # All rights reserved.
    #
    name="md" parent="pseudo" nmd=128 md_nsets=4;
    ####################################################
    :wq
    [qfs2rac-node1]root@solaris:~# chown root:sys kernel/drv/md.conf
    [qfs2rac-node1]root@solaris:~# chmod 644
    [qfs2rac-node1]root@solaris:~# 
    
  9. md.conf 파일을 동적으로 다시 스캔하고 장치 트리가 업데이트되었는지 확인합니다. update_drv -f md 명령을 사용합니다.

    예제에서는 장치 트리가 업데이트되었습니다. 따라서 Solaris Volume Manager가 설치되었습니다.

    [qfs2rac-node1]root@solaris:~# update_drv -f md
    [qfs2rac-node1]root@solaris:~# ls -l  /dev/md/admin
    lrwxrwxrwx   1 root root 31 Apr 20 10:12 /dev/md/admin -> ../../devices/pseudo/md@0:admin 
    [qfs2rac-node1]root@solaris:~# 
    
  10. 이제 Solaris Volume Manager 다중 소유자 디스크 그룹 만들기를 수행합니다.

Solaris Volume Manager 다중 소유자 디스크 그룹 만들기

  1. SC-RAC 구성의 모든 노드에 root로 로그인합니다.

    예제에서는 qfs2rac-node1 노드에 로그인합니다. 그런 다음 새 터미널 창을 열고 ssh를 사용하여 qfs2rac-node2qfs2rac-node3 노드에 로그인합니다.

    [qfs2rac-node1]root@solaris:~# 
    
    [qfs2rac-node1]root@solaris:~# ssh root@qfs2rac-node2
    Password:
    [qfs2rac-node2]root@solaris:~# 
    
    [qfs2rac-node1]root@solaris:~# ssh root@qfs2rac-node3
    Password:
    [qfs2rac-node3]root@solaris:~# 
    
  2. Oracle Solaris Cluster 4.x를 Solaris 11.x 이상에서 사용하는 중이고 Solaris Volume Manager 설치를 아직 수행하지 않은 경우 계속하기 전에 각 노드에서 설치를 수행합니다.

    Solaris 11부터 Solaris Volume Manager는 기본적으로 설치되지 않습니다.

  3. 각 노드에서 새 상태 데이터베이스 장치를 연결하고 상태 데이터베이스 복제본 3개를 만듭니다. metadb -a -f -c3 device-name 명령을 사용합니다. 여기서 device-namecXtYdYsZ 형태의 물리적 장치 이름입니다.

    Solaris Cluster DID(장치 식별자)를 사용하지 마십시오. 물리적 장치 이름을 사용합니다. 예제에서는 3개의 클러스터 노드 모두에서 상태 데이터베이스 장치를 만듭니다.

    [qfs2rac-node1]root@solaris:~# metadb -a -f -c3 /dev/rdsk/c0t0d0
    
    [qfs2rac-node2]root@solaris:~# metadb -a -f -c3 /dev/rdsk/c0t6d0
    
    [qfs2rac-node3]root@solaris:~# metadb -a -f -c3 /dev/rdsk/c0t4d0
    
  4. 하나의 노드에 Solaris Volume Manager 다중 소유자 디스크 그룹을 만듭니다. metaset -sdiskset -M -a -h host-list 명령을 사용합니다. 여기서 host-list는 공백으로 구분된 소유자 목록입니다.

    Solaris Volume Manager는 디스크 세트당 최대 4개의 호스트를 지원합니다. 예제에서는 qfs2rac-node1에 디스크 그룹 datadisks를 만들고 3개 노드 qfs2rac-node1, qfs2rac-node2qfs2rac-node3을 소유자로 지정합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [qfs2rac-node1]root@solaris:~# metaset -s datadisks -M -a -h qfs2rac-node1 \
    qfs2rac-node2 qfs2rac-node3
    
  5. 노드 중 하나에 있는 장치를 나열합니다. Solaris Cluster 명령 cldevice list -n -v를 사용합니다.

    [qfs2rac-node1]root@solaris:~# cldevice list -n -v
    DID Device  Full Device Path
    ----------  ----------------
    d13         qfs2rac-node1:/dev/rdsk/c6t600C0FF00000000000332B62CF3A6B00d0
    d14         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E950F1FD9600d0
    d15         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E9124FAF9C00d0
    ...
    [qfs2rac-node1]root@solaris:~# 
    
  6. cldevice list -n -v 명령의 출력에서 미러링할 장치를 선택합니다.

    예제에서는 4개의 미러를 위한 네 쌍의 장치인 d21 및 d13, d14 및 d17, d23 및 d16, d15 및 d19를 선택합니다.

    [qfs2rac-node1]root@solaris:~# cldevice list -n -v
    DID Device  Full Device Path
    ----------  ----------------
    d13         qfs2rac-node1:/dev/rdsk/c6t600C0FF00000000000332B62CF3A6B00d0
    d14         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E950F1FD9600d0
    d15         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E9124FAF9C00d0
    d16         qfs2rac-node1:/dev/rdsk/c6t600C0FF00000000000332B28488B5700d0
    d17         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB474EC5DE900d0
    d18         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E975EDA6A000d0
    d19         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB47E331ACF00d0
    d20         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E9780ECA8100d0
    d21         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000004CAD5B68A7A100d0
    d22         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB43CF85DA800d0
    d23         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000004CAD7CC3CDE500d0
    d24         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB4259B272300d0
    ....
    [qfs2rac-node1]root@solaris:~# 
    
  7. 선택한 장치를 동일한 노드의 디스크 세트에 추가합니다. metaset -a devicelist 명령을 사용합니다. 여기서 devicelist는 공백으로 구분된 하나 이상의 클러스터 장치 식별자 목록입니다.

    예제에서는 나열된 디스크를 다중 소유자 디스크 세트 dataset1에 추가합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시 문자로 이스케이프됨).

    [qfs2rac-node1]root@solaris:~# metaset -s dataset1 -M -a -h /dev/did/rdsk/d21 \ /dev/did/rdsk/d13 /dev/did/rdsk/d14 /dev/did/rdsk/d17 /dev/did/rdsk/d23 \
    /dev/did/rdsk/d16 /dev/did/rdsk/d15 /dev/did/rdsk/d19
    [qfs2rac-node1]root@solaris:~# 
    
  8. 이제 QFS 데이터 및 메타데이터에 대한 미러링된 볼륨 만들기를 수행합니다.

QFS 데이터 및 메타데이터에 대한 미러링된 볼륨 만들기

  1. 구성 요소 간의 관계를 명확하게 유지하기 위해 만들려는 RAID-0 논리 볼륨 및 RAID-1 미러에 대한 이름 지정 체계를 결정합니다.

    일반적으로 RAID-1 미러는 dn으로 이름이 지정되고 여기서 n은 정수입니다. RAID-1 미러를 구성하는 RAID-0 볼륨은 dnX로 이름이 지정되고 여기서 X는 미러 내에서 장치의 위치를 나타내는 정수입니다(일반적으로 양방향 미러의 경우 0 또는 1).

    이 절차의 예제에서는 RAID-0 논리 볼륨 쌍에서 양방향 RAID-1 미러를 만듭니다. 따라서 미러의 이름을 d1, d2, d3, d4 등으로 지정합니다. 그런 다음 RAID-0 볼륨을 포함하는 RAID-1 미러에 대한 각 쌍의 RAID-0 볼륨 이름을 d10d11, d20d21, d30d31, d40d41 등으로 지정합니다.

  2. 다중 소유자 디스크 세트를 만든 노드에 로그인합니다. root로 로그인합니다.

    위 예제에서는 qfs2rac-node1에서 디스크 세트를 만들었습니다.

    [qfs2rac-node1]root@solaris:~# 
    
  3. 첫번째 RAID-0 논리 볼륨을 만듭니다. metainit -s diskset-name device-name number-of-stripes components-per-stripe component-names 명령을 사용합니다. 여기서 각 항목은 다음과 같습니다.

    • diskset-name은 디스크 세트에 사용하도록 선택한 이름입니다.

    • device-name은 RAID-0 논리 볼륨에 사용하도록 선택한 이름입니다.

    • number-of-stripes1입니다.

    • components-per-stripe1입니다.

    • component-name은 RAID-0 볼륨에서 사용할 디스크 세트 구성 요소의 장치 이름입니다.

    예제에서는 다중 소유자 디스크 세트 dataset1의 클러스터(DID) 장치 /dev/did/dsk/d21s0을 사용하여 RAID-0 논리 볼륨 d10을 만듭니다.

    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d10 1 1 /dev/did/dsk/d21s0
    [qfs2rac-node1]root@solaris:~# 
    
  4. 나머지 RAID-0 논리 볼륨을 만듭니다.

    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d11 1 1 /dev/did/dsk/d13s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d20 1 1 /dev/did/dsk/d14s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d21 1 1 /dev/did/dsk/d17s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d30 1 1 /dev/did/dsk/d23s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d31 1 1 /dev/did/dsk/d16s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d40 1 1 /dev/did/dsk/d15s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d41 1 1 /dev/did/dsk/d19s0
    ...
    [qfs2rac-node1]root@solaris:~# 
    
  5. 첫번째 RAID-1 미러를 만듭니다. metainit -s diskset-name RAID-1-mirrorname -m RAID-0-volume0 명령을 사용합니다. 여기서 각 항목은 다음과 같습니다.

    • diskset-name은 다중 소유자 디스크 세트의 이름입니다.

    • RAID-1-mirrorname은 RAID-1 미러링된 볼륨의 이름입니다.

    • RAID-0-volume0은 미러에 추가하는 중인 첫번째 RAID-0 논리 볼륨입니다.

    예제에서는 d1 미러를 만들고 미러의 첫번째 RAID-0 볼륨 d10을 추가합니다.

    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d1 -m d10
    [qfs2rac-node1]root@solaris:~# 
    
  6. 나머지 RAID-0 볼륨을 첫번째 RAID-1 미러에 추가합니다. metattach -s diskset-name RAID-1-mirrorname RAID-0-volume 명령을 사용합니다. 여기서 각 항목은 다음과 같습니다.

    • diskset-name은 다중 소유자 디스크 세트의 이름입니다.

    • RAID-1-mirrorname은 RAID-1 미러링된 볼륨의 이름입니다.

    • RAID-0-volume은 미러에 추가하는 중인 RAID-0 논리 볼륨입니다.

    예제에서는 d1이 이중 미러이므로 단일 RAID-0 볼륨 d11을 추가합니다.

    [qfs2rac-node1]root@solaris:~# metattach -s dataset1 d11 d1
    [qfs2rac-node1]root@solaris:~# 
    
  7. 나머지 미러를 만듭니다.

    예제에서는 d2, d3, d4 등의 미러를 만듭니다.

    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d2 -m d20
    [qfs2rac-node1]root@solaris:~# metattach -s dataset1 d21 d2
    [qfs2rac-node1]root@solaris:~# metainit -s dataset2 d3 -m d30
    [qfs2rac-node1]root@solaris:~# metattach -s dataset2 d31 d3
    [qfs2rac-node1]root@solaris:~# metainit -s dataset2 d4 -m d40
    [qfs2rac-node1]root@solaris:~# metattach -s dataset2 d41 d4
    ...
    [qfs2rac-node1]root@solaris:~# 
    
  8. QFS 파일 시스템 메타데이터를 보관할 미러를 선택합니다.

    아래 예제에서는 d1d2 미러를 선택합니다.

  9. 선택한 미러에서 QFS 메타데이터를 보관할 소프트 분할 영역을 만듭니다. 각 미러에 대해 metainit -s diskset-name partition-name -p RAID-1-mirrorname size 명령을 사용합니다. 설명:

    • diskset-name은 다중 소유자 디스크 세트의 이름입니다.

    • partition-name은 새 분할 영역의 이름입니다.

    • RAID-1-mirrorname은 미러의 이름입니다.

    • size는 분할 영역의 크기입니다.

    예제에서는 2개의 500GB 분할 영역을 만듭니다. 즉, d1 미러에서 d53을 만들고 d2 미러에서 d63을 만듭니다.

    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d53 -p d1 500g
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d63 -p d2 500g
    
  10. 이제 미러링된 볼륨을 사용하여 SC-RAC 클러스터에서 QFS 공유 파일 시스템 만들기를 수행합니다.

미러링된 볼륨을 사용하여 SC-RAC 클러스터에서 QFS 공유 파일 시스템 만들기

  1. 아직 수행하지 않은 경우 모든 SC-RAC 클러스터 노드에서 QFS 공유 파일 시스템 hosts 파일 만들기 절차를 수행합니다. 완료되면 여기로 돌아옵니다.

  2. SC-RAC 클러스터에 대한 주 노드 및 QFS 공유 파일 시스템에 대한 활성 메타데이터 서버 둘 다로 사용될 클러스터 노드를 선택합니다. root로 로그인합니다.

    예제에서는 qfs2rac-node1 노드를 선택합니다.

    [qfs2rac-node1]root@solaris:~#  
    
  3. 주 노드에서 고성능 공유 ma 파일 시스템을 만듭니다. Solaris Volume Manager 미러링된 디스크 볼륨을 mm 메타데이터 장치 및 mr 데이터 장치로 사용합니다. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 필요한 대로 편집한 다음 파일을 저장합니다.

    예제에서는 vi 텍스트 편집기를 사용하여 qfs2rac 파일 시스템을 만듭니다. 미러링된 볼륨 d1d2의 분할 영역은 파일 시스템의 mm 메타데이터 장치 2개인 110120으로 사용됩니다. 미러링된 볼륨 d3d4는 파일 시스템의 mr 데이터 장치 2개인 130140으로 사용됩니다.

    [qfs2rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # /etc/opt/SUNWsamfs/mcf file:
    #
    # Equipment               Equipment Equipment Family   Device  Additional
    # Identifier              Ordinal   Type      Set      State   Parameters
    # ----------------------- --------- --------  -------  ------  ----------
    qfs2rac                   100        ma       qfs2rac  on      shared
     /dev/md/dataset1/dsk/d53  110        mm       qfs2rac  on
     /dev/md/dataset1/dsk/d63  120        mm       qfs2rac  on
     /dev/md/dataset1/dsk/d3   130        mr       qfs2rac  on
     /dev/md/dataset1/dsk/d4   140        mr       qfs2rac  on
    :wq
    [qfs2rac-node1]root@solaris:~# 
    
  4. mcf 파일에서 오류를 검사합니다. /opt/SUNWsamfs/sbin/sam-fsd 명령을 사용하고 발견된 모든 오류를 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 qfs2rac-node1 호스트에서 mcf 파일을 검사합니다.

    [qfs2rac-node1]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs2rac-node1]root@solaris:~# 
    
  5. 파일 시스템을 만듭니다. /opt/SUNWsamfs/sbin/sammkfs -S family-set-name 명령을 사용합니다. 여기서 family-set-name은 파일 시스템의 장비 식별자입니다.

    sammkfs 명령은 hosts.family-set-namemcf 파일을 읽고 지정된 등록 정보를 가진 공유 파일 시스템을 만듭니다.

    [qfs2rac-node1]root@solaris:~# sammkfs -S qfs2rac
    Building 'qfs2rac' will destroy the contents of devices:
      ...
    Do you wish to continue? [y/N]yes ...
    [qfs2rac-node1]root@solaris:~# 
    
  6. 텍스트 편집기에서 운영체제의 /etc/vfstab 파일을 열고 새 파일 시스템에 대한 라인을 시작합니다. 첫번째 열에 파일 시스템 이름과 공백을 입력하고 두번째 열에 하이픈과 추가 공백을 입력합니다.

    예제에서는 vi 텍스트 편집기를 사용합니다. qfs2rac 파일 시스템에 대한 라인을 시작합니다. 하이픈은 운영체제에서 UFS 도구를 사용하여 파일 시스템 무결성을 검사하려는 시도를 방지합니다.

    [qfs2rac-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -        
    
  7. /etc/vfstab 파일의 세번째 열에 클러스터를 기준으로 파일 시스템의 마운트 지점을 입력합니다. 시스템 루트 디렉토리의 바로 아래에 있지 않은 마운트 지점 하위 디렉토리를 지정합니다.

    공유 QFS 파일 시스템을 루트 바로 아래에 마운트하면 SUNW.qfs 리소스 유형 사용 시에 페일오버 문제가 발생할 수 있습니다. 예제에서는 qfs2rac 파일 시스템에 대한 마운트 지점이 /global/sc-rac/qfs2rac입니다.

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -       /global/sc-rac/qfs2rac samfs  -    no
    
  8. /etc/vfstab 파일의 네번째 열에 파일 시스템 유형(samfs)을 입력합니다.

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -       /global/sc-rac/qfs2rac samfs
    
  9. /etc/vfstab 파일의 다섯번째 열에 fsck 전달 옵션(-)을 입력합니다.

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -       /global/sc-rac/qfs2rac samfs  -
    
  10. /etc/vfstab 파일의 여섯번째 열에 부트 시 마운트 옵션(no)을 입력합니다.

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -       /global/sc-rac/qfs2rac samfs  -    no
    
  11. /etc/vfstab 파일의 일곱번째 열에 sw_raid 마운트 옵션 및 SC-RAC 구성에 권장되는 마운트 옵션을 입력합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    다음 마운트 옵션이 권장됩니다. 이러한 마운트 옵션을 여기에서 /etc/vfstab에 지정하거나 더 편리한 경우 /etc/opt/SUNWsamfs/samfs.cmd 파일에 지정할 수 있습니다.

    • shared

    • stripe=1

    • sync_meta=1

    • mh_write

    • qwrite

    • forcedirectio

    • notrace

    • rdlease=300

    • wrlease=300

    • aplease=300

    예제에서는 페이지 레이아웃에 맞게 마운트 옵션 목록이 축약되었습니다.

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -       /global/sc-rac/qfs2rac samfs  -    no      shared,...sw_raid
    :wq
    [qfs2rac-node1]root@solaris:~# 
    
  12. 고가용성 공유 파일 시스템에 대한 마운트 지점을 만듭니다.

    [qfs2rac-node1]root@solaris:~# mkdir -p /global/sc-rac/qfs2rac
    [qfs2rac-node1]root@solaris:~# 
    
  13. 주 노드에 고가용성 공유 파일 시스템을 마운트합니다.

    [qfs2rac-node1]root@solaris:~# mount /global/sc-rac/qfs2rac
    [qfs2rac-node1]root@solaris:~# 
    
  14. 두번째 노드를 설정합니다. 나머지 SC-RAC 클러스터 노드에서 잠재적 QFS 메타데이터 서버 구성 절차를 사용하십시오.

  15. 페일오버를 구성합니다. SC-RAC 메타데이터 서버의 페일오버 구성 절차를 사용하십시오. 그런 다음 여기로 돌아옵니다.

    Solaris Volume Manager 미러링된 볼륨을 사용하여 SC-RAC 구성을 성공적으로 구성했습니다.

  16. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  17. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.