3 스토리지 호스트 및 장치 구성

Oracle HSM 설치 및 구성을 계속하기 전에 이 장에 요약된 스토리지 구성 작업을 수행합니다. 이 장에서는 다음 항목을 설명합니다.

기본 스토리지 구성

Oracle HSM 파일 시스템에서 기본 디스크 또는 SSD(Solid State Disk) 장치에는 자주 사용 및 수정하는 파일을 저장합니다. 캐시에 대해 디스크 또는 SSD(Solid State Disk) 장치를 구성할 경우 아래 지침을 따르십시오.

기본 캐시에 대한 장치 구성

  1. 주 캐시의 시작 용량을 추정하려면 가득 찼을 때 각 파일 시스템에 보관되는 데이터 양을 결정합니다.

  2. 파일 시스템 메타데이터를 허용하려면 이 시작 용량을 10% 늘립니다.

  3. 고성능 ma 유형 파일 시스템을 준비할 경우 mm 메타데이터 장치에 대해 하드웨어를 구성합니다. mm 메타데이터 장치당 하나의 하드웨어 제어 4디스크 RAID 10(1+0) 볼륨 그룹을 구성하는 것이 좋습니다. 최대 성능을 얻으려면 SSD(Solid State Disk) 사용을 고려합니다.

    스트라이프 미러 RAID 10 어레이의 특성은 Oracle HSM 메타데이터를 저장하는 데 적합합니다. RAID 10 스토리지 하드웨어는 중복도가 높으므로, 중요 메타데이터가 보호됩니다. 대부분의 다른 RAID 구성보다 처리량은 더 높고 지연 시간은 더 짧습니다.

    전용 컨트롤러 하드웨어에 의해 제어되는 어레이는 범용 공유 프로세서에서 실행 중인 소프트웨어에 의해 제어되는 어레이보다 일반적으로 더 높은 성능을 제공합니다.

    솔리드 상태 장치는 본질적으로 자주 업데이트되고 자주 읽는 메타데이터를 저장하는 데 특히 유용합니다.

  4. 기본 캐시 스토리지에 대해 외부 디스크 어레이를 사용 중인 경우 파일 시스템 구성에서 각 md 또는 mr 장치에 대해 3+1 또는 4+1 RAID 5 볼륨 그룹을 구성합니다. 각 볼륨 그룹에 하나의 논리 볼륨(LUN)을 구성합니다.

    지정된 수의 디스크에 대해 소규모 3+1 및 4+1 RAID 5 볼륨 그룹은 병렬 처리가 향상되므로 대규모 볼륨 그룹보다 더 우수한 입력/출력(I/O) 성능을 제공합니다. RAID 5 볼륨 그룹의 개별 디스크 장치는 독립적으로 작동하지 않습니다. I/O의 관점에서 각 볼륨 그룹은 단일 장치처럼 작동합니다. 따라서 지정된 수의 디스크를 3+1 및 4+1 볼륨 그룹으로 분할하면 분할하지 않은 대규모 구성보다 더 많은 독립 장치가 생성되고, 병렬 처리 기능이 개선되고, I/O 경합이 감소됩니다.

    소규모 RAID 그룹은 패리티 대 스토리지 비율이 더 높기 때문에 더 적은 용량을 제공합니다. 하지만 대부분의 사용자의 경우 성능 향상보다 오프셋이 더 큽니다. 아카이빙 파일 시스템에서 디스크 캐시 용량의 소폭 감소는 아카이브에서 사용 가능한 무제한 용량으로 완벽하게 오프셋됩니다.

    볼륨 그룹에서 여러 논리 그룹(LUN)을 구성하면 I/O에 대한 볼륨 간 리소스 경합을 논리적으로 구분하여 한 번에 하나의 I/O만 처리할 수 있습니다. 따라서 I/O 관련 오버헤드가 증가하고 처리량이 감소됩니다.

  5. 이제 아카이브 스토리지 구성을 시작합니다.

아카이브 스토리지 구성

다음 작업을 수행합니다.

SAN 연결 장치 영역 분할

SAN(storage area network)이 Oracle HSM 호스트에서 드라이브와 호스트 버스 어댑터 사이에 통신할 수 있도록 영역이 분할되었는지 확인합니다. 영역 분할을 확인하려면 다음과 같이 하십시오.

Oracle HSM 구성에서 올바르게 모든 장치 영역 분할

  1. 호스트에 SAN의 장치가 표시되는지 확인합니다. Solaris 구성 관리 명령 cfgadm-al(연결 지점 목록) 및 -o show_SCSI_LUN 옵션과 함께 입력합니다. 출력에서 드라이브 포트의 WWN(World Wide Name)을 검사합니다.

    출력의 첫번째 열에는 연결 지점 ID(Ap_id)가 표시됩니다. 연결 지점 ID는 호스트 버스 어댑터의 컨트롤러 번호와 WWN이 콜론으로 구분되어 표시됩니다. 노드가 ADI 인터페이스를 통해 매체 교환기를 제어하는 브리지된 드라이브인 경우 -o show_SCSI_LUN 옵션은 노드에 있는 모든 LUN을 표시합니다.

    root@solaris:~# cfgadm -al -o show_SCSI_LUN
    Ap_Id     Type Receptacle Occupant   Condition
    c2::500104f000937528   tape connected  configured   unknown
    c3::50060160082006e2,0 tape connected  unconfigured unknown
    
  2. 드라이브의 WWN이 cfgadm -al -o show_SCSI_LUN의 출력에 나열되지 않는 경우 드라이브가 표시되지 않습니다. SAN 구성에 잘못된 사항이 있습니다. 따라서 SAN 연결과 영역 분할 구성을 다시 확인하십시오. 그런 다음 이전 단계를 반복합니다.

  3. cfgadm -al 명령의 출력에 드라이브가 구성되어 있지 않은 것으로 표시되는 경우 이번에는 -c(구성) 스위치를 사용하여 명령을 다시 실행합니다.

    이 명령은 /dev/rmt에서 필요한 장치 파일을 구성합니다.

    root@solaris:~# cfgadm -al
    Ap_Id     Type Receptacle Occupant   Condition
    c2::500104f000937528   tape connected  configured   unknown
    c3::50060160082006e2,0 tape connected  unconfigured unknown
    root@solaris:~# cfgadm -c configure 50060160082006e2,0 
    
  4. 장치 이름과 WWN(World Wide Name) 사이의 연관성을 확인합니다. ls -al /dev/rmt | grep WWN 명령을 사용합니다. 여기서 WWN은 World Wide Name입니다.

    root@solaris:~# ls -al /dev/rmt | grep 50060160082006e2,0
    lrwxrwxrwx 1 root root 94 May 20 05:05 3un -> \
    ../../devices/pci@1f,700000/SUNW,qlc@2/fp@0,0/st@w50060160082006e2,0:
    
  5. 권장되는 최소 Solaris 패치 레벨인 경우 지금 디스크 스토리지 구성을 수행합니다.

  6. 그렇지 않으면 장치에 대한 대상 ID를 가져옵니다.

  7. /kernel/drv/st.conf를 편집합니다. 위에서 확인한 대상 ID를 지정하여 tape-config-list에 공급업체에서 지정한 항목을 추가합니다.

  8. st 모듈을 강제로 다시 로드합니다. update_drv -f st 명령을 사용합니다.

    root@solaris:~# update_drv -f st
    root@solaris:~# 
    
  9. 이제 디스크 스토리지 구성을 수행합니다.

아카이브 디스크 스토리지 구성

Oracle HSM 아카이빙 파일 시스템은 디스크 및 테이프 매체에 파일을 아카이브할 수 있습니다. 디스크 파일 시스템이 디스크 아카이브로 구성된 경우 소프트웨어에서는 파일 시스템을 테이프 카트리지인 것처럼 사용합니다. VSN(볼륨 일련 번호)로 파일 시스템을 찾고 파일 복사본을 테이프 아카이브(tar) 파일로 저장합니다.

디스크 기반 아카이브 스토리지는 아카이빙 솔루션의 유연성과 중복성을 높일 수 있습니다. 랜덤 액세스 디스크 장치는 순차 액세스 테이프 장치와 연관된 오버헤드 마운트 및 위치 지정을 유발하지 않습니다. 따라서 매우 많은 수의 작은 파일을 아카이브하고 검색하는 솔루션은 각 파일의 첫번째 복사본을 디스크에 저장할 때 더욱 빠르고 안정적으로 수행할 수 있습니다. 오프사이트 매체에서 복사본을 유지 관리해야 하는 아카이빙 솔루션은 원격 호스트의 NFS로 마운트된 디스크 상주 파일 시스템에 복사본을 기록하여 간단히 수행할 수 있습니다.

Oracle Storage Cloud Software Appliance(OSCSA)는 원격 호스트의 제한된 로컬 디스크 공간을 거의 무제한인 클라우드 기반 스토리지에 대한 프론트엔드 캐시로 사용하여 이러한 NFS 마운트 아카이브 스토리지의 유용성을 더욱 확장할 수 있습니다. 어플라이언스는 NFSv4(Network File System 버전 4)로 구성된 Oracle Linux 7 이상의 호스트, 오픈 소스 Docker Engine 1.6 이상의 컨테이너 관리 소프트웨어 및 Oracle Storage Cloud Software Appliance Docker 이미지로 구성됩니다.

아카이브 디스크 스토리지를 사용할 계획인 경우 먼저 필요한 총 용량, 아카이브 볼륨 수 및 파일 시스템 수 결정을 수행합니다. 그런 다음 Oracle Storage Cloud에서 아카이브 디스크 스토리지를 구성할 계획인 경우 필요한 Oracle Storage Cloud Software Appliances 프로비전을 수행합니다.

용량, 볼륨 및 파일 시스템 요구 사항 결정

예상되는 작업 로드를 처리할 충분한 하드웨어 리소스를 계획합니다. 동시 Oracle HSM 아카이브 및 스테이지 작업이 동일한 물리적 장치 세트에 대해 서로 또는 다른 응용 프로그램과 경합해야 하는 경우 성능이 저하됩니다. 따라서 아래 나열된 지침을 따르십시오.

  1. 각 Oracle HSM 작업 및 각 10 ~ 20TB의 아카이브 데이터에 대해 하나의 디스크 볼륨(디스크 또는 RAID 그룹)을 허용합니다.

    디스크 볼륨이 디스크 장치 풀에서 동적으로 할당되는 스토리지인 경우 할당량을 설정합니다. 기본 물리적 스토리지가 초과 구독되지 않도록 합니다.

  2. 디스크 볼륨당 하나의 파일 시스템을 허용합니다.

    동일한 물리적 드라이브 또는 RAID 그룹에 있는 LUN에 두 개 이상의 파일 시스템을 구성하지 마십시오.

  3. 각 파일 시스템을 단일 디스크 아카이브로 사용하도록 계획합니다.

    하위 디렉토리를 별도의 아카이브 볼륨으로 사용하지 않습니다.

  4. 각 파일 시스템을 아카이브 전용으로 사용하도록 계획합니다.

    범용 파일 시스템을 디스크 아카이브로 사용하지 않습니다.

  5. 이제 NFS 마운트 디스크 아카이브로 사용할 원격 파일 시스템을 만듭니다.

NFS 마운트 디스크 아카이브로 사용할 원격 파일 시스템 만들기

  1. 디스크 아카이브로 사용할 원격 파일 시스템을 만듭니다.

    새 전용 파일 시스템을 만듭니다. 다른 응용 프로그램과 공유해야 하는 기존 범용 파일 시스템은 사용하지 마십시오.

    Oracle HSM 서버를 구성할 때 로컬에 마운트된 디스크 아카이브 파일 시스템은 나중에 만들게 됩니다.

  2. Oracle Storage Cloud를 디스크 아카이빙 솔루션의 일부로 사용할 계획인 경우 지금 Oracle Storage Cloud Software Appliance 호스트 구성을 수행합니다.

  3. 그렇지 않은 경우 아카이브 테이프 스토리지 구성을 수행합니다.

Oracle Storage Cloud Software Appliance 호스트 구성

  1. Oracle Cloud > Public > Infrastructure > Storage > Storage Cloud Software Appliance(http://docs.oracle.com/cloud/latest/storagecs_common/CSSGU/)에서 최신 OSCSA 설명서를 다운로드합니다.

    편의를 위해 이 절차에서는 구성 프로세스 및 시스템 요구 사항을 요약합니다. 그러나 항상 OSCSA 제품 설명서 및 README 파일에서 전체적인 최신 정보를 확인하십시오.

  2. Oracle 영업팀에 문의하십시오. Oracle Storage Cloud Service 구독을 구매하고 Oracle Storage Cloud Software Appliance 이미지를 요청합니다.

  3. 각 어플라이언스 호스트에 대해 범용 x86 서버에 최소한 2개의 듀얼 코어 CPU(central processors) 및 4GB의 RAM(random access memory)을 제공합니다.

  4. 각 OSCSA 호스트에 Oracle Linux 7(커널 버전 3.10 이상)을 설치합니다.

    Oracle Linux는 Oracle Software Delivery Cloud(https://edelivery.oracle.com/)에서 얻을 수 있습니다.

  5. 각 OSCSA 호스트에 Docker 1.6.1 이상을 설치합니다.

    Docker는 소프트웨어 컨테이너를 위한 오픈 소스 배포 플랫폼입니다. Docker는 Docker(https://www.docker.com)에서 얻을 수 있습니다.

  6. 각 OSCSA 호스트에 NFSv4(Network File System 버전 4) 서비스를 설치합니다.

    Oracle HSM 호스트는 NFSv4를 사용하여 OSCSA 프론트엔드 캐시를 구성하는 Linux 파일 시스템을 원격으로 마운트합니다.

  7. OSCSA 문서 Using Oracle Storage Cloud Software Appliance(http://docs.oracle.com/cloud/latest/storagecs_common/CSSGU/)의 지침에 따라 Oracle Storage Cloud Software Appliance를 설치하고 구성합니다.

  8. OSCSA 설명서에 나온 대로 OSCSA 캐시 파일 시스템을 만듭니다.

  9. 이제 테이프 스토리지를 구성합니다.

아카이브 테이프 스토리지 구성

다음 작업을 수행합니다.

라이브러리에 드라이브가 설치되는 순서 결정

자동화된 라이브러리에 여러 개의 드라이브가 있는 경우 Oracle HSM 마스터 구성 파일(mcf)의 드라이브 순서가 라이브러리 컨트롤러에서 드라이브가 표시되는 순서와 같아야 합니다. 이 순서는 드라이브가 호스트에 표시되고 호스트 /var/adm/messages 파일에 보고되는 순서와 다를 수 있습니다.

각 Oracle HSM 메타데이터 서버 및 datamover 호스트에 대해 아래에 나열된 작업을 수행하여 드라이브 순서를 결정합니다.

라이브러리 및 Solaris 호스트에 대한 드라이브 정보 수집
  1. 라이브러리 설명서를 참조하십시오. 드라이브 및 대상이 어떻게 식별되는지 확인합니다. 로컬 운영자 패널이 있는 경우 이를 사용하여 어떻게 드라이브 순서를 결정할 수 있는지 확인합니다.

  2. 라이브러리에 마운트된 로컬 운영자 패널이 있는 경우 이를 사용하여 드라이브가 컨트롤러에 연결되는 순서를 결정합니다. 각 드라이브의 SCSI 대상 식별자 또는 World Wide Name을 확인합니다.

  3. Solaris 호스트에 root로 로그인합니다.

    root@solaris:~# 
    
  4. 출력을 텍스트 파일로 재지정하여 /dev/scsi/changer/에 Solaris 논리 장치 이름을 나열합니다.

    예제에서는 /dev/rmt/의 목록을 root 사용자의 홈 디렉토리에 있는 device-mappings.txt 파일로 재지정합니다.

    root@solaris:~# ls -l /dev/rmt/ > /root/device-mappings.txt 
    
  5. 이제 Solaris 장치 이름을 직접 또는 ACSLS 연결 라이브러리의 드라이브에 매핑합니다.

직접 연결 라이브러리의 드라이브를 Solaris 장치 이름에 매핑

/dev/rmt/에 나열된 각 Solaris 논리 드라이브 이름과 라이브러리에서 Oracle HSM 서버 호스트에 지정하는 각 드라이브에 대해 다음 절차를 수행합니다.

  1. Oracle HSM Solaris 호스트에 아직 로그인하지 않은 경우 root로 로그인합니다.

    root@solaris:~# 
    
  2. 텍스트 편집기에서 라이브러리 및 Solaris 호스트에 대한 드라이브 정보 수집 절차로 만든 장치 매핑 파일을 엽니다. 정보를 간단한 테이블로 구성합니다.

    후속 단계에서 이 정보를 참조해야 합니다. 예제에서는 라이브러리 장치 정보를 위한 헤더 및 공간을 추가하는 동안, vi 편집기를 사용하여 /dev/rmt/ 목록에서 권한, 소유권, 날짜 속성을 삭제합니다.

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
            /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
            /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
            /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
            /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    lrwxrwxrwx 1 root root 40 Mar 18 2014 /dev/rmt/4 -> ../../devices/pci@1f,4000/scsi@4/st@2,0:
    
  3. 라이브러리에서 모든 드라이브가 비어 있는지 확인합니다.

  4. 아직 Solaris 논리 장치 이름에 매핑되지 않은 라이브러리의 첫번째 드라이브로 테이프를 로드합니다.

    아래 예제의 목적상 HP Ultrium LTO4 테이프 드라이브로 LTO4 테이프를 로드합니다.

  5. 테이프를 마운트하는 드라이브에 해당하는 Solaris /dev/rmt/ 항목을 식별합니다. 드라이브를 식별할 때까지 mt -f /dev/rmt/number status 명령을 실행합니다. 여기서 number/dev/rmt/에서 드라이브를 식별합니다.

    예제에서는 /dev/rmt/0에 드라이브가 비어 있지만, /dev/rmt/1에 드라이브가 테이프를 보유합니다. 따라서 라이브러리에서 드라이브 1로 식별한 드라이브는 Solaris /dev/rmt/1에 해당합니다.

    root@solaris:~# mt -f /dev/rmt/0 status
    /dev/rmt/0: no tape loaded or drive offline
    root@solaris:~# mt -f /dev/rmt/1 status
    HP Ultrium LTO 4 tape drive:
       sense key(0x0)= No Additional Sense   residual= 0   retries= 0
       file no= 0   block no= 3
    
  6. 장치 매핑 파일에서 테이프를 보유한 Solaris 장치에 대한 항목을 찾고 제공된 공간에 라이브러리의 장치 식별자를 입력합니다. 그런 다음 파일을 저장합니다.

    예제에서는 /dev/rmt/1 행의 LIBRARY DEVICE NUMBER 필드에 1을 입력합니다.

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
            /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
       1    /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
            /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
            /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    :w
    
  7. 테이프를 언로드합니다.

  8. 장치 매핑 파일에 라이브러리가 Oracle HSM 호스트에 지정하는 모든 장치의 Solaris 논리 장치 이름이 보관될 때까지 이 절차를 반복합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
       2    /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
       1    /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
       3    /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
       4    /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    :wq
    root@solaris:~# 
    
  9. 매핑 파일을 보관합니다.

    파일 시스템 구성을 수행할 때 이 정보가 필요하며, 완료된 Oracle HSM 구성 백업을 수행할 때 이 정보를 포함시킬 수 있습니다.

  10. 다음에는 직접 연결 라이브러리 구성으로 이동합니다.

ACSLS 연결 라이브러리의 드라이브를 Solaris 장치 이름에 매핑
  1. Oracle HSM Solaris 호스트에 아직 로그인하지 않은 경우 root로 로그인합니다.

    root@solaris:~# 
    
  2. 텍스트 편집기에서 라이브러리 및 Solaris 호스트에 대한 드라이브 정보 수집 절차로 만든 장치 매핑 파일을 열고 간단한 테이블로 구성합니다.

    후속 단계에서 이 정보를 참조해야 합니다. 예제에서는 라이브러리 장치 정보를 위한 헤더 및 공간을 추가하는 동안, vi 편집기를 사용하여 /dev/rmt/ 목록에서 권한, 소유권, 날짜 속성을 삭제합니다.

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0  
    /dev/rmt/1  
    /dev/rmt/2  
    /dev/rmt/3  
    
  3. /dev/rmt/에 나열된 각 논리 장치 이름에 대해 장치 일련 번호를 표시합니다. luxadm display /dev/rmt/number 명령을 사용합니다. 여기서 number/dev/rmt/에서 드라이브를 식별합니다.

    예제에서는 /dev/rmt/0 장치에 대한 일련 번호 HU92K00200을 가져옵니다.

    root@solaris:~# luxadm display /dev/rmt/0
    DEVICE PROPERTIES for tape: /dev/rmt/0
    Vendor: HP
    Product ID: Ultrium 4-SCSI
    Revision: G25W
    Serial Num: HU92K00200
    ...
    Path status: Ready
    root@solaris:~#  
    
  4. device-mappings.txt 파일의 해당 행에 일련 번호를 입력합니다.

    예제에서는 논리 장치 /dev/rmt/0에 대한 행에 /dev/rmt/0 장치의 일련 번호 HU92K00200을 기록합니다.

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200
    /dev/rmt/1  
    /dev/rmt/2  
    /dev/rmt/3  
    :wq
    root@solaris:~# 
    
  5. /dev/rmt/에 나열된 모든 논리 장치에 대한 장치 일련 번호를 식별하고 device-mappings.txt 파일에 결과를 기록할 때까지 이전의 두 단계를 반복합니다.

    예제에는 네 개의 논리 장치가 있습니다.

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200
    /dev/rmt/1      HU92K00208
    /dev/rmt/2      HU92K00339
    /dev/rmt/3      HU92K00289
    :w
    root@solaris:~# 
    
  6. /dev/rmt/에 매핑된 각 장치 일련 번호에 대해 해당하는 ACSLS 드라이브 주소를 얻습니다. ACSLS 명령 display drive * -f serial_num을 사용합니다.

    예제에서는 HU92K00200(/dev/rmt/0), HU92K00208(/dev/rmt/1), HU92K00339(/dev/rmt/2), HU92K00289(/dev/rmt/3) 장치의 ACSLS 주소를 가져옵니다.

     ACSSA> display drive * -f serial_num
     2014-03-29 10:49:12 Display Drive
     Acs Lsm Panel Drive Serial_num
     0   2   10    12    331000049255
     0   2   10    16    331002031352
     0   2   10    17    HU92K00200
     0   2   10    18    HU92K00208
     0   3   10    10    HU92K00339
     0   3   10    11    HU92K00189
     0   3   10    12    HU92K00289
    
  7. device-mappings.txt 파일의 해당 행에 각 ACSLS 드라이브 주소를 기록합니다. 파일을 저장하고 텍스트 편집기를 닫습니다.

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200            (acs=0, lsm=2, panel=10, drive=17)
    /dev/rmt/1      HU92K00208            (acs=0, lsm=2, panel=10, drive=18)
    /dev/rmt/2      HU92K00339            (acs=0, lsm=2, panel=10, drive=10)
    /dev/rmt/3      HU92K00289            (acs=0, lsm=2, panel=10, drive=12)
    :wq
    
  8. 매핑 파일을 보관합니다.

    파일 시스템 구성을 수행할 때 이 정보가 필요하며, 완료된 Oracle HSM 구성 백업을 수행할 때 이 정보를 포함시킬 수 있습니다.

  9. 아카이빙 파일 시스템을 구성할 때 Oracle StorageTek ACSLS 네트워크 연결 라이브러리를 구성합니다. 따라서 고가용성 파일 시스템을 계획할 경우 고가용성 파일 시스템에 대한 스토리지 구성으로 이동합니다. 그렇지 않은 경우 Oracle HSM 및 QFS 소프트웨어 설치로 이동합니다.

직접 연결 라이브러리 구성

직접 연결 테이프 라이브러리를 구성하려면 하드웨어를 물리적으로 연결하고, 경우에 따라 SCSI 드라이버를 구성해야 합니다(Oracle HSM은 릴리스 5.4 이전에 SAM-QFS가 사용한 samst 드라이버 대신 일반 sgen 드라이버를 통해 라이브러리 로봇을 제어함). 다음과 같이 하십시오.

  1. 라이브러리와 드라이브를 Oracle HSM 서버 호스트에 물리적으로 연결합니다.

  2. Oracle HSM을 처음으로 설치하거나 Solaris 11에서 Oracle HSM 또는 SAM-QFS 5.4 구성을 업그레이드하는 경우 하드웨어가 물리적으로 연결되면 중지합니다.

    Solaris 11에서는 sgen이 기본 SCSI 드라이버이므로 Oracle HSM 설치 소프트웨어가 드라이버 별칭과 구성 파일을 자동으로 업데이트할 수 있습니다.

  3. Solaris 10 시스템에 Oracle HSM을 설치하는 경우 아래 목록에 있는 드라이버 별칭 중 하나가 sgen 드라이버에 지정되었는지 확인합니다. grep scs.*,08 /etc/driver_aliases 명령을 사용합니다.

    sgen 드라이버에 다음 별칭 중 하나가 지정될 수 있습니다.

    • scsa,08.bfcp" 및/또는 scsa,08.bvhci

    • scsiclass,08

    예제의 Solaris에서는 sgen 드라이버에 대해 scsiclass,08 별칭을 사용합니다.

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    sgen "scsiclass,08"
    root@solaris:~# 
    
  4. grep 명령이 sgen "alias"를 반환하는 경우 sgen 드라이버가 설치되고 별칭에 올바르게 지정됩니다. 여기서 alias는 위 목록에 있는 별칭 중 하나입니다. 따라서 다음과 같이 하십시오.

  5. grep 명령이 some-driver "alias"를 반환하는 경우 해당 별칭이 다른 드라이버에 이미 지정된 것입니다. 여기서 some-driversgen 이외의 일부 드라이버이고, alias는 위에 나열된 별칭 중 하나입니다. 따라서 sgen 드라이버에 대해 경로 지향 별칭 만들기를 수행합니다.

  6. grep scs.*,08 /etc/driver_aliases 명령이 출력을 반환하지 않는 경우 sgen 드라이버가 설치되지 않은 것입니다. 따라서 드라이버를 설치하십시오. add_drv -i scsiclass,08 sgen 명령을 사용합니다.

    예제에서는 grep 명령이 아무것도 반환하지 않습니다. 따라서 sgen 드라이버를 설치합니다.

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    root@solaris:~# add_drv -i scsiclass,08 sgen
    
  7. add_drv -i scsiclass,08 sgen 명령이 Driver (sgen) is already installed 메시지를 반환하는 경우 드라이버가 이미 설치되어 있지만 연결되지 않은 것입니다. 따라서 지금 연결합니다. update_drv -a -i scsiclass,08 sgen 명령을 사용합니다.

    예제에서 add_drv 명령은 드라이버가 이미 설치되어 있다는 메시지를 표시합니다. 따라서 드라이버를 연결합니다.

    root@solaris:~# add_drv -i scsiclass,08 sgen
    Driver (sgen) is already installed.
    root@solaris:~# update_drv -a -i scsiclass,08 sgen
    
  8. grep scs.*,08 /etc/driver_aliases 명령에서 scsiclass,08 별칭이 sgen 드라이버에 지정되었다고 표시하는 경우 드라이버가 제대로 구성된 것입니다.

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    sgen "scsiclass,08"
    root@solaris:~# 
    
  9. 고가용성 파일 시스템을 구성할 경우 고가용성 파일 시스템에 대한 스토리지 구성을 참조하십시오.

  10. 그렇지 않은 경우 Oracle HSM 및 QFS 소프트웨어 설치로 이동합니다.

sgen 드라이버에 대해 경로 지향 별칭 만들기

예상한 sgen 별칭이 다른 드라이버에 이미 지정되어 있는 경우 기존 드라이버 지정에 영향을 주지 않고 sgen을 사용하여 지정된 라이브러리를 연결하는 경로 지향 별칭을 만들어야 합니다. 다음과 같이 하십시오.

  1. Oracle HSM 서버 호스트에 root로 로그인합니다.

    root@solaris:~# 
    
  2. 시스템 구성을 표시합니다. cfgadm -vl 명령을 사용합니다.

    cfgadm 출력은 2행 헤더와 레코드당 두 개의 행을 사용하여 형식이 지정됩니다.

    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  3. cfgadm -vl의 출력에서 라이브러리에 대한 레코드를 찾습니다. 각 레코드의 두번째 행의 Type 열에서 med-changer를 찾습니다.

    예제에서는 두번째 레코드에서 라이브러리를 찾습니다.

    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  4. 새로운 경로 지향 별칭 역할을 하는 물리적 경로를 가져옵니다. cfgadm -vl 출력의 Phys_Id 열에 있는 항목에서 /devices 하위 문자열을 제거합니다.

    예제에서 매체 교환기 레코드의 Phys_Id 열에는 /devices/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78 경로가 포함되어 있으므로, /devices/ 뒤에 오는 문자열의 일부를 별칭으로 선택합니다. 이 물리적 경로는 아래에 사용 가능한 공간에 맞게 약어로 표시됩니다.

    root@solaris:~# grep scsiclass,08 /etc/driver_aliases
    sdrv "scsiclass,08"
    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  5. 경로 지향 별칭을 만든 다음 sgen 드라이버에 지정합니다. update_drv -d -i '"/path-to-library"' sgen 명령을 사용합니다. 여기서 path-to-library는 이전 단계에서 식별한 경로입니다.

    예제에서는 라이브러리 경로를 사용하여 경로 지향 별칭 '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"'을 만듭니다(작은 따옴표와 큰 따옴표에 유의). 명령은 한 행이지만 페이지 레이아웃에 맞도록 두 행으로 형식이 지정되었습니다.

    root@solaris:~# update_drv -d -i \ '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"' sgen
    root@solaris:~# 
    

    이제 라이브러리가 sgen 드라이버를 사용하여 구성되었습니다.

  6. 고가용성 파일 시스템을 구성할 경우 고가용성 파일 시스템에 대한 스토리지 구성으로 이동합니다.

  7. 그렇지 않은 경우 Oracle HSM 및 QFS 소프트웨어 설치로 이동합니다.

고가용성 파일 시스템에 대한 스토리지 구성

단일 지점 하드웨어 오류가 발생하더라도 계속해서 파일 시스템에 접근할 수 있도록 고가용성 파일 시스템에는 중복된 하드웨어 및 여러 독립된 I/O 경로가 필요합니다. 다음 작업을 수행합니다.

다중 경로 I/O에 대해 Solaris 클러스터 노드 구성

고가용성 공유 파일 시스템을 구성하려면 사용하는 Solaris Cluster 소프트웨어에 대한 하드웨어 관리 매뉴얼의 권장 사항을 따라야 합니다. 중복된 주 스토리지 장치 및 중복된 I/O 경로를 구성합니다.

파일 시스템 데이터 및 메타데이터를 하드웨어 RAID 장치 또는 SVM(Solaris Volume Manager) 소프트웨어 RAID 볼륨에 저장합니다. Oracle HSM 메타데이터 및 구성 파일을 RAID-10 볼륨 그룹 또는 미러링된 SVM 볼륨에 둡니다. 파일 시스템 데이터를 하드웨어 제어 RAID-10 또는 RAID-5 볼륨 그룹이나 미러링된 SVM 볼륨에 둡니다. 현재 Solaris 릴리스에는 더 이상 SVM이 포함되지 않습니다. Solaris 10 9/10 릴리스에 포함된 소프트웨어 버전을 다운로드하여 설치해야 합니다.

SAN(Storage Area Network) 연결이 단일 지점 실패를 견딜 수 없는지 확인합니다. 각 클러스터 노드에 여러 HBA(호스트 버스 어댑터)를 설치합니다. SAN(Storage Area Network)을 여러 상호 연결 및 중복된 스위치로 구성합니다. Oracle Solaris I/O 다중 경로 소프트웨어로 경로 페일오버를 관리합니다(자세한 내용은 Oracle Solaris 고객 문서 라이브러리의 Oracle Solaris SAN Configuration and Multipathing Guidestmsboot 매뉴얼 페이지 참조).

다중 경로 I/O에 대해 Linux 클라이언트 구성

Linux 클라이언트에서 DMM(Device Mapper Multipath) 소프트웨어 패키지를 사용하여 경로 페일오버에 대한 중복 스토리지 장치를 구성합니다. DMM 소프트웨어는 호스트와 스토리지 장치를 단일 가상 I/O 장치인 다중 경로로 연결하는 호스트 버스 어댑터, 케이블, 스위치 및 컨트롤러를 모두 관리합니다.

호스트와 스토리지 장치 등을 단일 가상 장치로 연결하는 모든 I/O 경로. 별도의 케이블, 스위치 및 컨트롤러. 다중 경로 지정은 I/O 경로를 통합하여 통합된 경로로 구성된 새로운 장치를 만듭니다. 다중 경로 지정을 사용으로 설정하려면 다음을 수행합니다.

Device Mapper Multipath 소프트웨어 패키지 설치

아래 지침에 따라 Oracle Linux 6.x를 실행하는 클라이언트를 구성합니다(다른 Linux 버전의 경우 해당 공급업체의 설명서 참조).

  1. Linux 호스트에 root로 로그인합니다.

    [root@linux ~]# 
    
  2. /etc/yum.repos.d 하위 디렉토리로 변경하고 디렉토리 내용을 나열합니다.

    [root@linux ~]# cd /etc/yum.repos.d
    [root@linux ~]# ls -l
    total 4
    -rw-r--r--. 1 root root 1707 Jun 25  2012 public-yum-ol6.repo
    [root@linux ~]# 
    
  3. /etc/yum.repos.d 하위 디렉토리에 public-yum-ol6.repo 파일이 포함되어 있지 않을 경우, wget 명령을 사용하여 Oracle YUM 저장소에서 다운로드합니다.

    [root@linux ~]# wget http://public-yum.oracle.com/public-yum-ol6.repo
    -- 2013-02-25 12:50:32 --   http://public-yum.oracle.com/public-yum-ol6.repo
    Resolving public-yum.oracle.com... 14 1.146.44.34
    Connecting to public-yum.oracle.com|141.146.44.34|:80... connected.
    HTTP request sent, awaiting response... 200 OK
    Length: 2411 (2.4K) [text/plain]
    Saving to: ”public-yum-ol6.repo”
    100%[======================================>] 2,411   -- . - K/s   in 0.001s
    2013-02-25 12:50:32 (3.80 MB/s) - ”public-yum-ol6.repo” saved
    [2411/2411]
    [root@linux ~]# 
    
  4. 텍스트 편집기를 사용하여 public-yum-ol6.repo 파일을 엽니다. 첫번째 항목 [ol6_latest]enabled=1 라인이 포함되어 있는지 확인합니다.

    예제에서는 vi 편집기를 사용합니다. 필요한 라인이 존재하므로 파일을 닫습니다.

    [root@linux ~]# vi public-yum-ol6.repo 
    [ol6_latest]
    name=Oracle Linux $releasever Latest ($basearch)
    baseurl=http://public-yum.oracle.com/repo/OracleLinux/OL6/latest/$basearch/
    gpgkey=http://public-yum.oracle.com/RPM-GPG-KEY-oracle-ol6
    gpgcheck=1
    enabled=1
    ...
    :q
    [root@linux ~]# 
    
  5. Device Mapper Multipath 소프트웨어 패키지를 찾습니다. yum search multipath 명령을 사용합니다.

    [root@linux ~]# yum search multipath
    Loaded plugins: refresh-packagekit, security
    ========================== N/S Matched: multipath ==========================
    device-mapper-multipath.x86_64 : Tools to manage multipath devices using
                                   : device-mapper
    device-mapper-multipath-libs.x86_64 : The device-mapper-multipath modules and
                                        : shared library
      Name and summary matches only, use "search all" for everything.
    [root@linux ~]# 
    
  6. Device Mapper Multipath 소프트웨어를 설치합니다. yum install device-mapper-multipath 명령을 사용합니다. 프롬프트가 표시되면 y(예)를 입력하여 나열된 패키지 및 종속성을 수락합니다.

    [root@linux ~]# yum install device-mapper-multipath
    Loaded plugins: refresh-packagekit, security
    Setting up Install Process
    Resolving Dependencies
    --> Running transaction check
    ---> Package device-mapper-multipath.x86_64 0:0.4.9-56.el6_3.1 will be
    installed
    --> Processing Dependency: device-mapper-multipath-libs = 0.4.9-56.el6_3.1
    for package: device-mapper-multipath-0.4.9-56.el6_3.1.x86_64
    --> Processing Dependency: libmultipath.so()(64bit) 
    for package: device-mapper-multipath-0.4.9-56.el6_3.1.x86_64
    --> Running transaction check
    ---> Package device-mapper-multipath-libs.x86_64 0:0.4.9-56.el6_3.1 will be
    installed
    --> Finished Dependency Resolution
    Dependencies Resolved
    ============================================================================
     Package                      Arch   Version           Repository   Size
    ============================================================================
    Installing:
     device-mapper-multipath      x86_64 0.4.9-56.el6_3.1  ol6_latest    96 k
    Installing for dependencies:
     device-mapper-multipath-libs x86_64 0.4.9-56.el6_3.1  ol6_latest   158 k
    Transaction Summary
    ============================================================================
    Install       2 Package(s)
    Total download size: 254 k
    Installed size: 576 k
    Is this ok [y/N]: y
    Downloading Packages:
    (1/2): device-mapper-multipath-0.4.9-56.el6_3.1.x86_64.r |  96 kB     00:00
    (2/2): device-map
    per-multipath-libs-0.4.9-56.el6_3.1.x86 | 158 kB     00:00
    ----------------------------------------------------------------------------
    Total                                           104 kB/s | 254 kB     00:02
    Running rpm_check_debug
    Running Transaction Test
    Transaction Test Succeeded
    Running Transaction
      Installing : device-mapper-multipath-libs-0.4.9-56.el6_3.1.x86_64     1/2
      Installing : device-mapper-multipath-0.4.9-56.el6_3.1.x86_64          2/2
      Verifying  : device-mapper-multipath-0.4.9-56.el6_3.1.x86_64          1/2
      Verifying  : device-mapper-multipath-libs-0.4.9-56.el6_3.1.x86_64     2/2
    Installed:
      device-mapper-multipath.x86_64 0:0.4.9-56.el6_3.1
    Dependency Installed:
      device-mapper-multipath-libs.x86_64 0:0.4.9-56.el6_3.1
    Complete!
    [root@linux ~]# 
    
  7. 다중 경로 데몬을 시작합니다. chkconfig multipathd on 명령을 사용합니다.

    [root@linux ~]# chkconfig multipathd on
    [root@linux ~]# 
    
  8. 이제 Device Mapper Multipath 소프트웨어 구성을 수행합니다.

Device Mapper Multipath 소프트웨어 구성

/etc/multipath.conf 파일을 편집하여 Device Mapper Multipath 소프트웨어를 구성합니다. 파일은 일련의 섹션으로 구성되어 있고, 각 섹션에는 관련 속성, 값 및 하위 섹션 세트가 포함되어 있습니다.

  • default 섹션에서는 다중 경로 소프트웨어 자체를 구성합니다. 기록되는 세부정보 레벨을 지정하고, 페일오버 동작을 정의하며, 필요한 운영체제 명령 및 디렉토리의 위치를 지정합니다.

  • blacklist 섹션에서는 로컬 시스템 디스크와 같이 다중 경로 구성에서 제외시켜야 하는 장치를 식별합니다. 장치는 WWN/WID(World Wide Name/World Wide Identifier)로 식별하거나 장치 노드 이름 또는 공급업체 및 제품 장치 문자열을 지정하는 정규 표현식으로 식별할 수 있습니다.

  • blacklist_exceptions 섹션에서는 blacklist 섹션의 일반 규칙에서 의도치 않게 제외시키는 경우 다중 경로 구성에 장치를 명시적으로 포함시킬 수 있습니다.

  • multipaths 섹션에서는 하나 이상의 multipath 하위 섹션을 정의할 수 있습니다. 이러한 각 하위 섹션은 World Wide Name으로 지정하는 다중 경로에 특수한 구성을 적용합니다.

  • devices 섹션에서는 하나 이상의 device 하위 섹션을 정의할 수 있습니다. 이러한 각 하위 섹션은 장치에 특수한 다중 경로 구성을 적용합니다.

개별 기본값에 대한 자세한 설명은 주석을 단 샘플 파일 /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf.annotated을 참조하십시오.

blacklist_exceptions는 blacklist에서 해당 장치를 식별하더라도 사용되어야 하는 장치를 나열합니다. defaults: DM-Multipath에 대한 일반적인 기본 설정입니다. multipaths: 개별 다중 경로 장치의 특성에 대한 설정입니다. 이러한 값은 구성 파일의 defaults 및 devices 섹션에 지정된 값을 겹쳐씁니다. devices: 개별 스토리지 컨트롤러에 대한 설정입니다. 이러한 값은 구성 파일의 defaults 섹션에 지정된 값을 겹쳐씁니다. 기본적으로 지원되지 않는 스토리지 어레이를 사용 중인 경우 해당 어레이에 대한 devices 하위 섹션을 만들어야 할 수 있습니다. 시스템에서 다중 경로 장치의 속성을 결정할 때 먼저 다중 경로 설정을 확인하고 장치별 설정을 확인한 다음 다중 경로 시스템 기본값을 확인합니다.