Oracle® Hierarchical Storage Manager and StorageTek QFS Software 설치 및 구성 설명서 릴리스 6.0 E56769-02 |
|
![]() 이전 |
![]() 다음 |
Oracle HSM 설치 및 구성을 계속하기 전에 이 장에 요약된 스토리지 구성 작업을 수행합니다. 이 장에서는 다음 항목을 설명합니다.
Oracle HSM 파일 시스템에서 기본 디스크 또는 SSD(Solid State Disk) 장치에는 자주 사용 및 수정하는 파일을 저장합니다. 캐시에 대해 디스크 또는 SSD(Solid State Disk) 장치를 구성할 경우 아래 지침을 따르십시오.
주 캐시의 시작 용량을 추정하려면 가득 찼을 때 각 파일 시스템에 보관되는 데이터 양을 결정합니다.
파일 시스템 메타 데이터를 허용하려면 이 시작 용량을 10% 늘립니다.
고성능 ma
유형 파일 시스템을 준비할 경우 mm
메타 데이터 장치에 대해 하드웨어를 구성합니다. mm
메타 데이터 장치당 하나의 하드웨어 제어 4디스크 RAID 10(1+0) 볼륨 그룹을 구성하는 것이 좋습니다. 최대 성능을 얻으려면 SSD(Solid State Disk) 사용을 고려합니다.
스트라이프 미러 RAID 10 어레이의 특성은 Oracle HSM 메타 데이터를 저장하는 데 적합합니다. RAID 10 스토리지 하드웨어는 중복도가 높으므로, 중요 메타 데이터가 보호됩니다. 대부분의 다른 RAID 구성보다 처리량은 더 높고 지연 시간은 더 짧습니다.
전용 컨트롤러 하드웨어에 의해 제어되는 어레이는 범용 공유 프로세서에서 실행 중인 소프트웨어에 의해 제어되는 어레이보다 일반적으로 더 높은 성능을 제공합니다.
솔리드 상태 장치는 본질적으로 자주 업데이트되고 자주 읽는 메타 데이터를 저장하는 데 특히 유용합니다.
기본 캐시 스토리지에 대해 외부 디스크 어레이를 사용 중인 경우 파일 시스템 구성에서 각 md
또는 mr
장치에 대해 3+1 또는 4+1 RAID 5 볼륨 그룹을 구성합니다. 각 볼륨 그룹에 하나의 논리 볼륨(LUN)을 구성합니다.
지정된 수의 디스크에 대해 소규모 3+1 및 4+1 RAID 5 볼륨 그룹은 병렬 처리가 향상되므로 대규모 볼륨 그룹보다 더 우수한 입력/출력(I/O) 성능을 제공합니다. RAID 5 볼륨 그룹의 개별 디스크 장치는 독립적으로 작동하지 않습니다. I/O의 관점에서 각 볼륨 그룹은 단일 장치처럼 작동합니다. 따라서 지정된 수의 디스크를 3+1 및 4+1 볼륨 그룹으로 분할하면 분할하지 않은 대규모 구성보다 더 많은 독립 장치가 생성되고, 병렬 처리 기능이 개선되고, I/O 경합이 감소됩니다.
소규모 RAID 그룹은 패리티 대 스토리지 비율이 더 높기 때문에 더 적은 용량을 제공합니다. 하지만 대부분의 사용자의 경우 성능 향상보다 오프셋이 더 큽니다. 아카이빙 파일 시스템에서 디스크 캐시 용량의 소폭 감소는 아카이브에서 사용 가능한 무제한 용량으로 완벽하게 오프셋됩니다.
볼륨 그룹에서 여러 논리 그룹(LUN)을 구성하면 I/O에 대한 볼륨 간 리소스 경합을 논리적으로 구분하여 한 번에 하나의 I/O만 처리할 수 있습니다. 따라서 I/O 관련 오버헤드가 증가하고 처리량이 감소됩니다.
다음에는 아카이브 스토리지 구성 작업을 시작합니다.
다음 작업을 수행합니다.
드라이브와 호스트 버스 어댑터 간에 통신할 수 있도록 SAN(Storage Area Network) 영역을 분할합니다.
호스트에 SAN의 장치가 표시되는지 확인합니다. Solaris 구성 관리 명령 cfgadm
을 -al
(연결 지점 목록) 및 -o show_SCSI_LUN
옵션과 함께 입력합니다. 출력에서 드라이브 포트의 WWN(World Wide Name)을 검사합니다.
출력의 첫번째 열에는 연결 지점 ID(Ap_id
)가 표시됩니다. 연결 지점 ID는 호스트 버스 어댑터의 컨트롤러 번호와 WWN이 콜론으로 구분되어 표시됩니다. 노드가 ADI 인터페이스를 통해 매체 교환기를 제어하는 브리지된 드라이브인 경우 -o show_SCSI_LUN
옵션은 노드에 있는 모든 LUN을 표시합니다.
root@solaris:~#cfgadm
-al
-o
show_SCSI_LUN
Ap_Id Type Receptacle Occupant Condition c2::500104f000937528 tape connected configured unknown c3::50060160082006e2,0 tape connected unconfigured unknown
드라이브의 WWN이 cfgadm -al
-o show_SCSI_LUN
의 출력에 나열되지 않는 경우 드라이브가 표시되지 않습니다. SAN 구성에 잘못된 사항이 있습니다. 따라서 SAN 연결과 영역 분할 구성을 다시 확인하십시오. 그런 다음 이전 단계를 반복합니다.
cfgadm -al
명령의 출력에 드라이브가 구성되어 있지 않은 것으로 표시되는 경우 이번에는 -c
(구성) 스위치를 사용하여 명령을 다시 실행합니다.
이 명령은 /dev/rmt
에서 필요한 장치 파일을 구성합니다.
root@solaris:~#cfgadm
-al
Ap_Id Type Receptacle Occupant Condition c2::500104f000937528 tape connected configured unknown c3::50060160082006e2,0 tape connected unconfigured unknown root@solaris:~#cfgadm
-c
configure
50060160082006e2,0
장치 이름과 WWN(World Wide Name) 사이의 연관성을 확인합니다. ls
-al
/dev/rmt | grep
WWN
명령을 사용합니다. 여기서 WWN
은 World Wide Name입니다.
root@solaris:~#ls
-al
/dev/rmt
|
grep
50060160082006e2,0
lrwxrwxrwx 1 root root 94 May 20 05:05 3un -> \ ../../devices/pci@1f,700000/SUNW,qlc@2/fp@0,0/st@w50060160082006e2,0:
권장 최소 Solaris 패치 레벨이 있는 경우 여기서 중지하고 아카이브 디스크 스토리지 구성으로 이동합니다.
그렇지 않으면 장치에 대한 대상 ID를 가져옵니다.
/kernel/drv/st.conf
를 편집합니다. 위에서 확인한 대상 ID를 지정하여 tape-config-list
에 공급업체에서 지정한 항목을 추가합니다.
st
모듈을 강제로 다시 로드합니다. update_drv -f st
명령을 사용합니다.
root@solaris:~# update_drv -f st
root@solaris:~#
다음에는 아카이브 디스크 스토리지 구성으로 이동합니다.
디스크 아카이브의 볼륨에 대해 ZFS, UFS, QFS 또는 NFS 파일 시스템을 사용할 수 있습니다. 최적의 아카이빙 및 스테이징 성능을 위해 아카이빙 작업과 스테이징 작업 간 및 Oracle HSM와 다른 응용 프로그램 간의 경합을 최소화하면서, 아카이빙 및 스테이징에 사용 가능한 대역폭을 최대화하도록 파일 시스템과 기본 스토리지를 구성합니다. 다음 지침을 따르십시오.
Oracle HSM가 파일 시스템에 액세스하기 위해 다른 응용 프로그램 및 사용자와 경합하지 않도록 전용 파일 시스템을 사용합니다.
파일 시스템 또는 ZFS 데이터 세트당 하나의 Oracle HSM 아카이브 디스크 볼륨을 구성하고 아카이브 디스크 볼륨이 차지할 수 있는 스토리지 공간에 대한 쿼터를 설정합니다.
아카이브 볼륨의 스토리지 공간이 공유 디스크 장치 풀에서 동적으로 할당되는 경우 기본 물리적 스토리지가 초과 할당되지 않는지 확인합니다. 쿼터를 사용하면 Oracle HSM 아카이빙 프로세스에서 사용 가능한 것보다 더 많은 합산 저장 영역을 사용하려고 시도하는 것을 방지할 수 있습니다.
가능하면 10TB - 20TB 사이에서 각 파일 시스템의 크기를 조정합니다.
사용 가능한 디스크 리소스가 충분한 경우 개별 Oracle HSM 아카이빙 및 스테이징 작업에서 파일 시스템에 액세스하기 위해 서로 경합하지 않도록 여러 파일 시스템을 구성합니다. 15 - 30개 사이의 아카이브 파일 시스템을 구성하는 것이 가장 좋습니다.
개별 아카이빙 작업과 스테이징 작업에서 동일한 기본 하드웨어에 액세스하기 위해 서로 경합하지 않도록 전용 장치에서 각 파일 시스템을 구성합니다.
단일 파일 시스템의 하위 디렉토리를 개별 아카이브 볼륨으로 사용하지 마십시오.
동일한 물리적 드라이브 또는 RAID 그룹에 있는 LUN에 두 개 이상의 파일 시스템을 구성하지 마십시오.
이제 아카이브 테이프 스토리지 구성으로 이동합니다.
다음 작업을 수행합니다.
자동화된 라이브러리에 여러 개의 드라이브가 있는 경우 Oracle HSM 마스터 구성 파일(mcf
)의 드라이브 순서가 라이브러리 컨트롤러에서 드라이브가 표시되는 순서와 같아야 합니다. 이 순서는 드라이브가 호스트에 표시되고 호스트 /var/adm/messages
파일에 보고되는 순서와 다를 수 있습니다.
각 Oracle HSM 메타 데이터 서버 및 datamover 호스트에 대해 아래에 나열된 작업을 수행하여 드라이브 순서를 결정합니다.
라이브러리 설명서를 참조하십시오. 드라이브 및 대상이 어떻게 식별되는지 확인합니다. 로컬 운영자 패널이 있는 경우 이를 사용하여 어떻게 드라이브 순서를 결정할 수 있는지 확인합니다.
라이브러리에 마운트된 로컬 운영자 패널이 있는 경우 이를 사용하여 드라이브가 컨트롤러에 연결되는 순서를 결정합니다. 각 드라이브의 SCSI 대상 식별자 또는 World Wide Name을 확인합니다.
Solaris 호스트에 root
로 로그인합니다.
root@solaris:~#
출력을 텍스트 파일로 재지정하여 /dev/scsi/changer/
에 Solaris 논리 장치 이름을 나열합니다.
예제에서는 /dev/rmt/
의 목록을 root
사용자의 홈 디렉토리에 있는 device-mappings.txt
파일로 재지정합니다.
root@solaris:~#ls
-l
/dev/rmt/
>
/root/device-mappings.txt
이제 직접 연결 라이브러리의 드라이브를 Solaris 장치 이름에 매핑 또는 ACSLS 연결 라이브러리의 드라이브를 Solaris 장치 이름에 매핑 작업을 수행합니다.
/dev/rmt/
에 나열된 각 Solaris 논리 드라이브 이름과 라이브러리에서 Oracle HSM 서버 호스트에 지정하는 각 드라이브에 대해 다음 절차를 수행합니다.
Oracle HSM Solaris 호스트에 아직 로그인하지 않은 경우 root
로 로그인합니다.
root@solaris:~#
텍스트 편집기에서 라이브러리 및 Solaris 호스트에 대한 드라이브 정보 수집 절차로 만든 장치 매핑 파일을 열고 간단한 테이블로 구성합니다.
후속 단계에서 이 정보를 참조해야 합니다. 예제에서는 라이브러리 장치 정보를 위한 헤더 및 공간을 추가하는 동안, vi
편집기를 사용하여 /dev/rmt/
목록에서 권한, 소유권, 날짜 속성을 삭제합니다.
root@solaris:~#vi
/root/device-mappings.txt
LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ---------- ------------------------------------------- /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0: /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0: /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0: /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: lrwxrwxrwx 1 root root 40 Mar 18 2014 /dev/rmt/4 -> ../../devices/pci@1f,4000/scsi@4/st@2,0:
라이브러리에서 모든 드라이브가 비어 있는지 확인합니다.
아직 Solaris 논리 장치 이름에 매핑되지 않은 라이브러리의 첫번째 드라이브로 테이프를 로드합니다.
아래 예제의 목적상 HP Ultrium LTO4 테이프 드라이브로 LTO4 테이프를 로드합니다.
테이프를 마운트하는 드라이브에 해당하는 Solaris /dev/rmt/
항목을 식별합니다. 드라이브를 식별할 때까지 mt
-f
/dev/rmt/
number
status
명령을 실행합니다. 여기서 number
는 /dev/rmt/
에서 드라이브를 식별합니다.
예제에서는 /dev/rmt/0
에 드라이브가 비어 있지만, /dev/rmt/1
에 드라이브가 테이프를 보유합니다. 따라서 라이브러리에서 드라이브 1로 식별한 드라이브는 Solaris /dev/rmt/1
에 해당합니다.
root@solaris:~#mt -f /dev/rmt/0 status
/dev/rmt/0: no tape loaded or drive offline root@solaris:~#mt -f /dev/rmt/1 status
HP Ultrium LTO 4 tape drive: sense key(0x0)= No Additional Sense residual= 0 retries= 0 file no= 0 block no= 3
장치 매핑 파일에서 테이프를 보유한 Solaris 장치에 대한 항목을 찾고 제공된 공간에 라이브러리의 장치 식별자를 입력합니다. 그런 다음 파일을 저장합니다.
예제에서는 /dev/rmt/1
행의 LIBRARY DEVICE NUMBER
필드에 1
을 입력합니다.
root@solaris:~# vi /root/device-mappings.txt
LIBRARY SOLARIS SOLARIS
DEVICE LOGICAL PHYSICAL
NUMBER DEVICE DEVICE
------- ---------- -------------------------------------------
/dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
1
/dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
/dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
/dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0:
:w
테이프를 언로드합니다.
장치 매핑 파일에 라이브러리가 Oracle HSM 호스트에 지정하는 모든 장치의 Solaris 논리 장치 이름이 보관될 때까지 이 절차를 반복합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
root@solaris:~# vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ---------- -------------------------------------------2
/dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0: 1 /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:3
/dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:4
/dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0::wq
root@solaris:~#
매핑 파일을 보관합니다.
기본 파일 시스템 구성(제 6 장)을 위한 정보가 필요하고, Oracle HSM 구성 백업(제 13 장)할 때 정보를 포함시킬 수 있습니다.
다음에는 직접 연결 라이브러리 구성으로 이동합니다.
Oracle HSM Solaris 호스트에 아직 로그인하지 않은 경우 root
로 로그인합니다.
root@solaris:~#
텍스트 편집기에서 라이브러리 및 Solaris 호스트에 대한 드라이브 정보 수집 절차로 만든 장치 매핑 파일을 열고 간단한 테이블로 구성합니다.
후속 단계에서 이 정보를 참조해야 합니다. 예제에서는 라이브러리 장치 정보를 위한 헤더 및 공간을 추가하는 동안, vi
편집기를 사용하여 /dev/rmt/
목록에서 권한, 소유권, 날짜 속성을 삭제합니다.
root@solaris:~# vi /root/device-mappings.txt
LOGICAL DEVICE DEVICE SERIAL NUMBER ACSLS DEVICE ADDRESS
-------------- -------------------- ----------------------------------
/dev/rmt/0
/dev/rmt/1
/dev/rmt/2
/dev/rmt/3
/dev/rmt/
에 나열된 각 논리 장치 이름에 대해 장치 일련 번호를 표시합니다. luxadm
display
/dev/rmt/
number
명령을 사용합니다. 여기서 number
는 /dev/rmt/
에서 드라이브를 식별합니다.
예제에서는 /dev/rmt/0
장치에 대한 일련 번호 HU92K00200
을 가져옵니다.
root@solaris:~#luxadm
display
/dev/rmt/0
DEVICE PROPERTIES for tape: /dev/rmt/0 Vendor: HP Product ID: Ultrium 4-SCSI Revision: G25W Serial Num: HU92K00200 ... Path status: Ready root@solaris:~#
device-mappings.txt
파일의 해당 행에 일련 번호를 입력합니다.
예제에서는 논리 장치 /dev/rmt/0
에 대한 행에 /dev/rmt/0
장치의 일련 번호 HU92K00200
을 기록합니다.
root@solaris:~#vi
/root/device-mappings.txt
LOGICAL DEVICE DEVICE SERIAL NUMBER ACSLS DEVICE ADDRESS -------------- -------------------- ---------------------------------- /dev/rmt/0HU92K00200
/dev/rmt/1 /dev/rmt/2 /dev/rmt/3:wq
root@solaris:~#
/dev/rmt/
에 나열된 모든 논리 장치에 대한 장치 일련 번호를 식별하고 device-mappings.txt
파일에 결과를 기록할 때까지 이전의 두 단계를 반복합니다.
예제에는 네 개의 논리 장치가 있습니다.
root@solaris:~#vi
/root/device-mappings.txt
LOGICAL DEVICE DEVICE SERIAL NUMBER ACSLS DEVICE ADDRESS -------------- -------------------- ---------------------------------- /dev/rmt/0 HU92K00200 /dev/rmt/1 HU92K00208 /dev/rmt/2 HU92K00339 /dev/rmt/3 HU92K00289 :w root@solaris:~#
/dev/rmt/
에 매핑된 각 장치 일련 번호에 대해 해당하는 ACSLS 드라이브 주소를 얻습니다. ACSLS 명령 display
drive
*
-f
serial_num
을 사용합니다.
예제에서는 HU92K00200
(/dev/rmt/0
), HU92K00208
(/dev/rmt/1
), HU92K00339
(/dev/rmt/2
), HU92K00289
(/dev/rmt/3
) 장치의 ACSLS 주소를 가져옵니다.
ACSSA>display drive * -f serial_num
2014-03-29 10:49:12 Display Drive Acs Lsm Panel Drive Serial_num 0 2 10 12 331000049255 0 2 10 16 3310020313520 2 10 17
HU92K00200
0 2 10 18
HU92K00208
0 3 10 10
HU92K00339
0 3 10 11 HU92K001890 3 10 12 HU92K00289
device-mappings.txt
파일의 해당 행에 각 ACSLS 드라이브 주소를 기록합니다. 파일을 저장하고 텍스트 편집기를 닫습니다.
root@solaris:~#vi /root/device-mappings.txt
LOGICAL DEVICE DEVICE SERIAL NUMBER ACSLS DEVICE ADDRESS -------------- -------------------- ---------------------------------- /dev/rmt/0 HU92K00200(acs=0, lsm=2, panel=10, drive=17)
/dev/rmt/1 HU92K00208(acs=0, lsm=2, panel=10, drive=18)
/dev/rmt/2 HU92K00339(acs=0, lsm=2, panel=10, drive=10)
/dev/rmt/3 HU92K00289(acs=0, lsm=2, panel=10, drive=12)
:wq
매핑 파일을 보관합니다.
기본 파일 시스템 구성(제 6 장)을 위한 정보가 필요하고, Oracle HSM 구성 백업(제 13 장)할 때 정보를 포함시킬 수 있습니다.
아카이빙 파일 시스템을 구성할 때 Oracle StorageTek ACSLS 네트워크 연결 라이브러리를 구성합니다. 따라서 고가용성 파일 시스템을 계획할 경우 고가용성 파일 시스템에 대한 스토리지 구성으로 이동합니다. 그렇지 않은 경우 Oracle HSM 및 QFS 소프트웨어 설치로 이동합니다.
직접 연결 테이프 라이브러리를 구성하려면 하드웨어를 물리적으로 연결하고, 경우에 따라 SCSI 드라이버를 구성해야 합니다(Oracle HSM은 릴리스 5.4 이전에 SAM-QFS가 사용한 samst
드라이버 대신 일반 sgen
드라이버를 통해 라이브러리 로봇을 제어함). 다음과 같이 하십시오.
라이브러리와 드라이브를 Oracle HSM 서버 호스트에 물리적으로 연결합니다.
Oracle HSM을 처음으로 설치하거나 Solaris 11에서 Oracle HSM 또는 SAM-QFS 5.4 구성을 업그레이드하는 경우 하드웨어가 물리적으로 연결되면 중지합니다.
Solaris 11에서는 sgen
이 기본 SCSI 드라이버이므로 Oracle HSM 설치 소프트웨어가 드라이버 별칭과 구성 파일을 자동으로 업데이트할 수 있습니다.
Solaris 10 시스템에 Oracle HSM을 설치하는 경우 아래 목록에 있는 드라이버 별칭 중 하나가 sgen
드라이버에 지정되었는지 확인합니다. grep
scs.*,08
/etc/driver_aliases
명령을 사용합니다.
sgen
드라이버에 다음 별칭 중 하나가 지정될 수 있습니다.
scsa,08.bfcp"
및/또는 scsa,08.bvhci
scsiclass,08
예제의 Solaris에서는 sgen
드라이버에 대해 scsiclass,08
별칭을 사용합니다.
root@solaris:~#grep
scs.*,08
/etc/driver_aliases
sgen "scsiclass,08" root@solaris:~#
grep
명령이 sgen
"
alias
"
를 반환하는 경우 sgen
드라이버가 설치되고 별칭에 올바르게 지정됩니다. 여기서 alias
는 위 목록에 있는 별칭 중 하나입니다. 따라서 고가용성 파일 시스템을 구성하는 경우 고가용성 파일 시스템에 대한 스토리지 구성을 참조하십시오. 그렇지 않은 경우 Oracle HSM 및 QFS 소프트웨어 설치로 이동합니다.
grep
명령이 some-driver
"
alias
"
를 반환하는 경우 해당 별칭이 다른 드라이버에 이미 지정된 것입니다. 여기서 some-driver
는 sgen
이외의 일부 드라이버이고, alias
는 위에 나열된 별칭 중 하나입니다. 따라서 sgen
드라이버에 대해 경로 지향 별칭 만들기 작업을 수행합니다.
grep
scs.*,08
/etc/driver_aliases
명령이 출력을 반환하지 않는 경우 sgen
드라이버가 설치되지 않은 것입니다. 따라서 드라이버를 설치하십시오. add_drv
-i
scsiclass,08
sgen
명령을 사용합니다.
예제에서는 grep
명령이 아무것도 반환하지 않습니다. 따라서 sgen
드라이버를 설치합니다.
root@solaris:~# grep scs.*,08 /etc/driver_aliases root@solaris:~#add_drv
-i
scsiclass,08
sgen
add_drv
-i
scsiclass,08
sgen
명령이 Driver (sgen) is already installed
메시지를 반환하는 경우 드라이버가 이미 설치되어 있지만 연결되지 않은 것입니다. 따라서 지금 연결합니다. update_drv
-a
-i
scsiclass,08 sgen
명령을 사용합니다.
예제에서 add_drv
명령은 드라이버가 이미 설치되어 있다는 메시지를 표시합니다. 따라서 드라이버를 연결합니다.
root@solaris:~# add_drv -i scsiclass,08 sgen Driver (sgen) is already installed. root@solaris:~#update_drv
-a
-i
scsiclass,08 sgen
grep
scs.*,08
/etc/driver_aliases
명령에서 scsiclass,08
별칭이 sgen
드라이버에 지정되었다고 표시하는 경우 드라이버가 제대로 구성된 것입니다.
root@solaris:~# grep scs.*,08 /etc/driver_aliases sgen "scsiclass,08" root@solaris:~#
고가용성 파일 시스템을 구성할 경우 고가용성 파일 시스템에 대한 스토리지 구성을 참조하십시오.
그렇지 않은 경우 Oracle HSM 및 QFS 소프트웨어 설치로 이동합니다.
sgen
드라이버에 대해 경로 지향 별칭 만들기예상한 sgen
별칭이 다른 드라이버에 이미 지정되어 있는 경우 기존 드라이버 지정에 영향을 주지 않고 sgen
을 사용하여 지정된 라이브러리를 연결하는 경로 지향 별칭을 만들어야 합니다. 다음과 같이 하십시오.
Oracle HSM 서버 호스트에 root
로 로그인합니다.
root@solaris:~#
시스템 구성을 표시합니다. cfgadm
-vl
명령을 사용합니다.
cfgadm
출력은 2행 헤더와 레코드당 두 개의 행을 사용하여 형식이 지정됩니다.
root@solaris:~#cfgadm
-vl
Ap_Id Receptacle Occupant Condition Information When Type Busy Phys_Id c3 connected configured unknown unavailable scsi-sas n /devices/pci@0/pci@0/pci@2/scsi@0:scsi c5::500104f0008e6d78 connected configured unknown unavailable med-changer y /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78 ... root@solaris:~#
cfgadm
-vl
의 출력에서 라이브러리에 대한 레코드를 찾습니다. 각 레코드의 두번째 행의 Type
열에서 med-changer
를 찾습니다.
예제에서는 두번째 레코드에서 라이브러리를 찾습니다.
root@solaris:~# cfgadm -vl
Ap_Id Receptacle Occupant Condition Information When
Type Busy Phys_Id
c3 connected configured unknown unavailable
scsi-sas n /devices/pci@0/pci@0/pci@2/scsi@0:scsi
c5::500104f0008e6d78 connected configured unknown unavailable
med-changer
y /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
...
root@solaris:~#
새로운 경로 지향 별칭 역할을 하는 물리적 경로를 가져옵니다. cfgadm
-vl
출력의 Phys_Id
열에 있는 항목에서 /devices
하위 문자열을 제거합니다.
예제에서 매체 교환기 레코드의 Phys_Id
열에는 /devices/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
경로가 포함되어 있으므로, /devices/
뒤에 오는 문자열의 일부를 별칭으로 선택합니다. 이 물리적 경로는 아래에 사용 가능한 공간에 맞게 약어로 표시됩니다.
root@solaris:~# grep scsiclass,08 /etc/driver_aliases
sdrv "scsiclass,08"
root@solaris:~# cfgadm -vl
Ap_Id Receptacle Occupant Condition Information When
Type Busy Phys_Id
c3 connected configured unknown unavailable
scsi-sas n /devices/pci@0/pci@0/pci@2/scsi@0:scsi
c5::500104f0008e6d78 connected configured unknown unavailable
med-changer y /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
...
root@solaris:~#
경로 지향 별칭을 만든 다음 sgen
드라이버에 지정합니다. update_drv
-d
-i
'"/
path-to-library
"'
sgen
명령을 사용합니다. 여기서 path-to-library
는 이전 단계에서 식별한 경로입니다.
예제에서는 라이브러리 경로를 사용하여 경로 지향 별칭 '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"'
을 만듭니다(작은 따옴표와 큰 따옴표에 유의). 명령은 한 행이지만 페이지 레이아웃에 맞도록 두 행으로 형식이 지정되었습니다.
root@solaris:~#update_drv
-d
-i
\'"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"'
sgen
root@solaris:~#
이제 라이브러리가 sgen
드라이버를 사용하여 구성되었습니다.
고가용성 파일 시스템을 구성할 경우 고가용성 파일 시스템에 대한 스토리지 구성으로 이동합니다.
그렇지 않은 경우 Oracle HSM 및 QFS 소프트웨어 설치로 이동합니다.
고가용성 공유 파일 시스템을 구성하려면 사용하는 Solaris Cluster 소프트웨어에 대한 하드웨어 관리 매뉴얼의 권장 사항을 따라야 합니다. 여기에는 중복 경로와 스토리지 장치 제공이 포함됩니다.
SAN(Storage Area Network) 연결이 단일 지점 실패를 견딜 수 없는지 확인합니다. 여러 개의 상호 연결 및 중복 스위치를 제공합니다. 각 노드에 여러 개의 HBA(호스트 버스 어댑터)를 설치하고 Oracle Solaris I/O 다중 경로 소프트웨어를 사용합니다(자세한 내용은 Oracle Solaris 고객 문서 라이브러리의 Oracle Solaris SAN Configuration and Multipathing Guide 및 stmsboot
매뉴얼 페이지 참조).
완전히 중복된 주 스토리지 장치를 구성합니다. 미러링된 장치(하드웨어 제어 RAID-10 볼륨 그룹 또는 RAID-1 Solaris Volume Manager 볼륨)에 Oracle HSM 파일 시스템 메타 데이터와 구성 파일을 배치합니다. 하드웨어 제어 RAID-10 또는 RAID-5 볼륨 그룹이나 RAID-1 Solaris Volume Manager 볼륨에 파일 시스템 데이터를 배치합니다.
SVM(Solaris Volume Manager) 다중 소유자 디스크 그룹을 사용하여 장치 중복성을 제공하려는 경우 현재 Solaris 운영 체제 릴리스에서는 SVM 소프트웨어가 더 이상 기본적으로 설치되지 않는 것에 유의하십시오. Solaris 10 9/10 릴리스에 포함된 소프트웨어 버전을 다운로드하여 설치해야 합니다. 그런 다음 Solaris Cluster 설명서의 구성 권장 사항을 따릅니다.