여러 호스트에서 Oracle HSM 파일 시스템을 다양한 방법으로 공유할 수 있습니다. 특정 상황에서 강점을 나타내는 방법이 다른 상황에서 심각한 단점을 나타낼 수도 있습니다. 따라서 요구 사항에 따라 다른 방법을 선택해야 합니다. 공유 방법은 다음과 같습니다.
Oracle HSM를 사용하면 하나 이상의 클라이언트와 서버에서 파일 시스템을 동시에 마운트하도록 구성하여 여러 호스트에서 파일 시스템을 사용할 수 있습니다. 그러면 NFS 및 CIFS 공유와 관련한 네트워크 및 중간 서버 대기 시간 없이 고성능 로컬 경로 I/O를 통해 디스크 장치에서 호스트로 직접 파일 데이터를 전달합니다. 호스트는 한 번에 하나만 메타데이터 서버로 활성화될 수 있지만, 중복성을 위해 원하는 만큼의 클라이언트를 잠재적 메타데이터 서버로 구성할 수 있습니다. 파일 시스템 마운트 지점 수에는 제한이 없습니다.
Oracle HSM은 아카이빙에 상관없이 다중 읽기/단일 쓰기 구성과 공유 구성 모두에서 고성능(ma
) 파일 시스템과 범용(ms
) 파일 시스템 모두에 대한 다중 호스트 액세스를 지원합니다. 몇 가지 제한이 있습니다.
블록(b
–) 특수 파일은 지원되지 않습니다.
문자(c
–) 특수 파일은 지원되지 않습니다.
FIFO 명명된 파이프(p
–) 특수 파일은 지원되지 않습니다.
세그먼트된 파일은 지원되지 않습니다.
세그먼트된 파일 환경에서는 Oracle HSM 공유 파일 시스템을 구현할 수 없습니다.
필수 잠금은 지원되지 않습니다.
필수 잠금을 설정한 경우 EACCES
오류가 반환됩니다. 잠금 권고는 지원됩니다. 잠금 권고에 대한 자세한 내용은 fcntl
매뉴얼 페이지를 참조하십시오.
Oracle HSM 소프트웨어 호스트는 주어진 응용 프로그램에서 각각 고유한 장점과 제한 사항이 있는 두 구성 중 하나를 사용하여 파일 시스템 데이터에 액세스할 수 있습니다.
다중 읽기, 단일 쓰기 구성에서 단일 호스트는 읽기/쓰기 권한이 있는 파일 시스템을 호스트하고 모든 다른 호스트는 읽기 전용 파일 시스템을 호스트합니다. 구성은 단순히 마운트 옵션을 설정하는 것입니다. 단일 호스트에서 파일에 대한 모든 변경을 수행하는 경우 추가적인 파일 잠금이나 일관성 검사 없이도 파일 일관성과 데이터 무결성이 보장됩니다. 최적의 성능을 위해 모든 호스트에서 디스크의 데이터를 직접 읽고 메타데이터도 읽습니다. 하지만 모든 호스트에서 파일 시스템 메타데이터에 액세스할 수 있어야 하므로, ma
파일 시스템의 모든 호스트가 데이터와 메타데이터 장치 모두에 액세스할 수 있어야 합니다.
공유 구성에서는 모든 호스트가 임대를 사용하여 파일 데이터를 읽고, 쓰고, 추가할 수 있습니다. 임대는 단일 호스트에서 지정된 기간 동안 지정된 방법으로 파일에 액세스할 수 있도록 허용하는 기능입니다. 메타데이터 서버는 읽기, 쓰기 및 추가 임대를 발급하고 충돌하는 임대 요청과 갱신을 관리합니다. 공유 파일 시스템은 융통성을 확대하지만, 구성이 복잡하고 많은 파일 시스템 오버헤드를 발생합니다. 모든 호스트는 디스크에서 직접 파일 데이터를 읽지만, 클라이언트는 네트워크를 통해 메타데이터에 액세스합니다. 따라서 메타데이터 장치에 액세스할 수 없는 클라이언트는 ma
파일 시스템을 공유할 수 있습니다.
여러 호스트에서 데이터 액세스를 구성하려면 다음 두 가지 접근법 중 하나를 선택하십시오.
단일 쓰기, 다중 읽기 파일 시스템을 구성하려면 다음 작업을 수행합니다.
다음과 같이 하십시오.
root
계정을 사용하여 writer
역할을 하는 호스트에 로그인합니다.
예제에서 writer
호스트 이름은 swriterfs-mds-writer
로 지정됩니다.
[swriterfs1-mds-writer]root@solaris:~#
writer
역할을 하는 호스트에서 /etc/opt/SUNWsamfs/mcf
파일을 텍스트 편집기에서 열고 QFS 파일 시스템을 추가합니다. 범용 ms
또는 고성능 ma
파일 시스템을 구성할 수 있습니다.
별도의 메타데이터 장치를 포함하는 ma
파일 시스템에서, 파일 시스템에 대한 메타데이터 서버를 쓰기 장치로 구성합니다. 아래 예제에서는 vi
텍스트 편집기를 사용하여 swriterfs1-mds-writer
호스트의 mcf
파일을 편집합니다. 예제에서는 장비 식별자 및 패밀리 세트 이름 swriterfs1
및 장비 순서 번호 300
을 사용하여 ma
파일 시스템을 지정합니다.
[swriterfs1-mds-writer]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- swriterfs1 300 ma swriterfs1 on /dev/dsk/c0t0d0s0 301 mm swriterfs1 on /dev/dsk/c0t3d0s0 302 mr swriterfs1 on /dev/dsk/c0t3d0s1 303 mr swriterfs1 on
/etc/opt/SUNWsamfs/mcf
파일을 저장하고 편집기를 종료합니다.
예제에서는 변경사항을 저장하고 vi
편집기를 종료합니다.
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#------------------ --------- --------- --------- ------ ---------------
swriterfs1 300 ma swriterfs1 on
/dev/dsk/c0t0d0s0 301 mm swriterfs1 on
/dev/dsk/c0t3d0s0 302 mr swriterfs1 on
/dev/dsk/c0t3d0s1 303 mr swriterfs1 on
:wq
[swriterfs1-mds-writer]root@solaris:~#
sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 오류가 발견되면 실행을 중지합니다.
[swriterfs1-mds-writer]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[swriterfs1-mds-writer]root@solaris:~#
Oracle HSM 서비스에 mcf
파일을 다시 읽고 그에 따라 재구성하도록 지시합니다. samd
config
명령을 사용합니다.
[swriterfs1-mds-writer]root@solaris:~# samd config Configuring SAM-FS [swriterfs1-mds-writer]root@solaris:~#
고성능 ma
파일 시스템 구성에 설명한 대로 sammkfs
명령과 파일 시스템의 패밀리 세트 이름을 사용하여 파일 시스템을 만듭니다.
예제에 사용된 명령은 단일 쓰기/다중 읽기 파일 시스템 swriterfs1
을 만듭니다.
[swriterfs1-mds-writer]root@solaris:~# sammkfs swriterfs1 Building 'swriterfs1' will destroy the contents of devices: /dev/dsk/c0t0d0s0 /dev/dsk/c0t3d0s0 /dev/dsk/c0t3d0s1 Do you wish to continue? [y/N]yes ...
운영체제의 /etc/vfstab
파일을 백업합니다.
[swriterfs1-mds-writer]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [swriterfs1-mds-writer]root@solaris:~#
고성능 ma
파일 시스템 구성에 설명한 대로 운영체제의 /etc/vfstab
파일에 새 파일 시스템을 추가합니다.
예제에서는 /etc/vfstab
파일을 vi
텍스트 편집기에서 열고 swriterfs1
패밀리 세트 장치에 대한 행을 추가합니다.
[swriterfs1-mds-writer]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ----------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... swriterfs1 - /swriterfs1 samfs - no
/etc/vfstab
파일의 Mount Options
열에 writer
마운트 옵션을 입력합니다.
주의:
한 번에 하나의 호스트만writer
역할을 하도록 합니다. writer
옵션을 사용하여 여러 호스트에서 다중 읽기, 단일 쓰기 파일 시스템을 마운트하도록 허용하면 파일 시스템이 손상될 수 있습니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer
/etc/vfstab
파일에 다른 원하는 변경을 수행합니다. 콤마를 구분자로 사용하여 마운트 옵션을 추가합니다.
예를 들어, 첫번째 시도가 실패할 경우 백그라운드에서 파일 시스템을 마운트하려면 Mount Options
필드에 bg
마운트 옵션을 추가합니다. 사용 가능한 전체 마운트 옵션 목록은 mount_samfs
매뉴얼 페이지를 참조하십시오.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
/etc/vfstab
파일을 저장하고 편집기를 종료합니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
:wq
[swriterfs1-mds-writer]root@solaris:~#
/etc/vfstab
파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.
마운트 지점 권한이 모든 호스트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템에서 파일에 액세스하려면 실행(x
) 권한이 있어야 합니다. 예제에서는 /swriterfs1
마운트 지점 디렉토리를 만들고 755
(-rwxr-xr-x
)로 권한을 설정합니다.
[swriterfs1-mds-writer]root@solaris:~# mkdir /swriterfs1 [swriterfs1-mds-writer]root@solaris:~# chmod 755 /swriterfs1 [swriterfs1-mds-writer]root@solaris:~#
새 파일 시스템을 마운트합니다.
[swriterfs1-mds-writer]root@solaris:~# mount /swriterfs1 [swriterfs1-mds-writer]root@solaris:~#
공유 파일 시스템이 만들어졌으면 읽기 장치 구성을 수행합니다.
읽기 장치는 파일 시스템을 읽기 전용으로 마운트하는 호스트입니다. 읽기 장치로 구성하는 각 호스트에 대해 다음과 같이 하십시오.
호스트에 root
로 로그인합니다.
예제에서 reader
호스트 이름은 swriterfs-reader1]
로 지정됩니다.
[swriterfs-reader1]root@solaris:~#
단말기 창에서 samfsconfig
device-path
명령을 사용하여 다중 읽기, 단일 쓰기 파일 시스템에 대한 구성 정보를 검색합니다. 여기서 device-path
는 이 명령이 파일 시스템 디스크 장치 검색을 시작해야 하는 위치입니다(예: /dev/dsk/*
).
samfsconfig
유틸리티는 sammkfs
가 Oracle HSM 파일 시스템에 포함된 각 장치에 쓰는 식별 수퍼 블록을 읽고 파일 시스템 구성 정보를 검색합니다. 이 명령은 현재 호스트에서 시작하여 구성의 각 장치에 대한 올바른 경로를 반환하고 연결할 수 없는 장치를 플래그합니다. 명령 구문과 매개변수에 대한 자세한 내용은 samfsconfig
매뉴얼 페이지를 참조하십시오.
장치 경로가 swriterfs1-reader1
호스트부터 지정된다는 점만 제외하고, 예제의 samfsconfig
출력에는 swriterfs1-mds-writer
의 mcf
파일에 나열된 것과 동일한 장비가 표시됩니다.
[swriterfs1-reader1]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'swriterfs1' Created Thu Nov 21 07:17:00 2013 # Generation 0 Eq count 4 Eq meta count 1 # sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
samfsconfig
출력에서 공유 파일 시스템 항목을 복사합니다. 그리고 두번째 창에서, 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 복사한 항목을 파일로 붙여넣습니다.
또는 samfsconfig
의 출력을 mcf
파일로 재지정할 수 있습니다. 또는 samd buildmcf
명령을 사용하여 samfsconfig
를 실행하고 클라이언트 mcf
파일을 자동으로 만들 수 있습니다.
예제에서 주석 처리된 열 머리글을 추가한 후 swriterfs1-reader1
호스트의 mcf
파일은 다음과 비슷합니다.
[swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
모든 장치에 대해 Device State
필드가 on
으로 설정되어 있는지 확인합니다. 그런 다음 mcf
파일을 저장합니다.
[swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on /dev/dsk/c1t0d0s0 301 mm sharefs on /dev/dsk/c1t3d0s0 302 mr sharefs on /dev/dsk/c1t3d0s1 303 mr sharefs on :wq [swriterfs1-reader1]root@solaris:~#
sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 오류가 발견되면 실행을 중지합니다.
[swriterfs1-reader1]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[swriterfs1-reader1]root@solaris:~#
운영체제의 /etc/vfstab
파일을 백업합니다.
[swriterfs1-reader1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [swriterfs1-reader1]root@solaris:~#
호스트 운영체제의 /etc/vfstab
파일에 단일 쓰기, 다중 읽기 파일 시스템을 추가합니다.
예제에서는 /etc/vfstab
파일을 vi
텍스트 편집기에서 열고 swriterfs1
패밀리 세트 장치에 대한 행을 추가합니다.
[swriterfs1-reader1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ----------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... swriterfs1 - /swriterfs1 samfs - no
/etc/vfstab
파일의 Mount
Options
열에 reader
옵션을 입력합니다.
주의:
호스트에서reader
옵션을 사용하여 파일 시스템을 마운트하는지 확인합니다. 실수로 여러 호스트에서 writer
마운트 옵션을 사용할 경우 파일 시스템이 손상될 수 있습니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no reader
콤마를 구분자로 사용하여 다른 원하는 마운트 옵션을 추가하고 /etc/vfstab
파일에 다른 원하는 변경을 수행합니다. 그런 다음 /etc/vfstab
파일을 저장합니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
:wq
[swriterfs1-reader1]root@solaris:~#
/etc/vfstab
파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.
마운트 지점 권한이 모든 호스트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템에서 파일에 액세스하려면 실행(x
) 권한이 있어야 합니다. 예제에서는 방금 쓰기 호스트에서 수행한 것처럼 /swriterfs1
마운트 지점 디렉토리를 만들고 755
(-rwxr-xr-x
)로 권한을 설정합니다.
[swriterfs1-reader1]root@solaris:~# mkdir /swriterfs1 [swriterfs1-reader1]root@solaris:~# chmod 755 /swriterfs1 [swriterfs1-reader1]root@solaris:~#
새 파일 시스템을 마운트합니다.
[swriterfs1-reader1]root@solaris:~# mount /swriterfs1 [swriterfs1-reader1]root@solaris:~#
모든 읽기 호스트가 파일 시스템을 읽기 전용으로 마운트하도록 구성될 때까지 이 절차를 반복합니다.
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.
Oracle HSM 공유 파일 시스템은 여러 Oracle HSM 호스트에 파일에 대한 읽기, 쓰기 및 추가 권한을 제공합니다. 모든 호스트에서 파일 시스템을 마운트하고 스토리지 장치에 직접 연결합니다. 또한 호스트 중 하나인 메타데이터 서버(MDS)에서 파일 시스템 메타데이터를 배타적으로 제어하고, 동일한 파일에 액세스하려는 호스트 간을 중재합니다. 이 서버는 이더넷 로컬 네트워크를 통해 클라이언트 호스트에 메타데이터 업데이트를 제공하고, 읽기, 쓰기 및 추가 임대를 실행, 갱신, 취소하여 파일 액세스를 제어합니다. 고성능 ma
또는 범용 ms
유형의 비아카이빙 파일 시스템과 아카이빙 파일 시스템을 모두 공유할 수 있습니다.
공유 파일 시스템을 구성하려면 다음 작업을 수행합니다.
공유 파일 시스템을 지원하도록 메타데이터 서버를 구성하려면 아래 나열된 작업을 수행합니다.
활성/잠재적 메타데이터 서버에서 공유 파일 시스템의 서버와 클라이언트에 대한 네트워크 주소 정보를 나열하는 hosts 파일을 만들어야 합니다. hosts 파일은 /etc/opt/SUNWsamfs/
디렉토리에 mcf
파일과 나란히 저장됩니다. 공유 파일 시스템의 초기 생성 중 sammkfs -S
명령은 이 파일에 저장된 설정을 사용하여 공유를 구성합니다. 따라서 아래 절차를 사용하여 지금 만듭니다.
서버에 root
로 로그인합니다.
예제에서 서버 이름은 sharefs-mds
로 지정됩니다.
[sharefs-mds]root@solaris:~#
텍스트 편집기를 사용하여 메타데이터 서버에 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일을 만듭니다. family-set-name
은 공유할 파일 시스템의 패밀리 세트 이름으로 바뀝니다.
예제에서는 vi
텍스트 편집기를 사용하여 hosts.sharefs
파일을 만듭니다. 몇 가지 선택적 머리글을 추가하고, 각 라인은 주석을 나타내는 해시 기호(#
)로 시작합니다.
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs # /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ----------
메타데이터 서버의 호스트 이름 및 IP 주소/도메인 이름을 공백 문자로 구분하여 2개 열에 추가합니다.
# /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117
네트워크 주소와 공백 문자로 구분된 세번째 열을 추가합니다. 이 열에 활성 메타데이터 서버의 순서 번호인 1
을 입력합니다.
이 예제에서는 메타데이터 서버가 하나뿐이므로 1
을 입력합니다.
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1
네트워크 주소와 공백 문자로 구분된 네번째 열을 추가합니다. 이 열에서 0
(제로)을 입력합니다.
네번째 열의 0
, -
(하이픈) 또는 공백 값은 호스트가 on으로 구성되었고 공유 파일 시스템에 액세스할 수 있음을 나타냅니다. 1
(숫자 1)은 호스트가 파일 시스템에 액세스할 수 있도록 구성되지 않은 off 상태라는 것을 나타냅니다(공유 파일 시스템을 관리할 때 이러한 값을 사용하는 방법에 대한 자세한 내용은 samsharefs
매뉴얼 페이지 참조).
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0
네트워크 주소와 공백 문자로 구분된 다섯번째 열을 추가합니다. 이 열에서 현재 활성 메타데이터 서버를 나타내는 server
키워드를 입력합니다.
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
하나 이상의 호스트를 잠재적 메타데이터 서버로 포함하려면 각각 항목을 만듭니다. 매번 서버 순서를 증분합니다. 그러나 server
키워드는 포함하지 마십시오(파일 시스템당 하나의 활성 메타데이터 서버만 가능).
예제에서 호스트 sharefs-mds_alt
는 서버 순서가 2
인 잠재적 메타데이터 서버입니다.
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
sharefs-mds_alt 10.79.213.217 2 0
각 클라이언트 호스트마다 서버 순서 값 0
과 함께 행을 추가합니다.
서버 순서 0
은 호스트를 클라이언트로 식별합니다. 예제에서는 두 개의 클라이언트 sharefs-client1
및 sharefs-client2
를 추가합니다.
# /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117 1 0 server sharefs-mds_alt 10.79.213.217 2 0 sharefs-client1 10.79.213.133 0 0 sharefs-client2 10.79.213.147 0 0
/etc/opt/SUNWsamfs/hosts.
family-set-name
파일을 저장하고 편집기를 종료합니다.
예제에서는 /etc/opt/SUNWsamfs/hosts.sharefs
에 대한 변경사항을 저장하고 vi
편집기를 종료합니다.
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
sharefs-mds_alt 10.79.213.217 2 0
sharefs-client1 10.79.213.133 0 0
sharefs-client2 10.79.213.147 0 0
:wq
[sharefs-mds]root@solaris:~#
공유 파일 시스템 구성에 포함될 잠재적 메타데이터 서버에 새 파일 /etc/opt/SUNWsamfs/hosts.
family-set-name
의 복사본을 배치합니다.
이제 활성 메타데이터 서버에서 공유 파일 시스템 만들기를 수행합니다.
다음과 같이 하십시오.
서버에 root
로 로그인합니다.
예제에서 서버 이름은 sharefs-mds
로 지정됩니다.
[sharefs-mds]root@solaris:~#
메타데이터 서버(MDS)에서 /etc/opt/SUNWsamfs/mcf
파일을 텍스트 편집기에서 열고 QFS 파일 시스템을 추가합니다. 범용 ms
또는 고성능 ma
파일 시스템을 구성할 수 있습니다.
아래 예제에서는 vi
텍스트 편집기를 사용하여 sharefs-mds
호스트에서 mcf
파일을 편집합니다. 이 예제에서는 장비 식별자와 패밀리 세트 이름 sharefs
및 장비 순서 번호 300
을 사용하여 ma
파일 시스템을 지정합니다.
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on /dev/dsk/c0t0d0s0 301 mm sharefs on /dev/dsk/c0t3d0s0 302 mr sharefs on /dev/dsk/c0t3d0s1 303 mr sharefs on
ma
파일 시스템 장비에 대한 행의 Additional
Parameters
필드에 shared
매개변수를 입력합니다.
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#------------------ --------- --------- --------- ------ ---------------
sharefs 300 ma sharefs on shared
/dev/dsk/c0t0d0s0 301 mm sharefs on
/dev/dsk/c0t3d0s0 302 mr sharefs on
/dev/dsk/c0t3d0s1 303 mr sharefs on
/etc/opt/SUNWsamfs/mcf
파일을 저장하고 편집기를 종료합니다.
예제에서는 변경사항을 저장하고 vi
편집기를 종료합니다.
sharefs 300 ma sharefs on shared
/dev/dsk/c0t0d0s0 301 mm sharefs on
/dev/dsk/c0t3d0s0 302 mr sharefs on
/dev/dsk/c0t3d0s1 303 mr sharefs on
:wq
[sharefs-mds]root@solaris:~#
sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 오류가 발견되면 실행을 중지합니다.
[sharefs-mds]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-mds]root@solaris:~#
Oracle HSM 서비스에 mcf
파일을 다시 읽고 그에 따라 재구성하도록 지시합니다. 보고된 모든 오류를 수정하고 필요에 따라 반복합니다.
[sharefs-mds]root@solaris:~# samd config [sharefs-mds]root@solaris:~#
고성능 ma
파일 시스템 구성에서 설명한 대로 sammkfs -S
명령과 파일 시스템의 패밀리 세트 이름을 사용하여 파일 시스템을 만듭니다.
sammkfs
명령은 hosts.
family-set-name
및 mcf
파일을 읽고 지정된 등록 정보를 가진 공유 파일 시스템을 만듭니다. 예제의 명령은 hosts.sharefs
파일에서 공유 매개변수를 읽고 공유 파일 시스템 sharefs
를 만듭니다.
[sharefs-mds]root@solaris:~# sammkfs -S sharefs Building 'sharefs' will destroy the contents of devices: /dev/dsk/c0t0d0s0 /dev/dsk/c0t3d0s0 /dev/dsk/c0t3d0s1 Do you wish to continue? [y/N]yes ... [sharefs-mds]root@solaris:~#
이제 활성 메타데이터 서버에서 공유 파일 시스템 마운트를 수행합니다.
서버에 root
로 로그인합니다.
예제에서 서버 이름은 sharefs-mds
로 지정됩니다.
[sharefs-mds]root@solaris:~#
운영체제의 /etc/vfstab
파일을 백업합니다.
[sharefs-mds]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [sharefs-mds]root@solaris:~#
고성능 ma
파일 시스템 구성에 설명한 대로 운영체제의 /etc/vfstab
파일에 새 파일 시스템을 추가합니다.
예제에서는 /etc/vfstab
파일을 vi
텍스트 편집기에서 열고 sharefs
패밀리 세트 장치에 대한 행을 추가합니다.
[sharefs-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sharefs - /sharefs samfs - no
Mount Options
열에 shared
옵션을 입력합니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared
/etc/vfstab
파일에 다른 원하는 변경을 수행합니다.
예를 들어 초기 시도가 실패할 경우 백그라운드에서 파일 시스템 마운트를 재시도하려면 bg
마운트 옵션을 Mount Options
필드에 추가합니다. 사용 가능한 마운트 옵션에 대한 자세한 내용은 mount_samfs
매뉴얼 페이지를 참조하십시오.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared,bg
/etc/vfstab
파일을 저장하고 편집기를 종료합니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared,bg
:wq
[sharefs-mds]root@solaris:~#
/etc/vfstab
파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.
마운트 지점 권한이 메타데이터 서버와 모든 클라이언트에서 동일해야 하므로, 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템에서 파일에 액세스하려면 실행(x
) 권한이 있어야 합니다. 예제에서는 /sharefs
마운트 지점 디렉토리를 만들고 755
(-rwxr-xr-x
)로 권한을 설정합니다.
[sharefs-mds]root@solaris:~# mkdir /sharefs [sharefs-mds]root@solaris:~# chmod 755 /sharefs [sharefs-mds]root@solaris:~#
새 파일 시스템을 마운트합니다.
[sharefs-mds]root@solaris:~# mount /sharefs
[sharefs-mds]root@solaris:~#
호스트를 다중 네트워크 인터페이스로 구성한 경우 로컬 hosts 파일을 사용하여 네트워크 통신 경로 지정 작업을 수행할 수 있습니다.
그렇지 않은 경우 공유 파일 시스템이 메타데이터 서버에서 만들어졌으면 공유를 위한 파일 시스템 클라이언트 구성을 수행합니다.
클라이언트는 순수하게 클라이언트로 구성된 호스트와 잠재적 메타데이터 서버로 구성된 호스트를 모두 포함합니다. 대부분의 경우 클라이언트 구성은 서버를 구성하는 방법과 거의 동일합니다. 각 클라이언트는 서버와 동일한 장치를 포함합니다. 마운트 옵션과 정확한 장치 경로만 변경됩니다. 제어기 번호는 클라이언트 호스트별로 지정되므로 다를 수 있습니다.
하나 이상의 클라이언트에서 공유 파일 시스템을 지원하도록 구성하려면 아래 나열된 작업을 수행합니다.
Linux 클라이언트에서 공유 파일 시스템 만들기(있는 경우)
Linux 클라이언트에서 공유 파일 시스템 마운트(있는 경우)
각 클라이언트에 대해 다음과 같이 하십시오.
클라이언트에서 root
로 로그인합니다.
예제에서 서버 이름은 sharefs-client1
로 지정됩니다.
[sharefs-client1]root@solaris:~#
단말기 창에서 samfsconfig
device-path
명령을 입력합니다. 여기서 device-path
는 명령이 파일 시스템 디스크 장치(예: /dev/dsk/*
또는 /dev/zvol/dsk/rpool/*
) 검색을 시작해야 하는 위치입니다.
samfsconfig
명령은 공유 파일 시스템에 대한 구성 정보를 검색합니다.
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 있는 경우 잠재적 메타데이터 서버로 사용하기에 적절하므로 samfsconfig
출력은 파일 시스템 메타데이터 서버에서 만든 mcf
파일과 아주 비슷합니다.
예제에서 sharefs-client1
호스트에는 메타데이터 장치(장비 유형 mm
)에 대한 액세스 권한이 있으므로, 이 명령은 sharefs-mds
서버의 mcf
파일에 나열된 것과 동일한 장비를 보여줍니다. 호스트 지정 장치 컨트롤러 번호만 다릅니다.
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # Generation 0 Eq count 4 Eq meta count 1 # sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 samfsconfig
명령이 메타데이터 장치를 찾을 수 없습니다. 따라서 발견된 Oracle HSM 장치가 파일 시스템 구성에 맞지 않을 수 있습니다. 명령 출력은 Missing Slices
아래에 메타데이터 장치 Ordinal
0
을 나열하고, 파일 시스템 패밀리 세트를 식별하는 라인을 포함하지 못하며, 데이터 장치의 목록을 주석 처리합니다.
예제에서는 sharefs-client2
호스트가 데이터 장치에만 액세스할 수 있습니다. 따라서 samfsconfig
출력은 다음과 비슷합니다.
[sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # # Missing slices # Ordinal 0 # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
samfsconfig
출력에서 공유 파일 시스템 항목을 복사합니다. 그리고 두번째 창에서, 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 복사한 항목을 파일로 붙여넣습니다.
첫번째 예제에서 sharefs-client1
호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 있으므로 mcf
파일의 시작은 다음과 비슷합니다.
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
두번째 예제에서 sharefs-client2
호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 없으므로 mcf
파일의 시작은 다음과 비슷합니다.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 있는 경우 공유 파일 시스템 항목의 Additional Parameters
필드에 shared
매개변수를 추가합니다.
예제에서는 sharefs-client1
호스트에서 메타데이터에 액세스할 수 있습니다.
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 공유 파일 시스템 행을 추가하고 shared
매개변수를 포함합니다.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 메타데이터 장치 행을 추가합니다. Equipment Identifier
필드를 nodev
(장치 없음)로 설정하고 남은 필드를 메타데이터 서버에 지정한 것과 똑같은 값으로 설정합니다.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 데이터 장치 항목의 주석 처리를 해제합니다.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ----------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs - /dev/dsk/c4t3d0s1 303 mr sharefs -
모든 장치에 대해 Device State
필드가 on
으로 설정되었는지 확인하고 mcf
파일을 저장합니다.
첫번째 예제에서 sharefs-client1
호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 있으므로 mcf
파일의 끝은 다음과 비슷합니다.
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared /dev/dsk/c1t0d0s0 301 mm sharefs on /dev/dsk/c1t3d0s0 302 mr sharefs on /dev/dsk/c1t3d0s1 303 mr sharefs on :wq [sharefs-client1]root@solaris:~#
두번째 예제에서 sharefs-client2
호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 없으므로 mcf
파일의 끝은 다음과 비슷합니다.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs on /dev/dsk/c4t3d0s1 303 mr sharefs on :wq [sharefs-client2]root@solaris:~#
sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 sharefs-client1
에서 mcf
파일을 확인합니다.
[sharefs-client1]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-client1]root@solaris:~#
이때 호스트를 다중 네트워크 인터페이스로 구성한 경우 로컬 hosts 파일을 사용하여 네트워크 통신 경로 지정 작업을 수행할 수 있습니다.
이제 Solaris 클라이언트에서 공유 파일 시스템 마운트를 수행합니다.
각 클라이언트에 대해 다음과 같이 하십시오.
Solaris 클라이언트에서 root
로 로그인합니다.
예제에서 서버 이름은 sharefs-client1
로 지정됩니다.
[sharefs-client1]root@solaris:~#
운영체제의 /etc/vfstab
파일을 백업합니다.
[sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [sharefs-client1]root@solaris:~#
텍스트 편집기에서 /etc/vfstab
파일을 열고 공유 파일 시스템 행을 추가합니다.
예제에서는 vi
텍스트 편집기에서 파일을 열고 sharefs
패밀리 세트 장치 행을 추가합니다.
[sharefs-client1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sharefs - /sharefs samfs - no
콤마를 구분자로 사용하여 다른 원하는 마운트 옵션을 추가하고 /etc/vfstab
파일에 다른 원하는 변경을 수행합니다. 그런 다음 /etc/vfstab
파일을 저장합니다.
예제에서는 마운트 옵션을 추가하지 않습니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no -
:wq
[sharefs-client1]root@solaris:~#
/etc/vfstab
파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.
마운트 지점 권한은 메타데이터 서버와 모든 다른 클라이언트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x
) 권한이 있어야 합니다. 예제에서는 /sharefs
마운트 지점 디렉토리를 만들고 755
(-rwxr-xr-x
)로 권한을 설정합니다.
[sharefs-client1]root@solaris:~# mkdir /sharefs [sharefs-client1]root@solaris:~# chmod 755 /sharefs [sharefs-client1]root@solaris:~#
공유 파일 시스템을 마운트합니다.
[sharefs-client1]root@solaris:~# mount /sharefs [sharefs-client1]root@solaris:~#
공유 파일 시스템에 Linux 클라이언트가 포함되어 있는 경우 Linux 클라이언트에서 공유 파일 시스템 만들기를 수행합니다.
Oracle HSM 공유 아카이빙 파일 시스템을 구성할 경우 공유 파일 시스템에 대한 아카이브 스토리지 구성 작업으로 이동합니다.
그렇지 않은 경우 여기서 중지합니다. Oracle HSM 공유 파일 시스템을 구성했습니다.
각 클라이언트에 대해 다음과 같이 하십시오.
Linux 클라이언트에서 root
로 로그인합니다.
예제에서 Linux 클라이언트 호스트 이름은 sharefs-clientL
로 지정됩니다.
[sharefs-clientL][root@linux ~]#
단말기 창에서 samfsconfig
device-path
명령을 입력합니다. 여기서 device-path
는 명령이 파일 시스템 디스크 장치(예: /dev/*
) 검색을 시작해야 하는 위치입니다.
samfsconfig
명령은 공유 파일 시스템에 대한 구성 정보를 검색합니다. Linux 호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 없으므로 samfsconfig
가 메타데이터 장치를 찾을 수 없습니다. 따라서 발견된 Oracle HSM 장치가 파일 시스템 구성에 맞지 않을 수 있습니다. 명령 출력은 Missing
Slices
아래에 메타데이터 장치 Ordinal
0
을 나열하고, 파일 시스템 패밀리 세트를 식별하는 라인을 포함하지 못하며, 데이터 장치의 목록을 주석 처리합니다.
예제에서 Linux 호스트 sharefs-clientL
에 대한 samfsconfig
출력은 다음과 비슷합니다.
[sharefs-clientL][root@linux ~]# samfsconfig /dev/*
# Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
#
# Missing slices
# Ordinal 0
# /dev/sda4 302 mr sharefs -
# /dev/sda5 303 mr sharefs -
samfsconfig
출력에서 공유 파일 시스템 항목을 복사합니다. 그리고 두번째 창에서, 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 복사한 항목을 파일로 붙여넣습니다.
예제에서 Linux 호스트 sharefs-clientL
에 대한 mcf
파일의 시작은 다음과 비슷합니다.
[sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
파일에서 공유 파일 시스템 행을 삽입하고 shared
매개변수를 포함합니다.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
파일에서 파일 시스템의 메타데이터 장치 행을 삽입합니다. Linux 호스트는 메타데이터 장치에 액세스할 수 없으므로 Equipment
Identifier
필드를 nodev
(장치 없음)로 설정하고 남은 필드를 메타데이터 서버에 지정한 것과 똑같은 값으로 설정합니다.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
파일에서 데이터 장치 항목의 주석 처리를 해제합니다.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs - /dev/sda5 303 mr sharefs -
모든 장치에 대해 Device
State
필드가 on
으로 설정되었는지 확인하고 mcf
파일을 저장합니다.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs on /dev/sda5 303 mr sharefs on :wq [sharefs-clientL][root@linux ~]#
sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 Linux 클라이언트 sharefs-clientL
에서 mcf
파일을 확인합니다.
[sharefs-clientL][root@linux ~]# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-clientL][root@linux ~]#
이제 Linux 클라이언트에서 공유 파일 시스템 마운트를 수행합니다.
각 클라이언트에 대해 다음과 같이 하십시오.
Linux 클라이언트에서 root
로 로그인합니다.
예제에서 Linux 클라이언트 호스트 이름은 sharefs-clientL
로 지정됩니다.
[sharefs-clientL][root@linux ~]#
운영체제의 /etc/fstab
파일을 백업합니다.
[sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
텍스트 편집기에서 /etc/fstab
파일을 열고 공유 파일 시스템 행을 시작합니다.
예제에서는 sharefs-clientL
에서 /etc/fstab
파일을 백업한 후에 vi
텍스트 편집기에서 파일을 열고 sharefs
패밀리 세트 장치 행을 추가합니다.
[sharefs-clientL][root@linux ~]# vi /etc/fstab #File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs
파일의 네번째 열에서 필수 shared
마운트 옵션을 추가합니다.
#File
#Device Mount System Mount Dump Pass
#to Mount Point Type Options Frequency Number
#-------- ------- -------- ------------------------- --------- ------
...
/proc /proc proc defaults
sharefs /sharefs samfs shared
파일의 네번째 열에서 콤마를 구분자로 사용하여 다른 원하는 마운트 옵션을 추가합니다.
Linux 클라이언트는 다음 추가 마운트 옵션을 지원합니다.
rw
, ro
retry
meta_timeo
rdlease
, wrlease
, aplease
minallocsz
, maxallocsz
noauto
, auto
예제에서는 noauto
옵션을 추가합니다.
#File
#Device Mount System Mount Dump Pass
#to Mount Point Type Options Frequency Number
#-------- ------- -------- ------------------------- --------- ------
...
/proc /proc proc defaults
sharefs /sharefs samfs shared,noauto
파일에 남은 두 열에 각각 제로(0
)를 입력합니다. 그런 다음 /etc/fstab
파일을 저장합니다.
#File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs shared,noauto 0 0 :wq [sharefs-clientL][root@linux ~]#
/etc/fstab
파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.
마운트 지점 권한은 메타데이터 서버와 모든 다른 클라이언트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x
) 권한이 있어야 합니다. 예제에서는 /sharefs
마운트 지점 디렉토리를 만들고 755
(-rwxr-xr-x
)로 권한을 설정합니다.
[sharefs-clientL][root@linux ~]# mkdir /sharefs [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
공유 파일 시스템을 마운트합니다. mount
mountpoint
명령을 사용합니다. 여기서 mountpoint
는 /etc/fstab
파일에 지정된 마운트 지점입니다.
예제에 표시된 대로 mount
명령은 경고를 생성합니다. 이는 정상적 상황이며 무시할 수 있습니다.
[sharefs-clientL][root@linux ~]# mount /sharefs Warning: loading SUNWqfs will taint the kernel: SMI license See http://www.tux.org/lkml/#export-tainted for information about tainted modules. Module SUNWqfs loaded with warnings [sharefs-clientL][root@linux ~]#
Oracle HSM 공유 아카이빙 파일 시스템을 구성할 경우 공유 파일 시스템에 대한 아카이브 스토리지 구성 작업으로 이동합니다.
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.
개별 호스트에는 로컬 hosts 파일이 필요 없습니다. 파일 시스템은 모든 파일 시스템 호스트에 대한 활성 메타데이터 서버와 활성 및 잠재적 메타데이터 서버의 네트워크 인터페이스를 식별합니다(활성/잠재적 메타데이터 서버에서 hosts 파일 만들기 참조). 그러나 다중 네트워크 인터페이스가 설치된 파일 시스템 호스트 간에 선택적으로 네트워크 트래픽 경로를 지정해야 하는 경우 로컬 hosts 파일이 유용할 수 있습니다.
각 파일 시스템 호스트는 네트워크 인터페이스에서 메타데이터 서버의 다른 호스트를 조회합니다. 호스트 이름과 IP 주소는 파일 시스템에 대한 전역 hosts 파일 /etc/opt/SUNWsamfs/hosts.
family-set-name
에 나열됩니다. 여기서 family-set-name
은 공유 파일 시스템의 패밀리 세트 번호입니다. 그런 다음 호스트는 로컬 hosts 파일 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
을 찾습니다.
로컬 hosts 파일이 없는 경우 호스트는 전역 hosts 파일에 지정된 인터페이스 주소를 사용합니다. 전역 파일에서 지정된 순서대로 호스트가 사용됩니다.
로컬 hosts 파일이 있는 경우 호스트는 로컬 파일을 전역 파일과 비교하여 양쪽 파일에 나열된 인터페이스만 사용합니다. 로컬 파일에서 지정된 순서대로 호스트가 사용됩니다.
따라서 각 파일에 다른 주소를 사용하여 다양한 호스트에서 사용되는 인터페이스를 제어할 수 있습니다. 로컬 hosts 파일을 구성하려면 아래 설명된 절차를 사용하십시오.
각 활성/잠재적 메타데이터 서버 호스트에서 서버 및 호스트 통신을 필요한 방식으로 라우팅하도록 공유 파일 시스템에 대한 전역 hosts 파일을 편집합니다.
이 절의 예제에서는 공유 파일 시스템 sharefs2nic
에 활성 메타데이터 서버sharefs2-mds
와 잠재적 메타데이터 서버 sharefs2-mds_alt
가 각각 두 네트워크 인터페이스로 포함됩니다. 두 개의 클라이언트 sharefs2-client1
및 sharefs2-client2
도 있습니다.
활성/잠재적 메타데이터 서버에서 개인 네트워크 주소를 통해 서로 통신하고, DNS(도메인 이름 서비스)가 공용 LAN(근거리 통신망) 주소로 분석할 수 있는 호스트 이름을 통해 클라이언트와 통신하려고 합니다.
따라서 파일 시스템의 전역 hosts 파일인 /etc/opt/SUNWsamfs/hosts.sharefs2
를 편집합니다. 활성/잠재적 서버에 대한 개인 네트워크 인터페이스 주소를 지정합니다. 그러나 클라이언트의 경우 주소 대신 호스트 이름을 지정합니다.
[sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2 # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 sharefs2-client1 sharefs2-client1 0 0 sharefs2-client2 sharefs2-client2 0 0 :wq [sharefs2-mds]root@solaris:~#
각 활성/잠재적 메타데이터 서버에서 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
을 사용하여 로컬 hosts 파일을 만듭니다. 여기서 family-set-name
은 공유 파일 시스템의 장비 식별자입니다. 활성/잠재적 서버에서 사용할 네트워크 인터페이스만 포함하십시오.
예제에서는 활성/잠재적 메타데이터 서버에서 개인 네트워크를 통해 서로 통신하므로 각 서버의 로컬 hosts 파일인 hosts.sharefs2.local
에 두 호스트인 활성/잠재적 메타데이터 서버의 개인 주소만 나열됩니다.
[sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 on sharefs2-mds # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt Password:
[sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-mds_alt # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds_alt]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
각 클라이언트에서 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
을 사용하여 로컬 호스트 파일을 만듭니다. 여기서 family-set-name
은 공유 파일 시스템의 장비 식별자입니다. 클라이언트에서 사용할 네트워크 인터페이스만 포함하십시오.
예제에서는 클라이언트가 공용 네트워크를 통해서만 서버와 통신합니다. 따라서 파일에는 두 호스트인 활성/잠재적 메타데이터 서버의 호스트 이름만 포함됩니다.
[sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1 Password: [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client1 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client1]root@solaris:~# exit [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2 Password:
[sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client2]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
서버 구성을 마치는 동안 이 절차를 시작한 경우 활성 서버에서 공유 파일 시스템 마운트로 이동합니다.
클라이언트를 구성하는 동안 이 절차를 시작한 경우 지금 Solaris 클라이언트에서 공유 파일 시스템 마운트해야 합니다.
아카이빙 Oracle HSM 공유 파일 시스템에 대한 아카이브 스토리지를 설정하려면 다음 작업을 수행합니다.
공유 아카이빙 파일 시스템에서 모든 잠재적 메타데이터 서버는 라이브러리 및 테이프 드라이브에 대한 액세스 권한이 있어야 합니다. 공유 아카이브 파일 시스템의 호스트 전체로 테이프 I/O 분산을 결정할 경우 하나 이상의 클라이언트도 드라이브에 액세스해야 합니다. 따라서 각 드라이브를 일관된 방법으로 처리하도록 각 호스트를 구성해야 합니다.
Solaris 운영체제는 시작 시 장치를 발견한 순서대로 시스템 장치 트리에 드라이브를 연결합니다. 이 순서는 다른 파일 시스템 호스트에서 장치를 발견한 순서나 이동식 매체 라이브러리에 장치가 물리적으로 설치된 순서를 반영할 수도 있고 그렇지 않을 수도 있습니다. 따라서 다른 호스트에 바인드된 것과 동일한 방법과 이동식 매체 라이브러리에 설치된 것과 동일한 순서로 각 호스트에 장치를 지속적으로 바인드해야 합니다.
아래 절차는 필요한 단계를 간략히 설명합니다. 지속 바인딩을 만드는 방법에 대한 자세한 내용은 Solaris devfsadm
및 devlinks
매뉴얼 페이지와 사용하는 Solaris 운영체제 버전의 관리 설명서를 참조하십시오.
활성 메타데이터 서버에 root
로 로그인합니다.
[sharefs-mds]root@solaris:~#
현재 라이브러리에 있는 드라이브의 물리적 순서를 모를 경우 라이브러리에 드라이브가 설치되는 순서 결정에 설명된 대로 매핑 파일을 만듭니다.
예제에서 device-mappings.txt
파일은 다음과 비슷합니다.
LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- -------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
테스트 편집기에서 /etc/devlink.tab
파일을 엽니다.
이 예에서는 vi
편집기를 사용합니다.
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. # This is the table used by devlinks # Each entry should have 2 fields; but may have 3. Fields are separated # by single tab ('\t') characters. ...
device-mappings.txt
파일을 길잡이로 삼아 /etc/devlink.tab
파일에 행을 추가하여 Solaris 테이프 장치 트리의 시작 노드 rmt/
node-number
를 라이브러리의 첫번째 드라이브에 재매핑합니다. type=ddi_byte:tape;
addr=
device_address
,0;
rmt/
node-number
\M0
형식으로 라인을 입력합니다. 여기서 device_address
는 장치의 물리적 주소이고 node-number
는 Solaris 장치 트리에서 Solaris가 자동으로 구성하는 모든 장치와 충돌을 피하기에 충분히 높은 위치입니다(Solaris는 0
노드부터 시작됨).
예제에서 라이브러리의 첫번째 장치 1
에 대한 장치 주소는 w500104f0008120fe
입니다. 장치가 현재 rmt/1
의 호스트에 연결되어 있습니다.
[sharefs-mds] vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ----------- --------------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
따라서 충돌하지 않는 노드 rmt/60
을 라이브러리의 번호 1
드라이브 w500104f0008120fe
에 재매핑하는 라인을 /etc/devlink.tab
에 만듭니다.
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 :w
Oracle HSM 아카이빙을 위해 지정된 각 테이프 장치마다 /etc/devlink.tab
파일에 행을 계속 추가합니다. 메타데이터 서버의 장치 트리의 드라이브 순서가 라이브러리의 설치 순서와 일치하도록 합니다. 파일을 저장합니다.
예제에서는 세 개의 남은 장치의 순서와 주소로 라이브러리 드라이브 2
가 w500104f00093c438
에, 라이브러리 드라이브 3
이 w500104f000c086e1
에, 라이브러리 드라이브 4
가 w500104f000c086e1
에 있습니다.
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt ... 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
그런 후에 라이브러리와 동일한 순서를 유지하여 다음 세 개의 Solaris 장치 노드(rmt/61
, rmt/62
및 rmt/63
)에 장치 주소를 매핑합니다.
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds]root@solaris:~#
/dev/rmt
의 테이프 장치에 대한 기존 링크를 모두 삭제합니다.
[sharefs-mds]root@solaris:~# rm /dev/rmt/*
/etc/devlink.tab
파일의 항목으로부터 새로운 지속 테이프 장치 링크를 만듭니다. devfsadm -c tape
명령을 사용합니다.
devfsadm
명령을 실행할 때마다 /etc/devlink.tab
파일에 지정된 구성을 사용하여 파일에 지정된 장치에 대해 새 테이프 장치 링크를 만듭니다. -c tape
옵션은 테이프 종류의 장치에만 새 링크를 만들도록 명령을 제한합니다.
[sharefs-mds]root@solaris:~# devfsadm -c tape
공유 파일 시스템 구성의 각 잠재적 메타데이터 서버 및 datamover에 동일한 지속 테이프 장치 링크를 만듭니다. /etc/devlink.tab
파일에 동일한 라인을 추가하고 /dev/rmt
에서 링크를 삭제한 다음 devfsadm
-c
tape
를 실행합니다.
예제에는 잠재적 메타데이터 서버 sharefs-mds_alt
와 datamover 클라이언트 sharefs-client1
이 있습니다. 각 위치의 /etc/devlink.tab
파일을 활성 서버 sharefs-mds
의 해당 파일과 일치하도록 편집합니다. 그런 다음 sharefs-mds_alt
및 sharefs-client1
의 /dev/rmt
에서 기존 링크를 삭제하고 각각에 대해 devfsadm
-c
tape
를 실행합니다.
[sharefs-mds]root@solaris:~# ssh sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* [sharefs-mds_alt]root@solaris:~# devfsadm -c tape [sharefs-mds_alt]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh sharefs-client1 Password: [sharefs-client1]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-client1]root@solaris:~# rm /dev/rmt/* [sharefs-client1]root@solaris:~# devfsadm -c tape [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~#
이제 아카이브 스토리지를 사용하도록 아카이빙 파일 시스템의 호스트 구성을 수행합니다.
활성 메타데이터 서버와 각 잠재적 메타데이터 서버 및 datamover 클라이언트에 대해 다음과 같이 하십시오.
호스트에 root
로 로그인합니다.
[sharefs-host]root@solaris:~#
/etc/opt/SUNWsamfs/mcf
파일을 텍스트 편집기에서 엽니다.
예제에서는 vi
편집기를 사용합니다.
[sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf sharefs 100 ms sharefs on /dev/dsk/c1t3d0s3 101 md sharefs on /dev/dsk/c1t3d0s4 102 md sharefs on ...
/etc/opt/SUNWsamfs/mcf
파일의 파일 시스템 정의에 따라 아카이브 스토리지 장비 섹션을 시작합니다.
예제에서는 명확성을 위해 일부 머리글을 추가합니다.
[sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf ... # Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ----------------
아카이브 테이프 스토리지를 추가하려면 라이브러리에 대한 항목을 추가하는 것부터 시작합니다. 장비 식별자 필드에 라이브러리에 대한 장치 ID를 입력하고 장비 순서 번호를 지정합니다.
이 예제에서는 라이브러리 장비 식별자가 /dev/scsi/changer/c1t0d5
입니다. 디스크 아카이브에 대한 선택한 범위 다음에 장비 순서 번호를 900
으로 설정합니다.
# Archival storage for copies:
#
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#----------------------- --------- --------- --------- ------ ----------------
/dev/scsi/changer/c1t0d5 900
장비 유형을 일반 SCSI 연결 테이프 라이브러리인 rb
로 설정하고 테이프 라이브러리 패밀리 세트의 이름을 제공한 다음 장치 상태를 on
으로 설정합니다.
이 예제에서는 library1
라이브러리를 사용합니다.
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ---------------- /dev/scsi/changer/c1t0d5 900 rb library1 on
Additional Parameters
열에서 라이브러리 카탈로그에 대한 선택적 사용자 정의 경로와 이름을 입력할 수 있습니다.
기본 경로가 아닌 선택적 경로는 127자를 초과할 수 없습니다. 예제에서는 기본 경로인 var/opt/SUNWsamfs/catalog/
를 사용자 정의 카탈로그 파일 이름인 library1cat
와 함께 사용합니다. 문서 레이아웃 제한 때문에 예제에서는 다음과 같이 경로를 축약합니다.
# Archival storage for copies:
#
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#----------------------- --------- --------- --------- ------ ----------------
/dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat
다음에는 각 테이프 드라이브에 대한 항목을 추가합니다. 지속 바인딩을 사용하여 서버 및 Datamover 호스트에 테이프 드라이브 연결 절차에서 설정한 지속 장비 식별자를 사용합니다.
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- -------- ------ ----------------- DISKVOL1 800 ms DISKVOL1 on /dev/dsk/c6t0d1s7 801 md DISKVOL1 on /dev/dsk/c4t0d2s7 802 md DISKVOL1 on /dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat /dev/rmt/60cbn 901 tp library1 on /dev/rmt/61cbn 902 tp library1 on /dev/rmt/62cbn 903 tp library1 on /dev/rmt/63cbn 904 tp library1 on
끝으로, Oracle HSM 내역기를 직접 구성하려는 경우 장비 유형 hy
를 사용하여 항목을 추가합니다. family-set 및 device-state 열에 하이픈을 입력하고 additional-parameters 열에 내역기 카탈로그 경로를 입력합니다.
내역기는 아카이브에서 내보낸 볼륨을 카탈로그화하는 가상 라이브러리입니다. 내역기를 구성하지 않을 경우 소프트웨어는 지정된 가장 높은 장비 순서 번호에 1을 더하여 내역기를 자동으로 만듭니다.
예제에서는 page-layout 이유에 대한 내역기 카탈로그 경로를 약어로 표시합니다. 전체 경로는 /var/opt/SUNWsamfs/catalog/historian_cat
입니다.
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ---------------- /dev/scsi/changer/c1t0d5 900 rb library1 on ...catalog/library1cat /dev/rmt/60cbn 901 tp library1 on /dev/rmt/61cbn 902 tp library1 on /dev/rmt/62cbn 903 tp library1 on /dev/rmt/63cbn 904 tp library1 on historian 999 hy - - .../historian_cat
mcf
파일을 저장하고 편집기를 닫습니다.
...
/dev/rmt/3cbn 904 tp library1 on
historian 999 hy - - .../historian_cat
:wq
[sharefs-host]root@solaris:~#
sam-fsd
명령을 실행하여 mcf
파일에서 오류를 확인합니다. 발견된 모든 오류를 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 오류가 발견되면 실행을 중지합니다.
[sharefs-host]root@solaris:~# sam-fsd
...
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[sharefs-host]root@solaris:~#
Oracle HSM 서비스에 mcf
파일을 다시 읽고 그에 따라 재구성하도록 지시합니다. 보고된 모든 오류를 수정하고 필요에 따라 반복합니다.
[sharefs-host]root@solaris:~# samd config Configuring SAM-FS [sharefs-host]root@solaris:~#
모든 활성 및 잠재적 메타데이터 서버와 모든 datamover 클라이언트가 아카이브 스토리지를 사용하도록 구성될 때까지 이 절차를 반복합니다.
필요한 경우 공유 아카이브 파일 시스템의 호스트 전체로 테이프 I/O 분산을 수행합니다.
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.
Oracle HSM 릴리스 6.1부터 Oracle Solaris 11 이상에서 실행되는 공유 아카이빙 파일 시스템의 클라이언트에 테이프 드라이브를 연결하여 파일 시스템 대신 테이프 I/O를 수행할 수 있습니다. 이러한 datamover 호스트에 걸쳐 테이프 I/O를 분산시키면 서버 오버헤드가 크게 감소하고, 파일 시스템 성능이 향상되고, Oracle HSM 구현을 확장할 때 유연성이 증대됩니다. 사용자의 아카이빙 수요가 증가함에 따라 이제 Oracle HSM 메타데이터 서버를 더 강력한 시스템으로 교체하거나(수직적 확장) 더 많은 클라이언트에 걸쳐 로드를 분산시킬 수 있습니다(수평적 확장).
공유 파일 시스템 호스트 전체로 테이프 I/O를 분산시키려면 다음과 같이 하십시오.
분산된 I/O에 사용될 모든 장치를 파일 시스템 메타데이터 서버와 테이프 I/O를 처리할 모든 파일 시스템 클라이언트에 연결합니다.
아직 수행하지 않은 경우 지속 바인딩을 사용하여 Datamover로 동작할 각 클라이언트에 테이프 드라이브 연결을 수행합니다. 그런 다음 여기로 돌아옵니다.
공유 아카이빙 파일 시스템의 메타데이터 서버에 root
로 로그인합니다.
예제에서 서버의 호스트 이름은 samsharefs-mds
입니다.
[samsharefs-mds]root@solaris:~#
메타데이터 서버가 Oracle Solaris 11 이상을 실행 중인지 확인합니다.
[samsharefs-mds]root@solaris:~# uname -r 5.11 [samsharefs-mds]root@solaris:~#
datamover로 작동할 모든 클라이언트가 Oracle Solaris 11 이상을 실행 중인지 확인합니다.
예제에서는 ssh
를 사용하여 원격으로 클라이언트 호스트 samsharefs-client1
및 samsharefs-client2
에 로그인하고 로그인 배너에서 Solaris 버전을 얻습니다.
[samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client1]root@solaris:~# exit [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client2]root@solaris:~# exit [samsharefs-mds]root@solaris:~#
분산된 I/O 구성에서 각 테이프 드라이브에 대한 버퍼 공간으로 할당할 수 있는 시스템 메모리의 용량을 계산합니다. 총 사용 가능한 메모리를 드라이브 수로 나누고 안심할 수 있는 여유분을 뺍니다.
(total-memory bytes)/(drive-count drives) = memory bytes/drive (memory bytes/drive) - (safe-margin bytes/drive) = buffsize bytes/drive
Oracle HSM에서는 사용되는 각 드라이브에 대해 버퍼를 할당합니다. 따라서 시스템 메모리가 제공할 수 있는 것보다 많은 버퍼 공간을 실수로 구성하지 않도록 하십시오. 예제에서는 드라이브당 224KB 이하를 할당할 수 있음을 알 수 있습니다. 따라서 안심할 수 있는 여유분을 확보하기 위해 128로 줄입니다.
((3584 kilobytes)/(16 drives)) = 224 kilobytes/drive
buffsize = 128 kilobytes/drive
각 드라이브에 할당할 수 있는 버퍼의 크기를 계산했으면 지정된 크기의 버퍼에 맞는 Oracle HSM 장치 블록 크기 및 블록 수를 계산합니다.
(number blocks/buffer)*block-size bytes/block/drive = buffersize bytes/drive
블록 수와 블록 크기의 곱이 계산된 버퍼 크기보다 작거나 같을 때까지 조정합니다. 블록 수는 [2-8192]
범위에 있어야 합니다. 예제에서는 버퍼당 각각 64KB의 블록 2개로 결정합니다.
(2 blocks/buffer)*(64 kilobytes/block/drive) = 128 kilobytes/drive
메타데이터 서버에서 /etc/opt/SUNWsamfs/archiver.cmd
파일을 텍스트 편집기로 엽니다. 파일의 위쪽에 있는 일반 지시어 섹션의 새 라인에서 bufsize =
media-type
media-blocks
를 입력합니다. 여기서,
media-type
은 mcf
파일이 분산된 I/O에 사용되는 드라이브 및 매체에 지정하는 유형 코드입니다.
media-blocks
는 위에서 계산한 버퍼당 블록 수입니다.
파일을 저장하고 편집기를 닫습니다.
예제에서는 samsharefs-mds
서버에 로그인하고 vi
편집기를 사용하여 bufsize
=
ti
2
라인을 추가합니다. 여기서 ti
는 사용 중인 Oracle StorageTek T10000 드라이브에 대한 매체 유형이고 2
는 계산된 드라이브 버퍼당 블록 수입니다.
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd # archiver.cmd #----------------------------------------------------------------------- # General Directives archivemeta = off examine = noscan bufsize = ti 2 :wq [samsharefs-mds]root@solaris:~#
메타데이터 서버에서 /etc/opt/SUNWsamfs/defaults.conf
파일을 텍스트 편집기로 엽니다. 분산된 I/O에 참여할 각 매체 유형에 대해 media-type
_blksize =
size
형식의 라인을 입력합니다. 여기서,
media-type
은 mcf
파일이 분산된 I/O에 사용되는 드라이브 및 매체에 지정하는 유형 코드입니다.
size
는 이 절차의 앞에서 계산한 블록 크기입니다.
기본적으로 StorageTek T10000 드라이브에 대한 장치 블록 크기는 2MB 또는 2048KB(ti_blksize = 2048
)입니다. 따라서 예제에서는 기본값을 계산된 블록 크기인 64KB로 대체합니다.
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. ... #li_blksize = 256 ti_blksize = 64 [samsharefs-mds]root@solaris:~#
/etc/opt/SUNWsamfs/defaults.conf
파일에서는 필요한 경우 #distio = off
라인의 주석 처리를 해제하거나 없는 경우 이 라인을 추가합니다.
기본적으로 distio
는 off
(사용 안함)입니다. 예제에서는 distio = on
라인을 추가합니다.
...
distio = on
/etc/opt/SUNWsamfs/defaults.conf
파일에서는 분산된 I/O에 참여해야 하는 각 장치 유형을 사용으로 설정합니다. 새 라인에서 media-type
_distio = on
을 입력합니다. 여기서 media-type
은 mcf
파일이 드라이브 및 매체에 지정하는 유형 코드입니다.
기본적으로 StorageTek T10000 드라이브 및 LTO 드라이브는 분산 I/O 참여가 허용되며(ti_distio = on
및 li_distio = on
), 그 밖의 다른 유형은 제외됩니다. 예제에서는 StorageTek T10000 드라이브를 명시적으로 포함시킵니다.
...
distio = on
ti_distio = on
/etc/opt/SUNWsamfs/defaults.conf
파일에서는 분산된 I/O에 참여하지 않아야 하는 각 장치 유형을 사용 안함으로 설정합니다. 새 라인에서 media-type
_distio = off
를 입력합니다. 여기서 media-type
은 mcf
파일이 드라이브 및 매체에 지정하는 유형 코드입니다.
예제에서는 LTO 드라이브를 제외합니다.
...
distio = on
ti_distio = on
li_distio = off
/etc/opt/SUNWsamfs/defaults.conf
파일 편집을 마쳤으면 파일 내용을 저장하고 편집기를 닫습니다.
...
distio = on
ti_distio = on
li_distio = off
:wq
[samsharefs-mds]root@solaris:~#
datamover로 작동할 각 클라이언트에서 defaults.conf
파일을 편집하여 서버의 파일과 일치하도록 합니다.
datamover 역할을 할 각 클라이언트에서 /etc/opt/SUNWsamfs/mcf
파일을 텍스트 편집기에서 열고 메타데이터 서버에서 분산된 테이프 I/O에 사용 중인 모든 테이프 장치를 포함하도록 파일을 업데이트합니다. 장치 순서 및 장비 번호가 메타데이터 서버의 mcf
파일과 동일한지 확인합니다.
예제에서는 vi
편집기를 사용하여 samsharefs-client1
호스트에서 mcf
파일을 구성합니다.
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti on /dev/rmt/61cbn 902 ti on /dev/rmt/62cbn 903 ti on /dev/rmt/63cbn 904 ti on
메타데이터 서버의 /etc/opt/SUNWsamfs/mcf
파일에 나열된 테이프 라이브러리가 datamover로 작동할 클라이언트에 구성된 경우, 분산 테이프 I/O에 사용 중인 테이프 장치의 패밀리 세트 이름으로 라이브러리 패밀리 세트를 지정합니다. 파일을 저장합니다.
예제에서는 라이브러리가 samsharefs-client1
호스트에서 구성되었으므로, 테이프 장치에 대해 패밀리 세트 이름 library1
을 사용합니다.
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat /dev/rmt/60cbn 901 ti library1 on /dev/rmt/61cbn 902 ti library1 on /dev/rmt/62cbn 903 ti library1 on /dev/rmt/63cbn 904 ti library1 on :wq [samsharefs-client1]root@solaris:~#
메타데이터 서버의 /etc/opt/SUNWsamfs/mcf
파일에 나열된 테이프 라이브러리가 datamover로 작동할 클라이언트에 구성되지 않은 경우, 분산 테이프 I/O에 사용 중인 테이프 장치의 패밀리 세트 이름으로 하이픈(-
)을 사용합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
예제에서는 라이브러리가 samsharefs-client2
호스트에 구성되어 있지 않으므로, 테이프 장치에 대한 패밀리 세트 이름으로 하이픈을 사용합니다.
[samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti - on /dev/rmt/61cbn 902 ti - on /dev/rmt/62cbn 903 ti - on /dev/rmt/63cbn 904 ti - on :wq [samsharefs-client2]root@solaris:~#
특정 아카이브 세트 복사본에 대해 분산된 테이프 I/O를 사용 또는 사용 안함으로 설정해야 하는 경우 텍스트 편집기에서 /etc/opt/SUNWsamfs/archiver.cmd
파일을 열고 copy 지시어에 -distio
매개변수를 추가합니다. 분산된 I/O를 사용으로 설정하려면 -distio
on
을 설정하고, 사용 안함으로 설정하려면 -distio
off
로 설정합니다. 파일을 저장합니다.
예제에서는 samsharefs-mds
서버에 로그인하고 vi
편집기를 사용하여 복사본 1
에 대해 분산된 I/O off
를 설정합니다.
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd # archiver.cmd ... params allsets -sort path -offline_copy stageahead allfiles.1 -startage 10m -startsize 500M -startcount 500000 -distio off allfiles.2 -startage 24h -startsize 20G -startcount 500000 -reserve set :wq [samsharefs-mds]root@solaris:~#
sam-fsd
명령을 실행하여 구성 파일에 오류가 있는지 확인합니다. 발견된 모든 오류를 수정합니다.
sam-fsd
명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 sharefs-mds
서버에서 명령을 실행합니다.
[sharefs-mds]root@solaris:~# sam-fsd
Oracle HSM 서비스에 수정된 구성 파일을 읽고 그에 따라 재구성하도록 지시합니다. 보고된 모든 오류를 수정하고 필요에 따라 반복합니다.
[sharefs-mds]root@solaris:~# samd config
분산된 I/O가 성공적으로 활성화되었는지 확인하려면 samcmd
g
명령을 사용합니다. DATAMOVER
플래그가 클라이언트에 대한 출력에 표시되면 분산된 I/O가 성공적으로 활성화된 것입니다.
예제에서는 플래그가 표시됩니다.
[samsharefs-mds]root@solaris:~# samcmd g Shared clients samcmd 6.0.dist_tapeio 11:09:13 Feb 20 2014 samcmd on samsharefs-mds samsharefs is shared, server is samsharefs-mds, 2 clients 3 max ord hostname seqno nomsgs status config conf1 flags 1 samsharefs-mds 14 0 8091 808540d 4051 0 MNT SVR config : CDEVID ARCHIVE_SCAN GFSID OLD_ARCHIVE_FMT " : SYNC_META TRACE SAM_ENABLED SHARED_MO config1 : NFSV4_ACL MD_DEVICES SMALL_DAUS SHARED_FS flags : status : MOUNTED SERVER SAM DATAMOVER last_msg : Wed Jul 2 10:13:50 2014 2 samsharefs-client1 127 0 a0a1 808540d 4041 0 MNT CLI config : CDEVID ARCHIVE_SCAN GFSID OLD_ARCHIVE_FMT " : SYNC_META TRACE SAM_ENABLED SHARED_MO config1 : NFSV4_ACL MD_DEVICES SHARED_FS flags : status : MOUNTED CLIENT SAM SRVR_BYTEREV " : DATAMOVER ...
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.
네트워크 파일 시스템(NFS) 또는 SMB(Server Message Block)/CIFS(Common Internet File System) 공유를 multiple-host file-system 액세스에 대한 Oracle HSM 소프트웨어의 고유 지원 대신 또는 고유 지원과 함께 사용하여 여러 호스트에서 Oracle HSM 파일 시스템에 액세스할 수 있습니다(Oracle HSM 소프트웨어를 사용하여 여러 호스트에서 파일 시스템 액세스 참조). 다음 절에서는 기본 구성 단계를 간략히 설명합니다.
다음 작업을 수행합니다.
NFS를 사용하여 Oracle HSM 공유 파일 시스템을 공유할 경우 Oracle HSM 소프트웨어에서 NFS와 간섭하지 않고 파일에 대한 액세스를 제어하는지 확인해야 합니다. NFS 서버에서 클라이언트를 대신하여 파일에 액세스하는 경우에는 Oracle HSM 공유 파일 시스템의 클라이언트로 액세스하기 때문에 이는 일반적으로 문제가 되지 않습니다. 하지만 클라이언트에 대한 읽기 및 쓰기 권한에 대한 제어를 위임하도록 NFS 버전 4 서버를 구성한 경우에는 문제가 발생할 수 있습니다. 서버는 잠재적 충돌을 차단하기 위해서만 작업에 영향을 주면 되므로 위임은 매력적인 기능입니다. 서버의 작업 로드가 NFS 클라이언트 전체에 부분적으로 분산되므로 네트워크 트래픽이 감소합니다. 하지만 위임은 Oracle HSM 서버와 별개로 액세스 권한(특히, 쓰기 권한)을 부여하며, 자체 공유 파일 시스템 클라이언트에서의 액세스도 제어합니다. 충돌과 잠재적 파일 손상을 방지하려면 위임을 사용 안함으로 설정해야 합니다. 다음과 같이 하십시오.
NFS 공유로 구성하려는 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root
로 로그인합니다.
파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서는 서버 이름이 qfsnfs
입니다.
[qfsnfs]root@solaris:~#
NFS 버전 4를 사용 중이고 NFS 서버에서 Solaris 11.1 이상을 실행하는 경우 SMF(서비스 관리 기능)의 sharectl
set
-p
명령을 사용하여 NFS server_delegation
등록 정보를 off
로 설정합니다.
[qfsnfs]root@solaris:~# sharectl set -p server_delegation=off
NFS 버전 4를 사용하고 있고 NFS 서버에서 Solaris 11.0 이전 버전을 실행하는 경우 텍스트 편집기에서 /etc/default/nfs
파일을 열고 NFS_SERVER_DELEGATION
매개변수를 off
로 설정하여 위임을 사용 안함으로 설정합니다. 파일을 저장하고 편집기를 닫습니다.
이 예에서는 vi
편집기를 사용합니다.
[qfsnfs]root@solaris:~# vi /etc/default/nfs # ident "@(#)nfs 1.10 04/09/01 SMI" # Copyright 2004 Sun Microsystems, Inc. All rights reserved. # Use is subject to license terms. ... NFS_SERVER_DELEGATION=off :wq [qfsnfs]root@solaris:~#
공유하려는 Oracle HSM 파일 시스템에서 WORM(Write-Once Read-Many) 기능을 지원하는 경우 지금 WORM 파일과 디렉토리를 공유하도록 NFS 서버 및 클라이언트 구성을 수행합니다.
그렇지 않은 경우 Oracle HSM 호스트에서 NFS 서버 구성을 수행합니다.
NFS를 사용하여 공유할 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root
로 로그인합니다.
파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서 서버 이름은 qfsnfs
이고 클라이언트 이름은 nfsclient1
입니다.
[qfsnfs]root@solaris:~#
공유하려는 Oracle HSM 파일 시스템이 WORM 기능을 사용하고 Oracle Solaris 10 이상에서 실행 중인 서버에 호스팅된 경우 NFS 서버와 모든 클라이언트에서 NFS 버전 4가 사용으로 설정되어 있는지 확인합니다.
예제에서는 qfsnfs
서버와 nfsclient1
클라이언트를 확인합니다. 각 경우에 먼저 uname
-r
명령을 사용하여 Solaris 버전 레벨을 확인합니다. 그런 다음 modinfo
명령의 출력을 NFS 버전 정보를 찾는 정규 표현식 및 grep
에 연결합니다.
[qfsnfs]root@solaris:~# uname -r 5.11 [qfsnfs]root@solaris:~# modinfo | grep -i "nfs.* version 4" 258 7a600000 86cd0 28 1 nfs (network filesystem version 4) [qfsnfs]root@solaris:~# ssh root@nfsclient1 Pasword: ... [nfsclient1]root@solaris:~# uname -r 5.11 [nfsclient1]root@solaris:~# modinfo | grep -i "nfs.* version 4" 278 fffffffff8cba000 9df68 27 1 nfs (network filesystem version 4) [nfsclient1]root@solaris:~# exit [qfsnfs]root@solaris:~#
Oracle Solaris 10 이상에서 실행 중인 서버에서 NFS 버전 4를 사용으로 설정하지 않은 경우 서버와 각 클라이언트에 root
로 로그인합니다. 그런 다음 sharectl
set
명령을 사용하여 NFS 4를 사용으로 설정합니다.
[qfsnfs]root@solaris:~# sharectl set -p server_versmax=4 nfs [qfsnfs]root@solaris:~# ssh root@nfsclient1 Password ... [nfsclient1]root@solaris:~# sharectl set -p server_versmax=4 nfs [nfsclient1]root@solaris:~# exit [qfsnfs]root@solaris:~#
이제 Oracle HSM 호스트에서 NFS 서버 구성을 수행합니다.
클라이언트에서 NFS(네트워크 파일 시스템)를 사용하여 Oracle HSM 파일 시스템을 성공적으로 마운트하려면 파일 시스템이 호스트에 성공적으로 마운트되기 전에 Oracle HSM 파일 시스템을 공유하려고 시도하지 않도록 NFS 서버를 구성해야 합니다. Oracle Solaris 10 이상 버전의 운영체제에서는 SMF(서비스 관리 기능)에서 부트 시 파일 시스템 마운트를 관리합니다. 아래 절차를 사용하여 NFS를 구성하지 않은 경우 QFS 마운트 또는 NFS 공유 중 하나는 성공하고 하나는 실패합니다.
NFS 공유로 구성하려는 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root
로 로그인합니다.
파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서는 서버 이름이 qfsnfs
입니다.
[qfsnfs]root@solaris:~#
svccfg
export
/network/nfs/server
명령의 출력을 재지정하여 기존 NFS 구성을 XML 매니페스트 파일로 내보냅니다.
예제에서는 내보낸 구성을 매니페스트 파일 /var/tmp/server.xml
로 보냅니다.
[qfsnfs]root@solaris:~# svccfg export /network/nfs/server > /var/tmp/server.xml [qfsnfs]root@solaris:~#
텍스트 편집기에서 매니페스트 파일을 열고 filesystem-local
종속성을 찾습니다.
예제에서는 vi
편집기에서 파일을 엽니다. filesystem-local
종속성에 대한 항목은 종속 nfs-server_multi-user-server
에 종속 항목 바로 앞에 나열됩니다.
[qfsnfs]root@solaris:~# vi /var/tmp/server.xml <?xml version='1.0'?> <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'> <service_bundle type='manifest' name='export'> <service name='network/nfs/server' type='service' version='0'> ... <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/system/filesystem/local'/> </dependency> <dependent name='nfs-server_multi-user-server' restart_on='none' grouping='optional_all'> <service_fmri value='svc:/milestone/multi-user-server'/> </dependent> ...
filesystem-local
종속성 바로 뒤에 QFS 공유 파일 시스템을 마운트하는 qfs
종속성을 추가합니다. 그런 다음 파일을 저장하고 편집기를 종료합니다.
그러면 서버에서 NFS를 통해 공유하려고 시도하기 전에 Oracle HSM 공유 파일 시스템이 마운트됩니다.
<?xml version='1.0'?> <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'> <service_bundle type='manifest' name='export'> <service name='network/nfs/server' type='service' version='0'> ... <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/system/filesystem/local'/> </dependency> <dependency name='qfs' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/network/qfs/shared-mount:default'/> </dependency> <dependent name='nfs-server_multi-user-server' restart_on='none' grouping='optional_all'> <service_fmri value='svc:/milestone/multi-user-server'/> </dependent> :wq [qfsnfs]root@solaris:~#
svccfg
validate
명령을 사용하여 매니페스트 파일을 검증합니다.
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
svccfg
validate
명령이 오류를 보고하면 오류를 수정하고 파일을 다시 검증합니다.
예제에서 svccfg
validate
명령은 XML 구문 분석 오류를 반환합니다. 파일을 저장할 때 실수로 종료 태그 </dependency>
를 누락했습니다. 따라서 vi
편집기에서 파일을 다시 열고 문제를 해결합니다.
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml /var/tmp/server.xml:75: parser error : Opening and ending tag mismatch: dependency line 29 and service </service> ˆ /var/tmp/server.xml:76: parser error : expected '>' </service_bundle> ˆ /var/tmp/server.xml:77: parser error : Premature end of data in tag service_bundle line 3 ˆ svccfg: couldn't parse document [qfsnfs]root@solaris:~# vi /var/tmp/server.xml ... :wq [qfsnfs]root@solaris:~#
svccfg
validate
명령이 오류 없이 완료되는 경우 svcadm
disable
nfs/server
명령을 사용하여 NFS를 사용 안함으로 설정합니다.
예제에서는 svccfg
validate
명령이 출력을 반환하지 않았으므로, 파일이 유효하고 NFS를 사용 안함으로 설정할 수 있습니다.
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml [qfsnfs]root@solaris:~# svcadm disable nfs/server
svccfg
delete
nfs/server
명령을 사용하여 기존 NFS 서버 구성을 삭제합니다.
[qfsnfs]root@solaris:~# svccfg delete nfs/server
svccfg
import
명령을 사용하여 매니페스트 파일을 SMF(서비스 관리 기능)로 가져옵니다.
[qfsnfs]root@solaris:~# svccfg import /var/tmp/server.xml
svcadm
enable
nfs/server
명령을 사용하여 NFS를 다시 사용으로 설정합니다.
NFS가 업데이트된 구성을 사용하도록 구성됩니다.
[qfsnfs]root@solaris:~# svcadm enable nfs/server
qfs
종속성이 적용되었는지 확인합니다. svcs
-d
svc:/network/nfs/server:default
명령이 /network/qfs/shared-mount:default
서비스를 표시하는지 확인합니다.
[qfsnfs]root@solaris:~# svcs -d svc:/network/nfs/server:default STATE STIME FMRI ... online Nov_01 svc:/network/qfs/shared-mount:default ...
이제 NFS 공유로 Oracle HSM 파일 시스템 공유를 수행합니다.
Oracle Solaris 운영체제 버전의 관리 설명서에 설명된 절차를 사용하여 Oracle HSM 파일 시스템을 공유합니다. 아래 단계에서는 Solaris 11.1에 대한 절차를 요약합니다.
NFS를 사용하여 공유할 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root
로 로그인합니다.
파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서는 서버 이름이 qfsnfs
입니다.
[qfsnfs]root@solaris:~#
share
-F
nfs
-o
sharing-options
sharepath
명령줄을 입력합니다. 여기서 -F
스위치는 nfs
공유 프로토콜을 지정하고 sharepath
는 공유 리소스의 경로입니다. 선택적 -o
매개변수를 사용할 경우 sharing-options
는 다음 중 하나를 포함할 수 있습니다.
rw
는 모든 클라이언트에서 읽기 및 쓰기 권한으로 sharepath
를 사용할 수 있도록 지정합니다.
ro
는 모든 클라이언트에서 읽기 전용 권한으로 sharepath
를 사용할 수 있도록 지정합니다.
rw=
clients
는 공유에 액세스할 수 있는 하나 이상의 클라이언트를 콜론으로 구분한 목록인 clients
에서 읽기 및 쓰기 권한으로 sharepath
를 사용할 수 있도록 지정합니다.
ro=
clients
는 공유에 액세스할 수 있는 하나 이상의 클라이언트를 콜론으로 구분한 목록인 clients
에서 읽기 전용 권한으로 sharepath
를 사용할 수 있도록 지정합니다.
예제에서는 /qfsms
파일 시스템 읽기/쓰기를 nfsclient1
및 nfsclient2
클라이언트와 공유하고 읽기 전용을 nfsclient3
과 공유합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시로 이스케이프됨).
[qfsnfs]root@solaris:~# share -F nfs -o rw=nfsclient1:nfsclient2 \ ro=nfsclient3 /qfsms
명령을 입력하면 시스템에서 NFS 서버 데몬 nfsd
를 자동으로 다시 시작합니다. 추가 옵션과 자세한 내용은 share_nfs
매뉴얼 페이지를 참조하십시오.
share
-F
nfs
명령줄을 사용하여 공유 매개변수를 확인합니다.
예제에서 명령 출력은 공유를 올바르게 구성했음을 보여 줍니다.
[qfsnfs]root@solaris:~# share -F nfs /qfsms sec=sys,rw=nfsclient1:nfsclient2,ro=nfsclient3 [qfsnfs]root@solaris:~#
이제 NFS 클라이언트에서 NFS 공유 Oracle HSM 파일 시스템 마운트를 수행합니다.
클라이언트 시스템의 편리한 마운트 지점에 NFS 서버의 파일 시스템을 마운트합니다. 각 클라이언트에 대해 다음과 같이 하십시오.
클라이언트에 root
로 로그인합니다.
예제에서 NFS 클라이언트의 이름은 nfsclient1
로 지정됩니다.
[nfsclient1]root@solaris:~#
운영체제의 /etc/vfstab
파일을 백업합니다.
[nfsclient1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [nfsclient1]root@solaris:~#
텍스트 편집기에서 /etc/vfstab
파일을 엽니다.
예제에서는 vi
편집기를 사용합니다.
[nfsclient1]root@solaris:~# vi /etc/vfstab #File Device Mount #Device to Mount System fsck at Mount #to Mount fsck Point Type Pass Boot Options #------------ ------ --------- ------ ---- ----- ---------------- /devices - /devices devfs - no - ...
/etc/vfstab
파일의 첫번째 열에서 NFS 서버의 이름과 공유할 파일 시스템의 마운트 지점을 콜론으로 구분하여 지정하여 파일 장치의 이름을 지정합니다.
예제에서 NFS 서버의 이름은 qfsnfs
로 지정되고, 공유 파일 시스템의 이름은 qfsms
로 지정되고, 서버의 마운트 지점은 /qfsms
입니다.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms
로컬 시스템에서 원격 파일 시스템의 일관성 검사를 시도하지 않도록 /etc/vfstab
파일의 두번째 열에 하이픈(-
)을 입력합니다.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms -
/etc/vfstab
파일의 세번째 열에 원격 파일 시스템을 마운트할 로컬 마운트 지점을 입력합니다.
예제에서 마운트 지점은 /qfsnfs
디렉토리입니다.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs
/etc/vfstab
파일의 네번째 열에 파일 시스템 유형 nfs
를 입력합니다.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs
클라이언트에서는 원격 QFS 파일 시스템을 NFS 파일 시스템으로 마운트하므로 nfs
파일 시스템 유형을 사용합니다.
로컬 시스템에서는 원격 파일 시스템의 일관성을 검사하지 않으므로, /etc/vfstab
파일의 다섯번째 열에 하이픈(-
)을 입력합니다.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs -
/etc/vfstab
파일의 여섯번째 열에는 부트 시 원격 파일 시스템을 마운트하려면 yes
를 입력하고, 요구 시 수동으로 마운트하려면 no
를 입력합니다.
예제에서는 yes
를 입력합니다.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes
/etc/vfstab
파일의 마지막 열에서 hard
및 intr
NFS 마운트 옵션을 입력하여 중단할 수 없는 무제한 재시도를 적용하거나, soft
, retrans
및 timeo
마운트 옵션을 입력하고 retrans
를 120
이상으로 설정하고 timeo
를 1초의 3000
/10으로 설정하여 지정된 재시도 횟수를 설정합니다.
hard
재시도 옵션을 설정하거나, 긴 시간 초과 값과 충분한 재시도 횟수로 soft
옵션을 지정하면 요청된 파일이 즉시 마운트할 수 없는 이동식 볼륨에 있는 경우에도 NFS 요청이 실패하지 않습니다. 이러한 마운트 옵션에 대한 자세한 내용은 Solaris mount_nfs
매뉴얼 페이지를 참조하십시오.
예제에서는 soft
마운트 옵션을 입력합니다.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes soft,retrans=120,timeo=3000
NFS 2를 사용 중인 경우 rsize
마운트 매개변수를 32768
로 설정합니다.
다른 NFS 버전인 경우 기본값을 사용합니다.
rsize
마운트 매개변수는 읽기 버퍼 크기를 32768
바이트(기본값: 8192
바이트)로 설정합니다. 예제에서는 NFS 2 구성을 보여줍니다.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs2:/qfs2 - /qfsnfs2 nfs - yes ...,rsize=32768
NFS 2를 사용 중인 경우 wsize
마운트 매개변수를 32768
로 설정합니다.
다른 NFS 버전인 경우 기본값을 사용합니다.
wsize
마운트 매개변수는 쓰기 버퍼 크기를 지정된 바이트 수(기본값: 8192
바이트)로 설정합니다. 예제에서는 NFS 2 구성을 보여줍니다.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs2:/qfs2 - /qfsnfs2 nfs - yes ...,wsize=32768
/etc/vfstab
파일을 저장하고 편집기를 종료합니다.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes soft,retrans=120,timeo=3000
:wq
[nfsclient1]root@solaris:~#
공유 파일 시스템에 대한 마운트 지점 디렉토리를 만듭니다.
예제에서는 /qfsnfs
디렉토리에 공유 파일 시스템을 마운트합니다.
[nfsclient1]root@solaris:~# mkdir /qfsnfs [nfsclient1]root@solaris:~#
/etc/vfstab
파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.
사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x
) 권한이 있어야 합니다. 예제에서는 /qfsnfs
마운트 지점 디렉토리를 만들고 755
(-rwxr-xr-x
)로 권한을 설정합니다.
[nfsclient1]root@solaris:~# mkdir /qfsnfs [nfsclient1]root@solaris:~# chmod 755 /qfsnfs [nfsclient1]root@solaris:~#
공유 파일 시스템을 마운트합니다.
[nfsclient1]root@solaris:~# mount /qfsnfs [nfsclient1]root@solaris:~#
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.
SMB는 Oracle HSM을 Microsoft Windows 호스트에서 액세스할 수 있도록 만들고 대소문자 구분 사용 안함, DOS 속성 지원, NFSv4 ACL(액세스 제어 목록) 지원 등과 같은 상호 운용성 기능을 제공합니다. Oracle Solaris OS는 NT LM 0.12 및 CIFS(Common Internet File System)를 비롯하여 여러 SMB 언어에 대한 지원을 포함한 SMB(Server Message Block) 프로토콜 서버 및 클라이언트 구현을 제공합니다.
Oracle HSM은 Windows SID(보안 식별자)를 지원합니다. Windows ID는 더 이상 idmap
서비스를 사용하여 명시적으로 정의하거나 Active Directory 서비스에서 제공할 필요가 없습니다.
Oracle HSM 파일 시스템을 사용하여 SMB 서비스를 구성하려면 다음 작업을 수행합니다.
아래 절에서는 Oracle HSM 파일 시스템에 적용되는 SMB 구성 프로세스 부분에 대해 간략히 설명합니다. 자세한 설명이나 일부 시나리오에 대해서는 다루지 않습니다. 따라서 Oracle Solaris SMB 서버 구성, 기존 Windows 환경에 서버 통합, Solaris 시스템에 SMB 공유 마운트 등에 대한 전체 지침을 검토하십시오. 전체 지침은 Oracle Solaris Information Library의 Managing SMB and Windows Interoperability in Oracle Solaris 볼륨에서 확인할 수 있습니다.
이제 Oracle HSM는 Windows SID(보안 식별자)를 완벽하게 지원하지만, UNIX ID와 SID 사이의 관계를 명시적으로 정의하면 유용한 경우도 있습니다. 예를 들어 사용자가 UNIX ID와 Windows ID를 모두 사용하는 유형이 다른 환경에서 idmap
서비스 또는 Active Directory 서비스를 사용하여 명시적 매핑을 만들 수도 있습니다. SMB 및 Windows 상호 운용성에 대한 자세한 내용은 사용하는 Oracle Solaris 버전의 제품 설명서를 참조하십시오.
SMB/CIFS를 사용하여 공유되는 Oracle HSM 파일 시스템은 NFS(네트워크 파일 시스템) 버전 4에서 채택되고 Oracle Solaris 11에서 소개된 새로운 ACL(액세스 제어 목록) 구현을 사용해야 합니다. 이전 버전의 Solaris 및 NFS에서는 Windows ACL 구현과 호환되지 않는 POSIX 드래프트 사양을 기반으로 하는 ACL을 사용합니다.
Oracle HSM으로 만드는 새로운 파일 시스템에서는 기본적으로 Solaris 11의 NFS 버전 4 ACL을 사용합니다. 하지만 기존 Oracle HSM 파일 시스템을 SMB/CIFS 클라이언트와 공유해야 하는 경우 적절한 절차를 사용하여 기존 POSIX 스타일 ACL을 변환해야 합니다.
다음과 같이 하십시오.
호스트에 root
로 로그인합니다.
예제에서는 qfs-host
호스트에 로그인합니다.
[qfs-host]root@solaris:~#
호스트에서 Oracle Solaris 11.1 이상을 실행하는지 확인합니다. uname
-r
명령을 사용합니다.
[qfs-host]root@solaris:~# uname -r 5.11 [qfs-host]root@solaris:~#
umount
mount-point
명령을 사용하여 파일 시스템을 마운트 해제합니다. 여기서 mount-point
는 Oracle HSM 파일 시스템의 마운트 지점입니다.
자세한 내용은 umount_samfs
매뉴얼 페이지를 참조하십시오. 아래 예제에서 서버 이름은 qfs-host
이고 파일 시스템은 /qfsms
입니다.
[qfs-host]root@solaris:~# umount /qfsms
samfsck
-F
-A
file-system
명령을 사용하여 파일 시스템을 변환합니다. 여기서 -F
옵션은 파일 시스템의 검사와 오류 수정을 지정하고, -A
옵션은 ACL 변환을 지정하고, file-system
은 변환해야 하는 파일 시스템의 이름입니다.
-A
옵션을 지정한 경우 -F
옵션이 필요합니다. samfsck
-F
-A
명령이 오류를 반환하는 경우 프로세스가 중지되고 ACL이 변환되지 않습니다. 이러한 옵션에 대한 자세한 내용은 samfsck
매뉴얼 페이지를 참조하십시오.
[qfs-host]root@solaris:~# samfsck -F -A /qfsms
오류가 반환되고 ACL이 변환되지 않는 경우 samfsck
-F
-a
file-system
명령을 사용하여 ACL을 강제로 변환합니다.
-a
옵션은 강제 변환을 지정합니다. -a
옵션을 지정한 경우 -F
옵션이 필요합니다. 이러한 옵션에 대한 자세한 내용은 samfsck
매뉴얼 페이지를 참조하십시오.
[qfs-host]root@solaris:~# samfsck -F -a /qfsms
이제 Windows Active Directory 도메인 또는 작업 그룹에 대한 SMB 서버 구성을 수행합니다.
파일 시스템 메타데이터 서버에 root
로 로그인합니다.
예제에서는 메타데이터 서버 sharedqfs-mds
에 로그인합니다.
[sharedqfs-mds]root@solaris:~#
메타데이터 서버에서 Oracle Solaris 11.1 이상을 실행하는지 확인합니다. uname
-r
명령을 사용합니다.
[sharedqfs-mds]root@solaris:~# uname -r 5.11 [sharedqfs-mds]root@solaris:~#
각 Oracle HSM 클라이언트에 root
로 로그인하고, 각 클라이언트에서 Oracle Solaris 11.1 이상을 실행하는지 확인합니다.
예제에서는 단말기 창을 열고 ssh
를 사용하여 클라이언트 호스트 sharedqfs-client1
및 sharedqfs-client2
에 원격으로 로그인하여 로그인 배너에서 Solaris 버전을 가져옵니다.
[sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client1 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client1]root@solaris:~# [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client2 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client2]root@solaris:~#
umount
mount-point
명령을 사용하여 각 Oracle HSM 클라이언트에서 Oracle HSM 공유 파일 시스템을 마운트 해제합니다. 여기서 mount-point
는 Oracle HSM 파일 시스템의 마운트 지점입니다.
자세한 내용은 umount_samfs
매뉴얼 페이지를 참조하십시오. 예제에서는 두 클라이언트 sharedqfs-client1
및 sharedqfs-client2
에서 /sharedqfs1
을 마운트 해제합니다.
Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client1]root@solaris:~# umount /sharedqfs [sharedqfs-client1]root@solaris:~# Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client2]root@solaris:~# umount /sharedqfs [sharedqfs-client1]root@solaris:~#
umount
-o
await_clients=
interval
mount-point
명령을 사용하여 메타데이터 서버에서 Oracle HSM 공유 파일 시스템을 마운트 해제합니다. 여기서 mount-point
는 Oracle HSM 파일 시스템의 마운트 지점이고, interval은 -o
await_clients
옵션으로 지정된 실행 지연 시간(초)입니다.
Oracle HSM 공유 파일 시스템의 메타데이터 서버에서 umount
명령을 실행할 때 -o
await_clients
옵션은 지정된 초 수만큼 umount
를 대기시켜서 클라이언트가 공유 파일 시스템을 마운트 해제할 시간을 벌어줍니다. 비공유 파일 시스템을 마운트 해제하거나 Oracle HSM 클라이언트에서 명령을 실행할 경우 아무 효과가 없습니다. 자세한 내용은 umount_samfs
매뉴얼 페이지를 참조하십시오.
예제에서는 /sharedqfs
파일 시스템을 sharedqfs-mds
메타데이터 서버에서 마운트 해제하고 클라이언트에서 60
초 동안 마운트 해제하도록 허용합니다.
[sharedqfs-mds]root@solaris:~# umount -o await_clients=60 /sharedqfs
파일 시스템을 POSIX 스타일 ACL에서 NFS 버전 4 ACL로 변환합니다. 메타데이터 서버에서 samfsck
-F
-A
file-system
명령을 사용하여 파일 시스템을 변환합니다. 여기서 -F
옵션은 파일 시스템의 검사와 오류 수정을 지정하고, -A
옵션은 ACL 변환을 지정하고, file-system
은 변환해야 하는 파일 시스템의 이름입니다.
-A
옵션을 지정한 경우 -F
옵션이 필요합니다. samfsck
-F
-A
file-system
명령이 오류를 반환하는 경우 프로세스가 중지되고 ACL이 변환되지 않습니다. 이러한 옵션에 대한 자세한 내용은 samfsck
매뉴얼 페이지를 참조하십시오. 예제에서는 /sharedqfs
라는 Oracle HSM 파일 시스템을 변환합니다.
[sharedqfs-mds]root@solaris:~# samfsck -F -A /sharedqfs
오류가 반환되고 ACL이 변환되지 않는 경우 ACL을 강제로 변환합니다. 메타데이터 서버에서는 samfsck
-F
-a
file-system
명령을 사용합니다.
-a
옵션은 강제 변환을 지정합니다. -a
옵션을 지정한 경우 -F
옵션이 필요합니다. 이러한 옵션에 대한 자세한 내용은 samfsck
매뉴얼 페이지를 참조하십시오. 예제에서는 /qfsma
라는 Oracle HSM 파일 시스템을 강제로 변환합니다.
[sharedqfs-mds]root@solaris:~# samfsck -F -a /sharedqfs
이제 Windows Active Directory 도메인 또는 작업 그룹에 대한 SMB 서버 구성을 수행합니다.
Oracle Solaris SMB 서비스는 도메인 또는 작업 그룹의 두 가지 상호 배타적인 모드로 작동할 수 있습니다. 사용 환경과 인증 요구 사항을 기반으로 두 모드 중 하나를 선택합니다.
Active Directory 도메인 사용자에게 Solaris SMB 서비스에 대한 액세스 권한을 부여해야 하는 경우 도메인 모드로 SMB 서버 구성을 수행합니다.
로컬 Solaris 사용자에게 SMB 서비스에 대한 액세스 권한을 부여해야 하고 Active Directory 도메인이 없거나 Active Directory 도메인 사용자에게 서비스에 대한 액세스 권한을 부여해야 하는 경우 작업 그룹 모드로 SMB 서버 구성을 수행합니다.
Windows Active Directory 관리자에게 문의하여 다음 정보를 확인하십시오.
Active Directory 도메인에 조인할 때 사용해야 하는 인증된 Active Directory 사용자 계정의 이름
계정에 대한 기본 Computers
컨테이너 대신 사용해야 하는 조직 단위(있는 경우)
Oracle HSM 파일 시스템을 공유할 도메인에 대한 정규화된 LDAP/DNS 도메인 이름
SMB/CIFS 공유로 구성하려는 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root
로 로그인합니다.
파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서 서버 이름은 qfssmb
입니다.
[qfssmb]root@solaris:~#
오픈 소스 Samba 서버와 SMB 서버를 단일 Oracle Solaris 시스템에서 함께 사용할 수 없습니다. 따라서 Samba 서비스가 실행 중인지 확인하십시오. 서비스 상태 명령 svcs
의 출력을 grep
및 정규식 samba
에 연결합니다.
예제에서는 svcs
명령의 출력에 정규식과 일치하는 항목이 포함되어 있으므로 SMB 서비스가 실행 중인 것입니다.
[qfssmb]root@solaris:~# svcs | grep samba legacy_run Nov_03 lrc:/etc/rc3_d/S90samba
Samba 서비스(svc:/network/samba
)가 실행 중인 경우 Windows Internet Naming Service/WINS(svc:/network/wins
)(실행 중인 경우)와 함께 서비스를 사용 안함으로 설정합니다. svcadm
disable
명령을 사용합니다.
[qfssmb]root@solaris:~# svcadm disable svc:/network/samba [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
이제 svcadm
enable
-r
smb/server
명령을 사용하여 SMB 서버와 이 서버에 종속되는 모든 서비스를 시작합니다.
[qfssmb]root@solaris:~# svcadm enable -r smb/server
Oracle HSM 호스트의 시스템 시계와 Microsoft Windows 도메인 컨트롤러의 시스템 시계의 시차가 5분 이내여야 합니다.
Windows 도메인 컨트롤러에서 NTP(Network Time Protocol) 서버를 사용하는 경우 Oracle HSM 호스트에서 동일한 서버를 사용하도록 구성합니다. Oracle HSM 호스트에서 /etc/inet/ntpclient.conf
파일을 만들고 svcadm
enable
ntp
명령을 사용하여 ntpd
데몬을 시작합니다. 자세한 내용은 ntpd
매뉴얼 페이지와 Oracle Solaris 관리 설명서를 참조하십시오.
그렇지 않은 경우 ntpdate
domain-controller-name
명령을 실행하여 Oracle HSM 호스트를 도메인 컨트롤러와 동기화하거나(자세한 내용은 ntpdate
매뉴얼 페이지 참조) Oracle HSM 호스트의 시스템 시계를 도메인 컨트롤러의 시스템 시계에 표시된 시간으로 수동으로 설정합니다.
smbadm
join
-u
username
-o
organizational-unit
domain-name
명령을 사용하여 Windows 도메인에 조인합니다. 여기서 username
은 Active Directory 관리자가 지정한 사용자 계정의 이름이고, 선택적 organizational-unit
은 지정된 계정 컨테이너이고(있는 경우), domain-name
은 지정된 정규화된 LDAP 또는 DNS 도메인 이름입니다.
예제에서는 사용자 계정을 사용하여 Windows 도메인 this.example.com
에 조인합니다.
[qfssmb]root@solaris:~# smbadm join -u admin -o smbsharing this.example.com
이제 SMB/CIFS 공유로 Oracle HSM 파일 시스템 공유를 수행합니다.
Windows 네트워크 관리자에게 문의하여 Oracle HSM 파일 시스템의 호스트를 조인할 Windows 작업 그룹의 이름을 확인합니다.
기본 작업 그룹의 이름은 WORKGROUP
입니다.
Oracle HSM 파일 시스템의 호스트에 로그인합니다. root
로 로그인합니다.
파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서 서버 이름은 qfssmb
입니다.
[qfssmb]root@solaris:~#
오픈 소스 Samba 서버와 SMB 서버를 단일 Oracle Solaris 시스템에서 함께 사용할 수 없습니다. 따라서 Samba 서비스가 실행 중인지 확인하십시오. svcs
서비스 상태 명령의 출력을 grep
및 정규식 samba
에 연결합니다.
예제에서는 svcs
명령의 출력에 정규식과 일치하는 항목이 포함되어 있으므로 SMB 서비스가 실행 중인 것입니다.
[qfssmb]root@solaris:~# svcs | grep samba legacy_run Nov_03 lrc:/etc/rc3_d/S90samba
Samba 서비스(svc:/network/samba
)가 실행 중인 경우 Windows Internet Naming Service/WINS(svc:/network/wins
) 서비스(실행 중인 경우)와 함께 이 서비스를 사용 안함으로 설정합니다. svcadm
disable
명령을 사용합니다.
Samba 서버와 SMB 서버를 단일 Oracle Solaris 시스템에서 함께 사용할 수 없습니다.
[qfssmb]root@solaris:~# svcadm disable svc:/network/samba [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
이제 svcadm
enable
-r
smb/server
명령을 사용하여 SMB 서버와 이 서버에 종속되는 모든 서비스를 시작합니다.
[qfssmb]root@solaris:~# svcadm enable -r smb/server
작업 그룹을 조인합니다. smbadm
join
명령을 -w
(작업 그룹) 스위치 및 Windows 네트워크 관리자가 지정한 작업 그룹의 이름과 함께 사용합니다.
예제에서 지정된 작업 그룹의 이름은 crossplatform
입니다.
[qfssmb]root@solaris:~# smbadm join -w crossplatform
SMB 암호를 암호화하도록 Oracle HSM 호스트를 구성합니다. 텍스트 편집기에서 /etc/pam.d/other
파일을 열고 password
required
pam_smb_passwd.so.1
nowarn
명령줄을 추가한 다음 파일을 저장합니다.
이 예에서는 vi
편집기를 사용합니다.
[qfssmb]root@solaris:~# vi /etc/pam.d/other # Copyright (c) 2012, Oracle and/or its affiliates. All rights reserved. # # PAM configuration # # Default definitions for Authentication management # Used when service name is not explicitly mentioned for authentication # auth definitive pam_user_policy.so.1 ... password required pam_authtok_store.so.1 password required pam_smb_passwd.so.1 nowarn :wq [qfssmb]root@solaris:~#
자세한 내용은 pam_smb_passwd
매뉴얼 페이지를 참조하십시오.
pam_smb_passwd
모듈이 설치된 경우 SMB 서버에서 Windows 작업 그룹에 로그인할 수 있도록 passwd
local-username
명령을 사용하여 local-username
사용자에 대한 암호의 암호화된 버전을 생성합니다.
SMB 서버에서는 Solaris 운영체제에 사용된 암호의 동일한 암호화된 버전을 사용하여 사용자를 인증할 수 없습니다. 예제에서는 smbsamqfs
사용자에 대한 암호화된 SMB 암호를 생성합니다.
[qfssmb]root@solaris:~# passwd smbsamqfs
이제 SMB/CIFS 공유로 Oracle HSM 파일 시스템 공유를 수행합니다.
Oracle Solaris 운영체제 버전의 관리 설명서에 설명된 절차를 사용하여 Oracle HSM 파일 시스템을 공유합니다. 아래 단계에서는 Solaris 11.1에 대한 절차를 요약합니다.
SMB/CIFS 공유로 구성하려는 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root
로 로그인합니다.
파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서 서버 이름은 qfssmb
입니다.
[qfssmb]root@solaris:~#
공유를 구성합니다. share
-F
smb
-o
specific-options
sharepath
sharename
명령을 사용합니다. 여기서 -F
스위치는 smb
공유 프로토콜을 지정하고, sharepath
는 공유 리소스의 경로이고, sharename
은 공유에 사용할 이름입니다. 선택적 -o
매개변수의 값 sharing-options
는 다음을 포함할 수 있습니다.
abe=
[
true
|
false
]
공유에 대한 ABE(액세스 기반 열거) 정책이 true
인 경우 요청하는 사용자가 액세스할 수 없는 디렉토리 항목은 클라이언트로 반환되는 디렉토리 목록에서 생략됩니다.
ad-container=
cn=
user
,ou=
organization
,dc=
domain-dns
Active Directory 컨테이너에서는 LDAP(Lightweight Directory Access Protocol) RDN(상대적인 식별 이름) 속성 값인 cn
(사용자 객체 클래스), ou
(조직 단위 객체 클래스), dc
(도메인 DNS 객체 클래스)로 지정된 도메인 객체로 공유 액세스를 제한합니다.
Active Directory 컨테이너를 SMB/CIFS와 함께 사용하는 방법에 대한 자세한 내용은 Internet Engineering Task Force Request For Comment (RFC) 2253 및 Microsoft Windows 디렉토리 서비스 설명서를 참조하십시오.
catia=
[true
|false]
CATIA 문자 대체가 true
인 경우 Windows에서 허용되지 않는 CATIA 버전 4 파일 시스템의 모든 문자가 올바른 문자로 대체됩니다. 대체 목록은 share_smb
매뉴얼 페이지를 참조하십시오.
csc=
[manual
|auto
|vdo
|disabled]
클라이언트측 캐싱(csc
) 정책은 오프라인 사용을 위해 파일의 클라이언트측 캐싱을 제어합니다. manual
정책을 사용하면 사용자가 요청한 경우 클라이언트에서 파일을 캐시할 수 있지만, 자동 파일별 재통합(기본값)이 사용 안함으로 설정됩니다. auto
정책을 사용하면 클라이언트에서 파일을 자동으로 캐시할 수 있고 자동 파일별 재통합이 사용으로 설정됩니다. vdo
정책을 사용하면 오프라인에서 사용하기 위해 클라이언트에서 파일을 자동으로 캐시하고, 파일별 재통합을 사용으로 설정하고, 오프라인 상태에서도 로컬 캐시에서 클라이언트 작업을 수행할 수 있습니다. disabled
정책은 클라이언트측 캐싱을 허용하지 않습니다.
dfsroot=
[
true
|
false
]
Microsoft DFS(분산 파일 시스템)에서 루트 공유(dfsroot=true
)는 널리 분산된 공유 폴더 그룹을 보다 쉽게 관리할 수 있는 단일 DFS 파일 시스템으로 구성하는 공유입니다. 자세한 내용은 Microsoft Windows Server 설명서를 참조하십시오.
guestok=
[true
|false]
guestok
정책이 true
이면 로컬로 정의된 guest
계정으로 공유에 액세스할 수 있습니다. 이 정책이 false
이거나 정의되지 않은 경우(기본값) guest
계정으로 공유에 액세스할 수 없습니다. 이 정책을 사용하면 Windows Guest
사용자를 로컬로 정의된 UNIX 사용자 이름(예: guest
또는 nobody
)에 매핑할 수 있습니다.
# idmap add winname:Guest unixuser:guest
그런 다음 원하는 경우 /var/smb/smbpasswd
에 저장된 암호를 기준으로 로컬로 정의된 계정을 인증할 수 있습니다. 자세한 내용은 idmap
매뉴얼 페이지를 참조하십시오.
rw=
[*|[[-]
criterion
][:[-]
criterion
]...
rw
정책은 제공된 액세스 목록과 일치하는 모든 클라이언트에 권한을 허용하거나 거부합니다.
액세스 목록에는 모두를 의미하는 단일 별표(*
) 또는 클라이언트 액세스 기준의 콜론으로 구분된 목록이 포함되어 있습니다. 여기서 각 criterion
은 거부를 의미하는 선택적 빼기 기호(-
), 호스트 이름, 네트워크 그룹, 전체 LDAP 또는 DNS 도메인 이름 및/또는 기호 @
과 IP 주소 또는 도메인 이름의 전체 또는 일부로 구성됩니다. 클라이언트가 기준 중 하나를 충족할 때까지 왼쪽에서 오른쪽으로 액세스 목록을 평가합니다. 자세한 내용은 share_smb
매뉴얼 페이지를 참조하십시오.
ro=
[*|[[-]
criterion
][:[-]
criterion
]...
ro
정책은 액세스 목록과 일치하는 클라이언트에 읽기 전용 권한을 부여하거나 거부합니다.
none=
[*|[[-]
criterion
][:[-]
criterion
]...
none
정책은 액세스 목록과 일치하는 클라이언트에 대한 액세스를 거부합니다. 액세스 목록이 별표(*
)인 경우 ro
및 rw
정책이 none
정책을 대체합니다.
예제에서는 /qfsms
파일 시스템 읽기/쓰기를 smbclient1
및 smbclient2
클라이언트와 공유하고 읽기 전용을 smbclient3
과 공유합니다.
[qfssmb]root@solaris:~# share -F smb -o rw=smbclient1:smbclient2 ro=smbclient3 /qfsms
명령을 입력하면 시스템에서 SMB 서버 데몬 smbd
를 자동으로 다시 시작합니다.
공유 매개변수를 확인합니다. share -F nfs
명령을 사용합니다.
예제에서 명령 출력은 공유를 올바르게 구성했음을 보여 줍니다.
[qfssmb]root@solaris:~# share -F smb /qfsms sec=sys,rw=smbclient1:smbclient2,ro=smbclient3 [qfssmb]root@solaris:~#
사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.
그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.