이 장에서는 파일 시스템 유지 관리 및 재구성 작업을 다룹니다. 첫번째 절인 Oracle HSM 파일 시스템 관리에서는 모든 Oracle HSM 파일 시스템(아카이빙 및 비아카이빙, 공유 및 비공유(독립형))의 유지 관리를 다룹니다. 두번째 절, Oracle HSM 공유 파일 시스템 관리에서는 공유 파일 시스템에 영향을 주는 특수한 고려 사항을 다룹니다.
이 절에서는 다음 작업을 설명합니다.
파일 시스템 쿼터를 설정하여 주어진 사용자 또는 사용자 모음이 파일 시스템 내에서 소비할 수 있는 온라인/전체 스토리지 공간을 제어할 수 있습니다. 사용자 ID, 그룹 ID 또는 관리자가 정의한 관리 세트 ID(특정 프로젝트에서 참여도와 같은 공통 특성으로 사용자를 묶은 것)를 기준으로 쿼터를 설정할 수 있습니다. 관리 세트 ID는 특별히 프로젝트가 여러 그룹의 사용자를 포함하고 여러 디렉토리 및 파일에 걸쳐 있을 때 유용합니다.
파일 시스템을 quota
마운트 옵션(기본적으로 설정됨)으로 마운트하여 쿼터를 사용으로 설정하고, noquota
마운트 옵션으로 마운트하여 쿼터를 사용 안함으로 설정합니다. 하나 이상의 쿼터 파일인 .quota_u
, .quota_g
및 .quota_a
를 파일 시스템 루트 디렉토리에 배치하여 쿼터를 정의합니다. 이러한 쿼터 파일은 각각 사용자, 그룹 및 관리 세트에 대한 쿼터를 설정합니다. 각 파일의 첫번째 레코드인 레코드 0
은 기본값을 설정합니다. 이후 레코드들은 특정 사용자, 그룹, 관리 세트와 관련된 값을 설정합니다.
쿼터는 단순히 스토리지 공간이 아니라, 사용 가능한 파일 시스템 공간을 할당합니다. 따라서 매체에 할당된 512바이트 블록 수와 파일 시스템에 할당된 inode 수에 대한 상한을 설정할 수 있습니다. 블록 계수는 그 자체로 스토리지 공간을 측정합니다. inode 계수는 해당 스토리지에 액세스하기 위해 사용 가능한 리소스를 측정합니다. 따라서 스토리지 공간 블록이 매우 많이 사용되었지만 inode가 하나만 사용된 단일 파일은 많은 수의 inode를 차지하고 블록을 차지하지 않는 길이가 0인이고 매우 많은 수의 비어 있는 파일과 동일한 파일 시스템 공간을 차지할 수 있습니다.
각 쿼터에는 소프트 한계와 하드 한계를 포함할 수 있습니다. 하드 한계는 주어진 소유자의 파일이 일시적으로 사용할 수 있는 최대 파일 시스템 리소스를 정의합니다. 소프트 한계는 주어진 소유자의 파일이 무기한으로 사용할 수 있는 최대 파일 시스템 리소스를 정의합니다. 리소스 사용량은 쿼터에서 유예 기간에 정의된 대로, 짧은 간격 동안 소프트 한계와 하드 한계 사이에 놓인 양까지만 증가할 수 있습니다.
이 절에서는 다음 관리 작업을 설명합니다.
지속 가능한 쿼터를 설정하려면 관리 가능하고 확장 가능한 방법으로 사용자 요구 사항을 수용하는 한계를 설정해야 합니다. 따라서 쿼터를 설정하기 전에 사용자의 스토리지 요구 사항을 추정합니다. 프로세스를 관리 가능하도록 유지하려면 최소한의 관리 노력으로 최대한의 요구 사항을 처리할 수 있도록 가능한 넓은 범위에서 사용자 요구 사항을 분류하는 것부터 시작합니다. 그런 다음 넓은 범주에 맞지 않는 소수의 사용자 요구 사항을 구체적으로 평가합니다. 결과에는 사용자가 설정한 쿼터와 한계 유형이 개략적으로 제공됩니다.
아래 설명된 접근 방법은 액세스 제어 그룹(대부분의 조직에 이미 그룹이 정의되어 있음)의 파일 시스템 요구 사항을 식별하는 것부터 시작합니다. 그런 다음 표준 그룹의 요구 사항과 잘 맞지 않는 특수한 사용자 세트를 정의합니다. 그런 다음 마지막으로 개별 사용자에 고유한 요구 사항을 처리하기 시작합니다. 다음과 같이 하십시오.
기존 액세스 제어 그룹이 이미 비슷한 리소스 요구 사항을 가진 사용자를 함께 수집하므로, 파일 시스템을 사용할 그룹의 평균 스토리지 요구 사항을 정의하는 것부터 시작합니다. 사용된 평균 스토리지 공간량(512킬로바이트 블록)과 저장된 평균 파일 수(사용된 평균 inode 수에 해당)를 추정합니다.
그룹 구성원은 일반적으로 직무 역할과 업무 책임이 비슷하므로 동일한 디렉토리 및 파일에 자주 액세스하고 일반적으로 스토리지 요구도 비슷합니다. 예제에서는 /hsm/hsmfs1
파일 시스템을 사용할 세 그룹으로 dev
(제품 개발), cit
(기업 정보 기술), pgmt
(프로그램 관리)를 식별합니다. 간단한 스프레드시트에 그룹, 각각의 구성원 수, 평균 개인 및 그룹 요구 사항을 나열합니다.
그룹 |
사용자 | 사용자당 평균 블록 | 사용자당 평균 파일 | 평균 블록/그룹 | 평균 파일/그룹 |
---|---|---|---|---|---|
dev |
30 |
67108864 |
500 |
2013265920 |
15000 |
cit |
15 |
10485760 |
50 |
157286400 |
750 |
pmgt |
6 |
20971520 |
200 |
125829120 |
1200 |
총 블록/ 파일 (평균) |
그 다음, 주어진 시간에 그룹 구성원이 저장할 최대 스토리지 공간량 및 최대 파일 수에 대해 동일한 계산을 수행합니다. 결과를 기록합니다.
예제에서는 새 스프레드시트에 결과를 기록합니다.
그룹 |
사용자 | 사용자당 최대 블록 | 사용자당 최대 파일 | 최대 블록/그룹 | 최대 파일/그룹 |
---|---|---|---|---|---|
dev |
30 |
100663296 |
1000 |
3019898880 |
30000 |
cit |
15 |
15728640 |
100 |
235929600 |
1500 |
pmgt |
6 |
31457280 |
400 |
188743680 |
2400 |
총 블록/ 파일 (최대) |
이제 서로 다른 그룹에 속하지만 그룹 멤버쉽을 기초로 처리할 수 없는 개별 스토리지 요구 사항을 공유하는 사용자 세트를 식별합니다. 각 액세스 제어 그룹에 했던 것처럼 각 식별된 조직에 대해 동일한 예상치를 만들고 동일한 계산을 수행합니다.
예제에서는 스토리지 할당이 필요한 두 회사 프로젝트로 코드명 portal
및 lockbox
를 식별합니다. 엔지니어링, 마케팅, 준수, 테스트, 문서화 그룹의 구성원은 이 프로젝트를 함께 진행하면서 동일한 디렉토리와 수많은 동일 파일을 사용하게 됩니다. 따라서 이것을 요구 사항 스프레드시트에 추가합니다.
그룹 |
사용자 | 사용자당 평균 블록 | 사용자당 평균 파일 | 평균 블록/그룹 | 평균 파일/그룹 |
---|---|---|---|---|---|
dev |
30 |
67108864 |
500 |
2013265920 |
15000 |
cit |
15 |
10485760 |
50 |
157286400 |
750 |
pmgt |
6 |
20971520 |
200 |
125829120 |
1200 |
portal |
10 |
31457280 |
400 |
314572800 |
4000 |
lockbox |
12 |
31457280 |
500 |
377487360 |
6000 |
총 블록/ 파일 (평균) |
그룹 |
사용자 | 사용자당 최대 블록 | 사용자당 최대 파일 | 최대 블록/그룹 | 최대 파일/그룹 |
---|---|---|---|---|---|
dev |
30 |
100663296 |
1000 |
3019898880 |
30000 |
cit |
15 |
15728640 |
100 |
235929600 |
1500 |
pmgt |
6 |
31457280 |
400 |
188743680 |
2400 |
portal |
10 |
37748736 |
700 |
377487360 |
7000 |
lockbox |
12 |
45613056 |
600 |
547356672 |
7200 |
총 블록/ 파일 (최대) |
이제 요구 사항이 아직 처리되지 않은 개별 사용자를 식별합니다. 각 액세스 제어 그룹과 비그룹 조직에 했던 것처럼 각 사용자에 대해 동일한 예상치를 만들고 동일한 계산을 수행합니다.
가능한 경우, 균일한 정책이 적용되고 관리 오버헤드가 최소화되도록 사용자 요구 사항을 총체적으로 처리합니다. 그러나 개인 요구 사항이 고유하다면 개별적으로 처리해야 합니다. 예제에서는 특별한 스토리지 할당이 필요한 특수 책임을 가진 사용자로 pgmt
그룹의 jr23547
을 식별합니다. 따라서 이것을 요구 사항 스프레드시트에 추가합니다.
그룹 |
세트당 사용자 | 사용자당 평균 블록 | 사용자당 평균 파일 | 평균 블록 | 평균 파일 |
---|---|---|---|---|---|
dev |
30 |
67108864 |
500 |
2013265920 |
15000 |
cit |
15 |
10485760 |
50 |
157286400 |
750 |
pmgt |
6 |
20971520 |
200 |
125829120 |
1200 |
portal |
10 |
31457280 |
400 |
314572800 |
4000 |
lockbox |
12 |
31457280 |
500 |
377487360 |
6000 |
jr23547 |
1 |
10485760 |
600 |
10485760 |
600 |
총 블록/ 파일 (평균) |
그룹 |
사용자 | 사용자당 최대 블록 | 사용자당 최대 파일 | 최대 블록/그룹 | 최대 파일/그룹 |
---|---|---|---|---|---|
dev |
30 |
100663296 |
1000 |
3019898880 |
30000 |
cit |
15 |
15728640 |
100 |
235929600 |
1500 |
pmgt |
6 |
31457280 |
400 |
188743680 |
2400 |
portal |
10 |
37748736 |
700 |
377487360 |
7000 |
lockbox |
12 |
45613056 |
600 |
547356672 |
7200 |
jr23547 |
1 |
100663296 |
2000 |
100663296 |
2000 |
총 블록/ 파일 (최대) |
마지막으로, 모든 사용자가 필요한 평균/최대 블록 및 파일을 계산합니다.
그룹 |
사용자 | 사용자당 평균 블록 | 사용자당 평균 파일 | 평균 블록/그룹 | 평균 파일/그룹 |
---|---|---|---|---|---|
dev |
30 |
67108864 |
500 |
2013265920 |
15000 |
cit |
15 |
10485760 |
50 |
157286400 |
750 |
pmgt |
6 |
20971520 |
200 |
125829120 |
1200 |
portal |
10 |
31457280 |
400 |
314572800 |
4000 |
lockbox |
12 |
31457280 |
500 |
377487360 |
6000 |
jr23547 |
1 |
10485760 |
600 |
10485760 |
600 |
총 블록/ 파일 (평균) |
2998927360 |
27550 |
그룹 |
사용자 | 사용자당 최대 블록 | 사용자당 최대 파일 | 최대 블록/그룹 | 최대 파일/그룹 |
---|---|---|---|---|---|
dev |
30 |
100663296 |
1000 |
3019898880 |
30000 |
cit |
15 |
15728640 |
100 |
235929600 |
1500 |
pmgt |
6 |
31457280 |
400 |
188743680 |
2400 |
portal |
10 |
37748736 |
700 |
377487360 |
7000 |
lockbox |
12 |
45613056 |
600 |
547356672 |
7200 |
jr23547 |
1 |
100663296 |
2000 |
100663296 |
2000 |
총 블록/ 파일 (평균) |
4470079488 |
50100 |
프로젝트 기반 쿼터나 기타 액세스 제어 그룹 및 사용자 ID로 정의할 수 없는 쿼터를 관리해야 하는 경우 다중 그룹에서 사용되는 프로젝트 및 디렉토리에 대한 관리 세트 만들기를 수행합니다.
새로 만든 빈 파일 시스템에 쿼터를 설정하는 경우 새 파일 시스템에서 쿼터를 사용하도록 구성으로 이동합니다.
이미 파일을 보유한 파일 시스템에 쿼터를 설정하는 경우 기존 파일 시스템에서 쿼터를 사용하도록 구성으로 이동합니다.
관리 세트란, 쿼터 목적상 관리 세트 ID로 식별되는 디렉토리 계층 또는 개별 디렉토리나 파일입니다. 지정된 관리 세트 ID로 만들거나 지정된 관리 세트 ID로 디렉토리에 저장된 파일은 실제로 파일을 소유한 사용자나 그룹 ID에 관계없이 모두 동일한 쿼터를 갖습니다. 관리 세트를 정의하려면 다음과 같이 하십시오.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 서버 이름이 server1
로 지정됩니다.
[server1]root@solaris:~#
관리 세트를 사용하여 새 프로젝트나 팀에 대한 스토리지 쿼터를 구성하는 경우, 파일 시스템 내의 아무 곳에나 이 프로젝트나 팀에 대한 새 디렉토리를 만듭니다.
예제에서는 /hsm/hsmfs1
파일 시스템에 디렉토리를 만들고 동일한 이름의 프로젝트에 대해 portalproject/
이름을 지정합니다.
[server1]root@solaris:~# mkdir /hsm/hsmfs1/portalproject
쿼터를 설정할 디렉토리나 파일에 관리 세트 ID를 지정합니다. samchaid
[
-fhR
]
admin-set-id
directory-or-file-name
명령을 사용합니다. 설명:
-f
는 강제로 지정하고 오류를 보고하지 않습니다.
-h
는 관리 세트 ID를 심볼릭 링크에 지정합니다. 이 옵션이 없으면 심볼릭 링크로 참조된 파일의 그룹이 변경됩니다.
-R
은 관리 세트 ID를 하위 디렉토리 및 파일에 재귀적으로 지정합니다.
admin-set-id
는 고유한 정수값입니다.
directory-or-file-name
은 관리 세트 ID를 지정하려는 디렉토리나 파일의 이름입니다.
예제에서는 관리 ID 1
을 /hsm/hsmfs1/portalproject/
디렉토리와 하위 디렉토리의 모든 파일에 지정합니다.
[server1]root@solaris:~# samchaid -R 1 /hsm/hsmfs1/portalproject/
원하는 경우 지정을 확인할 수 있습니다. sls -D
directory-path
명령을 사용합니다. 여기서 -D
는 directory-path
의 파일 및 디렉토리에 대한 상세한 Oracle HSM 디렉토리 목록을 지정합니다.
[server1]root@solaris:~# sls -D /hsm/hsmfs1/ /portalproject: mode: drwxr-xr-x links: 2 owner: root group: root length: 4096 admin id: 1 inode: 1047.1 project: user.root(1) access: Feb 24 12:49 modification: Feb 24 12:44 changed: Feb 24 12:49 attributes: Feb 24 12:44 creation: Feb 24 12:44 residence: Feb 24 12:44
새로 만든 빈 파일 시스템에 쿼터를 설정하는 경우 새 파일 시스템에서 쿼터를 사용하도록 구성으로 이동합니다.
이미 파일을 보유한 파일 시스템에 쿼터를 설정하는 경우 기존 파일 시스템에서 쿼터를 사용하도록 구성으로 이동합니다.
새 파일 시스템을 만들고 현재 파일 시스템에 상주하는 파일이 없는 경우 이 절차를 사용하십시오.
파일 시스템 서버에 root
로 로그인합니다.
예제에서 서버 이름은 server2
로 지정됩니다.
[server2]root@solaris:~#
새 파일 시스템이 현재 마운트되지 않은 경우 계속하기 전에 마운트합니다.
그룹에 대한 쿼터를 설정해야 하는 경우 파일 시스템 루트 디렉토리에 그룹 쿼터 파일 .quota_g
를 만듭니다. Solaris 명령 dd
if=/dev/zero
of=
mountpoint
/.quota_g
bs=4096
count=
number-blocks
를 사용합니다. 설명:
if=/dev/zero
는 UNIX 특수 파일 /dev/zero
에서 입력으로 널 문자를 지정합니다.
of=
mountpoint
/.quota_g
는 출력 파일을 지정합니다. 여기서 mountpoint
는 파일 시스템의 마운트 지점 디렉토리입니다.
bs=4096
은 쓰기용 블록 크기를 4096
바이트로 설정합니다.
count=
number-blocks
는 쓰기용 블록 수를 지정합니다. 이 값은 파일이 보유할 레코드 수에 따라 다릅니다. 각 지정된 쿼터마다 하나의 128바이트 레코드가 있으므로 한 블록이 32개 레코드를 수용할 수 있습니다.
예제에서는 /newsamfs
에 마운트된 파일 시스템 newsamfs
에 대해 그룹 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 쿼터가 필요한 세 그룹으로 dev
, cit
, pgmt
를 식별했습니다. 다른 그룹 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.
[server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_g bs=4096 count=1
관리 세트에 대한 쿼터를 설정해야 하는 경우 파일 시스템 루트 디렉토리에 관리 세트 쿼터 파일 .quota_a
를 만듭니다. Solaris 명령 dd
if=/dev/zero
of=
mountpoint
/.quota_a
bs=4096
을 사용합니다. 설명:
mountpoint
는 파일 시스템에 대한 마운트 지점 디렉토리입니다.
.quota_a
는 출력 파일의 이름입니다.
4096
은 기록할 블록 크기(바이트)입니다.
number-blocks
는 기록할 블록 수입니다.
예제에서는 /newsamfs
에 마운트된 파일 시스템 newsamfs
에 대해 관리 세트 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 쿼터가 필요한 두 프로젝트로 portal
(관리 세트 ID 1
) 및 lockbox
(관리 세트 ID 2
)를 식별했습니다. 다른 관리 세트 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.
[server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_a bs=4096 count=1
사용자에 대한 쿼터를 설정해야 할 경우 파일 시스템 루트 디렉토리에 사용자 쿼터 파일인 .quota_u
를 만듭니다. Solaris 명령 dd
if=/dev/zero
of=
mountpoint
/.quota_u
bs=4096
count=
number-blocks
를 사용합니다. 설명:
mountpoint
는 파일 시스템에 대한 마운트 지점 디렉토리입니다.
.quota_u
는 출력 파일의 이름입니다.
4096
은 기록할 블록 크기(바이트)입니다.
number-blocks
는 기록할 블록 수입니다.
예제에서는 /newsamfs
에 마운트된 파일 시스템 newsamfs
에 대해 사용자 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 특정 쿼터가 필요한 사용자로 jr23547
을 식별했습니다. 다른 개별 사용자 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.
[server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_u bs=4096 count=1
파일 시스템을 마운트 해제합니다.
파일 시스템을 마운트 해제해야 다시 마운트하고 쿼터 파일을 사용으로 설정할 수 있습니다.
[server2]root@solaris:~# umount /newsamfs
파일 시스템 검사를 수행합니다.
[server2]root@solaris:~# samfsck -F newsamfs
파일 시스템을 다시 마운트합니다.
시스템이 파일 시스템의 루트 디렉토리에서 하나 이상의 쿼터 파일을 감지할 때 쿼터가 사용으로 설정됩니다.
파일 시스템은 기본적으로 쿼터가 사용으로 설정된 채 마운트되기 때문에 /etc/vfstab
또는 samfs.cmd
파일에 quota
마운트 옵션을 포함할 필요가 없습니다.
[server2]root@solaris:~# mount /newsamfs
그 다음, 필요에 따라 쿼터를 설정하거나 업데이트합니다. 그룹, 프로젝트, 디렉토리 및 사용자에 대한 쿼터 설정을 참조하십시오.
이미 파일을 보유한 파일 시스템에 대한 쿼터를 만드는 경우 이 절차를 사용하십시오.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 서버 이름이 server1
로 지정됩니다.
[server1]root@solaris:~#
텍스트 편집기에서 /etc/vfstab
파일을 열고 noquota
마운트 옵션이 설정되지 않았는지 확인합니다.
예제에서는 vi
텍스트 편집기에서 파일을 엽니다. noquota
마운트 옵션이 설정되었습니다.
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - no noquota
/etc/vfstab
파일에 noquota
마운트 옵션이 설정된 경우 삭제하고 파일을 저장합니다.
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - no - :wq [server1]root@solaris:~#
텍스트 편집기에서 /etc/opt/SUNWsamfs/samfs.cmd
파일을 열고 noquota
마운트 옵션이 설정되지 않았는지 확인합니다.
예제에서는 vi
텍스트 편집기에서 파일을 엽니다. noquota
마운트 옵션이 설정되지 않았습니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/samfs.cmd # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. # #inodes = 0 #fs = hsmfs1 # forcedirectio (default no forcedirectio) # high = 80 # low = 70 # weight_size = 1. # weight_age = 1. # readahead = 128 ... # dio_wr_ill_min = 0 # dio_wr_consec = 3 # qwrite (ma filesystem, default no qwrite) # shared_writer (ma filesystem, default no shared_writer) # shared_reader (ma filesystem, default no shared_reader)
/etc/opt/SUNWsamfs/samfs.cmd
파일에 noquota
마운트 옵션이 설정된 경우 삭제하고 파일을 저장합니다.
/etc/vfstab
파일 및/또는 /etc/opt/SUNWsamfs/samfs.cmd
파일에서 noquota
마운트 옵션을 삭제했으면 파일 시스템을 마운트 해제합니다.
noquota
마운트 옵션을 제거할 때 파일 시스템을 마운트 해제해야 쿼터가 사용으로 설정된 채 다시 마운트할 수 있습니다.
[server1]root@solaris:~# umount /hsm/hsmfs1
파일 시스템이 현재 마운트되지 않은 경우 지금 마운트합니다.
파일 시스템을 마운트해야 쿼터를 사용으로 설정할 수 있습니다.
[server1]root@solaris:~# mount /hsm/hsmfs1
파일 시스템의 루트 디렉토리로 변경하고 기존 쿼터 파일이 있는지 확인합니다. Solaris 명령 ls
-a
를 사용하고 .quota_g
, .quota_a
및/또는 .quota_u
파일을 찾습니다.
예제에서는 현재 쿼터 파일이 존재하지 않습니다.
[server1]root@solaris:~# cd /hsm/hsmfs1 [server1]root@solaris:~# ls -a /hsm/hsmfs1 . .archive .fuid .stage portalproject .. .domain .inodes lost+found
쿼터 파일이 존재하면 수정하지 마십시오.
그룹에 대한 쿼터를 설정해야 하는데 파일 시스템 루트 디렉토리에 그룹 쿼터 파일 .quota_g
가 아직 없으면 지금 파일을 만듭니다. Solaris 명령 dd
if=
/dev/zero
of=
mountpoint
/.quota_g
bs=
4096
count=
number-blocks
를 사용합니다. 설명:
if=
/dev/zero
는 UNIX 특수 파일 /dev/zero
에서 입력으로 널 문자를 지정합니다.
of=
mountpoint
/.quota_g
는 출력 파일을 지정합니다. 여기서 mountpoint
는 파일 시스템의 마운트 지점 디렉토리입니다.
bs=
4096
은 쓰기용 블록 크기를 4096
바이트로 설정합니다.
count=
number-blocks
는 쓰기용 블록 수를 지정합니다. 이 값은 파일이 보유할 레코드 수에 따라 다릅니다. 각 지정된 쿼터마다 하나의 128바이트 레코드가 있으므로 한 블록이 32개 레코드를 수용할 수 있습니다.
예제에서는 /hsm/hsmfs1
에 마운트된 파일 시스템 /hsm/hsmfs1
에 대해 그룹 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 쿼터가 필요한 세 그룹으로 dev
, cit
, pgmt
를 식별했습니다. 다른 그룹 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.
[server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_g bs=4096 count=1
관리 세트에 대한 쿼터를 설정해야 하는데 파일 시스템 루트 디렉토리에 관리 세트 쿼터 파일 .quota_a
가 아직 없으면 지금 파일을 만듭니다. Solaris 명령 dd
if=
/dev/zero
of=
mountpoint
/.quota_a
bs=
4096
count=
number-blocks
를 사용합니다. 설명:
mountpoint
는 파일 시스템에 대한 마운트 지점 디렉토리입니다.
.quota_a
는 출력 파일의 이름입니다.
4096
은 기록할 블록 크기(바이트)입니다.
number-blocks
는 기록할 블록 수입니다.
예제에서는 /hsm/hsmfs1
에 마운트된 파일 시스템 /hsm/hsmfs1
에 대해 관리 세트 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 쿼터가 필요한 두 프로젝트로 portal
(관리 세트 ID 1
) 및 lockbox
(관리 세트 ID 2
)를 식별했습니다. 다른 관리 세트 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.
[server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_a bs=4096 count=1
사용자에 대한 쿼터를 설정해야 하는데 파일 시스템 루트 디렉토리에 사용자 쿼터 파일 .quota_u
가 아직 없으면 지금 파일을 만듭니다. Solaris 명령 dd
if=
/dev/zero
of=
mountpoint
/.quota_u
bs=
4096
count=
number-blocks
를 사용합니다. 설명:
mountpoint
는 파일 시스템에 대한 마운트 지점 디렉토리입니다.
.quota_u
는 출력 파일의 이름입니다.
4096
은 기록할 블록 크기(바이트)입니다.
number-blocks
는 기록할 블록 수입니다.
예제에서는 /hsm/hsmfs1
에 마운트된 파일 시스템 /hsm/hsmfs1
에 대해 사용자 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 특정 쿼터가 필요한 사용자로 jr23547
을 식별했습니다. 다른 개별 사용자 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.
[server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_u bs=4096 count=1
파일 시스템을 마운트 해제합니다.
파일 시스템을 마운트 해제해야 다시 마운트하고 쿼터 파일을 사용으로 설정할 수 있습니다.
[server1]root@solaris:~# umount /hsm/hsmfs1
파일 시스템 검사를 수행합니다.
[server1]root@solaris:~# samfsck -F /hsm/hsmfs1
파일 시스템을 다시 마운트합니다.
시스템이 파일 시스템의 루트 디렉토리에서 하나 이상의 쿼터 파일을 감지할 때 쿼터가 사용으로 설정됩니다.
파일 시스템은 기본적으로 쿼터가 사용으로 설정된 채 마운트되기 때문에 /etc/vfstab
또는 samfs.cmd
파일에 quota
마운트 옵션을 포함할 필요가 없습니다.
[server1]root@solaris:~# mount /hsm/hsmfs1
그런 다음 그룹, 프로젝트, 디렉토리 및 사용자에 대한 쿼터 설정을 수행합니다.
samquota
명령을 사용하여 새 쿼터를 설정하고 기존 쿼터를 조정합니다. 아래 절차를 따르십시오.
일단 스토리지 요구 사항을 특징지었으면 각 그룹, 사용자 및 비그룹 조직에 대한 적절한 쿼터를 결정합니다. 다음 요인을 고려하여 필요에 따라 조정하십시오.
모든 사용자가 필요한 평균/최대 블록 수와 비교한 파일 시스템의 크기
모든 사용자가 필요한 평균/최대 inode 수와 비교한 파일 시스템의 inode 수
주어진 시간에 최대 요구 사항에 가까운 사용자의 개수와 유형.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 서버 이름이 server1
로 지정됩니다.
[server1]root@solaris:~#
각 그룹에 대해 한계를 설정합니다. samquota
-b
number-blocks
:
type
[
:
scope
]
-f
number-files
:
type
[
:
scope
]
-t
interval
[
:
scope
]
-G
groupID
[
directory-or-file
]
명령을 사용합니다. 설명:
-b
number-blocks
는 파일 시스템에 저장할 수 있는 512킬로바이트 블록의 최대 개수를 정수값 number-blocks
로 설정합니다. 대체 크기 지정 방법은 samquota
매뉴얼 페이지를 참조하십시오. 0
(제로) 값은 무제한 블록 수를 지정합니다.
:
은 필드 구분자입니다.
type
은 하드 한계 h
또는 소프트 한계 s
로 한계 종류를 지정합니다.
scope
(선택사항)은 한계가 적용되는 스토리지의 유형을 식별합니다. 온라인(디스크 캐시) 전용 스토리지의 경우 o
, 전체 스토리지의 경우 t
(기본값, 디스크 캐시와 아카이브 스토리지 모두 포함)가 될 수 있습니다.
-f
number-files
는 파일 시스템에 저장할 수 있는 최대 파일 수를 정수 값인 number-files
로 설정합니다. 0
(제로) 값은 무제한 파일 수를 지정합니다.
-t
number-seconds
는 유예 기간(소프트 한계를 초과할 수 있는 시간)을 초 수를 나타내는 정수 number-seconds
로 설정합니다. 대체 시간 지정 방법은 samquota
매뉴얼 페이지를 참조하십시오.
-G
groupID
는 그룹 이름 또는 그룹의 정수 식별자를 지정합니다. 0
(제로) 값은 모든 그룹에 대해 기본 한계를 설정합니다.
directory-or-file
(선택사항)은 특정 파일 시스템의 마운트 지점 디렉토리이거나 쿼터를 설정할 특정 디렉토리나 파일입니다.
예제에서는 요구 사항 수집 단계의 예상치를 사용하여 /hsm/hsmfs1
파일 시스템에서 dev
그룹이 사용할 수 있는 스토리지 공간량과 저장할 수 있는 파일 수에 대해 하드 및 소프트 한계를 설정합니다. 온라인 전용 스토리지에 대해 유예 기간을 43200
초(12시간)로 설정합니다. 아래의 명령은 단일 행으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프합니다.
[server1]root@solaris:~# samquota -b 3019898880:h:t -f 30000:h:t \ -G dev /hsm/hsmfs1 [server1]root@solaris:~# samquota -b 2013265920:s:t -f 15000:s:t -t 43200:o \ -G dev /hsm/hsmfs1 [server1]root@solaris:~#
각 관리 세트에 대해 한계를 설정합니다. samquota
-b
number-blocks
:
type
[
:
scope
]
-f
number-files
:
type
[
:
scope
]
-t
interval
[
:
scope
]
-A
adminsetID
[
directory-or-file
]
명령을 사용합니다. 여기서 -A
adminsetID
는 관리 세트를 고유하게 식별하는 정수값입니다.
adminsetID
를 0
(제로)으로 설정하면 모든 관리 세트에 대해 기본 한계가 설정됩니다.
예제에서는 요구 사항 수집 단계의 예상치를 사용하여 /hsm/hsmfs1
파일 시스템에서 portal
프로젝트(관리 세트 ID 1
)가 사용할 수 있는 스토리지 공간량과 저장할 수 있는 파일 수에 대해 하드 및 소프트 한계를 설정합니다. 사용된 전체 스토리지(기본 범위)에 대해 유예 기간을 43200
초(12시간)로 설정합니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.
[server1]root@solaris:~# samquota -b 377487360:h:t -f 7000:h:t -A 1 /hsm/hsmfs1 [server1]root@solaris:~# samquota -b 314572800:s:t -f 4000:s:t -t 43200 \ -A 1 /hsm/hsmfs1 [server1]root@solaris:~#
각 개별 사용자에 대해 한계를 설정합니다. samquota
-b
number-blocks
:
type
[
:
scope
]
-f
number-files
:
type
[
:
scope
]
-t
interval
[
:
scope
]
-U
userID
[
directory-or-file
]
명령을 사용합니다. 여기서 -U
userID
는 사용자 이름 또는 사용자의 정수 식별자입니다.
userID
를 0
(제로)으로 설정하면 모든 사용자에 대해 기본 한계가 설정됩니다.
예제에서는 요구 사항 수집 단계의 예상치를 사용하여 /hsm/hsmfs1
파일 시스템에서 jr23547
사용자가 사용할 수 있는 스토리지 공간량과 jr23547
이 저장할 수 있는 파일 수에 대해 하드 및 소프트 한계를 설정합니다. 사용된 전체 스토리지(기본 범위)에 대해 유예 기간을 1209600
초(2주)로 설정합니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.
[server1]root@solaris:~# samquota -b 100663296:h:t -f 600:h:t \ -U jr23547 /hsm/hsmfs1 [server1]root@solaris:~# samquota -b 10485760:s:t -f 2000:s:t -t 1209600 \ -U jr23547 /hsm/hsmfs1 [server1]root@solaris:~#
여기서 중지합니다.
루트 디렉토리에 쿼터 파일이 있을 때 Oracle HSM 파일 시스템을 noquota
마운트 옵션으로 마운트하는 경우, 블록이나 파일을 할당하거나 비울 때 쿼터 레코드가 불일치해집니다. 이 상황에서 다음과 같이 하십시오.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 서버 이름이 server1
로 지정됩니다.
[server1]root@solaris:~#
영향을 받는 파일 시스템을 마운트 해제합니다.
예제에서는 samfs2
파일 시스템을 마운트 해제합니다.
[server1]root@solaris:~# umount samfs2 [server1]root@solaris:~#
텍스트 편집기에서 /etc/vfstab
파일을 열고 noquota
마운트 옵션이 설정되지 않았는지 확인합니다.
예제에서는 vi
텍스트 편집기에서 파일을 엽니다. noquota
마운트 옵션이 설정되었습니다.
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... samfs2 - /samfs2 samfs - no noquota
/etc/vfstab
파일에 noquota
마운트 옵션이 설정된 경우 삭제하고 파일을 저장합니다.
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... samfs2 - /samfs2 samfs - no - :wq [server1]root@solaris:~#
텍스트 편집기에서 /etc/opt/SUNWsamfs/samfs.cmd
파일을 열고 noquota
마운트 옵션이 설정되지 않았는지 확인합니다.
예제에서는 vi
텍스트 편집기에서 파일을 엽니다. noquota
마운트 옵션이 설정되지 않았습니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/samfs.cmd # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. # #inodes = 0 #fs = hsmfs1 # forcedirectio (default no forcedirectio) # high = 80 # low = 70 # weight_size = 1. # weight_age = 1. # readahead = 128 ... # dio_wr_ill_min = 0 # dio_wr_consec = 3 # qwrite (ma filesystem, default no qwrite) # shared_writer (ma filesystem, default no shared_writer) # shared_reader (ma filesystem, default no shared_reader)
/etc/opt/SUNWsamfs/samfs.cmd
파일에 noquota
마운트 옵션이 설정된 경우 삭제하고 파일을 저장합니다.
불일치 쿼터 레코드를 복구합니다. samfsck
-F
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템의 패밀리 세트 이름입니다.
[server1]root@solaris:~# samfsck -F samfs2
파일 시스템을 다시 마운트합니다.
시스템이 파일 시스템의 루트 디렉토리에서 하나 이상의 쿼터 파일을 감지할 때 쿼터가 사용으로 설정됩니다.
파일 시스템은 기본적으로 쿼터가 사용으로 설정된 채 마운트되기 때문에 /etc/vfstab
또는 samfs.cmd
파일에 quota
마운트 옵션을 포함할 필요가 없습니다.
[server1]root@solaris:~# mount /samfs2 [server1]root@solaris:~#
여기서 중지합니다.
관리자와 사용자 모두 쿼터 및 리소스 사용량을 모니터할 수 있습니다. root
사용자는 samquota
명령을 사용하여 사용자, 그룹, 관리 세트에 대한 쿼터 보고서를 생성할 수 있습니다. 파일 시스템 사용자는 squota
명령을 사용하여 자신이 소유한 쿼터를 검사할 수 있습니다.
아래 절차를 참조하십시오.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 서버 이름이 server1
로 지정됩니다.
[server1]root@solaris:~#
모든 그룹에 대한 쿼터 통계를 표시하려면 samquota
-g
[
directory-or-file
]
명령을 사용합니다. 여기서 선택적 directory-or-file
매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.
예제에서는 /hsm/hsmfs1
에 마운트되는 hsmfs1
파일 시스템에 대한 보고서를 요청합니다.
[server1]root@solaris:~# samquota -g /hsm/hsmfs1
모든 관리 세트에 대한 쿼터 통계를 표시하려면 samquota
-a
[
directory-or-file
]
명령을 사용합니다. 여기서 선택적 directory-or-file
매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.
예제에서는 /hsm/hsmfs1
에 마운트되는 hsmfs1
파일 시스템에 대한 보고서를 요청합니다.
[server1]root@solaris:~# samquota -a /hsm/hsmfs1
모든 사용자에 대한 쿼터 통계를 표시하려면 samquota
-u
[
directory-or-file
]
명령을 사용합니다. 여기서 선택적 directory-or-file
매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.
예제에서는 /hsm/hsmfs1
에 마운트되는 hsmfs1
파일 시스템에 대한 보고서를 요청합니다.
[server1]root@solaris:~# samquota -u /hsm/hsmfs1
특정 그룹에 대한 쿼터 통계를 표시하려면 samquota
-G
groupID
[
directory-or-file
]
명령을 사용합니다. 여기서 groupID
는 그룹에 대한 그룹 이름 또는 정수 식별자를 지정하고 선택적 directory-or-file
매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.
예제에서는 /hsm/hsmfs1
에 마운트되는 hsmfs1
파일 시스템에서 dev
그룹의 쿼터에 대한 보고서를 요청합니다.
[server1]root@solaris:~# samquota -G dev /hsm/hsmfs1
특정 관리 세트에 대한 쿼터 통계를 표시하려면 samquota
-A
adminsetID
[
directory-or-file
]
명령을 사용합니다. 여기서 adminsetID
는 관리 세트에 대한 정수 식별자를 지정하고 선택적 directory-or-file
매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.
예제에서는 /hsm/hsmfs1
에 마운트되는 hsmfs1
파일 시스템에서 관리 세트 1
의 쿼터에 대한 보고서를 요청합니다.
[server1]root@solaris:~# samquota -A 1 /hsm/hsmfs1
특정 사용자에 대한 쿼터 통계를 표시하려면 samquota
-U
userID
[
directory-or-file
]
명령을 사용합니다. 여기서 userID
는 사용자에 대한 사용자 이름 또는 정수 식별자를 지정하고 선택적 directory-or-file
매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.
예제에서는 /hsm/hsmfs1
에 마운트되는 hsmfs1
파일 시스템에서 jr23547
사용자의 쿼터에 대한 보고서를 요청합니다.
[server1]root@solaris:~# samquota -U jr23547 /hsm/hsmfs1
여기서 중지합니다.
사용자 ID를 사용하여 파일 시스템 호스트에 로그인합니다.
예제에서는 server1
호스트에 od447
사용자로 로그인합니다.
[server1]od447@solaris:~#
모든 그룹에 대한 쿼터 통계를 표시하려면 squota
[
directory-or-file
]
명령을 사용합니다. 여기서 선택적 directory-or-file
매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.
예제에서는 모든 파일 시스템에 대한 보고서를 요청합니다.
[server1]od447@solaris:~# squota
Limits
Type ID In Use Soft Hard
/hsm/hsmfs1
Files group 101 1 1000 1200
Blocks group 101 8 20000 30000
Grace period 25920
No user quota entry.
[server1]od447@solaris:~#
여기서 중지합니다.
유예 기간을 일시적으로 연장하거나 유예 기간을 단축해야 하는 경우 이를 수행할 수 있습니다.
그룹, 사용자, 관리 세트가 쿼터에 지정된 소프트 한계를 초과한 경우, 일시적이지만 현재 유예 기간이 허용하는 것보다 오랫동안 소프트 한계 이상을 유지하려면 다음과 같이 연장 권한을 부여할 수 있습니다.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
연장이 필요한 쿼터를 확인합니다. samquota
-
quota-type
ID
[
directory-or-file
]
명령을 사용합니다. 설명:
quota-type
ID
는 G
더하기 그룹 이름 또는 ID 번호, A
더하기 관리 세트 ID 번호, U
더하기 사용자 이름 또는 ID 번호입니다.
directory-or-file
(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.
예제에서는 dev
그룹이 소프트 한계를 크게 초과하며 남은 유예 기간은 2시간 뿐입니다.
[server1]root@solaris:~# samquota -G dev /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 101 323 15000 30000 323 15000 30000 Blocks group 101 3109330961 2013265920 3019898880 3109330961 2013265920 3019898880 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 2h21m16s [server1]root@solaris:~#
보증된 경우 유예 기간을 연장합니다. samquota
-
quota-type
ID
-x
number-seconds
[
directory-or-file
]
명령을 사용합니다. 설명:
quota-type
ID
는 G
더하기 그룹 이름 또는 ID 번호, A
더하기 관리 세트 ID 번호, U
더하기 사용자 이름 또는 ID 번호입니다.
directory-or-file
(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.
number-seconds
는 연장 초 수를 나타내는 정수입니다(대체 시간 지정 방법은 samquota
매뉴얼 페이지 참조).
계속하려면 프롬프트가 표시될 때 y
(예)를 입력합니다.
예제에서는 hsmfs1
파일 시스템의 파일에 대해 dev
그룹의 유예 기간을 2678400
초(31일)로 연장합니다.
[server1]root@solaris:~# samquota -G dev -x 2678400 /hsm/hsmfs1 Setting Grace Timer: continue? y
dev
그룹 쿼터를 다시 검사하면 유예 기간이 연장되었습니다.
[server1]root@solaris:~# samquota -G dev /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 101 323 15000 30000 323 15000 30000 Blocks group 101 43208 2013265920 3019898880 43208 2013265920 3019898880 Grace period 2678400 2678400 ---> Warning: soft limits to be enforced in 31d [server1]root@solaris:~#
그룹, 관리 세트, 사용자에 정기적으로 연장이 필요한 경우 스토리지 요구 사항을 다시 평가하고 유예 기간을 영구적으로 늘리는 것을 고려하십시오. 그룹, 프로젝트, 디렉토리 및 사용자에 대한 쿼터 설정 절차를 사용하십시오.
여기서 중지합니다.
그룹, 사용자, 관리 세트가 쿼터에 지정된 소프트 한계를 초과한 경우, 현재 유예 기간이 만료되기 전에 소프트 한계 아래로 떨어뜨릴 공간을 재빨리 확보할 수 없으면 유예 기간을 다시 시작할 수 있습니다. 다음과 같이 하십시오.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
연장이 필요한 쿼터를 확인합니다. samquota
-
quota-type
ID
[
directory-or-file
]
명령을 사용합니다. 설명:
quota-type
ID
는 G
더하기 그룹 이름 또는 ID 번호, A
더하기 관리 세트 ID 번호, U
더하기 사용자 이름 또는 ID 번호입니다.
directory-or-file
(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.
예제에서는 cit
그룹이 hsmfs1
파일 시스템에 대한 소프트 한계를 초과하며 남은 유예 기간은 1시간 조금 넘습니다.
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 762 750 1500 762 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 1h11m23s [server1]root@solaris:~#
다음에 파일이나 블록을 할당할 때 유예 기간을 전체 시작 크기로 재설정하려면 유예 기간 타이머를 지웁니다. samquota
-
quota-type
ID
-x
clear
[
directory-or-file
]
명령을 사용합니다. 설명:
quota-type
ID
는 G
더하기 그룹 이름 또는 ID 번호, A
더하기 관리 세트 ID 번호, U
더하기 사용자 이름 또는 ID 번호입니다.
directory-or-file
(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.
계속하려면 프롬프트가 표시될 때 y
(예)를 입력합니다.
예제에서는 hsmfs1
파일 시스템에서 cit
그룹의 쿼터에 대한 유예 기간 타이머를 지웁니다.
[server1]root@solaris:~# samquota -G cit -x clear /hsm/hsmfs1 Setting Grace Timer: continue? y [server1]root@solaris:~#
cit
그룹 쿼터를 다시 검사하면 파일이 할당되었고 유예 기간이 12h
, 즉 12시간(4320
초)으로 재설정되었습니다.
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 763 750 1500 763 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 12h [server1]root@solaris:~#
다른 방법으로, 즉각적으로 유예 기간을 전체 시작 크기로 재설정하려면 유예 기간 타이머를 재설정합니다. samquota
-
quota-type
ID
-x
reset
[
directory-or-file
]
명령을 사용합니다.
quota-type
ID
는 G
더하기 그룹 이름 또는 ID 번호, A
더하기 관리 세트 ID 번호, U
더하기 사용자 이름 또는 ID 번호입니다.
directory-or-file
(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.
계속하려면 프롬프트가 표시될 때 y
(예)를 입력합니다.
예제에서는 hsmfs1
파일 시스템에서 cit
그룹의 쿼터에 대한 유예 기간 타이머를 지웁니다.
[server1]root@solaris:~# samquota -G cit -x reset /hsm/hsmfs1 Setting Grace Timer: continue? y [server1]root@solaris:~#
cit
그룹 쿼터를 다시 검사하면 유예 기간이 12h
, 즉 12시간(4320
초)으로 재설정되었습니다.
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 762 750 1500 762 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 12h [server1]root@solaris:~#
여기서 중지합니다.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
단축할 유예 기간을 확인합니다. samquota
-
quota-type
ID
[
directory-or-file
]
명령을 사용합니다. 설명:
quota-type
ID
는 G
더하기 그룹 이름 또는 ID 번호, A
더하기 관리 세트 ID 번호, U
더하기 사용자 이름 또는 ID 번호입니다.
directory-or-file
(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.
예제에서는 cit
그룹이 소프트 한계를 초과하며 유예 기간이 11시간 남았지만, 유예 기간을 조기에 종료하려고 합니다.
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 822 750 1500 822 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 11h [server1]root@solaris:~#
유예 기간을 만료합니다. samquota
-
quota-type
ID
-x
expire
[
directory-or-file
]
명령을 사용합니다. 설명:
quota-type
ID
는 G
더하기 그룹 이름 또는 ID 번호, A
더하기 관리 세트 ID 번호, U
더하기 사용자 이름 또는 ID 번호입니다.
directory-or-file
(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.
예제에서는 cit
그룹에 대한 유예 기간을 만료합니다.
root@solaris:~# samquota -G cit -x expire /hsm/hsmfs1 Setting Grace Timer: continue? y
쿼터를 다시 검사하면 cit
그룹의 소프트 한계가 하드 한계로 강제 적용되고 있습니다.
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 762 750 1500 762 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Online soft limits under enforcement (since 6s ago) [server1]root@solaris:~#
여기서 중지합니다.
불일치 쿼터 값을 만들어 파일 시스템 리소스 할당을 금지할 수 있습니다. 파일 시스템이 사용자, 그룹, 관리 세트에 대한 쿼터 값 불일치를 감지하면 해당 사용자, 그룹, 관리 세트에서 더 이상 시스템 리소스를 사용하지 못하게 됩니다. 따라서 쿼터의 하드 한계를 해당하는 소프트 한계보다 낮게 설정하면 추가 할당이 중지됩니다. 이 기법을 사용하려면 다음과 같이 하십시오.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
나중에 복원할 수 있도록 쿼터를 백업합니다. 현재 구성을 내보내고 해당 정보를 파일로 재지정합니다. samquota
-
quota-type
ID
[
directory-or-file
]
>
file
명령을 사용합니다. 설명:
quota-type
ID
는 G
더하기 그룹 이름 또는 ID 번호, A
더하기 관리 세트 ID 번호, U
더하기 사용자 이름 또는 ID 번호입니다.
directory-or-file
(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.
file
은 출력 파일의 이름입니다.
예제에서는 cit
그룹의 쿼터를 root
사용자의 홈 디렉토리에 있는 restore.hsmfs1.quota_g.cit
파일로 내보냅니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.
[server1]root@solaris:~# samquota -G cit -e /hsm/hsmfs1 > \ /root/restore.hsmfs1.quota_g.cit [server1]root@solaris:~#
출력을 확인합니다. Solaris 명령 more
<
file
을 사용합니다. 여기서 file
은 출력 파일의 이름입니다.
[server1]root@solaris:~# more < /root/restore.hsmfs1.quota_g.cit
# Type ID
# Online Limits Total Limits
# soft hard soft hard
# Files
# Blocks
# Grace Periods
samquota -G 119 \
-f 750:s:o -f 1500:h:o -f 750:s:t -f 1500:h:t \
-b 157286400:s:o -b 235929600:h:o -b 157286400:s:t -b 235929600:h:t \
-t 4320:o -t 4320:t
[server1]root@solaris:~#
쿼터의 하드 한계를 0
(제로)으로 설정하고 소프트 한계를 1
(또는 0이 아닌 아무 값)로 설정합니다. samquota
-
quota-type
ID
-f 1:s -f 0:h -b 1:s -b 0:h
[
directory-or-file
]
명령을 사용합니다.
quota-type
ID
는 G
더하기 그룹 이름 또는 ID 번호, A
더하기 관리 세트 ID 번호, U
더하기 사용자 이름 또는 ID 번호입니다.
directory-or-file
(선택사항)은 특정 파일 시스템의 마운트 지점 디렉토리이거나 유예 기간을 연장할 특정 디렉토리나 파일입니다.
예제에서는 /hsm/hsmfs1
파일 시스템의 cit
그룹에 대한 쿼터 설정을 불일치로 만듭니다. 그러면 새 리소스 할당이 중지됩니다.
[server1]root@solaris:~# samquota -G cit -f 1:s -f 0:h -b 1:s -b 0:h /hsm/hsmfs1 [server1]root@solaris:~#
cit
그룹에 대한 쿼터를 검사하면 제로 쿼터가 발효됩니다. 느낌표 문자(!
)는 모든 현재 사용량이 쿼터를 초과해서 더 이상 할당되지 않음을 보여줍니다.
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /sam6 Files group 119 822! 1 0 822! 1 0 Blocks group 119 3109330961! 1 0 3109330961! 1 0 Grace period 4320 4320 ---> Quota values inconsistent; zero quotas in effect. [server1]root@solaris:~#
수정된 쿼터를 원래 상태로 복원하여 정상적 할당을 재개할 준비가 되었으면 셸 스크립트로 만든 백업 파일을 실행합니다. Solaris 명령 sh
file
을 사용합니다. 여기서 file
은 백업 파일의 이름입니다.
예제에서는 /root/restore.hsmfs1.quota_g.cit
파일을 실행하여 cit
그룹에 대한 쿼터를 복원합니다.
[server1]root@solaris:~# sh /root/restore.hsmfs1.quota_g.cit Setting Grace Timer: continue? y Setting Grace Timer: continue? y [server1]root@solaris:~#
쿼터를 검사하면 정상적 한계가 복원되었고 더 이상 할당이 차단되지 않습니다.
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 822 750 1500 822 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 11h [server1]root@solaris:~#
여기서 중지합니다.
파일 시스템에 대한 쿼터를 제거하거나 사용 안함으로 설정하려면 마운트 프로세스에서 쿼터를 사용 안함으로 설정합니다.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
텍스트 편집기에서 /etc/vfstab
파일을 열고 파일 시스템 행의 Mount Options 열에 noquota
마운트 옵션을 추가하고 파일을 저장합니다.
예제에서는 vi
텍스트 편집기에서 파일을 열고 hsmfs1
파일 시스템에 대해 noquota
마운트 옵션을 설정합니다.
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - no noquota :wq [server1]root@solaris:~#
파일 시스템이 마운트된 경우 마운트 해제합니다.
파일 시스템을 마운트 해제한 후 다시 마운트해야 합니다. 그래야 운영체제가 /etc/vfstab
파일을 다시 로드하고 지정된 변경을 수행합니다. 예제에서는 hsmfs1
파일 시스템을 마운트 해제합니다.
[server1]root@solaris:~# umount hsmfs1 [server1]root@solaris:~#
파일 시스템을 마운트합니다.
예제에서는 hsmfs1
파일 시스템을 마운트합니다.
[server1]root@solaris:~# mount hsmfs1 [server1]root@solaris:~#
나중에 쿼터를 복구하려면 쿼터 파일을 제자리에 둡니다.
쿼터를 복구할 준비가 되었으면 간단히 파일 시스템을 마운트 해제하고, 파일 시스템에서 samfsck
-F
명령을 실행하고, noquota
마운트 옵션을 제거하고, 파일 시스템을 다시 마운트할 수 있습니다.
쿼터를 복구하지 않으려는 경우나 쿼터 파일에서 소비한 공간을 회수해야 하는 경우 Solaris 명령 rm
을 사용하여 파일 시스템의 루트 디렉토리에서 .quota_g
, .quota_a
, .quota_u
파일을 삭제합니다.
예제에서는 /hsm/hsmfs1
파일 시스템 루트 디렉토리에서 모든 쿼터 파일을 제거합니다.
[server1]root@solaris:~# rm /hsm/hsmfs1/.quota_g [server1]root@solaris:~# rm /hsm/hsmfs1/.quota_a [server1]root@solaris:~# rm /hsm/hsmfs1/.quota_u [server1]root@solaris:~#
여기서 중지합니다.
일반적으로 아카이빙 파일 시스템은 비아카이빙 파일 시스템과 마찬가지 방법으로 관리합니다. 그러나 대부분의 파일 시스템 관리 작업을 수행하기 전에 아카이빙 프로세스를 중지해야 합니다. 활성일 때 아카이빙 프로세스는 파일 시스템의 주요 디스크 캐시를 변경합니다. 따라서 디스크 캐시에 유지 관리 작업을 수행하기 전에 이러한 프로세스를 중지해야 합니다. 이 절에서는 다음 작업을 다룹니다.
파일 시스템 호스트에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
모든 아카이빙 프로세스를 유휴 설정합니다. samcmd
aridle
명령을 사용합니다.
이 명령은 현재 아카이빙 및 스테이징 작업이 완료되도록 허용하지만, 새로운 작업을 시작하지는 않습니다.
[server1]root@solaris:~# samcmd aridle [server1]root@solaris:~#
모든 스테이징 프로세스를 유휴 설정합니다. samcmd
stidle
명령을 사용합니다.
이 명령은 현재 아카이빙 및 스테이징 작업이 완료되도록 허용하지만, 새로운 작업을 시작하지는 않습니다.
[server1]root@solaris:~# samcmd stidle [server1]root@solaris:~#
활성 아카이빙 작업이 완료될 때까지 기다립니다. samcmd
a
명령을 사용하여 아카이빙 프로세스의 상태를 확인합니다.
아카이빙 프로세스가 Waiting
for
:arrun
이면 아카이빙 프로세스가 유휴 상태입니다.
[server1]root@solaris:~# samcmd a Archiver status samcmd 5.4 10:20:34 May 20 2014 samcmd on samfs-mds sam-archiverd: Waiting for :arrun sam-arfind: ... Waiting for :arrun
활성 스테이징 작업이 완료될 때까지 기다립니다. samcmd
u
명령을 사용하여 스테이징 프로세스의 상태를 확인합니다.
스테이징 프로세스가 Waiting for :strun
이면 스테이징 프로세스가 유휴 상태임을 나타냅니다.
[server1]root@solaris:~# samcmd u Staging queue samcmd 5.4 10:20:34 May 20 2014 samcmd on solaris.demo.lan Staging queue by media type: all sam-stagerd: Waiting for :strun root@solaris:~#
시스템을 완전히 중지하려면 아카이빙 및 스테이징 프로세스 중지도 수행합니다.
아직 완료하지 않았으면 아카이빙 및 스테이징 프로세스 유휴 설정을 수행합니다.
아직 하지 않았으면 파일 시스템 호스트에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
더 진행하기 전에 모든 이동식 매체 드라이브를 유휴 설정합니다. 각 드라이브에 대해 samcmd
equipment-number
idle
명령을 사용합니다. 여기서 equipment-number
는 /etc/opt/SUNWsamfs/mcf
파일에서 드라이브에 지정된 장비 순서 번호입니다.
이 명령은 드라이브를 off
로 설정하기 전에 현재 아카이빙 및 스테이징 작업이 완료되도록 허용하지만, 새로운 작업을 시작하지는 않습니다. 예제에서는 순서 번호 801
, 802
, 803
, 804
를 가진 4개 드라이브를 유휴 설정합니다.
[server1]root@solaris:~# samcmd 801 idle [server1]root@solaris:~# samcmd 802 idle [server1]root@solaris:~# samcmd 803 idle [server1]root@solaris:~# samcmd 804 idle [server1]root@solaris:~#
실행 중인 작업이 완료될 때까지 기다립니다.
samcmd
r
명령을 사용하여 드라이브의 상태를 확인할 수 있습니다. 모든 드라이브가 notrdy
및 empty
이면 진행할 준비가 된 것입니다.
[server1]root@solaris:~# samcmd r Removable media samcmd 5.4 18:37:09 Feb 17 2014 samcmd on hsmfs1host ty eq status act use state vsn li 801 ---------p 0 0% notrdy empty li 802 ---------p 0 0% notrdy empty li 803 ---------p 0 0% notrdy empty li 804 ---------p 0 0% notrdy empty [server1]root@solaris:~#
아카이버 및 스테이저 프로세스가 유휴 상태이고 테이프 드라이버가 모두 notrdy
이면 라이브러리 제어 데몬을 중지합니다. samd
stop
명령을 사용합니다.
[server1]root@solaris:~# samd stop [server1]root@solaris:~#
파일 시스템 유지 관리를 계속 수행합니다.
유지 관리가 완료되면 아카이빙 및 스테이징 프로세스 다시 시작을 수행합니다.
작업을 다시 시작하면 보류 중인 스테이지가 재실행되고 아카이빙이 재개됩니다.
여기서 중지합니다.
준비가 되었으면 정상적 자동 작업을 재개하고 다음과 같이 하십시오.
파일 시스템 호스트에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
Oracle HSM 라이브러리 제어 데몬을 다시 시작합니다. samd
start
명령을 사용합니다.
[server1]root@solaris:~# samd start [server1]root@solaris:~#
여기서 중지합니다.
파일 시스템 이름 바꾸기는 2단계 프로세스입니다. 먼저 /etc/opt/SUNWsamfs/mcf
파일을 편집하여 파일 시스템의 패밀리 세트 이름을 변경합니다. 그런 다음 samfsck
-R
-F
명령으로 새 이름을 읽고 해당 디스크 장치의 수퍼 블록을 업데이트합니다. 파일 시스템 이름을 바꾸려면 아래 절차를 사용하십시오.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
아카이빙 파일 시스템을 복구하려면 더 진행하기 전에 아카이빙 및 스테이징 프로세스 유휴 설정 절차를 수행합니다.
이름을 바꾸려는 파일 시스템을 마운트 해제합니다.
예제에서는 hsmfs1
파일 시스템을 마운트 해제합니다.
[server1]root@solaris:~# umount hsmfs1
텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 이름을 바꾸려는 파일 시스템을 찾습니다.
예제에서는 vi
편집기를 사용합니다. hsmfs1
파일 시스템의 이름을 변경해야 합니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- ------------ ------ ---------- hsmfs1 100 ms hsmfs1 on /dev/dsk/c1t3d0s3 101 md hsmfs1 on /dev/dsk/c1t4d0s5 102 md hsmfs1 on
파일의 네번째 열에서 파일 시스템의 패밀리 세트 이름을 새 값으로 변경합니다. 첫번째 열에서 파일 시스템 장비 식별자를 변경해야 할 수 있지만 그 외 항목은 변경하지 마십시오. 파일을 저장하고 편집기를 닫습니다.
예제에서는 파일 시스템의 장비 식별자 및 패밀리 세트 이름을 모두 hsmfs1
에서 samqfs-hpcc
로 변경합니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- ------------ ------ ---------- samqfs-hpcc 100 ms samqfs-hpcc on /dev/dsk/c1t3d0s3 101 md samqfs-hpcc on /dev/dsk/c1t4d0s5 102 md samqfs-hpcc on :wq root@solaris:~#
새 패밀리 세트 이름이 반영되도록 파일 시스템 수퍼 블록을 재작성합니다. samfsck
-R
-F
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에 지정한 패밀리 세트 이름입니다.
-R
및 -F
옵션과 함께 실행할 때 samfsck
명령은 /etc/opt/SUNWsamfs/mcf
파일에서 새 패밀리 세트 이름과 해당하는 디스크 스토리지 장비 식별자를 읽습니다. 그런 다음 지정된 디스크 장치의 수퍼 블록을 새 패밀리 세트 이름으로 재작성합니다. 예제에서는 새 패밀리 세트 이름 samqfs-hpcc
로 명령을 실행합니다.
[server1]root@solaris:~# samfsck -R -F samqfs-hpcc
텍스트 편집기에서 /etc/vfstab
파일을 열고 이름을 바꾸려는 파일 시스템 항목을 찾습니다.
예제에서는 vi
텍스트 편집기에서 파일을 엽니다. hsmfs1
파일 시스템 항목이 새 이름을 사용하도록 변경해야 합니다.
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - no -
이름을 바꾼 파일 시스템에 대한 /etc/vfstab
항목의 첫번째 열에서 파일 시스템 이름을 변경하고 세번째 열(필요한 경우)에서 마운트 지점 디렉토리 이름을 변경하고, 파일을 저장합니다.
예제에서는 hsmfs1
파일 시스템의 이름을 samqfs-hpcc
로 변경하고 마운트 지점이 일치하도록 변경합니다.
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... samqfs-hpcc - /samqfs-hpcc samfs - no - :wq [server1]root@solaris:~#
필요한 경우 새 파일 시스템에 대한 새 마운트 지점 디렉토리를 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.
사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x
) 권한이 있어야 합니다. 예제에서는 /samqfs-hpcc
마운트 지점 디렉토리를 만들고 권한을 755
(-rwxr-xr-x
)로 설정합니다.
[server1]root@solaris:~# mkdir /samqfs-hpcc [server1]root@solaris:~# chmod 755 /samqfs-hpcc [server1]root@solaris:~#
sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 감지되면 수정합니다.
sam-fsd
는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 오류가 발견되면 실행을 중지합니다.
[server1]root@solaris:~# sam-fsd
Oracle HSM 소프트웨어에 mcf
파일을 다시 읽고 그에 따라 재구성하도록 지시합니다. samd
config
명령을 사용합니다.
[server1]root@solaris:~# samd config
samd config
에서 오류가 보고되면 이를 수정하고 오류가 발견되지 않을 때까지 명령을 재실행합니다.
파일 시스템을 마운트합니다.
예제에서는 새 마운트 지점 디렉토리를 사용합니다.
[server1]root@solaris:~# mount /samqfs-hpcc
여기서 중지합니다.
파일 시스템이 samu
, Oracle HSM Manager 또는 /var/adm/sam-log
파일을 통해 오류를 보고하면 아래 절차를 따르십시오.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
아카이빙 파일 시스템을 복구하려면 더 진행하기 전에 아카이빙 및 스테이징 프로세스 유휴 설정 절차를 수행합니다.
영향을 받는 파일 시스템을 마운트 해제합니다.
아카이빙이 중지되기를 기다리는 경우 여러 번 시도해야 할 수도 있습니다. 예제에서는 hsmfs1
파일 시스템을 마운트 해제합니다.
[server1]root@solaris:~# umount hsmfs1 samfs umount: /hsm/hsmfs1: is busy [server1]root@solaris:~# umount hsmfs1 [server1]root@solaris:~#
파일 시스템을 복구합니다. samfsck
-F
-V
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일의 파일 시스템에 지정된 패밀리 세트 이름입니다.
필요에 따라 나중에 참조하고 진단 목적으로 사용할 수 있도록 복구 결과를 날짜 기록 파일에 저장하는 것이 좋을 수 있습니다. 따라서 이 예제에서는 tee
/var/tmp/
samfsck-FV.
family-set-name
.`
date
'+%Y%m%d.%H%M%S'
`
명령에 samfsck
출력을 파이핑하여 결과를 저장합니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.
[server1]root@solaris:~# samfsck -F -V hsmfs1 | tee \ /var/tmp/samfsck-FV.hsmfs1. `date '+%Y%m%d.%H%M%S'` name: /hsm/hsmfs1 version: 2A First pass Second pass Third pass NOTICE: ino 2.2, Repaired link count from 8 to 14 Inodes processed: 123392 total data kilobytes = 1965952 total data kilobytes free = 1047680 total meta kilobytes = 131040 total meta kilobytes free = 65568 INFO: FS samma1 repaired: start: May 19, 2014 10:57:13 AM MDT finish: May 19, 2014 10:57:37 AM MDT NOTICE: Reclaimed 70057984 bytes NOTICE: Reclaimed 9519104 meta bytes [server1]root@solaris:~#
파일 시스템을 다시 마운트합니다.
[server1]root@solaris:~# mount /hsm/hsmfs1 [server1]root@solaris:~#
여기서 중지합니다.
기존 파일 시스템에 장치를 추가하기 전에 요구 사항과 대안을 고려해야 합니다. 기존 파일 시스템을 확대하는 것이 증가하는 용량 요구 사항을 충족하는 최선의 방법인지 확인합니다. 새 프로젝트나 사용자 커뮤니티를 수용할 물리적 스토리지 공간이 더 필요한 경우 하나 이상의 새로운 Oracle HSM 파일 시스템을 만드는 것이 더 좋은 선택일 수도 있습니다. 여러 개의 소형 파일 시스템이 일반적으로 하나의 대형 파일 시스템보다 훨씬 좋은 성능을 제공하며, 소형 파일 시스템을 만들고 유지 관리하기가 더 쉽습니다.
일단 파일 시스템을 확대하기로 결정했으면 다음 접근 방법 중 하나를 선택합니다.
다음과 같이 하십시오.
파일 시스템 서버에 root
로 로그인합니다.
예제에서는 server1
호스트에 로그인합니다.
[server1]root@solaris:~#
텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 확대하려는 파일 시스템을 찾습니다.
예제에서는 vi
편집기를 사용합니다. 두 개의 파일 시스템인 범용 samqfsms
파일 시스템과 고성능 samqfs2ma
파일 시스템을 확장해야 합니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ --------------- samqfsms 100 ms samqfsms on /dev/dsk/c1t3d0s3 101 md samqfsms on /dev/dsk/c1t4d0s5 102 md samqfsms on samqfs2ma 200 ma samqfs2ma on /dev/dsk/c1t3d0s3 201 mm samqfs2ma on /dev/dsk/c1t3d0s5 202 md samqfs2ma on /dev/dsk/c1t4d0s5 203 md samqfs2ma on
범용 ms
파일 시스템에 장치를 추가하는 경우 mcf
파일에서 파일 시스템 정의 끝에 추가 데이터/메타데이터 장치를 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
최대 252개의 논리 장치를 추가할 수 있습니다. 예제에서는 samqfsms
파일 시스템에 두 개의 장치 103
및 104
를 추가합니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ --------------- samqfsms 100 ms samqfsms on /dev/dsk/c1t3d0s3 101 md samqfsms on /dev/dsk/c1t4d0s5 102 md samqfsms on /dev/dsk/c1t3d0s7 103 md samqfsms on /dev/dsk/c1t4d0s7 104 md samqfsms on :wq [server1]root@solaris:~#
고성능 ma
파일 시스템에 장치를 추가하는 경우 mcf
파일에서 파일 시스템 정의 끝에 데이터 장치와 하나 이상의 mm
디스크 장치를 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
항상 기존 장치 목록의 끝에 새 장치를 추가하십시오. 데이터 장치를 추가하는 것에 비례해서 최대 252개의 메타데이터 장치를 추가할 수 있습니다. 예제에서는 samqfs2ma
파일 시스템에 하나의 mm
메타데이터 장치 204
와 두 개의 md
데이터 장치 205
및 206
을 추가합니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ --------------- ... samqfs2ma 200 ma samqfs2ma on /dev/dsk/c1t3d0s3 201 mm samqfs2ma on /dev/dsk/c1t3d0s5 202 md samqfs2ma on /dev/dsk/c1t4d0s5 203 md samqfs2ma on /dev/dsk/c1t5d0s6 204 mm samqfs2ma on /dev/dsk/c1t3d0s7 205 md samqfs2ma on /dev/dsk/c1t4d0s7 206 md samqfs2ma on :wq [server1]root@solaris:~#
sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 감지되면 수정합니다.
sam-fsd
는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 오류가 발견되면 실행을 중지합니다.
[server1]root@solaris:~# sam-fsd
sam-fsd
명령이 mcf
파일에서 오류를 찾을 경우 파일을 편집하여 오류를 해결하고 이전 단계에 설명된 대로 다시 검사합니다.
아래의 예에서는 sam-fsd
가 장치에서 지정되지 않은 문제를 보고합니다.
[server1]root@solaris:~# sam-fsd Problem in mcf file /etc/opt/SUNWsamfs/mcf for filesystem samqfsms sam-fsd: Problem with file system devices.
대개 이러한 오류는 부주의한 타이핑 실수의 결과입니다. 여기서 mcf
파일을 편집기에서 열면 두번째 신규 md
장치인 104
장치의 장비 이름에 0 대신 문자 o
를 입력했음을 알 수 있습니다.
samqfsms 100 ms samqfsms on /dev/dsk/c1t3d0s3 101 md samqfsms on /dev/dsk/c1t4d0s5 102 md samqfsms on /dev/dsk/c1t3d0s7 103 md samqfsms on /dev/dsk/c1t4dos7 104 md samqfsms on ˆ
sam-fsd
명령이 오류 없이 실행되면 mcf
파일이 올바른 것입니다. 다음 단계로 진행하십시오.
이 예는 오류가 없는 출력의 일부입니다.
[server1]root@solaris:~# sam-fsd
Trace file controls:
sam-amld /var/opt/SUNWsamfs/trace/sam-amld
cust err fatal ipc misc proc date
...
Would start sam-archiverd()
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[server1]root@solaris:~#
Oracle HSM 소프트웨어에 mcf
파일을 다시 읽고 그에 따라 재구성하도록 지시합니다. samd
config
명령을 사용합니다.
[server1]root@solaris:~# samd config Configuring SAM-FS [server1]root@solaris:~#
samd
config
로 Oracle HSM 파일 시스템 구성이 새 장치를 포함하도록 업데이트되었는지 확인합니다. samcmd
f
명령을 사용합니다.
장치는 off
상태여야 합니다. 예제에서 samcmd
f
는 새 장치 103
및 104
를 보여주며 둘 다 off
상태입니다.
[server1]root@solaris:~# samcmd f File systems samcmd 5.4 16:57:35 Feb 27 2014 samcmd on server1 ty eq state device_name status high low mountpoint server ms 100 on samqfsms m----2----- 80% 70% /samqfsms md 101 on /dev/dsk/c1t3d0s3 md 102 on /dev/dsk/c1t4d0s5 md 103 off /dev/dsk/c1t3d0s7 md 104 off /dev/dsk/c1t4d0s7 [server1]root@solaris:~#
새로 추가된 장치를 사용으로 설정합니다. 각 장치에 대해 samcmd
add
equipment-number
명령을 사용합니다. 여기서 equipment-number
는 /etc/opt/SUNWsamfs/mcf
파일에서 장치에 지정된 장비 순서 번호입니다.
예제에서는 새 장치 103
및 104
를 사용으로 설정합니다.
[server1]root@solaris:~# samcmd add 103 [server1]root@solaris:~# samcmd add 104
공유 파일 시스템에 장치를 추가하는 경우 공유 파일 시스템에 추가된 새 장치 구성 마치기로 이동합니다.
비공유 독립형 파일 시스템에 장치를 추가하는 경우 장치가 추가되었고 파일 시스템에서 사용할 준비가 되었는지 확인합니다. samcmd
m
명령을 사용하고 결과를 확인합니다.
장치가 on
상태일 때 성공적으로 추가되었고 사용할 준비가 되었습니다. 예제에서는 103
및 104
장치를 성공적으로 추가했습니다.
[server1]root@solaris:~# samcmd f Mass storage status samcmd 5.4 17:17:08 Feb 27 2014 samcmd on server1 ty eq status use state ord capacity free ra part high low ms 100 m----2----- 13% on 3.840G 3.588G 1M 16 80% 70% md 101 31% on 0 959.938M 834.250M md 102 13% on 1 959.938M 834.250M md 103 0% on 2 959.938M 959.938M md 104 0% on 3 959.938M 959.938M [server1]root@solaris:~#
여기서 중지합니다.
공유 파일 시스템에 장치를 추가할 때 모든 파일 시스템 호스트에 장치가 구성되기 전에 몇 가지 추가 단계를 수행해야 합니다. 다음과 같이 하십시오.
파일 시스템 메타데이터 서버 호스트에 root
로 로그인합니다.
예제에서 메타데이터 서버 호스트는 이름이 metadata-server
로 지정됩니다.
[metadata-server]root@solaris:~#
새 장치가 메타데이터 서버에 추가되었는지 확인합니다. samcmd
m
명령을 사용합니다.
장치가 unavail
상태일 때 성공적으로 추가되었지만 아직 사용할 준비가 되지 않았습니다. 예제에서는 103
및 104
장치를 성공적으로 추가했습니다.
[metadata-server]root@solaris:~# samcmd f Mass storage status samcmd 5.4 17:17:08 Feb 27 2014 samcmd on metadata-server ty eq status use state ord capacity free ra part high low ms 100 m----2----- 13% on 3.840G 3.588G 1M 16 80% 70% md 101 31% on 0 959.938M 834.250M md 102 13% on 1 959.938M 834.250M md 103 0% unavail 2 959.938M 959.938M md 104 0% unavail 3 959.938M 959.938M [metadata-server]root@solaris:~#
각 파일 시스템 클라이언트 호스트에 root
로 로그인합니다.
잠재적 메타데이터 서버를 넣는 것을 잊지 마십시오. 이들도 클라이언트입니다. 예제에서는 이름이 potential-metadata-server
인 잠재적인 메타데이터 서버와 두 개의 클라이언트 client1
및 client2Linux
에 로그인해야 합니다. 따라서 3개의 터미널 창을 열고 보안 셸(ssh
)을 사용합니다.
[metadata-server]root@solaris:~# ssh root@potential-metadata-server Password: [potential-metadata-server]root@solaris:~# [metadata-server]root@solaris:~# ssh root@client1 Password: [client1]root@solaris:~# [metadata-server]root@solaris:~# ssh root@client2Linux Password: [client2Linux]:[root@linux ~]#
Linux 클라이언트의 경우 공유 파일 시스템을 마운트 해제합니다.
[client2Linux]:[root@linux ~]# umount /samqfsms
각 클라이언트마다 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고, 서버에 했던 것처럼 파일 시스템 정의 끝에 새 장치를 추가합니다.
예제에서는 client1
의 mcf
파일에 103
및 104
장치를 추가합니다.
[client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ ---------- samqfsms 100 ms samqfsms on shared /dev/dsk/c1t3d0s3 101 md samqfsms on /dev/dsk/c1t4d0s5 102 md samqfsms on /dev/dsk/c1t3d0s7 103 md samqfsms on /dev/dsk/c1t4d0s7 104 md samqfsms on :wq [metadata-server]root@solaris:~#
각 클라이언트마다 sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 감지되면 수정합니다.
[metadata-server]root@solaris:~# sam-fsd
각 클라이언트에서 Oracle HSM 소프트웨어에 mcf
파일을 다시 읽고 그에 따라 재구성하도록 지시합니다.
[metadata-server]root@solaris:~# samd config
Linux 클라이언트의 경우 공유 파일 시스템을 마운트합니다.
[client2Linux]:[root@linux ~]# mount /samqfsms
모든 클라이언트가 구성되었으면 메타데이터 서버로 돌아가서 새 장치에 스토리지 할당을 사용으로 설정합니다. 각 장치에 대해 samcmd
alloc
equipment-number
명령을 사용합니다. 여기서 equipment-number
는 /etc/opt/SUNWsamfs/mcf
파일에서 장치에 지정된 장비 순서 번호입니다.
예제에서는 103
및 104
장치에 스토리지 할당을 사용으로 설정합니다.
[metadata-server]root@solaris:~# samcmd alloc 103 [metadata-server]root@solaris:~# samcmd alloc 104
마지막으로, 파일 시스템에서 장치를 사용할 준비가 되었는지 확인합니다. samcmd
m
명령을 사용하고 결과를 확인합니다.
장치가 on
상태일 때 성공적으로 추가되었고 사용할 준비가 되었습니다. 예제에서는 103
및 104
장치를 성공적으로 추가했습니다.
[metadata-server]root@solaris:~# samcmd f Mass storage status samcmd 5.4 17:17:08 Feb 27 2014 samcmd on metadata-server ty eq status use state ord capacity free ra part high low ms 100 m----2----- 13% on 3.840G 3.588G 1M 16 80% 70% md 101 31% on 0 959.938M 834.250M md 102 13% on 1 959.938M 834.250M md 103 0% on 2 959.938M 959.938M md 104 0% on 3 959.938M 959.938M [metadata-server]root@solaris:~#
여기서 중지합니다.
다음과 같이 하십시오.
파일 시스템 서버 호스트에 root
로 로그인합니다.
예제에서 메타데이터 서버 호스트는 이름이 server1
로 지정됩니다.
[server1]root@solaris:~#
아카이빙 파일 시스템을 마운트 해제하기 전에 아카이빙 및 스테이징 프로세스 유휴 설정 절차를 수행해야 합니다.
파일 시스템을 마운트 해제합니다.
파일 시스템을 마운트 해제할 때까지는 작업을 진행하지 마십시오. 예제에서는 hsmfs1
파일 시스템을 마운트 해제합니다.
[server1]root@solaris:~# umount hsmfs1
텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 확대하려는 파일 시스템을 찾습니다.
예제에서는 vi
편집기를 사용합니다. hsmfs1
파일 시스템을 확대해야 합니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------- hsmfs1 100 ms hsmfs1 on /dev/dsk/c1t3d0s3 101 md hsmfs1 on /dev/dsk/c1t4d0s5 102 md hsmfs1 on
고성능 ma
파일 시스템에 장치를 추가하는 경우 데이터 스토리지와 함께 메타데이터 스토리지를 추가해야 합니다. 추가할 데이터 장치의 메타데이터를 저장하기에 충분한 추가 mm
디스크 장치를 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
최대 252개의 논리 장치를 추가할 수 있습니다. 예제에서는 samqfs2ma
파일 시스템에 하나의 mm
메타데이터 장치를 추가하고 samqfs2ma
파일 시스템에 두 개의 데이터 장치를 추가합니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------- samqfs2ma 200 ma samqfs2ma on /dev/dsk/c1t3d0s3 201 mm samqfs2ma on /dev/dsk/c1t5d0s6 204 mm samqfs2ma on /dev/dsk/c1t3d0s5 202 md samqfs2ma on /dev/dsk/c1t4d0s5 203 md samqfs2ma on /dev/dsk/c1t3d0s7 205 md samqfs2ma on /dev/dsk/c1t4dos7 206 md samqfs2ma on :wq [server1]root@solaris:~#
범용 ms
파일 시스템에 장치를 추가하는 경우 mcf
파일에서 파일 시스템 정의에 데이터/메타데이터 장치를 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
최대 252개의 논리 장치를 추가할 수 있습니다. 예제에서는 hsmfs1
파일 시스템에 두 개의 장치를 추가합니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------- hsmfs1 100 ms hsmfs1 on /dev/dsk/c1t3d0s3 101 md hsmfs1 on /dev/dsk/c1t4d0s5 102 md hsmfs1 on /dev/dsk/c1t3d0s7 103 md hsmfs1 on /dev/dsk/c1t4dos7 104 md hsmfs1 on :wq [server1]root@solaris:~#
sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 감지되면 수정합니다.
sam-fsd
는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 오류가 발견되면 실행을 중지합니다.
[server1]root@solaris:~# sam-fsd
Oracle HSM 소프트웨어에 mcf
파일을 다시 읽고 그에 따라 재구성하도록 지시합니다.
root@solaris:~# samd config
새 장치를 파일 시스템으로 통합합니다. samgrowfs
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 파일 시스템에 대해 지정된 패밀리 세트 이름입니다.
예제에서는 hsmfs1
파일 시스템을 확대합니다.
[server1]root@solaris:~# samgrowfs hsmfs1
파일 시스템을 다시 마운트합니다.
[server1]root@solaris:~# mount /hsm/hsmfs1
아카이빙 파일 시스템에 장치를 추가했으면 Oracle HSM 라이브러리 관리 데몬을 다시 시작합니다. samd
start
명령을 사용합니다.
[server1]root@solaris:~# samd start
파일 시스템을 변경하기 전에 마운트 해제하는 것을 잊어버린 결과, 파일 시스템이 마운트하지 않을 경우 추가된 장치에 대한 참조를 삭제하여 원래 mcf
파일을 복원합니다. 그런 다음 samd
config
를 실행하여 구성을 복원하고 파일 시스템을 마운트 해제하고 다시 시작합니다.
여기서 중지합니다.
필요한 경우 마운트된 Oracle HSM 파일 시스템에서 데이터 장치를 제거할 수 있습니다. 일반적으로 고장난 부품을 교체하거나 활용되지 않는 장치를 다른 용도로 전환할 때 필요하게 됩니다. 그러나 몇 가지 제한 사항이 있습니다.
데이터 장치만 제거할 수 있습니다. 메타데이터는 파일 시스템 자체의 구조를 정의하기 때문에 메타데이터를 보유한 장치는 제거할 수 없습니다. 이는 고성능 ma
파일 시스템에서 md
, mr
및 스트라이프 그룹 장치만 제거할 수 있음을 의미합니다. ma
파일 시스템에서 mm
메타데이터 장치는 제거할 수 없습니다. 또한 이러한 장치는 데이터와 메타데이터를 모두 저장하므로 범용 ms
파일 시스템에서 md
장치를 제거할 수도 없습니다.
장치를 제거하려면 대상 장치에 상주하는 유효한 데이터 파일을 이동할 장소도 있어야 합니다. 이는 모든 장치를 제거할 수 없음을 의미합니다. 한 장치는 항상 파일 시스템에서 사용 가능해야 하며, 제거할 장치에 상주하는 모든 파일을 보유할 충분한 여유 용량이 있어야 합니다. 따라서 스트라이프 그룹을 제거해야 하는 경우 동일한 개수의 멤버 장치로 구성된 또 하나의 스트라이프 그룹이 사용 가능해야 합니다.
장치를 제거하려면 다음과 같이 하십시오.
다음 작업을 수행합니다.
samexplorer
실행파일 시스템 서버 호스트에 root
로 로그인합니다.
예제에서 메타데이터 서버 호스트는 이름이 server1
로 지정됩니다.
[server1]root@solaris:~#
samexplorer
보고서를 만듭니다. samexplorer
path/
hostname
.
YYYY
MM
DD
.
hh
mm
z
.tar.gz
명령을 사용합니다. 설명:
path
는 선택한 디렉토리에 대한 경로입니다.
hostname
은 Oracle HSM 파일 시스템 호스트의 이름입니다.
YYYY
MM
DD
.
hh
mm
z
는 날짜 및 시간 기록입니다.
기본적으로 이 파일은 /tmp/SAMreport.
hostname
.
YYYY
MM
DD
.
hh
mm
z
.tar.gz
입니다. 예제에서는 /zfs1/tmp/
디렉토리를 사용합니다. 여기서 /zfs1
은 Oracle HSM 파일 시스템과 공통 구성 요소가 없는 파일 시스템입니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.
[server1]root@solaris:~# samexplorer \ /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz Report name: /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz Lines per file: 1000 Output format: tar.gz (default) Use -u for unarchived/uncompressed. Please wait............................................. Please wait............................................. Please wait...................................... The following files should now be ftp'ed to your support provider as ftp type binary. /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz
파일 시스템에 대한 복구 지점 파일 만들기를 수행합니다.
파일 시스템 서버 호스트에 root
로 로그인합니다.
예제에서 메타데이터 서버 호스트는 이름이 server1
로 지정됩니다.
[server1]root@solaris:~#
복구 지점 파일을 저장할 위치를 선택합니다. 선택한 위치는 백업 중인 파일 시스템과 어떤 장치도 공유하지 않아야 하며 엄청나게 큰 파일을 저장할 공간이 있어야 합니다.
제거하려는 장치에 아카이브되지 않은 파일이 포함될 수 있습니다. 이러한 파일은 단일 복사본으로만 존재하므로 적어도 일부 데이터와 메타데이터를 저장할 복구 지점 파일을 만들어야 합니다. 그러면 복구 지점 파일의 크기가 상당히 증가할 수 있습니다.
예제에서는 Oracle HSM 파일 시스템과 공통 구성 요소가 없는 파일 시스템 /zfs1
에 하위 디렉토리 tmp/
를 만듭니다.
[server1]root@solaris:~# mkdir /zfs1/tmp/ [server1]root@solaris:~#
파일 시스템의 루트 디렉토리로 변경합니다.
예제에서는 마운트 지점 디렉토리 /hsm/hsmfs1
로 변경합니다.
[server1]root@solaris:~# cd /hsm/hsmfs1 [server1]root@solaris:~#
파일 시스템 메타데이터와 아카이브되지 않은 데이터를 백업합니다. samfsdump
-f
-u
recovery-point
명령을 사용합니다. 여기서 recovery-point
는 완성된 복구 지점 파일의 경로 및 파일 이름입니다.
-u
옵션은 아카이브되지 않은 파일의 데이터 부분을 복구 지점에 추가합니다. 그러면 파일 크기가 크게 증가할 수 있습니다.
예제에서는 /zfs1/tmp/
디렉토리에 hsmfs1-20140313.025215
라는 hsmfs1
파일 시스템에 대한 복구 지점 파일을 만듭니다. ls
-l
명령을 사용하여 결과를 확인합니다. 아래의 두번째 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.
[server1]root@solaris:~# cd /hsm/hsmfs1 [server1]root@solaris:~# samfsdump -f \ /zfs1/tmp/hsm/hsmfs1-`date '+%Y%m%d.%H%M%S'` -T /hsm/hsmfs1 samfsdump statistics: Files: 10010 Directories: 2 Symbolic links: 0 Resource files: 0 Files as members of hard links : 0 Files as first hard link : 0 File segments: 0 File archives: 10010 Damaged files: 0 Files with data: 0 File warnings: 0 Errors: 0 Unprocessed dirs: 0 File data bytes: 0 [server1]root@solaris:~# ls -l /zfs1/tmp/hsmfs1* -rw-r--r-- 1 root other 5376517 Mar 13 02:52 /zfs1/tmp/hsm/hsmfs1-20140313.025215 [server1]root@solaris:~#
이제 마운트된 고성능 파일 시스템에서 장치 제거를 수행합니다.
한번에 하나씩 장치를 제거해야 합니다. 각 장치에 대해 다음과 같이 하십시오.
파일 시스템 서버 호스트에 root
로 로그인합니다.
예제에서 메타데이터 서버 호스트는 이름이 server1
로 지정됩니다.
[server1]root@solaris:~#
/etc/opt/SUNWsamfs/mcf
파일을 열고 제거해야 하는 장치에 대한 장비 순서 번호를 확인합니다.
예제에서는 vi
편집기를 사용합니다. hsmfs1
파일 시스템의 장비 목록에서 /dev/dsk/c1t4d0s7
장치를 제거해야 합니다. 장비 순서 번호는 104
입니다.
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ -------------- hsmfs1 100 ms hsmfs1 on /dev/dsk/c1t3d0s3 101 md hsmfs1 on /dev/dsk/c1t4d0s5 102 md hsmfs1 on /dev/dsk/c1t3d0s7 103 md hsmfs1 on /dev/dsk/c1t4d0s7 104 md hsmfs1 on :q [server1]root@solaris:~#
장치를 제거하기 전에 파일 시스템에 남은 장치들이 삭제하려는 장치에서 이동된 파일을 수용할 수 있는지 확인합니다.
남은 장치에 충분한 용량이 있는지 확인합니다.
장치가 스트라이프 그룹인 경우 파일 시스템에 동일 구성의 스트라이프 그룹이 또 하나 있는지 확인합니다.
예를 들어, 제거할 스트라이프 그룹에 4개의 장비 번호가 있는 경우 또 하나의 스트라이프 그룹이 ON 상태이고 4개의 장비 번호가 있어야 합니다.
수정할 파일 시스템에 버전 2A 수퍼 블록이 있는지 확인합니다. samfsinfo
filesystem-name
명령을 사용합니다. 여기서 filesystem-name
은 파일 시스템의 이름입니다.
예제에서는 hsmfs1
파일 시스템이 version:
2A
수퍼 블록을 사용합니다.
[server1]root@solaris:~# /opt/SUNWsamfs/sbin/samfsinfo hsmfs1 samfsinfo: filesystem hsmfs1 is mounted. name: hsmfs1 version: 2A time: Tuesday, June 28, 2011 6:07:36 AM MDT feature: Aligned Maps count: 4 ... [server1]root@solaris:~#
파일 시스템에 버전 2A 수퍼 블록이 없는 경우 여기서 중지합니다. 이 파일 시스템을 마운트하는 동안 장치를 제거할 수 없습니다.
Oracle HSM 아카이빙 파일 시스템에서 장치를 제거하는 경우 모든 아카이브된 파일을 제거 중인 디스크 장치에서 해제합니다. samcmd
release
equipment-number
명령을 사용합니다. 여기서 equipment-number
는 /etc/opt/SUNWsamfs/mcf
파일에서 장치를 식별하는 장비 순서 번호입니다.
장치가 스트라이프 그룹인 경우 그룹의 아무 장치나 장비 번호를 제공합니다.
Oracle HSM 소프트웨어는 지정된 장치에 새 파일이 저장되지 않도록 상태를 noalloc
(할당 없음)로 변경하고, 이전에 아카이브된 파일을 해제하기 시작합니다. 장치에 아카이브되지 않은 파일이 없을 때 소프트웨어는 파일 시스템 구성에서 장치를 제거하고 상태를 off
로 변경합니다.
예제에서는 아카이빙 파일 시스템 hsmfs1
의 104
장치에서 파일을 해제합니다.
[server1]root@solaris:~# samcmd release 104
Oracle HSM 비아카이빙 파일 시스템에서 장치를 제거하는 경우 모든 남은 유효한 파일을 제거 중인 디스크 장치 밖으로 이동합니다. samcmd
remove
equipment-number
명령을 사용합니다. 여기서 equipment-number
는 /etc/opt/SUNWsamfs/mcf
파일에서 장치를 식별하는 장비 순서 번호입니다.
Oracle HSM 소프트웨어는 지정된 장치에 새 파일이 저장되지 않도록 상태를 noalloc
(할당 없음)로 변경하고, 유효한 데이터가 포함된 파일을 파일 시스템에 남은 장치로 이동하기 시작합니다. 모든 파일이 이동되었을 때 소프트웨어는 파일 시스템 구성에서 장치를 제거하고 상태를 off
로 변경합니다.
예제에서는 104
장치의 파일을 밖으로 이동합니다.
[server1]root@solaris:~# samcmd remove 104
선택한 프로세스 samcmd
remove
또는 samcmd
release
의 진행률을 모니터합니다. samcmd
m
명령을 사용하고 로그 파일과 /var/opt/SUNWsamfs/trace/sam-shrink
파일을 관찰합니다.
release
프로세스는 모든 파일이 아카이브된 경우 단순히 아카이브 매체로 복사된 파일과 연관된 공간을 해제하면 되므로 아주 빠르게 완료됩니다. remove
프로세스는 데이터 양과 파일 수에 따라 디스크 장치 사이에 파일을 이동해야 하므로 상당히 오래 걸립니다.
[server1]root@solaris:~# samcmd m ty eq status use state ord capacity free ra part high low ms 100 m----2----- 27% on 3.691G 2.628G 1M 16 80% 70% md 101 27% on 0 959.938M 703.188M md 102 28% on 1 899.938M 646.625M md 103 13% on 2 959.938M 834.250M md 104 0% noalloc 3 959.938M 959.938M [server1]root@solaris:~#
samcmd
release
를 사용할 때 대상 장치가 off
상태로 진입하지 않으면 장치에 아카이브되지 않은 파일이 있는 것입니다. 아카이버가 실행되고 아카이빙이 완료될 때까지 기다립니다. 그런 다음 다시 samcmd
release
명령을 사용합니다. samcmd
a
명령을 사용하여 아카이빙의 진행률을 확인할 수 있습니다.
아카이브되지 않은 파일이 아카이브될 때까지 release
프로세스는 디스크 공간을 확보할 수 없습니다.
[server1]root@solaris:~# samcmd a Archiver status samcmd 5.4 14:12:14 Mar 1 2014 samcmd on server1 sam-archiverd: Waiting for resources sam-arfind: hsmfs1 mounted at /hsm/hsmfs1 Files waiting to start 4 schedule 2 archiving 2 [server1]root@solaris:~#
하나 이상의 아카이브되지 않은 파일을 아카이브할 수 없어서 samcmd
release
가 실패하면 아카이브되지 않은 파일을 다른 장치로 이동합니다. 비아카이빙 독립형 파일 시스템에서 장치를 제거할 때와 마찬가지로 samcmd
remove
equipment-number
명령을 사용합니다.
예제에서는 104
장치의 파일을 밖으로 이동합니다.
[server1]root@solaris:~# samcmd remove 104
장치 상태가 off
로 변경되었으면 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 파일 시스템을 찾아서 변경사항이 반영되도록 장비 목록을 업데이트합니다. 파일을 저장하고 편집기를 닫습니다.
예제에서 samcmd
m
은 104
가 off
임을 보여줍니다. 따라서 vi
편집기를 사용하여 mcf
파일을 엽니다. hsmfs1
파일 시스템의 장비 목록에서 104
장치 항목을 제거하고 변경사항을 저장합니다.
[server1]root@solaris:~# samcmd m ty eq status use state ord capacity free ra part high low ms 100 m----2----- 27% on 3.691G 2.628G 1M 16 80% 70% md 101 27% on 0 959.938M 703.188M md 102 28% on 1 899.938M 646.625M md 103 13% on 2 959.938M 834.250M md 104 0% off 3 959.938M 959.938M [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ --------- hsmfs1 100 ms hsmfs1 on /dev/dsk/c1t3d0s3 101 md hsmfs1 on /dev/dsk/c1t4d0s5 102 md hsmfs1 on /dev/dsk/c1t3d0s7 103 md hsmfs1 on :wq [server1]root@solaris:~#
sam-fsd
명령을 실행하여 수정된 mcf
파일에 오류가 있는지 확인하고, 오류가 감지되면 수정합니다.
만일 오류가 발생하면 sam-fsd
명령이 중지됩니다.
[server1]root@solaris:~# sam-fsd
Oracle HSM 소프트웨어에 mcf
파일을 다시 읽고 그에 따라 재구성하도록 지시합니다.
[server1]root@solaris:~# samd config
여기서 중지합니다.
이 절에서는 다음 작업을 설명합니다.
공유 파일 시스템을 마운트하거나 마운트 해제할 때 메타데이터 서버와 클라이언트를 마운트/마운트 해제하는 순서가 매우 중요합니다.
페일오버 목적상, 마운트 옵션은 메타데이터 서버와 모든 잠재적 메타데이터 서버에서 동일해야 합니다. 예를 들어, 마운트 옵션을 포함하는 samfs.cmd
파일을 만들어서 모든 호스트에 복사할 수 있습니다.
공유 파일 시스템 마운트에 대한 자세한 내용은 mount_samfs
매뉴얼 페이지를 참조하십시오.
Oracle HSM 메타데이터 서버 및 클라이언트 호스트에 root
로 로그인합니다.
예제에서는 sharefs
파일 시스템 sharefs-mds
에 대한 메타데이터 서버 호스트에 로그인합니다. 그런 다음 각 클라이언트 sharefs-client1
및 sharefs-client2
에 대한 터미널 창을 엽니다. ssh
(보안 셸)를 사용하여 로그인합니다.
[sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# [sharefs-mds]root@solaris:~# ssh root@sharefs-client2 Password: [sharefs-client2]root@solaris:~#
파일 시스템의 Solaris /etc/vfstab
파일에 항목이 있는 경우 mount
mountpoint
명령을 사용하여 메타데이터 서버 호스트에 공유 파일 시스템을 마운트합니다. 여기서 mountpoint
는 호스트 루트 파일 시스템의 마운트 지점 디렉토리입니다.
항상 먼저 메타데이터 서버 호스트에 파일 시스템을 마운트한 후에 클라이언트에 파일 시스템을 마운트하십시오.
예제에서는 sharefs
파일 시스템의 /etc/vfstab
파일에 다음 항목이 있습니다.
sharefs - /sharefs samfs - no shared
따라서 마운트 지점 매개변수만 제공하면 파일 시스템을 마운트할 수 있습니다.
[sharefs-mds]root@solaris:~# mount /sharefs [sharefs-mds]root@solaris:~#
파일 시스템의 Solaris /etc/vfstab
파일에 항목이 없는 경우 mount
-F
samfs
-o
shared
mountpoint
명령을 사용하여 메타데이터 서버 호스트에 공유 파일 시스템을 마운트합니다. 여기서 mountpoint
는 호스트 루트 파일 시스템의 마운트 지점 디렉토리입니다.
항상 먼저 메타데이터 서버 호스트에 파일 시스템을 마운트한 후에 클라이언트에 파일 시스템을 마운트하십시오.
예제에서는 sharefs
파일 시스템의 /etc/vfstab
파일에 항목이 없습니다.
[sharefs-mds]root@solaris:~# mount -F samfs -o shared /sharefs [sharefs-mds]root@solaris:~#
파일 시스템의 Solaris /etc/vfstab
파일에 항목이 있는 경우 mount
mountpoint
명령을 사용하여 각 클라이언트 호스트에 공유 파일 시스템을 마운트합니다. 여기서 mountpoint
는 호스트 루트 파일 시스템의 마운트 지점 디렉토리입니다.
원하는 순서로 클라이언트 호스트에 파일 시스템을 마운트할 수 있습니다.
[sharefs-client1]root@solaris:~# mount /sharefs [sharefs-client1]root@solaris:~# [sharefs-client2]root@solaris:~# mount /sharefs [sharefs-client2]root@solaris:~#
파일 시스템의 Solaris /etc/vfstab
파일에 항목이 없는 경우 mount
-F
samfs
-o
shared
mountpoint
명령을 사용하여 각 클라이언트 호스트에 공유 파일 시스템을 마운트합니다. 여기서 mountpoint
는 호스트 루트 파일 시스템의 마운트 지점 디렉토리입니다.
원하는 순서로 클라이언트 호스트에 파일 시스템을 마운트할 수 있습니다.
[sharefs-client1]root@solaris:~# mount -F samfs -o shared /sharefs [sharefs-client1]root@solaris:~# [sharefs-client2]root@solaris:~# mount -F samfs -o shared /sharefs [sharefs-client2]root@solaris:~#
여기서 중지합니다.
Oracle HSM 메타데이터 서버 및 클라이언트 호스트에 root
로 로그인합니다.
예제에서는 sharefs
파일 시스템 sharefs-mds
에 대한 메타데이터 서버 호스트에 로그인합니다. 그런 후 각 클라이언트 sharefs-client1
및 sharefs-client2
에 대한 터미널 창을 열고 ssh
(보안 셸)를 사용해서 로그인합니다.
[sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# [sharefs-mds]root@solaris:~# ssh root@sharefs-client2 Password: [sharefs-client2]root@solaris:~#
파일 시스템이 NFS 또는 SAMBA를 통해 공유되는 경우 파일 시스템을 마운트 해제하기 전에 공유를 취소합니다. 메타데이터 서버에서 unshare
mount-point
명령을 사용합니다. 여기서 mount-point
는 Oracle HSM 파일 시스템의 마운트 지점 디렉토리입니다.
[sharefs-mds]root@solaris:~# unshare /sharefs [sharefs-mds]root@solaris:~#
각 클라이언트에서 Oracle HSM 공유 파일 시스템을 마운트 해제합니다. umount
mount-point
명령을 사용합니다. 여기서 mount-point
는 Oracle HSM 파일 시스템의 마운트 지점 디렉토리입니다.
자세한 내용은 umount_samfs
매뉴얼 페이지를 참조하십시오. 예제에서는 두 개의 클라이언트 sharefs-client1
및 sharefs-client2
에서 /sharedqfs1
을 마운트 해제합니다.
[sharefs-client1]root@solaris:~# umount /sharefs [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~# [sharefs-client2]root@solaris:~# umount /sharefs [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~#
메타데이터 서버에서 Oracle HSM 공유 파일 시스템을 마운트 해제합니다. umount
-o
await_clients=
interval
mount-point
명령을 사용합니다. 여기서 mount-point
는 Oracle HSM 파일 시스템의 마운트 지점 디렉토리이고, interval
은 -o
await_clients
옵션으로 지정된 실행 지연 시간(초)입니다.
Oracle HSM 공유 파일 시스템의 메타데이터 서버에서 umount
명령을 실행할 때 -o
await_clients
옵션은 지정된 초 수만큼 umount
를 대기시켜서 클라이언트가 공유 파일 시스템을 마운트 해제할 시간을 벌어줍니다. 비공유 파일 시스템을 마운트 해제하거나 Oracle HSM 클라이언트에서 명령을 실행할 경우 아무 효과가 없습니다. 자세한 내용은 umount_samfs
매뉴얼 페이지를 참조하십시오.
예제에서는 서버에서 /sharefs
파일 시스템을 마운트 해제하고, 클라이언트가 60
초 동안 마운트 해제되도록 허용합니다.
[sharefs-mds]root@solaris:~# umount -o await_clients=60 /sharefs [sharefs-mds]root@solaris:~#
여기서 중지합니다.
이 절에서는 공유 파일 시스템의 클라이언트로서 추가 호스트를 구성하고 기존 클라이언트 구성을 해제하기 위한 지침을 제공합니다. 다음 절이 포함됩니다.
공유 파일 시스템에 클라이언트 호스트를 추가하는 과정은 다음 세 부분으로 구성됩니다.
먼저, 공유 파일 시스템 구성에 호스트 정보 추가를 수행합니다.
그 다음, 호스트 운영체제에 따라 Solaris 또는 Linux 절차를 사용하여 호스트에 공유 파일 시스템을 구성합니다.
마지막으로, 호스트 운영체제에 따라 Solaris 또는 Linux 절차를 사용하여 호스트에 공유 파일 시스템을 마운트합니다.
Oracle HSM 메타데이터 서버에 root
로 로그인합니다.
예제에서 Oracle HSM 공유 파일 시스템은 sharefs
, 메타데이터 서버 호스트는 sharefs-mds
입니다.
[sharefs-mds]root@solaris:~#
/etc/opt/SUNWsamfs/hosts.
filesystem
파일을 백업합니다. 여기서 filesystem
은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.
아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.
[sharefs-mds]root@solaris:~# cp /etc/opt/SUNWsamfs/hosts.sharefs \ /etc/opt/SUNWsamfs/hosts.sharefs.bak
공유 파일 시스템이 마운트된 경우 활성 메타데이터 서버에서 samsharefs
filesystem
명령을 실행하여 /etc/opt/SUNWsamfs/hosts.
filesystem
파일로 출력이 재지정되도록 합니다. 여기서 filesystem
은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.
samsharefs
명령은 Oracle HSM 공유 파일 시스템에 대한 호스트 구성을 표시합니다. 출력을 파일로 재지정하면 새 호스트 파일이 만들어집니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.
[sharefs-mds]root@solaris:~# samsharefs sharedqfs1 > \ /etc/opt/SUNWsamfs/hosts.sharedqfs1
공유 파일 시스템이 마운트되지 않았으면 활성 또는 잠재적 메타데이터 서버에서 samsharefs
-R
filesystem
명령을 실행하여 출력이 /etc/opt/SUNWsamfs/hosts.
filesystem
파일로 재지정되도록 합니다. 여기서 filesystem
은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.
samsharefs
-R
명령은 활성 또는 잠재적 메타데이터 서버에서만 실행할 수 있습니다. 자세한 내용은 samsharefs
매뉴얼 페이지를 참조하십시오. samsharefs
명령은 Oracle HSM 공유 파일 시스템에 대한 호스트 구성을 표시합니다. 출력을 파일로 재지정하면 새 hosts 파일이 만들어집니다. 예제에서는 메타데이터 서버 sharefs-mds
에서 명령을 실행합니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.
[sharefs-mds]root@solaris:~# samsharefs -R sharedqfs1 \ > /etc/opt/SUNWsamfs/hosts.sharedqfs1
새로 만든 hosts 파일을 텍스트 편집기에서 엽니다.
예제에서는 vi
편집기를 사용합니다. 호스트 구성에는 활성 메타데이터 서버인 sharefs-mds
와 또한 잠재적 메타데이터 서버인 하나의 클라이언트 sharefs-mds_alt
및 두 개의 다른 클라이언트인 sharefs-client1
및 sharefs-client2
가 포함됩니다.
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117 1 0 server sharefs-mds_alt 10.79.213.217 2 0 sharefs-client1 10.79.213.133 0 0 sharefs-client2 10.79.213.47 0 0
hosts 파일에서 새 클라이언트 호스트 행을 추가하고 파일을 저장하고 편집기를 닫습니다.
예제에서는 sharefs-client3
호스트 항목을 추가합니다.
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117 1 0 server sharefs-mds_alt 10.79.213.217 2 0 sharefs-client1 10.79.213.133 0 0 sharefs-client2 10.79.213.47 0 0 sharefs-client3 10.79.213.49 0 0 :wq [sharefs-mds]root@solaris:~#
파일 시스템이 마운트된 경우 활성 메타데이터 서버에서 파일 시스템을 업데이트합니다. samsharefs
-u
filesystem
명령을 사용합니다. 여기서 filesystem
은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.
samsharefs
명령은 수정된 hosts 파일을 다시 읽고 구성을 업데이트합니다.
[sharefs-mds]root@solaris:~# samsharefs -u sharefs1
파일 시스템이 마운트되지 않았으면 활성 또는 잠재적 메타데이터 서버에서 파일 시스템을 업데이트합니다. samsharefs
-R
-u
filesystem
명령을 사용합니다. 여기서 filesystem
은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.
samsharefs
명령은 수정된 hosts 파일을 다시 읽고 구성을 업데이트합니다.
[sharefs-mds]root@solaris:~# samsharefs -R -u sharefs1
Solaris 호스트를 클라이언트로 추가하는 경우 Solaris 클라이언트에서 공유 파일 시스템 구성으로 이동합니다.
Linux 호스트를 클라이언트로 추가하는 경우 Linux 클라이언트 호스트에서 공유 파일 시스템 구성으로 이동합니다.
공유 파일 시스템 클라이언트에서 root
로 로그인합니다.
예제에서 Oracle HSM 공유 파일 시스템은 sharefs
이고, 클라이언트 호스트는 sharefs-client1
입니다.
[sharefs-client1]root@solaris:~#
터미널 창에서 공유 파일 시스템에 대한 구성 정보를 검색합니다. samfsconfig
device-path
명령을 사용합니다. 여기서 device-path
는 명령이 파일 시스템 디스크 장치(예: /dev/dsk/*
또는 /dev/zvol/dsk/rpool/*
) 검색을 시작해야 하는 위치입니다.
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 있는 경우 잠재적 메타데이터 서버로 사용하기에 적절하므로 samfsconfig
출력은 파일 시스템 메타데이터 서버에서 만든 mcf
파일과 아주 비슷합니다.
예제에서 sharefs-client1
호스트에는 메타데이터 장치(장비 유형 mm
)에 대한 액세스 권한이 있으므로, 이 명령은 sharefs-mds
서버의 mcf
파일에 나열된 것과 동일한 장비를 보여줍니다. 호스트 지정 장치 컨트롤러 번호만 다릅니다.
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # Generation 0 Eq count 4 Eq meta count 1 sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 samfsconfig
명령이 메타데이터 장치를 찾을 수 없습니다. 따라서 발견된 Oracle HSM 장치가 파일 시스템 구성에 맞지 않을 수 있습니다. 명령 출력은 Missing
Slices
아래에 메타데이터 장치 Ordinal
0
을 나열하고, 파일 시스템 패밀리 세트를 식별하는 라인을 포함하지 못하며, 데이터 장치의 목록을 주석 처리합니다.
예제에서는 sharefs-client2
호스트가 데이터 장치에만 액세스할 수 있습니다. 따라서 samfsconfig
출력은 다음과 비슷합니다.
[sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # Missing slices # Ordinal 0 # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
samfsconfig
출력에서 공유 파일 시스템 항목을 복사합니다. 그리고 두번째 창에서, 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 복사한 항목을 파일로 붙여넣습니다.
첫번째 예제에서 sharefs-client1
호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 있으므로 mcf
파일의 시작은 다음과 비슷합니다.
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
두번째 예제에서 sharefs-client2
호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 없으므로 mcf
파일의 시작은 다음과 비슷합니다.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 있는 경우 공유 파일 시스템 항목의 Additional Parameters
필드에 shared
매개변수를 추가합니다.
첫번째 예제에서 sharefs-client1
호스트는 메타데이터에 액세스할 수 있습니다.
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 공유 파일 시스템 행을 추가하고 shared
매개변수를 포함합니다.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 메타데이터 장치 행을 추가합니다. Equipment
Identifier
필드를 nodev
(장치 없음)로 설정하고 남은 필드를 메타데이터 서버에 지정한 것과 똑같은 값으로 설정합니다.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 데이터 장치 항목의 주석 처리를 해제합니다.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs - /dev/dsk/c4t3d0s1 303 mr sharefs -
모든 장치에 대해 Device State
필드가 on
으로 설정되었는지 확인하고 mcf
파일을 저장하고 편집기를 닫습니다.
첫번째 예제에서 sharefs-client1
호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 있으므로 mcf
파일의 끝은 다음과 비슷합니다.
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared /dev/dsk/c1t0d0s0 301 mm sharefs on /dev/dsk/c1t3d0s0 302 mr sharefs on /dev/dsk/c1t3d0s1 303 mr sharefs on :wq [sharefs-client1]root@solaris:~#
두번째 예제에서 sharefs-client2
호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 없으므로 mcf
파일의 끝은 다음과 비슷합니다.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs on /dev/dsk/c4t3d0s1 303 mr sharefs on :wq [sharefs-client2]root@solaris:~#
sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.
sam-fsd
는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 sharefs-client1
에서 mcf
파일을 확인합니다.
[sharefs-client1]root@solaris:~# sam-fsd
그런 다음 Solaris 호스트에서 공유 파일 시스템 마운트를 수행합니다.
공유 파일 시스템 호스트에서 root
로 로그인합니다.
예제에서 Oracle HSM 공유 파일 시스템은 sharefs
이고, 호스트는 sharefs-client1
라는 이름의 클라이언트입니다.
[sharefs-client1]root@solaris:~#
운영체제의 /etc/vfstab
파일을 백업합니다.
[sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
텍스트 편집기에서 /etc/vfstab
파일을 열고 공유 파일 시스템 행을 추가합니다.
예제에서는 vi
텍스트 편집기에서 파일을 열고 sharefs
패밀리 세트 장치 행을 추가합니다.
[sharefs-client1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... sharefs - /sharefs samfs - no
클라이언트에서 파일 시스템을 공유 파일 시스템으로 마운트하려면 공유 파일 시스템에 대해 vfstab
항목의 Mount Options
열에 shared
옵션을 입력합니다.
현재 클라이언트에서 공유 파일 시스템 sharefs
를 읽기 전용으로 마운트하려면 아래 예제에 표시된 대로 vfstab
항목을 편집합니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- ------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared
콤마를 구분자로 사용하여 다른 원하는 마운트 옵션을 추가하고 /etc/vfstab
파일에 다른 원하는 변경을 수행합니다. 그런 다음 /etc/vfstab
파일을 저장합니다.
예제에서는 마운트 옵션을 추가하지 않습니다.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared
:wq
[sharefs-client1]root@solaris:~#
/etc/vfstab
파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.
마운트 지점 권한은 메타데이터 서버와 모든 다른 클라이언트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x
) 권한이 있어야 합니다. 예제에서는 /sharefs
마운트 지점 디렉토리를 만들고 755
(-rwxr-xr-x
)로 권한을 설정합니다.
[sharefs-client1]root@solaris:~# mkdir /sharefs [sharefs-client1]root@solaris:~# chmod 755 /sharefs [sharefs-client1]root@solaris:~#
공유 파일 시스템을 마운트합니다.
[sharefs-client1]root@solaris:~# mount /sharefs [sharefs-client1]root@solaris:~#
잠재적 메타데이터 서버 호스트를 분산 테이프 I/O datamover로 추가하는 경우 분산 테이프 I/O를 위한 Datamover 클라이언트 구성으로 이동합니다.
여기서 중지합니다.
Linux 클라이언트에서 root
로 로그인합니다.
예제에서 Oracle HSM 공유 파일 시스템은 sharefs
이고, 호스트는 sharefs-clientL
이라는 이름의 Linux 클라이언트입니다.
[sharefs-clientL][root@linux ~]#
단말기 창에서 samfsconfig
device-path
명령을 사용하여 공유 파일 시스템에 대한 구성 정보를 검색합니다. 여기서 device-path
는 파일 시스템 디스크 장치를 검색하기 위해 명령을 시작할 위치입니다(예: /dev/*
).
Linux 호스트는 파일 시스템의 메타데이터 장치에 대한 액세스 권한이 없으므로, samfsconfig
명령이 메타데이터 장치를 찾을 수 없으며, 따라서 발견된 Oracle HSM 장치가 파일 시스템 구성에 맞지 않을 수 있습니다. 명령 출력은 Missing
Slices
아래에 메타데이터 장치 Ordinal
0
을 나열하고, 파일 시스템 패밀리 세트를 식별하는 라인을 포함하지 못하며, 데이터 장치의 목록을 주석 처리합니다.
예제에서 Linux 호스트 sharefs-clientL
에 대한 samfsconfig
출력은 다음과 비슷합니다.
[sharefs-clientL][root@linux ~]# samfsconfig /dev/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # # Missing slices # Ordinal 0 # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
samfsconfig
출력에서 공유 파일 시스템 항목을 복사합니다. 그리고 두번째 창에서, 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 복사한 항목을 파일로 붙여넣습니다.
예제에서 Linux 호스트 sharefs-clientL
에 대한 mcf
파일의 시작은 다음과 비슷합니다.
[sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ------------- # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
파일에서 공유 파일 시스템 행을 삽입하고 shared
매개변수를 포함합니다.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ------------- sharefs 300 ma sharefs - shared # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
파일에서 파일 시스템의 메타데이터 장치 행을 삽입합니다. Linux 호스트는 메타데이터 장치에 액세스할 수 없으므로 Equipment
Identifier
필드를 nodev
(장치 없음)로 설정하고 남은 필드를 메타데이터 서버에 지정한 것과 똑같은 값으로 설정합니다.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
파일에서 Linux 데이터 장치에 대한 항목의 주석 처리를 해제합니다.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs - /dev/sda5 303 mr sharefs -
모든 장치에 대해 Device State
필드가 on
으로 설정되었는지 확인하고 mcf
파일을 저장합니다.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs on /dev/sda5 303 mr sharefs on :wq [sharefs-clientL][root@linux ~]#
sam-fsd
명령을 실행하여 mcf
파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.
sam-fsd
는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 Linux 클라이언트 sharefs-clientL
에서 mcf
파일을 확인합니다.
[sharefs-clientL][root@linux ~]# sam-fsd
이제 Linux 호스트에서 공유 파일 시스템 마운트를 수행합니다.
Linux 클라이언트에서 root
로 로그인합니다.
예제에서 Oracle HSM 공유 파일 시스템은 sharefs
이고, 호스트는 sharefs-clientL
이라는 이름의 Linux 클라이언트입니다.
[sharefs-clientL][root@linux ~]#
운영체제의 /etc/fstab
파일을 백업합니다.
[sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
텍스트 편집기에서 /etc/fstab
파일을 열고 공유 파일 시스템 행을 시작합니다.
예제에서는 vi
텍스트 편집기를 사용하고 sharefs
패밀리 세트 장치에 대한 행을 추가합니다.
[sharefs-clientL][root@linux ~]# vi /etc/fstab #File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs
파일의 네번째 열에서 필수 shared
마운트 옵션을 추가합니다.
[sharefs-clientL][root@linux ~]# vi /etc/fstab
#File
#Device Mount System Mount Dump Pass
#to Mount Point Type Options Frequency Number
#-------- ------- -------- ------------------------- --------- ------
...
/proc /proc proc defaults
sharefs /sharefs samfs shared
파일의 네번째 열에서 콤마를 구분자로 사용하여 다른 원하는 마운트 옵션을 추가합니다.
Linux 클라이언트는 다음 추가 마운트 옵션을 지원합니다.
rw
, ro
retry
meta_timeo
rdlease
, wrlease
, aplease
minallocsz
, maxallocsz
noauto
, auto
예제에서는 noauto
옵션을 추가합니다.
#File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs shared,noauto
파일에 남은 두 열에 각각 제로(0
)를 입력합니다. 그런 다음 /etc/fstab
파일을 저장합니다.
#File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs shared,noauto 0 0 :wq [sharefs-clientL][root@linux ~]#
/etc/fstab
파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.
마운트 지점 권한은 메타데이터 서버와 모든 다른 클라이언트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x
) 권한이 있어야 합니다. 예제에서는 /sharefs
마운트 지점 디렉토리를 만들고 755
(-rwxr-xr-x
)로 권한을 설정합니다.
[sharefs-clientL][root@linux ~]# mkdir /sharefs [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
공유 파일 시스템을 마운트합니다. mount
mountpoint
명령을 사용합니다. 여기서 mountpoint
는 /etc/fstab
파일에 지정된 마운트 지점 디렉토리입니다.
예제에 표시된 대로 mount
명령은 경고를 생성합니다. 이는 정상적 상황이며 무시할 수 있습니다.
[sharefs-clientL][root@linux ~]# mount /sharefs Warning: loading SUNWqfs will taint the kernel: SMI license See http://www.tux.org/lkml/#export-tainted for information about tainted modules. Module SUNWqfs loaded with warnings
여기서 중지합니다.
공유 파일 시스템에서 호스트를 제거하면 아래 설명된 대로 단순히 서버 구성에서 호스트를 제거하는 것입니다. 호스트 구성을 완전히 해제하려면 소프트웨어와 구성 파일을 제거하십시오.
Oracle HSM 메타데이터 서버에 root
로 로그인합니다.
예제에서 Oracle HSM 공유 파일 시스템은 sharefs
, 메타데이터 서버 호스트는 sharefs-mds
입니다.
[sharefs-mds]root@solaris:~#
각 클라이언트에 root
로 로그인하고 공유 파일 시스템을 마운트 해제합니다.
잠재적 메타데이터 서버도 클라이언트임을 잊지 마십시오. 예제에서는 sharefs-client1
, sharefs-client2
및 sharefs-mds_alt
라는 잠재적 메타데이터 서버를 포함한 세 개의 클라이언트가 있습니다. 각 클라이언트에 대해 ssh
를 사용해서 로그인하고 파일 시스템 sharefs
를 마운트 해제하고 ssh
세션을 닫습니다.
[sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# umount sharefs [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh root@sharefs-client2 Password: [sharefs-client2]root@solaris:~# umount sharefs [sharefs-client2]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# umount sharefs root@solaris:~# exit [sharefs-mds]root@solaris:~#
메타데이터 서버에서 공유 파일 시스템을 마운트 해제합니다.
[sharefs-mds]root@solaris:~# umount sharefs
메타데이터 서버에서 /etc/opt/SUNWsamfs/hosts.
filesystem
파일의 이름을 /etc/opt/SUNWsamfs/hosts.
filesystem
.bak
로 바꿉니다. 여기서 filesystem
은 클라이언트 호스트를 제거하려는 파일 시스템의 이름입니다.
아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.
[sharefs-mds]root@solaris:~# mv /etc/opt/SUNWsamfs/hosts.sharefs \ /etc/opt/SUNWsamfs/hosts.sharefs.bak
현재 공유 파일 시스템 호스트 구성을 파일에 캡처합니다. 메타데이터 서버에서 samsharefs -R
filesystem
명령을 실행하여 /etc/opt/SUNWsamfs/hosts.
filesystem
파일로 출력이 재지정되도록 합니다. 여기서 filesystem
은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.
samsharefs
명령은 지정된 Oracle HSM 공유 파일 시스템에 대한 호스트 구성을 표시합니다. 출력을 파일로 재지정하면 새 hosts 파일이 만들어집니다. 예제에서는 메타데이터 서버 sharefs-mds
에서 명령을 실행합니다.
[sharefs-mds]root@solaris:~# samsharefs -R sharedqfs1 > / /etc/opt/SUNWsamfs/hosts.sharedqfs1
새로 만든 hosts 파일을 텍스트 편집기에서 엽니다.
예제에서는 vi
편집기를 사용합니다. sharefs-client3
클라이언트를 제거해야 합니다.
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117 1 0 server sharefs-mds_alt 10.79.213.217 2 0 sharefs-client1 10.79.213.133 0 0 sharefs-client2 10.79.213.47 0 0 sharefs-client3 10.79.213.49 0 0
hosts 파일에서 제거할 클라이언트 호스트에 해당하는 행을 삭제합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
예제에서는 sharefs-client3
호스트 항목을 삭제합니다.
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
sharefs-mds_alt 10.79.213.217 2 0
sharefs-client1 10.79.213.133 0 0
sharefs-client2 10.79.213.47 0 0
:wq
[sharefs-mds]root@solaris:~#
수정된 hosts 파일을 사용해서 파일 시스템을 업데이트합니다. 메타데이터 서버에서 samsharefs
-R
-u
filesystem
명령을 사용합니다. 여기서 filesystem
은 클라이언트 호스트를 제거하려는 파일 시스템의 이름입니다.
[sharefs-mds]root@solaris:~# samsharefs -u sharefs
메타데이터 서버 호스트에서 공유 파일 시스템을 마운트합니다.
예제에서는 /etc/vfstab
파일에 sharefs
파일 시스템 항목이 포함되므로 간단한 마운팅 구문을 사용합니다. 자세한 내용은 mount_samfs
매뉴얼 페이지를 참조하십시오.
[sharefs-mds]root@solaris:~# mount sharefs
각 클라이언트 호스트에서 공유 파일 시스템을 마운트합니다.
잠재적 메타데이터 서버도 클라이언트임을 잊지 마십시오. 예제에서는 sharefs-client1
, sharefs-client2
및 sharefs-mds_alt
라는 잠재적 메타데이터 서버를 포함한 세 개의 클라이언트가 있습니다. 각 클라이언트에 대해 ssh
를 사용해서 로그인하고 파일 시스템 sharefs
를 마운트 해제하고 ssh
세션을 닫습니다.
[sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# mount sharefs sharefs-mds_alt]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# mount sharefs sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh root@sharefs-client2 Password: [sharefs-client2]root@solaris:~# mount sharefs sharefs-client2]root@solaris:~# exit [sharefs-mds]root@solaris:~#
여기서 중지합니다.
Oracle HSM 릴리스 6.1부터 Solaris 11 이상에서 실행되는 공유 아카이빙 파일 시스템의 클라이언트는 테이프 드라이브를 연결하여 파일 시스템 대신 테이프 I/O를 수행할 수 있습니다. 이러한 datamover 호스트에 걸쳐 테이프 I/O를 분산시키면 서버 오버헤드가 크게 감소하고, 파일 시스템 성능이 향상되고, Oracle HSM 구현을 확장할 때 유연성이 증대됩니다. 사용자의 아카이빙 수요가 증가함에 따라 이제 Oracle HSM 메타데이터 서버를 더 강력한 시스템으로 교체하거나(수직적 확장) 더 많은 클라이언트에 걸쳐 로드를 분산시킬 수 있습니다(수평적 확장).
분산 테이프 I/O를 위한 클라이언트를 구성하려면 다음과 같이 하십시오.
분산 I/O에 사용할 모든 장치를 클라이언트에 연결합니다.
아직 수행하지 않은 경우 지속 바인딩을 사용하여 테이프 드라이브 연결 절차를 수행합니다. 그런 다음 여기로 돌아옵니다.
공유 아카이빙 파일 시스템의 메타데이터 서버에 root
로 로그인합니다.
예제에서 호스트 이름은 samsharefs-mds
입니다.
[samsharefs-mds]root@solaris:~#
메타데이터 서버가 Oracle HSM Solaris 11 이상을 실행 중인지 확인합니다.
[samsharefs-mds]root@solaris:~# uname -r 5.11 [samsharefs-mds]root@solaris:~#
datamover로 작동하는 모든 클라이언트가 Oracle HSM Solaris 11 이상을 실행 중인지 확인합니다.
예제에서는 각 클라이언트 호스트인 samsharefs-client1
및 samsharefs-client2
에 대해 터미널 창을 열고 ssh
를 사용해서 원격으로 로그인합니다. 로그인 배너에는 Solaris 버전이 표시됩니다.
[samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1 ... Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client1]root@solaris:~# [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2 ... Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client2]root@solaris:~#
메타데이터 서버에서 텍스트 편집기로 /etc/opt/SUNWsamfs/defaults.conf
를 열고, distio =
라인의 주석 처리를 해제하고 값을 on
으로 설정하여 분산 I/O를 사용으로 설정합니다.
기본적으로 distio
는 off
(사용 안함)입니다.
예제에서는 vi
편집기에서 파일을 열고 다음 라인을 추가합니다.
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. ... distio = on
그런 다음, 분산 I/O에 참여해야 하는 장치 유형을 식별합니다. 분산 I/O에 dev
장치 유형을 사용하려면 defaults.conf
파일에 dev
_distio
=
on
행을 추가합니다. 분산 I/O에서 dev
장치 유형을 제외하려면 dev
_distio
=
off
행을 추가합니다. 파일을 저장하고 편집기를 닫습니다.
기본적으로 Oracle HSM T10000 드라이브 및 LTO 드라이브는 분산 I/O 참여가 허용되며(ti_distio
=
on
및 li_distio
=
on
), 그 밖의 다른 유형은 제외됩니다. 예제에서는 LTO 드라이브를 제외합니다.
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. ... distio = on li_distio = off :wq [samsharefs-mds]root@solaris:~#
datamover로 작동할 각 클라이언트에서 defaults.conf
파일을 편집하여 서버의 파일과 일치하도록 합니다.
예제에서는 samsharefs-client1
클라이언트에서 vi
를 사용하여 defaults.conf
파일을 편집하고, 파일을 저장하고, 편집기를 닫습니다.
[samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1 Password: [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. ... distio = on li_distio = off :wq [samsharefs-client1]root@solaris:~# [samsharefs-mds]root@solaris:~#
datamover로 작동할 각 클라이언트에서 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 엽니다. 메타데이터 서버가 분산 테이프 I/O에 사용 중인 테이프 장치를 모두 추가합니다. 장치 순서 및 장비 번호가 메타데이터 서버의 mcf
파일과 동일한지 확인합니다.
예제에서는 samsharefs-client1
클라이언트에서 vi
를 사용하여 mcf
파일을 편집합니다.
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ ------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti on /dev/rmt/61cbn 902 ti on /dev/rmt/62cbn 903 ti on /dev/rmt/63cbn 904 ti on
메타데이터 서버의 /etc/opt/SUNWsamfs/mcf
파일에 나열된 테이프 라이브러리가 datamover로 작동할 클라이언트에 구성된 경우, 분산 테이프 I/O에 사용 중인 테이프 장치의 패밀리 세트 이름으로 라이브러리 패밀리 세트를 지정합니다. 파일을 저장합니다.
예제에서는 라이브러리가 호스트에 구성되었으므로 테이프 장치에 패밀리 세트 이름 library1
을 사용합니다.
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ ------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/scsi/changer/c1t0d5 900 rb library1 on /dev/rmt/60cbn 901 ti library1 on /dev/rmt/61cbn 902 ti library1 on /dev/rmt/62cbn 903 ti library1 on /dev/rmt/63cbn 904 ti library1 on :wq [samsharefs-client1]root@solaris:~#
메타데이터 서버의 /etc/opt/SUNWsamfs/mcf
파일에 나열된 테이프 라이브러리가 datamover로 작동할 클라이언트에 구성되지 않은 경우, 분산 테이프 I/O에 사용 중인 테이프 장치의 패밀리 세트 이름으로 하이픈(-
)을 사용합니다.
예제에서는 라이브러리가 호스트에 구성되어 있지 않습니다.
[samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ ------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti - on /dev/rmt/61cbn 902 ti - on /dev/rmt/62cbn 903 ti - on /dev/rmt/63cbn 904 ti - on :wq [samsharefs-client2]root@solaris:~#
특정 아카이브 세트 복사본에 대해 분산 테이프 I/O를 사용 또는 사용 안함으로 설정하려면 텍스트 편집기에서 서버의 /etc/opt/SUNWsamfs/archiver.cmd
파일을 열고 copy 지시어에 -distio
매개변수를 추가합니다. 분산 I/O를 사용으로 설정하려면 -distio
on
, 사용 안함으로 설정하려면 off
를 지정합니다. 파일을 저장하고 편집기를 닫습니다.
예제에서는 vi 편집기를 사용하여 복사본 1
에 대해 분산 I/O를 off
로 설정하고 복사본 2
에 대해 on
으로 설정합니다.
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd # archiver.cmd # Generated by config api Mon Nov 22 14:31:39 2013 ... # # Copy Parameters Directives params allsets -sort path -offline_copy stageahead allsets.1 -startage 10m -startsize 500M -startcount 500000 -distio off allsets.2 -startage 24h -startsize 20G -startcount 500000 -distio on :wq [samsharefs-mds]root@solaris:~#
각 호스트에서 sam-fsd
명령을 실행하여 mcf
파일 오류를 확인하고 오류가 발견되었으면 수정합니다.
sam-fsd
는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 Linux 클라이언트 sharefs-clientL
에서 mcf
파일을 확인합니다.
[sharefs-clientL][root@linux ~]# sam-fsd
서버에서 Oracle HSM 소프트웨어가 수정된 구성 파일을 읽고 그에 따라 재구성하도록 지시합니다. samd config
명령을 사용하고 발견된 오류를 수정합니다.
예제에서는 sharefs-mds
서버에서 samd config
명령을 실행합니다.
[samsharefs-mds]root@solaris:~# samd config
여기서 중지합니다.
잠재적 메타데이터 서버 또는 분산 I/O datamover 클라이언트로 작동하는 호스트를 추가할 때는 지속 바인딩을 사용해서 이동식 매체 장치를 구성해야 합니다. Solaris 운영체제는 시작 시 장치가 검색된 순서에 따라 시스템 장치 트리에 드라이브를 연결합니다. 이 순서는 다른 파일 시스템 호스트에서 장치를 발견한 순서나 테이프 라이브러리에 장치가 물리적으로 설치된 순서를 반영할 수도 있고 그렇지 않을 수도 있습니다. 따라서 다른 호스트에 바인딩된 것과 동일한 방법 및 이동식 매체 라이브러리에 설치된 것과 동일한 순서로 새 호스트에 장치를 바인딩해야 합니다.
아래 절차는 필요한 단계를 간략히 설명합니다. 자세한 내용은 devfsadm
및 devlinks
매뉴얼 페이지와 Solaris 운영체제 버전의 관리 설명서를 참조하십시오.
라이브러리에서 드라이브를 이동, 추가, 제거했거나 아카이빙 Oracle HSM 공유 파일 시스템과 연관된 라이브러리를 교체하거나 재구성한 경우 변경사항이 반영되도록 지속 바인딩 업데이트를 수행합니다.
새 메타데이터 서버나 datamover 클라이언트를 아카이빙 Oracle HSM 공유 파일 시스템에 추가하는 경우 새 파일 시스템 호스트를 이동식 매체 장치에 지속적으로 바인드를 수행합니다.
활성 메타데이터 서버 호스트에 root
로 로그인합니다.
[sharefs-mds]root@solaris:~#
라이브러리에 드라이브가 설치되는 순서 결정에 설명된 대로 새 드라이브 매핑 파일을 만듭니다.
예제에서 device-mappings.txt
파일은 다음과 비슷합니다.
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- ----------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
텍스트 편집기에서 /etc/devlink.tab
파일을 엽니다.
예제에서는 vi
편집기를 사용합니다:
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. # This is the table used by devlinks # Each entry should have 2 fields; but may have 3. Fields are separated # by single tab ('\t') characters. ...
device-mappings.txt
파일을 길잡이로 삼아 Solaris 테이프 장치 트리의 시작 노드를 라이브러리의 첫번째 드라이브에 재매핑합니다. /etc/devlink.tab
파일에서 type=ddi_byte:tape;
addr=
device_address
,0;
rmt/
node-number
\M0
형식의 행을 추가합니다. 여기서 device_address
는 장치의 물리적 주소이고 node-number
는 Solaris 장치 트리에서 위치로, Solaris에서 자동으로 구성하는 장치와 충돌하지 않도록 충분히 높은 숫자를 선택합니다(Solaris는 노드 0
부터 시작함).
예제에서 라이브러리의 첫번째 장치 1
에 대한 장치 주소는 w500104f0008120fe
입니다. 장치가 현재 rmt/1
에서 호스트에 연결되어 있습니다.
[sharefs-mds] vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- ----------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
따라서 /etc/devlink.tab
에 행을 만들어서 라이브러리의 번호 1
드라이브 w500104f0008120fe
에 rmt/60
을 재매핑합니다.
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 :w
Oracle HSM 아카이빙을 위해 지정된 각 테이프 장치마다 /etc/devlink.tab
파일에 행을 계속 추가합니다. 메타데이터 서버의 장치 트리의 드라이브 순서가 라이브러리의 설치 순서와 일치하도록 합니다. 파일을 저장하고 편집기를 닫습니다.
예제에서는 세 개의 남은 장치의 순서와 주소로 라이브러리 드라이브 2
가 w500104f00093c438
에, 라이브러리 드라이브 3
이 w500104f000c086e1
에, 라이브러리 드라이브 4
가 w500104f000c086e1
에 있습니다.
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt ... 2 /dev/rmt/0cbn -> ../../devices/pci@8\.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8\.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8\.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8\.../st@w500104f000b6d98d,0:cbn
그리고 다음 세 개의 Solaris 장치 노드에 장치 주소를 매핑하여 라이브러리와 동일한 순서가 유지되도록 합니다.
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds]root@solaris:~#
/dev/rmt
의 테이프 장치에 대한 기존 링크를 모두 삭제합니다.
[sharefs-mds]root@solaris:~# rm /dev/rmt/*
/etc/devlink.tab
파일의 항목으로부터 새로운 지속 테이프 장치 링크를 만듭니다. devfsadm -c tape
명령을 사용합니다.
devfsadm
명령을 실행할 때마다 /etc/devlink.tab
파일에 지정된 구성을 사용하여 파일에 지정된 장치에 대해 새 테이프 장치 링크를 만듭니다. -c tape
옵션은 테이프 종류의 장치에만 새 링크를 만들도록 명령을 제한합니다.
[sharefs-mds]root@solaris:~# devfsadm -c tape
공유 파일 시스템 구성에 있는 각 잠재적 메타데이터 서버 및 datamover에서 작업을 반복합니다. 각각의 경우에 /etc/devlink.tab
파일에 동일한 라인을 추가하고, /dev/rmt
에서 링크를 삭제하고, devfsadm -c tape
를 실행합니다.
예제에서는 ssh
를 사용해서 각 호스트에 교대로 로그인하고, 4개의 동일한 논리적 장치인 rmt/60\M0
, rmt/61\M0
, rmt/62\M0
및 rmt/63\M0
을 구성합니다.
[sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* [sharefs-mds_alt]root@solaris:~# devfsadm -c tape [sharefs-mds_alt]root@solaris:~# exit sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-client1]root@solaris:~# rm /dev/rmt/* [sharefs-client1]root@solaris:~# devfsadm -c tape [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~#
분산 테이프 I/O를 위한 Datamover 클라이언트 구성 또는 추가 파일 시스템 클라이언트 구성으로 돌아갑니다.
호스트에 root
로 로그인합니다.
[sharefs-mds]root@solaris:~#
기존 파일 시스템 호스트가 구성된 이후 매체 라이브러리에서 드라이브의 물리적 순서가 변경된 경우 라이브러리에 드라이브가 설치되는 순서 결정에 설명된 대로 새 매핑 파일을 만듭니다.
예제에서 device-mappings.txt
파일은 다음과 비슷합니다.
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- ----------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
테스트 편집기에서 /etc/devlink.tab
파일을 엽니다.
예제에서는 vi
편집기를 사용합니다.
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. # This is the table used by devlinks # Each entry should have 2 fields; but may have 3. Fields are separated # by single tab ('\t') characters. ...
device-mappings.txt
파일을 안내서로 사용해서 Solaris 테이프 장치 트리 rmt/
node-number
에서 시작 노드를 라이브러리의 첫번째 드라이브에 재매핑합니다. /etc/devlink.tab
파일에 type=ddi_byte:tape;
addr=
device_address
,0;
rmt/
node-number
\M0
형식으로 라인을 추가합니다. 여기서 device_address
는 장치의 물리적 주소이고 node-number
는 Solaris 장치 트리에서 장치의 위치입니다. Solaris에서 자동으로 구성하는 장치와 충돌하지 않도록 충분히 높은 숫자의 노드 번호를 선택합니다(Solaris는 노드 0
부터 시작함).
예제에서 라이브러리의 첫번째 장치 1
에 대한 장치 주소는 w500104f0008120fe
입니다. 장치가 현재 rmt/1
에서 호스트에 연결되어 있습니다.
[sharefs-mds] vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- ----------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
따라서 /etc/devlink.tab
에 행을 만들어서 라이브러리의 번호 1
드라이브 w500104f0008120fe
에 rmt/60
을 재매핑합니다.
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 :w
Oracle HSM 아카이빙을 위해 지정된 각 테이프 장치마다 /etc/devlink.tab
파일에 행을 계속 추가합니다. 메타데이터 서버의 장치 트리의 드라이브 순서가 라이브러리의 설치 순서와 일치하도록 합니다. 파일을 저장합니다.
예제에서는 세 개의 남은 장치의 순서와 주소로 라이브러리 드라이브 2
가 w500104f00093c438
에, 라이브러리 드라이브 3
이 w500104f000c086e1
에, 라이브러리 드라이브 4
가 w500104f000c086e1
에 있습니다.
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt ... 2 /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
그리고 다음 세 개의 Solaris 장치 노드에 장치 주소를 매핑하여 라이브러리와 동일한 순서가 유지되도록 합니다.
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds]root@solaris:~#
/dev/rmt
의 테이프 장치에 대한 기존 링크를 모두 삭제합니다.
[sharefs-mds]root@solaris:~# rm /dev/rmt/*
/etc/devlink.tab
파일의 항목으로부터 새로운 지속 테이프 장치 링크를 만듭니다. devfsadm -c tape
명령을 사용합니다.
devfsadm
명령을 실행할 때마다 /etc/devlink.tab
파일에 지정된 구성을 사용하여 파일에 지정된 장치에 대해 새 테이프 장치 링크를 만듭니다. -c tape
옵션은 테이프 종류의 장치에만 새 링크를 만들도록 명령을 제한합니다.
[sharefs-mds]root@solaris:~# devfsadm -c tape
공유 파일 시스템 구성에 있는 각 잠재적 메타데이터 서버 및 datamover에서 /etc/devlink.tab
파일에 동일한 라인을 추가하고, /dev/rmt
에서 링크를 삭제하고, devfsadm -c tape
를 실행합니다.
예제에서는 ssh
를 실행하여 잠재적 메타데이터 서버 호스트 sharefs-mds_alt
및 클라이언트 호스트 sharefs-client1
에 로그인합니다. 그런 다음 동일한 4개의 논리적 장치 rmt/60\M0
, rmt/61\M0
, rmt/62\M0
및 rmt/63\M0
을 각 항목에 구성합니다.
[sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* [sharefs-mds_alt]root@solaris:~# devfsadm -c tape [sharefs-mds_alt]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-client1]root@solaris:~# rm /dev/rmt/* [sharefs-client1]root@solaris:~# devfsadm -c tape [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~#
분산 테이프 I/O를 위한 Datamover 클라이언트 구성 또는 추가 파일 시스템 클라이언트 구성으로 돌아갑니다.
이 절의 절차는 파일 시스템의 메타데이터 서비스를 현재 호스트(활성 메타데이터 서버)에서 대기 호스트(잠재적 메타데이터 서버)로 이동하는 것입니다. 어떤 절차를 사용할지는 교체하려는 서버 호스트의 상태에 따라 다릅니다.
이 절차는 작동이 중지된 활성 메타데이터 서버 호스트의 메타데이터 서비스를 밖으로 이동하는 것입니다. 파일 시스템이 여전히 마운트된 경우에도 잠재적 메타데이터 서버를 활성화합니다. 다음과 같이 하십시오.
주의:
고장난 메타데이터 서버를 중지하거나 사용 안함으로 설정하거나 연결을 끊을 때까지 절대로 잠재적 메타데이터 서버를 활성화하지 마십시오!파일 시스템이 마운트되었고 활성 메타데이터 서버가 다운되었을 때 잠재적 서버를 활성화하려면 samsharefs
명령을 -R
옵션(파일 시스템 인터페이스가 아닌 원시 장치에서 작동)과 함께 실행해야 합니다. 따라서 고장난 서버가 여전히 장치에 연결되어 있는 동안 잠재적 메타데이터 서버를 활성화하면 고장난 서버가 파일 시스템을 손상시킬 수 있습니다.
활성 메타데이터 서버가 고장난 경우 작업을 진행하기 전에 메타데이터 장치에 액세스할 수 없는지 확인합니다. 영향을 받는 호스트의 전원을 끄거나, 호스트를 중지하거나, 메타데이터 장치에서 고장난 호스트의 연결을 끊습니다.
모든 클라이언트 읽기, 쓰기, 첨부 임대가 만료될 수 있도록 적어도 최대 임대 시간이 소진될 때까지 기다립니다.
잠재적 메타데이터 서버에 root
로 로그인합니다.
예제에서는 잠재적 메타데이터 서버 sharefs-mds_alt
에 로그인합니다.
[sharefs-mds_alt]root@solaris:~#
잠재적 메타데이터 서버를 활성화합니다. 잠재적 메타데이터 서버에서 samsharefs -R
-s
server
file-system
명령을 실행합니다. 여기서 server
는 잠재적 메타데이터 서버의 호스트 이름이고 file-system
은 Oracle HSM 공유 파일 시스템의 이름입니다.
예제에서 잠재적 메타데이터 서버는 sharefs-mds_alt
, 파일 시스템 이름은 sharefs
입니다.
[sharefs-mds_alt]root@solaris:~# samsharefs -R -s sharefs-mds_alt sharefs
파일 시스템의 무결성을 검사하고 가능한 문제점을 교정해야 하는 경우 공유 파일 시스템 마운트 해제 절차를 사용하여 지금 파일 시스템을 마운트 해제합니다.
파일 시스템을 마운트 해제했으면 파일 시스템 검사를 수행합니다. samfsck -F
file-system
명령을 사용합니다. 여기서 -F
는 오류 교정을 지정하고 file-system
은 파일 시스템의 이름입니다.
예제에서는 파일 시스템 이름이 sharefs
인지 검사하고 오류를 교정합니다.
[sharefs-mds_alt]root@solaris:~# samfsck -F sharefs
여기서 중지합니다.
필요한 경우 건강한 활성 메타데이터 서버 호스트의 메타데이터 서비스를 새로 활성화된 잠재적 메타데이터 서버로 이동할 수 있습니다. 예를 들어, 원래 서버 호스트 또는 일부 구성 요소를 업그레이드하거나 교체하는 동안, 파일 시스템의 가용성을 유지하기 위해 대체 호스트로 메타데이터 서비스를 전송할 수 있습니다. 다음과 같이 하십시오.
활성/잠재적 메타데이터 서버에 root
로 로그인합니다.
예제에서는 활성 메타데이터 서버 sharefs-mds
에 로그인합니다. 그리고 두번째 단말기 창에서 보안 셸(ssh
)을 사용하여 잠재적 메타데이터 서버 sharefs-mds_alt
에 로그인합니다.
[sharefs-mds]root@solaris:~#
[sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
Password:
[sharefs-mds-alt]root@solaris:~#
활성 메타데이터 서버가 Oracle HSM 아카이빙 파일 시스템을 마운트하는 경우 활성 아카이빙 및 스테이징 작업을 마치고 더 진행하기 전에 새로운 작동을 중지합니다. 아카이빙 및 스테이징 프로세스 유휴 설정을 참조하십시오.
활성 메타데이터 서버가 Oracle HSM 아카이빙 파일 시스템을 마운트하는 경우 이동식 매체 드라이브를 유휴 설정하고 라이브러리 제어 데몬을 중지합니다. 아카이빙 및 스테이징 프로세스 중지를 참조하십시오.
crontab
항목을 사용하여 리사이클러 프로세스를 실행하는 경우 항목을 제거하고 리사이클러가 현재 실행 중이 아닌지 확인합니다.
잠재적 메타데이터 서버를 활성화합니다. 잠재적 메타데이터 서버에서 samsharefs
-s
server
file-system
명령을 실행합니다. 여기서 server
는 잠재적 메타데이터 서버의 호스트 이름이고 file-system
은 Oracle HSM 공유 파일 시스템의 이름입니다.
예제에서 잠재적 메타데이터 서버는 sharefs-mds_alt
, 파일 시스템 이름은 sharefs
입니다.
[sharefs-mds_alt]root@solaris:~# samsharefs -s sharefs-mds_alt sharefs
구성 파일을 로드하고 잠재적 메타데이터 서버에서 Oracle HSM 프로세스를 시작합니다. samd config
명령을 사용합니다.
아카이빙 공유 파일 시스템의 경우 samd config
명령이 아카이빙 프로세스와 라이브러리 제어 데몬을 다시 시작합니다. 그러나 테이프에서 주 디스크 캐시로 파일이 스테이지되기를 기다리는 공유 파일 시스템 클라이언트의 경우 스테이지 요청을 다시 실행해야 합니다.
여전히 crontab
항목을 사용하여 리사이클러 프로세스를 실행해야 하는 경우 항목을 복원합니다.
여기서 중지합니다.
비공유 파일 시스템을 공유 파일 시스템으로 변환하려면 다음 작업을 수행합니다.
각 메타데이터 서버에서 공유 파일 시스템의 서버 및 클라이언트에 대한 네트워크 주소 정보를 나열하는 hosts 파일을 만들어야 합니다. hosts 파일은 /etc/opt/SUNWsamfs/
디렉토리에 mcf
파일과 나란히 저장됩니다. 공유 파일 시스템의 초기 생성 중 sammkfs -S
명령은 이 파일에 저장된 설정을 사용하여 공유를 구성합니다. 따라서 아래 절차를 사용하여 지금 만듭니다.
클라이언트로서 파일 시스템을 공유할 호스트에 대한 네트워크 호스트 이름과 IP 주소를 수집합니다.
아래 예제에서는 hsmfs1
파일 시스템을 클라이언트 hsmfs1-mds_alt
(잠재적 메타데이터 서버), hsmfs1-client1
, hsmfs1-client2
와 공유합니다.
메타데이터 서버에 root
로 로그인합니다.
예제에서는 hsmfs1-mds
호스트에 로그인합니다.
[hsmfs1-mds]root@solaris:~#
텍스트 편집기를 사용하여 메타데이터 서버에 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일을 만듭니다. family-set-name
은 공유할 파일 시스템의 패밀리 세트 이름으로 바뀝니다.
예제에서는 vi
텍스트 편집기를 사용하여 hosts.hsmfs1
파일을 만듭니다. 몇 가지 선택적 머리글을 추가하고, 각 라인은 주석을 나타내는 해시 기호(#
)로 시작합니다.
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
첫번째 열에 메타데이터 서버의 호스트 이름을 입력하고 두번째 열에는 해당 IP 주소 또는 도메인 이름을 입력합니다. 열을 공백 문자로 구분합니다.
예제에서는 메타데이터 서버의 호스트 이름 및 IP 주소를 각각 hsmfs1-mds
및 10.79.213.117
로 입력합니다.
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1 # /etc/opt/SUNWsamfs/hosts.hsmfs1 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- hsmfs1-mds 10.79.213.117
네트워크 주소와 공백 문자로 구분된 세번째 열을 추가합니다. 이 열에서 서버의 순서 번호를 입력합니다(활성 메타데이터 서버는 1
, 첫번째 잠재적 메타데이터 서버는 2
등등).
이 예제에서는 메타데이터 서버가 하나뿐이므로 1
을 입력합니다.
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
hsmfs1-mds 10.79.213.117 1
공백 문자로 서버 순서 번호와 구분된 네번째 열을 추가합니다. 이 열에서 0
(제로)을 입력합니다.
네번째 열의 0
, -
(하이픈) 또는 공백 값은 호스트가 on
으로 구성되었고 공유 파일 시스템에 액세스할 수 있음을 나타냅니다. 1
(숫자 일)은 호스트가 off
로 구성되었지만 파일 시스템에 액세스할 수 없음을 나타냅니다. 공유 파일 시스템을 관리할 때 해당 값 사용에 대한 자세한 내용은 samhsmfs1
매뉴얼 페이지를 참조하십시오.
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
hsmfs1-mds 10.79.213.117 1 0
공백 문자로 설정/해제 상태 열과 구분된 다섯번째 열을 추가합니다. 이 열에서 현재 활성 메타데이터 서버를 나타내는 server
키워드를 입력합니다.
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
hsmfs1-mds 10.79.213.117 1 0 server
하나 이상의 호스트를 잠재적 메타데이터 서버로 포함하려면 각각 항목을 만듭니다. 매번 서버 순서를 증분합니다. 그러나 server
키워드는 포함하지 마십시오(파일 시스템당 하나의 활성 메타데이터 서버만 가능).
예제에서는 hsmfs1-mds_alt
호스트가 서버 순서 2
를 가진 잠재적 메타데이터 서버입니다. 메타데이터 서버로 활성활 때까지는 클라이언트로 유지됩니다.
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
hsmfs1-mds 10.79.213.117 1 0 server
hsmfs1-mds_alt 10.79.213.217 2 0
각 클라이언트 호스트마다 서버 순서 값 0
과 함께 행을 추가합니다.
서버 순서 0
은 호스트를 클라이언트로 식별합니다. 예제에서는 두 개의 클라이언트 hsmfs1-client1
및 hsmfs1-client2
를 추가합니다.
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1 # /etc/opt/SUNWsamfs/hosts.hsmfs1 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- hsmfs1-mds 10.79.213.17 1 0 server hsmfs1-mds_alt 10.79.213.7 2 0 hsmfs1-client1 10.79.213.33 0 0 hsmfs1-client2 10.79.213.47 0 0
/etc/opt/SUNWsamfs/hosts.
family-set-name
파일을 저장하고 편집기를 종료합니다.
예제에서는 /etc/opt/SUNWsamfs/hosts.hsmfs1
에 대한 변경사항을 저장하고 vi
편집기를 종료합니다.
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
hsmfs1-mds 10.79.213.117 1 0 server
hsmfs1-mds 10.79.213.117 1 0 server
hsmfs1-mds_alt 10.79.213.217 2 0
hsmfs1-client1 10.79.213.133 0 0
hsmfs1-client2 10.79.213.147 0 0
:wq
[hsmfs1-mds]root@solaris:~#
공유 파일 시스템 구성에 포함될 잠재적 메타데이터 서버에 새 파일 /etc/opt/SUNWsamfs/hosts.
family-set-name
의 복사본을 배치합니다.
예제에서는 hsmfs1-mds_alt
호스트에 복사본을 배치합니다.
[hsmfs1-mds]root@solaris:~# sftp root@hsmfs1-mds_alt Password: sftp> cd /etc/opt/SUNWsamfs/ sftp> put /etc/opt/SUNWsamfs/hosts.hsmfs1 sftp> bye [hsmfs1-mds]root@solaris:~#
이제 비공유 파일 시스템 공유 및 클라이언트 구성을 수행합니다.
메타데이터 서버에 root
로 로그인합니다.
예제에서는 hsmfs1-mds
호스트에 로그인합니다.
[hsmfs1-mds]root@solaris:~#
현재 시스템 파일과 구성 파일의 백업 복사본이 없다면 지금 백업을 만듭니다. Oracle HSM 구성 백업을 참조하십시오.
현재 파일 시스템 복구 지점 파일과 최근 아카이브 로그 복사본이 없다면 지금 만듭니다. 파일 시스템 백업을 참조하십시오.
초기 구성 중 파일 시스템에 대한 자동 백업 프로세스를 설정한 경우 추가 백업이 필요하지 않을 수도 있습니다.
아카이빙 파일 시스템을 변환하는 경우 활성 아카이빙 및 스테이징 작업을 마치고 더 진행하기 전에 새로운 작동을 중지합니다. 아카이빙 및 스테이징 프로세스 유휴 설정 및 아카이빙 및 스테이징 프로세스 중지를 참조하십시오.
파일 시스템을 마운트 해제합니다. umount
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 공유할 파일 시스템의 패밀리 세트 이름입니다.
Oracle HSM 파일 시스템 마운트 및 마운트 해제에 대한 자세한 내용은 mount_samfs
매뉴얼 페이지를 참조하십시오. 예제에서는 hsmfs1
파일 시스템을 마운트 해제합니다.
[hsmfs1-mds]root@solaris:~# umount hsmfs1 [hsmfs1-mds]root@solaris:~#
파일 시스템을 Oracle HSM 공유 파일 시스템으로 변환합니다. samfsck
-
S
-
F
file-system-name
명령을 사용합니다. 여기서 file-system-name
은 파일 시스템의 패밀리 세트 이름입니다.
예제에서는 hsmfs1
이라는 파일 시스템을 변환합니다.
[hsmfs1-mds]root@solaris:~# samfsck -S -F hsmfs1
텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 파일 시스템 행을 찾습니다.
예제에서는 vi
편집기를 사용합니다:
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- hsmfs1 200 ma hsmfs1 on /dev/dsk/c0t0d0s0 201 mm hsmfs1 on /dev/dsk/c0t3d0s0 202 md hsmfs1 on /dev/dsk/c0t3d0s1 203 md hsmfs1 on
mcf
파일에서 파일 시스템 항목의 마지막 열인 Additional Parameters 필드에 shared
매개변수를 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- hsmfs1 200 ma hsmfs1 on shared /dev/dsk/c0t0d0s0 201 mm hsmfs1 on /dev/dsk/c0t3d0s0 202 md hsmfs1 on /dev/dsk/c0t3d0s1 203 md hsmfs1 on :wq [hsmfs1-mds]root@solaris:~#
텍스트 편집기에서 /etc/vfstab
파일을 열고 파일 시스템 행을 찾습니다.
이 예에서는 vi
편집기를 사용합니다.
[hsmfs1-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - yes
/etc/vfstab
파일에서 파일 시스템 항목의 마지막 열인 Mount Options 필드에 shared
마운트 옵션을 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
[hsmfs1-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - yes shared :wq [hsmfs1-mds]root@solaris:~#
공유 파일 시스템 및 호스트 구성을 초기화합니다. samsharefs -u -R
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 파일 시스템의 패밀리 세트 이름입니다.
[hsmfs1-mds]root@solaris:~# samsharefs -u -R hsmfs1
Oracle HSM 소프트웨어에 mcf
파일을 다시 읽고 그에 따라 재구성하도록 지시합니다.
[hsmfs1-mds]root@solaris:~# samd config
메타데이터 서버에 공유 파일 시스템을 마운트합니다.
[hsmfs1-mds]root@solaris:~# mount /hsm/hsmfs1
호스트가 다중 네트워크 인터페이스로 구성된 경우 로컬 hosts 파일을 사용하여 네트워크 통신 경로 지정을 참조하십시오.
추가 파일 시스템 클라이언트 구성에 설명된 절차를 사용하여 새로 공유된 파일 시스템에 필요한 클라이언트를 추가합니다.
개별 호스트에는 로컬 hosts 파일이 필요 없습니다. 메타데이터 서버에서 파일 시스템의 전역 파일은 모든 파일 시스템 호스트에 대한 활성 메타데이터 서버와 활성/잠재적 메타데이터 서버의 네트워크 인터페이스를 식별합니다(활성/잠재적 메타데이터 서버에 호스트 파일 만들기 참조). 그러나 다중 네트워크 인터페이스가 설치된 파일 시스템 호스트 간에 선택적으로 네트워크 트래픽 경로를 지정해야 하는 경우 로컬 hosts 파일이 유용할 수 있습니다.
각 파일 시스템 호스트는 메타데이터 서버에서 먼저 /etc/opt/SUNWsamfs/hosts.
family-set-name
파일을 확인하여 다른 호스트에 대한 네트워크 인터페이스를 식별합니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에 지정된 파일 시스템 패밀리의 이름입니다. 그런 다음 고유의 특정 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
파일이 있는지 확인합니다. 로컬 hosts 파일이 없는 경우 전역 hosts 파일에 지정된 인터페이스 주소를 전역 파일에 지정된 순서대로 사용합니다. 그러나 로컬 hosts 파일이 있는 경우 로컬 파일을 전역 파일과 비교하여 양쪽 파일에 나열된 인터페이스만 로컬 파일에 지정된 순서대로 사용합니다. 따라서 각 파일에 다른 주소를 사용하여 다양한 호스트에서 사용되는 인터페이스를 제어할 수 있습니다.
로컬 hosts 파일을 구성하려면 아래 설명된 절차를 사용하십시오.
메타데이터 서버 호스트와 각 잠재적 메타데이터 서버 호스트에서 활성/잠재적 메타데이터 서버에 호스트 파일 만들기에 설명된 대로 전역 hosts 파일 /etc/opt/SUNWsamfs/hosts.
family-set-name
의 복사본을 만듭니다.
이 절의 예제에서는 공유 파일 시스템 sharefs2
에 활성 메타데이터 서버 sharefs2-mds
및 잠재적 메타데이터 서버 sharefs2-mds_alt
가 각각 두 네트워크 인터페이스로 포함됩니다. 두 개의 클라이언트 sharefs2-client1
및 sharefs2-client2
도 있습니다.
활성/잠재적 메타데이터 서버에서 개인 네트워크 주소를 통해 서로 통신하고, DNS(도메인 이름 서비스)가 공용 LAN(근거리 통신망) 주소로 분석할 수 있는 호스트 이름을 통해 클라이언트와 통신하려고 합니다. 따라서 파일 시스템의 전역 호스트 파일인 /etc/opt/SUNWsamfs/hosts.sharefs2nics
는 Network Interface
필드에 활성/잠재적 서버 항목의 개인 네트워크 주소와 각 클라이언트의 인터페이스 주소 호스트 이름을 지정합니다. 파일은 다음과 같이 같습니다.
# /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 sharefs2-client1 sharefs2-client1 0 0 sharefs2-client2 sharefs2-client2 0 0
경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
을 사용해서 각 활성 및 잠재적 메타데이터 서버에 로컬 hosts 파일을 만듭니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 공유 파일 시스템에 대해 지정된 이름입니다. 활성/잠재적 서버에서 사용할 네트워크 인터페이스만 포함하십시오.
예제에서는 활성 및 잠재적 메타데이터 서버가 개인 네트워크를 통해 서로 통신하도록 해야 하므로, 각 서버의 로컬 hosts 파일 hosts.sharefs2.local
에는 활성 및 잠재적 서버에 대한 개인 주소만 나열됩니다.
[sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt Password:
[sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds_alt]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
을 사용해서 각 클라이언트에 로컬 hosts 파일을 만듭니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 공유 파일 시스템에 대해 지정된 이름입니다. 클라이언트에서 사용할 네트워크 인터페이스만 포함하십시오.
예제에서는 클라이언트가 공용 네트워크를 통해서만 서버와 통신합니다. 따라서 파일에는 활성/잠재적 메타데이터 서버의 호스트 이름만 포함됩니다.
[sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1 Password: [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client1]root@solaris:~# exit [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2 Password:
[sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client2]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
서버 구성을 마치는 동안 이 절차를 시작한 경우 클라이언트를 추가합니다. 추가 파일 시스템 클라이언트 구성으로 이동합니다.
파일 시스템 공유를 취소해야 하는 경우 다음과 같이 하십시오.
메타데이터 서버에 root
로 로그인합니다.
예제에서는 hsmfs1-mds
호스트에 로그인합니다.
[hsmfs1-mds]root@solaris:~#
파일 시스템 호스트 파일에서 호스트 제거 절차를 사용하여 메타데이터 서버 구성에서 클라이언트를 제거합니다.
현재 시스템 파일과 구성 파일의 백업 복사본이 없다면 지금 백업을 만듭니다. Oracle HSM 구성 백업을 참조하십시오.
현재 파일 시스템 복구 지점 파일과 최근 아카이브 로그 복사본이 없다면 지금 만듭니다. 파일 시스템 백업을 참조하십시오.
초기 구성 중 파일 시스템에 대한 자동 백업 프로세스를 설정한 경우 추가 백업이 필요하지 않을 수도 있습니다.
아카이빙 파일 시스템을 변환하는 경우 활성 아카이빙 및 스테이징 작업을 마치고 더 진행하기 전에 새로운 작동을 중지합니다. 아카이빙 및 스테이징 프로세스 유휴 설정 및 아카이빙 및 스테이징 프로세스 중지를 참조하십시오.
파일 시스템을 마운트 해제합니다. umount
family-set-name
명령을 사용합니다. 여기서 family-set-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 공유 파일 시스템에 대해 지정된 이름입니다.
Oracle HSM 파일 시스템 마운트 및 마운트 해제에 대한 자세한 내용은 mount_samfs
매뉴얼 페이지를 참조하십시오. 예제에서는 hsmfs1
파일 시스템을 마운트 해제합니다.
[hsmfs1-mds]root@solaris:~# umount hsmfs1
Oracle HSM 공유 파일 시스템을 비공유 파일 시스템으로 변환합니다. samfsck -F -U
file-system-name
명령을 사용합니다. 여기서 file-system-name
은 /etc/opt/SUNWsamfs/mcf
파일에서 공유 파일 시스템에 대해 지정된 이름입니다.
예제에서는 hsmfs1
이라는 파일 시스템을 변환합니다.
[hsmfs1-mds]root@solaris:~# samfsck -F -U hsmfs1
텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf
파일을 열고 파일 시스템 행을 찾습니다.
예제에서는 vi
편집기를 사용합니다:
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- hsmfs1 200 ma hsmfs1 on shared /dev/dsk/c0t0d0s0 201 mm hsmfs1 on /dev/dsk/c0t3d0s0 202 md hsmfs1 on /dev/dsk/c0t3d0s1 203 md hsmfs1 on
mcf
파일에서 파일 시스템 항목의 마지막 열인 Additional Parameters 필드에서 shared
매개변수를 삭제합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- hsmfs1 200 ma hsmfs1 on /dev/dsk/c0t0d0s0 201 mm hsmfs1 on /dev/dsk/c0t3d0s0 202 md hsmfs1 on /dev/dsk/c0t3d0s1 203 md hsmfs1 on :wq [hsmfs1-mds]root@solaris:~#
텍스트 편집기에서 /etc/vfstab
파일을 열고 파일 시스템 행을 찾습니다.
예제에서는 vi
편집기를 사용합니다.
[hsmfs1-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - yes shared
/etc/vfstab
파일에서 파일 시스템 항목의 마지막 열에 있는 마운트 옵션 필드에서 shared
마운트 옵션을 삭제합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.
이 예에서는 vi
편집기를 사용합니다.
[hsmfs1-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - yes :wq [hsmfs1-mds]root@solaris:~#
/etc/opt/SUNWsamfs/hosts.
file-system-name
파일을 삭제합니다.
Oracle HSM 소프트웨어에 mcf
파일을 다시 읽고 그에 따라 재구성하도록 지시합니다.
[hsmfs1-mds]root@solaris:~# samd config
파일 시스템을 마운트합니다.
[hsmfs1]root@solaris:~# mount /hsm/hsmfs1
여기서 중지합니다.