3 Oracle HSM 파일 시스템 관리

이 장에서는 파일 시스템 유지 관리 및 재구성 작업을 다룹니다. 첫번째 절인 Oracle HSM 파일 시스템 관리에서는 모든 Oracle HSM 파일 시스템(아카이빙 및 비아카이빙, 공유 및 비공유(독립형))의 유지 관리를 다룹니다. 두번째 절, Oracle HSM 공유 파일 시스템 관리에서는 공유 파일 시스템에 영향을 주는 특수한 고려 사항을 다룹니다.

Oracle HSM 파일 시스템 관리

이 절에서는 다음 작업을 설명합니다.

파일 시스템 쿼터 관리

파일 시스템 쿼터를 설정하여 주어진 사용자 또는 사용자 모음이 파일 시스템 내에서 소비할 수 있는 온라인/전체 스토리지 공간을 제어할 수 있습니다. 사용자 ID, 그룹 ID 또는 관리자가 정의한 관리 세트 ID(특정 프로젝트에서 참여도와 같은 공통 특성으로 사용자를 묶은 것)를 기준으로 쿼터를 설정할 수 있습니다. 관리 세트 ID는 특별히 프로젝트가 여러 그룹의 사용자를 포함하고 여러 디렉토리 및 파일에 걸쳐 있을 때 유용합니다.

파일 시스템을 quota 마운트 옵션(기본적으로 설정됨)으로 마운트하여 쿼터를 사용으로 설정하고, noquota 마운트 옵션으로 마운트하여 쿼터를 사용 안함으로 설정합니다. 하나 이상의 쿼터 파일.quota_u, .quota_g.quota_a를 파일 시스템 루트 디렉토리에 배치하여 쿼터를 정의합니다. 이러한 쿼터 파일은 각각 사용자, 그룹 및 관리 세트에 대한 쿼터를 설정합니다. 각 파일의 첫번째 레코드인 레코드 0은 기본값을 설정합니다. 이후 레코드들은 특정 사용자, 그룹, 관리 세트와 관련된 값을 설정합니다.

쿼터는 단순히 스토리지 공간이 아니라, 사용 가능한 파일 시스템 공간을 할당합니다. 따라서 매체에 할당된 512바이트 블록 수와 파일 시스템에 할당된 inode 수에 대한 상한을 설정할 수 있습니다. 블록 계수는 그 자체로 스토리지 공간을 측정합니다. inode 계수는 해당 스토리지에 액세스하기 위해 사용 가능한 리소스를 측정합니다. 따라서 스토리지 공간 블록이 매우 많이 사용되었지만 inode가 하나만 사용된 단일 파일은 많은 수의 inode를 차지하고 블록을 차지하지 않는 길이가 0인이고 매우 많은 수의 비어 있는 파일과 동일한 파일 시스템 공간을 차지할 수 있습니다.

각 쿼터에는 소프트 한계하드 한계를 포함할 수 있습니다. 하드 한계는 주어진 소유자의 파일이 일시적으로 사용할 수 있는 최대 파일 시스템 리소스를 정의합니다. 소프트 한계는 주어진 소유자의 파일이 무기한으로 사용할 수 있는 최대 파일 시스템 리소스를 정의합니다. 리소스 사용량은 쿼터에서 유예 기간에 정의된 대로, 짧은 간격 동안 소프트 한계와 하드 한계 사이에 놓인 양까지만 증가할 수 있습니다.

이 절에서는 다음 관리 작업을 설명합니다.

사용자, 그룹 및 조직 단위의 스토리지 요구 사항 특징짓기

지속 가능한 쿼터를 설정하려면 관리 가능하고 확장 가능한 방법으로 사용자 요구 사항을 수용하는 한계를 설정해야 합니다. 따라서 쿼터를 설정하기 전에 사용자의 스토리지 요구 사항을 추정합니다. 프로세스를 관리 가능하도록 유지하려면 최소한의 관리 노력으로 최대한의 요구 사항을 처리할 수 있도록 가능한 넓은 범위에서 사용자 요구 사항을 분류하는 것부터 시작합니다. 그런 다음 넓은 범주에 맞지 않는 소수의 사용자 요구 사항을 구체적으로 평가합니다. 결과에는 사용자가 설정한 쿼터와 한계 유형이 개략적으로 제공됩니다.

아래 설명된 접근 방법은 액세스 제어 그룹(대부분의 조직에 이미 그룹이 정의되어 있음)의 파일 시스템 요구 사항을 식별하는 것부터 시작합니다. 그런 다음 표준 그룹의 요구 사항과 잘 맞지 않는 특수한 사용자 세트를 정의합니다. 그런 다음 마지막으로 개별 사용자에 고유한 요구 사항을 처리하기 시작합니다. 다음과 같이 하십시오.

  1. 기존 액세스 제어 그룹이 이미 비슷한 리소스 요구 사항을 가진 사용자를 함께 수집하므로, 파일 시스템을 사용할 그룹의 평균 스토리지 요구 사항을 정의하는 것부터 시작합니다. 사용된 평균 스토리지 공간량(512킬로바이트 블록)과 저장된 평균 파일 수(사용된 평균 inode 수에 해당)를 추정합니다.

    그룹 구성원은 일반적으로 직무 역할과 업무 책임이 비슷하므로 동일한 디렉토리 및 파일에 자주 액세스하고 일반적으로 스토리지 요구도 비슷합니다. 예제에서는 /hsm/hsmfs1 파일 시스템을 사용할 세 그룹으로 dev(제품 개발), cit(기업 정보 기술), pgmt(프로그램 관리)를 식별합니다. 간단한 스프레드시트에 그룹, 각각의 구성원 수, 평균 개인 및 그룹 요구 사항을 나열합니다.

    그룹
    사용자 사용자당 평균 블록 사용자당 평균 파일 평균 블록/그룹 평균 파일/그룹
    dev
    
    30
    
     67108864
    
     500
    
    2013265920
    
    15000
    
    cit
    
    15
    
     10485760
    
      50
    
     157286400
    
      750
    
    pmgt
    
     6
    
     20971520
    
     200
    
     125829120
    
     1200
    
    총 블록/ 파일 (평균)          

  2. 그 다음, 주어진 시간에 그룹 구성원이 저장할 최대 스토리지 공간량최대 파일 수에 대해 동일한 계산을 수행합니다. 결과를 기록합니다.

    예제에서는 새 스프레드시트에 결과를 기록합니다.

    그룹
    사용자 사용자당 최대 블록 사용자당 최대 파일 최대 블록/그룹 최대 파일/그룹
    dev
    
    30
    
    100663296
    
    1000
    
    3019898880
    
    30000
    
    cit
    
    15
    
     15728640
    
     100
    
     235929600
    
     1500
    
    pmgt
    
     6
    
     31457280
    
     400
    
     188743680
    
     2400
    
    총 블록/ 파일 (최대)          

  3. 이제 서로 다른 그룹에 속하지만 그룹 멤버쉽을 기초로 처리할 수 없는 개별 스토리지 요구 사항을 공유하는 사용자 세트를 식별합니다. 각 액세스 제어 그룹에 했던 것처럼 각 식별된 조직에 대해 동일한 예상치를 만들고 동일한 계산을 수행합니다.

    예제에서는 스토리지 할당이 필요한 두 회사 프로젝트로 코드명 portallockbox를 식별합니다. 엔지니어링, 마케팅, 준수, 테스트, 문서화 그룹의 구성원은 이 프로젝트를 함께 진행하면서 동일한 디렉토리와 수많은 동일 파일을 사용하게 됩니다. 따라서 이것을 요구 사항 스프레드시트에 추가합니다.

    그룹
    사용자 사용자당 평균 블록 사용자당 평균 파일 평균 블록/그룹 평균 파일/그룹
    dev
    
    30
    
     67108864
    
     500
    
    2013265920
    
    15000
    
    cit
    
    15
    
     10485760
    
      50
    
     157286400
    
      750
    
    pmgt
    
     6
    
     20971520
    
     200
    
     125829120
    
     1200
    
    portal
    
    10
    
     31457280
    
     400
    
     314572800
    
     4000
    
    lockbox
    
    12
    
     31457280
    
     500
    
     377487360
    
     6000
    
    총 블록/ 파일 (평균)          

    그룹
    사용자 사용자당 최대 블록 사용자당 최대 파일 최대 블록/그룹 최대 파일/그룹
    dev
    
    30
    
    100663296
    
    1000
    
    3019898880
    
    30000
    
    cit
    
    15
    
     15728640
    
     100
    
     235929600
    
     1500
    
    pmgt
    
     6
    
     31457280
    
     400
    
     188743680
    
     2400
    
    portal
    
    10
    
     37748736
    
     700
    
     377487360
    
     7000
    
    lockbox
    
    12
    
     45613056
    
     600
    
     547356672
    
     7200
    
    총 블록/ 파일 (최대)          

  4. 이제 요구 사항이 아직 처리되지 않은 개별 사용자를 식별합니다. 각 액세스 제어 그룹과 비그룹 조직에 했던 것처럼 각 사용자에 대해 동일한 예상치를 만들고 동일한 계산을 수행합니다.

    가능한 경우, 균일한 정책이 적용되고 관리 오버헤드가 최소화되도록 사용자 요구 사항을 총체적으로 처리합니다. 그러나 개인 요구 사항이 고유하다면 개별적으로 처리해야 합니다. 예제에서는 특별한 스토리지 할당이 필요한 특수 책임을 가진 사용자로 pgmt 그룹의 jr23547을 식별합니다. 따라서 이것을 요구 사항 스프레드시트에 추가합니다.

    그룹
    세트당 사용자 사용자당 평균 블록 사용자당 평균 파일 평균 블록 평균 파일
    dev
    
    30
    
     67108864
    
     500
    
    2013265920
    
    15000
    
    cit
    
    15
    
     10485760
    
      50
    
     157286400
    
      750
    
    pmgt
    
     6
    
     20971520
    
     200
    
     125829120
    
     1200
    
    portal
    
    10
    
     31457280
    
     400
    
     314572800
    
     4000
    
    lockbox
    
    12
    
     31457280
    
     500
    
     377487360
    
     6000
    
    jr23547
    
     1
    
     10485760
    
     600
    
     10485760
    
     600
    
    총 블록/ 파일 (평균)          

    그룹
    사용자 사용자당 최대 블록 사용자당 최대 파일 최대 블록/그룹 최대 파일/그룹
    dev
    
    30
    
    100663296
    
    1000
    
    3019898880
    
    30000
    
    cit
    
    15
    
     15728640
    
     100
    
     235929600
    
     1500
    
    pmgt
    
     6
    
     31457280
    
     400
    
     188743680
    
     2400
    
    portal
    
    10
    
     37748736
    
     700
    
     377487360
    
     7000
    
    lockbox
    
    12
    
     45613056
    
     600
    
     547356672
    
     7200
    
    jr23547
    
     1
    
    100663296
    
    2000
    
     100663296
    
     2000
    
    총 블록/ 파일 (최대)          

  5. 마지막으로, 모든 사용자가 필요한 평균/최대 블록 및 파일을 계산합니다.

    그룹
    사용자 사용자당 평균 블록 사용자당 평균 파일 평균 블록/그룹 평균 파일/그룹
    dev
    
    30
    
     67108864
    
     500
    
     2013265920
    
    15000
    
    cit
    
    15
    
     10485760
    
      50
    
      157286400
    
      750
    
    pmgt
    
     6
    
     20971520
    
     200
    
      125829120
    
     1200
    
    portal
    
    10
    
     31457280
    
     400
    
      314572800
    
     4000
    
    lockbox
    
    12
    
     31457280
    
     500
    
      377487360
    
     6000
    
    jr23547
    
     1
    
     10485760
    
     600
    
       10485760
    
      600
    
    총 블록/ 파일 (평균)      
     2998927360
    
    27550
    

    그룹
    사용자 사용자당 최대 블록 사용자당 최대 파일 최대 블록/그룹 최대 파일/그룹
    dev
    
    30
    
    100663296
    
    1000
    
      3019898880
    
    30000
    
    cit
    
    15
    
     15728640
    
     100
    
       235929600
    
     1500
    
    pmgt
    
     6
    
     31457280
    
     400
    
       188743680
    
     2400
    
    portal
    
    10
    
     37748736
    
     700
    
       377487360
    
     7000
    
    lockbox
    
    12
    
     45613056
    
     600
    
       547356672
    
     7200
    
    jr23547
    
     1
    
    100663296
    
    2000
    
       100663296
    
     2000
    
    총 블록/ 파일 (평균)      
      4470079488
    
    50100
    

  6. 프로젝트 기반 쿼터나 기타 액세스 제어 그룹 및 사용자 ID로 정의할 수 없는 쿼터를 관리해야 하는 경우 다중 그룹에서 사용되는 프로젝트 및 디렉토리에 대한 관리 세트 만들기를 수행합니다.

  7. 새로 만든 빈 파일 시스템에 쿼터를 설정하는 경우 새 파일 시스템에서 쿼터를 사용하도록 구성으로 이동합니다.

  8. 이미 파일을 보유한 파일 시스템에 쿼터를 설정하는 경우 기존 파일 시스템에서 쿼터를 사용하도록 구성으로 이동합니다.

다중 그룹에서 사용되는 프로젝트 및 디렉토리에 대한 관리 세트 만들기

관리 세트란, 쿼터 목적상 관리 세트 ID로 식별되는 디렉토리 계층 또는 개별 디렉토리나 파일입니다. 지정된 관리 세트 ID로 만들거나 지정된 관리 세트 ID로 디렉토리에 저장된 파일은 실제로 파일을 소유한 사용자나 그룹 ID에 관계없이 모두 동일한 쿼터를 갖습니다. 관리 세트를 정의하려면 다음과 같이 하십시오.

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 서버 이름이 server1로 지정됩니다.

    [server1]root@solaris:~# 
    
  2. 관리 세트를 사용하여 새 프로젝트나 팀에 대한 스토리지 쿼터를 구성하는 경우, 파일 시스템 내의 아무 곳에나 이 프로젝트나 팀에 대한 새 디렉토리를 만듭니다.

    예제에서는 /hsm/hsmfs1 파일 시스템에 디렉토리를 만들고 동일한 이름의 프로젝트에 대해 portalproject/ 이름을 지정합니다.

    [server1]root@solaris:~# mkdir /hsm/hsmfs1/portalproject 
    
  3. 쿼터를 설정할 디렉토리나 파일에 관리 세트 ID를 지정합니다. samchaid [-fhR] admin-set-id directory-or-file-name 명령을 사용합니다. 설명:

    • -f는 강제로 지정하고 오류를 보고하지 않습니다.

    • -h는 관리 세트 ID를 심볼릭 링크에 지정합니다. 이 옵션이 없으면 심볼릭 링크로 참조된 파일의 그룹이 변경됩니다.

    • -R은 관리 세트 ID를 하위 디렉토리 및 파일에 재귀적으로 지정합니다.

    • admin-set-id는 고유한 정수값입니다.

    • directory-or-file-name은 관리 세트 ID를 지정하려는 디렉토리나 파일의 이름입니다.

    예제에서는 관리 ID 1/hsm/hsmfs1/portalproject/ 디렉토리와 하위 디렉토리의 모든 파일에 지정합니다.

    [server1]root@solaris:~# samchaid -R 1 /hsm/hsmfs1/portalproject/
    
  4. 원하는 경우 지정을 확인할 수 있습니다. sls -D directory-path 명령을 사용합니다. 여기서 -Ddirectory-path의 파일 및 디렉토리에 대한 상세한 Oracle HSM 디렉토리 목록을 지정합니다.

    [server1]root@solaris:~# sls -D /hsm/hsmfs1/
    /portalproject:
      mode: drwxr-xr-x    links:   2  owner: root        group: root      
      length:      4096  admin id:    1  inode:     1047.1
      project: user.root(1)
      access:      Feb 24 12:49  modification: Feb 24 12:44
      changed:     Feb 24 12:49  attributes:   Feb 24 12:44
      creation:    Feb 24 12:44  residence:    Feb 24 12:44
    
  5. 새로 만든 빈 파일 시스템에 쿼터를 설정하는 경우 새 파일 시스템에서 쿼터를 사용하도록 구성으로 이동합니다.

  6. 이미 파일을 보유한 파일 시스템에 쿼터를 설정하는 경우 기존 파일 시스템에서 쿼터를 사용하도록 구성으로 이동합니다.

새 파일 시스템에서 쿼터를 사용하도록 구성

새 파일 시스템을 만들고 현재 파일 시스템에 상주하는 파일이 없는 경우 이 절차를 사용하십시오.

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서 서버 이름은 server2로 지정됩니다.

    [server2]root@solaris:~# 
    
  2. 새 파일 시스템이 현재 마운트되지 않은 경우 계속하기 전에 마운트합니다.

  3. 그룹에 대한 쿼터를 설정해야 하는 경우 파일 시스템 루트 디렉토리에 그룹 쿼터 파일 .quota_g를 만듭니다. Solaris 명령 dd if=/dev/zero of=mountpoint/.quota_g bs=4096 count=number-blocks를 사용합니다. 설명:

    • if=/dev/zero는 UNIX 특수 파일 /dev/zero에서 입력으로 널 문자를 지정합니다.

    • of=mountpoint/.quota_g는 출력 파일을 지정합니다. 여기서 mountpoint는 파일 시스템의 마운트 지점 디렉토리입니다.

    • bs=4096은 쓰기용 블록 크기를 4096 바이트로 설정합니다.

    • count=number-blocks는 쓰기용 블록 수를 지정합니다. 이 값은 파일이 보유할 레코드 수에 따라 다릅니다. 각 지정된 쿼터마다 하나의 128바이트 레코드가 있으므로 한 블록이 32개 레코드를 수용할 수 있습니다.

    예제에서는 /newsamfs에 마운트된 파일 시스템 newsamfs에 대해 그룹 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 쿼터가 필요한 세 그룹으로 dev, cit, pgmt를 식별했습니다. 다른 그룹 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.

    [server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_g bs=4096 count=1
    
  4. 관리 세트에 대한 쿼터를 설정해야 하는 경우 파일 시스템 루트 디렉토리에 관리 세트 쿼터 파일 .quota_a를 만듭니다. Solaris 명령 dd if=/dev/zero of=mountpoint/.quota_a bs=4096을 사용합니다. 설명:

    • mountpoint는 파일 시스템에 대한 마운트 지점 디렉토리입니다.

    • .quota_a는 출력 파일의 이름입니다.

    • 4096은 기록할 블록 크기(바이트)입니다.

    • number-blocks는 기록할 블록 수입니다.

    예제에서는 /newsamfs에 마운트된 파일 시스템 newsamfs에 대해 관리 세트 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 쿼터가 필요한 두 프로젝트로 portal(관리 세트 ID 1) 및 lockbox(관리 세트 ID 2)를 식별했습니다. 다른 관리 세트 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.

    [server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_a bs=4096 count=1
    
  5. 사용자에 대한 쿼터를 설정해야 할 경우 파일 시스템 루트 디렉토리에 사용자 쿼터 파일인 .quota_u를 만듭니다. Solaris 명령 dd if=/dev/zero of=mountpoint/.quota_u bs=4096 count=number-blocks를 사용합니다. 설명:

    • mountpoint는 파일 시스템에 대한 마운트 지점 디렉토리입니다.

    • .quota_u는 출력 파일의 이름입니다.

    • 4096은 기록할 블록 크기(바이트)입니다.

    • number-blocks는 기록할 블록 수입니다.

    예제에서는 /newsamfs에 마운트된 파일 시스템 newsamfs에 대해 사용자 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 특정 쿼터가 필요한 사용자로 jr23547을 식별했습니다. 다른 개별 사용자 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.

    [server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_u bs=4096 count=1
    
  6. 파일 시스템을 마운트 해제합니다.

    파일 시스템을 마운트 해제해야 다시 마운트하고 쿼터 파일을 사용으로 설정할 수 있습니다.

    [server2]root@solaris:~# umount /newsamfs
    
  7. 파일 시스템 검사를 수행합니다.

    [server2]root@solaris:~# samfsck -F newsamfs
    
  8. 파일 시스템을 다시 마운트합니다.

    시스템이 파일 시스템의 루트 디렉토리에서 하나 이상의 쿼터 파일을 감지할 때 쿼터가 사용으로 설정됩니다.

    파일 시스템은 기본적으로 쿼터가 사용으로 설정된 채 마운트되기 때문에 /etc/vfstab 또는 samfs.cmd 파일에 quota 마운트 옵션을 포함할 필요가 없습니다.

    [server2]root@solaris:~# mount /newsamfs
    
  9. 그 다음, 필요에 따라 쿼터를 설정하거나 업데이트합니다. 그룹, 프로젝트, 디렉토리 및 사용자에 대한 쿼터 설정을 참조하십시오.

기존 파일 시스템에서 쿼터를 사용하도록 구성

이미 파일을 보유한 파일 시스템에 대한 쿼터를 만드는 경우 이 절차를 사용하십시오.

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 서버 이름이 server1로 지정됩니다.

    [server1]root@solaris:~# 
    
  2. 텍스트 편집기에서 /etc/vfstab 파일을 열고 noquota 마운트 옵션이 설정되지 않았는지 확인합니다.

    예제에서는 vi 텍스트 편집기에서 파일을 엽니다. noquota 마운트 옵션이 설정되었습니다.

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    hsmfs1        -        /hsm/hsmfs1          samfs   -     no       noquota
    
  3. /etc/vfstab 파일에 noquota 마운트 옵션이 설정된 경우 삭제하고 파일을 저장합니다.

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    hsmfs1        -        /hsm/hsmfs1          samfs   -     no       -
    :wq
    [server1]root@solaris:~# 
    
  4. 텍스트 편집기에서 /etc/opt/SUNWsamfs/samfs.cmd 파일을 열고 noquota 마운트 옵션이 설정되지 않았는지 확인합니다.

    예제에서는 vi 텍스트 편집기에서 파일을 엽니다. noquota 마운트 옵션이 설정되지 않았습니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/samfs.cmd
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    #
    #inodes = 0
    #fs = hsmfs1
    #  forcedirectio (default no forcedirectio)
    #  high = 80
    #  low = 70
    #  weight_size = 1.
    #  weight_age = 1.
    #  readahead = 128
    ...
    #  dio_wr_ill_min = 0
    #  dio_wr_consec = 3
    #  qwrite        (ma filesystem, default no qwrite)
    #  shared_writer (ma filesystem, default no shared_writer)
    #  shared_reader (ma filesystem, default no shared_reader)
    
  5. /etc/opt/SUNWsamfs/samfs.cmd 파일에 noquota 마운트 옵션이 설정된 경우 삭제하고 파일을 저장합니다.

  6. /etc/vfstab 파일 및/또는 /etc/opt/SUNWsamfs/samfs.cmd 파일에서 noquota 마운트 옵션을 삭제했으면 파일 시스템을 마운트 해제합니다.

    noquota 마운트 옵션을 제거할 때 파일 시스템을 마운트 해제해야 쿼터가 사용으로 설정된 채 다시 마운트할 수 있습니다.

    [server1]root@solaris:~# umount /hsm/hsmfs1
    
  7. 파일 시스템이 현재 마운트되지 않은 경우 지금 마운트합니다.

    파일 시스템을 마운트해야 쿼터를 사용으로 설정할 수 있습니다.

    [server1]root@solaris:~# mount /hsm/hsmfs1
    
  8. 파일 시스템의 루트 디렉토리로 변경하고 기존 쿼터 파일이 있는지 확인합니다. Solaris 명령 ls -a를 사용하고 .quota_g, .quota_a 및/또는 .quota_u 파일을 찾습니다.

    예제에서는 현재 쿼터 파일이 존재하지 않습니다.

    [server1]root@solaris:~# cd /hsm/hsmfs1
    [server1]root@solaris:~# ls -a /hsm/hsmfs1
    .              .archive       .fuid          .stage         portalproject
    ..             .domain        .inodes        lost+found
    
  9. 쿼터 파일이 존재하면 수정하지 마십시오.

  10. 그룹에 대한 쿼터를 설정해야 하는데 파일 시스템 루트 디렉토리에 그룹 쿼터 파일 .quota_g가 아직 없으면 지금 파일을 만듭니다. Solaris 명령 dd if=/dev/zero of=mountpoint/.quota_g bs=4096 count=number-blocks를 사용합니다. 설명:

    • if=/dev/zero는 UNIX 특수 파일 /dev/zero에서 입력으로 널 문자를 지정합니다.

    • of=mountpoint/.quota_g는 출력 파일을 지정합니다. 여기서 mountpoint는 파일 시스템의 마운트 지점 디렉토리입니다.

    • bs=4096은 쓰기용 블록 크기를 4096바이트로 설정합니다.

    • count=number-blocks는 쓰기용 블록 수를 지정합니다. 이 값은 파일이 보유할 레코드 수에 따라 다릅니다. 각 지정된 쿼터마다 하나의 128바이트 레코드가 있으므로 한 블록이 32개 레코드를 수용할 수 있습니다.

    예제에서는 /hsm/hsmfs1에 마운트된 파일 시스템 /hsm/hsmfs1에 대해 그룹 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 쿼터가 필요한 세 그룹으로 dev, cit, pgmt를 식별했습니다. 다른 그룹 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.

    [server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_g bs=4096 count=1
    
  11. 관리 세트에 대한 쿼터를 설정해야 하는데 파일 시스템 루트 디렉토리에 관리 세트 쿼터 파일 .quota_a가 아직 없으면 지금 파일을 만듭니다. Solaris 명령 dd if=/dev/zero of=mountpoint/.quota_a bs=4096 count=number-blocks를 사용합니다. 설명:

    • mountpoint는 파일 시스템에 대한 마운트 지점 디렉토리입니다.

    • .quota_a는 출력 파일의 이름입니다.

    • 4096은 기록할 블록 크기(바이트)입니다.

    • number-blocks는 기록할 블록 수입니다.

    예제에서는 /hsm/hsmfs1에 마운트된 파일 시스템 /hsm/hsmfs1에 대해 관리 세트 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 쿼터가 필요한 두 프로젝트로 portal(관리 세트 ID 1) 및 lockbox(관리 세트 ID 2)를 식별했습니다. 다른 관리 세트 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.

    [server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_a bs=4096 count=1
    
  12. 사용자에 대한 쿼터를 설정해야 하는데 파일 시스템 루트 디렉토리에 사용자 쿼터 파일 .quota_u가 아직 없으면 지금 파일을 만듭니다. Solaris 명령 dd if=/dev/zero of=mountpoint/.quota_u bs=4096 count=number-blocks를 사용합니다. 설명:

    • mountpoint는 파일 시스템에 대한 마운트 지점 디렉토리입니다.

    • .quota_u는 출력 파일의 이름입니다.

    • 4096은 기록할 블록 크기(바이트)입니다.

    • number-blocks는 기록할 블록 수입니다.

    예제에서는 /hsm/hsmfs1에 마운트된 파일 시스템 /hsm/hsmfs1에 대해 사용자 쿼터 파일을 만듭니다. 요구 사항 수집 단계 동안, 파일 시스템에서 특정 쿼터가 필요한 사용자로 jr23547을 식별했습니다. 다른 개별 사용자 쿼터는 추가하지 않을 것이므로 파일 크기를 한 블록으로 지정합니다.

    [server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_u bs=4096 count=1
    
  13. 파일 시스템을 마운트 해제합니다.

    파일 시스템을 마운트 해제해야 다시 마운트하고 쿼터 파일을 사용으로 설정할 수 있습니다.

    [server1]root@solaris:~# umount /hsm/hsmfs1
    
  14. 파일 시스템 검사를 수행합니다.

    [server1]root@solaris:~# samfsck -F /hsm/hsmfs1
    
  15. 파일 시스템을 다시 마운트합니다.

    시스템이 파일 시스템의 루트 디렉토리에서 하나 이상의 쿼터 파일을 감지할 때 쿼터가 사용으로 설정됩니다.

    파일 시스템은 기본적으로 쿼터가 사용으로 설정된 채 마운트되기 때문에 /etc/vfstab 또는 samfs.cmd 파일에 quota 마운트 옵션을 포함할 필요가 없습니다.

    [server1]root@solaris:~# mount /hsm/hsmfs1
    
  16. 그런 다음 그룹, 프로젝트, 디렉토리 및 사용자에 대한 쿼터 설정을 수행합니다.

그룹, 프로젝트, 디렉토리 및 사용자에 대한 쿼터 설정

samquota 명령을 사용하여 새 쿼터를 설정하고 기존 쿼터를 조정합니다. 아래 절차를 따르십시오.

  1. 일단 스토리지 요구 사항을 특징지었으면 각 그룹, 사용자 및 비그룹 조직에 대한 적절한 쿼터를 결정합니다. 다음 요인을 고려하여 필요에 따라 조정하십시오.

    • 모든 사용자가 필요한 평균/최대 블록 수와 비교한 파일 시스템의 크기

    • 모든 사용자가 필요한 평균/최대 inode 수와 비교한 파일 시스템의 inode 수

    • 주어진 시간에 최대 요구 사항에 가까운 사용자의 개수와 유형.

  2. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 서버 이름이 server1로 지정됩니다.

    [server1]root@solaris:~# 
    
  3. 각 그룹에 대해 한계를 설정합니다. samquota -b number-blocks:type[:scope] -f number-files:type[:scope] -t interval[:scope] -G groupID [directory-or-file] 명령을 사용합니다. 설명:

    • -b number-blocks는 파일 시스템에 저장할 수 있는 512킬로바이트 블록의 최대 개수를 정수값 number-blocks로 설정합니다. 대체 크기 지정 방법은 samquota 매뉴얼 페이지를 참조하십시오. 0(제로) 값은 무제한 블록 수를 지정합니다.

    • :은 필드 구분자입니다.

    • type은 하드 한계 h 또는 소프트 한계 s로 한계 종류를 지정합니다.

    • scope(선택사항)은 한계가 적용되는 스토리지의 유형을 식별합니다. 온라인(디스크 캐시) 전용 스토리지의 경우 o, 전체 스토리지의 경우 t(기본값, 디스크 캐시와 아카이브 스토리지 모두 포함)가 될 수 있습니다.

    • -f number-files는 파일 시스템에 저장할 수 있는 최대 파일 수를 정수 값인 number-files로 설정합니다. 0(제로) 값은 무제한 파일 수를 지정합니다.

    • -t number-seconds유예 기간(소프트 한계를 초과할 수 있는 시간)을 초 수를 나타내는 정수 number-seconds로 설정합니다. 대체 시간 지정 방법은 samquota 매뉴얼 페이지를 참조하십시오.

    • -G groupID는 그룹 이름 또는 그룹의 정수 식별자를 지정합니다. 0(제로) 값은 모든 그룹에 대해 기본 한계를 설정합니다.

    • directory-or-file(선택사항)은 특정 파일 시스템의 마운트 지점 디렉토리이거나 쿼터를 설정할 특정 디렉토리나 파일입니다.

    예제에서는 요구 사항 수집 단계의 예상치를 사용하여 /hsm/hsmfs1 파일 시스템에서 dev 그룹이 사용할 수 있는 스토리지 공간량과 저장할 수 있는 파일 수에 대해 하드 및 소프트 한계를 설정합니다. 온라인 전용 스토리지에 대해 유예 기간을 43200초(12시간)로 설정합니다. 아래의 명령은 단일 행으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프합니다.

    [server1]root@solaris:~# samquota -b 3019898880:h:t -f 30000:h:t \
    -G dev /hsm/hsmfs1
    [server1]root@solaris:~# samquota -b 2013265920:s:t -f 15000:s:t -t 43200:o \
    -G dev /hsm/hsmfs1
    [server1]root@solaris:~# 
    
  4. 각 관리 세트에 대해 한계를 설정합니다. samquota -b number-blocks:type[:scope] -f number-files:type[:scope] -t interval[:scope] -A adminsetID [directory-or-file] 명령을 사용합니다. 여기서 -A adminsetID는 관리 세트를 고유하게 식별하는 정수값입니다.

    adminsetID0(제로)으로 설정하면 모든 관리 세트에 대해 기본 한계가 설정됩니다.

    예제에서는 요구 사항 수집 단계의 예상치를 사용하여 /hsm/hsmfs1 파일 시스템에서 portal 프로젝트(관리 세트 ID 1)가 사용할 수 있는 스토리지 공간량과 저장할 수 있는 파일 수에 대해 하드 및 소프트 한계를 설정합니다. 사용된 전체 스토리지(기본 범위)에 대해 유예 기간을 43200초(12시간)로 설정합니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.

    [server1]root@solaris:~# samquota -b 377487360:h:t -f 7000:h:t -A 1 /hsm/hsmfs1
    [server1]root@solaris:~# samquota -b 314572800:s:t -f 4000:s:t -t 43200 \ 
    -A 1 /hsm/hsmfs1
    [server1]root@solaris:~# 
    
  5. 각 개별 사용자에 대해 한계를 설정합니다. samquota -b number-blocks:type[:scope] -f number-files:type[:scope] -t interval[:scope] -U userID [directory-or-file] 명령을 사용합니다. 여기서 -U userID는 사용자 이름 또는 사용자의 정수 식별자입니다.

    userID0(제로)으로 설정하면 모든 사용자에 대해 기본 한계가 설정됩니다.

    예제에서는 요구 사항 수집 단계의 예상치를 사용하여 /hsm/hsmfs1 파일 시스템에서 jr23547 사용자가 사용할 수 있는 스토리지 공간량과 jr23547이 저장할 수 있는 파일 수에 대해 하드 및 소프트 한계를 설정합니다. 사용된 전체 스토리지(기본 범위)에 대해 유예 기간을 1209600초(2주)로 설정합니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.

    [server1]root@solaris:~# samquota -b 100663296:h:t -f 600:h:t \
    -U jr23547 /hsm/hsmfs1
    [server1]root@solaris:~# samquota -b 10485760:s:t -f 2000:s:t -t 1209600 \
    -U jr23547 /hsm/hsmfs1
    [server1]root@solaris:~# 
    
  6. 여기서 중지합니다.

불일치 쿼터 복구

루트 디렉토리에 쿼터 파일이 있을 때 Oracle HSM 파일 시스템을 noquota 마운트 옵션으로 마운트하는 경우, 블록이나 파일을 할당하거나 비울 때 쿼터 레코드가 불일치해집니다. 이 상황에서 다음과 같이 하십시오.

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 서버 이름이 server1로 지정됩니다.

    [server1]root@solaris:~# 
    
  2. 영향을 받는 파일 시스템을 마운트 해제합니다.

    예제에서는 samfs2 파일 시스템을 마운트 해제합니다.

    [server1]root@solaris:~# umount samfs2
    [server1]root@solaris:~# 
    
  3. 텍스트 편집기에서 /etc/vfstab 파일을 열고 noquota 마운트 옵션이 설정되지 않았는지 확인합니다.

    예제에서는 vi 텍스트 편집기에서 파일을 엽니다. noquota 마운트 옵션이 설정되었습니다.

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    samfs2         -        /samfs2           samfs   -     no       noquota
    
  4. /etc/vfstab 파일에 noquota 마운트 옵션이 설정된 경우 삭제하고 파일을 저장합니다.

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    samfs2         -        /samfs2           samfs   -     no       -
    :wq
    [server1]root@solaris:~# 
    
  5. 텍스트 편집기에서 /etc/opt/SUNWsamfs/samfs.cmd 파일을 열고 noquota 마운트 옵션이 설정되지 않았는지 확인합니다.

    예제에서는 vi 텍스트 편집기에서 파일을 엽니다. noquota 마운트 옵션이 설정되지 않았습니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/samfs.cmd
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    #
    #inodes = 0
    #fs = hsmfs1
    #  forcedirectio (default no forcedirectio)
    #  high = 80
    #  low = 70
    #  weight_size = 1.
    #  weight_age = 1.
    #  readahead = 128
    ...
    #  dio_wr_ill_min = 0
    #  dio_wr_consec = 3
    #  qwrite        (ma filesystem, default no qwrite)
    #  shared_writer (ma filesystem, default no shared_writer)
    #  shared_reader (ma filesystem, default no shared_reader)
    
  6. /etc/opt/SUNWsamfs/samfs.cmd 파일에 noquota 마운트 옵션이 설정된 경우 삭제하고 파일을 저장합니다.

  7. 불일치 쿼터 레코드를 복구합니다. samfsck -F family-set-name 명령을 사용합니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템의 패밀리 세트 이름입니다.

    [server1]root@solaris:~# samfsck -F samfs2
    
  8. 파일 시스템을 다시 마운트합니다.

    시스템이 파일 시스템의 루트 디렉토리에서 하나 이상의 쿼터 파일을 감지할 때 쿼터가 사용으로 설정됩니다.

    파일 시스템은 기본적으로 쿼터가 사용으로 설정된 채 마운트되기 때문에 /etc/vfstab 또는 samfs.cmd 파일에 quota 마운트 옵션을 포함할 필요가 없습니다.

    [server1]root@solaris:~# mount /samfs2
    [server1]root@solaris:~# 
    
  9. 여기서 중지합니다.

쿼터 검사

관리자와 사용자 모두 쿼터 및 리소스 사용량을 모니터할 수 있습니다. root 사용자는 samquota 명령을 사용하여 사용자, 그룹, 관리 세트에 대한 쿼터 보고서를 생성할 수 있습니다. 파일 시스템 사용자는 squota 명령을 사용하여 자신이 소유한 쿼터를 검사할 수 있습니다.

아래 절차를 참조하십시오.

파일 시스템 관리자로서 쿼터 모니터링
  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 서버 이름이 server1로 지정됩니다.

    [server1]root@solaris:~# 
    
  2. 모든 그룹에 대한 쿼터 통계를 표시하려면 samquota -g [directory-or-file] 명령을 사용합니다. 여기서 선택적 directory-or-file 매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.

    예제에서는 /hsm/hsmfs1에 마운트되는 hsmfs1 파일 시스템에 대한 보고서를 요청합니다.

    [server1]root@solaris:~# samquota -g /hsm/hsmfs1
    
  3. 모든 관리 세트에 대한 쿼터 통계를 표시하려면 samquota -a [directory-or-file] 명령을 사용합니다. 여기서 선택적 directory-or-file 매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.

    예제에서는 /hsm/hsmfs1에 마운트되는 hsmfs1 파일 시스템에 대한 보고서를 요청합니다.

    [server1]root@solaris:~# samquota -a /hsm/hsmfs1
    
  4. 모든 사용자에 대한 쿼터 통계를 표시하려면 samquota -u [directory-or-file] 명령을 사용합니다. 여기서 선택적 directory-or-file 매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.

    예제에서는 /hsm/hsmfs1에 마운트되는 hsmfs1 파일 시스템에 대한 보고서를 요청합니다.

    [server1]root@solaris:~# samquota -u /hsm/hsmfs1
    
  5. 특정 그룹에 대한 쿼터 통계를 표시하려면 samquota -G groupID [directory-or-file] 명령을 사용합니다. 여기서 groupID는 그룹에 대한 그룹 이름 또는 정수 식별자를 지정하고 선택적 directory-or-file 매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.

    예제에서는 /hsm/hsmfs1에 마운트되는 hsmfs1 파일 시스템에서 dev 그룹의 쿼터에 대한 보고서를 요청합니다.

    [server1]root@solaris:~# samquota -G dev /hsm/hsmfs1
    
  6. 특정 관리 세트에 대한 쿼터 통계를 표시하려면 samquota -A adminsetID [directory-or-file] 명령을 사용합니다. 여기서 adminsetID는 관리 세트에 대한 정수 식별자를 지정하고 선택적 directory-or-file 매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.

    예제에서는 /hsm/hsmfs1에 마운트되는 hsmfs1 파일 시스템에서 관리 세트 1의 쿼터에 대한 보고서를 요청합니다.

    [server1]root@solaris:~# samquota -A 1 /hsm/hsmfs1
    
  7. 특정 사용자에 대한 쿼터 통계를 표시하려면 samquota -U userID [directory-or-file] 명령을 사용합니다. 여기서 userID는 사용자에 대한 사용자 이름 또는 정수 식별자를 지정하고 선택적 directory-or-file 매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.

    예제에서는 /hsm/hsmfs1에 마운트되는 hsmfs1 파일 시스템에서 jr23547 사용자의 쿼터에 대한 보고서를 요청합니다.

    [server1]root@solaris:~# samquota -U jr23547 /hsm/hsmfs1
    
  8. 여기서 중지합니다.

소유한 사용자 쿼터 모니터링
  1. 사용자 ID를 사용하여 파일 시스템 호스트에 로그인합니다.

    예제에서는 server1 호스트에 od447 사용자로 로그인합니다.

    [server1]od447@solaris:~# 
    
  2. 모든 그룹에 대한 쿼터 통계를 표시하려면 squota [directory-or-file] 명령을 사용합니다. 여기서 선택적 directory-or-file 매개변수는 보고서의 범위를 지정된 디렉토리에 마운트된 파일 시스템, 지정된 디렉토리 자체 또는 지정된 파일로 제한합니다.

    예제에서는 모든 파일 시스템에 대한 보고서를 요청합니다.

    [server1]od447@solaris:~# squota
                                             Limits
                 Type    ID    In Use     Soft     Hard
         /hsm/hsmfs1
         Files  group   101         1     1000     1200
         Blocks group   101         8    20000    30000
         Grace period                    25920
         No user quota entry.
    [server1]od447@solaris:~# 
    
  3. 여기서 중지합니다.

유예 기간 일시적 연장 또는 취소

유예 기간을 일시적으로 연장하거나 유예 기간을 단축해야 하는 경우 이를 수행할 수 있습니다.

지정된 양만큼 유예 기간 연장

그룹, 사용자, 관리 세트가 쿼터에 지정된 소프트 한계를 초과한 경우, 일시적이지만 현재 유예 기간이 허용하는 것보다 오랫동안 소프트 한계 이상을 유지하려면 다음과 같이 연장 권한을 부여할 수 있습니다.

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  2. 연장이 필요한 쿼터를 확인합니다. samquota -quota-type ID [directory-or-file] 명령을 사용합니다. 설명:

    • quota-type IDG 더하기 그룹 이름 또는 ID 번호, A 더하기 관리 세트 ID 번호, U 더하기 사용자 이름 또는 ID 번호입니다.

    • directory-or-file(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.

    예제에서는 dev 그룹이 소프트 한계를 크게 초과하며 남은 유예 기간은 2시간 뿐입니다.

    [server1]root@solaris:~# samquota -G dev /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use       Soft      Hard       In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  101       323      15000      30000         323    15000  30000
    Blocks group  101 3109330961 2013265920 3019898880 3109330961 2013265920 3019898880
    Grace period                 4320                             4320
    ---> Warning:  soft limits to be enforced in 2h21m16s
    [server1]root@solaris:~# 
    
  3. 보증된 경우 유예 기간을 연장합니다. samquota -quota-type ID -x number-seconds [directory-or-file] 명령을 사용합니다. 설명:

    • quota-type IDG 더하기 그룹 이름 또는 ID 번호, A 더하기 관리 세트 ID 번호, U 더하기 사용자 이름 또는 ID 번호입니다.

    • directory-or-file(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.

    • number-seconds는 연장 초 수를 나타내는 정수입니다(대체 시간 지정 방법은 samquota 매뉴얼 페이지 참조).

    계속하려면 프롬프트가 표시될 때 y(예)를 입력합니다.

    예제에서는 hsmfs1 파일 시스템의 파일에 대해 dev 그룹의 유예 기간을 2678400초(31일)로 연장합니다.

    [server1]root@solaris:~# samquota -G dev -x 2678400 /hsm/hsmfs1 
    Setting Grace Timer:  continue? y
    

    dev 그룹 쿼터를 다시 검사하면 유예 기간이 연장되었습니다.

    [server1]root@solaris:~# samquota -G dev /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type    ID    In Use       Soft      Hard   In Use       Soft   Hard
    /hsm/hsmfs1
    Files  group   101       323      15000      30000     323      15000   30000
    Blocks group   101     43208 2013265920 3019898880   43208 2013265920 3019898880
    Grace period                 2678400                      2678400
    ---> Warning:  soft limits to be enforced in 31d
    [server1]root@solaris:~# 
    
  4. 그룹, 관리 세트, 사용자에 정기적으로 연장이 필요한 경우 스토리지 요구 사항을 다시 평가하고 유예 기간을 영구적으로 늘리는 것을 고려하십시오. 그룹, 프로젝트, 디렉토리 및 사용자에 대한 쿼터 설정 절차를 사용하십시오.

  5. 여기서 중지합니다.

유예 기간 다시 시작

그룹, 사용자, 관리 세트가 쿼터에 지정된 소프트 한계를 초과한 경우, 현재 유예 기간이 만료되기 전에 소프트 한계 아래로 떨어뜨릴 공간을 재빨리 확보할 수 없으면 유예 기간을 다시 시작할 수 있습니다. 다음과 같이 하십시오.

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  2. 연장이 필요한 쿼터를 확인합니다. samquota -quota-type ID [directory-or-file] 명령을 사용합니다. 설명:

    • quota-type IDG 더하기 그룹 이름 또는 ID 번호, A 더하기 관리 세트 ID 번호, U 더하기 사용자 이름 또는 ID 번호입니다.

    • directory-or-file(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.

    예제에서는 cit 그룹이 hsmfs1 파일 시스템에 대한 소프트 한계를 초과하며 남은 유예 기간은 1시간 조금 넘습니다.

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  119       762         750       1500        762      750  1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                 4320                              4320
    ---> Warning:  soft limits to be enforced in 1h11m23s
    [server1]root@solaris:~# 
    
  3. 다음에 파일이나 블록을 할당할 때 유예 기간을 전체 시작 크기로 재설정하려면 유예 기간 타이머를 지웁니다. samquota -quota-type ID -x clear [directory-or-file] 명령을 사용합니다. 설명:

    • quota-type IDG 더하기 그룹 이름 또는 ID 번호, A 더하기 관리 세트 ID 번호, U 더하기 사용자 이름 또는 ID 번호입니다.

    • directory-or-file(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.

    계속하려면 프롬프트가 표시될 때 y(예)를 입력합니다.

    예제에서는 hsmfs1 파일 시스템에서 cit 그룹의 쿼터에 대한 유예 기간 타이머를 지웁니다.

    [server1]root@solaris:~# samquota -G cit -x clear /hsm/hsmfs1
    Setting Grace Timer:  continue? y
    [server1]root@solaris:~# 
    

    cit 그룹 쿼터를 다시 검사하면 파일이 할당되었고 유예 기간이 12h, 즉 12시간(4320초)으로 재설정되었습니다.

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  119       763         750       1500        763      750  1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                 4320                              4320
    ---> Warning:  soft limits to be enforced in 12h
    [server1]root@solaris:~# 
    
  4. 다른 방법으로, 즉각적으로 유예 기간을 전체 시작 크기로 재설정하려면 유예 기간 타이머를 재설정합니다. samquota -quota-type ID -x reset [directory-or-file] 명령을 사용합니다.

    • quota-type IDG 더하기 그룹 이름 또는 ID 번호, A 더하기 관리 세트 ID 번호, U 더하기 사용자 이름 또는 ID 번호입니다.

    • directory-or-file(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.

    계속하려면 프롬프트가 표시될 때 y(예)를 입력합니다.

    예제에서는 hsmfs1 파일 시스템에서 cit 그룹의 쿼터에 대한 유예 기간 타이머를 지웁니다.

    [server1]root@solaris:~# samquota -G cit -x reset /hsm/hsmfs1
    Setting Grace Timer:  continue? y
    [server1]root@solaris:~# 
    

    cit 그룹 쿼터를 다시 검사하면 유예 기간이 12h, 즉 12시간(4320초)으로 재설정되었습니다.

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  119       762         750       1500        762      750  1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                 4320                              4320
    ---> Warning:  soft limits to be enforced in 12h
    [server1]root@solaris:~# 
    
  5. 여기서 중지합니다.

유예 기간 조기 종료
  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  2. 단축할 유예 기간을 확인합니다. samquota -quota-type ID [directory-or-file] 명령을 사용합니다. 설명:

    • quota-type IDG 더하기 그룹 이름 또는 ID 번호, A 더하기 관리 세트 ID 번호, U 더하기 사용자 이름 또는 ID 번호입니다.

    • directory-or-file(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.

    예제에서는 cit 그룹이 소프트 한계를 초과하며 유예 기간이 11시간 남았지만, 유예 기간을 조기에 종료하려고 합니다.

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use       Soft       Hard
    /hsm/hsmfs1
    Files  group  119       822         750       1500        822        750       1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                 4320                              4320
    ---> Warning:  soft limits to be enforced in 11h
    [server1]root@solaris:~# 
    
  3. 유예 기간을 만료합니다. samquota -quota-type ID -x expire [directory-or-file] 명령을 사용합니다. 설명:

    • quota-type IDG 더하기 그룹 이름 또는 ID 번호, A 더하기 관리 세트 ID 번호, U 더하기 사용자 이름 또는 ID 번호입니다.

    • directory-or-file(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.

    예제에서는 cit 그룹에 대한 유예 기간을 만료합니다.

    root@solaris:~# samquota -G cit -x expire /hsm/hsmfs1
    Setting Grace Timer:  continue? y
    

    쿼터를 다시 검사하면 cit 그룹의 소프트 한계가 하드 한계로 강제 적용되고 있습니다.

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  119       762         750       1500        762      750  1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                 4320                              4320
    ---> Online soft limits under enforcement (since 6s ago)
    [server1]root@solaris:~# 
    
  4. 여기서 중지합니다.

새 리소스 할당 중지

불일치 쿼터 값을 만들어 파일 시스템 리소스 할당을 금지할 수 있습니다. 파일 시스템이 사용자, 그룹, 관리 세트에 대한 쿼터 값 불일치를 감지하면 해당 사용자, 그룹, 관리 세트에서 더 이상 시스템 리소스를 사용하지 못하게 됩니다. 따라서 쿼터의 하드 한계를 해당하는 소프트 한계보다 낮게 설정하면 추가 할당이 중지됩니다. 이 기법을 사용하려면 다음과 같이 하십시오.

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  2. 나중에 복원할 수 있도록 쿼터를 백업합니다. 현재 구성을 내보내고 해당 정보를 파일로 재지정합니다. samquota -quota-type ID [directory-or-file] > file 명령을 사용합니다. 설명:

    • quota-type IDG 더하기 그룹 이름 또는 ID 번호, A 더하기 관리 세트 ID 번호, U 더하기 사용자 이름 또는 ID 번호입니다.

    • directory-or-file(선택사항)은 유예 기간을 연장해야 하는 특정 파일 시스템의 마운트 지점 디렉토리이거나 특정 디렉토리 또는 파일입니다.

    • file은 출력 파일의 이름입니다.

    예제에서는 cit 그룹의 쿼터를 root 사용자의 홈 디렉토리에 있는 restore.hsmfs1.quota_g.cit 파일로 내보냅니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.

    [server1]root@solaris:~# samquota -G cit -e /hsm/hsmfs1 > \
    /root/restore.hsmfs1.quota_g.cit
    [server1]root@solaris:~# 
    
  3. 출력을 확인합니다. Solaris 명령 more < file을 사용합니다. 여기서 file은 출력 파일의 이름입니다.

    [server1]root@solaris:~# more < /root/restore.hsmfs1.quota_g.cit
    # Type  ID
    #                  Online Limits                          Total   Limits
    #              soft            hard                    soft       hard
    # Files
    # Blocks
    # Grace Periods
    samquota -G 119 \
        -f       750:s:o  -f      1500:h:o        -f       750:s:t -f      1500:h:t \
        -b 157286400:s:o  -b 235929600:h:o        -b 157286400:s:t -b 235929600:h:t \
                -t 4320:o                               -t 4320:t 
    [server1]root@solaris:~# 
    
  4. 쿼터의 하드 한계를 0(제로)으로 설정하고 소프트 한계를 1(또는 0이 아닌 아무 값)로 설정합니다. samquota -quota-type ID -f 1:s -f 0:h -b 1:s -b 0:h [directory-or-file] 명령을 사용합니다.

    • quota-type IDG 더하기 그룹 이름 또는 ID 번호, A 더하기 관리 세트 ID 번호, U 더하기 사용자 이름 또는 ID 번호입니다.

    • directory-or-file(선택사항)은 특정 파일 시스템의 마운트 지점 디렉토리이거나 유예 기간을 연장할 특정 디렉토리나 파일입니다.

    예제에서는 /hsm/hsmfs1 파일 시스템의 cit 그룹에 대한 쿼터 설정을 불일치로 만듭니다. 그러면 새 리소스 할당이 중지됩니다.

    [server1]root@solaris:~# samquota -G cit -f 1:s -f 0:h -b 1:s -b 0:h /hsm/hsmfs1
    [server1]root@solaris:~# 
    

    cit 그룹에 대한 쿼터를 검사하면 제로 쿼터가 발효됩니다. 느낌표 문자(!)는 모든 현재 사용량이 쿼터를 초과해서 더 이상 할당되지 않음을 보여줍니다.

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
    Online Limits                Total Limits
    Type   ID              In Use    Soft     Hard         In Use     Soft     Hard
    /sam6
    Files  group 119        822!       1        0         822!       1        0
    Blocks group 119 3109330961!       1        0  3109330961!       1        0
    Grace period                      4320                            4320
    ---> Quota values inconsistent; zero quotas in effect.
    [server1]root@solaris:~# 
    
  5. 수정된 쿼터를 원래 상태로 복원하여 정상적 할당을 재개할 준비가 되었으면 셸 스크립트로 만든 백업 파일을 실행합니다. Solaris 명령 sh file을 사용합니다. 여기서 file은 백업 파일의 이름입니다.

    예제에서는 /root/restore.hsmfs1.quota_g.cit 파일을 실행하여 cit 그룹에 대한 쿼터를 복원합니다.

    [server1]root@solaris:~# sh /root/restore.hsmfs1.quota_g.cit
    Setting Grace Timer:  continue? y
    Setting Grace Timer:  continue? y
    [server1]root@solaris:~# 
    

    쿼터를 검사하면 정상적 한계가 복원되었고 더 이상 할당이 차단되지 않습니다.

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  119       822         750       1500        822     750   1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                       4320                             4320
    ---> Warning:  soft limits to be enforced in 11h
    [server1]root@solaris:~# 
    
  6. 여기서 중지합니다.

파일 시스템에 대한 쿼터 제거

파일 시스템에 대한 쿼터를 제거하거나 사용 안함으로 설정하려면 마운트 프로세스에서 쿼터를 사용 안함으로 설정합니다.

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  2. 텍스트 편집기에서 /etc/vfstab 파일을 열고 파일 시스템 행의 Mount Options 열에 noquota 마운트 옵션을 추가하고 파일을 저장합니다.

    예제에서는 vi 텍스트 편집기에서 파일을 열고 hsmfs1 파일 시스템에 대해 noquota 마운트 옵션을 설정합니다.

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    hsmfs1        -        /hsm/hsmfs1          samfs   -     no       noquota
    :wq
    [server1]root@solaris:~# 
    
  3. 파일 시스템이 마운트된 경우 마운트 해제합니다.

    파일 시스템을 마운트 해제한 후 다시 마운트해야 합니다. 그래야 운영체제가 /etc/vfstab 파일을 다시 로드하고 지정된 변경을 수행합니다. 예제에서는 hsmfs1 파일 시스템을 마운트 해제합니다.

    [server1]root@solaris:~# umount hsmfs1
    [server1]root@solaris:~# 
    
  4. 파일 시스템을 마운트합니다.

    예제에서는 hsmfs1 파일 시스템을 마운트합니다.

    [server1]root@solaris:~# mount hsmfs1
    [server1]root@solaris:~# 
    
  5. 나중에 쿼터를 복구하려면 쿼터 파일을 제자리에 둡니다.

    쿼터를 복구할 준비가 되었으면 간단히 파일 시스템을 마운트 해제하고, 파일 시스템에서 samfsck -F 명령을 실행하고, noquota 마운트 옵션을 제거하고, 파일 시스템을 다시 마운트할 수 있습니다.

  6. 쿼터를 복구하지 않으려는 경우나 쿼터 파일에서 소비한 공간을 회수해야 하는 경우 Solaris 명령 rm을 사용하여 파일 시스템의 루트 디렉토리에서 .quota_g, .quota_a, .quota_u 파일을 삭제합니다.

    예제에서는 /hsm/hsmfs1 파일 시스템 루트 디렉토리에서 모든 쿼터 파일을 제거합니다.

    [server1]root@solaris:~# rm /hsm/hsmfs1/.quota_g
    [server1]root@solaris:~# rm /hsm/hsmfs1/.quota_a
    [server1]root@solaris:~# rm /hsm/hsmfs1/.quota_u
    [server1]root@solaris:~# 
    
  7. 여기서 중지합니다.

아카이빙 및 스테이징 작업 제어

일반적으로 아카이빙 파일 시스템은 비아카이빙 파일 시스템과 마찬가지 방법으로 관리합니다. 그러나 대부분의 파일 시스템 관리 작업을 수행하기 전에 아카이빙 프로세스를 중지해야 합니다. 활성일 때 아카이빙 프로세스는 파일 시스템의 주요 디스크 캐시를 변경합니다. 따라서 디스크 캐시에 유지 관리 작업을 수행하기 전에 이러한 프로세스를 중지해야 합니다. 이 절에서는 다음 작업을 다룹니다.

아카이빙 및 스테이징 프로세스 유휴 설정

  1. 파일 시스템 호스트에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  2. 모든 아카이빙 프로세스를 유휴 설정합니다. samcmd aridle 명령을 사용합니다.

    이 명령은 현재 아카이빙 및 스테이징 작업이 완료되도록 허용하지만, 새로운 작업을 시작하지는 않습니다.

    [server1]root@solaris:~# samcmd aridle
    [server1]root@solaris:~# 
    
  3. 모든 스테이징 프로세스를 유휴 설정합니다. samcmd stidle 명령을 사용합니다.

    이 명령은 현재 아카이빙 및 스테이징 작업이 완료되도록 허용하지만, 새로운 작업을 시작하지는 않습니다.

    [server1]root@solaris:~# samcmd stidle
    [server1]root@solaris:~# 
    
  4. 활성 아카이빙 작업이 완료될 때까지 기다립니다. samcmd a 명령을 사용하여 아카이빙 프로세스의 상태를 확인합니다.

    아카이빙 프로세스가 Waiting for :arrun이면 아카이빙 프로세스가 유휴 상태입니다.

    [server1]root@solaris:~# samcmd a
    Archiver status samcmd     5.4 10:20:34 May 20 2014
    samcmd on samfs-mds
    sam-archiverd:  Waiting for :arrun
    sam-arfind: ...
    Waiting for :arrun
    
  5. 활성 스테이징 작업이 완료될 때까지 기다립니다. samcmd u 명령을 사용하여 스테이징 프로세스의 상태를 확인합니다.

    스테이징 프로세스가 Waiting for :strun이면 스테이징 프로세스가 유휴 상태임을 나타냅니다.

    [server1]root@solaris:~# samcmd u
    Staging queue samcmd      5.4  10:20:34 May 20 2014
    samcmd on solaris.demo.lan
    Staging queue by media type: all
    sam-stagerd:  Waiting for :strun
    root@solaris:~# 
    
  6. 시스템을 완전히 중지하려면 아카이빙 및 스테이징 프로세스 중지도 수행합니다.

아카이빙 및 스테이징 프로세스 중지

  1. 아직 완료하지 않았으면 아카이빙 및 스테이징 프로세스 유휴 설정을 수행합니다.

  2. 아직 하지 않았으면 파일 시스템 호스트에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  3. 더 진행하기 전에 모든 이동식 매체 드라이브를 유휴 설정합니다. 각 드라이브에 대해 samcmd equipment-number idle 명령을 사용합니다. 여기서 equipment-number/etc/opt/SUNWsamfs/mcf 파일에서 드라이브에 지정된 장비 순서 번호입니다.

    이 명령은 드라이브를 off로 설정하기 전에 현재 아카이빙 및 스테이징 작업이 완료되도록 허용하지만, 새로운 작업을 시작하지는 않습니다. 예제에서는 순서 번호 801, 802, 803, 804를 가진 4개 드라이브를 유휴 설정합니다.

    [server1]root@solaris:~# samcmd 801 idle
    [server1]root@solaris:~# samcmd 802 idle
    [server1]root@solaris:~# samcmd 803 idle
    [server1]root@solaris:~# samcmd 804 idle
    [server1]root@solaris:~# 
    
  4. 실행 중인 작업이 완료될 때까지 기다립니다.

    samcmd r 명령을 사용하여 드라이브의 상태를 확인할 수 있습니다. 모든 드라이브가 notrdyempty이면 진행할 준비가 된 것입니다.

    [server1]root@solaris:~# samcmd r
    Removable media samcmd     5.4 18:37:09 Feb 17 2014
    samcmd on hsmfs1host
    ty   eq   status      act  use  state  vsn
    li  801   ---------p    0   0%  notrdy
              empty
    li  802   ---------p    0   0%  notrdy
              empty
    li  803   ---------p    0   0%  notrdy
              empty
    li  804   ---------p    0   0%  notrdy
              empty
    [server1]root@solaris:~# 
    
  5. 아카이버 및 스테이저 프로세스가 유휴 상태이고 테이프 드라이버가 모두 notrdy이면 라이브러리 제어 데몬을 중지합니다. samd stop 명령을 사용합니다.

    [server1]root@solaris:~# samd stop
    [server1]root@solaris:~# 
    
  6. 파일 시스템 유지 관리를 계속 수행합니다.

  7. 유지 관리가 완료되면 아카이빙 및 스테이징 프로세스 다시 시작을 수행합니다.

    작업을 다시 시작하면 보류 중인 스테이지가 재실행되고 아카이빙이 재개됩니다.

  8. 여기서 중지합니다.

아카이빙 및 스테이징 프로세스 다시 시작

준비가 되었으면 정상적 자동 작업을 재개하고 다음과 같이 하십시오.

  1. 파일 시스템 호스트에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  2. Oracle HSM 라이브러리 제어 데몬을 다시 시작합니다. samd start 명령을 사용합니다.

    [server1]root@solaris:~# samd start
    [server1]root@solaris:~# 
    
  3. 여기서 중지합니다.

파일 시스템 이름 바꾸기

파일 시스템 이름 바꾸기는 2단계 프로세스입니다. 먼저 /etc/opt/SUNWsamfs/mcf 파일을 편집하여 파일 시스템의 패밀리 세트 이름을 변경합니다. 그런 다음 samfsck -R -F 명령으로 새 이름을 읽고 해당 디스크 장치의 수퍼 블록을 업데이트합니다. 파일 시스템 이름을 바꾸려면 아래 절차를 사용하십시오.

파일 시스템 이름 바꾸기

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  2. 아카이빙 파일 시스템을 복구하려면 더 진행하기 전에 아카이빙 및 스테이징 프로세스 유휴 설정 절차를 수행합니다.

  3. 이름을 바꾸려는 파일 시스템을 마운트 해제합니다.

    예제에서는 hsmfs1 파일 시스템을 마운트 해제합니다.

    [server1]root@solaris:~# umount hsmfs1
    
  4. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 이름을 바꾸려는 파일 시스템을 찾습니다.

    예제에서는 vi 편집기를 사용합니다. hsmfs1 파일 시스템의 이름을 변경해야 합니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family        Device   Additional
    # Identifier         Ordinal    Type       Set           State    Parameters
    #-----------------   ---------  ---------  ------------  ------   ----------
    hsmfs1              100        ms         hsmfs1       on
     /dev/dsk/c1t3d0s3    101        md         hsmfs1       on
     /dev/dsk/c1t4d0s5    102        md         hsmfs1       on
    
  5. 파일의 네번째 열에서 파일 시스템의 패밀리 세트 이름을 새 값으로 변경합니다. 첫번째 열에서 파일 시스템 장비 식별자를 변경해야 할 수 있지만 그 외 항목은 변경하지 마십시오. 파일을 저장하고 편집기를 닫습니다.

    예제에서는 파일 시스템의 장비 식별자 및 패밀리 세트 이름을 모두 hsmfs1에서 samqfs-hpcc로 변경합니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family        Device   Additional
    # Identifier         Ordinal    Type       Set           State    Parameters
    #-----------------   ---------  ---------  ------------  ------   ----------
    samqfs-hpcc          100        ms         samqfs-hpcc   on
     /dev/dsk/c1t3d0s3    101        md         samqfs-hpcc   on
     /dev/dsk/c1t4d0s5    102        md         samqfs-hpcc   on
    :wq
    root@solaris:~# 
    
  6. 새 패밀리 세트 이름이 반영되도록 파일 시스템 수퍼 블록을 재작성합니다. samfsck -R -F family-set-name 명령을 사용합니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에 지정한 패밀리 세트 이름입니다.

    -R-F 옵션과 함께 실행할 때 samfsck 명령은 /etc/opt/SUNWsamfs/mcf 파일에서 새 패밀리 세트 이름과 해당하는 디스크 스토리지 장비 식별자를 읽습니다. 그런 다음 지정된 디스크 장치의 수퍼 블록을 새 패밀리 세트 이름으로 재작성합니다. 예제에서는 새 패밀리 세트 이름 samqfs-hpcc로 명령을 실행합니다.

    [server1]root@solaris:~# samfsck -R -F samqfs-hpcc
    
  7. 텍스트 편집기에서 /etc/vfstab 파일을 열고 이름을 바꾸려는 파일 시스템 항목을 찾습니다.

    예제에서는 vi 텍스트 편집기에서 파일을 엽니다. hsmfs1 파일 시스템 항목이 새 이름을 사용하도록 변경해야 합니다.

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    hsmfs1        -        /hsm/hsmfs1          samfs   -     no       -
    
  8. 이름을 바꾼 파일 시스템에 대한 /etc/vfstab 항목의 첫번째 열에서 파일 시스템 이름을 변경하고 세번째 열(필요한 경우)에서 마운트 지점 디렉토리 이름을 변경하고, 파일을 저장합니다.

    예제에서는 hsmfs1 파일 시스템의 이름을 samqfs-hpcc로 변경하고 마운트 지점이 일치하도록 변경합니다.

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    samqfs-hpcc    -        /samqfs-hpcc      samfs   -     no       -
    :wq
    [server1]root@solaris:~# 
    
  9. 필요한 경우 새 파일 시스템에 대한 새 마운트 지점 디렉토리를 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.

    사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x) 권한이 있어야 합니다. 예제에서는 /samqfs-hpcc 마운트 지점 디렉토리를 만들고 권한을 755(-rwxr-xr-x)로 설정합니다.

    [server1]root@solaris:~# mkdir /samqfs-hpcc
    [server1]root@solaris:~# chmod 755 /samqfs-hpcc
    [server1]root@solaris:~# 
    
  10. sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 감지되면 수정합니다.

    sam-fsd는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 오류가 발견되면 실행을 중지합니다.

    [server1]root@solaris:~# sam-fsd
    
  11. Oracle HSM 소프트웨어에 mcf 파일을 다시 읽고 그에 따라 재구성하도록 지시합니다. samd config 명령을 사용합니다.

    [server1]root@solaris:~# samd config
    
  12. samd config에서 오류가 보고되면 이를 수정하고 오류가 발견되지 않을 때까지 명령을 재실행합니다.

  13. 파일 시스템을 마운트합니다.

    예제에서는 새 마운트 지점 디렉토리를 사용합니다.

    [server1]root@solaris:~# mount /samqfs-hpcc
    
  14. 여기서 중지합니다.

파일 시스템 복구

파일 시스템이 samu, Oracle HSM Manager 또는 /var/adm/sam-log 파일을 통해 오류를 보고하면 아래 절차를 따르십시오.

파일 시스템 복구

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  2. 아카이빙 파일 시스템을 복구하려면 더 진행하기 전에 아카이빙 및 스테이징 프로세스 유휴 설정 절차를 수행합니다.

  3. 영향을 받는 파일 시스템을 마운트 해제합니다.

    아카이빙이 중지되기를 기다리는 경우 여러 번 시도해야 할 수도 있습니다. 예제에서는 hsmfs1 파일 시스템을 마운트 해제합니다.

    [server1]root@solaris:~# umount hsmfs1
    samfs umount: /hsm/hsmfs1: is busy
    [server1]root@solaris:~# umount hsmfs1
    [server1]root@solaris:~# 
    
  4. 파일 시스템을 복구합니다. samfsck -F -V family-set-name 명령을 사용합니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일의 파일 시스템에 지정된 패밀리 세트 이름입니다.

    필요에 따라 나중에 참조하고 진단 목적으로 사용할 수 있도록 복구 결과를 날짜 기록 파일에 저장하는 것이 좋을 수 있습니다. 따라서 이 예제에서는 tee /var/tmp/samfsck-FV.family-set-name.`date '+%Y%m%d.%H%M%S'` 명령에 samfsck 출력을 파이핑하여 결과를 저장합니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.

    [server1]root@solaris:~# samfsck -F -V hsmfs1 | tee \
    /var/tmp/samfsck-FV.hsmfs1. `date '+%Y%m%d.%H%M%S'`
    name:     /hsm/hsmfs1       version:     2A          
    First pass
    Second pass
    Third pass
    NOTICE: ino 2.2,  Repaired link count from 8 to 14
    Inodes processed: 123392
    total data kilobytes       = 1965952
    total data kilobytes free  = 1047680
    total meta kilobytes       = 131040
    total meta kilobytes free  = 65568
    INFO:  FS samma1 repaired:
            start:  May 19, 2014 10:57:13 AM MDT
            finish: May 19, 2014 10:57:37 AM MDT
    NOTICE: Reclaimed 70057984 bytes
    NOTICE: Reclaimed 9519104 meta bytes
    [server1]root@solaris:~# 
    
  5. 파일 시스템을 다시 마운트합니다.

    [server1]root@solaris:~# mount /hsm/hsmfs1
    [server1]root@solaris:~# 
    
  6. 여기서 중지합니다.

파일 시스템에 장치 추가

기존 파일 시스템에 장치를 추가하기 전에 요구 사항과 대안을 고려해야 합니다. 기존 파일 시스템을 확대하는 것이 증가하는 용량 요구 사항을 충족하는 최선의 방법인지 확인합니다. 새 프로젝트나 사용자 커뮤니티를 수용할 물리적 스토리지 공간이 더 필요한 경우 하나 이상의 새로운 Oracle HSM 파일 시스템을 만드는 것이 더 좋은 선택일 수도 있습니다. 여러 개의 소형 파일 시스템이 일반적으로 하나의 대형 파일 시스템보다 훨씬 좋은 성능을 제공하며, 소형 파일 시스템을 만들고 유지 관리하기가 더 쉽습니다.

일단 파일 시스템을 확대하기로 결정했으면 다음 접근 방법 중 하나를 선택합니다.

마운트된 파일 시스템에 장치 추가

다음과 같이 하십시오.

  1. 파일 시스템 서버에 root로 로그인합니다.

    예제에서는 server1 호스트에 로그인합니다.

    [server1]root@solaris:~# 
    
  2. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 확대하려는 파일 시스템을 찾습니다.

    예제에서는 vi 편집기를 사용합니다. 두 개의 파일 시스템인 범용 samqfsms 파일 시스템과 고성능 samqfs2ma 파일 시스템을 확장해야 합니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #-----------------  ---------  ---------  ---------  ------   ---------------
    samqfsms            100        ms         samqfsms   on
     /dev/dsk/c1t3d0s3   101        md         samqfsms   on
     /dev/dsk/c1t4d0s5   102        md         samqfsms   on
    samqfs2ma           200        ma         samqfs2ma  on
     /dev/dsk/c1t3d0s3   201        mm         samqfs2ma  on
     /dev/dsk/c1t3d0s5   202        md         samqfs2ma  on
     /dev/dsk/c1t4d0s5   203        md         samqfs2ma  on
    
  3. 범용 ms 파일 시스템에 장치를 추가하는 경우 mcf 파일에서 파일 시스템 정의 끝에 추가 데이터/메타데이터 장치를 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    최대 252개의 논리 장치를 추가할 수 있습니다. 예제에서는 samqfsms 파일 시스템에 두 개의 장치 103104를 추가합니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #-----------------  ---------  ---------  ---------  ------   ---------------
    samqfsms            100        ms         samqfsms    on
     /dev/dsk/c1t3d0s3   101        md         samqfsms    on
     /dev/dsk/c1t4d0s5   102        md         samqfsms    on
     /dev/dsk/c1t3d0s7   103        md         samqfsms    on
     /dev/dsk/c1t4d0s7   104        md         samqfsms    on
    :wq
    [server1]root@solaris:~# 
    
  4. 고성능 ma 파일 시스템에 장치를 추가하는 경우 mcf 파일에서 파일 시스템 정의 끝에 데이터 장치와 하나 이상의 mm 디스크 장치를 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    항상 기존 장치 목록의 끝에 새 장치를 추가하십시오. 데이터 장치를 추가하는 것에 비례해서 최대 252개의 메타데이터 장치를 추가할 수 있습니다. 예제에서는 samqfs2ma 파일 시스템에 하나의 mm 메타데이터 장치 204와 두 개의 md 데이터 장치 205206을 추가합니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #-----------------  ---------  ---------  ---------  ------   ---------------
    ...
    samqfs2ma           200        ma         samqfs2ma  on
     /dev/dsk/c1t3d0s3   201        mm         samqfs2ma  on
     /dev/dsk/c1t3d0s5   202        md         samqfs2ma  on
     /dev/dsk/c1t4d0s5   203        md         samqfs2ma  on
     /dev/dsk/c1t5d0s6   204        mm         samqfs2ma  on
     /dev/dsk/c1t3d0s7   205        md         samqfs2ma  on
     /dev/dsk/c1t4d0s7   206        md         samqfs2ma  on
    :wq
    [server1]root@solaris:~# 
    
  5. sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 감지되면 수정합니다.

    sam-fsd는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 오류가 발견되면 실행을 중지합니다.

    [server1]root@solaris:~# sam-fsd
    
  6. sam-fsd 명령이 mcf 파일에서 오류를 찾을 경우 파일을 편집하여 오류를 해결하고 이전 단계에 설명된 대로 다시 검사합니다.

    아래의 예에서는 sam-fsd가 장치에서 지정되지 않은 문제를 보고합니다.

    [server1]root@solaris:~# sam-fsd
    Problem in mcf file /etc/opt/SUNWsamfs/mcf for filesystem samqfsms
    sam-fsd: Problem with file system devices.
    

    대개 이러한 오류는 부주의한 타이핑 실수의 결과입니다. 여기서 mcf 파일을 편집기에서 열면 두번째 신규 md 장치인 104 장치의 장비 이름에 0 대신 문자 o를 입력했음을 알 수 있습니다.

    samqfsms                     100        ms         samqfsms    on
     /dev/dsk/c1t3d0s3           101        md         samqfsms    on
     /dev/dsk/c1t4d0s5           102        md         samqfsms    on
     /dev/dsk/c1t3d0s7           103        md         samqfsms    on
     /dev/dsk/c1t4dos7           104        md         samqfsms    on
                   ˆ
    
  7. sam-fsd 명령이 오류 없이 실행되면 mcf 파일이 올바른 것입니다. 다음 단계로 진행하십시오.

    이 예는 오류가 없는 출력의 일부입니다.

    [server1]root@solaris:~# sam-fsd
    Trace file controls:
    sam-amld      /var/opt/SUNWsamfs/trace/sam-amld
                  cust err fatal ipc misc proc date
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [server1]root@solaris:~# 
    
  8. Oracle HSM 소프트웨어에 mcf 파일을 다시 읽고 그에 따라 재구성하도록 지시합니다. samd config 명령을 사용합니다.

    [server1]root@solaris:~# samd config
    Configuring SAM-FS
    [server1]root@solaris:~# 
    
  9. samd config로 Oracle HSM 파일 시스템 구성이 새 장치를 포함하도록 업데이트되었는지 확인합니다. samcmd f 명령을 사용합니다.

    장치는 off 상태여야 합니다. 예제에서 samcmd f는 새 장치 103104를 보여주며 둘 다 off 상태입니다.

    [server1]root@solaris:~# samcmd f
    File systems samcmd     5.4 16:57:35 Feb 27 2014
    samcmd on server1
    ty      eq   state device_name       status      high low mountpoint server
    ms     100   on    samqfsms          m----2-----  80% 70% /samqfsms          
     md     101   on   /dev/dsk/c1t3d0s3 
     md     102   on   /dev/dsk/c1t4d0s5 
     md     103   off  /dev/dsk/c1t3d0s7 
     md     104   off  /dev/dsk/c1t4d0s7 
    [server1]root@solaris:~# 
    
  10. 새로 추가된 장치를 사용으로 설정합니다. 각 장치에 대해 samcmd add equipment-number 명령을 사용합니다. 여기서 equipment-number/etc/opt/SUNWsamfs/mcf 파일에서 장치에 지정된 장비 순서 번호입니다.

    예제에서는 새 장치 103104를 사용으로 설정합니다.

    [server1]root@solaris:~# samcmd add 103
    [server1]root@solaris:~# samcmd add 104
    
  11. 공유 파일 시스템에 장치를 추가하는 경우 공유 파일 시스템에 추가된 새 장치 구성 마치기로 이동합니다.

  12. 비공유 독립형 파일 시스템에 장치를 추가하는 경우 장치가 추가되었고 파일 시스템에서 사용할 준비가 되었는지 확인합니다. samcmd m 명령을 사용하고 결과를 확인합니다.

    장치가 on 상태일 때 성공적으로 추가되었고 사용할 준비가 되었습니다. 예제에서는 103104 장치를 성공적으로 추가했습니다.

    [server1]root@solaris:~# samcmd f
    Mass storage status samcmd     5.4 17:17:08 Feb 27 2014
    samcmd on server1
    ty   eq  status       use state  ord  capacity      free  ra  part high low
    ms   100  m----2----- 13% on            3.840G    3.588G  1M    16  80% 70%
     md   101             31% on       0  959.938M  834.250M 
     md   102             13% on       1  959.938M  834.250M
     md   103              0% on       2  959.938M  959.938M
     md   104              0% on       3  959.938M  959.938M
    [server1]root@solaris:~# 
    
  13. 여기서 중지합니다.

공유 파일 시스템에 추가된 새 장치 구성 마치기

공유 파일 시스템에 장치를 추가할 때 모든 파일 시스템 호스트에 장치가 구성되기 전에 몇 가지 추가 단계를 수행해야 합니다. 다음과 같이 하십시오.

  1. 파일 시스템 메타데이터 서버 호스트에 root로 로그인합니다.

    예제에서 메타데이터 서버 호스트는 이름이 metadata-server로 지정됩니다.

    [metadata-server]root@solaris:~# 
    
  2. 새 장치가 메타데이터 서버에 추가되었는지 확인합니다. samcmd m 명령을 사용합니다.

    장치가 unavail 상태일 때 성공적으로 추가되었지만 아직 사용할 준비가 되지 않았습니다. 예제에서는 103104 장치를 성공적으로 추가했습니다.

    [metadata-server]root@solaris:~# samcmd f
    Mass storage status samcmd     5.4 17:17:08 Feb 27 2014
    samcmd on metadata-server
    ty      eq  status       use state  ord   capacity     free    ra  part high low
    ms     100  m----2-----  13% on            3.840G    3.588G    1M    16  80% 70%
     md     101              31% on       0  959.938M  834.250M 
     md     102              13% on       1  959.938M  834.250M
     md     103               0% unavail  2  959.938M  959.938M
     md     104               0% unavail  3  959.938M  959.938M
    [metadata-server]root@solaris:~# 
    
  3. 각 파일 시스템 클라이언트 호스트에 root로 로그인합니다.

    잠재적 메타데이터 서버를 넣는 것을 잊지 마십시오. 이들도 클라이언트입니다. 예제에서는 이름이 potential-metadata-server인 잠재적인 메타데이터 서버와 두 개의 클라이언트 client1client2Linux에 로그인해야 합니다. 따라서 3개의 터미널 창을 열고 보안 셸(ssh)을 사용합니다.

    [metadata-server]root@solaris:~# ssh root@potential-metadata-server
    Password:
    [potential-metadata-server]root@solaris:~# 
    [metadata-server]root@solaris:~# ssh root@client1
    Password:
    [client1]root@solaris:~# 
    [metadata-server]root@solaris:~# ssh root@client2Linux
    Password:
    [client2Linux]:[root@linux ~]# 
    
  4. Linux 클라이언트의 경우 공유 파일 시스템을 마운트 해제합니다.

    [client2Linux]:[root@linux ~]# umount /samqfsms
    
  5. 각 클라이언트마다 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고, 서버에 했던 것처럼 파일 시스템 정의 끝에 새 장치를 추가합니다.

    예제에서는 client1mcf 파일에 103104 장치를 추가합니다.

    [client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family     Device   Additional
    # Identifier         Ordinal    Type       Set        State    Parameters
    #-----------------   ---------  ---------  ---------  ------   ----------
    samqfsms             100        ms         samqfsms    on      shared
     /dev/dsk/c1t3d0s3    101        md         samqfsms    on
     /dev/dsk/c1t4d0s5    102        md         samqfsms    on
     /dev/dsk/c1t3d0s7    103        md         samqfsms    on
     /dev/dsk/c1t4d0s7    104        md         samqfsms    on
    :wq
    [metadata-server]root@solaris:~# 
    
  6. 각 클라이언트마다 sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 감지되면 수정합니다.

    [metadata-server]root@solaris:~# sam-fsd
    
  7. 각 클라이언트에서 Oracle HSM 소프트웨어에 mcf 파일을 다시 읽고 그에 따라 재구성하도록 지시합니다.

    [metadata-server]root@solaris:~# samd config
    
  8. Linux 클라이언트의 경우 공유 파일 시스템을 마운트합니다.

    [client2Linux]:[root@linux ~]# mount /samqfsms
    
  9. 모든 클라이언트가 구성되었으면 메타데이터 서버로 돌아가서 새 장치에 스토리지 할당을 사용으로 설정합니다. 각 장치에 대해 samcmd alloc equipment-number 명령을 사용합니다. 여기서 equipment-number/etc/opt/SUNWsamfs/mcf 파일에서 장치에 지정된 장비 순서 번호입니다.

    예제에서는 103104 장치에 스토리지 할당을 사용으로 설정합니다.

    [metadata-server]root@solaris:~# samcmd alloc 103
    [metadata-server]root@solaris:~# samcmd alloc 104
    
  10. 마지막으로, 파일 시스템에서 장치를 사용할 준비가 되었는지 확인합니다. samcmd m 명령을 사용하고 결과를 확인합니다.

    장치가 on 상태일 때 성공적으로 추가되었고 사용할 준비가 되었습니다. 예제에서는 103104 장치를 성공적으로 추가했습니다.

    [metadata-server]root@solaris:~# samcmd f
    Mass storage status samcmd     5.4 17:17:08 Feb 27 2014
    samcmd on metadata-server
    ty      eq  status       use state  ord   capacity     free    ra  part high low
    ms     100  m----2-----  13% on            3.840G    3.588G    1M    16  80% 70%
     md     101              31% on       0  959.938M  834.250M 
     md     102              13% on       1  959.938M  834.250M
     md     103               0% on       2  959.938M  959.938M
     md     104               0% on       3  959.938M  959.938M
    [metadata-server]root@solaris:~# 
    
  11. 여기서 중지합니다.

마운트 해제된 파일 시스템에 장치 추가

다음과 같이 하십시오.

  1. 파일 시스템 서버 호스트에 root로 로그인합니다.

    예제에서 메타데이터 서버 호스트는 이름이 server1로 지정됩니다.

    [server1]root@solaris:~# 
    
  2. 아카이빙 파일 시스템을 마운트 해제하기 전에 아카이빙 및 스테이징 프로세스 유휴 설정 절차를 수행해야 합니다.

  3. 파일 시스템을 마운트 해제합니다.

    파일 시스템을 마운트 해제할 때까지는 작업을 진행하지 마십시오. 예제에서는 hsmfs1 파일 시스템을 마운트 해제합니다.

    [server1]root@solaris:~# umount hsmfs1
    
  4. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 확대하려는 파일 시스템을 찾습니다.

    예제에서는 vi 편집기를 사용합니다. hsmfs1 파일 시스템을 확대해야 합니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------
    hsmfs1               100        ms         hsmfs1    on
     /dev/dsk/c1t3d0s3     101        md         hsmfs1    on
     /dev/dsk/c1t4d0s5     102        md         hsmfs1    on
    
  5. 고성능 ma 파일 시스템에 장치를 추가하는 경우 데이터 스토리지와 함께 메타데이터 스토리지를 추가해야 합니다. 추가할 데이터 장치의 메타데이터를 저장하기에 충분한 추가 mm 디스크 장치를 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    최대 252개의 논리 장치를 추가할 수 있습니다. 예제에서는 samqfs2ma 파일 시스템에 하나의 mm 메타데이터 장치를 추가하고 samqfs2ma 파일 시스템에 두 개의 데이터 장치를 추가합니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------
    samqfs2ma             200        ma         samqfs2ma  on
     /dev/dsk/c1t3d0s3     201        mm         samqfs2ma  on
     /dev/dsk/c1t5d0s6     204        mm         samqfs2ma  on
     /dev/dsk/c1t3d0s5     202        md         samqfs2ma  on
     /dev/dsk/c1t4d0s5     203        md         samqfs2ma  on
     /dev/dsk/c1t3d0s7     205        md         samqfs2ma  on
     /dev/dsk/c1t4dos7     206        md         samqfs2ma  on
    :wq
    [server1]root@solaris:~# 
    
  6. 범용 ms 파일 시스템에 장치를 추가하는 경우 mcf 파일에서 파일 시스템 정의에 데이터/메타데이터 장치를 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    최대 252개의 논리 장치를 추가할 수 있습니다. 예제에서는 hsmfs1 파일 시스템에 두 개의 장치를 추가합니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------
    hsmfs1               100        ms         hsmfs1    on
     /dev/dsk/c1t3d0s3     101        md         hsmfs1    on
     /dev/dsk/c1t4d0s5     102        md         hsmfs1    on
     /dev/dsk/c1t3d0s7     103        md         hsmfs1    on
     /dev/dsk/c1t4dos7     104        md         hsmfs1    on
    :wq
    [server1]root@solaris:~# 
    
  7. sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 감지되면 수정합니다.

    sam-fsd는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 오류가 발견되면 실행을 중지합니다.

    [server1]root@solaris:~# sam-fsd
    
  8. Oracle HSM 소프트웨어에 mcf 파일을 다시 읽고 그에 따라 재구성하도록 지시합니다.

    root@solaris:~# samd config
    
  9. 새 장치를 파일 시스템으로 통합합니다. samgrowfs family-set-name 명령을 사용합니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 파일 시스템에 대해 지정된 패밀리 세트 이름입니다.

    예제에서는 hsmfs1 파일 시스템을 확대합니다.

    [server1]root@solaris:~# samgrowfs hsmfs1
    
  10. 파일 시스템을 다시 마운트합니다.

    [server1]root@solaris:~# mount /hsm/hsmfs1
    
  11. 아카이빙 파일 시스템에 장치를 추가했으면 Oracle HSM 라이브러리 관리 데몬을 다시 시작합니다. samd start 명령을 사용합니다.

    [server1]root@solaris:~# samd start
    
  12. 파일 시스템을 변경하기 전에 마운트 해제하는 것을 잊어버린 결과, 파일 시스템이 마운트하지 않을 경우 추가된 장치에 대한 참조를 삭제하여 원래 mcf 파일을 복원합니다. 그런 다음 samd config를 실행하여 구성을 복원하고 파일 시스템을 마운트 해제하고 다시 시작합니다.

  13. 여기서 중지합니다.

파일 시스템에서 데이터 장치 제거

필요한 경우 마운트된 Oracle HSM 파일 시스템에서 데이터 장치를 제거할 수 있습니다. 일반적으로 고장난 부품을 교체하거나 활용되지 않는 장치를 다른 용도로 전환할 때 필요하게 됩니다. 그러나 몇 가지 제한 사항이 있습니다.

데이터 장치만 제거할 수 있습니다. 메타데이터는 파일 시스템 자체의 구조를 정의하기 때문에 메타데이터를 보유한 장치는 제거할 수 없습니다. 이는 고성능 ma 파일 시스템에서 md, mr 및 스트라이프 그룹 장치만 제거할 수 있음을 의미합니다. ma 파일 시스템에서 mm 메타데이터 장치는 제거할 수 없습니다. 또한 이러한 장치는 데이터와 메타데이터를 모두 저장하므로 범용 ms 파일 시스템에서 md 장치를 제거할 수도 없습니다.

장치를 제거하려면 대상 장치에 상주하는 유효한 데이터 파일을 이동할 장소도 있어야 합니다. 이는 모든 장치를 제거할 수 없음을 의미합니다. 한 장치는 항상 파일 시스템에서 사용 가능해야 하며, 제거할 장치에 상주하는 모든 파일을 보유할 충분한 여유 용량이 있어야 합니다. 따라서 스트라이프 그룹을 제거해야 하는 경우 동일한 개수의 멤버 장치로 구성된 또 하나의 스트라이프 그룹이 사용 가능해야 합니다.

장치를 제거하려면 다음과 같이 하십시오.

파일 시스템 메타데이터 및 데이터가 백업되었는지 확인

다음 작업을 수행합니다.

samexplorer 실행
  1. 파일 시스템 서버 호스트에 root로 로그인합니다.

    예제에서 메타데이터 서버 호스트는 이름이 server1로 지정됩니다.

    [server1]root@solaris:~# 
    
  2. samexplorer 보고서를 만듭니다. samexplorer path/hostname.YYYYMMDD.hhmmz.tar.gz 명령을 사용합니다. 설명:

    • path는 선택한 디렉토리에 대한 경로입니다.

    • hostname은 Oracle HSM 파일 시스템 호스트의 이름입니다.

    • YYYYMMDD.hhmmz는 날짜 및 시간 기록입니다.

    기본적으로 이 파일은 /tmp/SAMreport.hostname.YYYYMMDD.hhmmz.tar.gz입니다. 예제에서는 /zfs1/tmp/ 디렉토리를 사용합니다. 여기서 /zfs1은 Oracle HSM 파일 시스템과 공통 구성 요소가 없는 파일 시스템입니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.

    [server1]root@solaris:~# samexplorer \
    /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz
     
         Report name:     /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz
         Lines per file:  1000
         Output format:   tar.gz (default) Use -u for unarchived/uncompressed.
     
         Please wait.............................................
         Please wait.............................................
         Please wait......................................
     
         The following files should now be ftp'ed to your support provider
         as ftp type binary.
     
         /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz
    
  3. 파일 시스템에 대한 복구 지점 파일 만들기를 수행합니다.

파일 시스템에 대한 복구 지점 파일 만들기
  1. 파일 시스템 서버 호스트에 root로 로그인합니다.

    예제에서 메타데이터 서버 호스트는 이름이 server1로 지정됩니다.

    [server1]root@solaris:~# 
    
  2. 복구 지점 파일을 저장할 위치를 선택합니다. 선택한 위치는 백업 중인 파일 시스템과 어떤 장치도 공유하지 않아야 하며 엄청나게 큰 파일을 저장할 공간이 있어야 합니다.

    제거하려는 장치에 아카이브되지 않은 파일이 포함될 수 있습니다. 이러한 파일은 단일 복사본으로만 존재하므로 적어도 일부 데이터와 메타데이터를 저장할 복구 지점 파일을 만들어야 합니다. 그러면 복구 지점 파일의 크기가 상당히 증가할 수 있습니다.

    예제에서는 Oracle HSM 파일 시스템과 공통 구성 요소가 없는 파일 시스템 /zfs1에 하위 디렉토리 tmp/를 만듭니다.

    [server1]root@solaris:~# mkdir /zfs1/tmp/
    [server1]root@solaris:~# 
    
  3. 파일 시스템의 루트 디렉토리로 변경합니다.

    예제에서는 마운트 지점 디렉토리 /hsm/hsmfs1로 변경합니다.

    [server1]root@solaris:~# cd /hsm/hsmfs1
    [server1]root@solaris:~# 
    
  4. 파일 시스템 메타데이터와 아카이브되지 않은 데이터를 백업합니다. samfsdump -f -u recovery-point 명령을 사용합니다. 여기서 recovery-point는 완성된 복구 지점 파일의 경로 및 파일 이름입니다.

    -u 옵션은 아카이브되지 않은 파일의 데이터 부분을 복구 지점에 추가합니다. 그러면 파일 크기가 크게 증가할 수 있습니다.

    예제에서는 /zfs1/tmp/ 디렉토리에 hsmfs1-20140313.025215라는 hsmfs1 파일 시스템에 대한 복구 지점 파일을 만듭니다. ls -l 명령을 사용하여 결과를 확인합니다. 아래의 두번째 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.

    [server1]root@solaris:~# cd /hsm/hsmfs1
    [server1]root@solaris:~# samfsdump -f \
    /zfs1/tmp/hsm/hsmfs1-`date '+%Y%m%d.%H%M%S'` -T /hsm/hsmfs1
    samfsdump statistics:
        Files:              10010
        Directories:        2
        Symbolic links:     0
        Resource files:     0
        Files as members of hard links :    0
        Files as first hard link :  0
        File segments:      0
        File archives:      10010
        Damaged files:      0
        Files with data:    0
        File  warnings:     0
        Errors:             0
        Unprocessed dirs:   0
        File data bytes:    0
    [server1]root@solaris:~# ls -l /zfs1/tmp/hsmfs1*
    -rw-r--r-- 1 root other 5376517 Mar 13 02:52 /zfs1/tmp/hsm/hsmfs1-20140313.025215
    [server1]root@solaris:~# 
    
  5. 이제 마운트된 고성능 파일 시스템에서 장치 제거를 수행합니다.

마운트된 고성능 파일 시스템에서 장치 제거

한번에 하나씩 장치를 제거해야 합니다. 각 장치에 대해 다음과 같이 하십시오.

  1. 파일 시스템 서버 호스트에 root로 로그인합니다.

    예제에서 메타데이터 서버 호스트는 이름이 server1로 지정됩니다.

    [server1]root@solaris:~# 
    
  2. /etc/opt/SUNWsamfs/mcf 파일을 열고 제거해야 하는 장치에 대한 장비 순서 번호를 확인합니다.

    예제에서는 vi 편집기를 사용합니다. hsmfs1 파일 시스템의 장비 목록에서 /dev/dsk/c1t4d0s7 장치를 제거해야 합니다. 장비 순서 번호는 104입니다.

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family     Device   Additional
    # Identifier         Ordinal    Type       Set        State    Parameters
    #-----------------   ---------  ---------  ---------  ------   --------------
    hsmfs1              100        ms         hsmfs1    on
     /dev/dsk/c1t3d0s3    101        md         hsmfs1    on
     /dev/dsk/c1t4d0s5    102        md         hsmfs1    on
     /dev/dsk/c1t3d0s7    103        md         hsmfs1    on
     /dev/dsk/c1t4d0s7    104        md         hsmfs1    on
    :q
    [server1]root@solaris:~# 
    
  3. 장치를 제거하기 전에 파일 시스템에 남은 장치들이 삭제하려는 장치에서 이동된 파일을 수용할 수 있는지 확인합니다.

    • 남은 장치에 충분한 용량이 있는지 확인합니다.

    • 장치가 스트라이프 그룹인 경우 파일 시스템에 동일 구성의 스트라이프 그룹이 또 하나 있는지 확인합니다.

      예를 들어, 제거할 스트라이프 그룹에 4개의 장비 번호가 있는 경우 또 하나의 스트라이프 그룹이 ON 상태이고 4개의 장비 번호가 있어야 합니다.

  4. 수정할 파일 시스템에 버전 2A 수퍼 블록이 있는지 확인합니다. samfsinfo filesystem-name 명령을 사용합니다. 여기서 filesystem-name은 파일 시스템의 이름입니다.

    예제에서는 hsmfs1 파일 시스템이 version:2A 수퍼 블록을 사용합니다.

    [server1]root@solaris:~# /opt/SUNWsamfs/sbin/samfsinfo hsmfs1
    samfsinfo: filesystem hsmfs1 is mounted.
    name:     hsmfs1       version:     2A          
    time:     Tuesday, June 28, 2011  6:07:36 AM MDT
    feature:  Aligned Maps
    count:    4
    ...
    [server1]root@solaris:~# 
    
  5. 파일 시스템에 버전 2A 수퍼 블록이 없는 경우 여기서 중지합니다. 이 파일 시스템을 마운트하는 동안 장치를 제거할 수 없습니다.

  6. Oracle HSM 아카이빙 파일 시스템에서 장치를 제거하는 경우 모든 아카이브된 파일을 제거 중인 디스크 장치에서 해제합니다. samcmd release equipment-number 명령을 사용합니다. 여기서 equipment-number/etc/opt/SUNWsamfs/mcf 파일에서 장치를 식별하는 장비 순서 번호입니다.

    장치가 스트라이프 그룹인 경우 그룹의 아무 장치나 장비 번호를 제공합니다.

    Oracle HSM 소프트웨어는 지정된 장치에 새 파일이 저장되지 않도록 상태를 noalloc(할당 없음)로 변경하고, 이전에 아카이브된 파일을 해제하기 시작합니다. 장치에 아카이브되지 않은 파일이 없을 때 소프트웨어는 파일 시스템 구성에서 장치를 제거하고 상태를 off로 변경합니다.

    예제에서는 아카이빙 파일 시스템 hsmfs1104 장치에서 파일을 해제합니다.

    [server1]root@solaris:~# samcmd release 104
    
  7. Oracle HSM 비아카이빙 파일 시스템에서 장치를 제거하는 경우 모든 남은 유효한 파일을 제거 중인 디스크 장치 밖으로 이동합니다. samcmd remove equipment-number 명령을 사용합니다. 여기서 equipment-number/etc/opt/SUNWsamfs/mcf 파일에서 장치를 식별하는 장비 순서 번호입니다.

    Oracle HSM 소프트웨어는 지정된 장치에 새 파일이 저장되지 않도록 상태를 noalloc(할당 없음)로 변경하고, 유효한 데이터가 포함된 파일을 파일 시스템에 남은 장치로 이동하기 시작합니다. 모든 파일이 이동되었을 때 소프트웨어는 파일 시스템 구성에서 장치를 제거하고 상태를 off로 변경합니다.

    예제에서는 104 장치의 파일을 밖으로 이동합니다.

    [server1]root@solaris:~# samcmd remove 104
    
  8. 선택한 프로세스 samcmd remove 또는 samcmd release의 진행률을 모니터합니다. samcmd m 명령을 사용하고 로그 파일과 /var/opt/SUNWsamfs/trace/sam-shrink 파일을 관찰합니다.

    release 프로세스는 모든 파일이 아카이브된 경우 단순히 아카이브 매체로 복사된 파일과 연관된 공간을 해제하면 되므로 아주 빠르게 완료됩니다. remove 프로세스는 데이터 양과 파일 수에 따라 디스크 장치 사이에 파일을 이동해야 하므로 상당히 오래 걸립니다.

    [server1]root@solaris:~# samcmd m
    ty     eq  status       use state  ord  capacity      free    ra  part high low
    ms     100 m----2-----  27% on            3.691G    2.628G    1M    16  80% 70%
     md     101              27% on       0  959.938M  703.188M
     md     102              28% on       1  899.938M  646.625M
     md     103              13% on       2  959.938M  834.250M
     md     104               0% noalloc  3  959.938M  959.938M
    [server1]root@solaris:~# 
    
  9. samcmd release를 사용할 때 대상 장치가 off 상태로 진입하지 않으면 장치에 아카이브되지 않은 파일이 있는 것입니다. 아카이버가 실행되고 아카이빙이 완료될 때까지 기다립니다. 그런 다음 다시 samcmd release 명령을 사용합니다. samcmd a 명령을 사용하여 아카이빙의 진행률을 확인할 수 있습니다.

    아카이브되지 않은 파일이 아카이브될 때까지 release 프로세스는 디스크 공간을 확보할 수 없습니다.

    [server1]root@solaris:~# samcmd a
    Archiver status samcmd     5.4 14:12:14 Mar  1 2014
    samcmd on server1
    sam-archiverd:  Waiting for resources
    sam-arfind:  hsmfs1  mounted at /hsm/hsmfs1
    Files waiting to start          4   schedule          2   archiving          2
    [server1]root@solaris:~# 
    
  10. 하나 이상의 아카이브되지 않은 파일을 아카이브할 수 없어서 samcmd release가 실패하면 아카이브되지 않은 파일을 다른 장치로 이동합니다. 비아카이빙 독립형 파일 시스템에서 장치를 제거할 때와 마찬가지로 samcmd remove equipment-number 명령을 사용합니다.

    예제에서는 104 장치의 파일을 밖으로 이동합니다.

    [server1]root@solaris:~# samcmd remove 104
    
  11. 장치 상태가 off로 변경되었으면 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 파일 시스템을 찾아서 변경사항이 반영되도록 장비 목록을 업데이트합니다. 파일을 저장하고 편집기를 닫습니다.

    예제에서 samcmd m104off임을 보여줍니다. 따라서 vi 편집기를 사용하여 mcf 파일을 엽니다. hsmfs1 파일 시스템의 장비 목록에서 104 장치 항목을 제거하고 변경사항을 저장합니다.

    [server1]root@solaris:~# samcmd m
    ty      eq  status       use state  ord  capacity      free    ra  part high low
    ms     100  m----2-----  27% on            3.691G    2.628G    1M    16  80% 70%
     md     101              27% on       0  959.938M  703.188M
     md     102              28% on       1  899.938M  646.625M
     md     103              13% on       2  959.938M  834.250M
     md     104               0% off      3  959.938M  959.938M
    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family     Device   Additional
    # Identifier         Ordinal    Type       Set        State    Parameters
    #-----------------   ---------  ---------  ---------  ------   ---------
    hsmfs1              100        ms         hsmfs1    on
     /dev/dsk/c1t3d0s3    101        md         hsmfs1    on
     /dev/dsk/c1t4d0s5    102        md         hsmfs1    on
     /dev/dsk/c1t3d0s7    103        md         hsmfs1    on
    :wq
    [server1]root@solaris:~# 
    
  12. sam-fsd 명령을 실행하여 수정된 mcf 파일에 오류가 있는지 확인하고, 오류가 감지되면 수정합니다.

    만일 오류가 발생하면 sam-fsd 명령이 중지됩니다.

    [server1]root@solaris:~# sam-fsd
    
  13. Oracle HSM 소프트웨어에 mcf 파일을 다시 읽고 그에 따라 재구성하도록 지시합니다.

    [server1]root@solaris:~# samd config
    
  14. 여기서 중지합니다.

Oracle HSM 공유 파일 시스템 관리

이 절에서는 다음 작업을 설명합니다.

공유 파일 시스템 마운트 및 마운트 해제

공유 파일 시스템을 마운트하거나 마운트 해제할 때 메타데이터 서버와 클라이언트를 마운트/마운트 해제하는 순서가 매우 중요합니다.

페일오버 목적상, 마운트 옵션은 메타데이터 서버와 모든 잠재적 메타데이터 서버에서 동일해야 합니다. 예를 들어, 마운트 옵션을 포함하는 samfs.cmd 파일을 만들어서 모든 호스트에 복사할 수 있습니다.

공유 파일 시스템 마운트에 대한 자세한 내용은 mount_samfs 매뉴얼 페이지를 참조하십시오.

공유 파일 시스템 마운트

  1. Oracle HSM 메타데이터 서버 및 클라이언트 호스트에 root로 로그인합니다.

    예제에서는 sharefs 파일 시스템 sharefs-mds에 대한 메타데이터 서버 호스트에 로그인합니다. 그런 다음 각 클라이언트 sharefs-client1sharefs-client2에 대한 터미널 창을 엽니다. ssh(보안 셸)를 사용하여 로그인합니다.

    [sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password: 
    [sharefs-client1]root@solaris:~# 
    
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client2
    Password: 
    [sharefs-client2]root@solaris:~# 
    
  2. 파일 시스템의 Solaris /etc/vfstab 파일에 항목이 있는 경우 mount mountpoint 명령을 사용하여 메타데이터 서버 호스트에 공유 파일 시스템을 마운트합니다. 여기서 mountpoint는 호스트 루트 파일 시스템의 마운트 지점 디렉토리입니다.

    항상 먼저 메타데이터 서버 호스트에 파일 시스템을 마운트한 후에 클라이언트에 파일 시스템을 마운트하십시오.

    예제에서는 sharefs 파일 시스템의 /etc/vfstab 파일에 다음 항목이 있습니다.

    sharefs   -         /sharefs  samfs   -     no       shared
    

    따라서 마운트 지점 매개변수만 제공하면 파일 시스템을 마운트할 수 있습니다.

    [sharefs-mds]root@solaris:~# mount /sharefs
    [sharefs-mds]root@solaris:~# 
    
  3. 파일 시스템의 Solaris /etc/vfstab 파일에 항목이 없는 경우 mount -F samfs -o shared mountpoint 명령을 사용하여 메타데이터 서버 호스트에 공유 파일 시스템을 마운트합니다. 여기서 mountpoint는 호스트 루트 파일 시스템의 마운트 지점 디렉토리입니다.

    항상 먼저 메타데이터 서버 호스트에 파일 시스템을 마운트한 후에 클라이언트에 파일 시스템을 마운트하십시오.

    예제에서는 sharefs 파일 시스템의 /etc/vfstab 파일에 항목이 없습니다.

    [sharefs-mds]root@solaris:~# mount -F samfs -o shared /sharefs
    [sharefs-mds]root@solaris:~# 
    
  4. 파일 시스템의 Solaris /etc/vfstab 파일에 항목이 있는 경우 mount mountpoint 명령을 사용하여 각 클라이언트 호스트에 공유 파일 시스템을 마운트합니다. 여기서 mountpoint는 호스트 루트 파일 시스템의 마운트 지점 디렉토리입니다.

    원하는 순서로 클라이언트 호스트에 파일 시스템을 마운트할 수 있습니다.

    [sharefs-client1]root@solaris:~# mount /sharefs
    [sharefs-client1]root@solaris:~#  
    
    [sharefs-client2]root@solaris:~# mount /sharefs
    [sharefs-client2]root@solaris:~# 
    
  5. 파일 시스템의 Solaris /etc/vfstab 파일에 항목이 없는 경우 mount -F samfs -o shared mountpoint 명령을 사용하여 각 클라이언트 호스트에 공유 파일 시스템을 마운트합니다. 여기서 mountpoint는 호스트 루트 파일 시스템의 마운트 지점 디렉토리입니다.

    원하는 순서로 클라이언트 호스트에 파일 시스템을 마운트할 수 있습니다.

    [sharefs-client1]root@solaris:~# mount -F samfs -o shared /sharefs
    [sharefs-client1]root@solaris:~# 
    
    [sharefs-client2]root@solaris:~# mount -F samfs -o shared /sharefs
    [sharefs-client2]root@solaris:~# 
    
  6. 여기서 중지합니다.

공유 파일 시스템 마운트 해제

  1. Oracle HSM 메타데이터 서버 및 클라이언트 호스트에 root로 로그인합니다.

    예제에서는 sharefs 파일 시스템 sharefs-mds에 대한 메타데이터 서버 호스트에 로그인합니다. 그런 후 각 클라이언트 sharefs-client1sharefs-client2에 대한 터미널 창을 열고 ssh(보안 셸)를 사용해서 로그인합니다.

    [sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password: 
    [sharefs-client1]root@solaris:~# 
    
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client2
    Password: 
    [sharefs-client2]root@solaris:~# 
    
  2. 파일 시스템이 NFS 또는 SAMBA를 통해 공유되는 경우 파일 시스템을 마운트 해제하기 전에 공유를 취소합니다. 메타데이터 서버에서 unshare mount-point 명령을 사용합니다. 여기서 mount-point는 Oracle HSM 파일 시스템의 마운트 지점 디렉토리입니다.

    [sharefs-mds]root@solaris:~# unshare /sharefs
    [sharefs-mds]root@solaris:~# 
    
  3. 각 클라이언트에서 Oracle HSM 공유 파일 시스템을 마운트 해제합니다. umount mount-point명령을 사용합니다. 여기서 mount-point는 Oracle HSM 파일 시스템의 마운트 지점 디렉토리입니다.

    자세한 내용은 umount_samfs 매뉴얼 페이지를 참조하십시오. 예제에서는 두 개의 클라이언트 sharefs-client1sharefs-client2에서 /sharedqfs1을 마운트 해제합니다.

    [sharefs-client1]root@solaris:~# umount /sharefs
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
    [sharefs-client2]root@solaris:~# umount /sharefs
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  4. 메타데이터 서버에서 Oracle HSM 공유 파일 시스템을 마운트 해제합니다. umount -o await_clients=interval mount-point 명령을 사용합니다. 여기서 mount-point는 Oracle HSM 파일 시스템의 마운트 지점 디렉토리이고, interval-o await_clients 옵션으로 지정된 실행 지연 시간(초)입니다.

    Oracle HSM 공유 파일 시스템의 메타데이터 서버에서 umount 명령을 실행할 때 -o await_clients 옵션은 지정된 초 수만큼 umount를 대기시켜서 클라이언트가 공유 파일 시스템을 마운트 해제할 시간을 벌어줍니다. 비공유 파일 시스템을 마운트 해제하거나 Oracle HSM 클라이언트에서 명령을 실행할 경우 아무 효과가 없습니다. 자세한 내용은 umount_samfs 매뉴얼 페이지를 참조하십시오.

    예제에서는 서버에서 /sharefs 파일 시스템을 마운트 해제하고, 클라이언트가 60초 동안 마운트 해제되도록 허용합니다.

    [sharefs-mds]root@solaris:~# umount -o await_clients=60 /sharefs
    [sharefs-mds]root@solaris:~# 
    
  5. 여기서 중지합니다.

공유 파일 시스템의 호스트 구성 변경

이 절에서는 공유 파일 시스템의 클라이언트로서 추가 호스트를 구성하고 기존 클라이언트 구성을 해제하기 위한 지침을 제공합니다. 다음 절이 포함됩니다.

추가 파일 시스템 클라이언트 구성

공유 파일 시스템에 클라이언트 호스트를 추가하는 과정은 다음 세 부분으로 구성됩니다.

공유 파일 시스템 구성에 호스트 정보 추가
  1. Oracle HSM 메타데이터 서버에 root로 로그인합니다.

    예제에서 Oracle HSM 공유 파일 시스템은 sharefs, 메타데이터 서버 호스트는 sharefs-mds입니다.

    [sharefs-mds]root@solaris:~# 
    
  2. /etc/opt/SUNWsamfs/hosts.filesystem 파일을 백업합니다. 여기서 filesystem은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.

    아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.

    [sharefs-mds]root@solaris:~# cp /etc/opt/SUNWsamfs/hosts.sharefs \ /etc/opt/SUNWsamfs/hosts.sharefs.bak
    
  3. 공유 파일 시스템이 마운트된 경우 활성 메타데이터 서버에서 samsharefs filesystem 명령을 실행하여 /etc/opt/SUNWsamfs/hosts.filesystem 파일로 출력이 재지정되도록 합니다. 여기서 filesystem은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.

    samsharefs 명령은 Oracle HSM 공유 파일 시스템에 대한 호스트 구성을 표시합니다. 출력을 파일로 재지정하면 새 호스트 파일이 만들어집니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.

    [sharefs-mds]root@solaris:~# samsharefs sharedqfs1 > \ /etc/opt/SUNWsamfs/hosts.sharedqfs1
    
  4. 공유 파일 시스템이 마운트되지 않았으면 활성 또는 잠재적 메타데이터 서버에서 samsharefs -R filesystem 명령을 실행하여 출력이 /etc/opt/SUNWsamfs/hosts.filesystem 파일로 재지정되도록 합니다. 여기서 filesystem은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.

    samsharefs -R 명령은 활성 또는 잠재적 메타데이터 서버에서만 실행할 수 있습니다. 자세한 내용은 samsharefs 매뉴얼 페이지를 참조하십시오. samsharefs 명령은 Oracle HSM 공유 파일 시스템에 대한 호스트 구성을 표시합니다. 출력을 파일로 재지정하면 새 hosts 파일이 만들어집니다. 예제에서는 메타데이터 서버 sharefs-mds에서 명령을 실행합니다. 아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.

    [sharefs-mds]root@solaris:~# samsharefs -R sharedqfs1 \
    > /etc/opt/SUNWsamfs/hosts.sharedqfs1
    
  5. 새로 만든 hosts 파일을 텍스트 편집기에서 엽니다.

    예제에서는 vi 편집기를 사용합니다. 호스트 구성에는 활성 메타데이터 서버인 sharefs-mds와 또한 잠재적 메타데이터 서버인 하나의 클라이언트 sharefs-mds_alt 및 두 개의 다른 클라이언트인 sharefs-client1sharefs-client2가 포함됩니다.

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.47            0        0
    
  6. hosts 파일에서 새 클라이언트 호스트 행을 추가하고 파일을 저장하고 편집기를 닫습니다.

    예제에서는 sharefs-client3 호스트 항목을 추가합니다.

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.47            0        0
    sharefs-client3       10.79.213.49            0        0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  7. 파일 시스템이 마운트된 경우 활성 메타데이터 서버에서 파일 시스템을 업데이트합니다. samsharefs -u filesystem 명령을 사용합니다. 여기서 filesystem은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.

    samsharefs 명령은 수정된 hosts 파일을 다시 읽고 구성을 업데이트합니다.

    [sharefs-mds]root@solaris:~# samsharefs -u sharefs1
    
  8. 파일 시스템이 마운트되지 않았으면 활성 또는 잠재적 메타데이터 서버에서 파일 시스템을 업데이트합니다. samsharefs -R -u filesystem 명령을 사용합니다. 여기서 filesystem은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.

    samsharefs 명령은 수정된 hosts 파일을 다시 읽고 구성을 업데이트합니다.

    [sharefs-mds]root@solaris:~# samsharefs -R -u sharefs1
    
  9. Solaris 호스트를 클라이언트로 추가하는 경우 Solaris 클라이언트에서 공유 파일 시스템 구성으로 이동합니다.

  10. Linux 호스트를 클라이언트로 추가하는 경우 Linux 클라이언트 호스트에서 공유 파일 시스템 구성으로 이동합니다.

Solaris 클라이언트에서 공유 파일 시스템 구성
  1. 공유 파일 시스템 클라이언트에서 root로 로그인합니다.

    예제에서 Oracle HSM 공유 파일 시스템은 sharefs이고, 클라이언트 호스트는 sharefs-client1입니다.

    [sharefs-client1]root@solaris:~# 
    
  2. 터미널 창에서 공유 파일 시스템에 대한 구성 정보를 검색합니다. samfsconfig device-path 명령을 사용합니다. 여기서 device-path는 명령이 파일 시스템 디스크 장치(예: /dev/dsk/* 또는 /dev/zvol/dsk/rpool/*) 검색을 시작해야 하는 위치입니다.

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    
  3. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 있는 경우 잠재적 메타데이터 서버로 사용하기에 적절하므로 samfsconfig 출력은 파일 시스템 메타데이터 서버에서 만든 mcf 파일과 아주 비슷합니다.

    예제에서 sharefs-client1 호스트에는 메타데이터 장치(장비 유형 mm)에 대한 액세스 권한이 있으므로, 이 명령은 sharefs-mds 서버의 mcf 파일에 나열된 것과 동일한 장비를 보여줍니다. 호스트 지정 장치 컨트롤러 번호만 다릅니다.

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    # Generation 0 Eq count 4 Eq meta count 1
    sharefs             300         ma         sharefs   - 
    /dev/dsk/c1t0d0s0    301         mm         sharefs   -
    /dev/dsk/c1t3d0s0    302         mr         sharefs   -
    /dev/dsk/c1t3d0s1    303         mr         sharefs   -
    
  4. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 samfsconfig 명령이 메타데이터 장치를 찾을 수 없습니다. 따라서 발견된 Oracle HSM 장치가 파일 시스템 구성에 맞지 않을 수 있습니다. 명령 출력은 Missing Slices 아래에 메타데이터 장치 Ordinal 0을 나열하고, 파일 시스템 패밀리 세트를 식별하는 라인을 포함하지 못하며, 데이터 장치의 목록을 주석 처리합니다.

    예제에서는 sharefs-client2 호스트가 데이터 장치에만 액세스할 수 있습니다. 따라서 samfsconfig 출력은 다음과 비슷합니다.

    [sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    # Missing slices
    # Ordinal 0
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  5. samfsconfig 출력에서 공유 파일 시스템 항목을 복사합니다. 그리고 두번째 창에서, 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 복사한 항목을 파일로 붙여넣습니다.

    첫번째 예제에서 sharefs-client1 호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 있으므로 mcf 파일의 시작은 다음과 비슷합니다.

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300        ma         sharefs    -
    /dev/dsk/c1t0d0s0   301        mm         sharefs    -
    /dev/dsk/c1t3d0s0   302        mr         sharefs    -
    /dev/dsk/c1t3d0s1   303        mr         sharefs    -
    

    두번째 예제에서 sharefs-client2 호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 없으므로 mcf 파일의 시작은 다음과 비슷합니다.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    # /dev/dsk/c4t3d0s0   302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1   303         mr         sharefs   -
    
  6. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 있는 경우 공유 파일 시스템 항목의 Additional Parameters 필드에 shared 매개변수를 추가합니다.

    첫번째 예제에서 sharefs-client1 호스트는 메타데이터에 액세스할 수 있습니다.

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300        ma         sharefs    -        shared
    /dev/dsk/c1t0d0s0   301        mm         sharefs    -
    /dev/dsk/c1t3d0s0   302        mr         sharefs    -
    /dev/dsk/c1t3d0s1   303        mr         sharefs    -
    
  7. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 공유 파일 시스템 행을 추가하고 shared 매개변수를 포함합니다.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300        ma         sharefs    -        shared
    # /dev/dsk/c4t3d0s0   302         mr         sharefs   -       
    # /dev/dsk/c4t3d0s1   303         mr         sharefs   -
    
  8. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 메타데이터 장치 행을 추가합니다. Equipment Identifier 필드를 nodev(장치 없음)로 설정하고 남은 필드를 메타데이터 서버에 지정한 것과 똑같은 값으로 설정합니다.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300         ma        sharefs    on       shared
    nodev               301         mm        sharefs    on 
    # /dev/dsk/c4t3d0s0   302        mr         sharefs    -
    # /dev/dsk/c4t3d0s1   303        mr         sharefs    -
    
  9. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 데이터 장치 항목의 주석 처리를 해제합니다.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300        ma         sharefs    on       shared
    nodev               301        mm         sharefs    on 
    /dev/dsk/c4t3d0s0   302        mr         sharefs    - 
    /dev/dsk/c4t3d0s1   303        mr         sharefs    - 
    
  10. 모든 장치에 대해 Device State 필드가 on으로 설정되었는지 확인하고 mcf 파일을 저장하고 편집기를 닫습니다.

    첫번째 예제에서 sharefs-client1 호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 있으므로 mcf 파일의 끝은 다음과 비슷합니다.

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300        ma         sharefs    on       shared
    /dev/dsk/c1t0d0s0   301        mm         sharefs    on 
    /dev/dsk/c1t3d0s0   302        mr         sharefs    on 
    /dev/dsk/c1t3d0s1   303        mr         sharefs    on 
    :wq
    [sharefs-client1]root@solaris:~# 
    

    두번째 예제에서 sharefs-client2 호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 없으므로 mcf 파일의 끝은 다음과 비슷합니다.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
    nodev                 301         mm        sharefs    on 
    /dev/dsk/c4t3d0s0     302         mr        sharefs    on 
    /dev/dsk/c4t3d0s1     303         mr        sharefs    on 
    :wq
    [sharefs-client2]root@solaris:~# 
    
  11. sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.

    sam-fsd는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 sharefs-client1에서 mcf 파일을 확인합니다.

    [sharefs-client1]root@solaris:~# sam-fsd
    
  12. 그런 다음 Solaris 호스트에서 공유 파일 시스템 마운트를 수행합니다.

Solaris 호스트에서 공유 파일 시스템 마운트
  1. 공유 파일 시스템 호스트에서 root로 로그인합니다.

    예제에서 Oracle HSM 공유 파일 시스템은 sharefs이고, 호스트는 sharefs-client1라는 이름의 클라이언트입니다.

    [sharefs-client1]root@solaris:~# 
    
  2. 운영체제의 /etc/vfstab 파일을 백업합니다.

    [sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    
  3. 텍스트 편집기에서 /etc/vfstab 파일을 열고 공유 파일 시스템 행을 추가합니다.

    예제에서는 vi 텍스트 편집기에서 파일을 열고 sharefs 패밀리 세트 장치 행을 추가합니다.

    [sharefs-client1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  ------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no
    
  4. 클라이언트에서 파일 시스템을 공유 파일 시스템으로 마운트하려면 공유 파일 시스템에 대해 vfstab 항목의 Mount Options 열에 shared 옵션을 입력합니다.

    현재 클라이언트에서 공유 파일 시스템 sharefs를 읽기 전용으로 마운트하려면 아래 예제에 표시된 대로 vfstab 항목을 편집합니다.

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  ------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no       shared
    
  5. 콤마를 구분자로 사용하여 다른 원하는 마운트 옵션을 추가하고 /etc/vfstab 파일에 다른 원하는 변경을 수행합니다. 그런 다음 /etc/vfstab 파일을 저장합니다.

    예제에서는 마운트 옵션을 추가하지 않습니다.

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no       shared
    :wq
    [sharefs-client1]root@solaris:~# 
    
  6. /etc/vfstab 파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.

    마운트 지점 권한은 메타데이터 서버와 모든 다른 클라이언트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x) 권한이 있어야 합니다. 예제에서는 /sharefs 마운트 지점 디렉토리를 만들고 755(-rwxr-xr-x)로 권한을 설정합니다.

    [sharefs-client1]root@solaris:~# mkdir /sharefs
    [sharefs-client1]root@solaris:~# chmod 755 /sharefs
    [sharefs-client1]root@solaris:~# 
    
  7. 공유 파일 시스템을 마운트합니다.

    [sharefs-client1]root@solaris:~# mount /sharefs
    [sharefs-client1]root@solaris:~# 
    
  8. 잠재적 메타데이터 서버 호스트를 분산 테이프 I/O datamover로 추가하는 경우 분산 테이프 I/O를 위한 Datamover 클라이언트 구성으로 이동합니다.

  9. 여기서 중지합니다.

Linux 클라이언트 호스트에서 공유 파일 시스템 구성
  1. Linux 클라이언트에서 root로 로그인합니다.

    예제에서 Oracle HSM 공유 파일 시스템은 sharefs이고, 호스트는 sharefs-clientL이라는 이름의 Linux 클라이언트입니다.

    [sharefs-clientL][root@linux ~]# 
    
  2. 단말기 창에서 samfsconfig device-path 명령을 사용하여 공유 파일 시스템에 대한 구성 정보를 검색합니다. 여기서 device-path는 파일 시스템 디스크 장치를 검색하기 위해 명령을 시작할 위치입니다(예: /dev/*).

    Linux 호스트는 파일 시스템의 메타데이터 장치에 대한 액세스 권한이 없으므로, samfsconfig 명령이 메타데이터 장치를 찾을 수 없으며, 따라서 발견된 Oracle HSM 장치가 파일 시스템 구성에 맞지 않을 수 있습니다. 명령 출력은 Missing Slices 아래에 메타데이터 장치 Ordinal 0을 나열하고, 파일 시스템 패밀리 세트를 식별하는 라인을 포함하지 못하며, 데이터 장치의 목록을 주석 처리합니다.

    예제에서 Linux 호스트 sharefs-clientL에 대한 samfsconfig 출력은 다음과 비슷합니다.

    [sharefs-clientL][root@linux ~]# samfsconfig /dev/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    #
    # Missing slices
    # Ordinal 0
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  3. samfsconfig 출력에서 공유 파일 시스템 항목을 복사합니다. 그리고 두번째 창에서, 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 복사한 항목을 파일로 붙여넣습니다.

    예제에서 Linux 호스트 sharefs-clientL에 대한 mcf 파일의 시작은 다음과 비슷합니다.

    [sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -------------
    # /dev/sda4             302        mr         sharefs   -
    # /dev/sda5             303        mr         sharefs   -
    
  4. mcf 파일에서 공유 파일 시스템 행을 삽입하고 shared 매개변수를 포함합니다.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -------------
    sharefs               300        ma         sharefs    -        shared
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  5. mcf 파일에서 파일 시스템의 메타데이터 장치 행을 삽입합니다. Linux 호스트는 메타데이터 장치에 액세스할 수 없으므로 Equipment Identifier 필드를 nodev(장치 없음)로 설정하고 남은 필드를 메타데이터 서버에 지정한 것과 똑같은 값으로 설정합니다.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -------------
    sharefs               300         ma        sharefs    on       shared
    nodev                 301         mm        sharefs    on 
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  6. mcf 파일에서 Linux 데이터 장치에 대한 항목의 주석 처리를 해제합니다.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -------------
    sharefs               300        ma        sharefs     on       shared
    nodev                 301        mm        sharefs     on 
    /dev/sda4             302        mr        sharefs     -
    /dev/sda5             303        mr        sharefs     -
    
  7. 모든 장치에 대해 Device State 필드가 on으로 설정되었는지 확인하고 mcf 파일을 저장합니다.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -------------
    sharefs               300        ma         sharefs    on       shared
    nodev                 301        mm         sharefs    on 
    /dev/sda4             302        mr         sharefs    on 
    /dev/sda5             303        mr         sharefs    on 
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  8. sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.

    sam-fsd는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 Linux 클라이언트 sharefs-clientL에서 mcf 파일을 확인합니다.

    [sharefs-clientL][root@linux ~]# sam-fsd
    
  9. 이제 Linux 호스트에서 공유 파일 시스템 마운트를 수행합니다.

Linux 클라이언트 호스트에서 공유 파일 시스템 마운트
  1. Linux 클라이언트에서 root로 로그인합니다.

    예제에서 Oracle HSM 공유 파일 시스템은 sharefs이고, 호스트는 sharefs-clientL이라는 이름의 Linux 클라이언트입니다.

    [sharefs-clientL][root@linux ~]# 
    
  2. 운영체제의 /etc/fstab 파일을 백업합니다.

    [sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
    
  3. 텍스트 편집기에서 /etc/fstab 파일을 열고 공유 파일 시스템 행을 시작합니다.

    예제에서는 vi 텍스트 편집기를 사용하고 sharefs 패밀리 세트 장치에 대한 행을 추가합니다.

    [sharefs-clientL][root@linux ~]# vi /etc/fstab
    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs
    
  4. 파일의 네번째 열에서 필수 shared 마운트 옵션을 추가합니다.

    [sharefs-clientL][root@linux ~]# vi /etc/fstab
    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared
    
  5. 파일의 네번째 열에서 콤마를 구분자로 사용하여 다른 원하는 마운트 옵션을 추가합니다.

    Linux 클라이언트는 다음 추가 마운트 옵션을 지원합니다.

    • rw, ro

    • retry

    • meta_timeo

    • rdlease, wrlease, aplease

    • minallocsz, maxallocsz

    • noauto, auto

    예제에서는 noauto 옵션을 추가합니다.

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto           
     
    
  6. 파일에 남은 두 열에 각각 제로(0)를 입력합니다. 그런 다음 /etc/fstab 파일을 저장합니다.

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto              0         0        
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  7. /etc/fstab 파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.

    마운트 지점 권한은 메타데이터 서버와 모든 다른 클라이언트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x) 권한이 있어야 합니다. 예제에서는 /sharefs 마운트 지점 디렉토리를 만들고 755(-rwxr-xr-x)로 권한을 설정합니다.

    [sharefs-clientL][root@linux ~]# mkdir /sharefs
    [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
    
  8. 공유 파일 시스템을 마운트합니다. mount mountpoint 명령을 사용합니다. 여기서 mountpoint/etc/fstab 파일에 지정된 마운트 지점 디렉토리입니다.

    예제에 표시된 대로 mount 명령은 경고를 생성합니다. 이는 정상적 상황이며 무시할 수 있습니다.

    [sharefs-clientL][root@linux ~]# mount /sharefs
    Warning: loading SUNWqfs will taint the kernel: SMI license 
    See http://www.tux.org/lkml/#export-tainted for information 
    about tainted modules. Module SUNWqfs loaded with warnings 
    
  9. 여기서 중지합니다.

공유 파일 시스템 구성에서 호스트 제거

공유 파일 시스템에서 호스트를 제거하면 아래 설명된 대로 단순히 서버 구성에서 호스트를 제거하는 것입니다. 호스트 구성을 완전히 해제하려면 소프트웨어와 구성 파일을 제거하십시오.

파일 시스템 호스트 파일에서 호스트 제거
  1. Oracle HSM 메타데이터 서버에 root로 로그인합니다.

    예제에서 Oracle HSM 공유 파일 시스템은 sharefs, 메타데이터 서버 호스트는 sharefs-mds입니다.

    [sharefs-mds]root@solaris:~# 
    
  2. 각 클라이언트에 root로 로그인하고 공유 파일 시스템을 마운트 해제합니다.

    잠재적 메타데이터 서버도 클라이언트임을 잊지 마십시오. 예제에서는 sharefs-client1, sharefs-client2sharefs-mds_alt라는 잠재적 메타데이터 서버를 포함한 세 개의 클라이언트가 있습니다. 각 클라이언트에 대해 ssh를 사용해서 로그인하고 파일 시스템 sharefs를 마운트 해제하고 ssh 세션을 닫습니다.

    [sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# umount sharefs
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client2
    Password:
    [sharefs-client2]root@solaris:~# umount sharefs
    [sharefs-client2]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# umount sharefs
    root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  3. 메타데이터 서버에서 공유 파일 시스템을 마운트 해제합니다.

    [sharefs-mds]root@solaris:~# umount sharefs
    
  4. 메타데이터 서버에서 /etc/opt/SUNWsamfs/hosts.filesystem 파일의 이름을 /etc/opt/SUNWsamfs/hosts.filesystem.bak로 바꿉니다. 여기서 filesystem은 클라이언트 호스트를 제거하려는 파일 시스템의 이름입니다.

    아래의 명령은 단일 라인으로 입력됩니다. 줄바꿈은 백슬래시 문자로 이스케이프됩니다.

    [sharefs-mds]root@solaris:~# mv /etc/opt/SUNWsamfs/hosts.sharefs \
    /etc/opt/SUNWsamfs/hosts.sharefs.bak
    
  5. 현재 공유 파일 시스템 호스트 구성을 파일에 캡처합니다. 메타데이터 서버에서 samsharefs -R filesystem 명령을 실행하여 /etc/opt/SUNWsamfs/hosts.filesystem 파일로 출력이 재지정되도록 합니다. 여기서 filesystem은 클라이언트 호스트를 추가하려는 파일 시스템의 이름입니다.

    samsharefs 명령은 지정된 Oracle HSM 공유 파일 시스템에 대한 호스트 구성을 표시합니다. 출력을 파일로 재지정하면 새 hosts 파일이 만들어집니다. 예제에서는 메타데이터 서버 sharefs-mds에서 명령을 실행합니다.

    [sharefs-mds]root@solaris:~# samsharefs -R sharedqfs1 > /
    /etc/opt/SUNWsamfs/hosts.sharedqfs1
    
  6. 새로 만든 hosts 파일을 텍스트 편집기에서 엽니다.

    예제에서는 vi 편집기를 사용합니다. sharefs-client3 클라이언트를 제거해야 합니다.

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.47            0        0
    sharefs-client3       10.79.213.49            0        0
    
  7. hosts 파일에서 제거할 클라이언트 호스트에 해당하는 행을 삭제합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    예제에서는 sharefs-client3 호스트 항목을 삭제합니다.

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.47            0        0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  8. 수정된 hosts 파일을 사용해서 파일 시스템을 업데이트합니다. 메타데이터 서버에서 samsharefs -R -u filesystem 명령을 사용합니다. 여기서 filesystem은 클라이언트 호스트를 제거하려는 파일 시스템의 이름입니다.

    [sharefs-mds]root@solaris:~# samsharefs -u sharefs
    
  9. 메타데이터 서버 호스트에서 공유 파일 시스템을 마운트합니다.

    예제에서는 /etc/vfstab 파일에 sharefs 파일 시스템 항목이 포함되므로 간단한 마운팅 구문을 사용합니다. 자세한 내용은 mount_samfs 매뉴얼 페이지를 참조하십시오.

    [sharefs-mds]root@solaris:~# mount sharefs
    
  10. 각 클라이언트 호스트에서 공유 파일 시스템을 마운트합니다.

    잠재적 메타데이터 서버도 클라이언트임을 잊지 마십시오. 예제에서는 sharefs-client1, sharefs-client2sharefs-mds_alt라는 잠재적 메타데이터 서버를 포함한 세 개의 클라이언트가 있습니다. 각 클라이언트에 대해 ssh를 사용해서 로그인하고 파일 시스템 sharefs를 마운트 해제하고 ssh 세션을 닫습니다.

    [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# mount sharefs
    sharefs-mds_alt]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# mount sharefs
    sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client2
    Password:
    [sharefs-client2]root@solaris:~# mount sharefs
    sharefs-client2]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  11. 여기서 중지합니다.

분산 테이프 I/O를 위한 Datamover 클라이언트 구성

Oracle HSM 릴리스 6.1부터 Solaris 11 이상에서 실행되는 공유 아카이빙 파일 시스템의 클라이언트는 테이프 드라이브를 연결하여 파일 시스템 대신 테이프 I/O를 수행할 수 있습니다. 이러한 datamover 호스트에 걸쳐 테이프 I/O를 분산시키면 서버 오버헤드가 크게 감소하고, 파일 시스템 성능이 향상되고, Oracle HSM 구현을 확장할 때 유연성이 증대됩니다. 사용자의 아카이빙 수요가 증가함에 따라 이제 Oracle HSM 메타데이터 서버를 더 강력한 시스템으로 교체하거나(수직적 확장) 더 많은 클라이언트에 걸쳐 로드를 분산시킬 수 있습니다(수평적 확장).

Datamover 클라이언트 구성

분산 테이프 I/O를 위한 클라이언트를 구성하려면 다음과 같이 하십시오.

  1. 분산 I/O에 사용할 모든 장치를 클라이언트에 연결합니다.

  2. 아직 수행하지 않은 경우 지속 바인딩을 사용하여 테이프 드라이브 연결 절차를 수행합니다. 그런 다음 여기로 돌아옵니다.

  3. 공유 아카이빙 파일 시스템의 메타데이터 서버에 root로 로그인합니다.

    예제에서 호스트 이름은 samsharefs-mds입니다.

    [samsharefs-mds]root@solaris:~# 
    
  4. 메타데이터 서버가 Oracle HSM Solaris 11 이상을 실행 중인지 확인합니다.

    [samsharefs-mds]root@solaris:~# uname -r
    5.11
    [samsharefs-mds]root@solaris:~# 
    
  5. datamover로 작동하는 모든 클라이언트가 Oracle HSM Solaris 11 이상을 실행 중인지 확인합니다.

    예제에서는 각 클라이언트 호스트인 samsharefs-client1samsharefs-client2에 대해 터미널 창을 열고 ssh를 사용해서 원격으로 로그인합니다. 로그인 배너에는 Solaris 버전이 표시됩니다.

    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1
    ...
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client1]root@solaris:~# 
    
    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2
    ...
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client2]root@solaris:~# 
    
  6. 메타데이터 서버에서 텍스트 편집기로 /etc/opt/SUNWsamfs/defaults.conf를 열고, distio =  라인의 주석 처리를 해제하고 값을 on으로 설정하여 분산 I/O를 사용으로 설정합니다.

    기본적으로 distiooff(사용 안함)입니다.

    예제에서는 vi 편집기에서 파일을 열고 다음 라인을 추가합니다.

    [samsharefs-mds]root@solaris:~#  vi /etc/opt/SUNWsamfs/defaults.conf 
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    ...
    distio = on
    
  7. 그런 다음, 분산 I/O에 참여해야 하는 장치 유형을 식별합니다. 분산 I/O에 dev 장치 유형을 사용하려면 defaults.conf 파일에 dev_distio = on 행을 추가합니다. 분산 I/O에서 dev 장치 유형을 제외하려면 dev_distio = off 행을 추가합니다. 파일을 저장하고 편집기를 닫습니다.

    기본적으로 Oracle HSM T10000 드라이브 및 LTO 드라이브는 분산 I/O 참여가 허용되며(ti_distio = onli_distio = on), 그 밖의 다른 유형은 제외됩니다. 예제에서는 LTO 드라이브를 제외합니다.

    [samsharefs-mds]root@solaris:~#  vi /etc/opt/SUNWsamfs/defaults.conf 
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    ...
    distio = on
    li_distio = off
    :wq
    [samsharefs-mds]root@solaris:~#  
    
  8. datamover로 작동할 각 클라이언트에서 defaults.conf 파일을 편집하여 서버의 파일과 일치하도록 합니다.

    예제에서는 samsharefs-client1 클라이언트에서 vi를 사용하여 defaults.conf 파일을 편집하고, 파일을 저장하고, 편집기를 닫습니다.

    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1
    Password:
    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf 
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    ...
    distio = on
    li_distio = off
    :wq
    [samsharefs-client1]root@solaris:~# 
    [samsharefs-mds]root@solaris:~# 
    
  9. datamover로 작동할 각 클라이언트에서 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 엽니다. 메타데이터 서버가 분산 테이프 I/O에 사용 중인 테이프 장치를 모두 추가합니다. 장치 순서 및 장비 번호가 메타데이터 서버의 mcf 파일과 동일한지 확인합니다.

    예제에서는 samsharefs-client1 클라이언트에서 vi를 사용하여 mcf 파일을 편집합니다.

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ -------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
     /dev/rmt/60cbn           901       ti                    on
     /dev/rmt/61cbn           902       ti                    on
     /dev/rmt/62cbn           903       ti                    on
     /dev/rmt/63cbn           904       ti                    on
    
  10. 메타데이터 서버의 /etc/opt/SUNWsamfs/mcf 파일에 나열된 테이프 라이브러리가 datamover로 작동할 클라이언트에 구성된 경우, 분산 테이프 I/O에 사용 중인 테이프 장치의 패밀리 세트 이름으로 라이브러리 패밀리 세트를 지정합니다. 파일을 저장합니다.

    예제에서는 라이브러리가 호스트에 구성되었으므로 테이프 장치에 패밀리 세트 이름 library1을 사용합니다.

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ -------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
    /dev/scsi/changer/c1t0d5 900       rb        library1     on     
     /dev/rmt/60cbn           901       ti        library1     on
     /dev/rmt/61cbn           902       ti        library1     on
     /dev/rmt/62cbn           903       ti        library1     on
     /dev/rmt/63cbn           904       ti        library1     on
    :wq
    [samsharefs-client1]root@solaris:~# 
     
    
  11. 메타데이터 서버의 /etc/opt/SUNWsamfs/mcf 파일에 나열된 테이프 라이브러리가 datamover로 작동할 클라이언트에 구성되지 않은 경우, 분산 테이프 I/O에 사용 중인 테이프 장치의 패밀리 세트 이름으로 하이픈(-)을 사용합니다.

    예제에서는 라이브러리가 호스트에 구성되어 있지 않습니다.

    [samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ -------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
    /dev/rmt/60cbn           901       ti        -           on
    /dev/rmt/61cbn           902       ti        -           on
    /dev/rmt/62cbn           903       ti        -           on
    /dev/rmt/63cbn           904       ti        -           on
    :wq
    [samsharefs-client2]root@solaris:~#  
    
  12. 특정 아카이브 세트 복사본에 대해 분산 테이프 I/O를 사용 또는 사용 안함으로 설정하려면 텍스트 편집기에서 서버의 /etc/opt/SUNWsamfs/archiver.cmd 파일을 열고 copy 지시어에 -distio 매개변수를 추가합니다. 분산 I/O를 사용으로 설정하려면 -distio on, 사용 안함으로 설정하려면 off를 지정합니다. 파일을 저장하고 편집기를 닫습니다.

    예제에서는 vi 편집기를 사용하여 복사본 1에 대해 분산 I/O를 off로 설정하고 복사본 2에 대해 on으로 설정합니다.

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd
    # archiver.cmd
    # Generated by config api Mon Nov 22 14:31:39 2013
    ...
    #
    # Copy Parameters Directives
    params
    allsets -sort path -offline_copy stageahead
    allsets.1 -startage 10m -startsize 500M -startcount 500000 -distio off
    allsets.2 -startage 24h -startsize 20G  -startcount 500000 -distio on
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  13. 각 호스트에서 sam-fsd 명령을 실행하여 mcf 파일 오류를 확인하고 오류가 발견되었으면 수정합니다.

    sam-fsd는 Oracle HSM 구성 파일을 읽는 초기화 명령입니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 Linux 클라이언트 sharefs-clientL에서 mcf 파일을 확인합니다.

    [sharefs-clientL][root@linux ~]# sam-fsd
    
  14. 서버에서 Oracle HSM 소프트웨어가 수정된 구성 파일을 읽고 그에 따라 재구성하도록 지시합니다. samd config 명령을 사용하고 발견된 오류를 수정합니다.

    예제에서는 sharefs-mds 서버에서 samd config 명령을 실행합니다.

    [samsharefs-mds]root@solaris:~#  samd config
    
  15. 여기서 중지합니다.

지속 바인딩을 사용하여 테이프 드라이브 연결

잠재적 메타데이터 서버 또는 분산 I/O datamover 클라이언트로 작동하는 호스트를 추가할 때는 지속 바인딩을 사용해서 이동식 매체 장치를 구성해야 합니다. Solaris 운영체제는 시작 시 장치가 검색된 순서에 따라 시스템 장치 트리에 드라이브를 연결합니다. 이 순서는 다른 파일 시스템 호스트에서 장치를 발견한 순서나 테이프 라이브러리에 장치가 물리적으로 설치된 순서를 반영할 수도 있고 그렇지 않을 수도 있습니다. 따라서 다른 호스트에 바인딩된 것과 동일한 방법 및 이동식 매체 라이브러리에 설치된 것과 동일한 순서로 새 호스트에 장치를 바인딩해야 합니다.

아래 절차는 필요한 단계를 간략히 설명합니다. 자세한 내용은 devfsadmdevlinks 매뉴얼 페이지와 Solaris 운영체제 버전의 관리 설명서를 참조하십시오.

하드웨어 구성 변경사항이 반영되도록 지속 바인딩 업데이트
  1. 활성 메타데이터 서버 호스트에 root로 로그인합니다.

    [sharefs-mds]root@solaris:~# 
    
  2. 라이브러리에 드라이브가 설치되는 순서 결정에 설명된 대로 새 드라이브 매핑 파일을 만듭니다.

    예제에서 device-mappings.txt 파일은 다음과 비슷합니다.

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    -----------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn ->  ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
    
  3. 텍스트 편집기에서 /etc/devlink.tab 파일을 엽니다.

    예제에서는 vi 편집기를 사용합니다:

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    # This is the table used by devlinks
    # Each entry should have 2 fields; but may have 3.  Fields are separated
    # by single tab ('\t') characters.
    ...
    
  4. device-mappings.txt 파일을 길잡이로 삼아 Solaris 테이프 장치 트리의 시작 노드를 라이브러리의 첫번째 드라이브에 재매핑합니다. /etc/devlink.tab 파일에서 type=ddi_byte:tape; addr=device_address,0; rmt/node-number\M0 형식의 행을 추가합니다. 여기서 device_address는 장치의 물리적 주소이고 node-number는 Solaris 장치 트리에서 위치로, Solaris에서 자동으로 구성하는 장치와 충돌하지 않도록 충분히 높은 숫자를 선택합니다(Solaris는 노드 0부터 시작함).

    예제에서 라이브러리의 첫번째 장치 1에 대한 장치 주소는 w500104f0008120fe입니다. 장치가 현재 rmt/1에서 호스트에 연결되어 있습니다.

    [sharefs-mds] vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    -----------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
    

    따라서 /etc/devlink.tab에 행을 만들어서 라이브러리의 번호 1 드라이브 w500104f0008120fermt/60을 재매핑합니다.

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    :w
    
  5. Oracle HSM 아카이빙을 위해 지정된 각 테이프 장치마다 /etc/devlink.tab 파일에 행을 계속 추가합니다. 메타데이터 서버의 장치 트리의 드라이브 순서가 라이브러리의 설치 순서와 일치하도록 합니다. 파일을 저장하고 편집기를 닫습니다.

    예제에서는 세 개의 남은 장치의 순서와 주소로 라이브러리 드라이브 2w500104f00093c438에, 라이브러리 드라이브 3w500104f000c086e1에, 라이브러리 드라이브 4w500104f000c086e1에 있습니다.

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    ...
       2    /dev/rmt/0cbn -> ../../devices/pci@8\.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8\.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8\.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8\.../st@w500104f000b6d98d,0:cbn
    

    그리고 다음 세 개의 Solaris 장치 노드에 장치 주소를 매핑하여 라이브러리와 동일한 순서가 유지되도록 합니다.

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  6. /dev/rmt의 테이프 장치에 대한 기존 링크를 모두 삭제합니다.

    [sharefs-mds]root@solaris:~# rm /dev/rmt/* 
    
  7. /etc/devlink.tab 파일의 항목으로부터 새로운 지속 테이프 장치 링크를 만듭니다. devfsadm -c tape 명령을 사용합니다.

    devfsadm 명령을 실행할 때마다 /etc/devlink.tab 파일에 지정된 구성을 사용하여 파일에 지정된 장치에 대해 새 테이프 장치 링크를 만듭니다. -c tape 옵션은 테이프 종류의 장치에만 새 링크를 만들도록 명령을 제한합니다.

    [sharefs-mds]root@solaris:~# devfsadm -c tape
    
  8. 공유 파일 시스템 구성에 있는 각 잠재적 메타데이터 서버 및 datamover에서 작업을 반복합니다. 각각의 경우에 /etc/devlink.tab 파일에 동일한 라인을 추가하고, /dev/rmt에서 링크를 삭제하고, devfsadm -c tape를 실행합니다.

    예제에서는 ssh를 사용해서 각 호스트에 교대로 로그인하고, 4개의 동일한 논리적 장치인 rmt/60\M0, rmt/61\M0, rmt/62\M0rmt/63\M0을 구성합니다.

    [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* 
    [sharefs-mds_alt]root@solaris:~# devfsadm -c tape
    [sharefs-mds_alt]root@solaris:~# exit
    sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-client1]root@solaris:~# rm /dev/rmt/*
    [sharefs-client1]root@solaris:~# devfsadm -c tape
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  9. 분산 테이프 I/O를 위한 Datamover 클라이언트 구성 또는 추가 파일 시스템 클라이언트 구성으로 돌아갑니다.

새 파일 시스템 호스트를 이동식 매체 장치에 지속적으로 바인드
  1. 호스트에 root로 로그인합니다.

    [sharefs-mds]root@solaris:~# 
    
  2. 기존 파일 시스템 호스트가 구성된 이후 매체 라이브러리에서 드라이브의 물리적 순서가 변경된 경우 라이브러리에 드라이브가 설치되는 순서 결정에 설명된 대로 새 매핑 파일을 만듭니다.

    예제에서 device-mappings.txt 파일은 다음과 비슷합니다.

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    -----------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
    
  3. 테스트 편집기에서 /etc/devlink.tab 파일을 엽니다.

    예제에서는 vi 편집기를 사용합니다.

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    # This is the table used by devlinks
    # Each entry should have 2 fields; but may have 3.  Fields are separated
    # by single tab ('\t') characters.
    ...
    
  4. device-mappings.txt 파일을 안내서로 사용해서 Solaris 테이프 장치 트리 rmt/node-number에서 시작 노드를 라이브러리의 첫번째 드라이브에 재매핑합니다. /etc/devlink.tab 파일에 type=ddi_byte:tape; addr=device_address,0; rmt/node-number\M0 형식으로 라인을 추가합니다. 여기서 device_address는 장치의 물리적 주소이고 node-number는 Solaris 장치 트리에서 장치의 위치입니다. Solaris에서 자동으로 구성하는 장치와 충돌하지 않도록 충분히 높은 숫자의 노드 번호를 선택합니다(Solaris는 노드 0부터 시작함).

    예제에서 라이브러리의 첫번째 장치 1에 대한 장치 주소는 w500104f0008120fe입니다. 장치가 현재 rmt/1에서 호스트에 연결되어 있습니다.

    [sharefs-mds] vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    -----------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
    

    따라서 /etc/devlink.tab에 행을 만들어서 라이브러리의 번호 1 드라이브 w500104f0008120fermt/60을 재매핑합니다.

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    :w
    
  5. Oracle HSM 아카이빙을 위해 지정된 각 테이프 장치마다 /etc/devlink.tab 파일에 행을 계속 추가합니다. 메타데이터 서버의 장치 트리의 드라이브 순서가 라이브러리의 설치 순서와 일치하도록 합니다. 파일을 저장합니다.

    예제에서는 세 개의 남은 장치의 순서와 주소로 라이브러리 드라이브 2w500104f00093c438에, 라이브러리 드라이브 3w500104f000c086e1에, 라이브러리 드라이브 4w500104f000c086e1에 있습니다.

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    ...
       2    /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
    

    그리고 다음 세 개의 Solaris 장치 노드에 장치 주소를 매핑하여 라이브러리와 동일한 순서가 유지되도록 합니다.

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  6. /dev/rmt의 테이프 장치에 대한 기존 링크를 모두 삭제합니다.

    [sharefs-mds]root@solaris:~# rm /dev/rmt/* 
    
  7. /etc/devlink.tab 파일의 항목으로부터 새로운 지속 테이프 장치 링크를 만듭니다. devfsadm -c tape 명령을 사용합니다.

    devfsadm 명령을 실행할 때마다 /etc/devlink.tab 파일에 지정된 구성을 사용하여 파일에 지정된 장치에 대해 새 테이프 장치 링크를 만듭니다. -c tape 옵션은 테이프 종류의 장치에만 새 링크를 만들도록 명령을 제한합니다.

    [sharefs-mds]root@solaris:~# devfsadm -c tape
    
  8. 공유 파일 시스템 구성에 있는 각 잠재적 메타데이터 서버 및 datamover에서 /etc/devlink.tab 파일에 동일한 라인을 추가하고, /dev/rmt에서 링크를 삭제하고, devfsadm -c tape를 실행합니다.

    예제에서는 ssh를 실행하여 잠재적 메타데이터 서버 호스트 sharefs-mds_alt 및 클라이언트 호스트 sharefs-client1에 로그인합니다. 그런 다음 동일한 4개의 논리적 장치 rmt/60\M0, rmt/61\M0, rmt/62\M0rmt/63\M0을 각 항목에 구성합니다.

    [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* 
    [sharefs-mds_alt]root@solaris:~# devfsadm -c tape
    [sharefs-mds_alt]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-client1]root@solaris:~# rm /dev/rmt/* 
    [sharefs-client1]root@solaris:~# devfsadm -c tape
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  9. 분산 테이프 I/O를 위한 Datamover 클라이언트 구성 또는 추가 파일 시스템 클라이언트 구성으로 돌아갑니다.

활성 메타데이터 서버에서 잠재적 메타데이터 서버로 전환

이 절의 절차는 파일 시스템의 메타데이터 서비스를 현재 호스트(활성 메타데이터 서버)에서 대기 호스트(잠재적 메타데이터 서버)로 이동하는 것입니다. 어떤 절차를 사용할지는 교체하려는 서버 호스트의 상태에 따라 다릅니다.

고장난 활성 메타데이터 서버를 교체하기 위해 잠재적 메타데이터 서버 활성화

이 절차는 작동이 중지된 활성 메타데이터 서버 호스트의 메타데이터 서비스를 밖으로 이동하는 것입니다. 파일 시스템이 여전히 마운트된 경우에도 잠재적 메타데이터 서버를 활성화합니다. 다음과 같이 하십시오.

주의:

고장난 메타데이터 서버를 중지하거나 사용 안함으로 설정하거나 연결을 끊을 때까지 절대로 잠재적 메타데이터 서버를 활성화하지 마십시오!

파일 시스템이 마운트되었고 활성 메타데이터 서버가 다운되었을 때 잠재적 서버를 활성화하려면 samsharefs 명령을 -R 옵션(파일 시스템 인터페이스가 아닌 원시 장치에서 작동)과 함께 실행해야 합니다. 따라서 고장난 서버가 여전히 장치에 연결되어 있는 동안 잠재적 메타데이터 서버를 활성화하면 고장난 서버가 파일 시스템을 손상시킬 수 있습니다.

  1. 활성 메타데이터 서버가 고장난 경우 작업을 진행하기 전에 메타데이터 장치에 액세스할 수 없는지 확인합니다. 영향을 받는 호스트의 전원을 끄거나, 호스트를 중지하거나, 메타데이터 장치에서 고장난 호스트의 연결을 끊습니다.

  2. 모든 클라이언트 읽기, 쓰기, 첨부 임대가 만료될 수 있도록 적어도 최대 임대 시간이 소진될 때까지 기다립니다.

  3. 잠재적 메타데이터 서버에 root로 로그인합니다.

    예제에서는 잠재적 메타데이터 서버 sharefs-mds_alt에 로그인합니다.

    [sharefs-mds_alt]root@solaris:~# 
    
  4. 잠재적 메타데이터 서버를 활성화합니다. 잠재적 메타데이터 서버에서 samsharefs -R -s server file-system 명령을 실행합니다. 여기서 server는 잠재적 메타데이터 서버의 호스트 이름이고 file-system은 Oracle HSM 공유 파일 시스템의 이름입니다.

    예제에서 잠재적 메타데이터 서버는 sharefs-mds_alt, 파일 시스템 이름은 sharefs입니다.

    [sharefs-mds_alt]root@solaris:~# samsharefs -R -s sharefs-mds_alt sharefs
    
  5. 파일 시스템의 무결성을 검사하고 가능한 문제점을 교정해야 하는 경우 공유 파일 시스템 마운트 해제 절차를 사용하여 지금 파일 시스템을 마운트 해제합니다.

  6. 파일 시스템을 마운트 해제했으면 파일 시스템 검사를 수행합니다. samfsck -F file-system 명령을 사용합니다. 여기서 -F는 오류 교정을 지정하고 file-system은 파일 시스템의 이름입니다.

    예제에서는 파일 시스템 이름이 sharefs인지 검사하고 오류를 교정합니다.

    [sharefs-mds_alt]root@solaris:~# samfsck -F sharefs
    
  7. 여기서 중지합니다.

건강한 활성 메타데이터 서버를 교체하기 위해 잠재적 메타데이터 서버 활성화

필요한 경우 건강한 활성 메타데이터 서버 호스트의 메타데이터 서비스를 새로 활성화된 잠재적 메타데이터 서버로 이동할 수 있습니다. 예를 들어, 원래 서버 호스트 또는 일부 구성 요소를 업그레이드하거나 교체하는 동안, 파일 시스템의 가용성을 유지하기 위해 대체 호스트로 메타데이터 서비스를 전송할 수 있습니다. 다음과 같이 하십시오.

  1. 활성/잠재적 메타데이터 서버에 root로 로그인합니다.

    예제에서는 활성 메타데이터 서버 sharefs-mds에 로그인합니다. 그리고 두번째 단말기 창에서 보안 셸(ssh)을 사용하여 잠재적 메타데이터 서버 sharefs-mds_alt에 로그인합니다.

    [sharefs-mds]root@solaris:~# 
    
    [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
    Password:
    [sharefs-mds-alt]root@solaris:~# 
    
  2. 활성 메타데이터 서버가 Oracle HSM 아카이빙 파일 시스템을 마운트하는 경우 활성 아카이빙 및 스테이징 작업을 마치고 더 진행하기 전에 새로운 작동을 중지합니다. 아카이빙 및 스테이징 프로세스 유휴 설정을 참조하십시오.

  3. 활성 메타데이터 서버가 Oracle HSM 아카이빙 파일 시스템을 마운트하는 경우 이동식 매체 드라이브를 유휴 설정하고 라이브러리 제어 데몬을 중지합니다. 아카이빙 및 스테이징 프로세스 중지를 참조하십시오.

  4. crontab 항목을 사용하여 리사이클러 프로세스를 실행하는 경우 항목을 제거하고 리사이클러가 현재 실행 중이 아닌지 확인합니다.

  5. 잠재적 메타데이터 서버를 활성화합니다. 잠재적 메타데이터 서버에서 samsharefs -s server file-system 명령을 실행합니다. 여기서 server는 잠재적 메타데이터 서버의 호스트 이름이고 file-system은 Oracle HSM 공유 파일 시스템의 이름입니다.

    예제에서 잠재적 메타데이터 서버는 sharefs-mds_alt, 파일 시스템 이름은 sharefs입니다.

    [sharefs-mds_alt]root@solaris:~# samsharefs -s sharefs-mds_alt sharefs
    
  6. 구성 파일을 로드하고 잠재적 메타데이터 서버에서 Oracle HSM 프로세스를 시작합니다. samd config 명령을 사용합니다.

    아카이빙 공유 파일 시스템의 경우 samd config 명령이 아카이빙 프로세스와 라이브러리 제어 데몬을 다시 시작합니다. 그러나 테이프에서 주 디스크 캐시로 파일이 스테이지되기를 기다리는 공유 파일 시스템 클라이언트의 경우 스테이지 요청을 다시 실행해야 합니다.

  7. 여전히 crontab 항목을 사용하여 리사이클러 프로세스를 실행해야 하는 경우 항목을 복원합니다.

  8. 여기서 중지합니다.

비공유 파일 시스템을 공유 파일 시스템으로 변환

비공유 파일 시스템을 공유 파일 시스템으로 변환하려면 다음 작업을 수행합니다.

활성/잠재적 메타데이터 서버에 호스트 파일 만들기

각 메타데이터 서버에서 공유 파일 시스템의 서버 및 클라이언트에 대한 네트워크 주소 정보를 나열하는 hosts 파일을 만들어야 합니다. hosts 파일은 /etc/opt/SUNWsamfs/ 디렉토리에 mcf 파일과 나란히 저장됩니다. 공유 파일 시스템의 초기 생성 중 sammkfs -S 명령은 이 파일에 저장된 설정을 사용하여 공유를 구성합니다. 따라서 아래 절차를 사용하여 지금 만듭니다.

  1. 클라이언트로서 파일 시스템을 공유할 호스트에 대한 네트워크 호스트 이름과 IP 주소를 수집합니다.

    아래 예제에서는 hsmfs1 파일 시스템을 클라이언트 hsmfs1-mds_alt(잠재적 메타데이터 서버), hsmfs1-client1, hsmfs1-client2와 공유합니다.

  2. 메타데이터 서버에 root로 로그인합니다.

    예제에서는 hsmfs1-mds 호스트에 로그인합니다.

    [hsmfs1-mds]root@solaris:~# 
    
  3. 텍스트 편집기를 사용하여 메타데이터 서버에 /etc/opt/SUNWsamfs/hosts.family-set-name 파일을 만듭니다. family-set-name은 공유할 파일 시스템의 패밀리 세트 이름으로 바뀝니다.

    예제에서는 vi 텍스트 편집기를 사용하여 hosts.hsmfs1 파일을 만듭니다. 몇 가지 선택적 머리글을 추가하고, 각 라인은 주석을 나타내는 해시 기호(#)로 시작합니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    
  4. 첫번째 열에 메타데이터 서버의 호스트 이름을 입력하고 두번째 열에는 해당 IP 주소 또는 도메인 이름을 입력합니다. 열을 공백 문자로 구분합니다.

    예제에서는 메타데이터 서버의 호스트 이름 및 IP 주소를 각각 hsmfs1-mds10.79.213.117로 입력합니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.117
    
  5. 네트워크 주소와 공백 문자로 구분된 세번째 열을 추가합니다. 이 열에서 서버의 순서 번호를 입력합니다(활성 메타데이터 서버는 1, 첫번째 잠재적 메타데이터 서버는 2 등등).

    이 예제에서는 메타데이터 서버가 하나뿐이므로 1을 입력합니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.117           1       
    
  6. 공백 문자로 서버 순서 번호와 구분된 네번째 열을 추가합니다. 이 열에서 0(제로)을 입력합니다.

    네번째 열의 0, -(하이픈) 또는 공백 값은 호스트가 on으로 구성되었고 공유 파일 시스템에 액세스할 수 있음을 나타냅니다. 1(숫자 일)은 호스트가 off로 구성되었지만 파일 시스템에 액세스할 수 없음을 나타냅니다. 공유 파일 시스템을 관리할 때 해당 값 사용에 대한 자세한 내용은 samhsmfs1 매뉴얼 페이지를 참조하십시오.

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds          10.79.213.117            1        0    
    
  7. 공백 문자로 설정/해제 상태 열과 구분된 다섯번째 열을 추가합니다. 이 열에서 현재 활성 메타데이터 서버를 나타내는 server 키워드를 입력합니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.117           1        0    server 
    
  8. 하나 이상의 호스트를 잠재적 메타데이터 서버로 포함하려면 각각 항목을 만듭니다. 매번 서버 순서를 증분합니다. 그러나 server 키워드는 포함하지 마십시오(파일 시스템당 하나의 활성 메타데이터 서버만 가능).

    예제에서는 hsmfs1-mds_alt 호스트가 서버 순서 2를 가진 잠재적 메타데이터 서버입니다. 메타데이터 서버로 활성활 때까지는 클라이언트로 유지됩니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.117           1        0    server 
    hsmfs1-mds_alt       10.79.213.217           2        0   
    
  9. 각 클라이언트 호스트마다 서버 순서 값 0과 함께 행을 추가합니다.

    서버 순서 0은 호스트를 클라이언트로 식별합니다. 예제에서는 두 개의 클라이언트 hsmfs1-client1hsmfs1-client2를 추가합니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.17            1        0    server 
    hsmfs1-mds_alt       10.79.213.7             2        0   
    hsmfs1-client1       10.79.213.33            0        0
    hsmfs1-client2       10.79.213.47            0        0
    
  10. /etc/opt/SUNWsamfs/hosts.family-set-name 파일을 저장하고 편집기를 종료합니다.

    예제에서는 /etc/opt/SUNWsamfs/hosts.hsmfs1에 대한 변경사항을 저장하고 vi 편집기를 종료합니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.117           1        0    server 
    hsmfs1-mds           10.79.213.117           1        0    server 
    hsmfs1-mds_alt       10.79.213.217           2        0
    hsmfs1-client1       10.79.213.133           0        0
    hsmfs1-client2       10.79.213.147           0        0
    :wq
    [hsmfs1-mds]root@solaris:~# 
    
  11. 공유 파일 시스템 구성에 포함될 잠재적 메타데이터 서버에 새 파일 /etc/opt/SUNWsamfs/hosts.family-set-name의 복사본을 배치합니다.

    예제에서는 hsmfs1-mds_alt 호스트에 복사본을 배치합니다.

    [hsmfs1-mds]root@solaris:~# sftp root@hsmfs1-mds_alt
    Password:
    sftp> cd /etc/opt/SUNWsamfs/
    sftp> put /etc/opt/SUNWsamfs/hosts.hsmfs1
    sftp> bye
    [hsmfs1-mds]root@solaris:~# 
    
  12. 이제 비공유 파일 시스템 공유 및 클라이언트 구성을 수행합니다.

비공유 파일 시스템 공유 및 클라이언트 구성

  1. 메타데이터 서버에 root로 로그인합니다.

    예제에서는 hsmfs1-mds 호스트에 로그인합니다.

    [hsmfs1-mds]root@solaris:~# 
    
  2. 현재 시스템 파일과 구성 파일의 백업 복사본이 없다면 지금 백업을 만듭니다. Oracle HSM 구성 백업을 참조하십시오.

  3. 현재 파일 시스템 복구 지점 파일과 최근 아카이브 로그 복사본이 없다면 지금 만듭니다. 파일 시스템 백업을 참조하십시오.

    초기 구성 중 파일 시스템에 대한 자동 백업 프로세스를 설정한 경우 추가 백업이 필요하지 않을 수도 있습니다.

  4. 아카이빙 파일 시스템을 변환하는 경우 활성 아카이빙 및 스테이징 작업을 마치고 더 진행하기 전에 새로운 작동을 중지합니다. 아카이빙 및 스테이징 프로세스 유휴 설정아카이빙 및 스테이징 프로세스 중지를 참조하십시오.

  5. 파일 시스템을 마운트 해제합니다. umount family-set-name 명령을 사용합니다. 여기서 family-set-name은 공유할 파일 시스템의 패밀리 세트 이름입니다.

    Oracle HSM 파일 시스템 마운트 및 마운트 해제에 대한 자세한 내용은 mount_samfs 매뉴얼 페이지를 참조하십시오. 예제에서는 hsmfs1 파일 시스템을 마운트 해제합니다.

    [hsmfs1-mds]root@solaris:~# umount hsmfs1
    [hsmfs1-mds]root@solaris:~# 
    
  6. 파일 시스템을 Oracle HSM 공유 파일 시스템으로 변환합니다. samfsck -S -F file-system-name 명령을 사용합니다. 여기서 file-system-name은 파일 시스템의 패밀리 세트 이름입니다.

    예제에서는 hsmfs1이라는 파일 시스템을 변환합니다.

    [hsmfs1-mds]root@solaris:~# samfsck -S -F hsmfs1
    
  7. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 파일 시스템 행을 찾습니다.

    예제에서는 vi 편집기를 사용합니다:

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family   Device   Additional
    # Identifier         Ordinal    Type       Set      State    Parameters
    #------------------  ---------  ---------  -------  ------   -----------------
    hsmfs1              200        ma         hsmfs1  on
     /dev/dsk/c0t0d0s0    201        mm         hsmfs1  on
     /dev/dsk/c0t3d0s0    202        md         hsmfs1  on
     /dev/dsk/c0t3d0s1    203        md         hsmfs1  on
    
  8. mcf 파일에서 파일 시스템 항목의 마지막 열인 Additional Parameters 필드에 shared 매개변수를 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family   Device   Additional
    # Identifier         Ordinal    Type       Set      State    Parameters
    #------------------  ---------  ---------  -------  ------   -----------------
    hsmfs1              200        ma         hsmfs1  on       shared
     /dev/dsk/c0t0d0s0    201        mm         hsmfs1  on
     /dev/dsk/c0t3d0s0    202        md         hsmfs1  on
     /dev/dsk/c0t3d0s1    203        md         hsmfs1  on
    :wq
    [hsmfs1-mds]root@solaris:~# 
    
  9. 텍스트 편집기에서 /etc/vfstab 파일을 열고 파일 시스템 행을 찾습니다.

    이 예에서는 vi 편집기를 사용합니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/vfstab 
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    hsmfs1    -        /hsm/hsmfs1  samfs   -     yes
    
  10. /etc/vfstab 파일에서 파일 시스템 항목의 마지막 열인 Mount Options 필드에 shared 마운트 옵션을 추가합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/vfstab 
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    hsmfs1    -        /hsm/hsmfs1  samfs   -     yes      shared      
    :wq
    [hsmfs1-mds]root@solaris:~# 
    
  11. 공유 파일 시스템 및 호스트 구성을 초기화합니다. samsharefs -u -R family-set-name 명령을 사용합니다. 여기서 family-set-name은 파일 시스템의 패밀리 세트 이름입니다.

    [hsmfs1-mds]root@solaris:~# samsharefs -u -R hsmfs1
    
  12. Oracle HSM 소프트웨어에 mcf 파일을 다시 읽고 그에 따라 재구성하도록 지시합니다.

    [hsmfs1-mds]root@solaris:~# samd config
    
  13. 메타데이터 서버에 공유 파일 시스템을 마운트합니다.

    [hsmfs1-mds]root@solaris:~# mount /hsm/hsmfs1
    
  14. 호스트가 다중 네트워크 인터페이스로 구성된 경우 로컬 hosts 파일을 사용하여 네트워크 통신 경로 지정을 참조하십시오.

  15. 추가 파일 시스템 클라이언트 구성에 설명된 절차를 사용하여 새로 공유된 파일 시스템에 필요한 클라이언트를 추가합니다.

로컬 hosts 파일을 사용하여 네트워크 통신 경로 지정

개별 호스트에는 로컬 hosts 파일이 필요 없습니다. 메타데이터 서버에서 파일 시스템의 전역 파일은 모든 파일 시스템 호스트에 대한 활성 메타데이터 서버와 활성/잠재적 메타데이터 서버의 네트워크 인터페이스를 식별합니다(활성/잠재적 메타데이터 서버에 호스트 파일 만들기 참조). 그러나 다중 네트워크 인터페이스가 설치된 파일 시스템 호스트 간에 선택적으로 네트워크 트래픽 경로를 지정해야 하는 경우 로컬 hosts 파일이 유용할 수 있습니다.

각 파일 시스템 호스트는 메타데이터 서버에서 먼저 /etc/opt/SUNWsamfs/hosts.family-set-name 파일을 확인하여 다른 호스트에 대한 네트워크 인터페이스를 식별합니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에 지정된 파일 시스템 패밀리의 이름입니다. 그런 다음 고유의 특정 /etc/opt/SUNWsamfs/hosts.family-set-name.local 파일이 있는지 확인합니다. 로컬 hosts 파일이 없는 경우 전역 hosts 파일에 지정된 인터페이스 주소를 전역 파일에 지정된 순서대로 사용합니다. 그러나 로컬 hosts 파일이 있는 경우 로컬 파일을 전역 파일과 비교하여 양쪽 파일에 나열된 인터페이스만 로컬 파일에 지정된 순서대로 사용합니다. 따라서 각 파일에 다른 주소를 사용하여 다양한 호스트에서 사용되는 인터페이스를 제어할 수 있습니다.

로컬 hosts 파일을 구성하려면 아래 설명된 절차를 사용하십시오.

  1. 메타데이터 서버 호스트와 각 잠재적 메타데이터 서버 호스트에서 활성/잠재적 메타데이터 서버에 호스트 파일 만들기에 설명된 대로 전역 hosts 파일 /etc/opt/SUNWsamfs/hosts.family-set-name의 복사본을 만듭니다.

    이 절의 예제에서는 공유 파일 시스템 sharefs2에 활성 메타데이터 서버 sharefs2-mds 및 잠재적 메타데이터 서버 sharefs2-mds_alt가 각각 두 네트워크 인터페이스로 포함됩니다. 두 개의 클라이언트 sharefs2-client1sharefs2-client2도 있습니다.

    활성/잠재적 메타데이터 서버에서 개인 네트워크 주소를 통해 서로 통신하고, DNS(도메인 이름 서비스)가 공용 LAN(근거리 통신망) 주소로 분석할 수 있는 호스트 이름을 통해 클라이언트와 통신하려고 합니다. 따라서 파일 시스템의 전역 호스트 파일인 /etc/opt/SUNWsamfs/hosts.sharefs2nicsNetwork Interface 필드에 활성/잠재적 서버 항목의 개인 네트워크 주소와 각 클라이언트의 인터페이스 주소 호스트 이름을 지정합니다. 파일은 다음과 같이 같습니다.

    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs2-mds          172.16.0.129            1        0    server 
    sharefs2-mds_alt      172.16.0.130            2        0   
    sharefs2-client1      sharefs2-client1        0        0
    sharefs2-client2      sharefs2-client2        0        0
    
  2. 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.family-set-name.local을 사용해서 각 활성 및 잠재적 메타데이터 서버에 로컬 hosts 파일을 만듭니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 공유 파일 시스템에 대해 지정된 이름입니다. 활성/잠재적 서버에서 사용할 네트워크 인터페이스만 포함하십시오.

    예제에서는 활성 및 잠재적 메타데이터 서버가 개인 네트워크를 통해 서로 통신하도록 해야 하므로, 각 서버의 로컬 hosts 파일 hosts.sharefs2.local에는 활성 및 잠재적 서버에 대한 개인 주소만 나열됩니다.

    [sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs2-mds          172.16.0.129            1        0    server 
    sharefs2-mds_alt      172.16.0.130            2        0  
    :wq
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt
    Password:
    
    [sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs2-mds          172.16.0.129            1        0    server 
    sharefs2-mds_alt      172.16.0.130            2        0   
    :wq
    [sharefs2-mds_alt]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  3. 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.family-set-name.local을 사용해서 각 클라이언트에 로컬 hosts 파일을 만듭니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 공유 파일 시스템에 대해 지정된 이름입니다. 클라이언트에서 사용할 네트워크 인터페이스만 포함하십시오.

    예제에서는 클라이언트가 공용 네트워크를 통해서만 서버와 통신합니다. 따라서 파일에는 활성/잠재적 메타데이터 서버의 호스트 이름만 포함됩니다.

    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1
    Password:
    [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs2-mds          sharefs2-mds            1        0    server 
    sharefs2-mds_alt      sharefs2-mds_alt        2        0   
    :wq
    [sharefs2-client1]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2
    Password:
    
    [sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs2-mds          sharefs2-mds            1        0    server
    sharefs2-mds_alt      sharefs2-mds_alt        2        0   
    :wq
    [sharefs2-client2]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  4. 서버 구성을 마치는 동안 이 절차를 시작한 경우 클라이언트를 추가합니다. 추가 파일 시스템 클라이언트 구성으로 이동합니다.

공유 파일 시스템을 비공유 파일 시스템으로 변환

파일 시스템 공유를 취소해야 하는 경우 다음과 같이 하십시오.

공유 메타데이터 서버를 비공유 시스템으로 변환

  1. 메타데이터 서버에 root로 로그인합니다.

    예제에서는 hsmfs1-mds 호스트에 로그인합니다.

    [hsmfs1-mds]root@solaris:~# 
    
  2. 파일 시스템 호스트 파일에서 호스트 제거 절차를 사용하여 메타데이터 서버 구성에서 클라이언트를 제거합니다.

  3. 현재 시스템 파일과 구성 파일의 백업 복사본이 없다면 지금 백업을 만듭니다. Oracle HSM 구성 백업을 참조하십시오.

  4. 현재 파일 시스템 복구 지점 파일과 최근 아카이브 로그 복사본이 없다면 지금 만듭니다. 파일 시스템 백업을 참조하십시오.

    초기 구성 중 파일 시스템에 대한 자동 백업 프로세스를 설정한 경우 추가 백업이 필요하지 않을 수도 있습니다.

  5. 아카이빙 파일 시스템을 변환하는 경우 활성 아카이빙 및 스테이징 작업을 마치고 더 진행하기 전에 새로운 작동을 중지합니다. 아카이빙 및 스테이징 프로세스 유휴 설정아카이빙 및 스테이징 프로세스 중지를 참조하십시오.

  6. 파일 시스템을 마운트 해제합니다. umount family-set-name 명령을 사용합니다. 여기서 family-set-name/etc/opt/SUNWsamfs/mcf 파일에서 공유 파일 시스템에 대해 지정된 이름입니다.

    Oracle HSM 파일 시스템 마운트 및 마운트 해제에 대한 자세한 내용은 mount_samfs 매뉴얼 페이지를 참조하십시오. 예제에서는 hsmfs1 파일 시스템을 마운트 해제합니다.

    [hsmfs1-mds]root@solaris:~# umount hsmfs1
    
  7. Oracle HSM 공유 파일 시스템을 비공유 파일 시스템으로 변환합니다. samfsck -F -U file-system-name 명령을 사용합니다. 여기서 file-system-name/etc/opt/SUNWsamfs/mcf 파일에서 공유 파일 시스템에 대해 지정된 이름입니다.

    예제에서는 hsmfs1이라는 파일 시스템을 변환합니다.

    [hsmfs1-mds]root@solaris:~# samfsck -F -U hsmfs1
    
  8. 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 파일 시스템 행을 찾습니다.

    예제에서는 vi 편집기를 사용합니다:

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family   Device   Additional
    # Identifier         Ordinal    Type       Set      State    Parameters
    #------------------  ---------  ---------  -------  ------   -----------------
    hsmfs1              200        ma         hsmfs1  on       shared
     /dev/dsk/c0t0d0s0    201        mm         hsmfs1  on
     /dev/dsk/c0t3d0s0    202        md         hsmfs1  on
     /dev/dsk/c0t3d0s1    203        md         hsmfs1  on
    
  9. mcf 파일에서 파일 시스템 항목의 마지막 열인 Additional Parameters 필드에서 shared 매개변수를 삭제합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family   Device   Additional
    # Identifier         Ordinal    Type       Set      State    Parameters
    #------------------  ---------  ---------  -------  ------   -----------------
    hsmfs1              200        ma         hsmfs1  on       
     /dev/dsk/c0t0d0s0    201        mm         hsmfs1  on
     /dev/dsk/c0t3d0s0    202        md         hsmfs1  on
     /dev/dsk/c0t3d0s1    203        md         hsmfs1  on
    :wq
    [hsmfs1-mds]root@solaris:~# 
    
  10. 텍스트 편집기에서 /etc/vfstab 파일을 열고 파일 시스템 행을 찾습니다.

    예제에서는 vi 편집기를 사용합니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/vfstab 
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    hsmfs1    -        /hsm/hsmfs1  samfs   -     yes      shared
    
  11. /etc/vfstab 파일에서 파일 시스템 항목의 마지막 열에 있는 마운트 옵션 필드에서 shared 마운트 옵션을 삭제합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    이 예에서는 vi 편집기를 사용합니다.

    [hsmfs1-mds]root@solaris:~# vi /etc/vfstab 
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    hsmfs1    -        /hsm/hsmfs1  samfs   -     yes
    :wq
    [hsmfs1-mds]root@solaris:~# 
    
  12. /etc/opt/SUNWsamfs/hosts.file-system-name 파일을 삭제합니다.

  13. Oracle HSM 소프트웨어에 mcf 파일을 다시 읽고 그에 따라 재구성하도록 지시합니다.

    [hsmfs1-mds]root@solaris:~# samd config
    
  14. 파일 시스템을 마운트합니다.

    [hsmfs1]root@solaris:~# mount /hsm/hsmfs1
    
  15. 여기서 중지합니다.