7 여러 호스트에서 파일 시스템 액세스

여러 호스트에서 Oracle HSM 파일 시스템을 다양한 방법으로 공유할 수 있습니다. 특정 상황에서 강점을 나타내는 방법이 다른 상황에서 심각한 단점을 나타낼 수도 있습니다. 따라서 요구 사항에 따라 다른 방법을 선택해야 합니다. 공유 방법은 다음과 같습니다.

Oracle HSM 소프트웨어를 사용하여 여러 호스트에서 파일 시스템 액세스

Oracle HSM를 사용하면 하나 이상의 클라이언트와 서버에서 파일 시스템을 동시에 마운트하도록 구성하여 여러 호스트에서 파일 시스템을 사용할 수 있습니다. 그러면 NFS 및 CIFS 공유와 관련한 네트워크 및 중간 서버 대기 시간 없이 고성능 로컬 경로 I/O를 통해 디스크 장치에서 호스트로 직접 파일 데이터를 전달합니다. 호스트는 한 번에 하나만 메타데이터 서버로 활성화될 수 있지만, 중복성을 위해 원하는 만큼의 클라이언트를 잠재적 메타데이터 서버로 구성할 수 있습니다. 파일 시스템 마운트 지점 수에는 제한이 없습니다.

Oracle HSM은 아카이빙에 상관없이 다중 읽기/단일 쓰기 구성과 공유 구성 모두에서 고성능(ma) 파일 시스템과 범용(ms) 파일 시스템 모두에 대한 다중 호스트 액세스를 지원합니다. 몇 가지 제한이 있습니다.

  • 블록(b–) 특수 파일은 지원되지 않습니다.

  • 문자(c–) 특수 파일은 지원되지 않습니다.

  • FIFO 명명된 파이프(p–) 특수 파일은 지원되지 않습니다.

  • 세그먼트된 파일은 지원되지 않습니다.

    세그먼트된 파일 환경에서는 Oracle HSM 공유 파일 시스템을 구현할 수 없습니다.

  • 필수 잠금은 지원되지 않습니다.

    필수 잠금을 설정한 경우 EACCES 오류가 반환됩니다. 잠금 권고는 지원됩니다. 잠금 권고에 대한 자세한 내용은 fcntl 매뉴얼 페이지를 참조하십시오.

Oracle HSM 소프트웨어 호스트는 주어진 응용 프로그램에서 각각 고유한 장점과 제한 사항이 있는 두 구성 중 하나를 사용하여 파일 시스템 데이터에 액세스할 수 있습니다.

다중 읽기, 단일 쓰기 구성에서 단일 호스트는 읽기/쓰기 권한이 있는 파일 시스템을 호스트하고 모든 다른 호스트는 읽기 전용 파일 시스템을 호스트합니다. 구성은 단순히 마운트 옵션을 설정하는 것입니다. 단일 호스트에서 파일에 대한 모든 변경을 수행하는 경우 추가적인 파일 잠금이나 일관성 검사 없이도 파일 일관성과 데이터 무결성이 보장됩니다. 최적의 성능을 위해 모든 호스트에서 디스크의 데이터를 직접 읽고 메타데이터도 읽습니다. 하지만 모든 호스트에서 파일 시스템 메타데이터에 액세스할 수 있어야 하므로, ma 파일 시스템의 모든 호스트가 데이터와 메타데이터 장치 모두에 액세스할 수 있어야 합니다.

공유 구성에서는 모든 호스트가 임대를 사용하여 파일 데이터를 읽고, 쓰고, 추가할 수 있습니다. 임대는 단일 호스트에서 지정된 기간 동안 지정된 방법으로 파일에 액세스할 수 있도록 허용하는 기능입니다. 메타데이터 서버는 읽기, 쓰기추가 임대를 발급하고 충돌하는 임대 요청과 갱신을 관리합니다. 공유 파일 시스템은 융통성을 확대하지만, 구성이 복잡하고 많은 파일 시스템 오버헤드를 발생합니다. 모든 호스트는 디스크에서 직접 파일 데이터를 읽지만, 클라이언트는 네트워크를 통해 메타데이터에 액세스합니다. 따라서 메타데이터 장치에 액세스할 수 없는 클라이언트는 ma 파일 시스템을 공유할 수 있습니다.

여러 호스트에서 데이터 액세스를 구성하려면 다음 두 가지 접근법 중 하나를 선택하십시오.

Oracle HSM 단일 쓰기, 다중 읽기 파일 시스템 구성

단일 쓰기, 다중 읽기 파일 시스템을 구성하려면 다음 작업을 수행합니다.

쓰기 장치에서 파일 시스템 만들기

다음과 같이 하십시오.

  1. root 계정을 사용하여 writer 역할을 하는 호스트에 로그인합니다.

    예제에서 writer 호스트 이름은 swriterfs-mds-writer로 지정됩니다.

    [swriterfs1-mds-writer]root@solaris:~# 
    
  2. writer 역할을 하는 호스트에서 /etc/opt/SUNWsamfs/mcf 파일을 텍스트 편집기에서 열고 QFS 파일 시스템을 추가합니다. 범용 ms 또는 고성능 ma 파일 시스템을 구성할 수 있습니다.

    별도의 메타데이터 장치를 포함하는 ma 파일 시스템에서, 파일 시스템에 대한 메타데이터 서버를 쓰기 장치로 구성합니다. 아래 예제에서는 vi 텍스트 편집기를 사용하여 swriterfs1-mds-writer 호스트의 mcf 파일을 편집합니다. 예제에서는 장비 식별자 및 패밀리 세트 이름 swriterfs1 및 장비 순서 번호 300을 사용하여 ma 파일 시스템을 지정합니다.

    [swriterfs1-mds-writer]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family      Device   Additional
    # Identifier         Ordinal    Type       Set         State    Parameters
    #------------------  ---------  ---------  ---------   ------   ---------------
    swriterfs1           300        ma         swriterfs1  on       
     /dev/dsk/c0t0d0s0    301        mm         swriterfs1  on
     /dev/dsk/c0t3d0s0    302        mr         swriterfs1  on
     /dev/dsk/c0t3d0s1    303        mr         swriterfs1  on
    
  3. /etc/opt/SUNWsamfs/mcf 파일을 저장하고 편집기를 종료합니다.

    예제에서는 변경사항을 저장하고 vi 편집기를 종료합니다.

    # Equipment          Equipment  Equipment  Family      Device   Additional
    # Identifier         Ordinal    Type       Set         State    Parameters
    #------------------  ---------  ---------  ---------   ------   ---------------
    swriterfs1           300        ma         swriterfs1  on  
     /dev/dsk/c0t0d0s0    301        mm         swriterfs1  on
     /dev/dsk/c0t3d0s0    302        mr         swriterfs1  on
     /dev/dsk/c0t3d0s1    303        mr         swriterfs1  on
    :wq
    [swriterfs1-mds-writer]root@solaris:~# 
    
  4. sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 오류가 발견되면 실행을 중지합니다.

    [swriterfs1-mds-writer]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [swriterfs1-mds-writer]root@solaris:~# 
    
  5. Oracle HSM 서비스에 mcf 파일을 다시 읽고 그에 따라 재구성하도록 지시합니다. samd config 명령을 사용합니다.

    [swriterfs1-mds-writer]root@solaris:~# samd config
    Configuring SAM-FS
    [swriterfs1-mds-writer]root@solaris:~# 
    
  6. 고성능 ma 파일 시스템 구성에 설명한 대로 sammkfs 명령과 파일 시스템의 패밀리 세트 이름을 사용하여 파일 시스템을 만듭니다.

    예제에 사용된 명령은 단일 쓰기/다중 읽기 파일 시스템 swriterfs1을 만듭니다.

    [swriterfs1-mds-writer]root@solaris:~# sammkfs swriterfs1
    Building 'swriterfs1' will destroy the contents of devices:
      /dev/dsk/c0t0d0s0
      /dev/dsk/c0t3d0s0
      /dev/dsk/c0t3d0s1
    Do you wish to continue? [y/N]yes ...
    
  7. 운영체제의 /etc/vfstab 파일을 백업합니다.

    [swriterfs1-mds-writer]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [swriterfs1-mds-writer]root@solaris:~# 
    
  8. 고성능 ma 파일 시스템 구성에 설명한 대로 운영체제의 /etc/vfstab 파일에 새 파일 시스템을 추가합니다.

    예제에서는 /etc/vfstab 파일을 vi 텍스트 편집기에서 열고 swriterfs1 패밀리 세트 장치에 대한 행을 추가합니다.

    [swriterfs1-mds-writer]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no
           
    
  9. /etc/vfstab 파일의 Mount Options 열에 writer 마운트 옵션을 입력합니다.

    주의:

    한 번에 하나의 호스트만 writer 역할을 하도록 합니다. writer 옵션을 사용하여 여러 호스트에서 다중 읽기, 단일 쓰기 파일 시스템을 마운트하도록 허용하면 파일 시스템이 손상될 수 있습니다.
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer
    
  10. /etc/vfstab 파일에 다른 원하는 변경을 수행합니다. 콤마를 구분자로 사용하여 마운트 옵션을 추가합니다.

    예를 들어, 첫번째 시도가 실패할 경우 백그라운드에서 파일 시스템을 마운트하려면 Mount Options 필드에 bg 마운트 옵션을 추가합니다. 사용 가능한 전체 마운트 옵션 목록은 mount_samfs 매뉴얼 페이지를 참조하십시오.

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg
    
  11. /etc/vfstab 파일을 저장하고 편집기를 종료합니다.

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg      
    :wq
    [swriterfs1-mds-writer]root@solaris:~# 
    
  12. /etc/vfstab 파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.

    마운트 지점 권한이 모든 호스트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템에서 파일에 액세스하려면 실행(x) 권한이 있어야 합니다. 예제에서는 /swriterfs1 마운트 지점 디렉토리를 만들고 755(-rwxr-xr-x)로 권한을 설정합니다.

    [swriterfs1-mds-writer]root@solaris:~# mkdir /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# chmod 755 /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# 
    
  13. 새 파일 시스템을 마운트합니다.

    [swriterfs1-mds-writer]root@solaris:~# mount /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# 
    
  14. 공유 파일 시스템이 만들어졌으면 읽기 장치 구성을 수행합니다.

읽기 장치 구성

읽기 장치는 파일 시스템을 읽기 전용으로 마운트하는 호스트입니다. 읽기 장치로 구성하는 각 호스트에 대해 다음과 같이 하십시오.

  1. 호스트에 root로 로그인합니다.

    예제에서 reader 호스트 이름은 swriterfs-reader1]로 지정됩니다.

    [swriterfs-reader1]root@solaris:~# 
    
  2. 단말기 창에서 samfsconfig device-path 명령을 사용하여 다중 읽기, 단일 쓰기 파일 시스템에 대한 구성 정보를 검색합니다. 여기서 device-path는 이 명령이 파일 시스템 디스크 장치 검색을 시작해야 하는 위치입니다(예: /dev/dsk/*).

    samfsconfig 유틸리티는 sammkfs가 Oracle HSM 파일 시스템에 포함된 각 장치에 쓰는 식별 수퍼 블록을 읽고 파일 시스템 구성 정보를 검색합니다. 이 명령은 현재 호스트에서 시작하여 구성의 각 장치에 대한 올바른 경로를 반환하고 연결할 수 없는 장치를 플래그합니다. 명령 구문과 매개변수에 대한 자세한 내용은 samfsconfig 매뉴얼 페이지를 참조하십시오.

    장치 경로가 swriterfs1-reader1 호스트부터 지정된다는 점만 제외하고, 예제의 samfsconfig 출력에는 swriterfs1-mds-writermcf 파일에 나열된 것과 동일한 장비가 표시됩니다.

    [swriterfs1-reader1]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'swriterfs1' Created Thu Nov 21 07:17:00 2013
    # Generation 0 Eq count 4 Eq meta count 1
    #
    sharefs              300        ma         sharefs   -        
     /dev/dsk/c1t0d0s0    301        mm         sharefs   -
     /dev/dsk/c1t3d0s0    302        mr         sharefs   -
     /dev/dsk/c1t3d0s1    303        mr         sharefs   -
    
  3. samfsconfig 출력에서 공유 파일 시스템 항목을 복사합니다. 그리고 두번째 창에서, 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 복사한 항목을 파일로 붙여넣습니다.

    또는 samfsconfig의 출력을 mcf 파일로 재지정할 수 있습니다. 또는 samd buildmcf 명령을 사용하여 samfsconfig를 실행하고 클라이언트 mcf 파일을 자동으로 만들 수 있습니다.

    예제에서 주석 처리된 열 머리글을 추가한 후 swriterfs1-reader1 호스트의 mcf 파일은 다음과 비슷합니다.

    [swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    
  4. 모든 장치에 대해 Device State 필드가 on으로 설정되어 있는지 확인합니다. 그런 다음 mcf 파일을 저장합니다.

    [swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       
     /dev/dsk/c1t0d0s0     301        mm         sharefs    on 
     /dev/dsk/c1t3d0s0     302        mr         sharefs    on 
     /dev/dsk/c1t3d0s1     303        mr         sharefs    on 
    :wq
    [swriterfs1-reader1]root@solaris:~# 
    
  5. sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 오류가 발견되면 실행을 중지합니다.

    [swriterfs1-reader1]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [swriterfs1-reader1]root@solaris:~# 
    
  6. 운영체제의 /etc/vfstab 파일을 백업합니다.

    [swriterfs1-reader1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [swriterfs1-reader1]root@solaris:~# 
    
  7. 호스트 운영체제의 /etc/vfstab 파일에 단일 쓰기, 다중 읽기 파일 시스템을 추가합니다.

    예제에서는 /etc/vfstab 파일을 vi 텍스트 편집기에서 열고 swriterfs1 패밀리 세트 장치에 대한 행을 추가합니다.

    [swriterfs1-reader1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no        
        
    
  8. /etc/vfstab 파일의 Mount Options 열에 reader 옵션을 입력합니다.

    주의:

    호스트에서 reader 옵션을 사용하여 파일 시스템을 마운트하는지 확인합니다. 실수로 여러 호스트에서 writer 마운트 옵션을 사용할 경우 파일 시스템이 손상될 수 있습니다.
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       reader      
    
  9. 콤마를 구분자로 사용하여 다른 원하는 마운트 옵션을 추가하고 /etc/vfstab 파일에 다른 원하는 변경을 수행합니다. 그런 다음 /etc/vfstab 파일을 저장합니다.

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg      
    :wq
    [swriterfs1-reader1]root@solaris:~# 
    
  10. /etc/vfstab 파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.

    마운트 지점 권한이 모든 호스트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템에서 파일에 액세스하려면 실행(x) 권한이 있어야 합니다. 예제에서는 방금 쓰기 호스트에서 수행한 것처럼 /swriterfs1 마운트 지점 디렉토리를 만들고 755(-rwxr-xr-x)로 권한을 설정합니다.

    [swriterfs1-reader1]root@solaris:~# mkdir /swriterfs1
    [swriterfs1-reader1]root@solaris:~# chmod 755 /swriterfs1
    [swriterfs1-reader1]root@solaris:~# 
    
  11. 새 파일 시스템을 마운트합니다.

    [swriterfs1-reader1]root@solaris:~# mount /swriterfs1
    [swriterfs1-reader1]root@solaris:~# 
    
  12. 모든 읽기 호스트가 파일 시스템을 읽기 전용으로 마운트하도록 구성될 때까지 이 절차를 반복합니다.

  13. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  14. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.

Oracle HSM 공유 파일 시스템 구성

Oracle HSM 공유 파일 시스템은 여러 Oracle HSM 호스트에 파일에 대한 읽기, 쓰기 및 추가 권한을 제공합니다. 모든 호스트에서 파일 시스템을 마운트하고 스토리지 장치에 직접 연결합니다. 또한 호스트 중 하나인 메타데이터 서버(MDS)에서 파일 시스템 메타데이터를 배타적으로 제어하고, 동일한 파일에 액세스하려는 호스트 간을 중재합니다. 이 서버는 이더넷 로컬 네트워크를 통해 클라이언트 호스트에 메타데이터 업데이트를 제공하고, 읽기, 쓰기 및 추가 임대를 실행, 갱신, 취소하여 파일 액세스를 제어합니다. 고성능 ma 또는 범용 ms 유형의 비아카이빙 파일 시스템과 아카이빙 파일 시스템을 모두 공유할 수 있습니다.

공유 파일 시스템을 구성하려면 다음 작업을 수행합니다.

공유를 위한 파일 시스템 메타데이터 서버 구성

공유 파일 시스템을 지원하도록 메타데이터 서버를 구성하려면 아래 나열된 작업을 수행합니다.

활성/잠재적 메타데이터 서버에서 hosts 파일 만들기

활성/잠재적 메타데이터 서버에서 공유 파일 시스템의 서버와 클라이언트에 대한 네트워크 주소 정보를 나열하는 hosts 파일을 만들어야 합니다. hosts 파일은 /etc/opt/SUNWsamfs/ 디렉토리에 mcf 파일과 나란히 저장됩니다. 공유 파일 시스템의 초기 생성 중 sammkfs -S 명령은 이 파일에 저장된 설정을 사용하여 공유를 구성합니다. 따라서 아래 절차를 사용하여 지금 만듭니다.

  1. 서버에 root로 로그인합니다.

    예제에서 서버 이름은 sharefs-mds로 지정됩니다.

    [sharefs-mds]root@solaris:~# 
    
  2. 텍스트 편집기를 사용하여 메타데이터 서버에 /etc/opt/SUNWsamfs/hosts.family-set-name 파일을 만듭니다. family-set-name은 공유할 파일 시스템의 패밀리 세트 이름으로 바뀝니다.

    예제에서는 vi 텍스트 편집기를 사용하여 hosts.sharefs 파일을 만듭니다. 몇 가지 선택적 머리글을 추가하고, 각 라인은 주석을 나타내는 해시 기호(#)로 시작합니다.

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    
  3. 메타데이터 서버의 호스트 이름 및 IP 주소/도메인 이름을 공백 문자로 구분하여 2개 열에 추가합니다.

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117
    
  4. 네트워크 주소와 공백 문자로 구분된 세번째 열을 추가합니다. 이 열에 활성 메타데이터 서버의 순서 번호인 1을 입력합니다.

    이 예제에서는 메타데이터 서버가 하나뿐이므로 1을 입력합니다.

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1      
     
    
  5. 네트워크 주소와 공백 문자로 구분된 네번째 열을 추가합니다. 이 열에서 0(제로)을 입력합니다.

    네번째 열의 0, -(하이픈) 또는 공백 값은 호스트가 on으로 구성되었고 공유 파일 시스템에 액세스할 수 있음을 나타냅니다. 1(숫자 1)은 호스트가 파일 시스템에 액세스할 수 있도록 구성되지 않은 off 상태라는 것을 나타냅니다(공유 파일 시스템을 관리할 때 이러한 값을 사용하는 방법에 대한 자세한 내용은 samsharefs 매뉴얼 페이지 참조).

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds          10.79.213.117            1        0    
    
  6. 네트워크 주소와 공백 문자로 구분된 다섯번째 열을 추가합니다. 이 열에서 현재 활성 메타데이터 서버를 나타내는 server 키워드를 입력합니다.

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    
  7. 하나 이상의 호스트를 잠재적 메타데이터 서버로 포함하려면 각각 항목을 만듭니다. 매번 서버 순서를 증분합니다. 그러나 server 키워드는 포함하지 마십시오(파일 시스템당 하나의 활성 메타데이터 서버만 가능).

    예제에서 호스트 sharefs-mds_alt는 서버 순서가 2인 잠재적 메타데이터 서버입니다.

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    
  8. 각 클라이언트 호스트마다 서버 순서 값 0과 함께 행을 추가합니다.

    서버 순서 0은 호스트를 클라이언트로 식별합니다. 예제에서는 두 개의 클라이언트 sharefs-client1sharefs-client2를 추가합니다.

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.147           0        0
    
  9. /etc/opt/SUNWsamfs/hosts.family-set-name 파일을 저장하고 편집기를 종료합니다.

    예제에서는 /etc/opt/SUNWsamfs/hosts.sharefs에 대한 변경사항을 저장하고 vi 편집기를 종료합니다.

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.147           0        0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  10. 공유 파일 시스템 구성에 포함될 잠재적 메타데이터 서버에 새 파일 /etc/opt/SUNWsamfs/hosts.family-set-name의 복사본을 배치합니다.

  11. 이제 활성 메타데이터 서버에서 공유 파일 시스템 만들기를 수행합니다.

활성 서버에서 공유 파일 시스템 만들기

다음과 같이 하십시오.

  1. 서버에 root로 로그인합니다.

    예제에서 서버 이름은 sharefs-mds로 지정됩니다.

    [sharefs-mds]root@solaris:~# 
    
  2. 메타데이터 서버(MDS)에서 /etc/opt/SUNWsamfs/mcf 파일을 텍스트 편집기에서 열고 QFS 파일 시스템을 추가합니다. 범용 ms 또는 고성능 ma 파일 시스템을 구성할 수 있습니다.

    아래 예제에서는 vi 텍스트 편집기를 사용하여 sharefs-mds 호스트에서 mcf 파일을 편집합니다. 이 예제에서는 장비 식별자와 패밀리 세트 이름 sharefs 및 장비 순서 번호 300을 사용하여 ma 파일 시스템을 지정합니다.

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       
     /dev/dsk/c0t0d0s0     301        mm         sharefs    on
     /dev/dsk/c0t3d0s0     302        mr         sharefs    on
     /dev/dsk/c0t3d0s1     303        mr         sharefs    on
    
  3. ma 파일 시스템 장비에 대한 행의 Additional Parameters 필드에 shared 매개변수를 입력합니다.

    # Equipment           Equipment   Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     /dev/dsk/c0t0d0s0     301         mm        sharefs    on
     /dev/dsk/c0t3d0s0     302         mr        sharefs    on
     /dev/dsk/c0t3d0s1     303         mr        sharefs    on
    
  4. /etc/opt/SUNWsamfs/mcf 파일을 저장하고 편집기를 종료합니다.

    예제에서는 변경사항을 저장하고 vi 편집기를 종료합니다.

    sharefs               300         ma         sharefs    on      shared
     /dev/dsk/c0t0d0s0     301         mm         sharefs    on
     /dev/dsk/c0t3d0s0     302         mr         sharefs    on
     /dev/dsk/c0t3d0s1     303         mr         sharefs    on
    :wq
    [sharefs-mds]root@solaris:~# 
    
  5. sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 오류가 발견되면 실행을 중지합니다.

    [sharefs-mds]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-mds]root@solaris:~# 
    
  6. Oracle HSM 서비스에 mcf 파일을 다시 읽고 그에 따라 재구성하도록 지시합니다. 보고된 모든 오류를 수정하고 필요에 따라 반복합니다.

    [sharefs-mds]root@solaris:~# samd config
    [sharefs-mds]root@solaris:~# 
    
  7. 고성능 ma 파일 시스템 구성에서 설명한 대로 sammkfs -S 명령과 파일 시스템의 패밀리 세트 이름을 사용하여 파일 시스템을 만듭니다.

    sammkfs 명령은 hosts.family-set-namemcf 파일을 읽고 지정된 등록 정보를 가진 공유 파일 시스템을 만듭니다. 예제의 명령은 hosts.sharefs 파일에서 공유 매개변수를 읽고 공유 파일 시스템 sharefs를 만듭니다.

    [sharefs-mds]root@solaris:~# sammkfs -S sharefs
    Building 'sharefs' will destroy the contents of devices:
      /dev/dsk/c0t0d0s0
      /dev/dsk/c0t3d0s0
      /dev/dsk/c0t3d0s1
    Do you wish to continue? [y/N]yes ...
    [sharefs-mds]root@solaris:~# 
    
  8. 이제 활성 메타데이터 서버에서 공유 파일 시스템 마운트를 수행합니다.

활성 서버에서 공유 파일 시스템 마운트
  1. 서버에 root로 로그인합니다.

    예제에서 서버 이름은 sharefs-mds로 지정됩니다.

    [sharefs-mds]root@solaris:~# 
    
  2. 운영체제의 /etc/vfstab 파일을 백업합니다.

    [sharefs-mds]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [sharefs-mds]root@solaris:~# 
    
  3. 고성능 ma 파일 시스템 구성에 설명한 대로 운영체제의 /etc/vfstab 파일에 새 파일 시스템을 추가합니다.

    예제에서는 /etc/vfstab 파일을 vi 텍스트 편집기에서 열고 sharefs 패밀리 세트 장치에 대한 행을 추가합니다.

    [sharefs-mds]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -        /sharefs   samfs   -     no     
    
  4. Mount Options 열에 shared 옵션을 입력합니다.

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared      
    
  5. /etc/vfstab 파일에 다른 원하는 변경을 수행합니다.

    예를 들어 초기 시도가 실패할 경우 백그라운드에서 파일 시스템 마운트를 재시도하려면 bg 마운트 옵션을 Mount Options 필드에 추가합니다. 사용 가능한 마운트 옵션에 대한 자세한 내용은 mount_samfs 매뉴얼 페이지를 참조하십시오.

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared,bg     
     
    
  6. /etc/vfstab 파일을 저장하고 편집기를 종료합니다.

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared,bg      
    :wq
    [sharefs-mds]root@solaris:~# 
    
  7. /etc/vfstab 파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.

    마운트 지점 권한이 메타데이터 서버와 모든 클라이언트에서 동일해야 하므로, 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템에서 파일에 액세스하려면 실행(x) 권한이 있어야 합니다. 예제에서는 /sharefs 마운트 지점 디렉토리를 만들고 755(-rwxr-xr-x)로 권한을 설정합니다.

    [sharefs-mds]root@solaris:~# mkdir /sharefs
    [sharefs-mds]root@solaris:~# chmod 755 /sharefs
    [sharefs-mds]root@solaris:~# 
    
  8. 새 파일 시스템을 마운트합니다.

    [sharefs-mds]root@solaris:~# mount /sharefs
    [sharefs-mds]root@solaris:~# 
    
  9. 호스트를 다중 네트워크 인터페이스로 구성한 경우 로컬 hosts 파일을 사용하여 네트워크 통신 경로 지정 작업을 수행할 수 있습니다.

  10. 그렇지 않은 경우 공유 파일 시스템이 메타데이터 서버에서 만들어졌으면 공유를 위한 파일 시스템 클라이언트 구성을 수행합니다.

공유를 위한 파일 시스템 클라이언트 구성

클라이언트는 순수하게 클라이언트로 구성된 호스트와 잠재적 메타데이터 서버로 구성된 호스트를 모두 포함합니다. 대부분의 경우 클라이언트 구성은 서버를 구성하는 방법과 거의 동일합니다. 각 클라이언트는 서버와 동일한 장치를 포함합니다. 마운트 옵션과 정확한 장치 경로만 변경됩니다. 제어기 번호는 클라이언트 호스트별로 지정되므로 다를 수 있습니다.

하나 이상의 클라이언트에서 공유 파일 시스템을 지원하도록 구성하려면 아래 나열된 작업을 수행합니다.

Solaris 클라이언트에서 공유 파일 시스템 만들기

각 클라이언트에 대해 다음과 같이 하십시오.

  1. 클라이언트에서 root로 로그인합니다.

    예제에서 서버 이름은 sharefs-client1로 지정됩니다.

    [sharefs-client1]root@solaris:~# 
    
  2. 단말기 창에서 samfsconfig device-path 명령을 입력합니다. 여기서 device-path는 명령이 파일 시스템 디스크 장치(예: /dev/dsk/* 또는 /dev/zvol/dsk/rpool/*) 검색을 시작해야 하는 위치입니다.

    samfsconfig 명령은 공유 파일 시스템에 대한 구성 정보를 검색합니다.

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    
  3. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 있는 경우 잠재적 메타데이터 서버로 사용하기에 적절하므로 samfsconfig 출력은 파일 시스템 메타데이터 서버에서 만든 mcf 파일과 아주 비슷합니다.

    예제에서 sharefs-client1 호스트에는 메타데이터 장치(장비 유형 mm)에 대한 액세스 권한이 있으므로, 이 명령은 sharefs-mds 서버의 mcf 파일에 나열된 것과 동일한 장비를 보여줍니다. 호스트 지정 장치 컨트롤러 번호만 다릅니다.

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    # Generation 0 Eq count 4 Eq meta count 1
    #
    sharefs             300         ma         sharefs   - 
    /dev/dsk/c1t0d0s0    301         mm         sharefs   -
    /dev/dsk/c1t3d0s0    302         mr         sharefs   -
    /dev/dsk/c1t3d0s1    303         mr         sharefs   -
    
  4. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 samfsconfig 명령이 메타데이터 장치를 찾을 수 없습니다. 따라서 발견된 Oracle HSM 장치가 파일 시스템 구성에 맞지 않을 수 있습니다. 명령 출력은 Missing Slices 아래에 메타데이터 장치 Ordinal 0을 나열하고, 파일 시스템 패밀리 세트를 식별하는 라인을 포함하지 못하며, 데이터 장치의 목록을 주석 처리합니다.

    예제에서는 sharefs-client2 호스트가 데이터 장치에만 액세스할 수 있습니다. 따라서 samfsconfig 출력은 다음과 비슷합니다.

    [sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    #
    # Missing slices
    # Ordinal 0
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  5. samfsconfig 출력에서 공유 파일 시스템 항목을 복사합니다. 그리고 두번째 창에서, 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 복사한 항목을 파일로 붙여넣습니다.

    첫번째 예제에서 sharefs-client1 호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 있으므로 mcf 파일의 시작은 다음과 비슷합니다.

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    

    두번째 예제에서 sharefs-client2 호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 없으므로 mcf 파일의 시작은 다음과 비슷합니다.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  6. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 있는 경우 공유 파일 시스템 항목의 Additional Parameters 필드에 shared 매개변수를 추가합니다.

    예제에서는 sharefs-client1 호스트에서 메타데이터에 액세스할 수 있습니다.

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    
  7. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 공유 파일 시스템 행을 추가하고 shared 매개변수를 포함합니다.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -       
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  8. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 메타데이터 장치 행을 추가합니다. Equipment Identifier 필드를 nodev(장치 없음)로 설정하고 남은 필드를 메타데이터 서버에 지정한 것과 똑같은 값으로 설정합니다.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
    # /dev/dsk/c4t3d0s0    302         mr        sharefs    -
    # /dev/dsk/c4t3d0s1    303         mr        sharefs    -
    
  9. 호스트가 파일 시스템의 메타데이터 장치에 액세스할 수 없는 경우 데이터 장치 항목의 주석 처리를 해제합니다.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -----------------
    sharefs              300         ma        sharefs     on       shared
     nodev                301         mm        sharefs     on 
     /dev/dsk/c4t3d0s0    302         mr        sharefs     - 
     /dev/dsk/c4t3d0s1    303         mr        sharefs     - 
    
  10. 모든 장치에 대해 Device State 필드가 on으로 설정되었는지 확인하고 mcf 파일을 저장합니다.

    첫번째 예제에서 sharefs-client1 호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 있으므로 mcf 파일의 끝은 다음과 비슷합니다.

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       shared
     /dev/dsk/c1t0d0s0     301        mm         sharefs    on 
     /dev/dsk/c1t3d0s0     302        mr         sharefs    on 
     /dev/dsk/c1t3d0s1     303        mr         sharefs    on 
    :wq
    [sharefs-client1]root@solaris:~# 
    

    두번째 예제에서 sharefs-client2 호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 없으므로 mcf 파일의 끝은 다음과 비슷합니다.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
     /dev/dsk/c4t3d0s0     302         mr        sharefs    on 
     /dev/dsk/c4t3d0s1     303         mr        sharefs    on 
    :wq
    [sharefs-client2]root@solaris:~# 
    
  11. sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 sharefs-client1에서 mcf 파일을 확인합니다.

    [sharefs-client1]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-client1]root@solaris:~# 
    
  12. 이때 호스트를 다중 네트워크 인터페이스로 구성한 경우 로컬 hosts 파일을 사용하여 네트워크 통신 경로 지정 작업을 수행할 수 있습니다.

  13. 이제 Solaris 클라이언트에서 공유 파일 시스템 마운트를 수행합니다.

Solaris 클라이언트에서 공유 파일 시스템 마운트

각 클라이언트에 대해 다음과 같이 하십시오.

  1. Solaris 클라이언트에서 root로 로그인합니다.

    예제에서 서버 이름은 sharefs-client1로 지정됩니다.

    [sharefs-client1]root@solaris:~# 
    
  2. 운영체제의 /etc/vfstab 파일을 백업합니다.

    [sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [sharefs-client1]root@solaris:~# 
    
  3. 텍스트 편집기에서 /etc/vfstab 파일을 열고 공유 파일 시스템 행을 추가합니다.

    예제에서는 vi 텍스트 편집기에서 파일을 열고 sharefs 패밀리 세트 장치 행을 추가합니다.

    [sharefs-client1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no   
    
  4. 콤마를 구분자로 사용하여 다른 원하는 마운트 옵션을 추가하고 /etc/vfstab 파일에 다른 원하는 변경을 수행합니다. 그런 다음 /etc/vfstab 파일을 저장합니다.

    예제에서는 마운트 옵션을 추가하지 않습니다.

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no       -
    :wq
    [sharefs-client1]root@solaris:~# 
    
  5. /etc/vfstab 파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.

    마운트 지점 권한은 메타데이터 서버와 모든 다른 클라이언트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x) 권한이 있어야 합니다. 예제에서는 /sharefs 마운트 지점 디렉토리를 만들고 755(-rwxr-xr-x)로 권한을 설정합니다.

    [sharefs-client1]root@solaris:~# mkdir /sharefs
    [sharefs-client1]root@solaris:~# chmod 755 /sharefs
    [sharefs-client1]root@solaris:~# 
    
  6. 공유 파일 시스템을 마운트합니다.

    [sharefs-client1]root@solaris:~# mount /sharefs
    [sharefs-client1]root@solaris:~# 
    
  7. 공유 파일 시스템에 Linux 클라이언트가 포함되어 있는 경우 Linux 클라이언트에서 공유 파일 시스템 만들기를 수행합니다.

  8. Oracle HSM 공유 아카이빙 파일 시스템을 구성할 경우 공유 파일 시스템에 대한 아카이브 스토리지 구성 작업으로 이동합니다.

  9. 그렇지 않은 경우 여기서 중지합니다. Oracle HSM 공유 파일 시스템을 구성했습니다.

Linux 클라이언트에서 공유 파일 시스템 만들기

각 클라이언트에 대해 다음과 같이 하십시오.

  1. Linux 클라이언트에서 root로 로그인합니다.

    예제에서 Linux 클라이언트 호스트 이름은 sharefs-clientL로 지정됩니다.

    [sharefs-clientL][root@linux ~]# 
    
  2. 단말기 창에서 samfsconfig device-path 명령을 입력합니다. 여기서 device-path는 명령이 파일 시스템 디스크 장치(예: /dev/*) 검색을 시작해야 하는 위치입니다.

    samfsconfig 명령은 공유 파일 시스템에 대한 구성 정보를 검색합니다. Linux 호스트는 파일 시스템의 메타데이터 장치에 액세스할 수 없으므로 samfsconfig가 메타데이터 장치를 찾을 수 없습니다. 따라서 발견된 Oracle HSM 장치가 파일 시스템 구성에 맞지 않을 수 있습니다. 명령 출력은 Missing Slices 아래에 메타데이터 장치 Ordinal 0을 나열하고, 파일 시스템 패밀리 세트를 식별하는 라인을 포함하지 못하며, 데이터 장치의 목록을 주석 처리합니다.

    예제에서 Linux 호스트 sharefs-clientL에 대한 samfsconfig 출력은 다음과 비슷합니다.

    [sharefs-clientL][root@linux ~]# samfsconfig /dev/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    #
    # Missing slices
    # Ordinal 0
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  3. samfsconfig 출력에서 공유 파일 시스템 항목을 복사합니다. 그리고 두번째 창에서, 텍스트 편집기에서 /etc/opt/SUNWsamfs/mcf 파일을 열고 복사한 항목을 파일로 붙여넣습니다.

    예제에서 Linux 호스트 sharefs-clientL에 대한 mcf 파일의 시작은 다음과 비슷합니다.

    [sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  4. mcf 파일에서 공유 파일 시스템 행을 삽입하고 shared 매개변수를 포함합니다.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  5. mcf 파일에서 파일 시스템의 메타데이터 장치 행을 삽입합니다. Linux 호스트는 메타데이터 장치에 액세스할 수 없으므로 Equipment Identifier 필드를 nodev(장치 없음)로 설정하고 남은 필드를 메타데이터 서버에 지정한 것과 똑같은 값으로 설정합니다.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  6. mcf 파일에서 데이터 장치 항목의 주석 처리를 해제합니다.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs              300         ma        sharefs     on       shared
     nodev                301         mm        sharefs     on 
     /dev/sda4            302         mr        sharefs     -
     /dev/sda5            303         mr        sharefs     -
    
  7. 모든 장치에 대해 Device State 필드가 on으로 설정되었는지 확인하고 mcf 파일을 저장합니다.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
     /dev/sda4             302         mr        sharefs    on 
     /dev/sda5             303         mr        sharefs    on 
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  8. sam-fsd 명령을 실행하여 mcf 파일에 오류가 있는지 확인하고, 오류가 발견되면 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 Linux 클라이언트 sharefs-clientL에서 mcf 파일을 확인합니다.

    [sharefs-clientL][root@linux ~]# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-clientL][root@linux ~]# 
    
  9. 이제 Linux 클라이언트에서 공유 파일 시스템 마운트를 수행합니다.

Linux 클라이언트에서 공유 파일 시스템 마운트

각 클라이언트에 대해 다음과 같이 하십시오.

  1. Linux 클라이언트에서 root로 로그인합니다.

    예제에서 Linux 클라이언트 호스트 이름은 sharefs-clientL로 지정됩니다.

    [sharefs-clientL][root@linux ~]# 
    
  2. 운영체제의 /etc/fstab 파일을 백업합니다.

    [sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
    
  3. 텍스트 편집기에서 /etc/fstab 파일을 열고 공유 파일 시스템 행을 시작합니다.

    예제에서는 sharefs-clientL에서 /etc/fstab 파일을 백업한 후에 vi 텍스트 편집기에서 파일을 열고 sharefs 패밀리 세트 장치 행을 추가합니다.

    [sharefs-clientL][root@linux ~]# vi /etc/fstab
    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs
    
  4. 파일의 네번째 열에서 필수 shared 마운트 옵션을 추가합니다.

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared
    
  5. 파일의 네번째 열에서 콤마를 구분자로 사용하여 다른 원하는 마운트 옵션을 추가합니다.

    Linux 클라이언트는 다음 추가 마운트 옵션을 지원합니다.

    • rw, ro

    • retry

    • meta_timeo

    • rdlease, wrlease, aplease

    • minallocsz, maxallocsz

    • noauto, auto

    예제에서는 noauto 옵션을 추가합니다.

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto
             
    
  6. 파일에 남은 두 열에 각각 제로(0)를 입력합니다. 그런 다음 /etc/fstab 파일을 저장합니다.

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto              0         0        
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  7. /etc/fstab 파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.

    마운트 지점 권한은 메타데이터 서버와 모든 다른 클라이언트에서 동일해야 합니다. 사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x) 권한이 있어야 합니다. 예제에서는 /sharefs 마운트 지점 디렉토리를 만들고 755(-rwxr-xr-x)로 권한을 설정합니다.

    [sharefs-clientL][root@linux ~]# mkdir /sharefs
    [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
    
  8. 공유 파일 시스템을 마운트합니다. mount mountpoint 명령을 사용합니다. 여기서 mountpoint/etc/fstab 파일에 지정된 마운트 지점입니다.

    예제에 표시된 대로 mount 명령은 경고를 생성합니다. 이는 정상적 상황이며 무시할 수 있습니다.

    [sharefs-clientL][root@linux ~]# mount /sharefs
    Warning: loading SUNWqfs will taint the kernel: SMI license 
    See http://www.tux.org/lkml/#export-tainted for information 
    about tainted modules. Module SUNWqfs loaded with warnings 
    [sharefs-clientL][root@linux ~]# 
    
  9. Oracle HSM 공유 아카이빙 파일 시스템을 구성할 경우 공유 파일 시스템에 대한 아카이브 스토리지 구성 작업으로 이동합니다.

  10. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  11. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.

로컬 hosts 파일을 사용하여 네트워크 통신 경로 지정

개별 호스트에는 로컬 hosts 파일이 필요 없습니다. 파일 시스템은 모든 파일 시스템 호스트에 대한 활성 메타데이터 서버와 활성 및 잠재적 메타데이터 서버의 네트워크 인터페이스를 식별합니다(활성/잠재적 메타데이터 서버에서 hosts 파일 만들기 참조). 그러나 다중 네트워크 인터페이스가 설치된 파일 시스템 호스트 간에 선택적으로 네트워크 트래픽 경로를 지정해야 하는 경우 로컬 hosts 파일이 유용할 수 있습니다.

각 파일 시스템 호스트는 네트워크 인터페이스에서 메타데이터 서버의 다른 호스트를 조회합니다. 호스트 이름과 IP 주소는 파일 시스템에 대한 전역 hosts 파일 /etc/opt/SUNWsamfs/hosts.family-set-name에 나열됩니다. 여기서 family-set-name은 공유 파일 시스템의 패밀리 세트 번호입니다. 그런 다음 호스트는 로컬 hosts 파일 /etc/opt/SUNWsamfs/hosts.family-set-name.local을 찾습니다.

로컬 hosts 파일이 없는 경우 호스트는 전역 hosts 파일에 지정된 인터페이스 주소를 사용합니다. 전역 파일에서 지정된 순서대로 호스트가 사용됩니다.

로컬 hosts 파일이 있는 경우 호스트는 로컬 파일을 전역 파일과 비교하여 양쪽 파일에 나열된 인터페이스만 사용합니다. 로컬 파일에서 지정된 순서대로 호스트가 사용됩니다.

따라서 각 파일에 다른 주소를 사용하여 다양한 호스트에서 사용되는 인터페이스를 제어할 수 있습니다. 로컬 hosts 파일을 구성하려면 아래 설명된 절차를 사용하십시오.

  1. 각 활성/잠재적 메타데이터 서버 호스트에서 서버 및 호스트 통신을 필요한 방식으로 라우팅하도록 공유 파일 시스템에 대한 전역 hosts 파일을 편집합니다.

    이 절의 예제에서는 공유 파일 시스템 sharefs2nic에 활성 메타데이터 서버sharefs2-mds와 잠재적 메타데이터 서버 sharefs2-mds_alt가 각각 두 네트워크 인터페이스로 포함됩니다. 두 개의 클라이언트 sharefs2-client1sharefs2-client2도 있습니다.

    활성/잠재적 메타데이터 서버에서 개인 네트워크 주소를 통해 서로 통신하고, DNS(도메인 이름 서비스)가 공용 LAN(근거리 통신망) 주소로 분석할 수 있는 호스트 이름을 통해 클라이언트와 통신하려고 합니다.

    따라서 파일 시스템의 전역 hosts 파일인 /etc/opt/SUNWsamfs/hosts.sharefs2를 편집합니다. 활성/잠재적 서버에 대한 개인 네트워크 인터페이스 주소를 지정합니다. 그러나 클라이언트의 경우 주소 대신 호스트 이름을 지정합니다.

    [sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    sharefs2-client1  sharefs2-client1    0        0
    sharefs2-client2  sharefs2-client2    0        0
    :wq
    [sharefs2-mds]root@solaris:~# 
    
  2. 각 활성/잠재적 메타데이터 서버에서 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.family-set-name.local을 사용하여 로컬 hosts 파일을 만듭니다. 여기서 family-set-name은 공유 파일 시스템의 장비 식별자입니다. 활성/잠재적 서버에서 사용할 네트워크 인터페이스만 포함하십시오.

    예제에서는 활성/잠재적 메타데이터 서버에서 개인 네트워크를 통해 서로 통신하므로 각 서버의 로컬 hosts 파일인 hosts.sharefs2.local에 두 호스트인 활성/잠재적 메타데이터 서버의 개인 주소만 나열됩니다.

    [sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2 on sharefs2-mds
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    :wq
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt
    Password:
    
    [sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-mds_alt
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    :wq
    [sharefs2-mds_alt]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  3. 각 클라이언트에서 경로 및 파일 이름 /etc/opt/SUNWsamfs/hosts.family-set-name.local을 사용하여 로컬 호스트 파일을 만듭니다. 여기서 family-set-name은 공유 파일 시스템의 장비 식별자입니다. 클라이언트에서 사용할 네트워크 인터페이스만 포함하십시오.

    예제에서는 클라이언트가 공용 네트워크를 통해서만 서버와 통신합니다. 따라서 파일에는 두 호스트인 활성/잠재적 메타데이터 서버의 호스트 이름만 포함됩니다.

    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1
    Password:
    [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client1 
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      sharefs2-mds        1        0   server 
    sharefs2-mds_alt  sharefs2-mds_alt    2        0   
    :wq
    [sharefs2-client1]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2
    Password:
    
    [sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client2
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      sharefs2-mds        1        0    server 
    sharefs2-mds_alt  sharefs2-mds_alt    2        0   
    :wq
    [sharefs2-client2]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  4. 서버 구성을 마치는 동안 이 절차를 시작한 경우 활성 서버에서 공유 파일 시스템 마운트로 이동합니다.

  5. 클라이언트를 구성하는 동안 이 절차를 시작한 경우 지금 Solaris 클라이언트에서 공유 파일 시스템 마운트해야 합니다.

공유 파일 시스템에 대한 아카이브 스토리지 구성

아카이빙 Oracle HSM 공유 파일 시스템에 대한 아카이브 스토리지를 설정하려면 다음 작업을 수행합니다.

지속 바인딩을 사용하여 서버 및 Datamover 호스트에 테이프 드라이브 연결

공유 아카이빙 파일 시스템에서 모든 잠재적 메타데이터 서버는 라이브러리 및 테이프 드라이브에 대한 액세스 권한이 있어야 합니다. 공유 아카이브 파일 시스템의 호스트 전체로 테이프 I/O 분산을 결정할 경우 하나 이상의 클라이언트도 드라이브에 액세스해야 합니다. 따라서 각 드라이브를 일관된 방법으로 처리하도록 각 호스트를 구성해야 합니다.

Solaris 운영체제는 시작 시 장치를 발견한 순서대로 시스템 장치 트리에 드라이브를 연결합니다. 이 순서는 다른 파일 시스템 호스트에서 장치를 발견한 순서나 이동식 매체 라이브러리에 장치가 물리적으로 설치된 순서를 반영할 수도 있고 그렇지 않을 수도 있습니다. 따라서 다른 호스트에 바인드된 것과 동일한 방법과 이동식 매체 라이브러리에 설치된 것과 동일한 순서로 각 호스트에 장치를 지속적으로 바인드해야 합니다.

아래 절차는 필요한 단계를 간략히 설명합니다. 지속 바인딩을 만드는 방법에 대한 자세한 내용은 Solaris devfsadmdevlinks 매뉴얼 페이지와 사용하는 Solaris 운영체제 버전의 관리 설명서를 참조하십시오.

  1. 활성 메타데이터 서버에 root로 로그인합니다.

    [sharefs-mds]root@solaris:~# 
    
  2. 현재 라이브러리에 있는 드라이브의 물리적 순서를 모를 경우 라이브러리에 드라이브가 설치되는 순서 결정에 설명된 대로 매핑 파일을 만듭니다.

    예제에서 device-mappings.txt 파일은 다음과 비슷합니다.

    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    --------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    
  3. 테스트 편집기에서 /etc/devlink.tab 파일을 엽니다.

    이 예에서는 vi 편집기를 사용합니다.

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    # This is the table used by devlinks
    # Each entry should have 2 fields; but may have 3.  Fields are separated
    # by single tab ('\t') characters.
    ...
    
  4. device-mappings.txt 파일을 길잡이로 삼아 /etc/devlink.tab 파일에 행을 추가하여 Solaris 테이프 장치 트리의 시작 노드 rmt/node-number를 라이브러리의 첫번째 드라이브에 재매핑합니다. type=ddi_byte:tape; addr=device_address,0; rmt/node-number\M0 형식으로 라인을 입력합니다. 여기서 device_address는 장치의 물리적 주소이고 node-number는 Solaris 장치 트리에서 Solaris가 자동으로 구성하는 모든 장치와 충돌을 피하기에 충분히 높은 위치입니다(Solaris는 0 노드부터 시작됨).

    예제에서 라이브러리의 첫번째 장치 1에 대한 장치 주소는 w500104f0008120fe입니다. 장치가 현재 rmt/1의 호스트에 연결되어 있습니다.

    [sharefs-mds] vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -----------   ---------------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    

    따라서 충돌하지 않는 노드 rmt/60을 라이브러리의 번호 1 드라이브 w500104f0008120fe에 재매핑하는 라인을 /etc/devlink.tab에 만듭니다.

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    :w
    
  5. Oracle HSM 아카이빙을 위해 지정된 각 테이프 장치마다 /etc/devlink.tab 파일에 행을 계속 추가합니다. 메타데이터 서버의 장치 트리의 드라이브 순서가 라이브러리의 설치 순서와 일치하도록 합니다. 파일을 저장합니다.

    예제에서는 세 개의 남은 장치의 순서와 주소로 라이브러리 드라이브 2w500104f00093c438에, 라이브러리 드라이브 3w500104f000c086e1에, 라이브러리 드라이브 4w500104f000c086e1에 있습니다.

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    ...
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    

    그런 후에 라이브러리와 동일한 순서를 유지하여 다음 세 개의 Solaris 장치 노드(rmt/61, rmt/62rmt/63)에 장치 주소를 매핑합니다.

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  6. /dev/rmt의 테이프 장치에 대한 기존 링크를 모두 삭제합니다.

    [sharefs-mds]root@solaris:~# rm /dev/rmt/* 
    
  7. /etc/devlink.tab 파일의 항목으로부터 새로운 지속 테이프 장치 링크를 만듭니다. devfsadm -c tape 명령을 사용합니다.

    devfsadm 명령을 실행할 때마다 /etc/devlink.tab 파일에 지정된 구성을 사용하여 파일에 지정된 장치에 대해 새 테이프 장치 링크를 만듭니다. -c tape 옵션은 테이프 종류의 장치에만 새 링크를 만들도록 명령을 제한합니다.

    [sharefs-mds]root@solaris:~# devfsadm -c tape
    
  8. 공유 파일 시스템 구성의 각 잠재적 메타데이터 서버 및 datamover에 동일한 지속 테이프 장치 링크를 만듭니다. /etc/devlink.tab 파일에 동일한 라인을 추가하고 /dev/rmt에서 링크를 삭제한 다음 devfsadm -c tape를 실행합니다.

    예제에는 잠재적 메타데이터 서버 sharefs-mds_alt와 datamover 클라이언트 sharefs-client1이 있습니다. 각 위치의 /etc/devlink.tab 파일을 활성 서버 sharefs-mds의 해당 파일과 일치하도록 편집합니다. 그런 다음 sharefs-mds_altsharefs-client1/dev/rmt에서 기존 링크를 삭제하고 각각에 대해 devfsadm -c tape를 실행합니다.

    [sharefs-mds]root@solaris:~# ssh sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* 
    [sharefs-mds_alt]root@solaris:~# devfsadm -c tape
    [sharefs-mds_alt]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-client1]root@solaris:~# rm /dev/rmt/*  
    [sharefs-client1]root@solaris:~# devfsadm -c tape
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  9. 이제 아카이브 스토리지를 사용하도록 아카이빙 파일 시스템의 호스트 구성을 수행합니다.

아카이브 스토리지를 사용하도록 아카이빙 파일 시스템의 호스트 구성

활성 메타데이터 서버와 각 잠재적 메타데이터 서버 및 datamover 클라이언트에 대해 다음과 같이 하십시오.

  1. 호스트에 root로 로그인합니다.

    [sharefs-host]root@solaris:~# 
    
  2. /etc/opt/SUNWsamfs/mcf 파일을 텍스트 편집기에서 엽니다.

    예제에서는 vi 편집기를 사용합니다.

    [sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    sharefs                  100       ms        sharefs on
     /dev/dsk/c1t3d0s3        101       md        sharefs on
     /dev/dsk/c1t3d0s4        102       md        sharefs on
    ...
    
  3. /etc/opt/SUNWsamfs/mcf 파일의 파일 시스템 정의에 따라 아카이브 스토리지 장비 섹션을 시작합니다.

    예제에서는 명확성을 위해 일부 머리글을 추가합니다.

    [sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    ...
    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    
  4. 아카이브 테이프 스토리지를 추가하려면 라이브러리에 대한 항목을 추가하는 것부터 시작합니다. 장비 식별자 필드에 라이브러리에 대한 장치 ID를 입력하고 장비 순서 번호를 지정합니다.

    이 예제에서는 라이브러리 장비 식별자가 /dev/scsi/changer/c1t0d5입니다. 디스크 아카이브에 대한 선택한 범위 다음에 장비 순서 번호를 900으로 설정합니다.

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900
    
  5. 장비 유형을 일반 SCSI 연결 테이프 라이브러리인 rb로 설정하고 테이프 라이브러리 패밀리 세트의 이름을 제공한 다음 장치 상태를 on으로 설정합니다.

    이 예제에서는 library1 라이브러리를 사용합니다.

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on
    
  6. Additional Parameters 열에서 라이브러리 카탈로그에 대한 선택적 사용자 정의 경로와 이름을 입력할 수 있습니다.

    기본 경로가 아닌 선택적 경로는 127자를 초과할 수 없습니다. 예제에서는 기본 경로인 var/opt/SUNWsamfs/catalog/를 사용자 정의 카탈로그 파일 이름인 library1cat와 함께 사용합니다. 문서 레이아웃 제한 때문에 예제에서는 다음과 같이 경로를 축약합니다.

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on     .../library1cat
    
  7. 다음에는 각 테이프 드라이브에 대한 항목을 추가합니다. 지속 바인딩을 사용하여 서버 및 Datamover 호스트에 테이프 드라이브 연결 절차에서 설정한 지속 장비 식별자를 사용합니다.

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------  ------ -----------------
    DISKVOL1                  800       ms       DISKVOL1  on
     /dev/dsk/c6t0d1s7         801       md       DISKVOL1  on
     /dev/dsk/c4t0d2s7         802       md       DISKVOL1  on
    /dev/scsi/changer/c1t0d5  900       rb       library1  on     .../library1cat
     /dev/rmt/60cbn            901       tp       library1 on
     /dev/rmt/61cbn            902       tp       library1  on
     /dev/rmt/62cbn            903       tp       library1  on
     /dev/rmt/63cbn            904       tp       library1  on
    
  8. 끝으로, Oracle HSM 내역기를 직접 구성하려는 경우 장비 유형 hy를 사용하여 항목을 추가합니다. family-set 및 device-state 열에 하이픈을 입력하고 additional-parameters 열에 내역기 카탈로그 경로를 입력합니다.

    내역기는 아카이브에서 내보낸 볼륨을 카탈로그화하는 가상 라이브러리입니다. 내역기를 구성하지 않을 경우 소프트웨어는 지정된 가장 높은 장비 순서 번호에 1을 더하여 내역기를 자동으로 만듭니다.

    예제에서는 page-layout 이유에 대한 내역기 카탈로그 경로를 약어로 표시합니다. 전체 경로는 /var/opt/SUNWsamfs/catalog/historian_cat입니다.

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on     ...catalog/library1cat
     /dev/rmt/60cbn           901       tp        library1  on
     /dev/rmt/61cbn           902       tp        library1  on
     /dev/rmt/62cbn           903       tp        library1  on
     /dev/rmt/63cbn           904       tp        library1  on
    historian                999       hy        -         -     .../historian_cat
    
  9. mcf 파일을 저장하고 편집기를 닫습니다.

    ...
     /dev/rmt/3cbn            904       tp        library1  on
    historian                999       hy         -      -      .../historian_cat
    :wq
    [sharefs-host]root@solaris:~# 
    
  10. sam-fsd 명령을 실행하여 mcf 파일에서 오류를 확인합니다. 발견된 모든 오류를 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 오류가 발견되면 실행을 중지합니다.

    [sharefs-host]root@solaris:~# sam-fsd
    ...
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-host]root@solaris:~# 
    
  11. Oracle HSM 서비스에 mcf 파일을 다시 읽고 그에 따라 재구성하도록 지시합니다. 보고된 모든 오류를 수정하고 필요에 따라 반복합니다.

    [sharefs-host]root@solaris:~# samd config
    Configuring SAM-FS
    [sharefs-host]root@solaris:~# 
    
  12. 모든 활성 및 잠재적 메타데이터 서버와 모든 datamover 클라이언트가 아카이브 스토리지를 사용하도록 구성될 때까지 이 절차를 반복합니다.

  13. 필요한 경우 공유 아카이브 파일 시스템의 호스트 전체로 테이프 I/O 분산을 수행합니다.

  14. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  15. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.

공유 아카이브 파일 시스템의 호스트 전체로 테이프 I/O 분산

Oracle HSM 릴리스 6.1부터 Oracle Solaris 11 이상에서 실행되는 공유 아카이빙 파일 시스템의 클라이언트에 테이프 드라이브를 연결하여 파일 시스템 대신 테이프 I/O를 수행할 수 있습니다. 이러한 datamover 호스트에 걸쳐 테이프 I/O를 분산시키면 서버 오버헤드가 크게 감소하고, 파일 시스템 성능이 향상되고, Oracle HSM 구현을 확장할 때 유연성이 증대됩니다. 사용자의 아카이빙 수요가 증가함에 따라 이제 Oracle HSM 메타데이터 서버를 더 강력한 시스템으로 교체하거나(수직적 확장) 더 많은 클라이언트에 걸쳐 로드를 분산시킬 수 있습니다(수평적 확장).

공유 파일 시스템 호스트 전체로 테이프 I/O를 분산시키려면 다음과 같이 하십시오.

  1. 분산된 I/O에 사용될 모든 장치를 파일 시스템 메타데이터 서버와 테이프 I/O를 처리할 모든 파일 시스템 클라이언트에 연결합니다.

  2. 아직 수행하지 않은 경우 지속 바인딩을 사용하여 Datamover로 동작할 각 클라이언트에 테이프 드라이브 연결을 수행합니다. 그런 다음 여기로 돌아옵니다.

  3. 공유 아카이빙 파일 시스템의 메타데이터 서버에 root로 로그인합니다.

    예제에서 서버의 호스트 이름은 samsharefs-mds입니다.

    [samsharefs-mds]root@solaris:~# 
    
  4. 메타데이터 서버가 Oracle Solaris 11 이상을 실행 중인지 확인합니다.

    [samsharefs-mds]root@solaris:~# uname -r
    5.11
    [samsharefs-mds]root@solaris:~# 
    
  5. datamover로 작동할 모든 클라이언트가 Oracle Solaris 11 이상을 실행 중인지 확인합니다.

    예제에서는 ssh를 사용하여 원격으로 클라이언트 호스트 samsharefs-client1samsharefs-client2에 로그인하고 로그인 배너에서 Solaris 버전을 얻습니다.

    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client1]root@solaris:~# exit
    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client2]root@solaris:~# exit
    [samsharefs-mds]root@solaris:~# 
    
  6. 분산된 I/O 구성에서 각 테이프 드라이브에 대한 버퍼 공간으로 할당할 수 있는 시스템 메모리의 용량을 계산합니다. 총 사용 가능한 메모리를 드라이브 수로 나누고 안심할 수 있는 여유분을 뺍니다.

    (total-memory bytes)/(drive-count drives) = memory bytes/drive 
    (memory bytes/drive) - (safe-margin bytes/drive) = buffsize bytes/drive
     
    

    Oracle HSM에서는 사용되는 각 드라이브에 대해 버퍼를 할당합니다. 따라서 시스템 메모리가 제공할 수 있는 것보다 많은 버퍼 공간을 실수로 구성하지 않도록 하십시오. 예제에서는 드라이브당 224KB 이하를 할당할 수 있음을 알 수 있습니다. 따라서 안심할 수 있는 여유분을 확보하기 위해 128로 줄입니다.

    ((3584 kilobytes)/(16 drives)) = 224 kilobytes/drive
    buffsize = 128 kilobytes/drive
     
    
  7. 각 드라이브에 할당할 수 있는 버퍼의 크기를 계산했으면 지정된 크기의 버퍼에 맞는 Oracle HSM 장치 블록 크기 및 블록 수를 계산합니다.

    (number blocks/buffer)*block-size bytes/block/drive = buffersize bytes/drive
    

    블록 수와 블록 크기의 곱이 계산된 버퍼 크기보다 작거나 같을 때까지 조정합니다. 블록 수는 [2-8192] 범위에 있어야 합니다. 예제에서는 버퍼당 각각 64KB의 블록 2개로 결정합니다.

    (2 blocks/buffer)*(64 kilobytes/block/drive) = 128 kilobytes/drive
    
  8. 메타데이터 서버에서 /etc/opt/SUNWsamfs/archiver.cmd 파일을 텍스트 편집기로 엽니다. 파일의 위쪽에 있는 일반 지시어 섹션의 새 라인에서 bufsize = media-type media-blocks를 입력합니다. 여기서,

    • media-typemcf 파일이 분산된 I/O에 사용되는 드라이브 및 매체에 지정하는 유형 코드입니다.

    • media-blocks는 위에서 계산한 버퍼당 블록 수입니다.

    파일을 저장하고 편집기를 닫습니다.

    예제에서는 samsharefs-mds 서버에 로그인하고 vi 편집기를 사용하여 bufsize = ti 2 라인을 추가합니다. 여기서 ti는 사용 중인 Oracle StorageTek T10000 드라이브에 대한 매체 유형이고 2는 계산된 드라이브 버퍼당 블록 수입니다.

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd
    #       archiver.cmd
    #-----------------------------------------------------------------------
    # General Directives
    archivemeta = off
    examine = noscan
    bufsize = ti 2
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  9. 메타데이터 서버에서 /etc/opt/SUNWsamfs/defaults.conf 파일을 텍스트 편집기로 엽니다. 분산된 I/O에 참여할 각 매체 유형에 대해 media-type_blksize =size 형식의 라인을 입력합니다. 여기서,

    • media-typemcf 파일이 분산된 I/O에 사용되는 드라이브 및 매체에 지정하는 유형 코드입니다.

    • size는 이 절차의 앞에서 계산한 블록 크기입니다.

    기본적으로 StorageTek T10000 드라이브에 대한 장치 블록 크기는 2MB 또는 2048KB(ti_blksize = 2048)입니다. 따라서 예제에서는 기본값을 계산된 블록 크기인 64KB로 대체합니다.

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf 
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    ...
    #li_blksize = 256
    ti_blksize = 64
    [samsharefs-mds]root@solaris:~# 
    
  10. /etc/opt/SUNWsamfs/defaults.conf 파일에서는 필요한 경우 #distio = off 라인의 주석 처리를 해제하거나 없는 경우 이 라인을 추가합니다.

    기본적으로 distiooff(사용 안함)입니다. 예제에서는 distio = on 라인을 추가합니다.

    ...
    distio = on
    
  11. /etc/opt/SUNWsamfs/defaults.conf 파일에서는 분산된 I/O에 참여해야 하는 각 장치 유형을 사용으로 설정합니다. 새 라인에서 media-type _distio = on을 입력합니다. 여기서 media-typemcf 파일이 드라이브 및 매체에 지정하는 유형 코드입니다.

    기본적으로 StorageTek T10000 드라이브 및 LTO 드라이브는 분산 I/O 참여가 허용되며(ti_distio = onli_distio = on), 그 밖의 다른 유형은 제외됩니다. 예제에서는 StorageTek T10000 드라이브를 명시적으로 포함시킵니다.

    ...
    distio = on
    ti_distio = on
    
  12. /etc/opt/SUNWsamfs/defaults.conf 파일에서는 분산된 I/O에 참여하지 않아야 하는 각 장치 유형을 사용 안함으로 설정합니다. 새 라인에서 media-type _distio = off를 입력합니다. 여기서 media-typemcf 파일이 드라이브 및 매체에 지정하는 유형 코드입니다.

    예제에서는 LTO 드라이브를 제외합니다.

    ...
    distio = on
    ti_distio = on
    li_distio = off
    
  13. /etc/opt/SUNWsamfs/defaults.conf 파일 편집을 마쳤으면 파일 내용을 저장하고 편집기를 닫습니다.

    ...
    distio = on
    ti_distio = on
    li_distio = off
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  14. datamover로 작동할 각 클라이언트에서 defaults.conf 파일을 편집하여 서버의 파일과 일치하도록 합니다.

  15. datamover 역할을 할 각 클라이언트에서 /etc/opt/SUNWsamfs/mcf 파일을 텍스트 편집기에서 열고 메타데이터 서버에서 분산된 테이프 I/O에 사용 중인 모든 테이프 장치를 포함하도록 파일을 업데이트합니다. 장치 순서 및 장비 번호가 메타데이터 서버의 mcf 파일과 동일한지 확인합니다.

    예제에서는 vi 편집기를 사용하여 samsharefs-client1 호스트에서 mcf 파일을 구성합니다.

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
     /dev/rmt/60cbn           901       ti                    on
     /dev/rmt/61cbn           902       ti                    on
     /dev/rmt/62cbn           903       ti                    on
     /dev/rmt/63cbn           904       ti                    on
    
  16. 메타데이터 서버의 /etc/opt/SUNWsamfs/mcf 파일에 나열된 테이프 라이브러리가 datamover로 작동할 클라이언트에 구성된 경우, 분산 테이프 I/O에 사용 중인 테이프 장치의 패밀리 세트 이름으로 라이브러리 패밀리 세트를 지정합니다. 파일을 저장합니다.

    예제에서는 라이브러리가 samsharefs-client1 호스트에서 구성되었으므로, 테이프 장치에 대해 패밀리 세트 이름 library1을 사용합니다.

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
    /dev/scsi/changer/c1t0d5 900       rb        library1    on     .../library1cat
     /dev/rmt/60cbn           901       ti        library1    on
     /dev/rmt/61cbn           902       ti        library1    on
     /dev/rmt/62cbn           903       ti        library1    on
     /dev/rmt/63cbn           904       ti        library1    on
    :wq
    [samsharefs-client1]root@solaris:~# 
    
  17. 메타데이터 서버의 /etc/opt/SUNWsamfs/mcf 파일에 나열된 테이프 라이브러리가 datamover로 작동할 클라이언트에 구성되지 않은 경우, 분산 테이프 I/O에 사용 중인 테이프 장치의 패밀리 세트 이름으로 하이픈(-)을 사용합니다. 그런 다음 파일을 저장하고 편집기를 닫습니다.

    예제에서는 라이브러리가 samsharefs-client2 호스트에 구성되어 있지 않으므로, 테이프 장치에 대한 패밀리 세트 이름으로 하이픈을 사용합니다.

    [samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
     /dev/rmt/60cbn           901       ti        -           on
     /dev/rmt/61cbn           902       ti        -           on
     /dev/rmt/62cbn           903       ti        -           on
     /dev/rmt/63cbn           904       ti        -           on
    :wq
    [samsharefs-client2]root@solaris:~# 
    
  18. 특정 아카이브 세트 복사본에 대해 분산된 테이프 I/O를 사용 또는 사용 안함으로 설정해야 하는 경우 텍스트 편집기에서 /etc/opt/SUNWsamfs/archiver.cmd 파일을 열고 copy 지시어에 -distio 매개변수를 추가합니다. 분산된 I/O를 사용으로 설정하려면 -distio on을 설정하고, 사용 안함으로 설정하려면 -distio off로 설정합니다. 파일을 저장합니다.

    예제에서는 samsharefs-mds 서버에 로그인하고 vi 편집기를 사용하여 복사본 1에 대해 분산된 I/O off를 설정합니다.

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd
    #       archiver.cmd
    ...
    params
    allsets -sort path -offline_copy stageahead
    allfiles.1 -startage 10m -startsize 500M -startcount 500000 -distio off
    allfiles.2 -startage 24h -startsize 20G  -startcount 500000 -reserve set
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  19. sam-fsd 명령을 실행하여 구성 파일에 오류가 있는지 확인합니다. 발견된 모든 오류를 수정합니다.

    sam-fsd 명령은 Oracle HSM 구성 파일을 읽고 파일 시스템을 초기화합니다. 만일 오류가 발생하면 중지됩니다. 예제에서는 sharefs-mds 서버에서 명령을 실행합니다.

    [sharefs-mds]root@solaris:~# sam-fsd
    
  20. Oracle HSM 서비스에 수정된 구성 파일을 읽고 그에 따라 재구성하도록 지시합니다. 보고된 모든 오류를 수정하고 필요에 따라 반복합니다.

    [sharefs-mds]root@solaris:~# samd config
    
  21. 분산된 I/O가 성공적으로 활성화되었는지 확인하려면 samcmd g 명령을 사용합니다. DATAMOVER 플래그가 클라이언트에 대한 출력에 표시되면 분산된 I/O가 성공적으로 활성화된 것입니다.

    예제에서는 플래그가 표시됩니다.

    [samsharefs-mds]root@solaris:~# samcmd g
    Shared clients samcmd 6.0.dist_tapeio 11:09:13 Feb 20 2014
    samcmd on samsharefs-mds
    samsharefs is shared, server is samsharefs-mds, 2 clients 3 max
    ord hostname             seqno nomsgs status   config  conf1  flags
      1 samsharefs-mds          14      0   8091  808540d   4051      0 MNT SVR
     
        config   :   CDEVID      ARCHIVE_SCAN    GFSID   OLD_ARCHIVE_FMT
        "        :   SYNC_META   TRACE   SAM_ENABLED     SHARED_MO
        config1  :   NFSV4_ACL   MD_DEVICES      SMALL_DAUS      SHARED_FS
        flags    :
        status   :   MOUNTED     SERVER  SAM     DATAMOVER
        last_msg :  Wed Jul  2 10:13:50 2014
     
      2 samsharefs-client1     127      0   a0a1  808540d   4041      0 MNT CLI
     
        config   :   CDEVID      ARCHIVE_SCAN    GFSID   OLD_ARCHIVE_FMT
        "        :   SYNC_META   TRACE   SAM_ENABLED     SHARED_MO
        config1  :   NFSV4_ACL   MD_DEVICES      SHARED_FS
        flags    :
        status   :   MOUNTED     CLIENT  SAM     SRVR_BYTEREV
        "        :   DATAMOVER
    ...
    
  22. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  23. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.

NFS 및 SMB/CIFS를 사용하여 여러 호스트에서 파일 시스템 액세스

네트워크 파일 시스템(NFS) 또는 SMB(Server Message Block)/CIFS(Common Internet File System) 공유를 multiple-host file-system 액세스에 대한 Oracle HSM 소프트웨어의 고유 지원 대신 또는 고유 지원과 함께 사용하여 여러 호스트에서 Oracle HSM 파일 시스템에 액세스할 수 있습니다(Oracle HSM 소프트웨어를 사용하여 여러 호스트에서 파일 시스템 액세스 참조). 다음 절에서는 기본 구성 단계를 간략히 설명합니다.

NFS를 사용하여 Oracle HSM 파일 시스템 공유

다음 작업을 수행합니다.

NFS 4를 사용하여 Oracle HSM 공유 파일 시스템을 공유하기 전에 위임을 사용 안함으로 설정

NFS를 사용하여 Oracle HSM 공유 파일 시스템을 공유할 경우 Oracle HSM 소프트웨어에서 NFS와 간섭하지 않고 파일에 대한 액세스를 제어하는지 확인해야 합니다. NFS 서버에서 클라이언트를 대신하여 파일에 액세스하는 경우에는 Oracle HSM 공유 파일 시스템의 클라이언트로 액세스하기 때문에 이는 일반적으로 문제가 되지 않습니다. 하지만 클라이언트에 대한 읽기 및 쓰기 권한에 대한 제어를 위임하도록 NFS 버전 4 서버를 구성한 경우에는 문제가 발생할 수 있습니다. 서버는 잠재적 충돌을 차단하기 위해서만 작업에 영향을 주면 되므로 위임은 매력적인 기능입니다. 서버의 작업 로드가 NFS 클라이언트 전체에 부분적으로 분산되므로 네트워크 트래픽이 감소합니다. 하지만 위임은 Oracle HSM 서버와 별개로 액세스 권한(특히, 쓰기 권한)을 부여하며, 자체 공유 파일 시스템 클라이언트에서의 액세스도 제어합니다. 충돌과 잠재적 파일 손상을 방지하려면 위임을 사용 안함으로 설정해야 합니다. 다음과 같이 하십시오.

  1. NFS 공유로 구성하려는 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root로 로그인합니다.

    파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서는 서버 이름이 qfsnfs입니다.

    [qfsnfs]root@solaris:~# 
    
  2. NFS 버전 4를 사용 중이고 NFS 서버에서 Solaris 11.1 이상을 실행하는 경우 SMF(서비스 관리 기능)의 sharectl set -p 명령을 사용하여 NFS server_delegation 등록 정보를 off로 설정합니다.

    [qfsnfs]root@solaris:~# sharectl set -p server_delegation=off
    
  3. NFS 버전 4를 사용하고 있고 NFS 서버에서 Solaris 11.0 이전 버전을 실행하는 경우 텍스트 편집기에서 /etc/default/nfs 파일을 열고 NFS_SERVER_DELEGATION 매개변수를 off로 설정하여 위임을 사용 안함으로 설정합니다. 파일을 저장하고 편집기를 닫습니다.

    이 예에서는 vi 편집기를 사용합니다.

    [qfsnfs]root@solaris:~# vi /etc/default/nfs
    # ident "@(#)nfs        1.10    04/09/01 SMI"
    # Copyright 2004 Sun Microsystems, Inc.  All rights reserved.
    # Use is subject to license terms.
    ...
    NFS_SERVER_DELEGATION=off
    :wq
    [qfsnfs]root@solaris:~# 
    
  4. 공유하려는 Oracle HSM 파일 시스템에서 WORM(Write-Once Read-Many) 기능을 지원하는 경우 지금 WORM 파일과 디렉토리를 공유하도록 NFS 서버 및 클라이언트 구성을 수행합니다.

  5. 그렇지 않은 경우 Oracle HSM 호스트에서 NFS 서버 구성을 수행합니다.

WORM 파일과 디렉토리를 공유하도록 NFS 서버 및 클라이언트 구성

  1. NFS를 사용하여 공유할 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root로 로그인합니다.

    파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서 서버 이름은 qfsnfs이고 클라이언트 이름은 nfsclient1입니다.

    [qfsnfs]root@solaris:~# 
    
  2. 공유하려는 Oracle HSM 파일 시스템이 WORM 기능을 사용하고 Oracle Solaris 10 이상에서 실행 중인 서버에 호스팅된 경우 NFS 서버와 모든 클라이언트에서 NFS 버전 4가 사용으로 설정되어 있는지 확인합니다.

    예제에서는 qfsnfs 서버와 nfsclient1 클라이언트를 확인합니다. 각 경우에 먼저 uname -r 명령을 사용하여 Solaris 버전 레벨을 확인합니다. 그런 다음 modinfo 명령의 출력을 NFS 버전 정보를 찾는 정규 표현식 및 grep에 연결합니다.

    [qfsnfs]root@solaris:~# uname -r
    5.11
    [qfsnfs]root@solaris:~# modinfo | grep -i "nfs.* version 4"
    258 7a600000  86cd0  28   1  nfs (network filesystem version 4)
    [qfsnfs]root@solaris:~# ssh root@nfsclient1
    Pasword: ...
    [nfsclient1]root@solaris:~# uname -r
    5.11
    [nfsclient1]root@solaris:~# modinfo | grep -i "nfs.* version 4"
    278 fffffffff8cba000  9df68  27   1  nfs (network filesystem version 4)
    [nfsclient1]root@solaris:~# exit
    [qfsnfs]root@solaris:~# 
    
  3. Oracle Solaris 10 이상에서 실행 중인 서버에서 NFS 버전 4를 사용으로 설정하지 않은 경우 서버와 각 클라이언트에 root로 로그인합니다. 그런 다음 sharectl set 명령을 사용하여 NFS 4를 사용으로 설정합니다.

    [qfsnfs]root@solaris:~# sharectl set -p server_versmax=4 nfs
    [qfsnfs]root@solaris:~# ssh root@nfsclient1
    Password ...
    [nfsclient1]root@solaris:~# sharectl set -p server_versmax=4 nfs
    [nfsclient1]root@solaris:~# exit
    [qfsnfs]root@solaris:~# 
    
  4. 이제 Oracle HSM 호스트에서 NFS 서버 구성을 수행합니다.

Oracle HSM 호스트에서 NFS 서버 구성

클라이언트에서 NFS(네트워크 파일 시스템)를 사용하여 Oracle HSM 파일 시스템을 성공적으로 마운트하려면 파일 시스템이 호스트에 성공적으로 마운트되기 전에 Oracle HSM 파일 시스템을 공유하려고 시도하지 않도록 NFS 서버를 구성해야 합니다. Oracle Solaris 10 이상 버전의 운영체제에서는 SMF(서비스 관리 기능)에서 부트 시 파일 시스템 마운트를 관리합니다. 아래 절차를 사용하여 NFS를 구성하지 않은 경우 QFS 마운트 또는 NFS 공유 중 하나는 성공하고 하나는 실패합니다.

  1. NFS 공유로 구성하려는 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root로 로그인합니다.

    파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서는 서버 이름이 qfsnfs입니다.

    [qfsnfs]root@solaris:~# 
    
  2. svccfg export /network/nfs/server 명령의 출력을 재지정하여 기존 NFS 구성을 XML 매니페스트 파일로 내보냅니다.

    예제에서는 내보낸 구성을 매니페스트 파일 /var/tmp/server.xml로 보냅니다.

    [qfsnfs]root@solaris:~# svccfg export /network/nfs/server > /var/tmp/server.xml
    [qfsnfs]root@solaris:~# 
    
  3. 텍스트 편집기에서 매니페스트 파일을 열고 filesystem-local 종속성을 찾습니다.

    예제에서는 vi 편집기에서 파일을 엽니다. filesystem-local 종속성에 대한 항목은 종속 nfs-server_multi-user-server에 종속 항목 바로 앞에 나열됩니다.

    [qfsnfs]root@solaris:~# vi /var/tmp/server.xml
    <?xml version='1.0'?>
    <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'>
    <service_bundle type='manifest' name='export'>
      <service name='network/nfs/server' type='service' version='0'>
        ...
        <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/system/filesystem/local'/>
        </dependency>
        <dependent name='nfs-server_multi-user-server' restart_on='none'
            grouping='optional_all'>
          <service_fmri value='svc:/milestone/multi-user-server'/>
        </dependent>
        ...
    
  4. filesystem-local 종속성 바로 뒤에 QFS 공유 파일 시스템을 마운트하는 qfs 종속성을 추가합니다. 그런 다음 파일을 저장하고 편집기를 종료합니다.

    그러면 서버에서 NFS를 통해 공유하려고 시도하기 전에 Oracle HSM 공유 파일 시스템이 마운트됩니다.

    <?xml version='1.0'?>
    <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'>
    <service_bundle type='manifest' name='export'>
      <service name='network/nfs/server' type='service' version='0'>
        ...
        <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/system/filesystem/local'/>
        </dependency>
        <dependency name='qfs' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/network/qfs/shared-mount:default'/>
        </dependency>
        <dependent name='nfs-server_multi-user-server' restart_on='none'
            grouping='optional_all'>
          <service_fmri value='svc:/milestone/multi-user-server'/>
        </dependent>
    :wq
    [qfsnfs]root@solaris:~# 
    
  5. svccfg validate 명령을 사용하여 매니페스트 파일을 검증합니다.

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    
  6. svccfg validate 명령이 오류를 보고하면 오류를 수정하고 파일을 다시 검증합니다.

    예제에서 svccfg validate 명령은 XML 구문 분석 오류를 반환합니다. 파일을 저장할 때 실수로 종료 태그 </dependency>를 누락했습니다. 따라서 vi 편집기에서 파일을 다시 열고 문제를 해결합니다.

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    /var/tmp/server.xml:75: parser error : Opening and ending tag mismatch: dependency line 29 and service
      </service>
                ˆ
    /var/tmp/server.xml:76: parser error : expected '>'
    </service_bundle>
             ˆ
    /var/tmp/server.xml:77: parser error : Premature end of data in tag service_bundle line 3
    ˆ
    svccfg: couldn't parse document
    [qfsnfs]root@solaris:~# vi /var/tmp/server.xml
    ...
    :wq
    [qfsnfs]root@solaris:~# 
    
  7. svccfg validate 명령이 오류 없이 완료되는 경우 svcadm disable nfs/server 명령을 사용하여 NFS를 사용 안함으로 설정합니다.

    예제에서는 svccfg validate 명령이 출력을 반환하지 않았으므로, 파일이 유효하고 NFS를 사용 안함으로 설정할 수 있습니다.

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    [qfsnfs]root@solaris:~# svcadm disable nfs/server
    
  8. svccfg delete nfs/server 명령을 사용하여 기존 NFS 서버 구성을 삭제합니다.

    [qfsnfs]root@solaris:~# svccfg delete nfs/server
    
  9. svccfg import 명령을 사용하여 매니페스트 파일을 SMF(서비스 관리 기능)로 가져옵니다.

    [qfsnfs]root@solaris:~# svccfg import /var/tmp/server.xml
    
  10. svcadm enable nfs/server 명령을 사용하여 NFS를 다시 사용으로 설정합니다.

    NFS가 업데이트된 구성을 사용하도록 구성됩니다.

    [qfsnfs]root@solaris:~# svcadm enable nfs/server
    
  11. qfs 종속성이 적용되었는지 확인합니다. svcs -d svc:/network/nfs/server:default 명령이 /network/qfs/shared-mount:default 서비스를 표시하는지 확인합니다.

    [qfsnfs]root@solaris:~# svcs -d svc:/network/nfs/server:default 
    STATE          STIME    FMRI
    ...
    online         Nov_01   svc:/network/qfs/shared-mount:default
    ...
    
  12. 이제 NFS 공유로 Oracle HSM 파일 시스템 공유를 수행합니다.

NFS 공유로 Oracle HSM 파일 시스템 공유

Oracle Solaris 운영체제 버전의 관리 설명서에 설명된 절차를 사용하여 Oracle HSM 파일 시스템을 공유합니다. 아래 단계에서는 Solaris 11.1에 대한 절차를 요약합니다.

  1. NFS를 사용하여 공유할 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root로 로그인합니다.

    파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서는 서버 이름이 qfsnfs입니다.

    [qfsnfs]root@solaris:~# 
    
  2. share -F nfs -o sharing-options sharepath 명령줄을 입력합니다. 여기서 -F 스위치는 nfs 공유 프로토콜을 지정하고 sharepath는 공유 리소스의 경로입니다. 선택적 -o 매개변수를 사용할 경우 sharing-options는 다음 중 하나를 포함할 수 있습니다.

    • rw는 모든 클라이언트에서 읽기 및 쓰기 권한으로 sharepath를 사용할 수 있도록 지정합니다.

    • ro는 모든 클라이언트에서 읽기 전용 권한으로 sharepath를 사용할 수 있도록 지정합니다.

    • rw=clients는 공유에 액세스할 수 있는 하나 이상의 클라이언트를 콜론으로 구분한 목록인 clients에서 읽기 및 쓰기 권한으로 sharepath를 사용할 수 있도록 지정합니다.

    • ro=clients는 공유에 액세스할 수 있는 하나 이상의 클라이언트를 콜론으로 구분한 목록인 clients에서 읽기 전용 권한으로 sharepath를 사용할 수 있도록 지정합니다.

    예제에서는 /qfsms 파일 시스템 읽기/쓰기를 nfsclient1nfsclient2 클라이언트와 공유하고 읽기 전용을 nfsclient3과 공유합니다(아래 명령은 한 라인으로 입력하며 줄바꿈이 백슬래시로 이스케이프됨).

    [qfsnfs]root@solaris:~# share -F nfs -o rw=nfsclient1:nfsclient2 \
     ro=nfsclient3 /qfsms
    

    명령을 입력하면 시스템에서 NFS 서버 데몬 nfsd를 자동으로 다시 시작합니다. 추가 옵션과 자세한 내용은 share_nfs 매뉴얼 페이지를 참조하십시오.

  3. share -F nfs 명령줄을 사용하여 공유 매개변수를 확인합니다.

    예제에서 명령 출력은 공유를 올바르게 구성했음을 보여 줍니다.

    [qfsnfs]root@solaris:~# share -F nfs
    /qfsms   sec=sys,rw=nfsclient1:nfsclient2,ro=nfsclient3
    [qfsnfs]root@solaris:~# 
    
  4. 이제 NFS 클라이언트에서 NFS 공유 Oracle HSM 파일 시스템 마운트를 수행합니다.

NFS 클라이언트에서 NFS 공유 Oracle HSM 파일 시스템 마운트

클라이언트 시스템의 편리한 마운트 지점에 NFS 서버의 파일 시스템을 마운트합니다. 각 클라이언트에 대해 다음과 같이 하십시오.

  1. 클라이언트에 root로 로그인합니다.

    예제에서 NFS 클라이언트의 이름은 nfsclient1로 지정됩니다.

    [nfsclient1]root@solaris:~# 
    
  2. 운영체제의 /etc/vfstab 파일을 백업합니다.

    [nfsclient1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [nfsclient1]root@solaris:~# 
    
  3. 텍스트 편집기에서 /etc/vfstab 파일을 엽니다.

    예제에서는 vi 편집기를 사용합니다.

    [nfsclient1]root@solaris:~# vi /etc/vfstab
    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    
  4. /etc/vfstab 파일의 첫번째 열에서 NFS 서버의 이름과 공유할 파일 시스템의 마운트 지점을 콜론으로 구분하여 지정하여 파일 장치의 이름을 지정합니다.

    예제에서 NFS 서버의 이름은 qfsnfs로 지정되고, 공유 파일 시스템의 이름은 qfsms로 지정되고, 서버의 마운트 지점은 /qfsms입니다.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms
    
  5. 로컬 시스템에서 원격 파일 시스템의 일관성 검사를 시도하지 않도록 /etc/vfstab 파일의 두번째 열에 하이픈(-)을 입력합니다.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -
    
  6. /etc/vfstab 파일의 세번째 열에 원격 파일 시스템을 마운트할 로컬 마운트 지점을 입력합니다.

    예제에서 마운트 지점은 /qfsnfs 디렉토리입니다.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs
    
  7. /etc/vfstab 파일의 네번째 열에 파일 시스템 유형 nfs를 입력합니다.

    #File         Device                           Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs
    

    클라이언트에서는 원격 QFS 파일 시스템을 NFS 파일 시스템으로 마운트하므로 nfs 파일 시스템 유형을 사용합니다.

  8. 로컬 시스템에서는 원격 파일 시스템의 일관성을 검사하지 않으므로, /etc/vfstab 파일의 다섯번째 열에 하이픈(-)을 입력합니다.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -
    
  9. /etc/vfstab 파일의 여섯번째 열에는 부트 시 원격 파일 시스템을 마운트하려면 yes를 입력하고, 요구 시 수동으로 마운트하려면 no를 입력합니다.

    예제에서는 yes를 입력합니다.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes
    
  10. /etc/vfstab 파일의 마지막 열에서 hardintr NFS 마운트 옵션을 입력하여 중단할 수 없는 무제한 재시도를 적용하거나, soft, retranstimeo 마운트 옵션을 입력하고 retrans120 이상으로 설정하고 timeo를 1초의 3000/10으로 설정하여 지정된 재시도 횟수를 설정합니다.

    hard 재시도 옵션을 설정하거나, 긴 시간 초과 값과 충분한 재시도 횟수로 soft 옵션을 지정하면 요청된 파일이 즉시 마운트할 수 없는 이동식 볼륨에 있는 경우에도 NFS 요청이 실패하지 않습니다. 이러한 마운트 옵션에 대한 자세한 내용은 Solaris mount_nfs 매뉴얼 페이지를 참조하십시오.

    예제에서는 soft 마운트 옵션을 입력합니다.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes    soft,retrans=120,timeo=3000
    
  11. NFS 2를 사용 중인 경우 rsize 마운트 매개변수를 32768로 설정합니다.

    다른 NFS 버전인 경우 기본값을 사용합니다.

    rsize 마운트 매개변수는 읽기 버퍼 크기를 32768바이트(기본값: 8192바이트)로 설정합니다. 예제에서는 NFS 2 구성을 보여줍니다.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs2:/qfs2 -       /qfsnfs2  nfs    -     yes    ...,rsize=32768 
    
  12. NFS 2를 사용 중인 경우 wsize 마운트 매개변수를 32768로 설정합니다.

    다른 NFS 버전인 경우 기본값을 사용합니다.

    wsize 마운트 매개변수는 쓰기 버퍼 크기를 지정된 바이트 수(기본값: 8192바이트)로 설정합니다. 예제에서는 NFS 2 구성을 보여줍니다.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs2:/qfs2 -       /qfsnfs2  nfs    -     yes    ...,wsize=32768 
    
  13. /etc/vfstab 파일을 저장하고 편집기를 종료합니다.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes    soft,retrans=120,timeo=3000
    :wq
    [nfsclient1]root@solaris:~# 
    
  14. 공유 파일 시스템에 대한 마운트 지점 디렉토리를 만듭니다.

    예제에서는 /qfsnfs 디렉토리에 공유 파일 시스템을 마운트합니다.

    [nfsclient1]root@solaris:~# mkdir /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  15. /etc/vfstab 파일에 지정된 마운트 지점을 만들고 마운트 지점에 대한 액세스 권한을 설정합니다.

    사용자가 마운트 지점 디렉토리를 변경하고 마운트된 파일 시스템의 파일에 액세스하려면 실행(x) 권한이 있어야 합니다. 예제에서는 /qfsnfs 마운트 지점 디렉토리를 만들고 755(-rwxr-xr-x)로 권한을 설정합니다.

    [nfsclient1]root@solaris:~# mkdir /qfsnfs
    [nfsclient1]root@solaris:~# chmod 755 /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  16. 공유 파일 시스템을 마운트합니다.

    [nfsclient1]root@solaris:~# mount /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  17. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  18. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.

SMB/CIFS를 사용하여 Oracle HSM 파일 시스템 공유

SMB는 Oracle HSM을 Microsoft Windows 호스트에서 액세스할 수 있도록 만들고 대소문자 구분 사용 안함, DOS 속성 지원, NFSv4 ACL(액세스 제어 목록) 지원 등과 같은 상호 운용성 기능을 제공합니다. Oracle Solaris OS는 NT LM 0.12 및 CIFS(Common Internet File System)를 비롯하여 여러 SMB 언어에 대한 지원을 포함한 SMB(Server Message Block) 프로토콜 서버 및 클라이언트 구현을 제공합니다.

Oracle HSM은 Windows SID(보안 식별자)를 지원합니다. Windows ID는 더 이상 idmap 서비스를 사용하여 명시적으로 정의하거나 Active Directory 서비스에서 제공할 필요가 없습니다.

Oracle HSM 파일 시스템을 사용하여 SMB 서비스를 구성하려면 다음 작업을 수행합니다.

Oracle Solaris SMB 구성 및 관리 설명서 검토

아래 절에서는 Oracle HSM 파일 시스템에 적용되는 SMB 구성 프로세스 부분에 대해 간략히 설명합니다. 자세한 설명이나 일부 시나리오에 대해서는 다루지 않습니다. 따라서 Oracle Solaris SMB 서버 구성, 기존 Windows 환경에 서버 통합, Solaris 시스템에 SMB 공유 마운트 등에 대한 전체 지침을 검토하십시오. 전체 지침은 Oracle Solaris Information LibraryManaging SMB and Windows Interoperability in Oracle Solaris 볼륨에서 확인할 수 있습니다.

SMB 서버에 대한 Windows ID 명시적 매핑(선택사항)

이제 Oracle HSM는 Windows SID(보안 식별자)를 완벽하게 지원하지만, UNIX ID와 SID 사이의 관계를 명시적으로 정의하면 유용한 경우도 있습니다. 예를 들어 사용자가 UNIX ID와 Windows ID를 모두 사용하는 유형이 다른 환경에서 idmap 서비스 또는 Active Directory 서비스를 사용하여 명시적 매핑을 만들 수도 있습니다. SMB 및 Windows 상호 운용성에 대한 자세한 내용은 사용하는 Oracle Solaris 버전의 제품 설명서를 참조하십시오.

SMB/CIFS와 공유하도록 Oracle HSM 파일 시스템 구성

SMB/CIFS를 사용하여 공유되는 Oracle HSM 파일 시스템은 NFS(네트워크 파일 시스템) 버전 4에서 채택되고 Oracle Solaris 11에서 소개된 새로운 ACL(액세스 제어 목록) 구현을 사용해야 합니다. 이전 버전의 Solaris 및 NFS에서는 Windows ACL 구현과 호환되지 않는 POSIX 드래프트 사양을 기반으로 하는 ACL을 사용합니다.

Oracle HSM으로 만드는 새로운 파일 시스템에서는 기본적으로 Solaris 11의 NFS 버전 4 ACL을 사용합니다. 하지만 기존 Oracle HSM 파일 시스템을 SMB/CIFS 클라이언트와 공유해야 하는 경우 적절한 절차를 사용하여 기존 POSIX 스타일 ACL을 변환해야 합니다.

POSIX 스타일 ACL을 사용하는 Oracle HSM 비공유 파일 시스템 변환

다음과 같이 하십시오.

  1. 호스트에 root로 로그인합니다.

    예제에서는 qfs-host 호스트에 로그인합니다.

    [qfs-host]root@solaris:~# 
    
  2. 호스트에서 Oracle Solaris 11.1 이상을 실행하는지 확인합니다. uname -r 명령을 사용합니다.

    [qfs-host]root@solaris:~# uname -r
    5.11
    [qfs-host]root@solaris:~# 
    
  3. umount mount-point 명령을 사용하여 파일 시스템을 마운트 해제합니다. 여기서 mount-point는 Oracle HSM 파일 시스템의 마운트 지점입니다.

    자세한 내용은 umount_samfs 매뉴얼 페이지를 참조하십시오. 아래 예제에서 서버 이름은 qfs-host이고 파일 시스템은 /qfsms입니다.

    [qfs-host]root@solaris:~# umount /qfsms
    
  4. samfsck -F -A file-system 명령을 사용하여 파일 시스템을 변환합니다. 여기서 -F 옵션은 파일 시스템의 검사와 오류 수정을 지정하고, -A 옵션은 ACL 변환을 지정하고, file-system은 변환해야 하는 파일 시스템의 이름입니다.

    -A 옵션을 지정한 경우 -F 옵션이 필요합니다. samfsck -F -A 명령이 오류를 반환하는 경우 프로세스가 중지되고 ACL이 변환되지 않습니다. 이러한 옵션에 대한 자세한 내용은 samfsck 매뉴얼 페이지를 참조하십시오.

    [qfs-host]root@solaris:~# samfsck -F -A /qfsms
    
  5. 오류가 반환되고 ACL이 변환되지 않는 경우 samfsck -F -a file-system 명령을 사용하여 ACL을 강제로 변환합니다.

    -a 옵션은 강제 변환을 지정합니다. -a 옵션을 지정한 경우 -F 옵션이 필요합니다. 이러한 옵션에 대한 자세한 내용은 samfsck 매뉴얼 페이지를 참조하십시오.

    [qfs-host]root@solaris:~# samfsck -F -a /qfsms
    
  6. 이제 Windows Active Directory 도메인 또는 작업 그룹에 대한 SMB 서버 구성을 수행합니다.

POSIX 스타일 ACL을 사용하는 Oracle HSM 공유 파일 시스템 변환
  1. 파일 시스템 메타데이터 서버에 root로 로그인합니다.

    예제에서는 메타데이터 서버 sharedqfs-mds에 로그인합니다.

    [sharedqfs-mds]root@solaris:~# 
    
  2. 메타데이터 서버에서 Oracle Solaris 11.1 이상을 실행하는지 확인합니다. uname -r 명령을 사용합니다.

    [sharedqfs-mds]root@solaris:~# uname -r
    5.11
    [sharedqfs-mds]root@solaris:~# 
    
  3. 각 Oracle HSM 클라이언트에 root로 로그인하고, 각 클라이언트에서 Oracle Solaris 11.1 이상을 실행하는지 확인합니다.

    예제에서는 단말기 창을 열고 ssh를 사용하여 클라이언트 호스트 sharedqfs-client1sharedqfs-client2에 원격으로 로그인하여 로그인 배너에서 Solaris 버전을 가져옵니다.

    [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client1
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client1]root@solaris:~# 
    
    [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client2
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client2]root@solaris:~# 
    
  4. umount mount-point 명령을 사용하여 각 Oracle HSM 클라이언트에서 Oracle HSM 공유 파일 시스템을 마운트 해제합니다. 여기서 mount-point는 Oracle HSM 파일 시스템의 마운트 지점입니다.

    자세한 내용은 umount_samfs 매뉴얼 페이지를 참조하십시오. 예제에서는 두 클라이언트 sharedqfs-client1sharedqfs-client2에서 /sharedqfs1을 마운트 해제합니다.

    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client1]root@solaris:~# umount /sharedqfs
    [sharedqfs-client1]root@solaris:~# 
    
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client2]root@solaris:~# umount /sharedqfs
    [sharedqfs-client1]root@solaris:~# 
    
  5. umount -o await_clients=interval mount-point 명령을 사용하여 메타데이터 서버에서 Oracle HSM 공유 파일 시스템을 마운트 해제합니다. 여기서 mount-point는 Oracle HSM 파일 시스템의 마운트 지점이고, interval은 -o await_clients 옵션으로 지정된 실행 지연 시간(초)입니다.

    Oracle HSM 공유 파일 시스템의 메타데이터 서버에서 umount 명령을 실행할 때 -o await_clients 옵션은 지정된 초 수만큼 umount를 대기시켜서 클라이언트가 공유 파일 시스템을 마운트 해제할 시간을 벌어줍니다. 비공유 파일 시스템을 마운트 해제하거나 Oracle HSM 클라이언트에서 명령을 실행할 경우 아무 효과가 없습니다. 자세한 내용은 umount_samfs 매뉴얼 페이지를 참조하십시오.

    예제에서는 /sharedqfs 파일 시스템을 sharedqfs-mds 메타데이터 서버에서 마운트 해제하고 클라이언트에서 60초 동안 마운트 해제하도록 허용합니다.

    [sharedqfs-mds]root@solaris:~# umount -o await_clients=60 /sharedqfs
    
  6. 파일 시스템을 POSIX 스타일 ACL에서 NFS 버전 4 ACL로 변환합니다. 메타데이터 서버에서 samfsck -F -A file-system 명령을 사용하여 파일 시스템을 변환합니다. 여기서 -F 옵션은 파일 시스템의 검사와 오류 수정을 지정하고, -A 옵션은 ACL 변환을 지정하고, file-system은 변환해야 하는 파일 시스템의 이름입니다.

    -A 옵션을 지정한 경우 -F 옵션이 필요합니다. samfsck -F -A file-system 명령이 오류를 반환하는 경우 프로세스가 중지되고 ACL이 변환되지 않습니다. 이러한 옵션에 대한 자세한 내용은 samfsck 매뉴얼 페이지를 참조하십시오. 예제에서는 /sharedqfs라는 Oracle HSM 파일 시스템을 변환합니다.

    [sharedqfs-mds]root@solaris:~# samfsck -F -A /sharedqfs
    
  7. 오류가 반환되고 ACL이 변환되지 않는 경우 ACL을 강제로 변환합니다. 메타데이터 서버에서는 samfsck -F -a file-system 명령을 사용합니다.

    -a 옵션은 강제 변환을 지정합니다. -a 옵션을 지정한 경우 -F 옵션이 필요합니다. 이러한 옵션에 대한 자세한 내용은 samfsck 매뉴얼 페이지를 참조하십시오. 예제에서는 /qfsma라는 Oracle HSM 파일 시스템을 강제로 변환합니다.

    [sharedqfs-mds]root@solaris:~# samfsck -F -a /sharedqfs
    
  8. 이제 Windows Active Directory 도메인 또는 작업 그룹에 대한 SMB 서버 구성을 수행합니다.

Windows Active Directory 도메인 또는 작업 그룹에 대한 SMB 서버 구성

Oracle Solaris SMB 서비스는 도메인 또는 작업 그룹의 두 가지 상호 배타적인 모드로 작동할 수 있습니다. 사용 환경과 인증 요구 사항을 기반으로 두 모드 중 하나를 선택합니다.

  • Active Directory 도메인 사용자에게 Solaris SMB 서비스에 대한 액세스 권한을 부여해야 하는 경우 도메인 모드로 SMB 서버 구성을 수행합니다.

  • 로컬 Solaris 사용자에게 SMB 서비스에 대한 액세스 권한을 부여해야 하고 Active Directory 도메인이 없거나 Active Directory 도메인 사용자에게 서비스에 대한 액세스 권한을 부여해야 하는 경우 작업 그룹 모드로 SMB 서버 구성을 수행합니다.

도메인 모드로 SMB 서버 구성
  1. Windows Active Directory 관리자에게 문의하여 다음 정보를 확인하십시오.

    • Active Directory 도메인에 조인할 때 사용해야 하는 인증된 Active Directory 사용자 계정의 이름

    • 계정에 대한 기본 Computers 컨테이너 대신 사용해야 하는 조직 단위(있는 경우)

    • Oracle HSM 파일 시스템을 공유할 도메인에 대한 정규화된 LDAP/DNS 도메인 이름

  2. SMB/CIFS 공유로 구성하려는 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root로 로그인합니다.

    파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서 서버 이름은 qfssmb입니다.

    [qfssmb]root@solaris:~# 
    
  3. 오픈 소스 Samba 서버와 SMB 서버를 단일 Oracle Solaris 시스템에서 함께 사용할 수 없습니다. 따라서 Samba 서비스가 실행 중인지 확인하십시오. 서비스 상태 명령 svcs의 출력을 grep 및 정규식 samba에 연결합니다.

    예제에서는 svcs 명령의 출력에 정규식과 일치하는 항목이 포함되어 있으므로 SMB 서비스가 실행 중인 것입니다.

    [qfssmb]root@solaris:~# svcs | grep samba
    legacy_run     Nov_03   lrc:/etc/rc3_d/S90samba
    
  4. Samba 서비스(svc:/network/samba)가 실행 중인 경우 Windows Internet Naming Service/WINS(svc:/network/wins)(실행 중인 경우)와 함께 서비스를 사용 안함으로 설정합니다. svcadm disable 명령을 사용합니다.

    [qfssmb]root@solaris:~# svcadm disable svc:/network/samba
    [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
    
  5. 이제 svcadm enable -r smb/server 명령을 사용하여 SMB 서버와 이 서버에 종속되는 모든 서비스를 시작합니다.

    [qfssmb]root@solaris:~# svcadm enable -r smb/server
    
  6. Oracle HSM 호스트의 시스템 시계와 Microsoft Windows 도메인 컨트롤러의 시스템 시계의 시차가 5분 이내여야 합니다.

    • Windows 도메인 컨트롤러에서 NTP(Network Time Protocol) 서버를 사용하는 경우 Oracle HSM 호스트에서 동일한 서버를 사용하도록 구성합니다. Oracle HSM 호스트에서 /etc/inet/ntpclient.conf 파일을 만들고 svcadm enable ntp 명령을 사용하여 ntpd 데몬을 시작합니다. 자세한 내용은 ntpd 매뉴얼 페이지와 Oracle Solaris 관리 설명서를 참조하십시오.

    • 그렇지 않은 경우 ntpdate domain-controller-name 명령을 실행하여 Oracle HSM 호스트를 도메인 컨트롤러와 동기화하거나(자세한 내용은 ntpdate 매뉴얼 페이지 참조) Oracle HSM 호스트의 시스템 시계를 도메인 컨트롤러의 시스템 시계에 표시된 시간으로 수동으로 설정합니다.

  7. smbadm join -u username -o organizational-unit domain-name 명령을 사용하여 Windows 도메인에 조인합니다. 여기서 username은 Active Directory 관리자가 지정한 사용자 계정의 이름이고, 선택적 organizational-unit은 지정된 계정 컨테이너이고(있는 경우), domain-name은 지정된 정규화된 LDAP 또는 DNS 도메인 이름입니다.

    예제에서는 사용자 계정을 사용하여 Windows 도메인 this.example.com에 조인합니다.

    [qfssmb]root@solaris:~# smbadm join -u admin -o smbsharing this.example.com
    
  8. 이제 SMB/CIFS 공유로 Oracle HSM 파일 시스템 공유를 수행합니다.

작업 그룹 모드로 SMB 서버 구성
  1. Windows 네트워크 관리자에게 문의하여 Oracle HSM 파일 시스템의 호스트를 조인할 Windows 작업 그룹의 이름을 확인합니다.

    기본 작업 그룹의 이름은 WORKGROUP입니다.

  2. Oracle HSM 파일 시스템의 호스트에 로그인합니다. root로 로그인합니다.

    파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서 서버 이름은 qfssmb입니다.

    [qfssmb]root@solaris:~# 
    
  3. 오픈 소스 Samba 서버와 SMB 서버를 단일 Oracle Solaris 시스템에서 함께 사용할 수 없습니다. 따라서 Samba 서비스가 실행 중인지 확인하십시오. svcs 서비스 상태 명령의 출력을 grep 및 정규식 samba에 연결합니다.

    예제에서는 svcs 명령의 출력에 정규식과 일치하는 항목이 포함되어 있으므로 SMB 서비스가 실행 중인 것입니다.

    [qfssmb]root@solaris:~# svcs | grep samba
    legacy_run     Nov_03   lrc:/etc/rc3_d/S90samba
    
  4. Samba 서비스(svc:/network/samba)가 실행 중인 경우 Windows Internet Naming Service/WINS(svc:/network/wins) 서비스(실행 중인 경우)와 함께 이 서비스를 사용 안함으로 설정합니다. svcadm disable 명령을 사용합니다.

    Samba 서버와 SMB 서버를 단일 Oracle Solaris 시스템에서 함께 사용할 수 없습니다.

    [qfssmb]root@solaris:~# svcadm disable svc:/network/samba
    [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
    
  5. 이제 svcadm enable -r smb/server 명령을 사용하여 SMB 서버와 이 서버에 종속되는 모든 서비스를 시작합니다.

    [qfssmb]root@solaris:~# svcadm enable -r smb/server
    
  6. 작업 그룹을 조인합니다. smbadm join 명령을 -w(작업 그룹) 스위치 및 Windows 네트워크 관리자가 지정한 작업 그룹의 이름과 함께 사용합니다.

    예제에서 지정된 작업 그룹의 이름은 crossplatform입니다.

    [qfssmb]root@solaris:~# smbadm join -w crossplatform
    
  7. SMB 암호를 암호화하도록 Oracle HSM 호스트를 구성합니다. 텍스트 편집기에서 /etc/pam.d/other 파일을 열고 password required pam_smb_passwd.so.1 nowarn 명령줄을 추가한 다음 파일을 저장합니다.

    이 예에서는 vi 편집기를 사용합니다.

    [qfssmb]root@solaris:~# vi /etc/pam.d/other
    # Copyright (c) 2012, Oracle and/or its affiliates. All rights reserved.
    #
    # PAM configuration
    #
    # Default definitions for Authentication management
    # Used when service name is not explicitly mentioned for authentication
    #
    auth definitive         pam_user_policy.so.1
    ...
    password required       pam_authtok_store.so.1
    password required pam_smb_passwd.so.1 nowarn
    :wq
    [qfssmb]root@solaris:~# 
    

    자세한 내용은 pam_smb_passwd 매뉴얼 페이지를 참조하십시오.

  8. pam_smb_passwd 모듈이 설치된 경우 SMB 서버에서 Windows 작업 그룹에 로그인할 수 있도록 passwd local-username 명령을 사용하여 local-username 사용자에 대한 암호의 암호화된 버전을 생성합니다.

    SMB 서버에서는 Solaris 운영체제에 사용된 암호의 동일한 암호화된 버전을 사용하여 사용자를 인증할 수 없습니다. 예제에서는 smbsamqfs 사용자에 대한 암호화된 SMB 암호를 생성합니다.

    [qfssmb]root@solaris:~# passwd smbsamqfs
    
  9. 이제 SMB/CIFS 공유로 Oracle HSM 파일 시스템 공유를 수행합니다.

SMB/CIFS 공유로 Oracle HSM 파일 시스템 공유

Oracle Solaris 운영체제 버전의 관리 설명서에 설명된 절차를 사용하여 Oracle HSM 파일 시스템을 공유합니다. 아래 단계에서는 Solaris 11.1에 대한 절차를 요약합니다.

  1. SMB/CIFS 공유로 구성하려는 Oracle HSM 파일 시스템의 호스트에 로그인합니다. root로 로그인합니다.

    파일 시스템이 Oracle HSM 공유 파일 시스템인 경우 파일 시스템에 대한 메타데이터 서버에 로그인합니다. 아래 예제에서 서버 이름은 qfssmb입니다.

    [qfssmb]root@solaris:~# 
    
  2. 공유를 구성합니다. share -F smb -o specific-options sharepath sharename 명령을 사용합니다. 여기서 -F 스위치는 smb 공유 프로토콜을 지정하고, sharepath는 공유 리소스의 경로이고, sharename은 공유에 사용할 이름입니다. 선택적 -o 매개변수의 값 sharing-options는 다음을 포함할 수 있습니다.

    • abe=[true|false]

      공유에 대한 ABE(액세스 기반 열거) 정책이 true인 경우 요청하는 사용자가 액세스할 수 없는 디렉토리 항목은 클라이언트로 반환되는 디렉토리 목록에서 생략됩니다.

    • ad-container=cn=user,ou=organization,dc=domain-dns

      Active Directory 컨테이너에서는 LDAP(Lightweight Directory Access Protocol) RDN(상대적인 식별 이름) 속성 값인 cn(사용자 객체 클래스), ou(조직 단위 객체 클래스), dc(도메인 DNS 객체 클래스)로 지정된 도메인 객체로 공유 액세스를 제한합니다.

      Active Directory 컨테이너를 SMB/CIFS와 함께 사용하는 방법에 대한 자세한 내용은 Internet Engineering Task Force Request For Comment (RFC) 2253 및 Microsoft Windows 디렉토리 서비스 설명서를 참조하십시오.

    • catia=[true|false]

      CATIA 문자 대체가 true인 경우 Windows에서 허용되지 않는 CATIA 버전 4 파일 시스템의 모든 문자가 올바른 문자로 대체됩니다. 대체 목록은 share_smb 매뉴얼 페이지를 참조하십시오.

    • csc=[manual|auto|vdo|disabled]

      클라이언트측 캐싱(csc) 정책은 오프라인 사용을 위해 파일의 클라이언트측 캐싱을 제어합니다. manual 정책을 사용하면 사용자가 요청한 경우 클라이언트에서 파일을 캐시할 수 있지만, 자동 파일별 재통합(기본값)이 사용 안함으로 설정됩니다. auto 정책을 사용하면 클라이언트에서 파일을 자동으로 캐시할 수 있고 자동 파일별 재통합이 사용으로 설정됩니다. vdo 정책을 사용하면 오프라인에서 사용하기 위해 클라이언트에서 파일을 자동으로 캐시하고, 파일별 재통합을 사용으로 설정하고, 오프라인 상태에서도 로컬 캐시에서 클라이언트 작업을 수행할 수 있습니다. disabled 정책은 클라이언트측 캐싱을 허용하지 않습니다.

    • dfsroot=[true|false]

      Microsoft DFS(분산 파일 시스템)에서 루트 공유(dfsroot=true)는 널리 분산된 공유 폴더 그룹을 보다 쉽게 관리할 수 있는 단일 DFS 파일 시스템으로 구성하는 공유입니다. 자세한 내용은 Microsoft Windows Server 설명서를 참조하십시오.

    • guestok=[true|false]

      guestok 정책이 true이면 로컬로 정의된 guest 계정으로 공유에 액세스할 수 있습니다. 이 정책이 false이거나 정의되지 않은 경우(기본값) guest 계정으로 공유에 액세스할 수 없습니다. 이 정책을 사용하면 Windows Guest 사용자를 로컬로 정의된 UNIX 사용자 이름(예: guest 또는 nobody)에 매핑할 수 있습니다.

      # idmap add winname:Guest unixuser:guest
      

      그런 다음 원하는 경우 /var/smb/smbpasswd에 저장된 암호를 기준으로 로컬로 정의된 계정을 인증할 수 있습니다. 자세한 내용은 idmap 매뉴얼 페이지를 참조하십시오.

    • rw=[*|[[-]criterion][:[-]criterion]...

      rw 정책은 제공된 액세스 목록과 일치하는 모든 클라이언트에 권한을 허용하거나 거부합니다.

      액세스 목록에는 모두를 의미하는 단일 별표(*) 또는 클라이언트 액세스 기준의 콜론으로 구분된 목록이 포함되어 있습니다. 여기서 각 criterion거부를 의미하는 선택적 빼기 기호(-), 호스트 이름, 네트워크 그룹, 전체 LDAP 또는 DNS 도메인 이름 및/또는 기호 @과 IP 주소 또는 도메인 이름의 전체 또는 일부로 구성됩니다. 클라이언트가 기준 중 하나를 충족할 때까지 왼쪽에서 오른쪽으로 액세스 목록을 평가합니다. 자세한 내용은 share_smb 매뉴얼 페이지를 참조하십시오.

    • ro=[*|[[-]criterion][:[-]criterion]...

      ro 정책은 액세스 목록과 일치하는 클라이언트에 읽기 전용 권한을 부여하거나 거부합니다.

    • none=[*|[[-]criterion][:[-]criterion]...

      none 정책은 액세스 목록과 일치하는 클라이언트에 대한 액세스를 거부합니다. 액세스 목록이 별표(*)인 경우 rorw 정책이 none 정책을 대체합니다.

    예제에서는 /qfsms 파일 시스템 읽기/쓰기를 smbclient1smbclient2 클라이언트와 공유하고 읽기 전용을 smbclient3과 공유합니다.

    [qfssmb]root@solaris:~# share -F smb -o rw=smbclient1:smbclient2 
    ro=smbclient3 /qfsms
    

    명령을 입력하면 시스템에서 SMB 서버 데몬 smbd를 자동으로 다시 시작합니다.

  3. 공유 매개변수를 확인합니다. share -F nfs 명령을 사용합니다.

    예제에서 명령 출력은 공유를 올바르게 구성했음을 보여 줍니다.

    [qfssmb]root@solaris:~# share -F smb /qfsms
    sec=sys,rw=smbclient1:smbclient2,ro=smbclient3
    [qfssmb]root@solaris:~# 
    
  4. 사이드밴드 데이터베이스 기능을 사용할 계획인 경우 보고 데이터베이스 구성을 참조하십시오.

  5. 그렇지 않은 경우 알림 및 로깅 구성으로 이동합니다.