7 複数のホストからのファイルシステムへのアクセス

Oracle HSM ファイルシステムは、いくつかの方法のいずれかを使用して複数のホスト間で共有できます。それぞれの方法には、ある状況では一定の利点がある一方で、別の状況では著しい欠点もあります。したがって、方法の選択は固有の要件によって異なります。共有する方法は次のとおりです。

Oracle HSM ソフトウェアを使用した複数のホストからのファイルシステムへのアクセス

Oracle HSM では、すべてのファイルシステムを同時にマウントする 1 つのサーバーおよび 1 つ以上のクライアントを構成することによって、ファイルシステムを複数のホストで使用できるようにします。その後、ファイルデータは、NFS および CIFS 共有に関連するネットワークおよび中間サーバーの待ち時間なしで、高パフォーマンスのローカルパス入出力によってディスクデバイスからホストに直接渡されます。メタデータサーバーとして同時にアクティブにできるホストは 1 つだけですが、冗長化の目的では、任意の数のクライアントを潜在的なメタデータサーバーとして構成できます。ファイルシステムのマウントポイント数には制限がありません。

Oracle HSM では、アーカイブ処理を使用するかどうかに関係なく、複数読み取り/単一書き込み構成と共有構成の両方で高パフォーマンス (ma) と汎用 (ms) の両方のファイルシステムへの複数ホストアクセスがサポートされています。制限事項がわずかにあります。

  • ブロック (b–) 特殊ファイルはサポートされていません。

  • 文字 (c–) 特殊ファイルはサポートされていません。

  • FIFO 名前付きパイプ (p–) 特殊ファイルはサポートされていません。

  • セグメント化ファイルはサポートされていません。

    セグメント化ファイル環境では、Oracle HSM 共有ファイルシステムを実装できません。

  • 必須のロックはサポートされていません。

    必須のロックが設定されている場合は、EACCES エラーが返されます。ただし、アドバイザリロックはサポートされています。アドバイザリロックの詳細は、fcntl のマニュアルページを参照してください。

Oracle HSM software ホストは、2 つの構成のいずれかを使用してファイルシステムデータにアクセスできますが、それぞれの構成に特定のアプリケーションでの独自の利点と制限があります。

複数読み取り/単一書き込み構成では、単一のホストに読み取り/書き込みアクセス権を付与してファイルシステムをマウントし、その他のすべてのホストではそれを読み取り専用でマウントします。構成は、単にマウントポイントオプションを設定するだけで済みます。単一のホストがファイルに対するすべての変更を行うため、追加のファイルロックや整合性チェックなしでも、ファイルの整合性およびデータの完全性が保証されます。パフォーマンスを最適にするために、すべてのホストがディスクから直接メタデータとデータを読み取ります。ただし、すべてのホストがファイルシステムのメタデータにアクセスする必要があるため、ma ファイルシステム内のすべてのホストがデータとメタデータデバイスの両方へのアクセス権を持っている必要があります。

共有構成では、単一のホストが特定の期間内に特定の方法でファイルにアクセスすることを許可するリースを使用することで、すべてのホストがファイルデータの読み取り、書き込み、および追加を行うことができます。メタデータサーバーは読み取り書き込み、および追加のリースを発行し、更新および競合リースの要求を管理します。共有ファイルシステムでは、高い柔軟性が提供されますが、構成が多少複雑になるため、ファイルシステムのオーバーヘッドが増加します。すべてのホストはディスクから直接ファイルデータを読み取りますが、クライアントはネットワークを介してメタデータにアクセスします。そのため、メタデータデバイスへのアクセス権が不足しているクライアントでも、ma ファイルシステムを共有できます。

複数のホストからのデータへのアクセスを構成するには、2 つの方法のいずれかを選択します。

Oracle HSM 単一書き込み/複数読み取りファイルシステムの構成

単一書き込み/複数読み取りファイルシステムを構成するには、次のタスクを実行します。

書き込みでのファイルシステムの作成

次のように進めます。

  1. root アカウントを使用して、writerとして機能するホストにログインします。

    この例では、writer ホストの名前は swriterfs-mds-writer です。

    [swriterfs1-mds-writer]root@solaris:~# 
    
  2. writer として機能するホスト上で、/etc/opt/SUNWsamfs/mcf ファイルをテキストエディタで開き、QFS ファイルシステムを追加します。汎用の ms または高性能な ma ファイルシステムを構成できます。

    個別のメタデータデバイスを持つ ma ファイルシステム上で、ファイルシステムのメタデータサーバーを書き込み側として構成します。次の例では、vi テキストエディタを使用して、ホスト swriterfs1-mds-writer 上の mcf ファイルを編集します。この例では、装置 ID およびファミリセット名 swriterfs1 と装置番号 300 を使用して ma ファイルシステムを指定します。

    [swriterfs1-mds-writer]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family      Device   Additional
    # Identifier         Ordinal    Type       Set         State    Parameters
    #------------------  ---------  ---------  ---------   ------   ---------------
    swriterfs1           300        ma         swriterfs1  on       
     /dev/dsk/c0t0d0s0    301        mm         swriterfs1  on
     /dev/dsk/c0t3d0s0    302        mr         swriterfs1  on
     /dev/dsk/c0t3d0s1    303        mr         swriterfs1  on
    
  3. /etc/opt/SUNWsamfs/mcf ファイルを保存して、エディタを終了します。

    この例では、変更を保存して、vi エディタを終了します。

    # Equipment          Equipment  Equipment  Family      Device   Additional
    # Identifier         Ordinal    Type       Set         State    Parameters
    #------------------  ---------  ---------  ---------   ------   ---------------
    swriterfs1           300        ma         swriterfs1  on  
     /dev/dsk/c0t0d0s0    301        mm         swriterfs1  on
     /dev/dsk/c0t3d0s0    302        mr         swriterfs1  on
     /dev/dsk/c0t3d0s1    303        mr         swriterfs1  on
    :wq
    [swriterfs1-mds-writer]root@solaris:~# 
    
  4. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。

    sam-fsd コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーを検出すると停止します。

    [swriterfs1-mds-writer]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [swriterfs1-mds-writer]root@solaris:~# 
    
  5. Oracle HSM サービスに、mcf ファイルを再度読み取り、それ自体を適宜再構成するように指示します。コマンド samd config を使用します。

    [swriterfs1-mds-writer]root@solaris:~# samd config
    Configuring SAM-FS
    [swriterfs1-mds-writer]root@solaris:~# 
    
  6. 高パフォーマンス ma ファイルシステムの構成で説明したとおりに、sammkfs コマンドおよびファイルシステムのファミリセット名を使用して、ファイルシステムを作成します。

    この例では、コマンドは単一書き込み/複数読み取りファイルシステム swriterfs1 を作成します。

    [swriterfs1-mds-writer]root@solaris:~# sammkfs swriterfs1
    Building 'swriterfs1' will destroy the contents of devices:
      /dev/dsk/c0t0d0s0
      /dev/dsk/c0t3d0s0
      /dev/dsk/c0t3d0s1
    Do you wish to continue? [y/N]yes ...
    
  7. オペレーティングシステムの /etc/vfstab ファイルをバックアップします。

    [swriterfs1-mds-writer]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [swriterfs1-mds-writer]root@solaris:~# 
    
  8. 高パフォーマンス ma ファイルシステムの構成で説明したとおりに、オペレーティングシステムの /etc/vfstab ファイルに新しいファイルシステムを追加します。

    この例では、vi テキストエディタで /etc/vfstab ファイルを開き、swriterfs1 ファミリセットデバイスの行を追加します。

    [swriterfs1-mds-writer]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no
           
    
  9. /etc/vfstab ファイルの「Mount Options」列に、writer マウントオプションを入力します。

    注意:

    常に 1 つのホストのみが writer になっていることを確認します。writer オプションを使用して、複数のホストによる複数読み取り/単一書き込みファイルシステムのマウントを許可すると、ファイルシステムが破損する可能性があります。
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer
    
  10. その他の必要な変更を /etc/vfstab ファイルに行います。コンマを区切り文字として使用して、マウントオプションを追加します。

    たとえば、最初の試行に失敗した場合にバックグラウンドでファイルシステムをマウントするには、「Mount Options」フィールドに bg マウントオプションを追加します (指定可能なマウントオプションの包括的なリストについては、mount_samfs のマニュアルページを参照)。

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg
    
  11. /etc/vfstab ファイルを保存して、エディタを終了します。

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg      
    :wq
    [swriterfs1-mds-writer]root@solaris:~# 
    
  12. /etc/vfstab ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。

    マウントポイントディレクトリに移動し、マウント済みファイルシステム内のファイルにアクセスするには、すべてのホスト上でマウントポイントアクセス権が同じである必要があり、ユーザーが実行 (x) 権限を持っている必要があります。この例では、/swriterfs1 マウントポイントディレクトリを作成し、アクセス権を 755 (-rwxr-xr-x) に設定します。

    [swriterfs1-mds-writer]root@solaris:~# mkdir /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# chmod 755 /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# 
    
  13. 新しいファイルシステムをマウントします。

    [swriterfs1-mds-writer]root@solaris:~# mount /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# 
    
  14. 共有ファイルシステムが作成されたら、読み取りを構成します

読み取りの構成

読み取りは、ファイルシステムを読み取り専用でマウントするホストです。読み取りとして構成するホストごとに、次の手順を実行します。

  1. ホストに root としてログインします。

    この例では、reader ホストの名前は swriterfs-reader1] です。

    [swriterfs-reader1]root@solaris:~# 
    
  2. 端末ウィンドウで samfsconfig device-path を使用して、複数読み取り/単一書き込みファイルシステムの構成情報を取得します。ここで device-path は、コマンドがファイルシステムディスクデバイスの検索を開始する場所 (/dev/dsk/* など) です。

    samfsconfig ユーティリティーは、sammkfs が Oracle HSM ファイルシステムに含まれている各デバイス上に書き込む識別スーパーブロックを読み取ることで、ファイルシステムの構成情報を取得します。このコマンドは、現在のホストから始まる、構成内の各デバイスへの正確なパスを返し、到達できないデバイスにフラグを付けます (コマンドの構文およびパラメータの詳細は、samfsconfig のマニュアルページを参照)。

    この例では、samfsconfig 出力は、デバイスへのパスがホスト swriterfs1-reader1 から指定されている点を除き、swriterfs1-mds-writer 上の mcf ファイルに一覧表示されるものと同じ装置を示しています。

    [swriterfs1-reader1]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'swriterfs1' Created Thu Nov 21 07:17:00 2013
    # Generation 0 Eq count 4 Eq meta count 1
    #
    sharefs              300        ma         sharefs   -        
     /dev/dsk/c1t0d0s0    301        mm         sharefs   -
     /dev/dsk/c1t3d0s0    302        mr         sharefs   -
     /dev/dsk/c1t3d0s1    303        mr         sharefs   -
    
  3. samfsconfig の出力から共有ファイルシステムのエントリをコピーします。次に、2 つ目のウィンドウで /etc/opt/SUNWsamfs/mcf ファイルをテキストエディタで開き、コピーしたエントリをファイルにペーストします。

    あるいは、samfsconfig の出力を mcf ファイルにリダイレクトできます。または、samd buildmcf コマンドを使用して samfsconfig を実行し、クライアント mcf ファイルを自動的に作成できます。

    この例では、コメントアウトした列見出しを追加したあとのホスト swriterfs1-reader1mcf ファイルが次のように表示されます。

    [swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    
  4. すべてのデバイスで「Device State」フィールドが on に設定されていることを確認します。次に、mcf ファイルを保存します。

    [swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       
     /dev/dsk/c1t0d0s0     301        mm         sharefs    on 
     /dev/dsk/c1t3d0s0     302        mr         sharefs    on 
     /dev/dsk/c1t3d0s1     303        mr         sharefs    on 
    :wq
    [swriterfs1-reader1]root@solaris:~# 
    
  5. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。

    sam-fsd コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーを検出すると停止します。

    [swriterfs1-reader1]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [swriterfs1-reader1]root@solaris:~# 
    
  6. オペレーティングシステムの /etc/vfstab ファイルをバックアップします。

    [swriterfs1-reader1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [swriterfs1-reader1]root@solaris:~# 
    
  7. ホストオペレーティングシステムの /etc/vfstab ファイルに単一書き込み/複数読み取りファイルシステムを追加します。

    この例では、vi テキストエディタで /etc/vfstab ファイルを開き、swriterfs1 ファミリセットデバイスの行を追加します。

    [swriterfs1-reader1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no        
        
    
  8. /etc/vfstab ファイルの「Mount Options」列に、reader オプションを入力します。

    注意:

    ホストが reader オプションを使用してファイルシステムをマウントすることを確認します。誤って複数のホスト上で writer マウントオプションを使用すると、ファイルシステムが破損する可能性があります。
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       reader      
    
  9. セパレータとしてコンマを使用して、その他の必要なマウントオプションを追加し、その他の必要な変更を /etc/vfstab ファイルに加えます。次に、/etc/vfstab ファイルを保存します。

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg      
    :wq
    [swriterfs1-reader1]root@solaris:~# 
    
  10. /etc/vfstab ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。

    マウントポイントディレクトリに移動し、マウント済みファイルシステム内のファイルにアクセスするには、すべてのホスト上でマウントポイントアクセス権が同じである必要があり、ユーザーが実行 (x) 権限を持っている必要があります。この例では、書き込みホストで実行したときと同様に、/swriterfs1 マウントポイントディレクトリを作成し、アクセス権を 755 (-rwxr-xr-x) に設定します。

    [swriterfs1-reader1]root@solaris:~# mkdir /swriterfs1
    [swriterfs1-reader1]root@solaris:~# chmod 755 /swriterfs1
    [swriterfs1-reader1]root@solaris:~# 
    
  11. 新しいファイルシステムをマウントします。

    [swriterfs1-reader1]root@solaris:~# mount /swriterfs1
    [swriterfs1-reader1]root@solaris:~# 
    
  12. ファイルシステムを読み取り専用でマウントするようにすべての読み取りホストが構成されるまで、この手順を繰り返します。

  13. サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。

  14. それ以外の場合は、通知とロギングの構成に進みます。

Oracle HSM 共有ファイルシステムの構成

Oracle HSM 共有ファイルシステムでは、複数の Oracle HSM ホストにファイルへの読み取り、書き込み、および追加のアクセス権が付与されます。すべてのホストがファイルシステムをマウントし、ストレージデバイスに直接接続します。さらに、1 つのホストであるメタデータサーバー (MDS) がファイルシステムのメタデータを排他的に制御し、同じファイルへのアクセスを求めるホスト間を調整します。サーバーは読み取り、書き込み、追加リースを発行、更新、および取り消すことで、Ethernet ローカルネットワーク経由でクライアントホストにメタデータの更新を提供し、ファイルアクセスを制御します。高パフォーマンス ma または汎用 ms タイプの非アーカイブファイルシステムとアーカイブファイルシステムの両方を共有できます。

共有ファイルシステムを構成するには、次のタスクを実行します。

共有するファイルシステムメタデータサーバーの構成

共有ファイルシステムがサポートされるようにメタデータサーバーを構成するには、次に示すタスクを実行します。

アクティブおよび潜在的なメタデータサーバーでのホストファイルの作成

アクティブおよび潜在的なメタデータサーバー上で、共有ファイルシステムのサーバーおよびクライアントに関するネットワークアドレス情報を一覧表示する hosts ファイルを作成する必要があります。hosts ファイルは、/etc/opt/SUNWsamfs/ ディレクトリに mcf ファイルとともに格納されています。共有ファイルシステムの初期作成中に、sammkfs -S コマンドを実行すると、このファイルに格納されている設定を使用して共有が構成されます。ここで、次の手順を使用して作成します。

  1. サーバーに root としてログインします。

    この例では、サーバーの名前は sharefs-mds です。

    [sharefs-mds]root@solaris:~# 
    
  2. テキストエディタを使用して、メタデータサーバー上で /etc/opt/SUNWsamfs/hosts.family-set-name を作成します。family-set-name は、共有する予定のファイルシステムのファミリセット名で置き換えます。

    この例では、vi テキストエディタを使用してファイル hosts.sharefs を作成します。いくつかのオプションの見出しを追加します。各行は、コメントを示すシャープ記号 (#) で始めます。

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    
  3. メタデータサーバーのホスト名と IP アドレスまたはドメイン名を 2 列で、空白文字で区切って追加します。

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117
    
  4. 3 列目を、空白文字でネットワークアドレスと区切って追加します。この列に、アクティブなメタデータサーバーの順序番号である 1 を入力します。

    この例では、メタデータサーバーは 1 つだけであるため、1 を入力します。

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1      
     
    
  5. 4 列目を、空白文字でネットワークアドレスと区切って追加します。この列には、0 (ゼロ) を入力します。

    4 列目の 0- (ハイフン)、または空白値は、ホストが「on」 (共有ファイルシステムへのアクセスありで構成) であることを示します。1 (数字の 1) は、ホストが「off」(ファイルシステムへのアクセスなしで構成) であることを示します (共有ファイルシステムを管理する際のこれらの値の使用については、samsharefs のマニュアルページを参照してください)。

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds          10.79.213.117            1        0    
    
  6. 5 列目を、空白文字でネットワークアドレスと区切って追加します。この列には、現在アクティブなメタデータサーバーを示すキーワード「server」を入力します。

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    
  7. 潜在的なメタデータサーバーとして 1 つ以上のホストを追加する予定である場合は、それぞれのエントリを作成します。そのたびに、サーバー番号を増分します。ただし、「server」キーワードは含めないでください (アクティブなメタデータサーバーは、ファイルシステムごとに 1 つのみです)。

    この例では、ホスト sharefs-mds_alt は、サーバー番号が 2 の潜在的なメタデータサーバーです。

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    
  8. クライアントホストごとに 1 行追加して、それぞれのサーバー番号の値を 0 に指定します。

    サーバー番号 0 は、クライアントとしてのホストを示します。この例では、2 つのクライアント (sharefs-client1sharefs-client2) を追加します。

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.147           0        0
    
  9. /etc/opt/SUNWsamfs/hosts.family-set-name ファイルを保存して、エディタを終了します。

    この例では、/etc/opt/SUNWsamfs/hosts.sharefs への変更を保存して、vi エディタを終了します。

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.147           0        0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  10. 共有ファイルシステムの構成に含まれる任意の潜在的なメタデータサーバー上に、新しい /etc/opt/SUNWsamfs/hosts.family-set-name ファイルのコピーを配置します。

  11. 次に、アクティブなメタデータサーバー上に共有ファイルシステムを作成します

アクティブなサーバーでの共有ファイルシステムの作成

次のように進めます。

  1. サーバーに root としてログインします。

    この例では、サーバーの名前は sharefs-mds です。

    [sharefs-mds]root@solaris:~# 
    
  2. メタデータサーバー (MDS) 上で、/etc/opt/SUNWsamfs/mcf ファイルをテキストエディタで開き、QFS ファイルシステムを追加します。汎用の ms または高性能な ma ファイルシステムを構成できます。

    次の例では、vi テキストエディタを使用して、ホスト sharefs-mds 上の mcf ファイルを編集します。この例では、装置 ID およびファミリセット名 sharefs と装置番号 300 を使用して ma ファイルシステムを指定します。

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       
     /dev/dsk/c0t0d0s0     301        mm         sharefs    on
     /dev/dsk/c0t3d0s0     302        mr         sharefs    on
     /dev/dsk/c0t3d0s1     303        mr         sharefs    on
    
  3. ma ファイルシステム装置に対応する行の「Additional Parameters」フィールドに shared パラメータを入力します。

    # Equipment           Equipment   Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     /dev/dsk/c0t0d0s0     301         mm        sharefs    on
     /dev/dsk/c0t3d0s0     302         mr        sharefs    on
     /dev/dsk/c0t3d0s1     303         mr        sharefs    on
    
  4. /etc/opt/SUNWsamfs/mcf ファイルを保存して、エディタを終了します。

    この例では、変更を保存して、vi エディタを終了します。

    sharefs               300         ma         sharefs    on      shared
     /dev/dsk/c0t0d0s0     301         mm         sharefs    on
     /dev/dsk/c0t3d0s0     302         mr         sharefs    on
     /dev/dsk/c0t3d0s1     303         mr         sharefs    on
    :wq
    [sharefs-mds]root@solaris:~# 
    
  5. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。

    sam-fsd コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーを検出すると停止します。

    [sharefs-mds]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-mds]root@solaris:~# 
    
  6. mcf ファイルを再度読み取り、それ自体を適宜再構成するように Oracle HSM サービスに指示します。報告されたエラーをすべて修正して、必要に応じて繰り返します。

    [sharefs-mds]root@solaris:~# samd config
    [sharefs-mds]root@solaris:~# 
    
  7. 高パフォーマンス ma ファイルシステムの構成で説明したとおりに、sammkfs -S コマンドおよびファイルシステムのファミリセット名を使用して、ファイルシステムを作成します。

    sammkfs コマンドは、hosts.family-set-name および mcf ファイルを読み取って、指定されたプロパティーを使用して共有ファイルシステムを作成します。この例では、コマンドは hosts.sharefs ファイルから共有パラメータを読み取り、共有ファイルシステム sharefs を作成します。

    [sharefs-mds]root@solaris:~# sammkfs -S sharefs
    Building 'sharefs' will destroy the contents of devices:
      /dev/dsk/c0t0d0s0
      /dev/dsk/c0t3d0s0
      /dev/dsk/c0t3d0s1
    Do you wish to continue? [y/N]yes ...
    [sharefs-mds]root@solaris:~# 
    
  8. 次に、アクティブなメタデータサーバー上に共有ファイルシステムをマウントします

アクティブなサーバーでの共有ファイルシステムのマウント
  1. サーバーに root としてログインします。

    この例では、サーバーの名前は sharefs-mds です。

    [sharefs-mds]root@solaris:~# 
    
  2. オペレーティングシステムの /etc/vfstab ファイルをバックアップします。

    [sharefs-mds]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [sharefs-mds]root@solaris:~# 
    
  3. 高パフォーマンス ma ファイルシステムの構成で説明したとおりに、オペレーティングシステムの /etc/vfstab ファイルに新しいファイルシステムを追加します。

    この例では、vi テキストエディタで /etc/vfstab ファイルを開き、sharefs ファミリセットデバイスの行を追加します。

    [sharefs-mds]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -        /sharefs   samfs   -     no     
    
  4. Mount Options」列に shared オプションを入力します。

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared      
    
  5. その他の必要な変更を /etc/vfstab ファイルに行います。

    たとえば、最初の試行に失敗した場合にバックグラウンドでファイルシステムのマウントを再試行するには、「Mount Options」フィールドに bg マウントオプションを追加します (指定可能なマウントオプションの詳細は、mount_samfs のマニュアルページを参照)。

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared,bg     
     
    
  6. /etc/vfstab ファイルを保存して、エディタを終了します。

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared,bg      
    :wq
    [sharefs-mds]root@solaris:~# 
    
  7. /etc/vfstab ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。

    マウントポイントディレクトリに移動し、マウント済みファイルシステム内のファイルにアクセスするには、メタデータサーバー上およびすべてのクライアント上でマウントポイントアクセス権が同じである必要があり、ユーザーが実行 (x) 権限を持っている必要があります。この例では、/sharefs マウントポイントディレクトリを作成し、アクセス権を 755 (-rwxr-xr-x) に設定します。

    [sharefs-mds]root@solaris:~# mkdir /sharefs
    [sharefs-mds]root@solaris:~# chmod 755 /sharefs
    [sharefs-mds]root@solaris:~# 
    
  8. 新しいファイルシステムをマウントします。

    [sharefs-mds]root@solaris:~# mount /sharefs
    [sharefs-mds]root@solaris:~# 
    
  9. ホストに複数のネットワークインタフェースが構成されている場合は、ローカル hosts ファイルを使用してネットワーク通信をルーティングすることもできます。

  10. それ以外の場合は、メタデータサーバー上に共有ファイルシステムが作成されたら、ファイルシステムクライアントに共有を構成します

共有するファイルシステムクライアントの構成

クライアントには、純粋にクライアントとして構成されているホストと、潜在的なメタデータサーバーとして構成されているホストの両方が含まれています。ほとんどの点で、クライアントの構成はサーバーの構成と同じです。各クライアントには、サーバーとまったく同じデバイスが含まれています。マウントオプションとデバイスへの正確なパスのみが異なります (コントローラ番号は各クライアントホストで割り当てられるため、異なる可能性があります)。

共有ファイルシステムがサポートされるように 1 つ以上のクライアントを構成するには、次に示すタスクを実行します。

Solaris クライアントでの共有ファイルシステムの作成

クライアントごとに、次の手順を実行します。

  1. クライアント上で、root としてログインします。

    この例では、サーバーは sharefs-client1 という名前です。

    [sharefs-client1]root@solaris:~# 
    
  2. 端末ウィンドウで、コマンド samfsconfig device-path を入力します。ここで device-path は、コマンドがファイルシステムディスクデバイスの検索を開始する場所 (/dev/dsk/*/dev/zvol/dsk/rpool/* など) です。

    samfsconfig コマンドは、共有ファイルシステムの構成情報を取得します。

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    
  3. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っているため、潜在的なメタデータサーバーとしての使用に適している場合は、samfsconfig の出力が、ファイルシステムのメタデータサーバーで作成された mcf ファイルに酷似しています。

    この例では、ホスト sharefs-client1 がメタデータデバイス (装置タイプ mm) へのアクセス権を持っているため、コマンドの出力にサーバー sharefs-mds 上の mcf ファイルに一覧表示されるものと同じ装置が表示されます。ホストで割り当てられたデバイスコントローラ番号のみが異なります。

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    # Generation 0 Eq count 4 Eq meta count 1
    #
    sharefs             300         ma         sharefs   - 
    /dev/dsk/c1t0d0s0    301         mm         sharefs   -
    /dev/dsk/c1t3d0s0    302         mr         sharefs   -
    /dev/dsk/c1t3d0s1    303         mr         sharefs   -
    
  4. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、samfsconfig コマンドではメタデータデバイスを検索できません。したがって、検出された Oracle HSM デバイスをファイルシステム構成に合わせることはできません。コマンドの出力では、「Missing Slices」の下に「Ordinal 0」(メタデータデバイス) が一覧表示されますが、ファイルシステムファミリセットを識別する行を含めることができず、データデバイスの一覧がコメントアウトされています。

    この例では、ホスト sharefs-client2 はデータデバイスへのアクセス権のみを持っています。したがって、samfsconfig の出力は次のように表示されます。

    [sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    #
    # Missing slices
    # Ordinal 0
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  5. samfsconfig の出力から共有ファイルシステムのエントリをコピーします。次に、2 つ目のウィンドウからテキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、コピーしたエントリをファイルにペーストします。

    1 つ目の例では、ホスト sharefs-client1 がファイルシステムのメタデータデバイスへのアクセス権を持っているため、mcf ファイルの始まりは次のように表示されます。

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    

    2 つ目の例では、ホスト sharefs-client2 がファイルシステムのメタデータデバイスへのアクセス権を持っていないため、mcf ファイルの始まりは次のように表示されます。

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  6. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っている場合は、共有ファイルシステムのエントリの「Additional Parameters」フィールドに、shared パラメータを追加します。

    この例では、ホスト sharefs-client1 はメタデータへのアクセス権を持っています。

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    
  7. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、共有ファイルシステムの行を追加し、shared パラメータを追加します。

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -       
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  8. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、メタデータデバイスの行を追加します。「Equipment Identifier」フィールドを「nodev」 (デバイスなし) に設定し、残りのフィールドはメタデータサーバーの場合とまったく同じ値に設定します。

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
    # /dev/dsk/c4t3d0s0    302         mr        sharefs    -
    # /dev/dsk/c4t3d0s1    303         mr        sharefs    -
    
  9. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、データデバイスのエントリのコメントを解除します。

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -----------------
    sharefs              300         ma        sharefs     on       shared
     nodev                301         mm        sharefs     on 
     /dev/dsk/c4t3d0s0    302         mr        sharefs     - 
     /dev/dsk/c4t3d0s1    303         mr        sharefs     - 
    
  10. すべてのデバイスで「Device State」フィールドが「on」に設定されていることを確認し、mcf ファイルを保存します。

    1 つ目の例では、ホスト sharefs-client1 がファイルシステムのメタデータデバイスへのアクセス権を持っているため、mcf ファイルの終わりは次のように表示されます。

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       shared
     /dev/dsk/c1t0d0s0     301        mm         sharefs    on 
     /dev/dsk/c1t3d0s0     302        mr         sharefs    on 
     /dev/dsk/c1t3d0s1     303        mr         sharefs    on 
    :wq
    [sharefs-client1]root@solaris:~# 
    

    2 つ目の例では、ホスト sharefs-client2 がファイルシステムのメタデータデバイスへのアクセス権を持っていないため、mcf ファイルの終わりは次のように表示されます。

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
     /dev/dsk/c4t3d0s0     302         mr        sharefs    on 
     /dev/dsk/c4t3d0s1     303         mr        sharefs    on 
    :wq
    [sharefs-client2]root@solaris:~# 
    
  11. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。

    sam-fsd コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーが発生した場合は停止します。この例では、sharefs-client1 上で mcf ファイルを確認します。

    [sharefs-client1]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-client1]root@solaris:~# 
    
  12. この時点で、ホストに複数のネットワークインタフェースが構成されている場合は、ローカル hosts ファイルを使用してネットワーク通信をルーティングすることもできます。

  13. 次に、Solaris クライアント上に共有ファイルシステムをマウントします

Solaris クライアントでの共有ファイルシステムのマウント

クライアントごとに、次の手順を実行します。

  1. Solaris クライアント上で、root としてログインします。

    この例では、サーバーは sharefs-client1 という名前です。

    [sharefs-client1]root@solaris:~# 
    
  2. オペレーティングシステムの /etc/vfstab ファイルをバックアップします。

    [sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [sharefs-client1]root@solaris:~# 
    
  3. テキストエディタで /etc/vfstab ファイルを開き、共有ファイルシステムの行を追加します。

    この例では、vi テキストエディタでファイルを開き、sharefs ファミリセットデバイスの行を追加します。

    [sharefs-client1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no   
    
  4. セパレータとしてコンマを使用して、その他の必要なマウントオプションを追加し、その他の必要な変更を /etc/vfstab ファイルに加えます。次に、/etc/vfstab ファイルを保存します。

    この例では、マウントオプションを追加しません。

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no       -
    :wq
    [sharefs-client1]root@solaris:~# 
    
  5. /etc/vfstab ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。

    マウントポイントのアクセス権は、メタデータサーバーおよびその他のすべてのクライアントと同じにする必要があります。ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x) を持っている必要があります。この例では、/sharefs マウントポイントディレクトリを作成し、アクセス権を 755 (-rwxr-xr-x) に設定します。

    [sharefs-client1]root@solaris:~# mkdir /sharefs
    [sharefs-client1]root@solaris:~# chmod 755 /sharefs
    [sharefs-client1]root@solaris:~# 
    
  6. 共有ファイルシステムをマウントします。

    [sharefs-client1]root@solaris:~# mount /sharefs
    [sharefs-client1]root@solaris:~# 
    
  7. 共有ファイルシステムに Linux クライアントが含まれている場合は、Linux クライアント上に共有ファイルシステムを作成します

  8. Oracle HSM 共有アーカイブファイルシステムを構成している場合は、共有ファイルシステム用のアーカイブストレージの構成の次のタスクに進みます。

  9. それ以外の場合は、ここで終了します。Oracle HSM 共有ファイルシステムが構成されました。

Linux クライアントでの共有ファイルシステムの作成

クライアントごとに、次の手順を実行します。

  1. Linux クライアント上で、root としてログインします。

    この例では、Linux クライアントホストの名前は sharefs-clientL です。

    [sharefs-clientL][root@linux ~]# 
    
  2. 端末ウィンドウで、コマンド samfsconfig device-path を入力します。ここで device-path は、コマンドがファイルシステムディスクデバイスの検索を開始する場所 (/dev/* など) です。

    samfsconfig コマンドは、共有ファイルシステムの構成情報を取得します。Linux ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていないため、samfsconfig コマンドではメタデータデバイスを検索できません。したがって、検出された Oracle HSM デバイスをファイルシステム構成に合わせることはできません。コマンドの出力では、「Missing Slices」の下に「Ordinal 0」(メタデータデバイス) が一覧表示されますが、ファイルシステムファミリセットを識別する行を含めることができず、データデバイスの一覧がコメントアウトされています。

    この例では、Linux ホスト sharefs-clientL 用の samfsconfig 出力が次のように表示されます。

    [sharefs-clientL][root@linux ~]# samfsconfig /dev/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    #
    # Missing slices
    # Ordinal 0
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  3. samfsconfig の出力から共有ファイルシステムのエントリをコピーします。次に、2 つ目のウィンドウからテキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、コピーしたエントリをファイルにペーストします。

    この例では、Linux ホスト sharefs-clientL 用の mcf ファイルの始まりが次のように表示されます。

    [sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  4. mcf ファイルに共有ファイルシステムの行を挿入し、shared パラメータを追加します。

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  5. mcf ファイルに、ファイルシステムのメタデータデバイスの行を挿入します。Linux ホストはメタデータデバイスへのアクセス権を持っていないため、「Equipment Identifier」フィールドを「nodev」(デバイスなし) に設定し、残りのフィールドはメタデータサーバーの場合とまったく同じ値に設定します。

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  6. mcf ファイルで、データデバイスのエントリをコメント解除します。

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs              300         ma        sharefs     on       shared
     nodev                301         mm        sharefs     on 
     /dev/sda4            302         mr        sharefs     -
     /dev/sda5            303         mr        sharefs     -
    
  7. すべてのデバイスで「Device State」フィールドが「on」に設定されていることを確認し、mcf ファイルを保存します。

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
     /dev/sda4             302         mr        sharefs    on 
     /dev/sda5             303         mr        sharefs    on 
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  8. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。

    sam-fsd コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーが発生した場合は停止します。この例では、Linux クライアント sharefs-clientL 上で mcf ファイルを確認します。

    [sharefs-clientL][root@linux ~]# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-clientL][root@linux ~]# 
    
  9. 次に、Linux クライアント上に共有ファイルシステムをマウントします

Linux クライアントでの共有ファイルシステムのマウント

クライアントごとに、次の手順を実行します。

  1. Linux クライアント上で、root としてログインします。

    この例では、Linux クライアントホストの名前は sharefs-clientL です。

    [sharefs-clientL][root@linux ~]# 
    
  2. オペレーティングシステムの /etc/fstab ファイルをバックアップします。

    [sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
    
  3. テキストエディタで /etc/fstab ファイルを開き、共有ファイルシステムの行を開始します。

    この例では、sharefs-clientL 上で /etc/fstab ファイルをバックアップしたあとに、vi テキストエディタでファイルを開き、sharefs ファミリセットデバイスの行を追加します。

    [sharefs-clientL][root@linux ~]# vi /etc/fstab
    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs
    
  4. ファイルの 4 列目で、必須の shared マウントオプションを追加します。

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared
    
  5. ファイルの 4 列目で、セパレータとしてコンマを使用して、その他の必要なマウントオプションを追加します。

    Linux クライアントでは、次の追加マウントオプションがサポートされています。

    • rw, ro

    • retry

    • meta_timeo

    • rdlease, wrlease, aplease

    • minallocsz, maxallocsz

    • noauto, auto

    この例では、オプション noauto を追加します。

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto
             
    
  6. ファイルの残りの 2 列には、それぞれゼロ (0) を入力します。次に、/etc/fstab ファイルを保存します。

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto              0         0        
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  7. /etc/fstab ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。

    マウントポイントのアクセス権は、メタデータサーバーおよびその他のすべてのクライアントと同じにする必要があります。ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x) を持っている必要があります。この例では、/sharefs マウントポイントディレクトリを作成し、アクセス権を 755 (-rwxr-xr-x) に設定します。

    [sharefs-clientL][root@linux ~]# mkdir /sharefs
    [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
    
  8. 共有ファイルシステムをマウントします。コマンド mount mountpoint を使用します。ここで mountpoint は、/etc/fstab ファイルで指定されたマウントポイントです。

    例で示すように、mount コマンドは警告を生成します。これは通常の動作であり、無視できます。

    [sharefs-clientL][root@linux ~]# mount /sharefs
    Warning: loading SUNWqfs will taint the kernel: SMI license 
    See http://www.tux.org/lkml/#export-tainted for information 
    about tainted modules. Module SUNWqfs loaded with warnings 
    [sharefs-clientL][root@linux ~]# 
    
  9. Oracle HSM 共有アーカイブファイルシステムを構成している場合は、共有ファイルシステム用のアーカイブストレージの構成の次のタスクに進みます

  10. サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。

  11. それ以外の場合は、通知とロギングの構成に進みます。

ローカル hosts ファイルを使用したホストネットワーク通信のルーティング

個別のホストには、ローカル hosts ファイルは必要ありません。ファイルシステムは、すべてのファイルシステムホストについて、アクティブなメタデータサーバーとアクティブおよび潜在的なメタデータサーバーのネットワークインタフェースを識別します (アクティブおよび潜在的なメタデータサーバーでのホストファイルの作成を参照)。ただし、複数のネットワークインタフェースを持つファイルシステムホスト間で、ネットワークトラフィックを選択的にルーティングする必要がある場合は、ローカル hosts ファイルが役立ちます。

それぞれのファイルシステムホストは、メタデータサーバー上のほかのホストでネットワークインタフェースを検索します。ファイルシステムのグローバル hosts ファイル /etc/opt/SUNWsamfs/hosts.family-set-name にホスト名と IP アドレスが一覧表示されます。ここで family-set-name は、共有ファイルシステムのファミリセット名です。その後、ホストはローカル hosts ファイル /etc/opt/SUNWsamfs/hosts.family-set-name.local を検索します。

ローカル hosts ファイルがない場合、ホストは、グローバル hosts ファイルで指定されたインタフェースアドレスを使用します。ホストは、グローバルファイルで指定された順序で使用されます。

ローカル hosts ファイルが存在する場合、ホストはグローバルファイルと比較して、両方のファイルに一覧表示されたインタフェースのみを使用します。ホストは、ローカルファイルで指定された順序で使用されます。

そのため、各ファイルでさまざまなアドレスを使用すると、さまざまなホストで使用されているインタフェースを制御できます。ローカル hosts ファイルを構成するには、次に概要を示す手順を使用します。

  1. それぞれのアクティブおよび潜在的なメタデータサーバーホスト上で、共有ファイルシステムのグローバル hosts ファイルを編集して、必要な方法でサーバーとホストの通信がルーティングされるようにします。

    このセクションの例では、共有ファイルシステム sharefs2nic に、アクティブなメタデータサーバー sharefs2-mds、および潜在的なメタデータサーバー sharefs2-mds_alt (それぞれが 2 つのネットワークインタフェースを持つ) が含まれています。また、2 つのクライアント (sharefs2-client1sharefs2-client2) も存在します。

    アクティブおよび潜在的なメタデータサーバーが、プライベートネットワークアドレスを使用して相互に通信し、DNS (Domain Name Service) でパブリック LAN (Local Area Network) 上のアドレスに解決できるホスト名を使用してクライアントと通信する必要があります。

    そのため、ファイルシステムのグローバルホストファイルである /etc/opt/SUNWsamfs/hosts.sharefs2 を編集します。アクティブおよび潜在的なサーバーには、プライベートネットワークインタフェースアドレスを指定します。ただし、クライアントには、アドレスではなくホスト名を指定します。

    [sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    sharefs2-client1  sharefs2-client1    0        0
    sharefs2-client2  sharefs2-client2    0        0
    :wq
    [sharefs2-mds]root@solaris:~# 
    
  2. パスとファイル名 /etc/opt/SUNWsamfs/hosts.family-set-name.local を使用して、それぞれのアクティブおよび潜在的なメタデータサーバー上でローカル hosts ファイルを作成します。ここで family-set-name は、共有ファイルシステムの装置識別子です。アクティブおよび潜在的なサーバーで使用するネットワーク用のインタフェースのみを含めてください。

    この例では、アクティブおよび潜在的なメタデータサーバーがプライベートネットワークを介して相互に通信するように、各サーバー上のローカル hosts ファイル hosts.sharefs2.local には、2 つのホスト (アクティブおよび潜在的なメタデータサーバー) のプライベートアドレス のみが一覧表示されています。

    [sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2 on sharefs2-mds
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    :wq
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt
    Password:
    
    [sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-mds_alt
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    :wq
    [sharefs2-mds_alt]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  3. パスとファイル名 /etc/opt/SUNWsamfs/hosts.family-set-name.local を使用して、各クライアント上でローカル hosts ファイルを作成します。ここで family-set-name は、共有ファイルシステムの装置識別子です。クライアントで使用するネットワーク用のインタフェースのみを含めてください。

    この例では、クライアントはパブリックネットワーク経由でのみサーバーと通信する必要があります。そのため、ファイルには、2 つのホスト (アクティブおよび潜在的なメタデータサーバー) のホスト名のみを含めます。

    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1
    Password:
    [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client1 
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      sharefs2-mds        1        0   server 
    sharefs2-mds_alt  sharefs2-mds_alt    2        0   
    :wq
    [sharefs2-client1]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2
    Password:
    
    [sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client2
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      sharefs2-mds        1        0    server 
    sharefs2-mds_alt  sharefs2-mds_alt    2        0   
    :wq
    [sharefs2-client2]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  4. サーバーの構成が完了したときに、この手順を開始した場合は、アクティブなサーバーでの共有ファイルシステムのマウントに進みます。

  5. クライアントを構成しているときに、この手順を開始した場合は、ここでSolaris クライアントでの共有ファイルシステムのマウントを実行する必要があります。

共有ファイルシステム用のアーカイブストレージの構成

アーカイブ Oracle HSM 共有ファイルシステム用にアーカイブストレージを設定するには、次のタスクを実行します。

永続的なバインドを使用したサーバーおよびデータムーバーホストへのテープドライブの接続

共有アーカイブファイルシステムでは、すべての潜在的なメタデータサーバーにライブラリおよびテープドライブへのアクセス権が必要です。テープ入出力を共有アーカイブファイルシステムのホスト間で分散させることにした場合は、1 つ以上のクライアントにもドライブへのアクセスが必要になります。したがって、それぞれのドライブに整合性のある方法で対処できるように、これらの各ホストを構成する必要があります。

Solaris オペレーティングシステムは、起動時にデバイスが検出される順序でドライブをシステムデバイスツリーに追加します。この順序によって、その他のファイルシステムホストでデバイスが検出される順序や、リムーバブルメディアライブラリに物理的にインストールされる順序が反映される場合と、反映されない場合があります。したがって、その他のホストにバインドするときと同じ方法、およびリムーバブルメディアライブラリにインストールされるときと同じ順序で、デバイスを各ホストに永続的にバインドする必要があります。

次の手順では、必要な手順の概要を示します (永続的なバインドの作成についての詳細は、devfsadmdevlinks のマニュアルページ、および使用中の Solaris オペレーティングシステムバージョンに対応した管理ドキュメントを参照)。

  1. アクティブなメタデータサーバーに root としてログインします。

    [sharefs-mds]root@solaris:~# 
    
  2. ライブラリ内のドライブの現在の物理的な順序を把握していない場合は、ドライブをライブラリに取り付ける順序の確認で説明したとおりに、マッピングファイルを作成します。

    この例では、device-mappings.txt ファイルは次のように表示されます。

    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    --------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    
  3. テキストエディタで /etc/devlink.tab ファイルを開きます。

    この例では、vi エディタを使用します。

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    # This is the table used by devlinks
    # Each entry should have 2 fields; but may have 3.  Fields are separated
    # by single tab ('\t') characters.
    ...
    
  4. ガイドとして device-mappings.txt ファイルを使用して、Solaris テープドライブツリー内の開始ノード rmt/node-number をライブラリ内の 1 番目のドライブに再マッピングする 1 行を /etc/devlink.tab ファイルに追加します。type=ddi_byte:tape; addr=device_address,0; rmt/node-number\M0 形式で行を入力します。ここで device_address は、デバイスの物理アドレスで、node-number は、Solaris で自動的に構成されるデバイスとの競合を回避するために十分に大きい Solaris デバイスツリー内の位置です (Solaris はノード 0 から起動されます)。

    この例では、ライブラリ内の 1 番目のデバイス 1 のデバイスアドレス w500104f0008120fe を書き留め、デバイスが rmt/1 にあるホストに現在接続されていることを確認します。

    [sharefs-mds] vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -----------   ---------------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    

    そのため、競合しないノード rmt/60 をライブラリ w500104f0008120fe 内の番号 1 のドライブに再マッピングする行を /etc/devlink.tab に作成します。

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    :w
    
  5. メタデータサーバー上のデバイスツリー内のドライブ順序とライブラリへのインストール順序が一致するように、Oracle HSM アーカイブ用に割り当てられているテープデバイスごとに、/etc/devlink.tab ファイルへの行の追加を繰り返します。ファイルを保存します。

    この例では、残りの 3 つのデバイス (w500104f00093c438 にあるライブラリドライブ 2w500104f000c086e1 にあるライブラリドライブ 3w500104f000c086e1 にあるライブラリドライブ 4) の順序とアドレスを書き留めます。

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    ...
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    

    その後、ライブラリ内と同じ順序を維持して、デバイスアドレスを次の 3 つの Solaris デバイスノード (rmt/61rmt/62、および rmt/63) にマッピングします。

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  6. /dev/rmt 内のテープデバイスへの既存のリンクをすべて削除します。

    [sharefs-mds]root@solaris:~# rm /dev/rmt/* 
    
  7. /etc/devlink.tab ファイル内のエントリから、新しい永続的なテープデバイスのリンクを作成します。コマンド devfsadm -c tape を使用します。

    devfsadm コマンドを実行するたびに、/etc/devlink.tab ファイルで指定された構成を使用して、そのファイルに指定されたデバイス用に新しいテープデバイスのリンクが作成されます。-c tape オプションを指定すると、テープクラスデバイス用の新しいリンクのみが作成されるようにコマンドが制限されます。

    [sharefs-mds]root@solaris:~# devfsadm -c tape
    
  8. 共有ファイルシステム構成内のそれぞれの潜在的なメタデータサーバーとデータムーバー上で同じ永続的なテープデバイスリンクを作成します。/etc/devlink.tab ファイルに同じ行を追加し、/dev/rmt 内のリンクを削除して、devfsadm -c tape を実行します。

    この例では、潜在的なメタデータサーバー sharefs-mds_alt およびデータムーバークライアント sharefs-client1 があります。したがって、アクティブなサーバー sharefs-mds 上のファイルと一致するように、それぞれの /etc/devlink.tab ファイルを編集します。次に、sharefs-mds_alt および sharefs-client1 上の /dev/rmt にある既存のリンクを削除して、それぞれで devfsadm -c tape を実行します。

    [sharefs-mds]root@solaris:~# ssh sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* 
    [sharefs-mds_alt]root@solaris:~# devfsadm -c tape
    [sharefs-mds_alt]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-client1]root@solaris:~# rm /dev/rmt/*  
    [sharefs-client1]root@solaris:~# devfsadm -c tape
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  9. 次に、アーカイブストレージを使用できるようにアーカイブファイルシステムのホストを構成します

アーカイブストレージを使用するためのアーカイブファイルシステムのホストの構成

アクティブなメタデータサーバー、およびそれぞれの潜在的なメタデータサーバーとデータムーバークライアントで、次の手順を実行します。

  1. ホストに root としてログインします。

    [sharefs-host]root@solaris:~# 
    
  2. テキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開きます。

    次の例では、vi エディタを使用します。

    [sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    sharefs                  100       ms        sharefs on
     /dev/dsk/c1t3d0s3        101       md        sharefs on
     /dev/dsk/c1t3d0s4        102       md        sharefs on
    ...
    
  3. /etc/opt/SUNWsamfs/mcf ファイル内のファイルシステム定義のあとに、アーカイブストレージ装置のセクションを開始します。

    この例では、わかりやすくするため見出しをいくつか追加します。

    [sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    ...
    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    
  4. アーカイブテープストレージを追加するには、ライブラリのエントリの追加から開始します。「Equipment Identifier」フィールドで、ライブラリのデバイス ID を入力し、装置番号を割り当てます。

    この例では、ライブラリの装置 ID は /dev/scsi/changer/c1t0d5 です。装置番号は 900 (ディスクアーカイブ用に選択された範囲に続く範囲) に設定します。

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900
    
  5. 装置タイプを汎用 SCSI 接続テープオプションライブラリ rb に設定して、テープライブラリファミリセットの名前を指定して、デバイスの状態を on に設定します。

    この例では、ライブラリ library1 を使用しています。

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on
    
  6. Additional Parameters」列で、ライブラリカタログのオプションのユーザー定義のパスと名前を入力できます。

    オプションのデフォルト以外のパスは 127 文字を超えることはできません。この例では、ユーザー定義のカタログファイル名 library1cat とともにデフォルトのパス var/opt/SUNWsamfs/catalog/ を使用します。ドキュメントのレイアウト制限のために、例ではパスが省略されています。

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on     .../library1cat
    
  7. 次に、テープドライブごとにエントリを追加します。永続的なバインドを使用したサーバーおよびデータムーバーホストへのテープドライブの接続の手順で設定した永続的な装置 ID を使用します。

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------  ------ -----------------
    DISKVOL1                  800       ms       DISKVOL1  on
     /dev/dsk/c6t0d1s7         801       md       DISKVOL1  on
     /dev/dsk/c4t0d2s7         802       md       DISKVOL1  on
    /dev/scsi/changer/c1t0d5  900       rb       library1  on     .../library1cat
     /dev/rmt/60cbn            901       tp       library1 on
     /dev/rmt/61cbn            902       tp       library1  on
     /dev/rmt/62cbn            903       tp       library1  on
     /dev/rmt/63cbn            904       tp       library1  on
    
  8. 最後に、Oracle HSM ヒストリアンを自分で構成する場合、装置タイプ hy を使用してエントリを追加します。「Family Set」列と「Device State」列にハイフンを入力し、「Additional Parameters」列にヒストリアンのカタログへのパスを入力します。

    ヒストリアンは、アーカイブからエクスポートされたボリュームをカタログする仮想ライブラリです。ヒストリアンを構成しない場合、指定された最大の装置番号に 1 を加えた値を使用して、ソフトウェアによってヒストリアンが自動的に作成されます。

    ページレイアウトの都合上、この例では、ヒストリアンカタログへのパスが短縮されていることに注意してください。フルパスは /var/opt/SUNWsamfs/catalog/historian_cat です。

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on     ...catalog/library1cat
     /dev/rmt/60cbn           901       tp        library1  on
     /dev/rmt/61cbn           902       tp        library1  on
     /dev/rmt/62cbn           903       tp        library1  on
     /dev/rmt/63cbn           904       tp        library1  on
    historian                999       hy        -         -     .../historian_cat
    
  9. mcf ファイルを保存して、エディタを閉じます。

    ...
     /dev/rmt/3cbn            904       tp        library1  on
    historian                999       hy         -      -      .../historian_cat
    :wq
    [sharefs-host]root@solaris:~# 
    
  10. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認します。見つかったエラーを修正します。

    sam-fsd コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーを検出すると停止します。

    [sharefs-host]root@solaris:~# sam-fsd
    ...
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-host]root@solaris:~# 
    
  11. mcf ファイルを再度読み取り、それ自体を適宜再構成するように Oracle HSM サービスに指示します。報告されたエラーをすべて修正して、必要に応じて繰り返します。

    [sharefs-host]root@solaris:~# samd config
    Configuring SAM-FS
    [sharefs-host]root@solaris:~# 
    
  12. すべてのアクティブおよび潜在的なメタデータサーバーと、すべてのデータムーバークライアントがアーカイブストレージを使用するように構成されるまで、この手順を繰り返します。

  13. 必要に応じて、テープ入出力を共有アーカイブファイルシステムのホスト間で分散させます

  14. サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。

  15. それ以外の場合は、通知とロギングの構成に進みます。

共有アーカイブファイルシステムのホスト間でのテープ入出力の分散

Oracle HSM リリース 6.1 以降、Oracle Solaris 11 以上が実行されている共有アーカイブファイルシステムのクライアントは、テープドライブを接続して、ファイルシステムの代わりにテープ入出力を実行できます。これらのデータムーバーホスト間でテープ入出力を分散させると、サーバーのオーバーヘッドが大幅に削減されるため、ファイルシステムのパフォーマンスが向上し、Oracle HSM 実装のスケーリング時の柔軟性が大幅に向上します。アーカイブの必要性が高くなれば、Oracle HSM メタデータサーバーをより強力なシステムに交換するか (垂直スケーリング)、より多くのクライアント間で負荷を分散させるか (水平スケーリング) の選択肢があります。

共有ファイルシステムホスト間でテープ入出力を分散させるには、次の手順を実行します。

  1. テープ入出力を処理するファイルシステムメタデータサーバーおよびすべてのファイルシステムクライアントに、分散入出力で使用されるデバイスをすべて接続します。

  2. まだ実行していない場合は、永続的なバインドを使用して、テープドライブをデータムーバーとして機能する各クライアントに接続します。その後、ここに戻ります。

  3. 共有アーカイブファイルシステムのメタデータサーバーに root としてログインします。

    この例では、サーバーのホスト名は samsharefs-mds です。

    [samsharefs-mds]root@solaris:~# 
    
  4. メタデータサーバーで Oracle Solaris 11 以上が実行されていることを確認します。

    [samsharefs-mds]root@solaris:~# uname -r
    5.11
    [samsharefs-mds]root@solaris:~# 
    
  5. データムーバーとして動作するすべてのクライアントで、Oracle Solaris 11 以上が実行されていることを確認します。

    この例では、ssh を使用してクライアントホスト samsharefs-client1 および samsharefs-client2 にリモートログインして、ログインバーナーから Solaris のバージョンを取得します。

    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client1]root@solaris:~# exit
    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client2]root@solaris:~# exit
    [samsharefs-mds]root@solaris:~# 
    
  6. 分散入出力構成内のテープドライブごとにバッファー領域として割り当てることのできるシステムメモリーの量を計算します。使用可能な合計メモリーをドライブの数で割り、妥当な安全マージンを引きます。

    (total-memory bytes)/(drive-count drives) = memory bytes/drive 
    (memory bytes/drive) - (safe-margin bytes/drive) = buffsize bytes/drive
     
    

    Oracle HSM は、使用されているドライブごとにバッファーを割り当てます。そのため、システムメモリーで提供可能な量より多くのバッファー領域を誤って構成することがないようにしてください。この例では、ドライブ当たり 224K バイトを超える割り当てはできないことがわかります。そのため、安全マージンを見越して 128 に切り下げます。

    ((3584 kilobytes)/(16 drives)) = 224 kilobytes/drive
    buffsize = 128 kilobytes/drive
     
    
  7. 各ドライブに割り当てることのできるバッファーのサイズを計算したら、Oracle HSM のデバイスブロックサイズと、指定されたサイズのバッファーに収まるブロック数を計算します。

    (number blocks/buffer)*block-size bytes/block/drive = buffersize bytes/drive
    

    この 2 つの積が計算されたバッファーサイズ以下になるまで、ブロック数とブロックサイズを変動させます。ブロック数は、[2-8192] の範囲内にある必要があります。この例では、バッファー当たり 64K バイトの 2 つのブロックに落ち着きました。

    (2 blocks/buffer)*(64 kilobytes/block/drive) = 128 kilobytes/drive
    
  8. メタデータサーバー上で、テキストエディタで /etc/opt/SUNWsamfs/archiver.cmd ファイルを開きます。このファイルの先頭にある汎用ディレクティブのセクション内の新しい行に、bufsize = media-type media-blocks と入力します。ここでは:

    • media-type は、mcf ファイルが分散入出力に使用されるドライブとメディアに割り当てるタイプコードです。

    • media-blocks は、上で計算したバッファー当たりのブロック数です。

    ファイルを保存して、エディタを閉じます。

    この例では、サーバー samsharefs-mds にログインし、vi エディタを使用して行 bufsize = ti 2 を追加します。ここで、ti は使用している Oracle StorageTek T10000 ドライブのメディアタイプであり、2 は計算したドライブバッファー当たりのブロック数です。

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd
    #       archiver.cmd
    #-----------------------------------------------------------------------
    # General Directives
    archivemeta = off
    examine = noscan
    bufsize = ti 2
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  9. メタデータサーバー上で、テキストエディタで /etc/opt/SUNWsamfs/defaults.conf ファイルを開きます。分散入出力に参加するメディアタイプごとに、media-type_blksize =size という形式の行を入力します。ここでは:

    • media-type は、mcf ファイルが分散入出力に使用されるドライブとメディアに割り当てるタイプコードです。

    • size は、この手順で前に計算したブロックサイズです。

    デフォルトでは、StorageTek T10000 ドライブのデバイスブロックサイズは 2M バイトまたは 2048K バイトです (ti_blksize = 2048)。そのため、この例では、計算したブロックサイズ 64K バイトでデフォルトをオーバーライドします。

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf 
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    ...
    #li_blksize = 256
    ti_blksize = 64
    [samsharefs-mds]root@solaris:~# 
    
  10. まだ /etc/opt/SUNWsamfs/defaults.conf ファイルを開いている間に、必要に応じて行 #distio = off のコメントを解除するか、またはまったく存在しない場合はこの行を追加します。

    デフォルトでは、「distio」は「off」 (無効) になっています。この例では、行 distio = on を追加します。

    ...
    distio = on
    
  11. まだ /etc/opt/SUNWsamfs/defaults.conf ファイルを開いている間に、分散入出力に参加する各デバイスタイプを有効にします。新しい行に、media-type _distio = on と入力します。ここで、media-type は、mcf ファイルがドライブとメディアに割り当てるタイプコードです。

    デフォルトでは、StorageTek T10000 ドライブおよび LTO ドライブを分散入出力に追加できますが (ti_distio = on および li_distio = on)、その他のタイプはすべて除外されています。この例では、StorageTek T10000 ドライブを明示的に含めます。

    ...
    distio = on
    ti_distio = on
    
  12. まだ /etc/opt/SUNWsamfs/defaults.conf ファイルを開いている間に、分散入出力に参加しない各デバイスタイプを無効にします。新しい行に、media-type _distio = off と入力します。ここで、media-type は、mcf ファイルがドライブとメディアに割り当てるタイプコードです。

    この例では、LTO ドライブを除外します。

    ...
    distio = on
    ti_distio = on
    li_distio = off
    
  13. /etc/opt/SUNWsamfs/defaults.conf ファイルの編集を完了したら、内容を保存してエディタを閉じます。

    ...
    distio = on
    ti_distio = on
    li_distio = off
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  14. データムーバーとして動作する各クライアント上で、サーバー上のファイルと一致するように defaults.conf ファイルを編集します。

  15. データムーバーとして機能する各クライアント上で、/etc/opt/SUNWsamfs/mcf ファイルをテキストエディタで開き、メタデータサーバーが分散テープ入出力で使用しているテープデバイスがすべて含まれるように、ファイルを更新します。デバイスの順序および装置番号がメタデータサーバー上の mcf ファイルのものと同じであることを確認します。

    この例では、vi エディタを使用して、ホスト samsharefs-client1 上に mcf ファイルを構成します。

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
     /dev/rmt/60cbn           901       ti                    on
     /dev/rmt/61cbn           902       ti                    on
     /dev/rmt/62cbn           903       ti                    on
     /dev/rmt/63cbn           904       ti                    on
    
  16. データムーバーとして動作するクライアント上に、メタデータサーバー上の /etc/opt/SUNWsamfs/mcf ファイルに一覧表示されたテープライブラリが構成されている場合は、分散テープ入出力用に使用されているテープデバイスのファミリセット名としてライブラリファミリセットを指定します。ファイルを保存します。

    この例では、ホスト samsharefs-client1 上にライブラリが構成されているため、テープデバイスのファミリセット名 library1 を使用します。

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
    /dev/scsi/changer/c1t0d5 900       rb        library1    on     .../library1cat
     /dev/rmt/60cbn           901       ti        library1    on
     /dev/rmt/61cbn           902       ti        library1    on
     /dev/rmt/62cbn           903       ti        library1    on
     /dev/rmt/63cbn           904       ti        library1    on
    :wq
    [samsharefs-client1]root@solaris:~# 
    
  17. データムーバーとして動作するクライアント上に、メタデータサーバー上の /etc/opt/SUNWsamfs/mcf ファイルに一覧表示されたテープライブラリが構成されていない場合は、分散テープ入出力用に使用されているテープデバイスのファミリセット名としてハイフン (-) を使用します。その後、ファイルを保存してエディタを閉じます。

    この例では、ホスト samsharefs-client2 上にライブラリが構成されていないため、テープデバイスのファミリセット名としてハイフンを使用します。

    [samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
     /dev/rmt/60cbn           901       ti        -           on
     /dev/rmt/61cbn           902       ti        -           on
     /dev/rmt/62cbn           903       ti        -           on
     /dev/rmt/63cbn           904       ti        -           on
    :wq
    [samsharefs-client2]root@solaris:~# 
    
  18. 特定のアーカイブセットのコピーで分散テープ入出力を有効または無効にする必要がある場合は、サーバーにログインし、テキストエディタで /etc/opt/SUNWsamfs/archiver.cmd ファイルを開き、-distio パラメータをコピーディレクティブに追加します。分散入出力を有効にするには -distio on、無効にするには -distio off を設定します。ファイルを保存します。

    この例では、サーバー samsharefs-mds にログインし、vi エディタを使用して、コピー 1 の分散入出力を off にします。

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd
    #       archiver.cmd
    ...
    params
    allsets -sort path -offline_copy stageahead
    allfiles.1 -startage 10m -startsize 500M -startcount 500000 -distio off
    allfiles.2 -startage 24h -startsize 20G  -startcount 500000 -reserve set
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  19. sam-fsd コマンドを実行して、構成ファイルにエラーがないかどうかを確認します。見つかったエラーを修正します。

    sam-fsd コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーが発生した場合は停止します。この例では、サーバー sharefs-mds 上でコマンドを実行します。

    [sharefs-mds]root@solaris:~# sam-fsd
    
  20. 変更済みの構成ファイルを読み取り、それ自体を適宜再構成するように、Oracle HSM サービスに指示します。報告されたエラーをすべて修正して、必要に応じて繰り返します。

    [sharefs-mds]root@solaris:~# samd config
    
  21. 分散入出力が正常にアクティブになったことを確認するには、コマンド samcmd g を使用します。クライアントの出力に DATAMOVER フラグが表示された場合は、分散入出力が正常にアクティブ化されています。

    この例では、フラグが表示されています。

    [samsharefs-mds]root@solaris:~# samcmd g
    Shared clients samcmd 6.0.dist_tapeio 11:09:13 Feb 20 2014
    samcmd on samsharefs-mds
    samsharefs is shared, server is samsharefs-mds, 2 clients 3 max
    ord hostname             seqno nomsgs status   config  conf1  flags
      1 samsharefs-mds          14      0   8091  808540d   4051      0 MNT SVR
     
        config   :   CDEVID      ARCHIVE_SCAN    GFSID   OLD_ARCHIVE_FMT
        "        :   SYNC_META   TRACE   SAM_ENABLED     SHARED_MO
        config1  :   NFSV4_ACL   MD_DEVICES      SMALL_DAUS      SHARED_FS
        flags    :
        status   :   MOUNTED     SERVER  SAM     DATAMOVER
        last_msg :  Wed Jul  2 10:13:50 2014
     
      2 samsharefs-client1     127      0   a0a1  808540d   4041      0 MNT CLI
     
        config   :   CDEVID      ARCHIVE_SCAN    GFSID   OLD_ARCHIVE_FMT
        "        :   SYNC_META   TRACE   SAM_ENABLED     SHARED_MO
        config1  :   NFSV4_ACL   MD_DEVICES      SHARED_FS
        flags    :
        status   :   MOUNTED     CLIENT  SAM     SRVR_BYTEREV
        "        :   DATAMOVER
    ...
    
  22. サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。

  23. それ以外の場合は、通知とロギングの構成に進みます。

NFS と SMB/CIFS を使用した複数のホストからファイルシステムへのアクセス

Oracle HSM ソフトウェアによる複数のホストファイルシステムアクセスのネイティブサポートの代わりに、またはそのサポートに加えて、Network File System (NFS) または Server Message Block (SMB)/Common Internet File System (CIFS) を使用すると、複数のホストが Oracle HSM ファイルシステムにアクセスできます (Oracle HSM ソフトウェアを使用した複数のホストからのファイルシステムへのアクセスを参照)。次のセクションでは、基本的な構成手順の概要を示します。

NFS を使用した Oracle HSM ファイルシステムの共有

次のタスクを実行します。

NFS 4 を使用して Oracle HSM 共有ファイルシステムを共有する前の委任の無効化

NFS を使用して Oracle HSM 共有ファイルシステムを共有する場合は、Oracle HSM software が NFS からの干渉なしでアクセスを制御していることを確認する必要があります。一般に、NFS サーバーがそのクライアントの代わりにファイルにアクセスするときは、Oracle HSM 共有ファイルシステムのクライアントとしてアクセスするため、これは問題ではありません。ただし、NFS バージョン 4 のサーバーが読み取り/書き込みアクセス権への制御をクライアントに委任するように構成されている場合は、問題が発生する可能性があります。委任の長所は、サーバーが競合の発生を防止する場合にしか介入する必要がない点にあります。サーバーのワークロードが NFS クライアント間で部分的に分散され、ネットワークトラフィックが削減されます。ただし、委任では、独自の共有ファイルシステムクライアントからのアクセスも制御する Oracle HSM サーバーとは別にアクセス権 (特に書き込みアクセス権) が付与されます。競合の発生およびファイル破損の可能性を回避するには、委任を無効にする必要があります。次のように進めます。

  1. NFS 共有として構成する Oracle HSM ファイルシステムのホストにログインします。root としてログインします。

    ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfsnfs です。

    [qfsnfs]root@solaris:~# 
    
  2. NFS バージョン 4 を使用していて、NFS サーバーで Solaris 11.1 以降が動作している場合は、Service Management Facility (SMF) の sharectl set -p コマンドを使用して、NFS server_delegation プロパティーを off にします。

    [qfsnfs]root@solaris:~# sharectl set -p server_delegation=off
    
  3. NFS バージョン 4 を使用していて、NFS サーバーで Solaris 11.0 以前が動作している場合は、テキストエディタで /etc/default/nfs ファイルを開き、NFS_SERVER_DELEGATION パラメータを off に設定して、委任を無効にします。ファイルを保存して、エディタを閉じます。

    この例では、vi エディタを使用します。

    [qfsnfs]root@solaris:~# vi /etc/default/nfs
    # ident "@(#)nfs        1.10    04/09/01 SMI"
    # Copyright 2004 Sun Microsystems, Inc.  All rights reserved.
    # Use is subject to license terms.
    ...
    NFS_SERVER_DELEGATION=off
    :wq
    [qfsnfs]root@solaris:~# 
    
  4. 共有する予定の Oracle HSM ファイルシステムで Write-Once Read-Many (WORM) 機能がサポートされている場合は、ここで WORM ファイルおよびディレクトリを共有する NFS サーバーおよびクライアントを構成します

  5. それ以外の場合は、Oracle HSM ホスト上に NFS サーバーを構成します

WORM ファイルおよびディレクトリを共有する NFS サーバーおよびクライアントの構成

  1. NFS を使用して共有する Oracle HSM ファイルシステムのホストにログインします。root としてログインします。

    ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfsnfs、クライアント名は nfsclient1 です。

    [qfsnfs]root@solaris:~# 
    
  2. 共有する予定の Oracle HSM ファイルシステムが WORM 機能を使用していて、Oracle Solaris 10 以降で動作しているサーバー上でホストされている場合は、NFS サーバー上およびすべてのクライアント上で NFS バージョン 4 が有効になっていることを確認します。

    この例では、サーバー qfsnfs およびクライアント nfsclient1 を確認します。どちらの場合でも、uname -r コマンドを使用して、最初に Solaris のバージョンレベルを確認します。次に、modinfo コマンドの出力を grep および正規表現にパイプして、NFS のバージョン情報を検索します。

    [qfsnfs]root@solaris:~# uname -r
    5.11
    [qfsnfs]root@solaris:~# modinfo | grep -i "nfs.* version 4"
    258 7a600000  86cd0  28   1  nfs (network filesystem version 4)
    [qfsnfs]root@solaris:~# ssh root@nfsclient1
    Pasword: ...
    [nfsclient1]root@solaris:~# uname -r
    5.11
    [nfsclient1]root@solaris:~# modinfo | grep -i "nfs.* version 4"
    278 fffffffff8cba000  9df68  27   1  nfs (network filesystem version 4)
    [nfsclient1]root@solaris:~# exit
    [qfsnfs]root@solaris:~# 
    
  3. Oracle Solaris 10 以降で動作しているサーバー上で NFS バージョン 4 が有効になっていない場合は、サーバーおよび各クライアントに root としてログインします。次に、sharectl set コマンドを使用して、NFS 4 を有効にします。

    [qfsnfs]root@solaris:~# sharectl set -p server_versmax=4 nfs
    [qfsnfs]root@solaris:~# ssh root@nfsclient1
    Password ...
    [nfsclient1]root@solaris:~# sharectl set -p server_versmax=4 nfs
    [nfsclient1]root@solaris:~# exit
    [qfsnfs]root@solaris:~# 
    
  4. 次に、Oracle HSM ホスト上に NFS サーバーを構成します

Oracle HSM ホストでの NFS サーバーの構成

クライアントがネットワークファイルシステム (NFS) を使用して正常に Oracle HSM ファイルシステムをマウントできるようにするには、ホスト上でファイルシステムが正常にマウントされるまで、Oracle HSM ファイルシステムの共有が試行されないように NFS サーバーを構成する必要があります。Oracle Solaris 10 以降のオペレーティングシステムバージョンでは、Service Management Facility (SMF) がブート時にファイルシステムのマウントを管理します。次の手順を使用して NFS を構成しない場合は、QFS マウントと NFS 共有のどちらか一方は成功しますが、他方には失敗します。

  1. NFS 共有として構成する Oracle HSM ファイルシステムのホストにログインします。root としてログインします。

    ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfsnfs です。

    [qfsnfs]root@solaris:~# 
    
  2. svccfg export /network/nfs/server コマンドの出力をリダイレクトして、既存の NFS 構成を XML マニフェストファイルにエクスポートします。

    この例では、エクスポートされた構成をマニフェストファイル /var/tmp/server.xml に転送します。

    [qfsnfs]root@solaris:~# svccfg export /network/nfs/server > /var/tmp/server.xml
    [qfsnfs]root@solaris:~# 
    
  3. テキストエディタでマニフェストファイルを開き、filesystem-local 依存関係を探します。

    この例では、vi エディタでファイルを開きます。filesystem-local 依存関係のエントリは、nfs-server_multi-user-server 依存関係のエントリの直前に一覧表示されます。

    [qfsnfs]root@solaris:~# vi /var/tmp/server.xml
    <?xml version='1.0'?>
    <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'>
    <service_bundle type='manifest' name='export'>
      <service name='network/nfs/server' type='service' version='0'>
        ...
        <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/system/filesystem/local'/>
        </dependency>
        <dependent name='nfs-server_multi-user-server' restart_on='none'
            grouping='optional_all'>
          <service_fmri value='svc:/milestone/multi-user-server'/>
        </dependent>
        ...
    
  4. filesystem-local 依存関係の直後に、QFS 共有ファイルシステムをマウントする qfs 依存関係を追加します。次に、ファイルを保存して、エディタを終了します。

    これにより、サーバーが NFS 経由で共有を試行する前に、Oracle HSM 共有ファイルシステムがマウントされます。

    <?xml version='1.0'?>
    <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'>
    <service_bundle type='manifest' name='export'>
      <service name='network/nfs/server' type='service' version='0'>
        ...
        <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/system/filesystem/local'/>
        </dependency>
        <dependency name='qfs' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/network/qfs/shared-mount:default'/>
        </dependency>
        <dependent name='nfs-server_multi-user-server' restart_on='none'
            grouping='optional_all'>
          <service_fmri value='svc:/milestone/multi-user-server'/>
        </dependent>
    :wq
    [qfsnfs]root@solaris:~# 
    
  5. svccfg validate コマンドを使用して、マニフェストファイルを検証します。

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    
  6. svccfg validate コマンドでエラーがレポートされた場合は、そのエラーを修正してから、ファイルを再検証します。

    この例では、svccfg validate コマンドで XML 解析エラーが返されます。ファイルを保存するときに、誤って末尾のタグ </dependency> を付け忘れました。そのため、vi エディタでファイルを再度開いて、問題を修正します。

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    /var/tmp/server.xml:75: parser error : Opening and ending tag mismatch: dependency line 29 and service
      </service>
                ˆ
    /var/tmp/server.xml:76: parser error : expected '>'
    </service_bundle>
             ˆ
    /var/tmp/server.xml:77: parser error : Premature end of data in tag service_bundle line 3
    ˆ
    svccfg: couldn't parse document
    [qfsnfs]root@solaris:~# vi /var/tmp/server.xml
    ...
    :wq
    [qfsnfs]root@solaris:~# 
    
  7. svccfg validate コマンドがエラーなしで完了したら、svcadm disable nfs/server コマンドを使用して NFS を無効にします。

    この例では、svccfg validate コマンドで出力が返されなかったため、ファイルは有効であり、NFS を無効にできます。

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    [qfsnfs]root@solaris:~# svcadm disable nfs/server
    
  8. svccfg delete nfs/server コマンドを使用して、既存の NFS サーバー構成を削除します。

    [qfsnfs]root@solaris:~# svccfg delete nfs/server
    
  9. svccfg import コマンドを使用して、マニフェストファイルを Service Management Facility (SMF) にインポートします。

    [qfsnfs]root@solaris:~# svccfg import /var/tmp/server.xml
    
  10. svcadm enable nfs/server コマンドを使用して、NFS を再度有効にします。

    NFS は、更新済みの構成を使用するように構成されます。

    [qfsnfs]root@solaris:~# svcadm enable nfs/server
    
  11. qfs 依存関係が適用されたことを確認します。コマンド svcs -d svc:/network/nfs/server:default/network/qfs/shared-mount:default サービスが表示されることを確認します。

    [qfsnfs]root@solaris:~# svcs -d svc:/network/nfs/server:default 
    STATE          STIME    FMRI
    ...
    online         Nov_01   svc:/network/qfs/shared-mount:default
    ...
    
  12. 次に、Oracle HSM ファイルシステムを NFS 共有として共有します

NFS 共有としての Oracle HSM ファイルシステムの共有

使用中の Oracle Solaris オペレーティングシステムバージョンに対応した管理ドキュメントに記載されている手順を使用して、Oracle HSM ファイルシステムを共有します。次の手順では、Solaris 11.1 での手順について簡単に説明します。

  1. NFS を使用して共有する Oracle HSM ファイルシステムのホストにログインします。root としてログインします。

    ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfsnfs です。

    [qfsnfs]root@solaris:~# 
    
  2. コマンド行 share -F nfs -o sharing-options sharepath を入力します。ここで -F スイッチは nfs 共有プロトコルを指定し、sharepath は共有リソースへのパスです。オプションの -o パラメータを使用する場合、sharing-options には次のいずれかを含めることができます。

    • rw は、読み取りおよび書き込み権限のある sharepath をすべてのクライアントが使用できるようにします。

    • ro は、読み取り専用権限のある sharepath をすべてのクライアントが使用できるようにします。

    • rw=clients は、読み取りおよび書き込み権限のある sharepathclients (共有へのアクセス権を持つ 1 つ以上のクライアントのコロン区切りリスト) が使用できるようにします。

    • ro=clients は、読み取り専用権限のある sharepathclients (共有へのアクセス権を持つ 1 つ以上のクライアントのコロン区切りリスト) が使用できるようにします。

    この例では、/qfsms ファイルシステムを読み取り/書き込みでクライアント nfsclient1 および nfsclient2 と共有して、読み取り専用で nfsclient3 と共有します (次のコマンドは 1 行で入力します。改行はバックスラッシュでエスケープされます)。

    [qfsnfs]root@solaris:~# share -F nfs -o rw=nfsclient1:nfsclient2 \
     ro=nfsclient3 /qfsms
    

    このコマンドを入力すると、自動的に NFS サーバーデーモン nfsd が再起動されます。追加のオプションおよび詳細は、share_nfs のマニュアルページを参照してください。

  3. コマンド行 share -F nfs を使用して、共有パラメータを確認します。

    この例では、共有が適切に構成されたことがコマンドの出力に表示されます。

    [qfsnfs]root@solaris:~# share -F nfs
    /qfsms   sec=sys,rw=nfsclient1:nfsclient2,ro=nfsclient3
    [qfsnfs]root@solaris:~# 
    
  4. 次に、NFS クライアント上に NFS で共有された Oracle HSM ファイルシステムをマウントします

NFS クライアントでの NFS で共有された Oracle HSM ファイルシステムのマウント

クライアントシステム上の適切なマウントポイントに、NFS サーバーのファイルシステムをマウントします。クライアントごとに、次の手順を実行します。

  1. クライアントに root としてログインします。

    この例では、NFS クライアントの名前は nfsclient1 です。

    [nfsclient1]root@solaris:~# 
    
  2. オペレーティングシステムの /etc/vfstab ファイルをバックアップします。

    [nfsclient1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [nfsclient1]root@solaris:~# 
    
  3. テキストエディタで /etc/vfstab ファイルを開きます。

    次の例では、vi エディタを使用します。

    [nfsclient1]root@solaris:~# vi /etc/vfstab
    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    
  4. /etc/vfstab ファイルの 1 列目に、NFS サーバーの名前と共有するファイルシステムのマウントポイントをコロンで区切って指定して、マウントするファイルデバイスの名前を指定します。

    この例では、NFS サーバーの名前は qfsnfs、共有ファイルシステムの名前は qfsms、サーバー上のマウントポイントは /qfsms です。

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms
    
  5. ローカルシステムがリモートのファイルシステムの整合性チェックを試行しないように、/etc/vfstab ファイルの 2 列目に、ハイフン (-) を入力します。

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -
    
  6. /etc/vfstab ファイルの 3 列目に、リモートのファイルシステムをマウントするローカルのマウントポイントを入力します。

    この例では、マウントポイントはディレクトリ /qfsnfs です。

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs
    
  7. /etc/vfstab ファイルの 4 列目に、ファイルシステムタイプ nfs を入力します。

    #File         Device                           Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs
    

    クライアントは NFS ファイルシステムとしてリモートの QFS ファイルシステムをマウントするため、nfs ファイルシステムタイプを使用します。

  8. ローカルシステムではリモートのファイルシステムの整合性チェックが行われないため、/etc/vfstab ファイルの 5 列目に、ハイフン (-) を入力します。

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -
    
  9. /etc/vfstab ファイルの 6 列目に、ブート時にリモートのファイルシステムをマウントする場合は yes、要求に応じて手動でマウントする場合は no を入力します。

    この例では、yes を入力します。

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes
    
  10. /etc/vfstab ファイルの最後の列に、hard および intr NFS マウントオプションを入力して、無制限で中断なしの再試行を強制するか、または retrans120 以上に設定して timeo3000 1/10 秒に設定し、softretrans、および timeo マウントオプションを入力することによって、特定の再試行回数を設定します。

    hard 再試行オプションを設定するか、または soft オプションに十分に長いタイムアウト値と十分な再試行回数を指定すると、すぐにマウントできないリムーバブルボリューム上に要求されたファイルが存在するときにも、NFS 要求が失敗しなくなります。これらのマウントオプションの詳細は、Solaris mount_nfs のマニュアルページを参照してください。

    この例では、soft マウントオプションを入力します。

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes    soft,retrans=120,timeo=3000
    
  11. NFS 2 を使用している場合は、rsize マウントパラメータを 32768 に設定します。

    その他の NFS バージョンを使用している場合は、デフォルト値を受け入れます。

    rsize マウントパラメータは、読み取りバッファーのサイズを 32768 バイトに設定します (デフォルトは 8192 バイト)。この例では、NFS 2 での構成方法を示します。

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs2:/qfs2 -       /qfsnfs2  nfs    -     yes    ...,rsize=32768 
    
  12. NFS 2 を使用している場合は、wsize マウントパラメータを 32768 に設定します。

    その他の NFS バージョンを使用している場合は、デフォルト値を受け入れます。

    wsize マウントパラメータは、書き込みバッファーのサイズを指定したバイト数に設定します (デフォルトは 8192 バイト)。この例では、NFS 2 での構成方法を示します。

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs2:/qfs2 -       /qfsnfs2  nfs    -     yes    ...,wsize=32768 
    
  13. /etc/vfstab ファイルを保存して、エディタを終了します。

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes    soft,retrans=120,timeo=3000
    :wq
    [nfsclient1]root@solaris:~# 
    
  14. 共有ファイルシステムのマウントポイントディレクトリを作成します。

    この例では、/qfsnfs という名前のディレクトリ上で共有ファイルシステムをマウントします。

    [nfsclient1]root@solaris:~# mkdir /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  15. /etc/vfstab ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。

    ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x) を持っている必要があります。この例では、/qfsnfs マウントポイントディレクトリを作成し、アクセス権を 755 (-rwxr-xr-x) に設定します。

    [nfsclient1]root@solaris:~# mkdir /qfsnfs
    [nfsclient1]root@solaris:~# chmod 755 /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  16. 共有ファイルシステムをマウントします。

    [nfsclient1]root@solaris:~# mount /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  17. サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。

  18. それ以外の場合は、通知とロギングの構成に進みます。

SMB/CIFS を使用した Oracle HSM ファイルシステムの共有

SMB を使用すると、Oracle HSM が Microsoft Windows ホストにアクセスできるようになり、大文字と小文字の区別のなし、DOS 属性のサポート、および NFSv4 のアクセス制御リスト (ACL) のサポートなどの相互運用性機能が提供されます。Oracle Solaris OS は、サーバーメッセージブロック (SMB) プロトコルのサーバーおよびクライアント実装を提供し、これには、NT LM 0.12 や共通インタフェースファイルシステム (CIFS) などの多数の SMB ダイアレクトのサポートが含まれます。

Oracle HSM では、Windows Security Identifier (SID) がサポートされます。Windows アイデンティティーは、idmap サービスを使用して明示的に定義したり、Active Directory サービスで提供したりする必要がなくなりました。

Oracle HSM ファイルシステムで SMB サービスを構成するには、次のタスクを実行します。

Oracle Solaris SMB 構成および管理ドキュメントの確認

次のセクションでは、Oracle HSM ファイルシステムに適用される SMB 構成プロセスの一部について概要を示します。これらは包括的なものではなく、考えられるシナリオをすべて網羅しているわけではありません。そのため、Oracle Solaris SMB サーバーの構成、既存の Windows 環境へのサーバーの統合、および Solaris システムでの SMB 共有のマウントについては、完全な手順を確認してください。完全な手順は、Oracle Solaris Information LibraryOracle Solaris での SMB と Windows の相互運用性の管理に関するガイドにあります。

SMB サーバー用の Windows アイデンティティーの明示的なマップ (オプション)

Oracle HSM では、Windows Security Identifier (SID) が完全にサポートされるようになりましたが、一部の状況では、UNIX アイデンティティーと SID 間の関係を明示的に定義することが引き続き役立つ場合があります。たとえば、ユーザーが UNIX と Windows の両方のアイデンティティーを持っている異種環境では、idmap サービスまたは Active Directory サービスを使用して、明示的なマッピングを作成する場合があります。SMB と Windows の完全な相互運用性情報については、使用している Oracle Solaris バージョンの製品ドキュメントを参照してください。

SMB/CIFS を使用して共有する Oracle HSM ファイルシステムの構成

SMB/CIFS を使用して共有する Oracle HSM ファイルシステムでは、ネットワークファイルシステム (NFS) Version 4 で採用され、Solaris 11 で導入されたアクセス制御リスト (ACL) の実装を使用する必要があります。旧バージョンの Solaris および NFS では、Windows ACL 実装と互換性のない POSIX ドラフト仕様に基づいた ACL が使用されていました。

Solaris 11 では、Oracle HSM で作成する新しいファイルシステムは、デフォルトで NFS バージョン 4 ACL を使用します。ただし、SMB/CIFS クライアントを使用して既存の Oracle HSM ファイルシステムを共有する必要がある場合は、適切な手順を使用して既存の POSIX スタイルの ACL を変換する必要があります。

POSIX スタイルの ACL を使用する Oracle HSM 非共有ファイルシステムの変換

次のように進めます。

  1. ホストに root としてログインします。

    この例では、ホスト qfs-host にログインします。

    [qfs-host]root@solaris:~# 
    
  2. ホストで Oracle Solaris 11.1 以上が実行されていることを確認します。コマンド uname -r を使用します。

    [qfs-host]root@solaris:~# uname -r
    5.11
    [qfs-host]root@solaris:~# 
    
  3. コマンド umount mount-point を使用して、ファイルシステムをアンマウントします。ここで mount-point は、Oracle HSM ファイルシステムのマウントポイントです。

    詳細については、umount_samfs のマニュアルページを参照してください。次の例では、サーバー名は qfs-host、ファイルシステムは /qfsms です。

    [qfs-host]root@solaris:~# umount /qfsms
    
  4. samfsck -F -A file-system コマンドを使用して、ファイルシステムを変換します。ここで -F オプションを指定すると、ファイルシステムがチェックおよび修復され、-A オプションを指定すると ACL が変換されます。file-system は、変換する必要があるファイルシステムの名前です。

    -A オプションが指定されているときは、-F オプションが必須です。samfsck -F -A コマンドでエラーが返された場合は、プロセスが異常終了し、ACL は変換されません (これらのオプションの詳細は、samfsck のマニュアルページを参照)。

    [qfs-host]root@solaris:~# samfsck -F -A /qfsms
    
  5. エラーが返され、ACL が変換されない場合は、samfsck -F -a file-system コマンドを使用して、強制的に ACL を変換します。

    -a オプションを指定すると、強制的に変換されます。-a オプションが指定されているときは、-F オプションが必須です (これらのオプションの詳細は、samfsck のマニュアルページを参照)。

    [qfs-host]root@solaris:~# samfsck -F -a /qfsms
    
  6. 次に、Windows Active Directory ドメインまたはワークグループ用に SMB サーバーを構成します

POSIX スタイルの ACL を使用する Oracle HSM 共有ファイルシステムの変換
  1. ファイルシステムのメタデータサーバーに root としてログインします。

    この例では、メタデータサーバー sharedqfs-mds にログインします。

    [sharedqfs-mds]root@solaris:~# 
    
  2. メタデータサーバーで Oracle Solaris 11.1 以上が実行されていることを確認します。コマンド uname -r を使用します。

    [sharedqfs-mds]root@solaris:~# uname -r
    5.11
    [sharedqfs-mds]root@solaris:~# 
    
  3. 各 Oracle HSM クライアントに root としてログインして、各クライアントで Oracle Solaris 11.1 以上が実行されていることを確認します。

    この例では、端末ウィンドウを開き、ssh を使用してクライアントホスト sharedqfs-client1 および sharedqfs-client2 にリモートログインして、ログインバナーから Solaris のバージョンを取得します。

    [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client1
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client1]root@solaris:~# 
    
    [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client2
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client2]root@solaris:~# 
    
  4. コマンド umount mount-point を使用して、各 Oracle HSM クライアントから Oracle HSM 共有ファイルシステムをアンマウントします。ここで mount-point は、Oracle HSM ファイルシステムのマウントポイントです。

    詳細については、umount_samfs のマニュアルページを参照してください。この例では、2 つのクライアント (sharedqfs-client1sharedqfs-client2) から /sharedqfs1 をアンマウントします。

    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client1]root@solaris:~# umount /sharedqfs
    [sharedqfs-client1]root@solaris:~# 
    
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client2]root@solaris:~# umount /sharedqfs
    [sharedqfs-client1]root@solaris:~# 
    
  5. コマンド umount -o await_clients=interval mount-point を使用して、メタデータサーバーから Oracle HSM 共有ファイルシステムをアンマウントします。ここで mount-point は、Oracle HSM ファイルシステムのマウントポイントで、interval は -o await_clients オプションの遅延実行で指定された遅延 (秒) です。

    Oracle HSM 共有ファイルシステムのメタデータサーバー上で -o await_clients オプションを付けて umount コマンドを発行すると、クライアントが共有をアンマウントする時間を持てるように、umount は指定された秒数間待機します。非共有ファイルシステムをアンマウントする場合や、Oracle HSM クライアント上でコマンドを発行する場合は影響がありません。詳細については、umount_samfs のマニュアルページを参照してください。

    この例では、クライアントのアンマウントを 60 秒間許可し、メタデータサーバー sharedqfs-mds から /sharedqfs ファイルシステムをアンマウントします。

    [sharedqfs-mds]root@solaris:~# umount -o await_clients=60 /sharedqfs
    
  6. ファイルシステムを POSIX スタイルの ACL から NFS バージョン 4 の ACL に変換します。メタデータサーバー上で、コマンド samfsck -F -A file-system を使用します。ここで -F オプションを指定するとファイルシステムがチェックおよび修復され、-A オプションを指定すると ACL が変換されます。file-system は、変換する必要があるファイルシステムの名前です。

    -A オプションが指定されているときは、-F オプションが必須です。samfsck -F -A file-system コマンドでエラーが返された場合は、プロセスが異常終了し、ACL は変換されません (これらのオプションの詳細は、samfsck のマニュアルページを参照)。この例では、/sharedqfs という名前の Oracle HSM ファイルシステムを変換します。

    [sharedqfs-mds]root@solaris:~# samfsck -F -A /sharedqfs
    
  7. エラーが返され、ACL が変換されない場合は、強制的に ACL を変換します。メタデータサーバー上で、samfsck -F -a file-system コマンドを使用します。

    -a オプションを指定すると、強制的に変換されます。-a オプションが指定されているときは、-F オプションが必須です (これらのオプションの詳細は、samfsck のマニュアルページを参照)。この例では、/qfsma という名前の Oracle HSM ファイルシステムを強制的に変換します。

    [sharedqfs-mds]root@solaris:~# samfsck -F -a /sharedqfs
    
  8. 次に、Windows Active Directory ドメインまたはワークグループ用に SMB サーバーを構成します

Windows Active Directory ドメインまたはワークグループ用の SMB サーバーの構成

Oracle Solaris SMB サービスは、ドメインとワークグループという、相互に排他的な 2 つのモードのいずれかで動作できます。環境と認証のニーズに基づいて、いずれか一方を選択します。

ドメインモードでの SMB サーバーの構成
  1. Windows Active Directory 管理者に連絡して、次の情報を取得します。

    • Active Directory ドメインに参加する際に使用する必要がある認証済みの Active Directory ユーザーアカウントの名前

    • アカウント用のデフォルトの Computers コンテナの代わりに使用する必要がある組織単位 (存在する場合)

    • Oracle HSM ファイルシステムが共有されるドメインの完全修飾 LDAP/DNS ドメイン名。

  2. SMB/CIFS 共有として構成する Oracle HSM ファイルシステムのホストにログインします。root としてログインします。

    ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfssmb です。

    [qfssmb]root@solaris:~# 
    
  3. 単一の Oracle Solaris システム上では、オープンソースの Samba と SMB サーバーを同時に使用できません。したがって、Samba サービスが実行されているかどうかを確認します。サービスステータスコマンド svcs の出力を grep および正規表現 samba にパイプします。

    この例では、svcs コマンドの出力に正規表現の一致が含まれているため、SMB サービスは実行中です。

    [qfssmb]root@solaris:~# svcs | grep samba
    legacy_run     Nov_03   lrc:/etc/rc3_d/S90samba
    
  4. Samba サービス (svc:/network/samba) が実行中の場合は、Windows Internet Naming Service/WINS (svc:/network/wins) (実行中の場合) とともに無効にします。コマンド svcadm disable を使用します。

    [qfssmb]root@solaris:~# svcadm disable svc:/network/samba
    [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
    
  5. ここで、svcadm enable -r smb/server コマンドを使用して、SMB サーバーおよびこれが依存するサービスを起動します。

    [qfssmb]root@solaris:~# svcadm enable -r smb/server
    
  6. Oracle HSM ホスト上のシステムクロックが Microsoft Windows ドメインコントローラのシステムクロックの 5 分以内であることを確認します。

    • Windows ドメインコントローラで Network Time Protocol (NTP) サーバーが使用されている場合は、同じサーバーを使用するように Oracle HSM ホストを構成します。Oracle HSM ホスト上に /etc/inet/ntpclient.conf ファイルを作成し、svcadm enable ntp コマンドを使用して ntpd デーモンを起動します (詳細は、ntpd のマニュアルページおよび Oracle Solaris 管理ドキュメントを参照)。

    • それ以外の場合は、ntpdate domain-controller-name コマンドを実行して、Oracle HSM ホストとドメインコントローラを同期するか (詳細は、ntpdate のマニュアルページを参照)、または Oracle HSM ホスト上のシステムクロックをドメインコントローラのシステムクロックで表示される時間に手動で設定します。

  7. コマンド smbadm join -u username -o organizational-unit domain-name を使用して、Windows ドメインに参加します。ここで username は、Active Directory 管理者によって指定されたユーザーアカウントの名前、オプションの organizational-unit は指定されたアカウントコンテナ (存在する場合)、domain-name は指定された完全修飾 LDAP または DNS ドメイン名です。

    この例では、ユーザーアカウントを使用して、Windows ドメイン this.example.com に参加します。

    [qfssmb]root@solaris:~# smbadm join -u admin -o smbsharing this.example.com
    
  8. 次に、Oracle HSM ファイルシステムを SMB/CIFS 共有として共有します

ワークグループモードでの SMB サーバーの構成
  1. Contact the Windows ネットワーク管理者に連絡して、Oracle HSM ファイルシステムのホストが参加する必要のある Windows ワークグループの名前を取得します。

    デフォルトのワークグループの名前は WORKGROUP です。

  2. Oracle HSM ファイルシステムのホストにログインします。root としてログインします。

    ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfssmb です。

    [qfssmb]root@solaris:~# 
    
  3. 単一の Oracle Solaris システム上では、オープンソースの Samba と SMB サーバーを同時に使用できません。したがって、Samba サービスが実行されているかどうかを確認します。svcs サービスステータスコマンドの出力を grep および正規表現 samba にパイプします。

    この例では、svcs コマンドの出力に正規表現の一致が含まれているため、SMB サービスは実行中です。

    [qfssmb]root@solaris:~# svcs | grep samba
    legacy_run     Nov_03   lrc:/etc/rc3_d/S90samba
    
  4. Samba サービス (svc:/network/samba) が実行中の場合は、Windows Internet Naming Service/WINS (svc:/network/wins) サービス (実行中の場合) とともに無効にします。コマンド svcadm disable を使用します。

    単一の Oracle Solaris システム上では、Samba と SMB サーバーを同時に使用できません。

    [qfssmb]root@solaris:~# svcadm disable svc:/network/samba
    [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
    
  5. ここで、コマンド svcadm enable -r smb/server を使用して、SMB サーバーおよびこれが依存するサービスを起動します。

    [qfssmb]root@solaris:~# svcadm enable -r smb/server
    
  6. ワークグループに参加します。-w (ワークグループ) スイッチ、および Windows ネットワーク管理者によって指定されたワークグループの名前を指定して、コマンド smbadm join を使用します。

    この例では、指定されたワークグループの名前は crossplatform です。

    [qfssmb]root@solaris:~# smbadm join -w crossplatform
    
  7. SMB パスワードが暗号化されるように Oracle HSM ホストを構成します。テキストエディタで /etc/pam.d/other ファイルを開き、コマンド行 password required pam_smb_passwd.so.1 nowarn を追加して、ファイルを保存します。

    この例では、vi エディタを使用します。

    [qfssmb]root@solaris:~# vi /etc/pam.d/other
    # Copyright (c) 2012, Oracle and/or its affiliates. All rights reserved.
    #
    # PAM configuration
    #
    # Default definitions for Authentication management
    # Used when service name is not explicitly mentioned for authentication
    #
    auth definitive         pam_user_policy.so.1
    ...
    password required       pam_authtok_store.so.1
    password required pam_smb_passwd.so.1 nowarn
    :wq
    [qfssmb]root@solaris:~# 
    

    詳細は、pam_smb_passwd のマニュアルページを参照してください。

  8. pam_smb_passwd モジュールがインストールされたら、SMB サーバーが Windows ワークグループにログインできるように、passwd local-username コマンドを使用して、ユーザー local-username の暗号化バージョンのパスワードを生成します。

    SMB サーバーのユーザー認証では、Solaris オペレーティングシステムで使用されるものと同じ暗号化バージョンのパスワードを使用できません。この例では、ユーザー smbsamqfs の暗号化された SMB パスワードを生成します。

    [qfssmb]root@solaris:~# passwd smbsamqfs
    
  9. 次に、Oracle HSM ファイルシステムを SMB/CIFS 共有として共有します

SMB/CIFS 共有としての Oracle HSM ファイルシステムの共有

使用中の Oracle Solaris オペレーティングシステムバージョンに対応した管理ドキュメントに記載されている手順を使用して、Oracle HSM ファイルシステムを共有します。次の手順では、Solaris 11.1 での手順について簡単に説明します。

  1. SMB/CIFS 共有として構成する Oracle HSM ファイルシステムのホストにログインします。root としてログインします。

    ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfssmb です。

    [qfssmb]root@solaris:~# 
    
  2. 共有を構成します。コマンド share -F smb -o specific-options sharepath sharename を使用します。ここで -F スイッチは smb 共有プロトコルを指定し、sharepath は共有リソースへのパス、sharename は共有で使用する名前です。オプションの -o パラメータの値 sharing-options には、次のいずれかを含めることができます。

    • abe=[true|false]

      共有のアクセスベースの列挙 (ABE) ポリシーが true になっている場合は、クライアントに返されるディレクトリリストから、要求するユーザーがアクセス権を持っていないディレクトリのエントリが削除されます。

    • ad-container=cn=user,ou=organization,dc=domain-dns

      Active Directory コンテナでは、共有アクセスは、LDAP (Lightweight Directory Access Protocol) 相対識別名 (RDN) 属性値 cn (ユーザーオブジェクトクラス)、ou (組織単位オブジェクトクラス)、および dc (ドメイン DNS オブジェクトクラス) で指定されたドメインオブジェクトに制限されます。

      SMB/CIFS での Active Directory コンテナの使用の詳細は、Internet Engineering Task Force Request For Comment (RFC) 2253 および Microsoft Windows ディレクトリサービスのドキュメントを参照してください。

    • catia=[true|false]

      CATIA 文字置き換えが true になっている場合は、Windows で無効な CATIA バージョン 4 ファイル名内の文字が有効な文字で置き換えられます。置き換えリストについては、share_smb のマニュアルページを参照してください。

    • csc=[manual|auto|vdo|disabled]

      クライアント側キャッシュ (csc) のポリシーによって、オフラインで使用されるファイルのクライアント側キャッシュが制御されます。manual ポリシーを使用すると、クライアントはユーザーから要求があればファイルをキャッシュに入れることができますが、自動的なファイルごとの再統合は無効になります (これがデフォルトです)。auto ポリシーを使用すると、クライアントは自動的にファイルをキャッシュに入れることができ、ファイルごとの自動的な再統合が有効になります。vdo ポリシーを使用すると、クライアントは自動的にオフラインで使用されるファイルをキャッシュに入れることができ、ファイルごとの再統合が有効になり、オフラインでもクライアントがローカルキャッシュから動作できます。disabled ポリシーを使用すると、クライアント側キャッシュが許可されません。

    • dfsroot=[true|false]

      Microsoft 分散ファイルシステム (DFS) では、ルート共有 (dfsroot=true) は、幅広く分散している共有フォルダのグループを、より簡単に管理できる単一の DFS ファイルシステムにまとめる共有です。詳細は、Microsoft Windows Server のドキュメントを参照してください。

    • guestok=[true|false]

      guestok ポリシーが true になっている場合は、ローカルで定義されている guest アカウントが共有にアクセスできます。false または未定義のまま (デフォルト) になっている場合は、guest アカウントが共有にアクセスできません。このポリシーを使用すると、Windows Guest ユーザーをローカルで定義されている UNIX ユーザー名 (guestnobody など) にマップできます。

      # idmap add winname:Guest unixuser:guest
      

      その後、必要に応じて /var/smb/smbpasswd に格納されているパスワードと照合して、ローカルで定義されているアカウントを認証できます。詳細は、idmap のマニュアルページを参照してください。

    • rw=[*|[[-]criterion][:[-]criterion]...

      rw ポリシーでは、指定されたアクセスリストに一致するクライアントへのアクセスが許可または拒否されます。

      アクセスリストには、すべてを意味する単一のアスタリスク (*) またはクライアントアクセス条件のコロン区切りのリストのいずれかが含まれています。ここでそれぞれの criterion は、拒否を意味するオプションのマイナス記号 (-) と、その後に続くホスト名、ネットワークグループ、完全な LDAP または DNS ドメイン名、@ 記号、およびすべてまたは一部の IP アドレスまたはドメイン名で構成されます。アクセスリストは、クライアントでいずれかの基準が満たされるまで、左から右へと評価されます。詳細は、share_smb のマニュアルページを参照してください。

    • ro=[*|[[-]criterion][:[-]criterion]...

      ro ポリシーでは、アクセスリストに一致するクライアントへの読み取り専用アクセスが許可または拒否されます。

    • none=[*|[[-]criterion][:[-]criterion]...

      none ポリシーでは、アクセスリストに一致するクライアントへのアクセスが拒否されます。アクセスリストがアスタリスク (*) になっている場合は、ro および rw ポリシーで none ポリシーをオーバーライドできます。

    この例では、クライアント smbclient1 および smbclient2 とは読み取り/書き込み、smbclient3 とは読み取り専用で、/qfsms ファイルシステムを共有します。

    [qfssmb]root@solaris:~# share -F smb -o rw=smbclient1:smbclient2 
    ro=smbclient3 /qfsms
    

    このコマンドを入力すると、自動的に SMB サーバーデーモン smbd が再起動されます。

  3. 共有パラメータを確認します。コマンド share -F nfs を使用します。

    この例では、共有が適切に構成されたことがコマンドの出力に表示されます。

    [qfssmb]root@solaris:~# share -F smb /qfsms
    sec=sys,rw=smbclient1:smbclient2,ro=smbclient3
    [qfssmb]root@solaris:~# 
    
  4. サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。

  5. それ以外の場合は、通知とロギングの構成に進みます。