3 Oracle HSM ファイルシステムの管理

この章では、ファイルシステムの保守および再構成タスクについて説明します。最初のセクションOracle HSM ファイルシステムの管理では、すべての Oracle HSM ファイルシステム (アーカイブと非アーカイブ、共有と非共有 (スタンドアロン)) の保守を扱います。2 つ目のセクションOracle HSM 共有ファイルシステムの管理では、共有ファイルシステムに影響を与える特殊な考慮事項を扱います。

Oracle HSM ファイルシステムの管理

このセクションでは、次のタスクの概要について説明します。

ファイルシステム割り当ての管理

特定のユーザーまたはユーザーの集合がファイルシステム内で消費できるオンラインの合計ストレージ領域を制御するように、ファイルシステム割り当てを設定します。ユーザー ID、グループ ID、または特定のプロジェクトへの参加などの共通する特性別にユーザーをグループ化する、管理者が定義した管理セット ID 別に割り当てを設定できます。管理セット ID は、プロジェクトに複数のグループのユーザーが含まれる場合や、プロジェクトが複数のディレクトリおよびファイルにまたがる場合に特に便利です。

割り当てを有効にするには、quota マウントオプション (デフォルト設定) を使用してファイルシステムをマウントし、割り当てを無効にするには、noquota マウントオプションを使用してマウントします。割り当ては、ファイルシステムのルートディレクトリに 1 つ以上の割り当てファイルを置いて定義します。割り当てファイル .quota_u.quota_g、および .quota_a は、それぞれユーザー、グループ、および管理セットの割り当てを設定します。各ファイルの最初のレコード (レコード 0) には、デフォルト値が設定されます。後続のレコードには、特定のユーザー、グループ、または管理セットに固有の値が設定されます。

割り当てによって、ストレージ領域だけでなく、使用可能なファイルシステム領域も割り当てられます。したがって、メディアに割り当てられた 512 バイトのブロック数と、ファイルシステムに割り当てられた i ノード数の両方に上限が設定されます。ブロック数で、ストレージ領域自体が測定されます。i ノード数で、そのストレージにアクセスできるリソースが測定されます。したがって、非常に多くのブロックのストレージ領域を使用していても i ノードは 1 つしか使用しない単一のファイルと、多数の i ノードを使用し、ブロックがなく空で長さゼロの非常に多くのファイルが使用するファイルシステム領域の量は同じです。

各割り当てには、弱い制限値強い制限値の両方を含めることができます。強い制限値には、特定の所有者のすべてのファイルが一時的に使用できるファイルシステムリソースの最大数を定義します。弱い制限値には、所有者のファイルが無制限に使用できるファイルシステムリソースの最大数を定義します。割り当ての猶予時間で定義されているように、リソースの使用量は、ほんの短期間で弱い制限値と強い制限値の間の量にまで増加する可能性があります。

このセクションでは、次の管理タスクについて説明します。

ユーザー、グループ、および組織単位のストレージ要件の定義

持続的な割り当てを設定するには、ユーザーの要件に対応する制限値を、管理可能かつ拡張可能な方法で設定する必要があります。したがって、割り当てを設定する前に、ユーザーのストレージ要件を見積もります。プロセスを管理可能に保つには、最小限の管理労力で最大数の要件に対処できるように、ユーザーの要件をできるだけ幅広く分類することから始めます。その後、幅広いカテゴリに当てはまらない少数のユーザー要件を特別に評価できます。結果には、設定する割り当ての概要と制限値のタイプが示されます。

ほとんどの組織ではアクセス制御グループがすでに定義されているため、次に示すアプローチでは、これらのグループのファイルシステム要件を特定することから始めます。次に、要件が標準グループと一致しない特別なユーザーのセットを定義します。この時点ではじめて、個別のユーザーに固有の要件に対処し始めます。次のように進めます。

  1. 既存のアクセス制御グループが同様のリソース要件を持つユーザーをすでに収集しているため、ファイルシステムを使用するグループの平均的なストレージ要件を定義することから始めます。使用されるストレージ領域の平均量 (512 キロバイトブロック単位) と、格納されるファイルの平均数 (使用される i ノードの平均数と同等) の両方を見積もります。

    通常、グループメンバーは同様の組織上の役割や業務上の責任を持っているため、同じディレクトリやファイルに頻繁にアクセスする必要があり、一般に、ストレージに対して同様の要求を行います。この例では、ファイルシステム /hsm/hsmfs1 を使用する 3 つのグループ dev (製品開発)、cit (会社情報技術)、pgmt (プログラム管理) を特定します。次の簡単なスプレッドシートに、グループ、それぞれのメンバー数、個人およびグループの平均的な要件を一覧表示します。

    グループ
    ユーザー 1 ユーザーあたりの平均ブロック数 1 ユーザーあたりの平均ファイル数 1 グループあたりの平均ブロック数 1 グループあたりの平均ファイル数
    dev
    
    30
    
     67108864
    
     500
    
    2013265920
    
    15000
    
    cit
    
    15
    
     10485760
    
      50
    
     157286400
    
      750
    
    pmgt
    
     6
    
     20971520
    
     200
    
     125829120
    
     1200
    
    合計ブロック数/ファイル数 (平均)          

  2. 次に、グループメンバーが常時格納するストレージ領域の最大量およびファイルの最大数について、同じ計算を実行します。結果を記録します。

    この例では、新しいスプレッドシートに結果を記録します。

    グループ
    ユーザー 1 ユーザーあたりの最大ブロック数 1 ユーザーあたりの最大ファイル数 1 グループあたりの最大ブロック数 1 グループあたりの最大ファイル数
    dev
    
    30
    
    100663296
    
    1000
    
    3019898880
    
    30000
    
    cit
    
    15
    
     15728640
    
     100
    
     235929600
    
     1500
    
    pmgt
    
     6
    
     31457280
    
     400
    
     188743680
    
     2400
    
    合計ブロック数/ファイル数 (最大)          

  3. ここで、さまざまなグループに属するが、グループメンバーシップに基づいて対処できない個別のストレージ要件を共有するユーザーのセットを特定します。特定された組織ごとに、各アクセス制御グループに対して行なったときと同じ見積もりと同じ計算を実行します。

    この例では、ストレージの割り当てが必要な 2 つの会社プロジェクト (コード名 portallockbox) を特定します。これらのプロジェクトでは、エンジニアリング、マーケティング、コンプライアンス、テスト、およびドキュメントの各グループメンバーが共同で作業し、同じディレクトリや多数の同じファイルを使用します。したがって、これらのプロジェクトを要件スプレッドシートに追加します。

    グループ
    ユーザー 1 ユーザーあたりの平均ブロック数 1 ユーザーあたりの平均ファイル数 1 グループあたりの平均ブロック数 1 グループあたりの平均ファイル数
    dev
    
    30
    
     67108864
    
     500
    
    2013265920
    
    15000
    
    cit
    
    15
    
     10485760
    
      50
    
     157286400
    
      750
    
    pmgt
    
     6
    
     20971520
    
     200
    
     125829120
    
     1200
    
    portal
    
    10
    
     31457280
    
     400
    
     314572800
    
     4000
    
    lockbox
    
    12
    
     31457280
    
     500
    
     377487360
    
     6000
    
    合計ブロック数/ファイル数 (平均)          

    グループ
    ユーザー 1 ユーザーあたりの最大ブロック数 1 ユーザーあたりの最大ファイル数 1 グループあたりの最大ブロック数 1 グループあたりの最大ファイル数
    dev
    
    30
    
    100663296
    
    1000
    
    3019898880
    
    30000
    
    cit
    
    15
    
     15728640
    
     100
    
     235929600
    
     1500
    
    pmgt
    
     6
    
     31457280
    
     400
    
     188743680
    
     2400
    
    portal
    
    10
    
     37748736
    
     700
    
     377487360
    
     7000
    
    lockbox
    
    12
    
     45613056
    
     600
    
     547356672
    
     7200
    
    合計ブロック数/ファイル数 (最大)          

  4. ここで、まだ対処していない要件を持つ個別のユーザーを特定します。ユーザーごとに、各アクセス制御グループおよびグループ以外の組織に対して行なったときと同じ見積もりと同じ計算を実行します。

    可能な場合は、ユーザー要件にまとめて対処します。これにより、ポリシーが統一され、管理のオーバーヘッドが最小限になります。ただし、個別の要件が固有のものである場合は、個別に対処する必要があります。この例では、特殊なストレージ割り当てが必要となる特殊な責任を持つユーザーとして、pgmt グループの jr23547 を確認します。したがって、このユーザーを要件スプレッドシートに追加します。

    グループ
    1 セットあたりのユーザー数 1 ユーザーあたりの平均ブロック数 1 ユーザーあたりの平均ファイル数 平均ブロック数
    平均ファイル数
    dev
    
    30
    
     67108864
    
     500
    
    2013265920
    
    15000
    
    cit
    
    15
    
     10485760
    
      50
    
     157286400
    
      750
    
    pmgt
    
     6
    
     20971520
    
     200
    
     125829120
    
     1200
    
    portal
    
    10
    
     31457280
    
     400
    
     314572800
    
     4000
    
    lockbox
    
    12
    
     31457280
    
     500
    
     377487360
    
     6000
    
    jr23547
    
     1
    
     10485760
    
     600
    
     10485760
    
     600
    
    合計ブロック数/ファイル数 (平均)          

    グループ
    ユーザー 1 ユーザーあたりの最大ブロック数 1 ユーザーあたりの最大ファイル数 1 グループあたりの最大ブロック数 1 グループあたりの最大ファイル数
    dev
    
    30
    
    100663296
    
    1000
    
    3019898880
    
    30000
    
    cit
    
    15
    
     15728640
    
     100
    
     235929600
    
     1500
    
    pmgt
    
     6
    
     31457280
    
     400
    
     188743680
    
     2400
    
    portal
    
    10
    
     37748736
    
     700
    
     377487360
    
     7000
    
    lockbox
    
    12
    
     45613056
    
     600
    
     547356672
    
     7200
    
    jr23547
    
     1
    
    100663296
    
    2000
    
     100663296
    
     2000
    
    合計ブロック数/ファイル数 (最大)          

  5. 最後に、すべてのユーザーが必要とする平均および最大のブロック数とファイル数を計算します。

    グループ
    ユーザー 1 ユーザーあたりの平均ブロック数 1 ユーザーあたりの平均ファイル数 1 グループあたりの平均ブロック数 1 グループあたりの平均ファイル数
    dev
    
    30
    
     67108864
    
     500
    
     2013265920
    
    15000
    
    cit
    
    15
    
     10485760
    
      50
    
      157286400
    
      750
    
    pmgt
    
     6
    
     20971520
    
     200
    
      125829120
    
     1200
    
    portal
    
    10
    
     31457280
    
     400
    
      314572800
    
     4000
    
    lockbox
    
    12
    
     31457280
    
     500
    
      377487360
    
     6000
    
    jr23547
    
     1
    
     10485760
    
     600
    
       10485760
    
      600
    
    合計ブロック数/ファイル数 (平均)      
     2998927360
    
    27550
    

    グループ
    ユーザー 1 ユーザーあたりの最大ブロック数 1 ユーザーあたりの最大ファイル数 1 グループあたりの最大ブロック数 1 グループあたりの最大ファイル数
    dev
    
    30
    
    100663296
    
    1000
    
      3019898880
    
    30000
    
    cit
    
    15
    
     15728640
    
     100
    
       235929600
    
     1500
    
    pmgt
    
     6
    
     31457280
    
     400
    
       188743680
    
     2400
    
    portal
    
    10
    
     37748736
    
     700
    
       377487360
    
     7000
    
    lockbox
    
    12
    
     45613056
    
     600
    
       547356672
    
     7200
    
    jr23547
    
     1
    
    100663296
    
    2000
    
       100663296
    
     2000
    
    合計ブロック数/ファイル数 (平均)      
      4470079488
    
    50100
    

  6. アクセス制御グループおよびユーザー ID 別に定義できないプロジェクトベースの割り当てやその他の割り当てを管理する必要がある場合は、複数のグループで使用されるプロジェクト用およびディレクトリ用の管理セットを作成します。

  7. 新たに作成した空のファイルシステム上で割り当てを設定する場合は、割り当てを使用するための新しいファイルシステムの構成に進みます。

  8. すでにファイルを保持しているファイルシステム上で割り当てを設定する場合は、割り当てを使用するための既存ファイルシステムの構成に進みます。

複数のグループで使用されるプロジェクト用およびディレクトリ用の管理セットの作成

管理セットとは、割り当ての目的で管理セット ID によって特定されるディレクトリ階層または個別のディレクトリやファイルです。実際にファイルを所有するユーザー ID やグループ ID とは関係なく、指定した管理セット ID を使用して作成されたファイル、または指定した管理セット ID を含むディレクトリに保存されたファイルは、すべて同じ割り当てを持っています。管理セットを定義するには、次のように進めます。

  1. ファイルシステムサーバーに root としてログインします。

    この例では、サーバーの名前は server1 です。

    [server1]root@solaris:~# 
    
  2. 管理セットを使用して新しいプロジェクトまたはチーム用にストレージの割り当てを構成する場合は、このプロジェクトまたはチーム用のファイルシステム内の任意の場所に、新しいディレクトリを作成します。

    この例では、/hsm/hsmfs1 ファイルシステムにディレクトリを作成し、同じ名前のプロジェクト用に portalproject/ という名前を付けます

    [server1]root@solaris:~# mkdir /hsm/hsmfs1/portalproject 
    
  3. 割り当てを設定する必要のあるディレクトリやファイルに、管理セット ID を割り当てます。コマンド samchaid [-fhR] admin-set-id directory-or-file-name を使用します。ここでは:

    • -f は、強制的に割り当てを実行し、エラーを報告しません。

    • -h は、管理セット ID をシンボリックリンクに割り当てます。このオプションを指定しないと、シンボリックリンクで参照されるファイルのグループが変更されます。

    • -R は、管理セット ID をサブディレクトリおよびファイルに再帰的に割り当てます。

    • admin-set-id は、一意の整数値です。

    • directory-or-file-name は、管理セット ID を割り当てるディレクトリまたはファイルの名前です。

    この例では、管理 ID 1 をディレクトリ /hsm/hsmfs1/portalproject/ およびそのサブディレクトリとファイルすべてに割り当てます。

    [server1]root@solaris:~# samchaid -R 1 /hsm/hsmfs1/portalproject/
    
  4. 必要に応じて、割り当てを確認できます。command sls -D directory-path を使用します。ここで -D を指定すると、directory-path 内のファイルとディレクトリに関する詳細な Oracle HSM ディレクトリ一覧が表示されます。

    [server1]root@solaris:~# sls -D /hsm/hsmfs1/
    /portalproject:
      mode: drwxr-xr-x    links:   2  owner: root        group: root      
      length:      4096  admin id:    1  inode:     1047.1
      project: user.root(1)
      access:      Feb 24 12:49  modification: Feb 24 12:44
      changed:     Feb 24 12:49  attributes:   Feb 24 12:44
      creation:    Feb 24 12:44  residence:    Feb 24 12:44
    
  5. 新たに作成した空のファイルシステム上で割り当てを設定する場合は、割り当てを使用するための新しいファイルシステムの構成に進みます。

  6. すでにファイルを保持しているファイルシステム上で割り当てを設定する場合は、割り当てを使用するための既存ファイルシステムの構成に進みます。

割り当てを使用するための新しいファイルシステムの構成

これから新しいファイルシステムを作成し、現在はファイルシステムにファイルが常駐していない場合は、この手順を使用します。

  1. ファイルシステムサーバーに root としてログインします。

    この例では、サーバーは server2 という名前です。

    [server2]root@solaris:~# 
    
  2. 新しいファイルシステムが現在マウントされていない場合は、マウントしてから続行します。

  3. グループ用の割り当てを設定する必要がある場合は、ファイルシステムのルートディレクトリにグループ割り当てファイルを作成します (.quota_g)。Solaris コマンド dd if=/dev/zero of=mountpoint/.quota_g bs=4096 count=number-blocks を使用します。ここでは:

    • if=/dev/zero では、入力として UNIX 特殊ファイル /dev/zero からの NULL 文字が指定されます。

    • of=mountpoint/.quota_g には、出力ファイルを指定します。ここで mountpoint はファイルシステム用のマウントポイントディレクトリです。

    • bs=4096 は、書き込み用のブロックサイズが 4096 バイトに設定されます。

    • count=number-blocks には、書き込まれるブロック数を指定します。この値は、ファイルが保持されるレコードの数によって異なります。指定された割り当てごとに、128 バイトのレコードが 1 つあるため、1 つのブロックに 32 個のレコードを格納できます。

    この例では、/newsamfs でマウントされたファイルシステム newsamfs 用のグループ割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で割り当てが必要な 3 つのグループ devcit、および pgmt を特定しました。その他のグループ割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。

    [server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_g bs=4096 count=1
    
  4. 管理セット用の割り当てを設定する必要がある場合は、ファイルシステムのルートディレクトリに管理セット割り当てファイルを作成します (.quota_a)。Solaris コマンド dd if=/dev/zero of=mountpoint/.quota_a bs=4096 を使用します。ここでは:

    • mountpoint は、ファイルシステムのマウントポイントディレクトリです。

    • .quota_a は、出力ファイルの名前です。

    • 4096 はバイト単位の書き込み用のブロックサイズです。

    • number-blocks は、書き込まれるブロック数です。

    この例では、/newsamfs でマウントされたファイルシステム newsamfs 用の管理セット割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で割り当てが必要な 2 つのプロジェクト portal (管理セット ID 1) と lockbox (管理セット ID 2) を特定しました。その他の管理セット割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。

    [server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_a bs=4096 count=1
    
  5. ユーザー用の割り当てを設定する必要がある場合は、ファイルシステムのルートディレクトリにユーザー割り当てファイル .quota_u を作成します。Solaris コマンド dd if=/dev/zero of=mountpoint/.quota_u bs=4096 count=number-blocks を使用します。ここでは:

    • mountpoint は、ファイルシステムのマウントポイントディレクトリです。

    • .quota_u は、出力ファイルの名前です。

    • 4096 はバイト単位の書き込み用のブロックサイズです。

    • number-blocks は、書き込まれるブロック数です。

    この例では、/newsamfs でマウントされたファイルシステム newsamfs 用のユーザー割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で特定の割り当てが必要な 1 つのユーザー jr23547 を特定しました。その他の個別のユーザー割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。

    [server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_u bs=4096 count=1
    
  6. ファイルシステムをマウント解除します。

    ファイルシステムを再マウントし、割り当てファイルを有効にする前に、ファイルシステムをアンマウントする必要があります。

    [server2]root@solaris:~# umount /newsamfs
    
  7. ファイルシステムチェックを実行します。

    [server2]root@solaris:~# samfsck -F newsamfs
    
  8. ファイルシステムを再マウントします。

    割り当ては、ファイルシステムのルートディレクトリで 1 つ以上の割り当てファイルが検出されると有効になります。

    デフォルトでファイルシステムは割り当てが有効な状態でマウントされるため、quota マウントオプションを /etc/vfstab または samfs.cmd ファイルに含める必要はありません。

    [server2]root@solaris:~# mount /newsamfs
    
  9. 次に、必要に応じて割り当てを設定または更新します。グループ、プロジェクト、ディレクトリ、およびユーザー用の割り当ての設定を参照してください。

割り当てを使用するための既存ファイルシステムの構成

この手順は、すでにファイルを保持しているファイルシステムに対して割り当てを作成する場合に使用します。

  1. ファイルシステムサーバーに root としてログインします。

    この例では、サーバーの名前は server1 です。

    [server1]root@solaris:~# 
    
  2. テキストエディタで /etc/vfstab ファイルを開き、noquota マウントオプションが設定されていないことを確認します。

    この例では、vi テキストエディタでファイルを開きます。noquota マウントオプションが設定されています。

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    hsmfs1        -        /hsm/hsmfs1          samfs   -     no       noquota
    
  3. noquota マウントオプションが /etc/vfstab ファイルに設定されている場合は、削除してからファイルを保存します。

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    hsmfs1        -        /hsm/hsmfs1          samfs   -     no       -
    :wq
    [server1]root@solaris:~# 
    
  4. テキストエディタで /etc/opt/SUNWsamfs/samfs.cmd ファイルを開き、noquota マウントオプションが設定されていないことを確認します。

    この例では、vi テキストエディタでファイルを開きます。noquota マウントオプションは設定されていません。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/samfs.cmd
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    #
    #inodes = 0
    #fs = hsmfs1
    #  forcedirectio (default no forcedirectio)
    #  high = 80
    #  low = 70
    #  weight_size = 1.
    #  weight_age = 1.
    #  readahead = 128
    ...
    #  dio_wr_ill_min = 0
    #  dio_wr_consec = 3
    #  qwrite        (ma filesystem, default no qwrite)
    #  shared_writer (ma filesystem, default no shared_writer)
    #  shared_reader (ma filesystem, default no shared_reader)
    
  5. noquota マウントオプションが /etc/opt/SUNWsamfs/samfs.cmd ファイルに設定されている場合は、削除してからファイルを保存します。

  6. noquota マウントオプションを /etc/vfstab ファイルまたは /etc/opt/SUNWsamfs/samfs.cmd ファイル (あるいは両方) から削除する場合は、ファイルシステムをアンマウントします。

    noquota マウントオプションを削除する場合は、割り当てが有効になっている状態で再マウントできるように、ファイルシステムをアンマウントする必要があります。

    [server1]root@solaris:~# umount /hsm/hsmfs1
    
  7. ファイルシステムが現在マウントされていない場合は、ここでマウントします。

    割り当てを有効にする前に、ファイルシステムをマウントする必要があります。

    [server1]root@solaris:~# mount /hsm/hsmfs1
    
  8. ファイルシステムのルートディレクトリに移動して、既存の割り当てファイルを確認します。Solaris コマンド ls -a を使用して、.quota_g.quota_a、または .quota_u ファイル (あるいはすべて) を検索します。

    この例では、割り当てファイルは現在存在しません。

    [server1]root@solaris:~# cd /hsm/hsmfs1
    [server1]root@solaris:~# ls -a /hsm/hsmfs1
    .              .archive       .fuid          .stage         portalproject
    ..             .domain        .inodes        lost+found
    
  9. 割り当てファイルが存在する場合は、変更しないでください。

  10. グループ用の割り当てを設定する必要があり、ファイルシステムのルートディレクトリにグループ割り当てファイル .quota_g が存在していない場合は、ここでファイルを作成します。Solaris コマンド dd if=/dev/zero of=mountpoint/.quota_g bs=4096 count=number-blocks を使用します。ここでは:

    • if=/dev/zero では、入力として UNIX 特殊ファイル /dev/zero からの NULL 文字が指定されます。

    • of=mountpoint/.quota_g には、出力ファイルを指定します。ここで mountpoint はファイルシステム用のマウントポイントディレクトリです。

    • bs=4096 は、書き込み用のブロックサイズが 4096 バイトに設定されます。

    • count=number-blocks には、書き込まれるブロック数を指定します。この値は、ファイルが保持されるレコードの数によって異なります。指定された割り当てごとに、128 バイトのレコードが 1 つあるため、1 つのブロックに 32 個のレコードを格納できます。

    この例では、/hsm/hsmfs1 でマウントされたファイルシステム /hsm/hsmfs1 用のグループ割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で割り当てが必要な 3 つのグループ devcit、および pgmt を特定しました。その他のグループ割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。

    [server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_g bs=4096 count=1
    
  11. 管理セット用の割り当てを設定する必要があり、ファイルシステムのルートディレクトリに管理セット割り当てファイル .quota_a が存在していない場合は、ここでファイルを作成します。Solaris コマンド dd if=/dev/zero of=mountpoint/.quota_a bs=4096 count=number-blocks を使用します。ここでは:

    • mountpoint は、ファイルシステムのマウントポイントディレクトリです。

    • .quota_a は、出力ファイルの名前です。

    • 4096 はバイト単位の書き込み用のブロックサイズです。

    • number-blocks は、書き込まれるブロック数です。

    この例では、/hsm/hsmfs1 でマウントされたファイルシステム /hsm/hsmfs1 用の管理セット割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で割り当てが必要な 2 つのプロジェクト portal (管理セット ID 1) と lockbox (管理セット ID 2) を特定しました。その他の管理セット割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。

    [server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_a bs=4096 count=1
    
  12. ユーザー用の割り当てを設定する必要があり、ファイルシステムのルートディレクトリにユーザー割り当てファイル .quota_u が存在していない場合は、ここでファイルを作成します。Solaris コマンド dd if=/dev/zero of=mountpoint/.quota_u bs=4096 count=number-blocks を使用します。ここでは:

    • mountpoint は、ファイルシステムのマウントポイントディレクトリです。

    • .quota_u は、出力ファイルの名前です。

    • 4096 はバイト単位の書き込み用のブロックサイズです。

    • number-blocks は、書き込まれるブロック数です。

    この例では、/hsm/hsmfs1 でマウントされたファイルシステム /hsm/hsmfs1 用のユーザー割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で特定の割り当てが必要な 1 つのユーザー jr23547 を特定しました。その他の個別のユーザー割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。

    [server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_u bs=4096 count=1
    
  13. ファイルシステムをマウント解除します。

    ファイルシステムを再マウントし、割り当てファイルを有効にする前に、ファイルシステムをアンマウントする必要があります。

    [server1]root@solaris:~# umount /hsm/hsmfs1
    
  14. ファイルシステムチェックを実行します。

    [server1]root@solaris:~# samfsck -F /hsm/hsmfs1
    
  15. ファイルシステムを再マウントします。

    割り当ては、ファイルシステムのルートディレクトリで 1 つ以上の割り当てファイルが検出されると有効になります。

    デフォルトでファイルシステムは割り当てが有効な状態でマウントされるため、quota マウントオプションを /etc/vfstab または samfs.cmd ファイルに含める必要はありません。

    [server1]root@solaris:~# mount /hsm/hsmfs1
    
  16. 次に、グループ、プロジェクト、ディレクトリ、およびユーザー用の割り当てを設定します。

グループ、プロジェクト、ディレクトリ、およびユーザー用の割り当ての設定

samquota コマンドを使用して、新しい割り当てを設定し、既存の割り当てを調整します。次の手順に従います。

  1. ストレージ要件を定義したら、グループ、ユーザー、およびグループ以外の組織ごとに適切な割り当てを決定します。次の要素を検討し、必要に応じて調整します。

    • すべてのユーザーが必要とする平均および最大のブロック数と比較したファイルシステムのサイズ

    • すべてのユーザーが必要とする平均および最大の i ノード数と比較したファイルシステム内の i ノード数

    • いつでも最大の要件に近くなる可能性のあるユーザーの数とタイプ。

  2. ファイルシステムサーバーに root としてログインします。

    この例では、サーバーの名前は server1 です。

    [server1]root@solaris:~# 
    
  3. 制限が必要なグループごとに、制限値を設定します。コマンド samquota -b number-blocks:type[:scope] -f number-files:type[:scope] -t interval[:scope] -G groupID [directory-or-file] を使用します。ここでは:

    • -b number-blocks は、ファイルシステムに格納できる 512K バイトの最大ブロック数を整数値 number-blocks に設定します (サイズを指定する代替の方法については、samquota のマニュアルページを参照)。値を 0 (ゼロ) にすると、無制限のブロック数が指定されます。

    • : はフィールドセパレータです。

    • type には、制限値の種類 (強い制限値の場合は h、弱い制限値の場合は s) を指定します。

    • scope (オプション) は、制限対象のストレージのタイプを識別します。オンライン (ディスクキャッシュ) ストレージのみの場合は o、ディスクキャッシュとアーカイブストレージの両方を含むストレージ全体 (デフォルト) の場合は t にします。

    • -f number-files は、ファイルシステムに格納できる最大ファイル数を整数値 number-files に設定します。値を 0 (ゼロ) にすると、無制限のファイル数が指定されます。

    • -t number-seconds は、猶予期間 (弱い制限値を超過できる時間) を秒数を表す整数値 number-seconds に設定します (時間を指定する代替の方法については、samquota のマニュアルページを参照)。

    • -G groupID には、グループ名またはグループを表す整数の識別子を指定します。値を 0 (ゼロ) にすると、すべてのグループにデフォルトの制限値が設定されます。

    • directory-or-file (オプション) は、割り当てを設定する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。

    この例では、要件の収集フェーズでの見積もりを使用して、グループ dev が使用できる /hsm/hsmfs1 ファイルシステム内のストレージ領域と格納できるファイル数の両方に、強い制限値と弱い制限値の両方を設定します。オンラインストレージのみの場合は猶予期間を 43200 秒 (12 時間) に設定します (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。

    [server1]root@solaris:~# samquota -b 3019898880:h:t -f 30000:h:t \
    -G dev /hsm/hsmfs1
    [server1]root@solaris:~# samquota -b 2013265920:s:t -f 15000:s:t -t 43200:o \
    -G dev /hsm/hsmfs1
    [server1]root@solaris:~# 
    
  4. 制限が必要な管理セットごとに、制限値を設定します。コマンド samquota -b number-blocks:type[:scope] -f number-files:type[:scope] -t interval[:scope] -A adminsetID [directory-or-file] を使用します。ここで -A adminsetID は、管理セットを一意に識別する整数値です。

    adminsetID0 (ゼロ) に設定すると、すべての管理セットにデフォルトの制限値が設定されます。

    この例では、要件の収集フェーズでの見積もりを使用して、portal プロジェクト (管理セット ID 1) が使用できる /hsm/hsmfs1 ファイルシステム内のストレージ領域と格納できるファイル数の両方に、強い制限値と弱い制限値の両方を設定します。ストレージ全体を使用する場合、猶予期間はデフォルト範囲である 43200 秒 (12 時間) に設定します (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。

    [server1]root@solaris:~# samquota -b 377487360:h:t -f 7000:h:t -A 1 /hsm/hsmfs1
    [server1]root@solaris:~# samquota -b 314572800:s:t -f 4000:s:t -t 43200 \ 
    -A 1 /hsm/hsmfs1
    [server1]root@solaris:~# 
    
  5. 制限が必要な個別のユーザーごとに、制限値を設定します。コマンド samquota -b number-blocks:type[:scope] -f number-files:type[:scope] -t interval[:scope] -U userID [directory-or-file] を使用します。ここで -U userID は、ユーザー名またはユーザーを表す整数の識別子です。

    userID0 (ゼロ) に設定すると、すべてのユーザーにデフォルトの制限値が設定されます。

    この例では、要件の収集フェーズでの見積もりを使用して、ユーザー jr23547 が使用できる /hsm/hsmfs1 ファイルシステム内のストレージ領域と jr23547 が格納できるファイル数の両方に、強い制限値と弱い制限値の両方を設定します。ストレージ全体を使用する場合、猶予期間はデフォルト範囲である 1209600 秒 (2 週間) に設定します (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。

    [server1]root@solaris:~# samquota -b 100663296:h:t -f 600:h:t \
    -U jr23547 /hsm/hsmfs1
    [server1]root@solaris:~# samquota -b 10485760:s:t -f 2000:s:t -t 1209600 \
    -U jr23547 /hsm/hsmfs1
    [server1]root@solaris:~# 
    
  6. ここで停止します。

整合性のない割り当ての修復

ルートディレクトリ内に割り当てファイルが存在するときに、noquota マウントオプションを使用して Oracle HSM ファイルシステムをマウントする場合、ブロックまたはファイルが割り当てられたり、解放されたりすると、割り当てレコードの整合性がなくなります。このような状況では、次のように進めます。

  1. ファイルシステムサーバーに root としてログインします。

    この例では、サーバーの名前は server1 です。

    [server1]root@solaris:~# 
    
  2. 影響を受けるファイルシステムをアンマウントします。

    この例では、ファイルシステム samfs2 をアンマウントします。

    [server1]root@solaris:~# umount samfs2
    [server1]root@solaris:~# 
    
  3. テキストエディタで /etc/vfstab ファイルを開き、noquota マウントオプションが設定されていないことを確認します。

    この例では、vi テキストエディタでファイルを開きます。noquota マウントオプションが設定されています。

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    samfs2         -        /samfs2           samfs   -     no       noquota
    
  4. noquota マウントオプションが /etc/vfstab ファイルに設定されている場合は、削除してからファイルを保存します。

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    samfs2         -        /samfs2           samfs   -     no       -
    :wq
    [server1]root@solaris:~# 
    
  5. テキストエディタで /etc/opt/SUNWsamfs/samfs.cmd ファイルを開き、noquota マウントオプションが設定されていないことを確認します。

    この例では、vi テキストエディタでファイルを開きます。noquota マウントオプションは設定されていません。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/samfs.cmd
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    #
    #inodes = 0
    #fs = hsmfs1
    #  forcedirectio (default no forcedirectio)
    #  high = 80
    #  low = 70
    #  weight_size = 1.
    #  weight_age = 1.
    #  readahead = 128
    ...
    #  dio_wr_ill_min = 0
    #  dio_wr_consec = 3
    #  qwrite        (ma filesystem, default no qwrite)
    #  shared_writer (ma filesystem, default no shared_writer)
    #  shared_reader (ma filesystem, default no shared_reader)
    
  6. noquota マウントオプションが /etc/opt/SUNWsamfs/samfs.cmd ファイルに設定されている場合は、削除してからファイルを保存します。

  7. 整合性のない割り当てレコードを修復します。コマンド samfsck -F family-set-name を使用します。ここで family-set-name は、/etc/opt/SUNWsamfs/mcf ファイル内のファイルシステムのファミリセット名です。

    [server1]root@solaris:~# samfsck -F samfs2
    
  8. ファイルシステムを再マウントします。

    割り当ては、ファイルシステムのルートディレクトリで 1 つ以上の割り当てファイルが検出されると有効になります。

    デフォルトでファイルシステムは割り当てが有効な状態でマウントされるため、quota マウントオプションを /etc/vfstab または samfs.cmd ファイルに含める必要はありません。

    [server1]root@solaris:~# mount /samfs2
    [server1]root@solaris:~# 
    
  9. ここで停止します。

割り当ての確認

管理者とユーザーの両方が、割り当ておよびリソース使用量をモニターできます。root ユーザーは samquota コマンドを使用して、ユーザー、グループ、または管理セットに関する割り当てレポートを生成できます。ファイルシステムユーザーは squota コマンドを使用して、独自の割り当てを確認できます。

次の手順を参照してください。

ファイルシステム管理者としての割り当てのモニタリング
  1. ファイルシステムサーバーに root としてログインします。

    この例では、サーバーの名前は server1 です。

    [server1]root@solaris:~# 
    
  2. すべてのグループの割り当て統計を表示するには、コマンド samquota -g [directory-or-file] を使用し、オプションの directory-or-file パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。

    この例では、/hsm/hsmfs1 にマウントされた hsmfs1 ファイルシステムのレポートを要求します。

    [server1]root@solaris:~# samquota -g /hsm/hsmfs1
    
  3. すべての管理セットの割り当て統計を表示するには、コマンド samquota -a [directory-or-file] を使用し、オプションの directory-or-file パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。

    この例では、/hsm/hsmfs1 にマウントされた hsmfs1 ファイルシステムのレポートを要求します。

    [server1]root@solaris:~# samquota -a /hsm/hsmfs1
    
  4. すべてのユーザーの割り当て統計を表示するには、コマンド samquota -u [directory-or-file] を使用し、オプションの directory-or-file パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。

    この例では、/hsm/hsmfs1 にマウントされた hsmfs1 ファイルシステムのレポートを要求します。

    [server1]root@solaris:~# samquota -u /hsm/hsmfs1
    
  5. 特定のグループの割り当て統計を表示するには、コマンド samquota -G groupID [directory-or-file] を使用して、groupID でグループのグループ名または整数の識別子を指定し、オプションの directory-or-file パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。

    この例では、/hsm/hsmfs1 にマウントされた hsmfs1 ファイルシステム内にある、dev グループの割り当てのレポートを要求します。

    [server1]root@solaris:~# samquota -G dev /hsm/hsmfs1
    
  6. 特定の管理セットの割り当て統計を表示するには、コマンド samquota -A adminsetID [directory-or-file] を使用して、adminsetID で管理セットの整数の識別子を指定し、オプションの directory-or-file パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。

    この例では、/hsm/hsmfs1 にマウントされた hsmfs1 ファイルシステム内にある、管理セット 1 の割り当てのレポートを要求します。

    [server1]root@solaris:~# samquota -A 1 /hsm/hsmfs1
    
  7. 特定のユーザーの割り当て統計を表示するには、コマンド samquota -U userID [directory-or-file] を使用して、userID でユーザーのユーザー名または整数の識別子を指定し、オプションの directory-or-file パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。

    この例では、/hsm/hsmfs1 にマウントされた hsmfs1 ファイルシステム内にある、ユーザー jr23547 の割り当てのレポートを要求します。

    [server1]root@solaris:~# samquota -U jr23547 /hsm/hsmfs1
    
  8. ここで停止します。

ユーザー独自の割り当てのモニタリング
  1. 自分のユーザー ID を使用して、ファイルシステムホストにログインします。

    この例では、ホスト server1 にユーザー od447 としてログインします。

    [server1]od447@solaris:~# 
    
  2. すべてのグループの割り当て統計を表示するには、コマンド squota [directory-or-file] を使用し、オプションの directory-or-file パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。

    この例では、すべてのファイルシステムに関するレポートを要求します。

    [server1]od447@solaris:~# squota
                                             Limits
                 Type    ID    In Use     Soft     Hard
         /hsm/hsmfs1
         Files  group   101         1     1000     1200
         Blocks group   101         8    20000    30000
         Grace period                    25920
         No user quota entry.
    [server1]od447@solaris:~# 
    
  3. ここで停止します。

猶予期間の一時的な延長または取り消し

猶予期間を一時的に延長する必要がある場合や、猶予期間を短縮する必要がある場合は、次の手順を実行します。

指定した分の猶予期間の延長

グループ、ユーザー、または管理セットがその割り当てに指定された弱い制限値を超過していて、弱い制限値を上回る状態を一時的に保持する必要がある場合は、現在の猶予期間で許可される期間よりも長くならなければ、次のように延長を付与できます。

  1. ファイルシステムサーバーに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  2. 延長が必要な割り当てを確認します。コマンド samquota -quota-type ID [directory-or-file] を使用します。ここでは:

    • quota-type ID は、G とグループ名または ID 番号、A  と管理セット ID 番号、または U とユーザー名または ID 番号です。

    • directory-or-file (オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。

    この例では、dev グループは弱い制限値を大幅に上回り、猶予期間内に数時間しか残っていません。

    [server1]root@solaris:~# samquota -G dev /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use       Soft      Hard       In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  101       323      15000      30000         323    15000  30000
    Blocks group  101 3109330961 2013265920 3019898880 3109330961 2013265920 3019898880
    Grace period                 4320                             4320
    ---> Warning:  soft limits to be enforced in 2h21m16s
    [server1]root@solaris:~# 
    
  3. 保証されていれば、猶予期間を延長します。コマンド samquota -quota-type ID -x number-seconds [directory-or-file] を使用します。ここでは:

    • quota-type ID は、G とグループ名または ID 番号、A  と管理セット ID 番号、または U とユーザー名または ID 番号です。

    • directory-or-file (オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。

    • number-seconds は延長する秒数を表す整数です (時間を指定する代替の方法については samquota のマニュアルページを参照)。

    プロンプトが表示されたら「y」 (はい) を入力して、続行します。

    この例では、hsmfs1 ファイルシステム内のファイルについて、dev グループの猶予期間を 2678400 秒 (31 日) に延長します。

    [server1]root@solaris:~# samquota -G dev -x 2678400 /hsm/hsmfs1 
    Setting Grace Timer:  continue? y
    

    dev グループの割り当てを再確認すると、猶予期間が延長されています。

    [server1]root@solaris:~# samquota -G dev /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type    ID    In Use       Soft      Hard   In Use       Soft   Hard
    /hsm/hsmfs1
    Files  group   101       323      15000      30000     323      15000   30000
    Blocks group   101     43208 2013265920 3019898880   43208 2013265920 3019898880
    Grace period                 2678400                      2678400
    ---> Warning:  soft limits to be enforced in 31d
    [server1]root@solaris:~# 
    
  4. グループ、管理セット、またはユーザーが定期的に延長する必要がある場合は、ストレージ要件を再評価したり、猶予期間を永続的に延長することを検討したりしてください。グループ、プロジェクト、ディレクトリ、およびユーザー用の割り当ての設定の手順を使用します。

  5. ここで停止します。

猶予期間の再開

グループ、ユーザー、または管理セットがその割り当てに指定された弱い制限値を超過していて、現在の猶予期間が切れる前に、弱い制限値を下回るのに十分な速さで容量を解放できない場合は、猶予期間を再開できます。次のように進めます。

  1. ファイルシステムサーバーに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  2. 延長が必要な割り当てを確認します。コマンド samquota -quota-type ID [directory-or-file] を使用します。ここでは:

    • quota-type ID は、G とグループ名または ID 番号、A  と管理セット ID 番号、または U とユーザー名または ID 番号です。

    • directory-or-file (オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。

    この例では、cit グループは hsmfs1 ファイルシステムの弱い制限値を上回り、猶予期間が 1 時間強残っています。

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  119       762         750       1500        762      750  1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                 4320                              4320
    ---> Warning:  soft limits to be enforced in 1h11m23s
    [server1]root@solaris:~# 
    
  3. 次回、ファイルまたはブロックが割り当てられるときに、猶予期間を開始時のフルサイズにリセットするには、猶予期間タイマーをクリアします。コマンド samquota -quota-type ID -x clear [directory-or-file] を使用します。ここでは:

    • quota-type ID は、G とグループ名または ID 番号、A  と管理セット ID 番号、または U とユーザー名または ID 番号です。

    • directory-or-file (オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。

    プロンプトが表示されたら「y」 (はい) を入力して、続行します。

    この例では、hsmfs1 ファイルシステム上の cit グループの割り当て用の猶予期間タイマーをクリアします。

    [server1]root@solaris:~# samquota -G cit -x clear /hsm/hsmfs1
    Setting Grace Timer:  continue? y
    [server1]root@solaris:~# 
    

    cit グループの割り当てを再確認すると、ファイルが割り当てられ、猶予期間が 12h (12 時間、4320 秒) にリセットされています。

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  119       763         750       1500        763      750  1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                 4320                              4320
    ---> Warning:  soft limits to be enforced in 12h
    [server1]root@solaris:~# 
    
  4. また、すぐに猶予期間を開始時のフルサイズにリセットするには、猶予期間タイマーをリセットします。コマンド samquota -quota-type ID -x reset [directory-or-file] を使用します。

    • quota-type ID は、G とグループ名または ID 番号、A  と管理セット ID 番号、または U とユーザー名または ID 番号です。

    • directory-or-file (オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。

    プロンプトが表示されたら「y」 (はい) を入力して、続行します。

    この例では、hsmfs1 ファイルシステム上の cit グループの割り当て用の猶予期間タイマーをクリアします。

    [server1]root@solaris:~# samquota -G cit -x reset /hsm/hsmfs1
    Setting Grace Timer:  continue? y
    [server1]root@solaris:~# 
    

    cit グループの割り当てを再確認すると、ファイルが割り当てられ、猶予期間が 12h (12 時間、4320 秒) にリセットされています。

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  119       762         750       1500        762      750  1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                 4320                              4320
    ---> Warning:  soft limits to be enforced in 12h
    [server1]root@solaris:~# 
    
  5. ここで停止します。

猶予期間の早期終了
  1. ファイルシステムサーバーに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  2. 短縮する必要のある猶予期間を確認します。コマンド samquota -quota-type ID [directory-or-file] を使用します。ここでは:

    • quota-type ID は、G とグループ名または ID 番号、A  と管理セット ID 番号、または U とユーザー名または ID 番号です。

    • directory-or-file (オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。

    この例では、cit グループは弱い制限値を上回り、猶予期間内に 11 時間残っていますが、猶予期間を早期に終了する必要があります。

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use       Soft       Hard
    /hsm/hsmfs1
    Files  group  119       822         750       1500        822        750       1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                 4320                              4320
    ---> Warning:  soft limits to be enforced in 11h
    [server1]root@solaris:~# 
    
  3. 猶予期間を期限切れにします。コマンド samquota -quota-type ID -x expire [directory-or-file] を使用します。ここでは:

    • quota-type ID は、G とグループ名または ID 番号、A  と管理セット ID 番号、または U とユーザー名または ID 番号です。

    • directory-or-file (オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。

    この例では、cit グループの猶予期間を期限切れにします。

    root@solaris:~# samquota -G cit -x expire /hsm/hsmfs1
    Setting Grace Timer:  continue? y
    

    割り当てを再確認すると、cit グループの弱い制限値が強制的に強い制限値として適用されています。

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  119       762         750       1500        762      750  1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                 4320                              4320
    ---> Online soft limits under enforcement (since 6s ago)
    [server1]root@solaris:~# 
    
  4. ここで停止します。

新しいリソース割り当ての停止

矛盾する割り当て値を作成して、ファイルシステムリソースの割り当てを禁止できます。ファイルシステムは、ユーザー、グループ、または管理セットに対して割り当て値が矛盾していることを検出した場合に、そのユーザー、グループ、または管理セットに追加のシステムリソースの使用を禁止します。したがって、対応する弱い制限値を下回る強い制限値を割り当てに設定すると、それ以降の割り当てが停止します。このテクニックを使用するには、次のように進めます。

  1. ファイルシステムサーバーに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  2. あとで復元できるように、割り当てをバックアップします。現在の構成をエクスポートし、情報をファイルにリダイレクトします。コマンド samquota -quota-type ID [directory-or-file] > file を使用します。ここでは:

    • quota-type ID は、G とグループ名または ID 番号、A  と管理セット ID 番号、または U とユーザー名または ID 番号です。

    • directory-or-file (オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。

    • file は、出力ファイルの名前です。

    この例では、root ユーザーのホームディレクトリ内のファイル restore.hsmfs1.quota_g.citcit グループの割り当てをエクスポートします (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。

    [server1]root@solaris:~# samquota -G cit -e /hsm/hsmfs1 > \
    /root/restore.hsmfs1.quota_g.cit
    [server1]root@solaris:~# 
    
  3. 出力を確認します。Solaris コマンド more < file を使用します。ここで file は出力ファイルの名前です。

    [server1]root@solaris:~# more < /root/restore.hsmfs1.quota_g.cit
    # Type  ID
    #                  Online Limits                          Total   Limits
    #              soft            hard                    soft       hard
    # Files
    # Blocks
    # Grace Periods
    samquota -G 119 \
        -f       750:s:o  -f      1500:h:o        -f       750:s:t -f      1500:h:t \
        -b 157286400:s:o  -b 235929600:h:o        -b 157286400:s:t -b 235929600:h:t \
                -t 4320:o                               -t 4320:t 
    [server1]root@solaris:~# 
    
  4. 割り当ての強い制限値を 0 (ゼロ)、弱い制限値を 1 (またはゼロ以外の値) に設定します。コマンド samquota -quota-type ID -f 1:s -f 0:h -b 1:s -b 0:h [directory-or-file] を使用します。

    • quota-type ID は、G とグループ名または ID 番号、A  と管理セット ID 番号、または U とユーザー名または ID 番号です。

    • directory-or-file (オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。

    この例では、/hsm/hsmfs1 ファイルシステム内の cit グループ用の割り当て設定を不整合にし、それによって新しいリソース割り当てが停止します。

    [server1]root@solaris:~# samquota -G cit -f 1:s -f 0:h -b 1:s -b 0:h /hsm/hsmfs1
    [server1]root@solaris:~# 
    

    cit グループ用の割り当てを確認すると、ゼロの割り当てが有効になっています。感嘆符 (!) は、現在の使用量がすべて割り当てを上回っているため、それ以上の割り当てが行われないことを示します。

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
    Online Limits                Total Limits
    Type   ID              In Use    Soft     Hard         In Use     Soft     Hard
    /sam6
    Files  group 119        822!       1        0         822!       1        0
    Blocks group 119 3109330961!       1        0  3109330961!       1        0
    Grace period                      4320                            4320
    ---> Quota values inconsistent; zero quotas in effect.
    [server1]root@solaris:~# 
    
  5. 変更された割り当てを元の状態に復元して、通常の割り当てを再開できる状態になっている場合は、シェルスクリプトとして作成したバックアップファイルを実行します。Solaris コマンド sh file を使用します。ここで file はバックアップファイルの名前です。

    この例では、ファイル /root/restore.hsmfs1.quota_g.cit を実行して、cit グループ用の割り当てを復元します。

    [server1]root@solaris:~# sh /root/restore.hsmfs1.quota_g.cit
    Setting Grace Timer:  continue? y
    Setting Grace Timer:  continue? y
    [server1]root@solaris:~# 
    

    割り当てを確認すると、通常の制限値が復元され、割り当てがブロックされていません。

    [server1]root@solaris:~# samquota -G cit /hsm/hsmfs1
                                     Online Limits                    Total Limits
            Type   ID    In Use        Soft       Hard     In Use     Soft  Hard
    /hsm/hsmfs1
    Files  group  119       822         750       1500        822     750   1500
    Blocks group  119 3109330961 2013265920 3019898880  120096782  157286400  235929600
    Grace period                       4320                             4320
    ---> Warning:  soft limits to be enforced in 11h
    [server1]root@solaris:~# 
    
  6. ここで停止します。

ファイルシステムの割り当ての削除

ファイルシステム割り当てを削除または無効にするには、マウントプロセスで割り当てを無効にします。

  1. ファイルシステムサーバーに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  2. テキストエディタで /etc/vfstab ファイルを開き、ファイルシステム行のマウントポイント列に noquota マウントオプションを追加して、ファイルを保存します。

    この例では、vi テキストエディタでファイルを開き、hsmfs1 ファイルシステムに noquota マウントオプションを設定します。

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    hsmfs1        -        /hsm/hsmfs1          samfs   -     no       noquota
    :wq
    [server1]root@solaris:~# 
    
  3. ファイルシステムがマウントされている場合は、アンマウントします。

    オペレーティングシステムが /etc/vfstab ファイルをリロードし、指定された変更を行うことができるように、ファイルシステムをアンマウントしてから再マウントする必要があります。この例では、hsmfs1 ファイルシステムをアンマウントします。

    [server1]root@solaris:~# umount hsmfs1
    [server1]root@solaris:~# 
    
  4. ファイルシステムをマウントします。

    この例では、hsmfs1 ファイルシステムをマウントします。

    [server1]root@solaris:~# mount hsmfs1
    [server1]root@solaris:~# 
    
  5. あとで割り当てを元に戻す予定がある場合は、割り当てファイルを残しておきます。

    割り当てを元に戻すことができる状態になっている場合は、ファイルシステムをアンマウントし、ファイルシステム上でコマンド samfsck -F を実行し、noquota マウントオプションを削除してから、ファイルシステムを再マウントするだけです。

  6. 割り当てを元に戻す予定がない場合や、割り当てファイルで消費されている容量を再利用する必要がある場合は、Solaris コマンド rm を使用して、ファイルシステムのルートディレクトリから .quota_g.quota_a、または .quota_u ファイル (あるいはすべて) を削除します。

    この例では、/hsm/hsmfs1 ファイルシステムのルートディレクトリから割り当てファイルをすべて削除します。

    [server1]root@solaris:~# rm /hsm/hsmfs1/.quota_g
    [server1]root@solaris:~# rm /hsm/hsmfs1/.quota_a
    [server1]root@solaris:~# rm /hsm/hsmfs1/.quota_u
    [server1]root@solaris:~# 
    
  7. ここで停止します。

アーカイブおよびステージング操作の制御

一般に、アーカイブファイルシステムは、非アーカイブファイルシステムとほぼ同じ方法で管理します。ただし、ほとんどのファイルシステム管理タスクを実行する前には、アーカイブプロセスを停止する必要があります。アクティブになっていると、アーカイブ処理によってファイルシステムのプライマリディスクキャッシュが変更されます。したがって、ディスクキャッシュ上で保守作業を行う前に、これらのプロセスを休止する必要があります。このセクションでは、次のタスクを扱います。

アーカイブおよびステージングプロセスのアイドル状態

  1. ファイルシステムホストに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  2. すべてのアーカイブプロセスをアイドル状態にします。コマンド samcmd aridle を使用します。

    このコマンドは現在のアーカイブおよびステージングを完了できますが、新しいジョブは開始されません。

    [server1]root@solaris:~# samcmd aridle
    [server1]root@solaris:~# 
    
  3. すべてのステージングプロセスをアイドル状態にします。コマンド samcmd stidle を使用します。

    このコマンドは現在のアーカイブおよびステージングを完了できますが、新しいジョブは開始されません。

    [server1]root@solaris:~# samcmd stidle
    [server1]root@solaris:~# 
    
  4. アクティブなアーカイブジョブが完了するまで待機します。コマンド samcmd aを使用して、アーカイブ処理のステータスを確認します。

    アーカイブ処理が Waiting for :arrun の場合、アーカイブ処理はアイドル状態になっています。

    [server1]root@solaris:~# samcmd a
    Archiver status samcmd     5.4 10:20:34 May 20 2014
    samcmd on samfs-mds
    sam-archiverd:  Waiting for :arrun
    sam-arfind: ...
    Waiting for :arrun
    
  5. アクティブなステージングジョブが完了するまで待機します。コマンド samcmd u を使用して、ステージングプロセスのステータスを確認します。

    ステージングプロセスが Waiting for :strun の場合、ステージングプロセスはアイドル状態になっています。

    [server1]root@solaris:~# samcmd u
    Staging queue samcmd      5.4  10:20:34 May 20 2014
    samcmd on solaris.demo.lan
    Staging queue by media type: all
    sam-stagerd:  Waiting for :strun
    root@solaris:~# 
    
  6. システムを完全に休止するには、アーカイブおよびステージングプロセスの停止も行います。

アーカイブおよびステージングプロセスの停止

  1. まだ実行していない場合には、アーカイブおよびステージングプロセスをアイドル状態にします

  2. まだ実行していない場合には、ファイルシステムホストに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  3. すべてのリムーバブルメディアドライブをアイドル状態にしてから、続行します。ドライブごとに、コマンド samcmd equipment-number idle を使用します。ここで equipment-number は、/etc/opt/SUNWsamfs/mcf ファイル内のドライブに割り当てられている装置の順序番号です。

    このコマンドはドライブを「off」にする前に、現在のアーカイブジョブおよびステージングジョブを完了できますが、新しいジョブは開始されません。この例では、4 つのドライブ (順序番号 801802803804) をアイドル状態にします。

    [server1]root@solaris:~# samcmd 801 idle
    [server1]root@solaris:~# samcmd 802 idle
    [server1]root@solaris:~# samcmd 803 idle
    [server1]root@solaris:~# samcmd 804 idle
    [server1]root@solaris:~# 
    
  4. 実行中のジョブが完了するまで待機します。

    コマンド samcmd r を使用すると、ドライブのステータスを確認できます。すべてのドライブが「notrdy」または「empty」の場合は、続行できる状態になっています。

    [server1]root@solaris:~# samcmd r
    Removable media samcmd     5.4 18:37:09 Feb 17 2014
    samcmd on hsmfs1host
    ty   eq   status      act  use  state  vsn
    li  801   ---------p    0   0%  notrdy
              empty
    li  802   ---------p    0   0%  notrdy
              empty
    li  803   ---------p    0   0%  notrdy
              empty
    li  804   ---------p    0   0%  notrdy
              empty
    [server1]root@solaris:~# 
    
  5. アーカイバおよびステージャープロセスがアイドル状態で、テープドライブがすべて「notrdy」になっている場合は、ライブラリ制御デーモンを停止します。コマンド samd stop を使用します。

    [server1]root@solaris:~# samd stop
    [server1]root@solaris:~# 
    
  6. ファイルシステムの保守を続行します。

  7. 保守が完了したら、アーカイブおよびステージングプロセスを再起動します。

    操作を再開すると、保留中のステージングリクエストが再発行され、アーカイブが再開されます。

  8. ここで停止します。

アーカイブおよびステージングプロセスの再起動

準備ができたら、通常の自動操作を再開し、次の手順に従います。

  1. ファイルシステムホストに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  2. Oracle HSM ライブラリ制御デーモンを再起動します。コマンド samd start を使用します。

    [server1]root@solaris:~# samd start
    [server1]root@solaris:~# 
    
  3. ここで停止します。

ファイルシステム名の変更

ファイルシステムの名前は、2 段階のプロセスで変更します。まず、/etc/opt/SUNWsamfs/mcf ファイルを編集して、ファイルシステムのファミリセット名を変更します。次に、samfsck -R -F コマンドで新しい名前を読み込み、対応するディスクデバイス上のスーパーブロックを更新します。ファイルシステムの名前を変更するには、次の手順を使用します。

ファイルシステム名の変更

  1. ファイルシステムサーバーに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  2. アーカイブファイルシステムを修復する場合は、手順アーカイブおよびステージングプロセスのアイドル状態を実行してから続行します。

  3. 名前を変更する必要のあるファイルシステムをアンマウントします。

    この例では、ファイルシステム hsmfs1 をアンマウントします。

    [server1]root@solaris:~# umount hsmfs1
    
  4. テキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、名前を変更する必要のあるファイルシステムを検索します。

    次の例では、vi エディタを使用します。hsmfs1 ファイルシステムの名前を変更する必要があります。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family        Device   Additional
    # Identifier         Ordinal    Type       Set           State    Parameters
    #-----------------   ---------  ---------  ------------  ------   ----------
    hsmfs1              100        ms         hsmfs1       on
     /dev/dsk/c1t3d0s3    101        md         hsmfs1       on
     /dev/dsk/c1t4d0s5    102        md         hsmfs1       on
    
  5. ファイルの 4 列目で、ファイルシステムのファミリセット名を新しい値に変更します。1 列目でファイルシステム装置の識別子も変更できますが、それ以外は変更しないでください。ファイルを保存して、エディタを閉じます。

    この例では、装置識別子とファイルシステムのファミリセット名の両方を hsmfs1 から samqfs-hpcc に変更します。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family        Device   Additional
    # Identifier         Ordinal    Type       Set           State    Parameters
    #-----------------   ---------  ---------  ------------  ------   ----------
    samqfs-hpcc          100        ms         samqfs-hpcc   on
     /dev/dsk/c1t3d0s3    101        md         samqfs-hpcc   on
     /dev/dsk/c1t4d0s5    102        md         samqfs-hpcc   on
    :wq
    root@solaris:~# 
    
  6. ファイルシステムのスーパーブロックを再度書き込んで、新しいファミリセット名を反映させます。コマンド samfsck -R -F family-set-name を使用します。ここで family-set-name は、/etc/opt/SUNWsamfs/mcf ファイル内で指定したファミリセット名です。

    -R および -F オプションを付けて samfsck コマンドを発行すると、/etc/opt/SUNWsamfs/mcf ファイルから新しいファミリセット名および対応するディスクストレージ装置の識別子が読み込まれます。その後、新しいファミリセット名で、指定したディスクデバイス上のスーパーブロックが再度書き込まれます。この例では、新しいファミリセット名 samqfs-hpcc でコマンドを実行します。

    [server1]root@solaris:~# samfsck -R -F samqfs-hpcc
    
  7. テキストエディタで /etc/vfstab ファイルを開き、名前を変更するファイルシステムのエントリを検索します。

    この例では、vi テキストエディタでファイルを開きます。新しい名前を使用するには、hsmfs1 ファイルシステムのエントリを変更する必要があります。

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    hsmfs1        -        /hsm/hsmfs1          samfs   -     no       -
    
  8. 名前を変更したファイルシステムの /etc/vfstab エントリで、1 列目のファイルシステム名、および (必要に応じて) 3 列目のマウントポイントディレクトリ名を変更して、ファイルを保存します。

    この例では、hsmfs1 ファイルシステムの名前を samqfs-hpcc に変更し、マウントポイントも変更して一致させます。

    [server1]root@solaris:~# vi /etc/vfstab
    #File
    #Device        Device   Mount             System  fsck  Mount    Mount
    #to Mount      to fsck  Point             Type    Pass  at Boot  Options
    #------------  -------  ---------------   ------  ----  -------  ------------
    /devices       -        /devices          devfs   -     no       -
    /proc          -        /proc             proc    -     no       -
    ...
    samqfs-hpcc    -        /samqfs-hpcc      samfs   -     no       -
    :wq
    [server1]root@solaris:~# 
    
  9. 必要に応じて新しいファイルシステム用の新しいマウントポイントディレクトリを作成し、マウントポイントに対するアクセス権を設定します。

    ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x) を持っている必要があります。この例では、/samqfs-hpcc マウントポイントディレクトリを作成し、アクセス権を 755 (-rwxr-xr-x) に設定します。

    [server1]root@solaris:~# mkdir /samqfs-hpcc
    [server1]root@solaris:~# chmod 755 /samqfs-hpcc
    [server1]root@solaris:~# 
    
  10. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、検出された場合は修正します。

    sam-fsd は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーを検出すると停止します。

    [server1]root@solaris:~# sam-fsd
    
  11. mcf ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM ソフトウェアに指示します。コマンド samd config を使用します。

    [server1]root@solaris:~# samd config
    
  12. samd config によりエラーが報告された場合、修正し、エラーがなくなるまでコマンドを再発行します。

  13. ファイルシステムをマウントします。

    この例では、新しいマウントポイントディレクトリを使用します。

    [server1]root@solaris:~# mount /samqfs-hpcc
    
  14. ここで停止します。

ファイルシステムの修復

ファイルシステムが samu、Oracle HSM Manager、または /var/adm/sam-log ファイル経由でエラーをレポートした場合は、次の手順に従います。

ファイルシステムの修復

  1. ファイルシステムサーバーに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  2. アーカイブファイルシステムを修復する場合は、手順アーカイブおよびステージングプロセスのアイドル状態を実行してから続行します。

  3. 影響を受けるファイルシステムをアンマウントします。

    アーカイブが停止するまで待機している場合は、複数回試す必要がある場合もあります。この例では、ファイルシステム hsmfs1 をアンマウントします。

    [server1]root@solaris:~# umount hsmfs1
    samfs umount: /hsm/hsmfs1: is busy
    [server1]root@solaris:~# umount hsmfs1
    [server1]root@solaris:~# 
    
  4. ファイルシステムを修復します。コマンド samfsck -F -V family-set-name を使用します。ここで family-set-name は、/etc/opt/SUNWsamfs/mcf ファイルでファイルシステムに対して指定されたファミリセット名です。

    必要に応じて、今後の参照や診断の目的のために、修復結果を日付の付いたファイルに保存しておくことを推奨します。そのため、この例では、samfsck の出力をコマンド tee /var/tmp/samfsck-FV.family-set-name.`date '+%Y%m%d.%H%M%S'` にパイプして結果を保存します (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。

    [server1]root@solaris:~# samfsck -F -V hsmfs1 | tee \
    /var/tmp/samfsck-FV.hsmfs1. `date '+%Y%m%d.%H%M%S'`
    name:     /hsm/hsmfs1       version:     2A          
    First pass
    Second pass
    Third pass
    NOTICE: ino 2.2,  Repaired link count from 8 to 14
    Inodes processed: 123392
    total data kilobytes       = 1965952
    total data kilobytes free  = 1047680
    total meta kilobytes       = 131040
    total meta kilobytes free  = 65568
    INFO:  FS samma1 repaired:
            start:  May 19, 2014 10:57:13 AM MDT
            finish: May 19, 2014 10:57:37 AM MDT
    NOTICE: Reclaimed 70057984 bytes
    NOTICE: Reclaimed 9519104 meta bytes
    [server1]root@solaris:~# 
    
  5. ファイルシステムを再マウントします。

    [server1]root@solaris:~# mount /hsm/hsmfs1
    [server1]root@solaris:~# 
    
  6. ここで停止します。

ファイルシステムへのデバイスの追加

既存のファイルシステムにデバイスを追加する前に、要件や代替方法を検討することをお勧めします。増大する容量の要件を満たすための最適な方法は、既存のファイルシステムを拡張することです。新しいプロジェクトやユーザーコミュニティーに対応するために、より大きな物理ストレージ領域が必要である場合は、1 つ以上の新しい Oracle HSM ファイルシステムを作成することが適切な選択肢となることがあります。一般に、小さいファイルシステムが複数ある方が大きいファイルシステムが 1 つあるよりもパフォーマンスが高く、小さいファイルシステムの方が簡単に作成および保守できます。

ファイルシステムを拡張する必要があると判断したら、次の方法のいずれかを取ります。

マウントしたファイルシステムへのデバイスの追加

次のように進めます。

  1. ファイルシステムサーバーに root としてログインします。

    この例では、ホスト server1 にログインします。

    [server1]root@solaris:~# 
    
  2. テキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、拡張する必要のあるファイルシステムを検索します。

    この例では、vi エディタを使用します。汎用の samqfsms ファイルシステムと高性能 samqfs2ma ファイルシステムの 2 つのファイルシステムを拡張する必要があります。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #-----------------  ---------  ---------  ---------  ------   ---------------
    samqfsms            100        ms         samqfsms   on
     /dev/dsk/c1t3d0s3   101        md         samqfsms   on
     /dev/dsk/c1t4d0s5   102        md         samqfsms   on
    samqfs2ma           200        ma         samqfs2ma  on
     /dev/dsk/c1t3d0s3   201        mm         samqfs2ma  on
     /dev/dsk/c1t3d0s5   202        md         samqfs2ma  on
     /dev/dsk/c1t4d0s5   203        md         samqfs2ma  on
    
  3. 汎用の ms ファイルシステムにデバイスを追加する場合は、追加のデータまたはメタデータデバイスを mcf ファイル内のファイルシステム定義の末尾に追加します。次に、ファイルを保存し、エディタを閉じます。

    最大 252 個の論理デバイスを追加できます。この例では、2 つのデバイス (103104) を samqfsms ファイルシステムに追加します。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #-----------------  ---------  ---------  ---------  ------   ---------------
    samqfsms            100        ms         samqfsms    on
     /dev/dsk/c1t3d0s3   101        md         samqfsms    on
     /dev/dsk/c1t4d0s5   102        md         samqfsms    on
     /dev/dsk/c1t3d0s7   103        md         samqfsms    on
     /dev/dsk/c1t4d0s7   104        md         samqfsms    on
    :wq
    [server1]root@solaris:~# 
    
  4. 高パフォーマンスの ma ファイルシステムにデバイスを追加する場合は、データデバイスおよび 1 つ以上の mm ディスクデバイスを mcf ファイル内のファイルシステム定義の末尾に追加します。次に、ファイルを保存し、エディタを閉じます。

    必ず、新しいデバイスは既存のデバイスリストの末尾に追加します。データデバイスの追加に比例して、最大 252 個のメタデータデバイスを追加できます。この例では、1 つの mm メタデータデバイス 204、および 2 つの md データデバイス (205206) を samqfs2ma ファイルシステムに追加します。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #-----------------  ---------  ---------  ---------  ------   ---------------
    ...
    samqfs2ma           200        ma         samqfs2ma  on
     /dev/dsk/c1t3d0s3   201        mm         samqfs2ma  on
     /dev/dsk/c1t3d0s5   202        md         samqfs2ma  on
     /dev/dsk/c1t4d0s5   203        md         samqfs2ma  on
     /dev/dsk/c1t5d0s6   204        mm         samqfs2ma  on
     /dev/dsk/c1t3d0s7   205        md         samqfs2ma  on
     /dev/dsk/c1t4d0s7   206        md         samqfs2ma  on
    :wq
    [server1]root@solaris:~# 
    
  5. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、検出された場合は修正します。

    sam-fsd は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーを検出すると停止します。

    [server1]root@solaris:~# sam-fsd
    
  6. sam-fsd コマンドによって mcf ファイルでエラーが見つかった場合は、ファイルを編集してエラーを修正し、前の手順の説明に従って再確認します。

    次の例では、sam-fsd によって、デバイスに関して何らかの問題があることが指摘されています。

    [server1]root@solaris:~# sam-fsd
    Problem in mcf file /etc/opt/SUNWsamfs/mcf for filesystem samqfsms
    sam-fsd: Problem with file system devices.
    

    通常、このようなエラーの原因は不注意なタイプミスです。ここで、エディタで mcf ファイルを開くと、デバイス 104 (2 番目に新しい md デバイス) の装置名に、0 の代わりに文字 o が入力されていることがわかります。

    samqfsms                     100        ms         samqfsms    on
     /dev/dsk/c1t3d0s3           101        md         samqfsms    on
     /dev/dsk/c1t4d0s5           102        md         samqfsms    on
     /dev/dsk/c1t3d0s7           103        md         samqfsms    on
     /dev/dsk/c1t4dos7           104        md         samqfsms    on
                   ˆ
    
  7. sam-fsd コマンドがエラーなしで実行された場合、mcf ファイルは正確です。次の手順に進みます。

    この例は、エラーのない出力の一部です。

    [server1]root@solaris:~# sam-fsd
    Trace file controls:
    sam-amld      /var/opt/SUNWsamfs/trace/sam-amld
                  cust err fatal ipc misc proc date
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [server1]root@solaris:~# 
    
  8. mcf ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM ソフトウェアに指示します。コマンド samd config を使用します。

    [server1]root@solaris:~# samd config
    Configuring SAM-FS
    [server1]root@solaris:~# 
    
  9. samd config によって、新しいデバイスが含まれるように Oracle HSM ファイルシステムの構成が更新されたことを確認します。コマンド samcmd f を使用します。

    デバイスの状態は「off」になっているはずです。この例では、samcmd f は新しいデバイス 103104、および両方とも「off」であることが表示されます。

    [server1]root@solaris:~# samcmd f
    File systems samcmd     5.4 16:57:35 Feb 27 2014
    samcmd on server1
    ty      eq   state device_name       status      high low mountpoint server
    ms     100   on    samqfsms          m----2-----  80% 70% /samqfsms          
     md     101   on   /dev/dsk/c1t3d0s3 
     md     102   on   /dev/dsk/c1t4d0s5 
     md     103   off  /dev/dsk/c1t3d0s7 
     md     104   off  /dev/dsk/c1t4d0s7 
    [server1]root@solaris:~# 
    
  10. 新たに追加されたデバイスを有効にします。デバイスごとに、コマンド samcmd add equipment-number を使用します。ここで equipment-number は、/etc/opt/SUNWsamfs/mcf ファイル内のデバイスに割り当てられている装置の順序番号です。

    この例では、新しいデバイス (103104) を有効にします。

    [server1]root@solaris:~# samcmd add 103
    [server1]root@solaris:~# samcmd add 104
    
  11. 共有ファイルシステムにデバイスを追加する場合は、共有ファイルシステムに追加された新しいデバイスの構成の完了に進みます。

  12. 非共有のスタンドアロンファイルシステムにデバイスを追加する場合は、デバイスが追加され、ファイルシステムで使用できる状態になっていることを確認します。コマンド samcmd m を使用して、結果を確認します。

    デバイスの状態が「on」である場合は、デバイスが正常に追加され、使用できる状態になっています。この例では、デバイス 103104 が正常に追加されています。

    [server1]root@solaris:~# samcmd f
    Mass storage status samcmd     5.4 17:17:08 Feb 27 2014
    samcmd on server1
    ty   eq  status       use state  ord  capacity      free  ra  part high low
    ms   100  m----2----- 13% on            3.840G    3.588G  1M    16  80% 70%
     md   101             31% on       0  959.938M  834.250M 
     md   102             13% on       1  959.938M  834.250M
     md   103              0% on       2  959.938M  959.938M
     md   104              0% on       3  959.938M  959.938M
    [server1]root@solaris:~# 
    
  13. ここで停止します。

共有ファイルシステムに追加された新しいデバイスの構成の完了

共有ファイルシステムにデバイスを追加する場合は、すべてのファイルシステムホスト上でデバイスが構成される前に、追加の手順をいくつか実行する必要があります。次のように進めます。

  1. ファイルシステムのメタデータサーバーホストに root としてログインします。

    この例では、メタデータサーバーホストは metadata-server という名前です。

    [metadata-server]root@solaris:~# 
    
  2. メタデータサーバーに新しいデバイスが追加されたことを確認します。コマンド samcmd m を使用します。

    デバイスの状態が「unavail」である場合は、デバイスが正常に追加されましたが、使用できる状態にはなっていません。この例では、デバイス 103104 が正常に追加されています。

    [metadata-server]root@solaris:~# samcmd f
    Mass storage status samcmd     5.4 17:17:08 Feb 27 2014
    samcmd on metadata-server
    ty      eq  status       use state  ord   capacity     free    ra  part high low
    ms     100  m----2-----  13% on            3.840G    3.588G    1M    16  80% 70%
     md     101              31% on       0  959.938M  834.250M 
     md     102              13% on       1  959.938M  834.250M
     md     103               0% unavail  2  959.938M  959.938M
     md     104               0% unavail  3  959.938M  959.938M
    [metadata-server]root@solaris:~# 
    
  3. 各ファイルシステムのクライアントホストに root としてログインします。

    潜在的なメタデータサーバーもクライアントであるため、忘れずに含めてください。この例では、potential-metadata-server という名前の潜在的なメタデータサーバー、client1 および client2Linux の 2 つのクライアントにログインする必要があります。そのため、3 つの端末ウィンドウを開き、セキュアシェル (ssh) を使用します。

    [metadata-server]root@solaris:~# ssh root@potential-metadata-server
    Password:
    [potential-metadata-server]root@solaris:~# 
    [metadata-server]root@solaris:~# ssh root@client1
    Password:
    [client1]root@solaris:~# 
    [metadata-server]root@solaris:~# ssh root@client2Linux
    Password:
    [client2Linux]:[root@linux ~]# 
    
  4. クライアントが Linux クライアントである場合は、共有ファイルシステムをアンマウントします。

    [client2Linux]:[root@linux ~]# umount /samqfsms
    
  5. クライアントごとに、テキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、サーバー上で行なったときと同様に、新しいデバイスをファイルシステム定義の末尾に追加します。

    この例では、デバイス 103104client1 上の mcf ファイルに追加します。

    [client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family     Device   Additional
    # Identifier         Ordinal    Type       Set        State    Parameters
    #-----------------   ---------  ---------  ---------  ------   ----------
    samqfsms             100        ms         samqfsms    on      shared
     /dev/dsk/c1t3d0s3    101        md         samqfsms    on
     /dev/dsk/c1t4d0s5    102        md         samqfsms    on
     /dev/dsk/c1t3d0s7    103        md         samqfsms    on
     /dev/dsk/c1t4d0s7    104        md         samqfsms    on
    :wq
    [metadata-server]root@solaris:~# 
    
  6. クライアントごとに、sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、検出された場合は修正します。

    [metadata-server]root@solaris:~# sam-fsd
    
  7. 各クライアント上で、mcf ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM ソフトウェアに指示します。

    [metadata-server]root@solaris:~# samd config
    
  8. クライアントが Linux クライアントである場合は、共有ファイルシステムをマウントします。

    [client2Linux]:[root@linux ~]# mount /samqfsms
    
  9. すべてのクライアントが構成されたら、メタデータサーバーに戻って、新しいデバイス上でストレージの割り当てを有効にします。デバイスごとに、コマンド samcmd alloc equipment-number を使用します。ここで equipment-number は、/etc/opt/SUNWsamfs/mcf ファイル内のデバイスに割り当てられている装置の順序番号です。

    この例では、デバイス 103104 上でストレージの割り当てを有効にします。

    [metadata-server]root@solaris:~# samcmd alloc 103
    [metadata-server]root@solaris:~# samcmd alloc 104
    
  10. 最後に、デバイスがファイルシステムで使用できる状態になっていることを確認します。コマンド samcmd m を使用して、結果を確認します。

    デバイスの状態が「on」である場合は、デバイスが正常に追加され、使用できる状態になっています。この例では、デバイス 103104 が正常に追加されています。

    [metadata-server]root@solaris:~# samcmd f
    Mass storage status samcmd     5.4 17:17:08 Feb 27 2014
    samcmd on metadata-server
    ty      eq  status       use state  ord   capacity     free    ra  part high low
    ms     100  m----2-----  13% on            3.840G    3.588G    1M    16  80% 70%
     md     101              31% on       0  959.938M  834.250M 
     md     102              13% on       1  959.938M  834.250M
     md     103               0% on       2  959.938M  959.938M
     md     104               0% on       3  959.938M  959.938M
    [metadata-server]root@solaris:~# 
    
  11. ここで停止します。

アンマウントしたファイルシステムへのデバイスの追加

次のように進めます。

  1. ファイルシステムのサーバーホストに root としてログインします。

    この例では、メタデータサーバーホストは server1 という名前です。

    [server1]root@solaris:~# 
    
  2. アーカイブファイルシステムをアンマウントする前に、手順アーカイブおよびステージングプロセスのアイドル状態を実行する必要があります。

  3. ファイルシステムをマウント解除します。

    ファイルシステムをアンマウントするまでは次に進まないでください。この例では、ファイルシステム hsmfs1 をアンマウントします。

    [server1]root@solaris:~# umount hsmfs1
    
  4. テキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、拡張する必要のあるファイルシステムを検索します。

    次の例では、vi エディタを使用します。hsmfs1 ファイルシステムを拡張する必要があります。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------
    hsmfs1               100        ms         hsmfs1    on
     /dev/dsk/c1t3d0s3     101        md         hsmfs1    on
     /dev/dsk/c1t4d0s5     102        md         hsmfs1    on
    
  5. 高パフォーマンスの ma ファイルシステムにデバイスを追加する場合は、データストレージとともにメタデータストレージを追加する必要があります。追加するデータデバイスのメタデータを格納するのに十分な mm ディスクデバイスを追加します。次に、ファイルを保存し、エディタを閉じます。

    最大 252 個の論理デバイスを追加できます。この例では、1 つの mm メタデータデバイスを samqfs2ma ファイルシステムに、2 つのデータデバイスを samqfs2ma ファイルシステムに追加します。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------
    samqfs2ma             200        ma         samqfs2ma  on
     /dev/dsk/c1t3d0s3     201        mm         samqfs2ma  on
     /dev/dsk/c1t5d0s6     204        mm         samqfs2ma  on
     /dev/dsk/c1t3d0s5     202        md         samqfs2ma  on
     /dev/dsk/c1t4d0s5     203        md         samqfs2ma  on
     /dev/dsk/c1t3d0s7     205        md         samqfs2ma  on
     /dev/dsk/c1t4dos7     206        md         samqfs2ma  on
    :wq
    [server1]root@solaris:~# 
    
  6. 汎用の ms ファイルシステムにデバイスを追加する場合は、追加のデータデバイスまたはメタデータデバイスを mcf ファイル内のファイルシステム定義に追加します。次に、ファイルを保存し、エディタを閉じます。

    最大 252 個の論理デバイスを追加できます。この例では、2 つのデバイスを hsmfs1 ファイルシステムに追加します。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------
    hsmfs1               100        ms         hsmfs1    on
     /dev/dsk/c1t3d0s3     101        md         hsmfs1    on
     /dev/dsk/c1t4d0s5     102        md         hsmfs1    on
     /dev/dsk/c1t3d0s7     103        md         hsmfs1    on
     /dev/dsk/c1t4dos7     104        md         hsmfs1    on
    :wq
    [server1]root@solaris:~# 
    
  7. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、検出された場合は修正します。

    sam-fsd は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーを検出すると停止します。

    [server1]root@solaris:~# sam-fsd
    
  8. mcf ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM software に指示します。

    root@solaris:~# samd config
    
  9. 新しいデバイスをファイルシステムに組み込みます。コマンド samgrowfs family-set-name を使用します。ここで family-set-name は、/etc/opt/SUNWsamfs/mcf ファイル内でファイルシステムに指定されたファミリセット名です。

    この例では、hsmfs1 ファイルシステムを拡張します。

    [server1]root@solaris:~# samgrowfs hsmfs1
    
  10. ファイルシステムを再マウントします。

    [server1]root@solaris:~# mount /hsm/hsmfs1
    
  11. アーカイブファイルシステムにデバイスを追加した場合は、Oracle HSM ライブラリ管理デーモンを再起動します。コマンド samd start を使用します。

    [server1]root@solaris:~# samd start
    
  12. 変更を行う前にファイルシステムをアンマウントし忘れたために、ファイルシステムがマウントされない場合は、追加したデバイスへの参照を削除して、元の mcf ファイルを復元します。次に、samd config を実行して構成を復元し、ファイルシステムをアンマウントしてから、もう一度やり直します。

  13. ここで停止します。

ファイルシステムからのデータデバイスの削除

必要に応じて、マウントした Oracle HSM ファイルシステムからデータデバイスを削除できます。一般に、障害の発生したユニットを交換する必要がある場合、または十分に利用されていないデバイスをほかのユーザー用に解放する必要がある場合に、この操作が必要になります。ただし、いくつかの制限があります。

データデバイスのみを削除できます。メタデータにはファイルシステム自体の構成が定義されているため、メタデータの保持に使用されているデバイスは削除できません。つまり、高パフォーマンスの ma ファイルシステムから削除できるデバイスは、mdmr、およびストライプグループデバイスのみです。ma ファイルシステムから mm メタデータデバイスを削除することはできません。また、md デバイスには、データとメタデータの両方が格納されているため、これらのデバイスを汎用の ms ファイルシステムから削除することもできません。

デバイスを削除するには、ターゲットデバイス上に存在する有効なデータファイルを移動するための場所も必要です。つまり、すべてのデバイスを削除することはできません。必ず、1 つのデバイスがファイルシステムに残っている必要があり、削除するデバイスに存在するすべてのファイルを保持するための十分な空き容量が必要です。したがって、ストライプグループを削除する必要がある場合は、同数のメンバーデバイスを持つ別の使用可能なストライプグループを構成する必要があります。

デバイスを削除するには、次のように進めます。

ファイルシステムメタデータおよびデータがバックアップされていることの確認

次のタスクを実行します。

samexplorer の実行
  1. ファイルシステムのサーバーホストに root としてログインします。

    この例では、メタデータサーバーホストは server1 という名前です。

    [server1]root@solaris:~# 
    
  2. samexplorer レポートを作成します。コマンド samexplorer path/hostname.YYYYMMDD.hhmmz.tar.gz を使用します。ここでは:

    • path は選択したディレクトリへのパスです。

    • hostname は Oracle HSM ファイルシステムのホスト名です。

    • YYYYMMDD.hhmmz は日付とタイムスタンプです。

    このファイルはデフォルトで /tmp/SAMreport.hostname.YYYYMMDD.hhmmz.tar.gz と呼ばれます。この例では、ディレクトリ /zfs1/tmp/ を使用します。ここで /zfs1 は、Oracle HSM ファイルシステムと共通のコンポーネントを持たないファイルシステムです (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。

    [server1]root@solaris:~# samexplorer \
    /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz
     
         Report name:     /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz
         Lines per file:  1000
         Output format:   tar.gz (default) Use -u for unarchived/uncompressed.
     
         Please wait.............................................
         Please wait.............................................
         Please wait......................................
     
         The following files should now be ftp'ed to your support provider
         as ftp type binary.
     
         /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz
    
  3. ファイルシステム用の回復ポイントファイルを作成します。

ファイルシステム用の回復ポイントファイルの作成
  1. ファイルシステムのサーバーホストに root としてログインします。

    この例では、メタデータサーバーホストは server1 という名前です。

    [server1]root@solaris:~# 
    
  2. 回復ポイントが格納される場所を選択します。選択した場所では、バックアップするファイルシステムでデバイスを共有してはならず、異常に大きいファイルを格納できる容量が必要です。

    削除する予定のデバイスには、アーカイブされていないファイルが含まれていることがあります。このようなファイルは単一のコピーとして存在するだけであるため、少なくとも一部のデータおよびメタデータを格納する回復ポイントファイルを作成する必要があります。これにより、回復ポイントファイルのサイズが大幅に増加する可能性があります。

    この例では、Oracle HSM ファイルシステム /zfs1 と共通のコンポーネントを持たないファイルシステムに、サブディレクトリ tmp/ を作成します。

    [server1]root@solaris:~# mkdir /zfs1/tmp/
    [server1]root@solaris:~# 
    
  3. ファイルシステムのルートディレクトリに移動します。

    この例では、マウントポイントディレクトリ /hsm/hsmfs1 に移動します。

    [server1]root@solaris:~# cd /hsm/hsmfs1
    [server1]root@solaris:~# 
    
  4. ファイルシステムメタデータおよびアーカイブされていないデータをバックアップします。コマンド samfsdump -f -u recovery-point を使用します。ここで recovery-point は、最終的な回復ポイントのパスおよびファイル名です。

    -u オプションを付けると、回復ポイントにアーカイブされていないファイルのデータ部分が追加されます。これにより、ファイルのサイズが大幅に増加する可能性があります。

    この例では、ディレクトリ /zfs1/tmp/ に、hsmfs1-20140313.025215 という hsmfs1 ファイルシステム用の回復ポイントファイルを作成します。コマンド ls -l を使用して結果を確認します (次の 2 つ目のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。

    [server1]root@solaris:~# cd /hsm/hsmfs1
    [server1]root@solaris:~# samfsdump -f \
    /zfs1/tmp/hsm/hsmfs1-`date '+%Y%m%d.%H%M%S'` -T /hsm/hsmfs1
    samfsdump statistics:
        Files:              10010
        Directories:        2
        Symbolic links:     0
        Resource files:     0
        Files as members of hard links :    0
        Files as first hard link :  0
        File segments:      0
        File archives:      10010
        Damaged files:      0
        Files with data:    0
        File  warnings:     0
        Errors:             0
        Unprocessed dirs:   0
        File data bytes:    0
    [server1]root@solaris:~# ls -l /zfs1/tmp/hsmfs1*
    -rw-r--r-- 1 root other 5376517 Mar 13 02:52 /zfs1/tmp/hsm/hsmfs1-20140313.025215
    [server1]root@solaris:~# 
    
  5. ここで、マウントした高パフォーマンスのファイルシステムからデバイスを削除します。

マウントした高パフォーマンスのファイルシステムからのデバイスの削除

デバイスは一度に 1 つずつ削除する必要があります。デバイスごとに、次のように進めます。

  1. ファイルシステムのサーバーホストに root としてログインします。

    この例では、メタデータサーバーホストは server1 という名前です。

    [server1]root@solaris:~# 
    
  2. /etc/opt/SUNWsamfs/mcf ファイルを開き、削除する必要のあるデバイスの装置の順序番号を書き留めます。

    次の例では、vi エディタを使用します。hsmfs1 ファイルシステムの装置一覧からデバイス /dev/dsk/c1t4d0s7 を削除する必要があります。装置の順序番号は 104 です。

    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family     Device   Additional
    # Identifier         Ordinal    Type       Set        State    Parameters
    #-----------------   ---------  ---------  ---------  ------   --------------
    hsmfs1              100        ms         hsmfs1    on
     /dev/dsk/c1t3d0s3    101        md         hsmfs1    on
     /dev/dsk/c1t4d0s5    102        md         hsmfs1    on
     /dev/dsk/c1t3d0s7    103        md         hsmfs1    on
     /dev/dsk/c1t4d0s7    104        md         hsmfs1    on
    :q
    [server1]root@solaris:~# 
    
  3. デバイスの削除を試みる前に、ファイルシステム内の残りのデバイスが、削除する予定のデバイスから移動する必要のあるファイルを受け入れることができることを確認します。

    • 残りのデバイスに十分な容量があることを確認します。

    • デバイスがストライプグループである場合は、ファイルシステムに同等の構成を持つ別のストライプグループが含まれていることを確認します。

      たとえば、削除する予定のストライプグループが 4 つの装置番号を持っている場合は、状態が「ON」で、4 つの装置番号を持っている別のストライプグループが必要です。

  4. 変更する予定のファイルシステムにバージョン 2A スーパーブロックが含まれていることを確認します。コマンド samfsinfo filesystem-name を使用します。ここで filesystem-name はファイルシステムの名前です。

    この例では、ファイルシステム hsmfs1version:2A スーパーブロックが使用されています。

    [server1]root@solaris:~# /opt/SUNWsamfs/sbin/samfsinfo hsmfs1
    samfsinfo: filesystem hsmfs1 is mounted.
    name:     hsmfs1       version:     2A          
    time:     Tuesday, June 28, 2011  6:07:36 AM MDT
    feature:  Aligned Maps
    count:    4
    ...
    [server1]root@solaris:~# 
    
  5. ファイルシステムにバージョン 2A スーパーブロックが含まれていない場合は、ここで終了します。このファイルシステムがマウントされている場合は、デバイスを削除できません。

  6. Oracle HSM アーカイブファイルシステムからデバイスを削除する場合は、削除するディスクデバイスからアーカイブ済みファイルをすべて解放します。コマンド samcmd release equipment-number を使用します。ここで equipment-number は、/etc/opt/SUNWsamfs/mcf ファイル内のデバイスを識別する装置の順序番号です。

    デバイスがストライプグループである場合は、グループ内の任意のデバイスの装置番号を指定します。

    Oracle HSM ソフトウェアは、新しいファイルが格納されないように、指定したデバイスの状態を「noalloc」 (割り当てなし) に変更し、事前にアーカイブされたファイルの解放を開始します。デバイスにアーカイブされていないファイルが 1 つも含まれなくなると、ソフトウェアはファイルシステム構成からデバイスを削除して、状態を「off」に変更します。

    この例では、アーカイブファイルシステム hsmfs1 内のデバイス 104 からファイルを解放します。

    [server1]root@solaris:~# samcmd release 104
    
  7. Oracle HSM 非アーカイブファイルシステムからデバイスを削除する場合は、削除するディスクデバイス外に残りの有効なファイルをすべて移動します。コマンド samcmd remove equipment-number を使用します。ここで equipment-number は、/etc/opt/SUNWsamfs/mcf ファイル内のデバイスを識別する装置の順序番号です。

    Oracle HSM ソフトウェアは、新しいファイルが格納されないように、指定したデバイスの状態を「noalloc」 (割り当てなし) に変更し、有効なデータが含まれるファイルをファイルシステム内の残りのデバイスに移動し始めます。すべてのファイルが移動されると、ソフトウェアはファイルシステム構成からデバイスを削除して、状態を「off」に変更します。

    この例では、デバイス 104 外にファイルを移動します。

    [server1]root@solaris:~# samcmd remove 104
    
  8. 選択したプロセス samcmd remove または samcmd release の進捗状況をモニターします。コマンド samcmd m を使用するか、またはログファイルと /var/opt/SUNWsamfs/trace/sam-shrink ファイルを監視します (あるいは両方を行います)。

    release プロセスは、アーカイブメディアにコピーされたファイルに関連付けられている容量のみを解放するため、すべてのファイルがアーカイブされている場合は瞬時に完了します。remove プロセスでは、ディスクデバイス間でファイルを移動する必要があるため、データ量およびファイル数によっては非常に長い時間がかかります。

    [server1]root@solaris:~# samcmd m
    ty     eq  status       use state  ord  capacity      free    ra  part high low
    ms     100 m----2-----  27% on            3.691G    2.628G    1M    16  80% 70%
     md     101              27% on       0  959.938M  703.188M
     md     102              28% on       1  899.938M  646.625M
     md     103              13% on       2  959.938M  834.250M
     md     104               0% noalloc  3  959.938M  959.938M
    [server1]root@solaris:~# 
    
  9. samcmd release を使用していて、ターゲットデバイスの状態が「off」になっていない場合は、デバイス上にアーカイブされていないファイルが存在します。アーカイバが実行され、アーカイブが完了するまで待機します。次に、コマンド samcmd release を再度使用します。コマンド samcmd a を使用すると、アーカイブの進捗状況を確認できます。

    release プロセスは、アーカイブされていないファイルがアーカイブされるまでディスク領域を解放できません。

    [server1]root@solaris:~# samcmd a
    Archiver status samcmd     5.4 14:12:14 Mar  1 2014
    samcmd on server1
    sam-archiverd:  Waiting for resources
    sam-arfind:  hsmfs1  mounted at /hsm/hsmfs1
    Files waiting to start          4   schedule          2   archiving          2
    [server1]root@solaris:~# 
    
  10. 1 つ以上のアーカイブされていないファイルをアーカイブできないために samcmd release に失敗した場合は、アーカイブされていないファイルを別のデバイスに移動します。スタンドアロンの非アーカイブファイルシステムからデバイスを削除するときと同様に、コマンド samcmd remove equipment-number を使用します。

    この例では、デバイス 104 外にファイルを移動します。

    [server1]root@solaris:~# samcmd remove 104
    
  11. デバイスの状態が「off」に変更されたら、テキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、ファイルシステムを検索し、変更が反映されるように装置一覧を更新します。ファイルを保存して、エディタを閉じます。

    この例では、samcmd m104off であることを示しています。したがって、vi エディタを使用して mcf ファイルを開きます。hsmfs1 ファイルシステムの装置一覧からデバイス 104 のエントリを削除して、変更を保存します。

    [server1]root@solaris:~# samcmd m
    ty      eq  status       use state  ord  capacity      free    ra  part high low
    ms     100  m----2-----  27% on            3.691G    2.628G    1M    16  80% 70%
     md     101              27% on       0  959.938M  703.188M
     md     102              28% on       1  899.938M  646.625M
     md     103              13% on       2  959.938M  834.250M
     md     104               0% off      3  959.938M  959.938M
    [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family     Device   Additional
    # Identifier         Ordinal    Type       Set        State    Parameters
    #-----------------   ---------  ---------  ---------  ------   ---------
    hsmfs1              100        ms         hsmfs1    on
     /dev/dsk/c1t3d0s3    101        md         hsmfs1    on
     /dev/dsk/c1t4d0s5    102        md         hsmfs1    on
     /dev/dsk/c1t3d0s7    103        md         hsmfs1    on
    :wq
    [server1]root@solaris:~# 
    
  12. sam-fsd コマンドを実行して、変更した mcf ファイルにエラーがないかどうかを確認し、検出された場合はエラーを修正します。

    エラーが発生した場合は、sam-fsd コマンドが停止します。

    [server1]root@solaris:~# sam-fsd
    
  13. mcf ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM software に指示します。

    [server1]root@solaris:~# samd config
    
  14. ここで停止します。

Oracle HSM 共有ファイルシステムの管理

このセクションでは、次のタスクの概要について説明します。

共有ファイルシステムのマウントとマウント解除

共有ファイルシステムをマウントまたはマウント解除するときは、メタデータサーバーとクライアントをマウントまたはマウント解除する順序が重要です。

フェイルオーバーを行うため、メタデータサーバーとすべての潜在的なメタデータサーバーでマウントオプションは同じにしておく必要があります。たとえば、マウントオプションを含む samfs.cmd ファイルを作成し、そのファイルをすべてのホストにコピーできます。

共有ファイルシステムのマウントの詳細については、mount_samfs のマニュアルページを参照してください。

共有ファイルシステムのマウント

  1. Oracle HSM メタデータサーバーおよびクライアントホストに root としてログインします。

    この例では、sharefs ファイルシステムのメタデータサーバーホスト sharefs-mds にログインします。次に各クライアント sharefs-client1 および sharefs-client2 に対して端末ウィンドウを開きます。ssh (セキュアシェル) を使用してログインします。

    [sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password: 
    [sharefs-client1]root@solaris:~# 
    
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client2
    Password: 
    [sharefs-client2]root@solaris:~# 
    
  2. ファイルシステムの Solaris /etc/vfstab ファイルにエントリが存在する場合は、コマンド mount mountpoint を使用して、メタデータサーバーホスト上に共有ファイルシステムをマウントします。ここで mountpoint は、ホストのルートファイルシステム上のマウントポイントディレクトリです。

    必ず、クライアント上でファイルシステムをマウントする前に、まずメタデータサーバーホスト上にファイルシステムをマウントします。

    この例では、sharefs ファイルシステムの /etc/vfstab ファイルに次のエントリが存在します。

    sharefs   -         /sharefs  samfs   -     no       shared
    

    したがって、マウントポイントパラメータを指定するだけでファイルシステムをマウントできます。

    [sharefs-mds]root@solaris:~# mount /sharefs
    [sharefs-mds]root@solaris:~# 
    
  3. ファイルシステムの Solaris /etc/vfstab ファイルにエントリが存在しない場合は、コマンド mount -F samfs -o shared mountpoint を使用して、メタデータサーバーホスト上に共有ファイルシステムをマウントします。ここで mountpoint は、ホストのルートファイルシステム上のマウントポイントディレクトリです。

    必ず、クライアント上でファイルシステムをマウントする前に、まずメタデータサーバーホスト上にファイルシステムをマウントします。

    この例では、sharefs ファイルシステムの /etc/vfstab ファイルに次のエントリが存在しません。

    [sharefs-mds]root@solaris:~# mount -F samfs -o shared /sharefs
    [sharefs-mds]root@solaris:~# 
    
  4. ファイルシステムの Solaris /etc/vfstab ファイルにエントリが存在する場合は、コマンド mount mountpoint を使用して、各クライアントホスト上に共有ファイルシステムをマウントします。ここで mountpoint は、ホストのルートファイルシステム上のマウントポイントディレクトリです。

    クライアントホストには、任意の順序でファイルシステムをマウントできます。

    [sharefs-client1]root@solaris:~# mount /sharefs
    [sharefs-client1]root@solaris:~#  
    
    [sharefs-client2]root@solaris:~# mount /sharefs
    [sharefs-client2]root@solaris:~# 
    
  5. ファイルシステムの Solaris /etc/vfstab ファイルにエントリが存在しない場合は、コマンド mount -F samfs -o shared mountpoint を使用して、各クライアントホスト上に共有ファイルシステムをマウントします。ここで mountpoint は、ホストのルートファイルシステム上のマウントポイントディレクトリです。

    クライアントホストには、任意の順序でファイルシステムをマウントできます。

    [sharefs-client1]root@solaris:~# mount -F samfs -o shared /sharefs
    [sharefs-client1]root@solaris:~# 
    
    [sharefs-client2]root@solaris:~# mount -F samfs -o shared /sharefs
    [sharefs-client2]root@solaris:~# 
    
  6. ここで停止します。

共有ファイルシステムのアンマウント

  1. Oracle HSM メタデータサーバーおよびクライアントホストに root としてログインします。

    この例では、sharefs ファイルシステムのメタデータサーバーホスト sharefs-mds にログインします。次に各クライアント sharefs-client1 および sharefs-client2 に対して端末ウィンドウを開き、ssh (セキュアシェル) を使用してログインします。

    [sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password: 
    [sharefs-client1]root@solaris:~# 
    
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client2
    Password: 
    [sharefs-client2]root@solaris:~# 
    
  2. ファイルシステムが NFS または SAMBA で共有されている場合は、マウントを解除する前に、そのファイルシステムの共有を解除します。メタデータサーバーでコマンド unshare mount-point を使用します。ここで mount-point は、Oracle HSM ファイルシステムのマウントポイントディレクトリです。

    [sharefs-mds]root@solaris:~# unshare /sharefs
    [sharefs-mds]root@solaris:~# 
    
  3. 各クライアントから Oracle HSM 共有ファイルシステムをアンマウントします。コマンド umount mount-point を使用します。ここで mount-point は、Oracle HSM ファイルシステムのマウントポイントディレクトリです。

    詳細については、umount_samfs のマニュアルページを参照してください。この例では、2 つのクライアント (sharefs-client1sharefs-client2) から /sharedqfs1 をアンマウントします。

    [sharefs-client1]root@solaris:~# umount /sharefs
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
    [sharefs-client2]root@solaris:~# umount /sharefs
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  4. メタデータサーバーから Oracle HSM 共有ファイルシステムをアンマウントします。コマンド umount -o await_clients=interval mount-point を使用します。ここで、mount-point は Oracle HSM ファイルシステムのマウントポイントディレクトリ、interval-o await_clients オプションで実行を遅延させる秒数です。

    Oracle HSM 共有ファイルシステムのメタデータサーバー上で -o await_clients オプションを付けて umount コマンドを発行すると、umount はクライアントが共有をアンマウントする時間を持てるように、指定された秒数間待機します。非共有ファイルシステムをアンマウントする場合や、Oracle HSM クライアント上でコマンドを発行する場合は影響がありません。詳細については、umount_samfs のマニュアルページを参照してください。

    この例では、サーバーから /sharefs ファイルシステムをアンマウントします。クライアントにアンマウントする時間を、60 秒間与えます。

    [sharefs-mds]root@solaris:~# umount -o await_clients=60 /sharefs
    [sharefs-mds]root@solaris:~# 
    
  5. ここで停止します。

共有ファイルシステムのホスト構成の変更

このセクションでは、共有ファイルシステムのクライアントとして追加ホストを構成する手順、および既存のクライアントの構成を解除する手順について説明します。次のセクションが含まれます。

追加ファイルシステムクライアントの構成

クライアントホストを共有ファイルシステムに追加するプロセスは、3 つの部分に分かれています。

  • まず、共有ファイルシステム構成にホスト情報を追加します。

  • 次に、ホストのオペレーティングシステムに固有の手順 (Solaris または Linux) を使用して、ホスト上に共有ファイルシステムを構成します。

  • 最後に、ホストのオペレーティングシステムに固有の手順 (Solaris または Linux) を使用して、ホスト上に共有ファイルシステムをマウントします。

共有ファイルシステム構成へのホスト情報の追加
  1. Oracle HSM メタデータサーバーに root としてログインします。

    この例では、Oracle HSM 共有ファイルシステムは sharefs、メタデータサーバーホストは sharefs-mds です。

    [sharefs-mds]root@solaris:~# 
    
  2. ファイル /etc/opt/SUNWsamfs/hosts.filesystem をバックアップします。ここで filesystem はクライアントホストの追加先であるファイルシステムの名前です。

    次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします。

    [sharefs-mds]root@solaris:~# cp /etc/opt/SUNWsamfs/hosts.sharefs \ /etc/opt/SUNWsamfs/hosts.sharefs.bak
    
  3. 共有ファイルシステムがマウントされている場合は、アクティブなメタデータサーバーからコマンド samsharefs filesystem を実行して、出力をファイル /etc/opt/SUNWsamfs/hosts.filesystem にリダイレクトします。ここで filesystem は、クライアントホストの追加先であるファイルシステムの名前です。

    samsharefs コマンドは、Oracle HSM 共有ファイルシステムのホスト構成を表示します。出力をファイルにリダイレクトすると、新しい hosts ファイルが作成されます (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。

    [sharefs-mds]root@solaris:~# samsharefs sharedqfs1 > \ /etc/opt/SUNWsamfs/hosts.sharedqfs1
    
  4. 共有ファイルシステムがマウントされていない場合は、アクティブまたは潜在的なメタデータサーバーからコマンド samsharefs -R filesystem を実行して、出力をファイル /etc/opt/SUNWsamfs/hosts.filesystem にリダイレクトします。ここで filesystem は、クライアントホストの追加先であるファイルシステムの名前です。

    samsharefs -R コマンドは、アクティブまたは潜在的なメタデータサーバーからのみ実行できます (詳細については、samsharefs のマニュアルページを参照)。samsharefs コマンドは、Oracle HSM 共有ファイルシステムのホスト構成を表示します。出力をファイルにリダイレクトすると、新しい hosts ファイルが作成されます。この例では、メタデータサーバー sharefs-mds からコマンドを実行します (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。

    [sharefs-mds]root@solaris:~# samsharefs -R sharedqfs1 \
    > /etc/opt/SUNWsamfs/hosts.sharedqfs1
    
  5. 新たに作成された hosts ファイルをテキストエディタで開きます。

    次の例では、vi エディタを使用します。ホスト構成には、アクティブなメタデータサーバー sharefs-mds、潜在的なメタデータサーバーでもある 1 つのクライアント sharefs-mds_alt、および他の 2 つのクライアント sharefs-client1sharefs-client2 が含まれています。

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.47            0        0
    
  6. hosts ファイルに新しいクライアントホストの行を追加し、ファイルを保存して、エディタを閉じます。

    この例では、ホスト sharefs-client3 のエントリを追加します。

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.47            0        0
    sharefs-client3       10.79.213.49            0        0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  7. ファイルシステムがマウントされている場合は、アクティブなメタデータサーバーからファイルシステムを更新します。コマンド samsharefs -u filesystem を使用します。ここで filesystem はクライアントホストの追加先であるファイルシステムの名前です。

    samsharefs コマンドは、修正されたホストファイルを再度読み取り、構成を更新します。

    [sharefs-mds]root@solaris:~# samsharefs -u sharefs1
    
  8. ファイルシステムがマウントされていない場合は、アクティブなメタデータサーバーまたは潜在的なメタデータサーバーからファイルシステムを更新します。コマンド samsharefs -R -u filesystem を使用します。ここで filesystem はクライアントホストの追加先であるファイルシステムの名前です。

    samsharefs コマンドは、修正されたホストファイルを再度読み取り、構成を更新します。

    [sharefs-mds]root@solaris:~# samsharefs -R -u sharefs1
    
  9. クライアントとして Solaris ホストを追加する場合は、Solaris クライアントでの共有ファイルシステムの構成に進みます。

  10. クライアントとして Linux ホストを追加する場合は、Linux クライアントホストでの共有ファイルシステムの構成に進みます。

Solaris クライアントでの共有ファイルシステムの構成
  1. 共有ファイルシステムクライアントで、root としてログインします。

    この例では、Oracle HSM 共有ファイルシステムは sharefs、クライアントホストは sharefs-client1 です。

    [sharefs-client1]root@solaris:~# 
    
  2. 端末ウィンドウで、共有ファイルシステムの構成情報を取得します。コマンド samfsconfig device-path を使用します。ここで device-path は、コマンドがファイルシステムディスクデバイスの検索を開始する場所 (/dev/dsk/*/dev/zvol/dsk/rpool/* など) です。

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    
  3. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っているため、潜在的なメタデータサーバーとしての使用に適している場合は、samfsconfig の出力が、ファイルシステムのメタデータサーバーで作成された mcf ファイルに酷似しています。

    この例では、ホスト sharefs-client1 がメタデータデバイス (装置タイプ mm) へのアクセス権を持っているため、コマンドの出力にサーバー sharefs-mds 上の mcf ファイルに一覧表示されるものと同じ装置が表示されます。ホストで割り当てられたデバイスコントローラ番号のみが異なります。

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    # Generation 0 Eq count 4 Eq meta count 1
    sharefs             300         ma         sharefs   - 
    /dev/dsk/c1t0d0s0    301         mm         sharefs   -
    /dev/dsk/c1t3d0s0    302         mr         sharefs   -
    /dev/dsk/c1t3d0s1    303         mr         sharefs   -
    
  4. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、samfsconfig コマンドではメタデータデバイスを検索できません。したがって、検出された Oracle HSM デバイスをファイルシステム構成に合わせることはできません。コマンドの出力では、Missing Slices の下に Ordinal 0 (メタデータデバイス) が一覧表示されますが、ファイルシステムファミリセットを識別する行を含めることができず、データデバイスの一覧がコメントアウトされています。

    この例では、ホスト sharefs-client2 はデータデバイスへのアクセス権のみを持っています。したがって、samfsconfig の出力は次のように表示されます。

    [sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    # Missing slices
    # Ordinal 0
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  5. samfsconfig の出力から共有ファイルシステムのエントリをコピーします。次に、2 つ目のウィンドウからテキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、コピーしたエントリをファイルにペーストします。

    1 つ目の例では、ホスト sharefs-client1 がファイルシステムのメタデータデバイスへのアクセス権を持っているため、mcf ファイルの始まりは次のように表示されます。

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300        ma         sharefs    -
    /dev/dsk/c1t0d0s0   301        mm         sharefs    -
    /dev/dsk/c1t3d0s0   302        mr         sharefs    -
    /dev/dsk/c1t3d0s1   303        mr         sharefs    -
    

    2 つ目の例では、ホスト sharefs-client2 がファイルシステムのメタデータデバイスへのアクセス権を持っていないため、mcf ファイルの始まりは次のように表示されます。

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    # /dev/dsk/c4t3d0s0   302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1   303         mr         sharefs   -
    
  6. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っている場合は、共有ファイルシステムのエントリの「Additional Parameters」フィールドに、shared パラメータを追加します。

    1 つ目の例では、ホスト sharefs-client1 はメタデータへのアクセス権を持っています。

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300        ma         sharefs    -        shared
    /dev/dsk/c1t0d0s0   301        mm         sharefs    -
    /dev/dsk/c1t3d0s0   302        mr         sharefs    -
    /dev/dsk/c1t3d0s1   303        mr         sharefs    -
    
  7. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、共有ファイルシステムの行を追加し、shared パラメータを追加します。

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300        ma         sharefs    -        shared
    # /dev/dsk/c4t3d0s0   302         mr         sharefs   -       
    # /dev/dsk/c4t3d0s1   303         mr         sharefs   -
    
  8. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、メタデータデバイスの行を追加します。Equipment Identifier フィールドを nodev (デバイスなし) に設定し、残りのフィールドはメタデータサーバーの場合とまったく同じ値に設定します。

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300         ma        sharefs    on       shared
    nodev               301         mm        sharefs    on 
    # /dev/dsk/c4t3d0s0   302        mr         sharefs    -
    # /dev/dsk/c4t3d0s1   303        mr         sharefs    -
    
  9. ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、データデバイスのエントリのコメントを解除します。

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300        ma         sharefs    on       shared
    nodev               301        mm         sharefs    on 
    /dev/dsk/c4t3d0s0   302        mr         sharefs    - 
    /dev/dsk/c4t3d0s1   303        mr         sharefs    - 
    
  10. すべてのデバイスで「Device State」フィールドが「on」に設定されていることを確認し、mcf ファイルを保存して、エディタを閉じます。

    1 つ目の例では、ホスト sharefs-client1 がファイルシステムのメタデータデバイスへのアクセス権を持っているため、mcf ファイルの終わりは次のように表示されます。

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs             300        ma         sharefs    on       shared
    /dev/dsk/c1t0d0s0   301        mm         sharefs    on 
    /dev/dsk/c1t3d0s0   302        mr         sharefs    on 
    /dev/dsk/c1t3d0s1   303        mr         sharefs    on 
    :wq
    [sharefs-client1]root@solaris:~# 
    

    2 つ目の例では、ホスト sharefs-client2 がファイルシステムのメタデータデバイスへのアクセス権を持っていないため、mcf ファイルの終わりは次のように表示されます。

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment         Equipment  Equipment  Family     Device   Additional
    # Identifier        Ordinal    Type       Set        State    Parameters
    #----------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
    nodev                 301         mm        sharefs    on 
    /dev/dsk/c4t3d0s0     302         mr        sharefs    on 
    /dev/dsk/c4t3d0s1     303         mr        sharefs    on 
    :wq
    [sharefs-client2]root@solaris:~# 
    
  11. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。

    sam-fsd は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーが発生した場合は停止します。この例では、sharefs-client1 上で mcf ファイルを確認します。

    [sharefs-client1]root@solaris:~# sam-fsd
    
  12. 次に、Solaris ホストに共有ファイルシステムをマウントします。

Solaris ホストでの共有ファイルシステムのマウント
  1. 共有ファイルシステムホストで、root としてログインします。

    この例では、Oracle HSM 共有ファイルシステムは sharefs、ホストは sharefs-client1 という名前のクライアントです。

    [sharefs-client1]root@solaris:~# 
    
  2. オペレーティングシステムの /etc/vfstab ファイルをバックアップします。

    [sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    
  3. テキストエディタで /etc/vfstab ファイルを開き、共有ファイルシステムの行を追加します。

    この例では、vi テキストエディタでファイルを開き、sharefs ファミリセットデバイスの行を追加します。

    [sharefs-client1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  ------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no
    
  4. クライアント上のファイルシステムを共有ファイルシステムとしてマウントするには、共有ファイルシステムの vfstab エントリの「Mount Options」列に shared オプションを入力します。

    現在のクライアントで共有ファイルシステム sharefs を読み取り専用でマウントする必要がある場合は、vfstab エントリを次の例で示すように編集します。

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  ------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no       shared
    
  5. セパレータとしてコンマを使用して、その他の必要なマウントオプションを追加し、その他の必要な変更を /etc/vfstab ファイルに加えます。次に、/etc/vfstab ファイルを保存します。

    この例では、追加のマウントオプションはありません。

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no       shared
    :wq
    [sharefs-client1]root@solaris:~# 
    
  6. /etc/vfstab ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。

    マウントポイントのアクセス権は、メタデータサーバーおよびその他のすべてのクライアントと同じにする必要があります。ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x) を持っている必要があります。この例では、/sharefs マウントポイントディレクトリを作成し、アクセス権を 755 (-rwxr-xr-x) に設定します。

    [sharefs-client1]root@solaris:~# mkdir /sharefs
    [sharefs-client1]root@solaris:~# chmod 755 /sharefs
    [sharefs-client1]root@solaris:~# 
    
  7. 共有ファイルシステムをマウントします。

    [sharefs-client1]root@solaris:~# mount /sharefs
    [sharefs-client1]root@solaris:~# 
    
  8. 分散テープ入出力データムーバーとして潜在的なメタデータサーバーホストを追加する場合は、分散テープ入出力用のデータムーバークライアントの構成に進みます。

  9. ここで停止します。

Linux クライアントホストでの共有ファイルシステムの構成
  1. Linux クライアント上で、root としてログインします。

    この例では、Oracle HSM 共有ファイルシステムは sharefs、ホストは sharefs-clientL という名前の Linux クライアントです。

    [sharefs-clientL][root@linux ~]# 
    
  2. 端末ウィンドウで、samfsconfig device-path コマンドを使用して共有ファイルシステムに関する構成情報を取得します。ここで device-path は、コマンドがファイルシステムディスクデバイスの検索を開始する場所 (/dev/* など) です。

    Linux ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていないため、samfsconfig コマンドではメタデータデバイスを検索できません。したがって、検出された Oracle HSM デバイスをファイルシステム構成に合わせることはできません。コマンドの出力では、Missing Slices の下に Ordinal 0 (メタデータデバイス) が一覧表示されますが、ファイルシステムファミリセットを識別する行を含めることができず、データデバイスの一覧がコメントアウトされています。

    この例では、Linux ホスト sharefs-clientL 用の samfsconfig 出力が次のように表示されます。

    [sharefs-clientL][root@linux ~]# samfsconfig /dev/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    #
    # Missing slices
    # Ordinal 0
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  3. samfsconfig の出力から共有ファイルシステムのエントリをコピーします。次に、2 つ目のウィンドウからテキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、コピーしたエントリをファイルにペーストします。

    この例では、Linux ホスト sharefs-clientL 用の mcf ファイルの始まりが次のように表示されます。

    [sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -------------
    # /dev/sda4             302        mr         sharefs   -
    # /dev/sda5             303        mr         sharefs   -
    
  4. mcf ファイルに共有ファイルシステムの行を挿入し、shared パラメータを追加します。

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -------------
    sharefs               300        ma         sharefs    -        shared
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  5. mcf ファイルに、ファイルシステムのメタデータデバイスの行を挿入します。Linux ホストはメタデータデバイスへのアクセス権を持っていないため、Equipment Identifier フィールドを nodev (デバイスなし) に設定し、残りのフィールドはメタデータサーバーの場合とまったく同じ値に設定します。

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -------------
    sharefs               300         ma        sharefs    on       shared
    nodev                 301         mm        sharefs    on 
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  6. mcf ファイルで、Linux データデバイスのエントリをコメント解除します。

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -------------
    sharefs               300        ma        sharefs     on       shared
    nodev                 301        mm        sharefs     on 
    /dev/sda4             302        mr        sharefs     -
    /dev/sda5             303        mr        sharefs     -
    
  7. すべてのデバイスで「Device State」フィールドが「on」に設定されていることを確認し、mcf ファイルを保存します。

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -------------
    sharefs               300        ma         sharefs    on       shared
    nodev                 301        mm         sharefs    on 
    /dev/sda4             302        mr         sharefs    on 
    /dev/sda5             303        mr         sharefs    on 
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  8. sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。

    sam-fsd は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーが発生した場合は停止します。この例では、Linux クライアント sharefs-clientL 上で mcf ファイルを確認します。

    [sharefs-clientL][root@linux ~]# sam-fsd
    
  9. 次に、Linux ホストに共有ファイルシステムをマウントします。

Linux クライアントホストでの共有ファイルシステムのマウント
  1. Linux クライアント上で、root としてログインします。

    この例では、Oracle HSM 共有ファイルシステムは sharefs、ホストは sharefs-clientL という名前の Linux クライアントです。

    [sharefs-clientL][root@linux ~]# 
    
  2. オペレーティングシステムの /etc/fstab ファイルをバックアップします。

    [sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
    
  3. テキストエディタで /etc/fstab ファイルを開き、共有ファイルシステムの行を開始します。

    この例では、vi テキストエディタを使用して、sharefs ファミリセットデバイスの行を追加します。

    [sharefs-clientL][root@linux ~]# vi /etc/fstab
    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs
    
  4. ファイルの 4 列目で、必須の shared マウントオプションを追加します。

    [sharefs-clientL][root@linux ~]# vi /etc/fstab
    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared
    
  5. ファイルの 4 列目で、セパレータとしてコンマを使用して、その他の必要なマウントオプションを追加します。

    Linux クライアントでは、次の追加マウントオプションがサポートされています。

    • rw, ro

    • retry

    • meta_timeo

    • rdlease, wrlease, aplease

    • minallocsz, maxallocsz

    • noauto, auto

    この例では、オプション noauto を追加します。

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto           
     
    
  6. ファイルの残りの 2 列には、それぞれゼロ (0) を入力します。次に、/etc/fstab ファイルを保存します。

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto              0         0        
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  7. /etc/fstab ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。

    マウントポイントのアクセス権は、メタデータサーバーおよびその他のすべてのクライアントと同じにする必要があります。ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x) を持っている必要があります。この例では、/sharefs マウントポイントディレクトリを作成し、アクセス権を 755 (-rwxr-xr-x) に設定します。

    [sharefs-clientL][root@linux ~]# mkdir /sharefs
    [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
    
  8. 共有ファイルシステムをマウントします。コマンド mount mountpoint を使用します。ここで mountpoint は、/etc/fstab ファイルで指定されたマウントポイントディレクトリです。

    例で示すように、mount コマンドは警告を生成します。これは通常の動作であり、無視できます。

    [sharefs-clientL][root@linux ~]# mount /sharefs
    Warning: loading SUNWqfs will taint the kernel: SMI license 
    See http://www.tux.org/lkml/#export-tainted for information 
    about tainted modules. Module SUNWqfs loaded with warnings 
    
  9. ここで停止します。

共有ファイルシステム構成からのホストの削除

次で説明するように、共有ファイルシステムからホストを削除しても、単にサーバー構成からホストが削除されるだけです (完全にホストの構成を解除するには、ソフトウェアおよび構成ファイルをアンインストールしてください)。

ファイルシステムの hosts ファイルからのホストの削除
  1. Oracle HSM メタデータサーバーに root としてログインします。

    この例では、Oracle HSM 共有ファイルシステムは sharefs、メタデータサーバーホストは sharefs-mds です。

    [sharefs-mds]root@solaris:~# 
    
  2. 各クライアントに root としてログインし、共有ファイルシステムをアンマウントします。

    潜在的なメタデータサーバー自体もクライアントであることを忘れないでください。この例には、sharefs-client1sharefs-client2、および sharefs-mds_alt の 3 つのクライアントと、潜在的なメタデータサーバーがあります。各クライアントに対して、ssh を使用してログインし、ファイルシステム sharefs をアンマウントし、ssh セッションを終了します。

    [sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# umount sharefs
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client2
    Password:
    [sharefs-client2]root@solaris:~# umount sharefs
    [sharefs-client2]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# umount sharefs
    root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  3. メタデータサーバー上で、共有ファイルシステムをアンマウントします。

    [sharefs-mds]root@solaris:~# umount sharefs
    
  4. メタデータサーバー上で、ファイル /etc/opt/SUNWsamfs/hosts.filesystem の名前を /etc/opt/SUNWsamfs/hosts.filesystem.bak に変更します。ここで filesystem は、クライアントホストの削除元であるファイルシステムの名前です。

    次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします。

    [sharefs-mds]root@solaris:~# mv /etc/opt/SUNWsamfs/hosts.sharefs \
    /etc/opt/SUNWsamfs/hosts.sharefs.bak
    
  5. 現在の共有ファイルシステムのホスト構成をファイル上に取得します。メタデータサーバーからコマンド samsharefs -R filesystem を実行して、出力をファイル /etc/opt/SUNWsamfs/hosts.filesystem にリダイレクトします。ここで filesystem は、クライアントホストの追加先であるファイルシステムの名前です。

    samsharefs コマンドは、指定した Oracle HSM 共有ファイルシステムのホスト構成を表示します。出力をファイルにリダイレクトすると、新しい hosts ファイルが作成されます。この例では、メタデータサーバー sharefs-mds からコマンドを実行します。

    [sharefs-mds]root@solaris:~# samsharefs -R sharedqfs1 > /
    /etc/opt/SUNWsamfs/hosts.sharedqfs1
    
  6. 新たに作成された hosts ファイルをテキストエディタで開きます。

    次の例では、vi エディタを使用します。クライアント sharefs-client3 を削除する必要があります。

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.47            0        0
    sharefs-client3       10.79.213.49            0        0
    
  7. hosts ファイルで、削除する必要のあるクライアントホストに対応する行を削除します。次に、ファイルを保存し、エディタを閉じます。

    この例では、ホスト sharefs-client3 のエントリを削除します。

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.47            0        0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  8. 修正されたホストファイルを使用してファイルシステムを更新します。メタデータサーバーからコマンド samsharefs -R -u filesystem を使用します。ここで filesystem はクライアントホストの削除元であるファイルシステムの名前です。

    [sharefs-mds]root@solaris:~# samsharefs -u sharefs
    
  9. メタデータサーバーホスト上で、共有ファイルシステムをマウントします。

    この例では、/etc/vfstab ファイルに sharefs ファイルシステムのエントリが含まれているため、単純なマウント構文を使用します (詳細な情報については、mount_samfs のマニュアルページを参照)。

    [sharefs-mds]root@solaris:~# mount sharefs
    
  10. 各クライアントホスト上で、共有ファイルシステムをマウントします。

    潜在的なメタデータサーバー自体もクライアントであることを忘れないでください。この例には、sharefs-client1sharefs-client2、および sharefs-mds_alt の 3 つのクライアントと、潜在的なメタデータサーバーがあります。各クライアントに対して、ssh を使用してログインし、ファイルシステム sharefs をアンマウントし、ssh セッションを終了します。

    [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# mount sharefs
    sharefs-mds_alt]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# mount sharefs
    sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client2
    Password:
    [sharefs-client2]root@solaris:~# mount sharefs
    sharefs-client2]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  11. ここで停止します。

分散テープ入出力用のデータムーバークライアントの構成

Oracle HSM リリース 6.1 以降、Solaris 11 以上が実行されている共有アーカイブファイルシステムのクライアントは、テープドライブを接続して、ファイルシステムの代わりにテープ入出力を実行できます。これらのデータムーバーホスト間でテープ入出力を分散させると、サーバーのオーバーヘッドが大幅に削減されるため、ファイルシステムのパフォーマンスが向上し、Oracle HSM 実装のスケーリング時の柔軟性が大幅に向上します。アーカイブの必要性が高くなれば、Oracle HSM メタデータサーバーをより強力なシステムに交換するか (垂直スケーリング)、より多くのクライアント間で負荷を分散させるか (水平スケーリング) の選択肢があります。

データムーバークライアントの構成

分散テープ入出力用のクライアントを構成するには、次のように進めます。

  1. 分散入出力用に使用されるすべてのデバイスをクライアントに接続します。

  2. まだ実行していない場合は、手順永続的なバインドを使用したテープドライブの接続を実行します。その後、ここに戻ります。

  3. 共有アーカイブファイルシステムのメタデータサーバーに root としてログインします。

    この例では、ホスト名は samsharefs-mds です。

    [samsharefs-mds]root@solaris:~# 
    
  4. メタデータサーバーで Oracle HSM Solaris 11 以上が実行されていることを確認します。

    [samsharefs-mds]root@solaris:~# uname -r
    5.11
    [samsharefs-mds]root@solaris:~# 
    
  5. データムーバーとして動作するすべてのクライアントで、Oracle HSM Solaris 11 以上が実行されていることを確認します。

    この例では、各クライアントホスト samsharefs-client1 および samsharefs-client2 に対して端末ウィンドウを開き、ssh を使用してリモートでログインします。ログインバナーに Solaris バージョンが表示されます。

    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1
    ...
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client1]root@solaris:~# 
    
    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2
    ...
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client2]root@solaris:~# 
    
  6. メタデータサーバーでファイル /etc/opt/SUNWsamfs/defaults.conf をテキストエディタで開き、行 distio =  をコメント解除し、値を on に設定して分散入出力を有効にします。

    デフォルトでは、「distio」は「off」 (無効) になっています。

    この例では、vi エディタでファイルを開き、行を追加します。

    [samsharefs-mds]root@solaris:~#  vi /etc/opt/SUNWsamfs/defaults.conf 
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    ...
    distio = on
    
  7. 次に、分散入出力に追加するデバイスタイプを特定します。分散入出力でデバイスタイプ dev を使用するには、defaults.conf ファイルに行 dev_distio = on を追加します。分散入出力からデバイスタイプ dev を除外するには、行 dev_distio = off を追加します。ファイルを保存して、エディタを閉じます。

    デフォルトでは、Oracle HSM T10000 ドライブおよび LTO ドライブを分散入出力に追加できます (ti_distio = on および li_distio = on) が、その他のタイプはすべて除外されています。この例では、LTO ドライブを除外します。

    [samsharefs-mds]root@solaris:~#  vi /etc/opt/SUNWsamfs/defaults.conf 
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    ...
    distio = on
    li_distio = off
    :wq
    [samsharefs-mds]root@solaris:~#  
    
  8. データムーバーとして動作する各クライアント上で、サーバー上のファイルと一致するように defaults.conf ファイルを編集します。

    この例では、クライアント samsharefs-client1 上の defaults.conf ファイルを vi を使用して編集し、このファイルを保存してエディタを閉じます。

    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1
    Password:
    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf 
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    ...
    distio = on
    li_distio = off
    :wq
    [samsharefs-client1]root@solaris:~# 
    [samsharefs-mds]root@solaris:~# 
    
  9. データムーバーとして動作する各クライアント上で、テキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開きます。分散テープ入出力用にメタデータサーバーが使用しているテープデバイスをすべて追加します。デバイスの順序および装置番号がメタデータサーバー上の mcf ファイルのものと同じであることを確認します。

    この例では、vi を使用してクライアント samsharefs-client1 上の mcf ファイルを編集します。

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ -------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
     /dev/rmt/60cbn           901       ti                    on
     /dev/rmt/61cbn           902       ti                    on
     /dev/rmt/62cbn           903       ti                    on
     /dev/rmt/63cbn           904       ti                    on
    
  10. データムーバーとして動作するクライアント上に、メタデータサーバー上の /etc/opt/SUNWsamfs/mcf ファイルに一覧表示されたテープライブラリが構成されている場合は、分散テープ入出力用に使用されているテープデバイスのファミリセット名としてライブラリファミリセットを指定します。ファイルを保存します。

    この例では、ホスト上にライブラリが構成されているため、テープデバイスのファミリセット名 library1 を使用します。

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ -------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
    /dev/scsi/changer/c1t0d5 900       rb        library1     on     
     /dev/rmt/60cbn           901       ti        library1     on
     /dev/rmt/61cbn           902       ti        library1     on
     /dev/rmt/62cbn           903       ti        library1     on
     /dev/rmt/63cbn           904       ti        library1     on
    :wq
    [samsharefs-client1]root@solaris:~# 
     
    
  11. データムーバーとして動作するクライアント上に、メタデータサーバー上の /etc/opt/SUNWsamfs/mcf ファイルに一覧表示されたテープライブラリが構成されていない場合は、分散テープ入出力用に使用されているテープデバイスのファミリセット名としてハイフン (-) を使用します。

    この例では、ライブラリはホスト上で構成されていません。

    [samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ -------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
    /dev/rmt/60cbn           901       ti        -           on
    /dev/rmt/61cbn           902       ti        -           on
    /dev/rmt/62cbn           903       ti        -           on
    /dev/rmt/63cbn           904       ti        -           on
    :wq
    [samsharefs-client2]root@solaris:~#  
    
  12. 特定のアーカイブセットのコピーで分散テープ入出力を有効または無効にする必要がある場合は、テキストエディタでサーバーの /etc/opt/SUNWsamfs/archiver.cmd ファイルを開き、-distio パラメータをコピーディレクティブに追加します。分散入出力を有効にするには「 -distio on」、無効にするには「off」を設定します。ファイルを保存して、エディタを閉じます。

    この例では、vi エディタを使用して、コピー 1 の分散入出力を「off」、コピー 2 の分散入出力を「on」に設定します。

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd
    # archiver.cmd
    # Generated by config api Mon Nov 22 14:31:39 2013
    ...
    #
    # Copy Parameters Directives
    params
    allsets -sort path -offline_copy stageahead
    allsets.1 -startage 10m -startsize 500M -startcount 500000 -distio off
    allsets.2 -startage 24h -startsize 20G  -startcount 500000 -distio on
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  13. 各ホストで、sam-fsd コマンドを実行して、mcf ファイルにエラーがないかどうかを確認し、見つかったエラーを修正します。

    sam-fsd は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーが発生した場合は停止します。この例では、Linux クライアント sharefs-clientL 上で mcf ファイルを確認します。

    [sharefs-clientL][root@linux ~]# sam-fsd
    
  14. サーバーで、変更した構成ファイルを読み取り、ソフトウェア自体を適宜再構成するように、Oracle HSM ソフトウェアに指示します。コマンド samd config を使用し、見つかったエラーを修正します。

    この例では、サーバー sharefs-mds 上でコマンド samd config を実行します。

    [samsharefs-mds]root@solaris:~#  samd config
    
  15. ここで停止します。

永続的なバインドを使用したテープドライブの接続

潜在的なメタデータサーバーまたは分散入出力データムーバークライアントとして機能するホストを追加する際には、永続的なバインドを使用してリムーバブルメディアデバイスを構成する必要があります。Solaris オペレーティングシステムは、起動時にデバイスが検出される順序でドライブをシステムデバイスツリーに追加します。この順序によって、その他のファイルシステムホストでデバイスが検出される順序や、テープライブラリに物理的にインストールされる順序が反映される場合と、反映されない場合があります。したがって、その他のホストにバインドするときと同じ方法、およびリムーバブルメディアライブラリにインストールされるときと同じ順序で、デバイスを新しいホストにバインドする必要があります。

次の手順では、必要なステップの概要を示します (完全な情報については、devfsadm および devlinks のマニュアルページ、および使用している Solaris オペレーティングシステムのバージョンに対応した管理ドキュメントを参照)。

ハードウェア構成への変更を反映させるための永続的なバインドの更新
  1. アクティブなメタデータサーバーホストに root としてログインします。

    [sharefs-mds]root@solaris:~# 
    
  2. ドライブをライブラリに取り付ける順序の判別で説明するように、新しいドライブマッピングファイルを作成します。

    この例では、device-mappings.txt ファイルは次のように表示されます。

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    -----------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn ->  ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
    
  3. /etc/devlink.tab ファイルをテキストエディタで開きます。

    この例では、vi エディタを使用します。

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    # This is the table used by devlinks
    # Each entry should have 2 fields; but may have 3.  Fields are separated
    # by single tab ('\t') characters.
    ...
    
  4. ガイドとして device-mappings.txt ファイルを使用して、Solaris テープデバイスツリー内の開始ノードをライブラリ内の 1 番目のドライブに再マッピングします。/etc/devlink.tab ファイルに、type=ddi_byte:tape; addr=device_address,0; rmt/node-number\M0 という形式の行を追加します。ここで、device_address はデバイスの物理アドレス、node-number は Solaris デバイスツリー内のデバイスの位置です。Solaris で自動的に構成されるデバイスとの競合を回避するために、十分に大きいノード番号を選択してください (Solaris ではノード 0 から始まります)。

    この例では、ライブラリ内の 1 番目のデバイス 1 のデバイスアドレス w500104f0008120fe を書き留め、デバイスが rmt/1 にあるホストに現在接続されていることを確認します。

    [sharefs-mds] vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    -----------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
    

    /etc/devlink.tab に、rmt/60 をライブラリ内の番号 1 のドライブ w500104f0008120fe に再マッピングする 1 行を作成します。

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    :w
    
  5. メタデータサーバー上のデバイスツリー内のドライブ順序とライブラリへのインストール順序が一致するように、Oracle HSM アーカイブ用に割り当てられているテープデバイスごとに、/etc/devlink.tab ファイルへの行の追加を繰り返します。ファイルを保存して、エディタを閉じます。

    この例では、残りの 3 つのデバイス (w500104f00093c438 にあるライブラリドライブ 2w500104f000c086e1 にあるライブラリドライブ 3w500104f000c086e1 にあるライブラリドライブ 4) の順序とアドレスを書き留めます。

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    ...
       2    /dev/rmt/0cbn -> ../../devices/pci@8\.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8\.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8\.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8\.../st@w500104f000b6d98d,0:cbn
    

    次に、デバイスのアドレスを次の 3 つの Solaris デバイスノードにマッピングして、ライブラリ内と同じ順序を保持します。

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  6. /dev/rmt 内のテープデバイスへの既存のリンクをすべて削除します。

    [sharefs-mds]root@solaris:~# rm /dev/rmt/* 
    
  7. /etc/devlink.tab ファイル内のエントリから、新しい永続的なテープデバイスのリンクを作成します。コマンド devfsadm -c tape を使用します。

    devfsadm コマンドを実行するたびに、/etc/devlink.tab ファイルで指定された構成を使用して、そのファイルに指定されたデバイス用に新しいテープデバイスのリンクが作成されます。-c tape オプションを指定すると、テープクラスデバイス用の新しいリンクのみが作成されるようにコマンドが制限されます。

    [sharefs-mds]root@solaris:~# devfsadm -c tape
    
  8. 潜在的なメタデータサーバーおよび共有ファイルシステム構成のデータムーバーで操作を繰り返します。いずれの場合も、/etc/devlink.tab ファイルに同じ行を追加し、/dev/rmt 内のリンクを削除し、devfsadm -c tape を実行します。

    この例では、ssh を使用して各ホストに順にログインし、同じ 4 つの論理デバイス rmt/60\M0rmt/61\M0rmt/62\M0、および rmt/63\M0 を構成します。

    [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* 
    [sharefs-mds_alt]root@solaris:~# devfsadm -c tape
    [sharefs-mds_alt]root@solaris:~# exit
    sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-client1]root@solaris:~# rm /dev/rmt/*
    [sharefs-client1]root@solaris:~# devfsadm -c tape
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  9. 分散テープ入出力用のデータムーバークライアントの構成または追加ファイルシステムクライアントの構成に戻ります。

リムーバブルメディアデバイスへの新しいファイルシステムホストの永続的なバインド
  1. ホストに root としてログインします。

    [sharefs-mds]root@solaris:~# 
    
  2. 既存のファイルシステムホストが構成されたために、メディアライブラリ内のデバイスの物理的な順序が変更された場合は、ドライブをライブラリに取り付ける順序の判別で説明するように、新しいマッピングファイルを作成します。

    この例では、device-mappings.txt ファイルは次のように表示されます。

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    -----------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
    
  3. テキストエディタで /etc/devlink.tab ファイルを開きます。

    この例では、vi エディタを使用します。

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    # This is the table used by devlinks
    # Each entry should have 2 fields; but may have 3.  Fields are separated
    # by single tab ('\t') characters.
    ...
    
  4. ガイドとして device-mappings.txt ファイルを使用して、Solaris テープドライブツリー内の開始ノード rmt/node-number をライブラリ内の 1 番目のドライブに再マッピングします。/etc/devlink.tab ファイルに行を、type=ddi_byte:tape; addr=device_address,0; rmt/node-number\M0 の形式で入力します。ここでは: device_address はデバイスの物理アドレス、node-number は Solaris デバイスツリー内のデバイスの位置です。Solaris で自動的に構成されるデバイスとの競合を回避するために、十分に大きいノード番号を選択してください (Solaris ではノード 0 から始まります)。

    この例では、ライブラリ内の 1 番目のデバイス 1 のデバイスアドレス w500104f0008120fe を書き留め、デバイスが rmt/1 にあるホストに現在接続されていることを確認します。

    [sharefs-mds] vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    -----------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
    

    /etc/devlink.tab に、rmt/60 をライブラリ内の番号 1 のドライブ w500104f0008120fe に再マッピングする 1 行を作成します。

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    :w
    
  5. メタデータサーバー上のデバイスツリー内のドライブ順序とライブラリへのインストール順序が一致するように、Oracle HSM アーカイブ用に割り当てられているテープデバイスごとに、/etc/devlink.tab ファイルへの行の追加を繰り返します。ファイルを保存します。

    この例では、残りの 3 つのデバイス (w500104f00093c438 にあるライブラリドライブ 2w500104f000c086e1 にあるライブラリドライブ 3w500104f000c086e1 にあるライブラリドライブ 4) の順序とアドレスを書き留めます。

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    ...
       2    /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
    

    次に、デバイスのアドレスを次の 3 つの Solaris デバイスノードにマッピングして、ライブラリ内と同じ順序を保持します。

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  6. /dev/rmt 内のテープデバイスへの既存のリンクをすべて削除します。

    [sharefs-mds]root@solaris:~# rm /dev/rmt/* 
    
  7. /etc/devlink.tab ファイル内のエントリから、新しい永続的なテープデバイスのリンクを作成します。コマンド devfsadm -c tape を使用します。

    devfsadm コマンドを実行するたびに、/etc/devlink.tab ファイルで指定された構成を使用して、そのファイルに指定されたデバイス用に新しいテープデバイスのリンクが作成されます。-c tape オプションを指定すると、テープクラスデバイス用の新しいリンクのみが作成されるようにコマンドが制限されます。

    [sharefs-mds]root@solaris:~# devfsadm -c tape
    
  8. 潜在的なメタデータサーバーおよび共有ファイルシステム構成内のデータムーバ-のそれぞれで、/etc/devlink.tab ファイルに同じ行を追加し、/dev/rmt 内のリンクを削除し、devfsadm -c tape を実行します。

    この例では、ssh を使用して潜在的なメタデータサーバーホスト sharefs-mds_alt およびクライアントホスト sharefs-client1 にログインします。次に、それぞれについて同じ 4 つの論理デバイス rmt/60\M0rmt/61\M0rmt/62\M0、および rmt/63\M0 を構成します。

    [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* 
    [sharefs-mds_alt]root@solaris:~# devfsadm -c tape
    [sharefs-mds_alt]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh root@sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-client1]root@solaris:~# rm /dev/rmt/* 
    [sharefs-client1]root@solaris:~# devfsadm -c tape
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  9. 分散テープ入出力用のデータムーバークライアントの構成または追加ファイルシステムクライアントの構成に戻ります。

アクティブなメタデータサーバーから潜在的なメタデータサーバーへの切り替え

このセクションの手順を実行すると、ファイルシステム用のメタデータサービスが現在のホスト (アクティブなメタデータサーバー) からスタンバイホスト (潜在的なメタデータサーバー) に移動します。使用する手順は、交換するサーバーホストの状態によって異なります。

障害のあるアクティブなメタデータサーバーを交換するための潜在的なメタデータサーバーのアクティブ化

この手順を実行すると、機能を停止したアクティブなメタデータサーバーホスト外にメタデータサービスを移動できます。ファイルシステムがマウントされている場合でも、潜在的なメタデータサーバーはアクティブになります。次のように進めます。

注意:

障害のあるメタデータサーバーを停止、無効化、または切断するまで、潜在的なメタデータサーバーをアクティブにしないでください。

ファイルシステムがマウントされていて、アクティブなメタデータサーバーが停止しているときに、潜在的なサーバーをアクティブにするには、-R オプションを付けて samsharefs コマンドを起動する必要があります。これにより、コマンドがファイルシステムインタフェース上ではなく、raw デバイス上で実行されます。そのため、障害のあるサーバーがデバイスに接続されているときに、潜在的なメタデータサーバーをアクティブにすると、障害のあるサーバーによってファイルシステムが壊れる可能性があります。

  1. アクティブなメタデータサーバーに障害がある場合は、何らかの操作を行う前に、メタデータデバイスにアクセスできないことを確認します。影響を受けるホストの電源をオフにして、ホストを停止するか、またはメターデータデバイスから障害のあるホストを切断します。

  2. すべてのクライアントの読み取り、書き込み、および追加のリース期限が切れるように、少なくとも最大のリースタイムが経過するまで待機します。

  3. 潜在的なメタデータサーバーに root としてログインします。

    この例では、潜在的なメタデータサーバー sharefs-mds_alt にログインします。

    [sharefs-mds_alt]root@solaris:~# 
    
  4. 潜在的なメタデータサーバーをアクティブにします。潜在的なメタデータサーバーから、コマンド samsharefs -R -s server file-system を発行します。ここで server は潜在的なメタデータサーバーのホスト名、file-system は Oracle HSM 共有ファイルシステムの名前です。

    この例では、潜在的なメタデータサーバーは sharefs-mds_alt、ファイルシステム名は sharefs です。

    [sharefs-mds_alt]root@solaris:~# samsharefs -R -s sharefs-mds_alt sharefs
    
  5. ファイルシステムの整合性を確認し、発生する可能性のある問題を修復する必要がある場合は、ここで手順共有ファイルシステムのアンマウントを使用してファイルシステムをアンマウントします。

  6. ファイルシステムをアンマウントした場合は、ファイルシステムの確認を実行します。コマンド samfsck -F file-system を使用します。ここで -F を指定するとエラーが修復され、file-system はファイルシステムの名前です。

    この例では、ファイルシステム名が sharefs であることを確認してから、修復します。

    [sharefs-mds_alt]root@solaris:~# samfsck -F sharefs
    
  7. ここで停止します。

正常でアクティブなメタデータサーバーを交換するための潜在的なメタデータサーバーのアクティブ化

必要に応じて、メタデータサービスを正常でアクティブなメタデータサーバーホストから、新たにアクティブにした潜在的なメタデータサーバーに移動できます。たとえば、元のサーバーホストやそのコンポーネントの一部をアップグレードまたは交換するときに、ファイルシステムの可用性を保持するために、メタデータサービスを代替のホストに転送することがあります。次のように進めます。

  1. アクティブなメタデータサーバーと潜在的なメタデータサーバーの両方に root としてログインします。

    この例では、アクティブなメタデータサーバー sharefs-mds にログインします。次に、2 つ目の端末ウィンドウでセキュアシェル (ssh) を使用して、潜在的なメタデータサーバー sharefs-mds_alt にログインします。

    [sharefs-mds]root@solaris:~# 
    
    [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
    Password:
    [sharefs-mds-alt]root@solaris:~# 
    
  2. アクティブなメタデータサーバー上で Oracle HSM アーカイブファイルシステムがマウントされている場合は、アクティブなアーカイブおよびステージングジョブを終了し、新しいアクティビティーを停止してから続行してください。アーカイブおよびステージングプロセスのアイドル状態を参照してください。

  3. アクティブなメタデータサーバー上で Oracle HSM アーカイブファイルシステムがマウントされている場合は、リムーバルメディアドライブをアイドル状態にして、ライブラリ制御デーモンを停止します。アーカイブおよびステージングプロセスの停止を参照してください。

  4. crontab エントリを使用してリサイクラプロセスを実行する場合は、そのエントリを削除して、リサイクラが現在実行されていないことを確認します。

  5. 潜在的なメタデータサーバーをアクティブにします。潜在的なメタデータサーバーから、コマンド samsharefs -s server file-system を発行します。ここで server は潜在的なメタデータサーバーのホスト名、file-system は Oracle HSM 共有ファイルシステムの名前です。

    この例では、潜在的なメタデータサーバーは sharefs-mds_alt、ファイルシステム名は sharefs です。

    [sharefs-mds_alt]root@solaris:~# samsharefs -s sharefs-mds_alt sharefs
    
  6. 構成ファイルをロードして、潜在的なメタデータサーバー上で Oracle HSM プロセスを起動します。コマンド samd config を使用します。

    アーカイブ共有ファイルシステムで、samd config コマンドを使用すると、アーカイブプロセスおよびライブラリ制御デーモンが再起動されます。ただし、ファイルがテープからプライマリディスクキャッシュにステージングされるまで待機している共有ファイルシステムクライアントは、ステージング要求を再発行する必要があります。

  7. crontab エントリを使用してリサイクラプロセスを実行する必要がある場合は、そのエントリを復元します。

  8. ここで停止します。

非共有ファイルシステムから共有ファイルシステムへの変換

非共有ファイルシステムを共有ファイルシステムに変換するには、次のタスクを実行します。

アクティブおよび潜在的なメタデータサーバーでのホストファイルの作成

各メタデータサーバー上で、共有ファイルシステムのサーバーおよびクライアントに関するネットワークアドレス情報を一覧表示する hosts ファイルを作成する必要があります。hosts ファイルは、/etc/opt/SUNWsamfs/ ディレクトリに mcf ファイルとともに格納されています。共有ファイルシステムの初期作成中に、sammkfs -S コマンドを実行すると、このファイルに格納されている設定を使用して共有が構成されます。ここで、次の手順を使用して作成します。

  1. クライアントとしてファイルシステムを共有するホストのネットワークホスト名と IP アドレスを収集します。

    次の例では、hsmfs1 ファイルシステムをクライアント hsmfs1-mds_alt (潜在的なメタデータサーバー)、hsmfs1-client1、および hsmfs1-client2 と共有します。

  2. メタデータサーバーに root としてログインします。

    この例では、ホスト hsmfs1-mds にログインします。

    [hsmfs1-mds]root@solaris:~# 
    
  3. テキストエディタを使用して、メタデータサーバー上で /etc/opt/SUNWsamfs/hosts.family-set-name を作成します。family-set-name は、共有する予定のファイルシステムのファミリセット名で置き換えます。

    この例では、vi テキストエディタを使用してファイル hosts.hsmfs1 を作成します。いくつかのオプションの見出しを追加します。各行は、コメントを示すシャープ記号 (#) で始めます。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    
  4. 1 列目にメタデータサーバーのホスト名を入力し、2 列目に対応する IP アドレスまたはドメイン名を入力します。列は空白文字で区切ります。

    この例では、メタデータサーバーのホスト名および IP アドレスをそれぞれ hsmfs1-mds10.79.213.117 と入力します。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.117
    
  5. 3 列目を、空白文字でネットワークアドレスと区切って追加します。この列には、サーバーの装置番号 (アクティブなメタデータサーバーの場合は 1、1 台目の潜在的なメタデータサーバーの場合は 2 など) を入力します。

    この例では、メタデータサーバーは 1 つだけであるため、1 を入力します。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.117           1       
    
  6. 4 列目を、空白文字でサーバーの順序番号と区切って追加します。この列には、0 (ゼロ) を入力します。

    4 列目の 0- (ハイフン)、または空白値は、ホストが「on」 (共有ファイルシステムへのアクセスありで構成) であることを示します。1 (数字の 1) は、ホストが「off」(ファイルシステムへのアクセスなしで構成) であることを示します (共有ファイルシステムを管理する際のこれらの値の使用については、samhsmfs1 のマニュアルページを参照)。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds          10.79.213.117            1        0    
    
  7. 5 列目を、空白文字で on/off ステータス列と区切って追加します。この列には、現在アクティブなメタデータサーバーを示すキーワード「server」を入力します。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.117           1        0    server 
    
  8. 潜在的なメタデータサーバーとして 1 つ以上のホストを追加する予定である場合は、それぞれのエントリを作成します。そのたびに、サーバー番号を増分します。ただし、「server」キーワードは含めないでください (アクティブなメタデータサーバーは、ファイルシステムごとに 1 つのみです)。

    この例では、ホスト hsmfs1-mds_alt は、サーバー番号が 2 の潜在的なメタデータサーバーです。メタデータサーバーとしてアクティブにしないかぎり、クライアントとなります。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.117           1        0    server 
    hsmfs1-mds_alt       10.79.213.217           2        0   
    
  9. クライアントホストごとに 1 行追加して、それぞれのサーバー番号の値を 0 に指定します。

    サーバー番号 0 は、クライアントとしてのホストを示します。この例では、2 つのクライアント (hsmfs1-client1hsmfs1-client2) を追加します。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.17            1        0    server 
    hsmfs1-mds_alt       10.79.213.7             2        0   
    hsmfs1-client1       10.79.213.33            0        0
    hsmfs1-client2       10.79.213.47            0        0
    
  10. /etc/opt/SUNWsamfs/hosts.family-set-name ファイルを保存して、エディタを終了します。

    この例では、/etc/opt/SUNWsamfs/hosts.hsmfs1 への変更を保存して、vi エディタを終了します。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
    # /etc/opt/SUNWsamfs/hosts.hsmfs1
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    hsmfs1-mds           10.79.213.117           1        0    server 
    hsmfs1-mds           10.79.213.117           1        0    server 
    hsmfs1-mds_alt       10.79.213.217           2        0
    hsmfs1-client1       10.79.213.133           0        0
    hsmfs1-client2       10.79.213.147           0        0
    :wq
    [hsmfs1-mds]root@solaris:~# 
    
  11. 共有ファイルシステムの構成に含まれる任意の潜在的なメタデータサーバー上に、新しい /etc/opt/SUNWsamfs/hosts.family-set-name ファイルのコピーを配置します。

    この例では、ホスト hsmfs1-mds_alt 上にコピーを配置します。

    [hsmfs1-mds]root@solaris:~# sftp root@hsmfs1-mds_alt
    Password:
    sftp> cd /etc/opt/SUNWsamfs/
    sftp> put /etc/opt/SUNWsamfs/hosts.hsmfs1
    sftp> bye
    [hsmfs1-mds]root@solaris:~# 
    
  12. ここで、非共有ファイルシステムの共有とクライアントの構成を実行します。

非共有ファイルシステムの共有とクライアントの構成

  1. メタデータサーバーに root としてログインします。

    この例では、ホスト hsmfs1-mds にログインします。

    [hsmfs1-mds]root@solaris:~# 
    
  2. システムファイルおよび構成ファイルの最新のバックアップコピーがない場合は、ここでバックアップを作成します。Oracle HSM 構成のバックアップを参照してください。

  3. 最新のファイルシステムの回復ポイントファイルおよびアーカイブログの最新コピーがない場合も、ここで作成します。ファイルシステムのバックアップを参照してください。

    初期構成時にファイルシステムの自動バックアッププロセスを設定する場合は、追加のバックアップが必要ないこともあります。

  4. アーカイブファイルシステムを変換する場合は、アクティブなアーカイブおよびステージングジョブを終了し、新しいアクティビティーを停止してから続行してください。アーカイブおよびステージングプロセスのアイドル状態および アーカイブおよびステージングプロセスの停止を参照してください。

  5. ファイルシステムをマウント解除します。コマンド umount family-set-name を使用します。ここで family-set-name は、共有する予定のファイルシステムのファミリセット名です。

    Oracle HSM ファイルシステムのマウントおよびアンマウントの詳細については、mount_samfs のマニュアルページを参照してください。この例では、hsmfs1 ファイルシステムをアンマウントします。

    [hsmfs1-mds]root@solaris:~# umount hsmfs1
    [hsmfs1-mds]root@solaris:~# 
    
  6. ファイルシステムを Oracle HSM 共有ファイルシステムに変換します。コマンド samfsck -S -F file-system-name を使用します。ここで file-system-name はファイルシステムのファミリセット名です。

    この例では、hsmfs1 というファイルシステムを変換します。

    [hsmfs1-mds]root@solaris:~# samfsck -S -F hsmfs1
    
  7. テキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、該当するファイルシステムの行を探します。

    この例では、vi エディタを使用します。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family   Device   Additional
    # Identifier         Ordinal    Type       Set      State    Parameters
    #------------------  ---------  ---------  -------  ------   -----------------
    hsmfs1              200        ma         hsmfs1  on
     /dev/dsk/c0t0d0s0    201        mm         hsmfs1  on
     /dev/dsk/c0t3d0s0    202        md         hsmfs1  on
     /dev/dsk/c0t3d0s1    203        md         hsmfs1  on
    
  8. mcf ファイルで、ファイルシステムエントリの最終列にある「Additional Parameters」フィールドに、shared パラメータを追加します。その後、ファイルを保存してエディタを閉じます。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family   Device   Additional
    # Identifier         Ordinal    Type       Set      State    Parameters
    #------------------  ---------  ---------  -------  ------   -----------------
    hsmfs1              200        ma         hsmfs1  on       shared
     /dev/dsk/c0t0d0s0    201        mm         hsmfs1  on
     /dev/dsk/c0t3d0s0    202        md         hsmfs1  on
     /dev/dsk/c0t3d0s1    203        md         hsmfs1  on
    :wq
    [hsmfs1-mds]root@solaris:~# 
    
  9. テキストエディタで /etc/vfstab ファイルを開き、該当するファイルシステムの行を探します。

    この例では、vi エディタを使用します。

    [hsmfs1-mds]root@solaris:~# vi /etc/vfstab 
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    hsmfs1    -        /hsm/hsmfs1  samfs   -     yes
    
  10. /etc/vfstab ファイルで、ファイルシステムエントリの最終列にある「Mount Options」フィールドに、shared マウントオプションを追加します。その後、ファイルを保存してエディタを閉じます。

    [hsmfs1-mds]root@solaris:~# vi /etc/vfstab 
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    hsmfs1    -        /hsm/hsmfs1  samfs   -     yes      shared      
    :wq
    [hsmfs1-mds]root@solaris:~# 
    
  11. 共有ファイルシステムおよびホスト構成を初期化します。コマンド samsharefs -u -R family-set-name を使用します。ここで family-set-name はファイルシステムのファミリセット名です。

    [hsmfs1-mds]root@solaris:~# samsharefs -u -R hsmfs1
    
  12. mcf ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM software に指示します。

    [hsmfs1-mds]root@solaris:~# samd config
    
  13. メタデータサーバー上で共有ファイルシステムをマウントします。

    [hsmfs1-mds]root@solaris:~# mount /hsm/hsmfs1
    
  14. 複数のネットワークインタフェースを持つホストを構成する場合は、ローカル hosts ファイルを使用したホストネットワーク通信のルーティングを参照してください。

  15. 追加ファイルシステムクライアントの構成で概要を示した手順を使用して、新たに共有したファイルシステムに必要なクライアントを追加します。

ローカル hosts ファイルを使用したホストネットワーク通信のルーティング

個別のホストには、ローカル hosts ファイルは必要ありません。メタデータサーバー上にあるファイルシステムのグローバルファイルは、すべてのファイルシステムホストについて、アクティブなメタデータサーバーとアクティブおよび潜在的なメタデータサーバーのネットワークインタフェースを識別します (アクティブおよび潜在的なメタデータサーバーでのホストファイルの作成を参照)。ただし、複数のネットワークインタフェースを持つファイルシステムホスト間で、ネットワークトラフィックを選択的にルーティングする必要がある場合は、ローカル hosts ファイルが役立ちます。

各ファイルシステムホストは、メタデータサーバー上の /etc/opt/SUNWsamfs/hosts.family-set-name ファイルを最初に確認することで、その他のホストのネットワークインタフェースを識別します。ここで family-set-name は、/etc/opt/SUNWsamfs/mcf ファイル内で指定されたファイルシステムのファミリ名です。次に、個別の /etc/opt/SUNWsamfs/hosts.family-set-name.local ファイルを確認します。ローカル hosts ファイルが存在しない場合、ホストはグローバル hosts ファイルに指定されたインタフェースアドレスをグローバルファイルに指定された順序で使用します。ただし、ローカル hosts ファイルが存在する場合、ホストはグローバルファイルと比較して、両方のファイルに一覧表示されたインタフェースのみをローカルファイルに指定された順序で使用します。各ファイルでさまざまなアドレスを使用すると、さまざまなホストで使用されているインタフェースを制御できます。

ローカル hosts ファイルを構成するには、次に概要を示す手順を使用します。

  1. アクティブおよび潜在的なメタデータサーバーでのホストファイルの作成で説明するように、メタデータサーバーホスト上およびそれぞれの潜在的なメタデータサーバーホスト上で、グローバル hosts ファイル /etc/opt/SUNWsamfs/hosts.family-set-name のコピーを作成します。

    このセクションの例では、共有ファイルシステム sharefs2 に、アクティブなメタデータサーバー sharefs2-mds、および潜在的なメタデータサーバー sharefs2-mds_alt (それぞれが 2 つのネットワークインタフェースを持つ) が含まれています。また、2 つのクライアント (sharefs2-client1sharefs2-client2) も存在します。

    アクティブおよび潜在的なメタデータサーバーが、プライベートネットワークアドレスを使用して相互に通信し、DNS (Domain Name Service) でパブリック LAN (Local Area Network) 上のアドレスに解決できるホスト名を使用してクライアントと通信する必要があります。したがって、ファイルシステムのグローバル hosts ファイル /etc/opt/SUNWsamfs/hosts.sharefs2 には、アクティブおよび潜在的サーバーのエントリの「Network Interface」フィールド内のプライベートネットワークアドレス、および各クライアントのインタフェースアドレス用のホスト名が指定されています。このファイルは、次のようになっています。

    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs2-mds          172.16.0.129            1        0    server 
    sharefs2-mds_alt      172.16.0.130            2        0   
    sharefs2-client1      sharefs2-client1        0        0
    sharefs2-client2      sharefs2-client2        0        0
    
  2. パスとファイル名 /etc/opt/SUNWsamfs/hosts.family-set-name.local を使用して、それぞれのアクティブおよび潜在的なメタデータサーバー上でローカル hosts ファイルを作成します。ここで family-set-name は、/etc/opt/SUNWsamfs/mcf ファイルで共有ファイルシステムに対して指定された名前です。アクティブおよび潜在的なサーバーで使用するネットワーク用のインタフェースのみを含めてください

    この例では、アクティブおよび潜在的なメタデータサーバーがプライベートネットワークを介して相互に通信するようにするため、各サーバー上のローカル hosts ファイル hosts.sharefs2.local には、アクティブおよび潜在的なサーバーのプライベートアドレスのみが一覧表示されています。

    [sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs2-mds          172.16.0.129            1        0    server 
    sharefs2-mds_alt      172.16.0.130            2        0  
    :wq
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt
    Password:
    
    [sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs2-mds          172.16.0.129            1        0    server 
    sharefs2-mds_alt      172.16.0.130            2        0   
    :wq
    [sharefs2-mds_alt]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  3. パスとファイル名 /etc/opt/SUNWsamfs/hosts.family-set-name.local を使用して、それぞれのクライアント上でローカル hosts ファイルを作成します。ここで family-set-name は、/etc/opt/SUNWsamfs/mcf ファイルで共有ファイルシステムに対して指定された名前です。クライアントで使用するネットワーク用のインタフェースのみを含めてください

    この例では、クライアントはパブリックネットワーク経由でのみサーバーと通信する必要があります。したがって、アクティブおよび潜在的なメタデータサーバーのホスト名のみがファイルに含まれています。

    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1
    Password:
    [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs2-mds          sharefs2-mds            1        0    server 
    sharefs2-mds_alt      sharefs2-mds_alt        2        0   
    :wq
    [sharefs2-client1]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2
    Password:
    
    [sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs2-mds          sharefs2-mds            1        0    server
    sharefs2-mds_alt      sharefs2-mds_alt        2        0   
    :wq
    [sharefs2-client2]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  4. サーバーの構成が完了したときに、この手順を開始した場合は、クライアントを追加します。追加ファイルシステムクライアントの構成を参照してください。

共有ファイルシステムから非共有ファイルシステムへの変換

ファイルシステムの共有を解除する必要がある場合は、次のように進めます。

共有メタデータサーバーの非共有システムへの変換

  1. メタデータサーバーに root としてログインします。

    この例では、ホスト hsmfs1-mds にログインします。

    [hsmfs1-mds]root@solaris:~# 
    
  2. 手順ファイルシステムの hosts ファイルからのホストの削除を使用して、メタデータサーバーの構成からクライアントを削除します。

  3. システムファイルおよび構成ファイルの最新のバックアップコピーがない場合は、ここでバックアップを作成します。Oracle HSM 構成のバックアップを参照してください。

  4. 最新のファイルシステムの回復ポイントファイルおよびアーカイブログの最新コピーがない場合も、ここで作成します。ファイルシステムのバックアップを参照してください。

    初期構成時にファイルシステムの自動バックアッププロセスを設定する場合は、追加のバックアップが必要ないこともあります。

  5. アーカイブファイルシステムを変換する場合は、アクティブなアーカイブおよびステージングジョブを終了し、新しいアクティビティーを停止してから続行してください。アーカイブおよびステージングプロセスのアイドル状態および アーカイブおよびステージングプロセスの停止を参照してください。

  6. ファイルシステムをマウント解除します。コマンド umount family-set-name を使用します。ここで family-set-name は、/etc/opt/SUNWsamfs/mcf ファイル内で共有ファイルシステムに対して指定された名前です。

    Oracle HSM ファイルシステムのマウントおよびアンマウントの詳細については、mount_samfs のマニュアルページを参照してください。この例では、hsmfs1 ファイルシステムをアンマウントします。

    [hsmfs1-mds]root@solaris:~# umount hsmfs1
    
  7. Oracle HSM 共有ファイルシステムを非共有ファイルシステムに変換します。コマンド samfsck -F -U file-system-name を使用します。ここで file-system-name は、/etc/opt/SUNWsamfs/mcf ファイル内で共有ファイルシステムに対して指定された名前です。

    この例では、hsmfs1 というファイルシステムを変換します。

    [hsmfs1-mds]root@solaris:~# samfsck -F -U hsmfs1
    
  8. テキストエディタで /etc/opt/SUNWsamfs/mcf ファイルを開き、該当するファイルシステムの行を探します。

    この例では、vi エディタを使用します。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family   Device   Additional
    # Identifier         Ordinal    Type       Set      State    Parameters
    #------------------  ---------  ---------  -------  ------   -----------------
    hsmfs1              200        ma         hsmfs1  on       shared
     /dev/dsk/c0t0d0s0    201        mm         hsmfs1  on
     /dev/dsk/c0t3d0s0    202        md         hsmfs1  on
     /dev/dsk/c0t3d0s1    203        md         hsmfs1  on
    
  9. mcf ファイルで、ファイルシステムエントリの最終列にある「Additional Parameters」フィールドから、shared パラメータを削除します。その後、ファイルを保存してエディタを閉じます。

    [hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family   Device   Additional
    # Identifier         Ordinal    Type       Set      State    Parameters
    #------------------  ---------  ---------  -------  ------   -----------------
    hsmfs1              200        ma         hsmfs1  on       
     /dev/dsk/c0t0d0s0    201        mm         hsmfs1  on
     /dev/dsk/c0t3d0s0    202        md         hsmfs1  on
     /dev/dsk/c0t3d0s1    203        md         hsmfs1  on
    :wq
    [hsmfs1-mds]root@solaris:~# 
    
  10. テキストエディタで /etc/vfstab ファイルを開き、該当するファイルシステムの行を探します。

    この例では、vi エディタを使用します。

    [hsmfs1-mds]root@solaris:~# vi /etc/vfstab 
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    hsmfs1    -        /hsm/hsmfs1  samfs   -     yes      shared
    
  11. /etc/vfstab ファイルで、ファイルシステムエントリの最終列にある「Mount Options」フィールドから、shared マウントオプションを削除します。その後、ファイルを保存してエディタを閉じます。

    この例では、vi エディタを使用します。

    [hsmfs1-mds]root@solaris:~# vi /etc/vfstab 
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    hsmfs1    -        /hsm/hsmfs1  samfs   -     yes
    :wq
    [hsmfs1-mds]root@solaris:~# 
    
  12. ファイル /etc/opt/SUNWsamfs/hosts.file-system-name を削除します。

  13. mcf ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM software に指示します。

    [hsmfs1-mds]root@solaris:~# samd config
    
  14. ファイルシステムをマウントします。

    [hsmfs1]root@solaris:~# mount /hsm/hsmfs1
    
  15. ここで停止します。