この章では、ファイルシステムの保守および再構成タスクについて説明します。最初のセクションOracle HSM ファイルシステムの管理では、すべての Oracle HSM ファイルシステム (アーカイブと非アーカイブ、共有と非共有 (スタンドアロン)) の保守を扱います。2 つ目のセクションOracle HSM 共有ファイルシステムの管理では、共有ファイルシステムに影響を与える特殊な考慮事項を扱います。
このセクションでは、次のタスクの概要について説明します。
特定のユーザーまたはユーザーの集合がファイルシステム内で消費できるオンラインの合計ストレージ領域を制御するように、ファイルシステム割り当てを設定します。ユーザー ID、グループ ID、または特定のプロジェクトへの参加などの共通する特性別にユーザーをグループ化する、管理者が定義した管理セット ID 別に割り当てを設定できます。管理セット ID は、プロジェクトに複数のグループのユーザーが含まれる場合や、プロジェクトが複数のディレクトリおよびファイルにまたがる場合に特に便利です。
割り当てを有効にするには、quota
マウントオプション (デフォルト設定) を使用してファイルシステムをマウントし、割り当てを無効にするには、noquota
マウントオプションを使用してマウントします。割り当ては、ファイルシステムのルートディレクトリに 1 つ以上の割り当てファイルを置いて定義します。割り当てファイル .quota_u
、.quota_g
、および .quota_a
は、それぞれユーザー、グループ、および管理セットの割り当てを設定します。各ファイルの最初のレコード (レコード 0
) には、デフォルト値が設定されます。後続のレコードには、特定のユーザー、グループ、または管理セットに固有の値が設定されます。
割り当てによって、ストレージ領域だけでなく、使用可能なファイルシステム領域も割り当てられます。したがって、メディアに割り当てられた 512 バイトのブロック数と、ファイルシステムに割り当てられた i ノード数の両方に上限が設定されます。ブロック数で、ストレージ領域自体が測定されます。i ノード数で、そのストレージにアクセスできるリソースが測定されます。したがって、非常に多くのブロックのストレージ領域を使用していても i ノードは 1 つしか使用しない単一のファイルと、多数の i ノードを使用し、ブロックがなく空で長さゼロの非常に多くのファイルが使用するファイルシステム領域の量は同じです。
各割り当てには、弱い制限値と強い制限値の両方を含めることができます。強い制限値には、特定の所有者のすべてのファイルが一時的に使用できるファイルシステムリソースの最大数を定義します。弱い制限値には、所有者のファイルが無制限に使用できるファイルシステムリソースの最大数を定義します。割り当ての猶予時間で定義されているように、リソースの使用量は、ほんの短期間で弱い制限値と強い制限値の間の量にまで増加する可能性があります。
このセクションでは、次の管理タスクについて説明します。
持続的な割り当てを設定するには、ユーザーの要件に対応する制限値を、管理可能かつ拡張可能な方法で設定する必要があります。したがって、割り当てを設定する前に、ユーザーのストレージ要件を見積もります。プロセスを管理可能に保つには、最小限の管理労力で最大数の要件に対処できるように、ユーザーの要件をできるだけ幅広く分類することから始めます。その後、幅広いカテゴリに当てはまらない少数のユーザー要件を特別に評価できます。結果には、設定する割り当ての概要と制限値のタイプが示されます。
ほとんどの組織ではアクセス制御グループがすでに定義されているため、次に示すアプローチでは、これらのグループのファイルシステム要件を特定することから始めます。次に、要件が標準グループと一致しない特別なユーザーのセットを定義します。この時点ではじめて、個別のユーザーに固有の要件に対処し始めます。次のように進めます。
既存のアクセス制御グループが同様のリソース要件を持つユーザーをすでに収集しているため、ファイルシステムを使用するグループの平均的なストレージ要件を定義することから始めます。使用されるストレージ領域の平均量 (512 キロバイトブロック単位) と、格納されるファイルの平均数 (使用される i ノードの平均数と同等) の両方を見積もります。
通常、グループメンバーは同様の組織上の役割や業務上の責任を持っているため、同じディレクトリやファイルに頻繁にアクセスする必要があり、一般に、ストレージに対して同様の要求を行います。この例では、ファイルシステム /hsm/hsmfs1
を使用する 3 つのグループ dev
(製品開発)、cit
(会社情報技術)、pgmt
(プログラム管理) を特定します。次の簡単なスプレッドシートに、グループ、それぞれのメンバー数、個人およびグループの平均的な要件を一覧表示します。
グループ |
ユーザー | 1 ユーザーあたりの平均ブロック数 | 1 ユーザーあたりの平均ファイル数 | 1 グループあたりの平均ブロック数 | 1 グループあたりの平均ファイル数 |
---|---|---|---|---|---|
dev |
30 |
67108864 |
500 |
2013265920 |
15000 |
cit |
15 |
10485760 |
50 |
157286400 |
750 |
pmgt |
6 |
20971520 |
200 |
125829120 |
1200 |
合計ブロック数/ファイル数 (平均) |
次に、グループメンバーが常時格納するストレージ領域の最大量およびファイルの最大数について、同じ計算を実行します。結果を記録します。
この例では、新しいスプレッドシートに結果を記録します。
グループ |
ユーザー | 1 ユーザーあたりの最大ブロック数 | 1 ユーザーあたりの最大ファイル数 | 1 グループあたりの最大ブロック数 | 1 グループあたりの最大ファイル数 |
---|---|---|---|---|---|
dev |
30 |
100663296 |
1000 |
3019898880 |
30000 |
cit |
15 |
15728640 |
100 |
235929600 |
1500 |
pmgt |
6 |
31457280 |
400 |
188743680 |
2400 |
合計ブロック数/ファイル数 (最大) |
ここで、さまざまなグループに属するが、グループメンバーシップに基づいて対処できない個別のストレージ要件を共有するユーザーのセットを特定します。特定された組織ごとに、各アクセス制御グループに対して行なったときと同じ見積もりと同じ計算を実行します。
この例では、ストレージの割り当てが必要な 2 つの会社プロジェクト (コード名 portal
と lockbox
) を特定します。これらのプロジェクトでは、エンジニアリング、マーケティング、コンプライアンス、テスト、およびドキュメントの各グループメンバーが共同で作業し、同じディレクトリや多数の同じファイルを使用します。したがって、これらのプロジェクトを要件スプレッドシートに追加します。
グループ |
ユーザー | 1 ユーザーあたりの平均ブロック数 | 1 ユーザーあたりの平均ファイル数 | 1 グループあたりの平均ブロック数 | 1 グループあたりの平均ファイル数 |
---|---|---|---|---|---|
dev |
30 |
67108864 |
500 |
2013265920 |
15000 |
cit |
15 |
10485760 |
50 |
157286400 |
750 |
pmgt |
6 |
20971520 |
200 |
125829120 |
1200 |
portal |
10 |
31457280 |
400 |
314572800 |
4000 |
lockbox |
12 |
31457280 |
500 |
377487360 |
6000 |
合計ブロック数/ファイル数 (平均) |
グループ |
ユーザー | 1 ユーザーあたりの最大ブロック数 | 1 ユーザーあたりの最大ファイル数 | 1 グループあたりの最大ブロック数 | 1 グループあたりの最大ファイル数 |
---|---|---|---|---|---|
dev |
30 |
100663296 |
1000 |
3019898880 |
30000 |
cit |
15 |
15728640 |
100 |
235929600 |
1500 |
pmgt |
6 |
31457280 |
400 |
188743680 |
2400 |
portal |
10 |
37748736 |
700 |
377487360 |
7000 |
lockbox |
12 |
45613056 |
600 |
547356672 |
7200 |
合計ブロック数/ファイル数 (最大) |
ここで、まだ対処していない要件を持つ個別のユーザーを特定します。ユーザーごとに、各アクセス制御グループおよびグループ以外の組織に対して行なったときと同じ見積もりと同じ計算を実行します。
可能な場合は、ユーザー要件にまとめて対処します。これにより、ポリシーが統一され、管理のオーバーヘッドが最小限になります。ただし、個別の要件が固有のものである場合は、個別に対処する必要があります。この例では、特殊なストレージ割り当てが必要となる特殊な責任を持つユーザーとして、pgmt
グループの jr23547
を確認します。したがって、このユーザーを要件スプレッドシートに追加します。
グループ |
1 セットあたりのユーザー数 | 1 ユーザーあたりの平均ブロック数 | 1 ユーザーあたりの平均ファイル数 | 平均ブロック数 |
平均ファイル数 |
---|---|---|---|---|---|
dev |
30 |
67108864 |
500 |
2013265920 |
15000 |
cit |
15 |
10485760 |
50 |
157286400 |
750 |
pmgt |
6 |
20971520 |
200 |
125829120 |
1200 |
portal |
10 |
31457280 |
400 |
314572800 |
4000 |
lockbox |
12 |
31457280 |
500 |
377487360 |
6000 |
jr23547 |
1 |
10485760 |
600 |
10485760 |
600 |
合計ブロック数/ファイル数 (平均) |
グループ |
ユーザー | 1 ユーザーあたりの最大ブロック数 | 1 ユーザーあたりの最大ファイル数 | 1 グループあたりの最大ブロック数 | 1 グループあたりの最大ファイル数 |
---|---|---|---|---|---|
dev |
30 |
100663296 |
1000 |
3019898880 |
30000 |
cit |
15 |
15728640 |
100 |
235929600 |
1500 |
pmgt |
6 |
31457280 |
400 |
188743680 |
2400 |
portal |
10 |
37748736 |
700 |
377487360 |
7000 |
lockbox |
12 |
45613056 |
600 |
547356672 |
7200 |
jr23547 |
1 |
100663296 |
2000 |
100663296 |
2000 |
合計ブロック数/ファイル数 (最大) |
最後に、すべてのユーザーが必要とする平均および最大のブロック数とファイル数を計算します。
グループ |
ユーザー | 1 ユーザーあたりの平均ブロック数 | 1 ユーザーあたりの平均ファイル数 | 1 グループあたりの平均ブロック数 | 1 グループあたりの平均ファイル数 |
---|---|---|---|---|---|
dev |
30 |
67108864 |
500 |
2013265920 |
15000 |
cit |
15 |
10485760 |
50 |
157286400 |
750 |
pmgt |
6 |
20971520 |
200 |
125829120 |
1200 |
portal |
10 |
31457280 |
400 |
314572800 |
4000 |
lockbox |
12 |
31457280 |
500 |
377487360 |
6000 |
jr23547 |
1 |
10485760 |
600 |
10485760 |
600 |
合計ブロック数/ファイル数 (平均) |
2998927360 |
27550 |
グループ |
ユーザー | 1 ユーザーあたりの最大ブロック数 | 1 ユーザーあたりの最大ファイル数 | 1 グループあたりの最大ブロック数 | 1 グループあたりの最大ファイル数 |
---|---|---|---|---|---|
dev |
30 |
100663296 |
1000 |
3019898880 |
30000 |
cit |
15 |
15728640 |
100 |
235929600 |
1500 |
pmgt |
6 |
31457280 |
400 |
188743680 |
2400 |
portal |
10 |
37748736 |
700 |
377487360 |
7000 |
lockbox |
12 |
45613056 |
600 |
547356672 |
7200 |
jr23547 |
1 |
100663296 |
2000 |
100663296 |
2000 |
合計ブロック数/ファイル数 (平均) |
4470079488 |
50100 |
アクセス制御グループおよびユーザー ID 別に定義できないプロジェクトベースの割り当てやその他の割り当てを管理する必要がある場合は、複数のグループで使用されるプロジェクト用およびディレクトリ用の管理セットを作成します。
新たに作成した空のファイルシステム上で割り当てを設定する場合は、割り当てを使用するための新しいファイルシステムの構成に進みます。
すでにファイルを保持しているファイルシステム上で割り当てを設定する場合は、割り当てを使用するための既存ファイルシステムの構成に進みます。
管理セットとは、割り当ての目的で管理セット ID によって特定されるディレクトリ階層または個別のディレクトリやファイルです。実際にファイルを所有するユーザー ID やグループ ID とは関係なく、指定した管理セット ID を使用して作成されたファイル、または指定した管理セット ID を含むディレクトリに保存されたファイルは、すべて同じ割り当てを持っています。管理セットを定義するには、次のように進めます。
ファイルシステムサーバーに root
としてログインします。
この例では、サーバーの名前は server1
です。
[server1]root@solaris:~#
管理セットを使用して新しいプロジェクトまたはチーム用にストレージの割り当てを構成する場合は、このプロジェクトまたはチーム用のファイルシステム内の任意の場所に、新しいディレクトリを作成します。
この例では、/hsm/hsmfs1
ファイルシステムにディレクトリを作成し、同じ名前のプロジェクト用に portalproject/
という名前を付けます
[server1]root@solaris:~# mkdir /hsm/hsmfs1/portalproject
割り当てを設定する必要のあるディレクトリやファイルに、管理セット ID を割り当てます。コマンド samchaid
[
-fhR
]
admin-set-id
directory-or-file-name
を使用します。ここでは:
-f
は、強制的に割り当てを実行し、エラーを報告しません。
-h
は、管理セット ID をシンボリックリンクに割り当てます。このオプションを指定しないと、シンボリックリンクで参照されるファイルのグループが変更されます。
-R
は、管理セット ID をサブディレクトリおよびファイルに再帰的に割り当てます。
admin-set-id
は、一意の整数値です。
directory-or-file-name
は、管理セット ID を割り当てるディレクトリまたはファイルの名前です。
この例では、管理 ID 1
をディレクトリ /hsm/hsmfs1/portalproject/
およびそのサブディレクトリとファイルすべてに割り当てます。
[server1]root@solaris:~# samchaid -R 1 /hsm/hsmfs1/portalproject/
必要に応じて、割り当てを確認できます。command sls -D
directory-path
を使用します。ここで -D
を指定すると、directory-path
内のファイルとディレクトリに関する詳細な Oracle HSM ディレクトリ一覧が表示されます。
[server1]root@solaris:~# sls -D /hsm/hsmfs1/ /portalproject: mode: drwxr-xr-x links: 2 owner: root group: root length: 4096 admin id: 1 inode: 1047.1 project: user.root(1) access: Feb 24 12:49 modification: Feb 24 12:44 changed: Feb 24 12:49 attributes: Feb 24 12:44 creation: Feb 24 12:44 residence: Feb 24 12:44
新たに作成した空のファイルシステム上で割り当てを設定する場合は、割り当てを使用するための新しいファイルシステムの構成に進みます。
すでにファイルを保持しているファイルシステム上で割り当てを設定する場合は、割り当てを使用するための既存ファイルシステムの構成に進みます。
これから新しいファイルシステムを作成し、現在はファイルシステムにファイルが常駐していない場合は、この手順を使用します。
ファイルシステムサーバーに root
としてログインします。
この例では、サーバーは server2
という名前です。
[server2]root@solaris:~#
新しいファイルシステムが現在マウントされていない場合は、マウントしてから続行します。
グループ用の割り当てを設定する必要がある場合は、ファイルシステムのルートディレクトリにグループ割り当てファイルを作成します (.quota_g
)。Solaris コマンド dd
if=/dev/zero
of=
mountpoint
/.quota_g
bs=4096
count=
number-blocks
を使用します。ここでは:
if=/dev/zero
では、入力として UNIX 特殊ファイル /dev/zero
からの NULL 文字が指定されます。
of=
mountpoint
/.quota_g
には、出力ファイルを指定します。ここで mountpoint
はファイルシステム用のマウントポイントディレクトリです。
bs=4096
は、書き込み用のブロックサイズが 4096
バイトに設定されます。
count=
number-blocks
には、書き込まれるブロック数を指定します。この値は、ファイルが保持されるレコードの数によって異なります。指定された割り当てごとに、128 バイトのレコードが 1 つあるため、1 つのブロックに 32 個のレコードを格納できます。
この例では、/newsamfs
でマウントされたファイルシステム newsamfs
用のグループ割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で割り当てが必要な 3 つのグループ dev
、cit
、および pgmt
を特定しました。その他のグループ割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。
[server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_g bs=4096 count=1
管理セット用の割り当てを設定する必要がある場合は、ファイルシステムのルートディレクトリに管理セット割り当てファイルを作成します (.quota_a
)。Solaris コマンド dd
if=/dev/zero
of=
mountpoint
/.quota_a
bs=4096
を使用します。ここでは:
mountpoint
は、ファイルシステムのマウントポイントディレクトリです。
.quota_a
は、出力ファイルの名前です。
4096
はバイト単位の書き込み用のブロックサイズです。
number-blocks
は、書き込まれるブロック数です。
この例では、/newsamfs
でマウントされたファイルシステム newsamfs
用の管理セット割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で割り当てが必要な 2 つのプロジェクト portal
(管理セット ID 1
) と lockbox
(管理セット ID 2
) を特定しました。その他の管理セット割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。
[server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_a bs=4096 count=1
ユーザー用の割り当てを設定する必要がある場合は、ファイルシステムのルートディレクトリにユーザー割り当てファイル .quota_u
を作成します。Solaris コマンド dd
if=/dev/zero
of=
mountpoint
/.quota_u
bs=4096
count=
number-blocks
を使用します。ここでは:
mountpoint
は、ファイルシステムのマウントポイントディレクトリです。
.quota_u
は、出力ファイルの名前です。
4096
はバイト単位の書き込み用のブロックサイズです。
number-blocks
は、書き込まれるブロック数です。
この例では、/newsamfs
でマウントされたファイルシステム newsamfs
用のユーザー割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で特定の割り当てが必要な 1 つのユーザー jr23547
を特定しました。その他の個別のユーザー割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。
[server2]root@solaris:~# dd if=/dev/zero of=/newsamfs/.quota_u bs=4096 count=1
ファイルシステムをマウント解除します。
ファイルシステムを再マウントし、割り当てファイルを有効にする前に、ファイルシステムをアンマウントする必要があります。
[server2]root@solaris:~# umount /newsamfs
ファイルシステムチェックを実行します。
[server2]root@solaris:~# samfsck -F newsamfs
ファイルシステムを再マウントします。
割り当ては、ファイルシステムのルートディレクトリで 1 つ以上の割り当てファイルが検出されると有効になります。
デフォルトでファイルシステムは割り当てが有効な状態でマウントされるため、quota
マウントオプションを /etc/vfstab
または samfs.cmd
ファイルに含める必要はありません。
[server2]root@solaris:~# mount /newsamfs
次に、必要に応じて割り当てを設定または更新します。グループ、プロジェクト、ディレクトリ、およびユーザー用の割り当ての設定を参照してください。
この手順は、すでにファイルを保持しているファイルシステムに対して割り当てを作成する場合に使用します。
ファイルシステムサーバーに root
としてログインします。
この例では、サーバーの名前は server1
です。
[server1]root@solaris:~#
テキストエディタで /etc/vfstab
ファイルを開き、noquota
マウントオプションが設定されていないことを確認します。
この例では、vi
テキストエディタでファイルを開きます。noquota
マウントオプションが設定されています。
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - no noquota
noquota
マウントオプションが /etc/vfstab
ファイルに設定されている場合は、削除してからファイルを保存します。
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - no - :wq [server1]root@solaris:~#
テキストエディタで /etc/opt/SUNWsamfs/samfs.cmd
ファイルを開き、noquota
マウントオプションが設定されていないことを確認します。
この例では、vi
テキストエディタでファイルを開きます。noquota
マウントオプションは設定されていません。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/samfs.cmd # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. # #inodes = 0 #fs = hsmfs1 # forcedirectio (default no forcedirectio) # high = 80 # low = 70 # weight_size = 1. # weight_age = 1. # readahead = 128 ... # dio_wr_ill_min = 0 # dio_wr_consec = 3 # qwrite (ma filesystem, default no qwrite) # shared_writer (ma filesystem, default no shared_writer) # shared_reader (ma filesystem, default no shared_reader)
noquota
マウントオプションが /etc/opt/SUNWsamfs/samfs.cmd
ファイルに設定されている場合は、削除してからファイルを保存します。
noquota
マウントオプションを /etc/vfstab
ファイルまたは /etc/opt/SUNWsamfs/samfs.cmd
ファイル (あるいは両方) から削除する場合は、ファイルシステムをアンマウントします。
noquota
マウントオプションを削除する場合は、割り当てが有効になっている状態で再マウントできるように、ファイルシステムをアンマウントする必要があります。
[server1]root@solaris:~# umount /hsm/hsmfs1
ファイルシステムが現在マウントされていない場合は、ここでマウントします。
割り当てを有効にする前に、ファイルシステムをマウントする必要があります。
[server1]root@solaris:~# mount /hsm/hsmfs1
ファイルシステムのルートディレクトリに移動して、既存の割り当てファイルを確認します。Solaris コマンド ls
-a
を使用して、.quota_g
、.quota_a
、または .quota_u
ファイル (あるいはすべて) を検索します。
この例では、割り当てファイルは現在存在しません。
[server1]root@solaris:~# cd /hsm/hsmfs1 [server1]root@solaris:~# ls -a /hsm/hsmfs1 . .archive .fuid .stage portalproject .. .domain .inodes lost+found
割り当てファイルが存在する場合は、変更しないでください。
グループ用の割り当てを設定する必要があり、ファイルシステムのルートディレクトリにグループ割り当てファイル .quota_g
が存在していない場合は、ここでファイルを作成します。Solaris コマンド dd
if=
/dev/zero
of=
mountpoint
/.quota_g
bs=
4096
count=
number-blocks
を使用します。ここでは:
if=
/dev/zero
では、入力として UNIX 特殊ファイル /dev/zero
からの NULL 文字が指定されます。
of=
mountpoint
/.quota_g
には、出力ファイルを指定します。ここで mountpoint
はファイルシステム用のマウントポイントディレクトリです。
bs=
4096
は、書き込み用のブロックサイズが 4096
バイトに設定されます。
count=
number-blocks
には、書き込まれるブロック数を指定します。この値は、ファイルが保持されるレコードの数によって異なります。指定された割り当てごとに、128 バイトのレコードが 1 つあるため、1 つのブロックに 32 個のレコードを格納できます。
この例では、/hsm/hsmfs1
でマウントされたファイルシステム /hsm/hsmfs1
用のグループ割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で割り当てが必要な 3 つのグループ dev
、cit
、および pgmt
を特定しました。その他のグループ割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。
[server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_g bs=4096 count=1
管理セット用の割り当てを設定する必要があり、ファイルシステムのルートディレクトリに管理セット割り当てファイル .quota_a
が存在していない場合は、ここでファイルを作成します。Solaris コマンド dd
if=
/dev/zero
of=
mountpoint
/.quota_a
bs=
4096
count=
number-blocks
を使用します。ここでは:
mountpoint
は、ファイルシステムのマウントポイントディレクトリです。
.quota_a
は、出力ファイルの名前です。
4096
はバイト単位の書き込み用のブロックサイズです。
number-blocks
は、書き込まれるブロック数です。
この例では、/hsm/hsmfs1
でマウントされたファイルシステム /hsm/hsmfs1
用の管理セット割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で割り当てが必要な 2 つのプロジェクト portal
(管理セット ID 1
) と lockbox
(管理セット ID 2
) を特定しました。その他の管理セット割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。
[server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_a bs=4096 count=1
ユーザー用の割り当てを設定する必要があり、ファイルシステムのルートディレクトリにユーザー割り当てファイル .quota_u
が存在していない場合は、ここでファイルを作成します。Solaris コマンド dd
if=
/dev/zero
of=
mountpoint
/.quota_u
bs=
4096
count=
number-blocks
を使用します。ここでは:
mountpoint
は、ファイルシステムのマウントポイントディレクトリです。
.quota_u
は、出力ファイルの名前です。
4096
はバイト単位の書き込み用のブロックサイズです。
number-blocks
は、書き込まれるブロック数です。
この例では、/hsm/hsmfs1
でマウントされたファイルシステム /hsm/hsmfs1
用のユーザー割り当てファイルを作成します。要件の収集フェーズ中に、ファイルシステム上で特定の割り当てが必要な 1 つのユーザー jr23547
を特定しました。その他の個別のユーザー割り当てを追加する予定はないため、1 つのブロックでファイルサイズを計算します。
[server1]root@solaris:~# dd if=/dev/zero of=/hsm/hsmfs1/.quota_u bs=4096 count=1
ファイルシステムをマウント解除します。
ファイルシステムを再マウントし、割り当てファイルを有効にする前に、ファイルシステムをアンマウントする必要があります。
[server1]root@solaris:~# umount /hsm/hsmfs1
ファイルシステムチェックを実行します。
[server1]root@solaris:~# samfsck -F /hsm/hsmfs1
ファイルシステムを再マウントします。
割り当ては、ファイルシステムのルートディレクトリで 1 つ以上の割り当てファイルが検出されると有効になります。
デフォルトでファイルシステムは割り当てが有効な状態でマウントされるため、quota
マウントオプションを /etc/vfstab
または samfs.cmd
ファイルに含める必要はありません。
[server1]root@solaris:~# mount /hsm/hsmfs1
samquota
コマンドを使用して、新しい割り当てを設定し、既存の割り当てを調整します。次の手順に従います。
ストレージ要件を定義したら、グループ、ユーザー、およびグループ以外の組織ごとに適切な割り当てを決定します。次の要素を検討し、必要に応じて調整します。
すべてのユーザーが必要とする平均および最大のブロック数と比較したファイルシステムのサイズ
すべてのユーザーが必要とする平均および最大の i ノード数と比較したファイルシステム内の i ノード数
いつでも最大の要件に近くなる可能性のあるユーザーの数とタイプ。
ファイルシステムサーバーに root
としてログインします。
この例では、サーバーの名前は server1
です。
[server1]root@solaris:~#
制限が必要なグループごとに、制限値を設定します。コマンド samquota
-b
number-blocks
:
type
[
:
scope
]
-f
number-files
:
type
[
:
scope
]
-t
interval
[
:
scope
]
-G
groupID
[
directory-or-file
]
を使用します。ここでは:
-b
number-blocks
は、ファイルシステムに格納できる 512K バイトの最大ブロック数を整数値 number-blocks
に設定します (サイズを指定する代替の方法については、samquota
のマニュアルページを参照)。値を 0
(ゼロ) にすると、無制限のブロック数が指定されます。
:
はフィールドセパレータです。
type
には、制限値の種類 (強い制限値の場合は h
、弱い制限値の場合は s
) を指定します。
scope
(オプション) は、制限対象のストレージのタイプを識別します。オンライン (ディスクキャッシュ) ストレージのみの場合は o
、ディスクキャッシュとアーカイブストレージの両方を含むストレージ全体 (デフォルト) の場合は t
にします。
-f
number-files
は、ファイルシステムに格納できる最大ファイル数を整数値 number-files
に設定します。値を 0
(ゼロ) にすると、無制限のファイル数が指定されます。
-t
number-seconds
は、猶予期間 (弱い制限値を超過できる時間) を秒数を表す整数値 number-seconds
に設定します (時間を指定する代替の方法については、samquota
のマニュアルページを参照)。
-G
groupID
には、グループ名またはグループを表す整数の識別子を指定します。値を 0
(ゼロ) にすると、すべてのグループにデフォルトの制限値が設定されます。
directory-or-file
(オプション) は、割り当てを設定する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。
この例では、要件の収集フェーズでの見積もりを使用して、グループ dev
が使用できる /hsm/hsmfs1
ファイルシステム内のストレージ領域と格納できるファイル数の両方に、強い制限値と弱い制限値の両方を設定します。オンラインストレージのみの場合は猶予期間を 43200
秒 (12 時間) に設定します (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。
[server1]root@solaris:~# samquota -b 3019898880:h:t -f 30000:h:t \ -G dev /hsm/hsmfs1 [server1]root@solaris:~# samquota -b 2013265920:s:t -f 15000:s:t -t 43200:o \ -G dev /hsm/hsmfs1 [server1]root@solaris:~#
制限が必要な管理セットごとに、制限値を設定します。コマンド samquota
-b
number-blocks
:
type
[
:
scope
]
-f
number-files
:
type
[
:
scope
]
-t
interval
[
:
scope
]
-A
adminsetID
[
directory-or-file
]
を使用します。ここで -A
adminsetID
は、管理セットを一意に識別する整数値です。
adminsetID
を 0
(ゼロ) に設定すると、すべての管理セットにデフォルトの制限値が設定されます。
この例では、要件の収集フェーズでの見積もりを使用して、portal
プロジェクト (管理セット ID 1
) が使用できる /hsm/hsmfs1
ファイルシステム内のストレージ領域と格納できるファイル数の両方に、強い制限値と弱い制限値の両方を設定します。ストレージ全体を使用する場合、猶予期間はデフォルト範囲である 43200
秒 (12 時間) に設定します (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。
[server1]root@solaris:~# samquota -b 377487360:h:t -f 7000:h:t -A 1 /hsm/hsmfs1 [server1]root@solaris:~# samquota -b 314572800:s:t -f 4000:s:t -t 43200 \ -A 1 /hsm/hsmfs1 [server1]root@solaris:~#
制限が必要な個別のユーザーごとに、制限値を設定します。コマンド samquota
-b
number-blocks
:
type
[
:
scope
]
-f
number-files
:
type
[
:
scope
]
-t
interval
[
:
scope
]
-U
userID
[
directory-or-file
]
を使用します。ここで -U
userID
は、ユーザー名またはユーザーを表す整数の識別子です。
userID
を 0
(ゼロ) に設定すると、すべてのユーザーにデフォルトの制限値が設定されます。
この例では、要件の収集フェーズでの見積もりを使用して、ユーザー jr23547
が使用できる /hsm/hsmfs1
ファイルシステム内のストレージ領域と jr23547
が格納できるファイル数の両方に、強い制限値と弱い制限値の両方を設定します。ストレージ全体を使用する場合、猶予期間はデフォルト範囲である 1209600
秒 (2 週間) に設定します (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。
[server1]root@solaris:~# samquota -b 100663296:h:t -f 600:h:t \ -U jr23547 /hsm/hsmfs1 [server1]root@solaris:~# samquota -b 10485760:s:t -f 2000:s:t -t 1209600 \ -U jr23547 /hsm/hsmfs1 [server1]root@solaris:~#
ここで停止します。
ルートディレクトリ内に割り当てファイルが存在するときに、noquota
マウントオプションを使用して Oracle HSM ファイルシステムをマウントする場合、ブロックまたはファイルが割り当てられたり、解放されたりすると、割り当てレコードの整合性がなくなります。このような状況では、次のように進めます。
ファイルシステムサーバーに root
としてログインします。
この例では、サーバーの名前は server1
です。
[server1]root@solaris:~#
影響を受けるファイルシステムをアンマウントします。
この例では、ファイルシステム samfs2
をアンマウントします。
[server1]root@solaris:~# umount samfs2 [server1]root@solaris:~#
テキストエディタで /etc/vfstab
ファイルを開き、noquota
マウントオプションが設定されていないことを確認します。
この例では、vi
テキストエディタでファイルを開きます。noquota
マウントオプションが設定されています。
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... samfs2 - /samfs2 samfs - no noquota
noquota
マウントオプションが /etc/vfstab
ファイルに設定されている場合は、削除してからファイルを保存します。
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... samfs2 - /samfs2 samfs - no - :wq [server1]root@solaris:~#
テキストエディタで /etc/opt/SUNWsamfs/samfs.cmd
ファイルを開き、noquota
マウントオプションが設定されていないことを確認します。
この例では、vi
テキストエディタでファイルを開きます。noquota
マウントオプションは設定されていません。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/samfs.cmd # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. # #inodes = 0 #fs = hsmfs1 # forcedirectio (default no forcedirectio) # high = 80 # low = 70 # weight_size = 1. # weight_age = 1. # readahead = 128 ... # dio_wr_ill_min = 0 # dio_wr_consec = 3 # qwrite (ma filesystem, default no qwrite) # shared_writer (ma filesystem, default no shared_writer) # shared_reader (ma filesystem, default no shared_reader)
noquota
マウントオプションが /etc/opt/SUNWsamfs/samfs.cmd
ファイルに設定されている場合は、削除してからファイルを保存します。
整合性のない割り当てレコードを修復します。コマンド samfsck
-F
family-set-name
を使用します。ここで family-set-name
は、/etc/opt/SUNWsamfs/mcf
ファイル内のファイルシステムのファミリセット名です。
[server1]root@solaris:~# samfsck -F samfs2
ファイルシステムを再マウントします。
割り当ては、ファイルシステムのルートディレクトリで 1 つ以上の割り当てファイルが検出されると有効になります。
デフォルトでファイルシステムは割り当てが有効な状態でマウントされるため、quota
マウントオプションを /etc/vfstab
または samfs.cmd
ファイルに含める必要はありません。
[server1]root@solaris:~# mount /samfs2 [server1]root@solaris:~#
ここで停止します。
管理者とユーザーの両方が、割り当ておよびリソース使用量をモニターできます。root
ユーザーは samquota
コマンドを使用して、ユーザー、グループ、または管理セットに関する割り当てレポートを生成できます。ファイルシステムユーザーは squota
コマンドを使用して、独自の割り当てを確認できます。
次の手順を参照してください。
ファイルシステムサーバーに root
としてログインします。
この例では、サーバーの名前は server1
です。
[server1]root@solaris:~#
すべてのグループの割り当て統計を表示するには、コマンド samquota
-g
[
directory-or-file
]
を使用し、オプションの directory-or-file
パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。
この例では、/hsm/hsmfs1
にマウントされた hsmfs1
ファイルシステムのレポートを要求します。
[server1]root@solaris:~# samquota -g /hsm/hsmfs1
すべての管理セットの割り当て統計を表示するには、コマンド samquota
-a
[
directory-or-file
]
を使用し、オプションの directory-or-file
パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。
この例では、/hsm/hsmfs1
にマウントされた hsmfs1
ファイルシステムのレポートを要求します。
[server1]root@solaris:~# samquota -a /hsm/hsmfs1
すべてのユーザーの割り当て統計を表示するには、コマンド samquota
-u
[
directory-or-file
]
を使用し、オプションの directory-or-file
パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。
この例では、/hsm/hsmfs1
にマウントされた hsmfs1
ファイルシステムのレポートを要求します。
[server1]root@solaris:~# samquota -u /hsm/hsmfs1
特定のグループの割り当て統計を表示するには、コマンド samquota
-G
groupID
[
directory-or-file
]
を使用して、groupID
でグループのグループ名または整数の識別子を指定し、オプションの directory-or-file
パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。
この例では、/hsm/hsmfs1
にマウントされた hsmfs1
ファイルシステム内にある、dev
グループの割り当てのレポートを要求します。
[server1]root@solaris:~# samquota -G dev /hsm/hsmfs1
特定の管理セットの割り当て統計を表示するには、コマンド samquota
-A
adminsetID
[
directory-or-file
]
を使用して、adminsetID
で管理セットの整数の識別子を指定し、オプションの directory-or-file
パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。
この例では、/hsm/hsmfs1
にマウントされた hsmfs1
ファイルシステム内にある、管理セット 1
の割り当てのレポートを要求します。
[server1]root@solaris:~# samquota -A 1 /hsm/hsmfs1
特定のユーザーの割り当て統計を表示するには、コマンド samquota
-U
userID
[
directory-or-file
]
を使用して、userID
でユーザーのユーザー名または整数の識別子を指定し、オプションの directory-or-file
パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。
この例では、/hsm/hsmfs1
にマウントされた hsmfs1
ファイルシステム内にある、ユーザー jr23547
の割り当てのレポートを要求します。
[server1]root@solaris:~# samquota -U jr23547 /hsm/hsmfs1
ここで停止します。
自分のユーザー ID を使用して、ファイルシステムホストにログインします。
この例では、ホスト server1
にユーザー od447
としてログインします。
[server1]od447@solaris:~#
すべてのグループの割り当て統計を表示するには、コマンド squota
[
directory-or-file
]
を使用し、オプションの directory-or-file
パラメータで、指定されたディレクトリにマウントされたファイルシステム、指定されたディレクトリ自体、または指定されたファイルにレポートの範囲を限定します。
この例では、すべてのファイルシステムに関するレポートを要求します。
[server1]od447@solaris:~# squota
Limits
Type ID In Use Soft Hard
/hsm/hsmfs1
Files group 101 1 1000 1200
Blocks group 101 8 20000 30000
Grace period 25920
No user quota entry.
[server1]od447@solaris:~#
ここで停止します。
猶予期間を一時的に延長する必要がある場合や、猶予期間を短縮する必要がある場合は、次の手順を実行します。
グループ、ユーザー、または管理セットがその割り当てに指定された弱い制限値を超過していて、弱い制限値を上回る状態を一時的に保持する必要がある場合は、現在の猶予期間で許可される期間よりも長くならなければ、次のように延長を付与できます。
ファイルシステムサーバーに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
延長が必要な割り当てを確認します。コマンド samquota
-
quota-type
ID
[
directory-or-file
]
を使用します。ここでは:
quota-type
ID
は、G
とグループ名または ID 番号、A
と管理セット ID 番号、または U
とユーザー名または ID 番号です。
directory-or-file
(オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。
この例では、dev
グループは弱い制限値を大幅に上回り、猶予期間内に数時間しか残っていません。
[server1]root@solaris:~# samquota -G dev /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 101 323 15000 30000 323 15000 30000 Blocks group 101 3109330961 2013265920 3019898880 3109330961 2013265920 3019898880 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 2h21m16s [server1]root@solaris:~#
保証されていれば、猶予期間を延長します。コマンド samquota
-
quota-type
ID
-x
number-seconds
[
directory-or-file
]
を使用します。ここでは:
quota-type
ID
は、G
とグループ名または ID 番号、A
と管理セット ID 番号、または U
とユーザー名または ID 番号です。
directory-or-file
(オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。
number-seconds
は延長する秒数を表す整数です (時間を指定する代替の方法については samquota
のマニュアルページを参照)。
プロンプトが表示されたら「y
」 (はい) を入力して、続行します。
この例では、hsmfs1
ファイルシステム内のファイルについて、dev
グループの猶予期間を 2678400
秒 (31 日) に延長します。
[server1]root@solaris:~# samquota -G dev -x 2678400 /hsm/hsmfs1 Setting Grace Timer: continue? y
dev
グループの割り当てを再確認すると、猶予期間が延長されています。
[server1]root@solaris:~# samquota -G dev /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 101 323 15000 30000 323 15000 30000 Blocks group 101 43208 2013265920 3019898880 43208 2013265920 3019898880 Grace period 2678400 2678400 ---> Warning: soft limits to be enforced in 31d [server1]root@solaris:~#
グループ、管理セット、またはユーザーが定期的に延長する必要がある場合は、ストレージ要件を再評価したり、猶予期間を永続的に延長することを検討したりしてください。グループ、プロジェクト、ディレクトリ、およびユーザー用の割り当ての設定の手順を使用します。
ここで停止します。
グループ、ユーザー、または管理セットがその割り当てに指定された弱い制限値を超過していて、現在の猶予期間が切れる前に、弱い制限値を下回るのに十分な速さで容量を解放できない場合は、猶予期間を再開できます。次のように進めます。
ファイルシステムサーバーに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
延長が必要な割り当てを確認します。コマンド samquota
-
quota-type
ID
[
directory-or-file
]
を使用します。ここでは:
quota-type
ID
は、G
とグループ名または ID 番号、A
と管理セット ID 番号、または U
とユーザー名または ID 番号です。
directory-or-file
(オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。
この例では、cit
グループは hsmfs1
ファイルシステムの弱い制限値を上回り、猶予期間が 1 時間強残っています。
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 762 750 1500 762 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 1h11m23s [server1]root@solaris:~#
次回、ファイルまたはブロックが割り当てられるときに、猶予期間を開始時のフルサイズにリセットするには、猶予期間タイマーをクリアします。コマンド samquota
-
quota-type
ID
-x
clear
[
directory-or-file
]
を使用します。ここでは:
quota-type
ID
は、G
とグループ名または ID 番号、A
と管理セット ID 番号、または U
とユーザー名または ID 番号です。
directory-or-file
(オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。
プロンプトが表示されたら「y
」 (はい) を入力して、続行します。
この例では、hsmfs1
ファイルシステム上の cit
グループの割り当て用の猶予期間タイマーをクリアします。
[server1]root@solaris:~# samquota -G cit -x clear /hsm/hsmfs1 Setting Grace Timer: continue? y [server1]root@solaris:~#
cit
グループの割り当てを再確認すると、ファイルが割り当てられ、猶予期間が 12h
(12 時間、4320
秒) にリセットされています。
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 763 750 1500 763 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 12h [server1]root@solaris:~#
また、すぐに猶予期間を開始時のフルサイズにリセットするには、猶予期間タイマーをリセットします。コマンド samquota
-
quota-type
ID
-x
reset
[
directory-or-file
]
を使用します。
quota-type
ID
は、G
とグループ名または ID 番号、A
と管理セット ID 番号、または U
とユーザー名または ID 番号です。
directory-or-file
(オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。
プロンプトが表示されたら「y
」 (はい) を入力して、続行します。
この例では、hsmfs1
ファイルシステム上の cit
グループの割り当て用の猶予期間タイマーをクリアします。
[server1]root@solaris:~# samquota -G cit -x reset /hsm/hsmfs1 Setting Grace Timer: continue? y [server1]root@solaris:~#
cit
グループの割り当てを再確認すると、ファイルが割り当てられ、猶予期間が 12h
(12 時間、4320
秒) にリセットされています。
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 762 750 1500 762 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 12h [server1]root@solaris:~#
ここで停止します。
ファイルシステムサーバーに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
短縮する必要のある猶予期間を確認します。コマンド samquota
-
quota-type
ID
[
directory-or-file
]
を使用します。ここでは:
quota-type
ID
は、G
とグループ名または ID 番号、A
と管理セット ID 番号、または U
とユーザー名または ID 番号です。
directory-or-file
(オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。
この例では、cit
グループは弱い制限値を上回り、猶予期間内に 11 時間残っていますが、猶予期間を早期に終了する必要があります。
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 822 750 1500 822 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 11h [server1]root@solaris:~#
猶予期間を期限切れにします。コマンド samquota
-
quota-type
ID
-x
expire
[
directory-or-file
]
を使用します。ここでは:
quota-type
ID
は、G
とグループ名または ID 番号、A
と管理セット ID 番号、または U
とユーザー名または ID 番号です。
directory-or-file
(オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。
この例では、cit
グループの猶予期間を期限切れにします。
root@solaris:~# samquota -G cit -x expire /hsm/hsmfs1 Setting Grace Timer: continue? y
割り当てを再確認すると、cit
グループの弱い制限値が強制的に強い制限値として適用されています。
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 762 750 1500 762 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Online soft limits under enforcement (since 6s ago) [server1]root@solaris:~#
ここで停止します。
矛盾する割り当て値を作成して、ファイルシステムリソースの割り当てを禁止できます。ファイルシステムは、ユーザー、グループ、または管理セットに対して割り当て値が矛盾していることを検出した場合に、そのユーザー、グループ、または管理セットに追加のシステムリソースの使用を禁止します。したがって、対応する弱い制限値を下回る強い制限値を割り当てに設定すると、それ以降の割り当てが停止します。このテクニックを使用するには、次のように進めます。
ファイルシステムサーバーに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
あとで復元できるように、割り当てをバックアップします。現在の構成をエクスポートし、情報をファイルにリダイレクトします。コマンド samquota
-
quota-type
ID
[
directory-or-file
]
>
file
を使用します。ここでは:
quota-type
ID
は、G
とグループ名または ID 番号、A
と管理セット ID 番号、または U
とユーザー名または ID 番号です。
directory-or-file
(オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。
file
は、出力ファイルの名前です。
この例では、root
ユーザーのホームディレクトリ内のファイル restore.hsmfs1.quota_g.cit
に cit
グループの割り当てをエクスポートします (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。
[server1]root@solaris:~# samquota -G cit -e /hsm/hsmfs1 > \ /root/restore.hsmfs1.quota_g.cit [server1]root@solaris:~#
出力を確認します。Solaris コマンド more
<
file
を使用します。ここで file
は出力ファイルの名前です。
[server1]root@solaris:~# more < /root/restore.hsmfs1.quota_g.cit
# Type ID
# Online Limits Total Limits
# soft hard soft hard
# Files
# Blocks
# Grace Periods
samquota -G 119 \
-f 750:s:o -f 1500:h:o -f 750:s:t -f 1500:h:t \
-b 157286400:s:o -b 235929600:h:o -b 157286400:s:t -b 235929600:h:t \
-t 4320:o -t 4320:t
[server1]root@solaris:~#
割り当ての強い制限値を 0
(ゼロ)、弱い制限値を 1
(またはゼロ以外の値) に設定します。コマンド samquota
-
quota-type
ID
-f 1:s -f 0:h -b 1:s -b 0:h
[
directory-or-file
]
を使用します。
quota-type
ID
は、G
とグループ名または ID 番号、A
と管理セット ID 番号、または U
とユーザー名または ID 番号です。
directory-or-file
(オプション) は、猶予期間を延長する必要のある特定のファイルシステム用または特定のディレクトリやファイル用のマウントポイントディレクトリです。
この例では、/hsm/hsmfs1
ファイルシステム内の cit
グループ用の割り当て設定を不整合にし、それによって新しいリソース割り当てが停止します。
[server1]root@solaris:~# samquota -G cit -f 1:s -f 0:h -b 1:s -b 0:h /hsm/hsmfs1 [server1]root@solaris:~#
cit
グループ用の割り当てを確認すると、ゼロの割り当てが有効になっています。感嘆符 (!
) は、現在の使用量がすべて割り当てを上回っているため、それ以上の割り当てが行われないことを示します。
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /sam6 Files group 119 822! 1 0 822! 1 0 Blocks group 119 3109330961! 1 0 3109330961! 1 0 Grace period 4320 4320 ---> Quota values inconsistent; zero quotas in effect. [server1]root@solaris:~#
変更された割り当てを元の状態に復元して、通常の割り当てを再開できる状態になっている場合は、シェルスクリプトとして作成したバックアップファイルを実行します。Solaris コマンド sh
file
を使用します。ここで file
はバックアップファイルの名前です。
この例では、ファイル /root/restore.hsmfs1.quota_g.cit
を実行して、cit
グループ用の割り当てを復元します。
[server1]root@solaris:~# sh /root/restore.hsmfs1.quota_g.cit Setting Grace Timer: continue? y Setting Grace Timer: continue? y [server1]root@solaris:~#
割り当てを確認すると、通常の制限値が復元され、割り当てがブロックされていません。
[server1]root@solaris:~# samquota -G cit /hsm/hsmfs1 Online Limits Total Limits Type ID In Use Soft Hard In Use Soft Hard /hsm/hsmfs1 Files group 119 822 750 1500 822 750 1500 Blocks group 119 3109330961 2013265920 3019898880 120096782 157286400 235929600 Grace period 4320 4320 ---> Warning: soft limits to be enforced in 11h [server1]root@solaris:~#
ここで停止します。
ファイルシステム割り当てを削除または無効にするには、マウントプロセスで割り当てを無効にします。
ファイルシステムサーバーに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
テキストエディタで /etc/vfstab
ファイルを開き、ファイルシステム行のマウントポイント列に noquota
マウントオプションを追加して、ファイルを保存します。
この例では、vi
テキストエディタでファイルを開き、hsmfs1
ファイルシステムに noquota
マウントオプションを設定します。
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - no noquota :wq [server1]root@solaris:~#
ファイルシステムがマウントされている場合は、アンマウントします。
オペレーティングシステムが /etc/vfstab
ファイルをリロードし、指定された変更を行うことができるように、ファイルシステムをアンマウントしてから再マウントする必要があります。この例では、hsmfs1
ファイルシステムをアンマウントします。
[server1]root@solaris:~# umount hsmfs1 [server1]root@solaris:~#
ファイルシステムをマウントします。
この例では、hsmfs1
ファイルシステムをマウントします。
[server1]root@solaris:~# mount hsmfs1 [server1]root@solaris:~#
あとで割り当てを元に戻す予定がある場合は、割り当てファイルを残しておきます。
割り当てを元に戻すことができる状態になっている場合は、ファイルシステムをアンマウントし、ファイルシステム上でコマンド samfsck
-F
を実行し、noquota
マウントオプションを削除してから、ファイルシステムを再マウントするだけです。
割り当てを元に戻す予定がない場合や、割り当てファイルで消費されている容量を再利用する必要がある場合は、Solaris コマンド rm
を使用して、ファイルシステムのルートディレクトリから .quota_g
、.quota_a
、または .quota_u
ファイル (あるいはすべて) を削除します。
この例では、/hsm/hsmfs1
ファイルシステムのルートディレクトリから割り当てファイルをすべて削除します。
[server1]root@solaris:~# rm /hsm/hsmfs1/.quota_g [server1]root@solaris:~# rm /hsm/hsmfs1/.quota_a [server1]root@solaris:~# rm /hsm/hsmfs1/.quota_u [server1]root@solaris:~#
ここで停止します。
一般に、アーカイブファイルシステムは、非アーカイブファイルシステムとほぼ同じ方法で管理します。ただし、ほとんどのファイルシステム管理タスクを実行する前には、アーカイブプロセスを停止する必要があります。アクティブになっていると、アーカイブ処理によってファイルシステムのプライマリディスクキャッシュが変更されます。したがって、ディスクキャッシュ上で保守作業を行う前に、これらのプロセスを休止する必要があります。このセクションでは、次のタスクを扱います。
ファイルシステムホストに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
すべてのアーカイブプロセスをアイドル状態にします。コマンド samcmd
aridle
を使用します。
このコマンドは現在のアーカイブおよびステージングを完了できますが、新しいジョブは開始されません。
[server1]root@solaris:~# samcmd aridle [server1]root@solaris:~#
すべてのステージングプロセスをアイドル状態にします。コマンド samcmd
stidle
を使用します。
このコマンドは現在のアーカイブおよびステージングを完了できますが、新しいジョブは開始されません。
[server1]root@solaris:~# samcmd stidle [server1]root@solaris:~#
アクティブなアーカイブジョブが完了するまで待機します。コマンド samcmd
a
を使用して、アーカイブ処理のステータスを確認します。
アーカイブ処理が Waiting
for
:arrun
の場合、アーカイブ処理はアイドル状態になっています。
[server1]root@solaris:~# samcmd a Archiver status samcmd 5.4 10:20:34 May 20 2014 samcmd on samfs-mds sam-archiverd: Waiting for :arrun sam-arfind: ... Waiting for :arrun
アクティブなステージングジョブが完了するまで待機します。コマンド samcmd
u
を使用して、ステージングプロセスのステータスを確認します。
ステージングプロセスが Waiting for :strun
の場合、ステージングプロセスはアイドル状態になっています。
[server1]root@solaris:~# samcmd u Staging queue samcmd 5.4 10:20:34 May 20 2014 samcmd on solaris.demo.lan Staging queue by media type: all sam-stagerd: Waiting for :strun root@solaris:~#
システムを完全に休止するには、アーカイブおよびステージングプロセスの停止も行います。
まだ実行していない場合には、アーカイブおよびステージングプロセスをアイドル状態にします。
まだ実行していない場合には、ファイルシステムホストに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
すべてのリムーバブルメディアドライブをアイドル状態にしてから、続行します。ドライブごとに、コマンド samcmd
equipment-number
idle
を使用します。ここで equipment-number
は、/etc/opt/SUNWsamfs/mcf
ファイル内のドライブに割り当てられている装置の順序番号です。
このコマンドはドライブを「off
」にする前に、現在のアーカイブジョブおよびステージングジョブを完了できますが、新しいジョブは開始されません。この例では、4 つのドライブ (順序番号 801
、802
、803
、804
) をアイドル状態にします。
[server1]root@solaris:~# samcmd 801 idle [server1]root@solaris:~# samcmd 802 idle [server1]root@solaris:~# samcmd 803 idle [server1]root@solaris:~# samcmd 804 idle [server1]root@solaris:~#
実行中のジョブが完了するまで待機します。
コマンド samcmd
r
を使用すると、ドライブのステータスを確認できます。すべてのドライブが「notrdy
」または「empty
」の場合は、続行できる状態になっています。
[server1]root@solaris:~# samcmd r Removable media samcmd 5.4 18:37:09 Feb 17 2014 samcmd on hsmfs1host ty eq status act use state vsn li 801 ---------p 0 0% notrdy empty li 802 ---------p 0 0% notrdy empty li 803 ---------p 0 0% notrdy empty li 804 ---------p 0 0% notrdy empty [server1]root@solaris:~#
アーカイバおよびステージャープロセスがアイドル状態で、テープドライブがすべて「notrdy
」になっている場合は、ライブラリ制御デーモンを停止します。コマンド samd
stop
を使用します。
[server1]root@solaris:~# samd stop [server1]root@solaris:~#
ファイルシステムの保守を続行します。
保守が完了したら、アーカイブおよびステージングプロセスを再起動します。
操作を再開すると、保留中のステージングリクエストが再発行され、アーカイブが再開されます。
ここで停止します。
準備ができたら、通常の自動操作を再開し、次の手順に従います。
ファイルシステムホストに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
Oracle HSM ライブラリ制御デーモンを再起動します。コマンド samd
start
を使用します。
[server1]root@solaris:~# samd start [server1]root@solaris:~#
ここで停止します。
ファイルシステムの名前は、2 段階のプロセスで変更します。まず、/etc/opt/SUNWsamfs/mcf
ファイルを編集して、ファイルシステムのファミリセット名を変更します。次に、samfsck
-R
-F
コマンドで新しい名前を読み込み、対応するディスクデバイス上のスーパーブロックを更新します。ファイルシステムの名前を変更するには、次の手順を使用します。
ファイルシステムサーバーに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
アーカイブファイルシステムを修復する場合は、手順アーカイブおよびステージングプロセスのアイドル状態を実行してから続行します。
名前を変更する必要のあるファイルシステムをアンマウントします。
この例では、ファイルシステム hsmfs1
をアンマウントします。
[server1]root@solaris:~# umount hsmfs1
テキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、名前を変更する必要のあるファイルシステムを検索します。
次の例では、vi
エディタを使用します。hsmfs1
ファイルシステムの名前を変更する必要があります。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- ------------ ------ ---------- hsmfs1 100 ms hsmfs1 on /dev/dsk/c1t3d0s3 101 md hsmfs1 on /dev/dsk/c1t4d0s5 102 md hsmfs1 on
ファイルの 4 列目で、ファイルシステムのファミリセット名を新しい値に変更します。1 列目でファイルシステム装置の識別子も変更できますが、それ以外は変更しないでください。ファイルを保存して、エディタを閉じます。
この例では、装置識別子とファイルシステムのファミリセット名の両方を hsmfs1
から samqfs-hpcc
に変更します。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- ------------ ------ ---------- samqfs-hpcc 100 ms samqfs-hpcc on /dev/dsk/c1t3d0s3 101 md samqfs-hpcc on /dev/dsk/c1t4d0s5 102 md samqfs-hpcc on :wq root@solaris:~#
ファイルシステムのスーパーブロックを再度書き込んで、新しいファミリセット名を反映させます。コマンド samfsck
-R
-F
family-set-name
を使用します。ここで family-set-name
は、/etc/opt/SUNWsamfs/mcf
ファイル内で指定したファミリセット名です。
-R
および -F
オプションを付けて samfsck
コマンドを発行すると、/etc/opt/SUNWsamfs/mcf
ファイルから新しいファミリセット名および対応するディスクストレージ装置の識別子が読み込まれます。その後、新しいファミリセット名で、指定したディスクデバイス上のスーパーブロックが再度書き込まれます。この例では、新しいファミリセット名 samqfs-hpcc
でコマンドを実行します。
[server1]root@solaris:~# samfsck -R -F samqfs-hpcc
テキストエディタで /etc/vfstab
ファイルを開き、名前を変更するファイルシステムのエントリを検索します。
この例では、vi
テキストエディタでファイルを開きます。新しい名前を使用するには、hsmfs1
ファイルシステムのエントリを変更する必要があります。
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - no -
名前を変更したファイルシステムの /etc/vfstab
エントリで、1 列目のファイルシステム名、および (必要に応じて) 3 列目のマウントポイントディレクトリ名を変更して、ファイルを保存します。
この例では、hsmfs1
ファイルシステムの名前を samqfs-hpcc
に変更し、マウントポイントも変更して一致させます。
[server1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #------------ ------- --------------- ------ ---- ------- ------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... samqfs-hpcc - /samqfs-hpcc samfs - no - :wq [server1]root@solaris:~#
必要に応じて新しいファイルシステム用の新しいマウントポイントディレクトリを作成し、マウントポイントに対するアクセス権を設定します。
ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x
) を持っている必要があります。この例では、/samqfs-hpcc
マウントポイントディレクトリを作成し、アクセス権を 755
(-rwxr-xr-x
) に設定します。
[server1]root@solaris:~# mkdir /samqfs-hpcc [server1]root@solaris:~# chmod 755 /samqfs-hpcc [server1]root@solaris:~#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、検出された場合は修正します。
sam-fsd
は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーを検出すると停止します。
[server1]root@solaris:~# sam-fsd
mcf
ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM ソフトウェアに指示します。コマンド samd
config
を使用します。
[server1]root@solaris:~# samd config
samd config
によりエラーが報告された場合、修正し、エラーがなくなるまでコマンドを再発行します。
ファイルシステムをマウントします。
この例では、新しいマウントポイントディレクトリを使用します。
[server1]root@solaris:~# mount /samqfs-hpcc
ここで停止します。
ファイルシステムが samu
、Oracle HSM Manager、または /var/adm/sam-log
ファイル経由でエラーをレポートした場合は、次の手順に従います。
ファイルシステムサーバーに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
アーカイブファイルシステムを修復する場合は、手順アーカイブおよびステージングプロセスのアイドル状態を実行してから続行します。
影響を受けるファイルシステムをアンマウントします。
アーカイブが停止するまで待機している場合は、複数回試す必要がある場合もあります。この例では、ファイルシステム hsmfs1
をアンマウントします。
[server1]root@solaris:~# umount hsmfs1 samfs umount: /hsm/hsmfs1: is busy [server1]root@solaris:~# umount hsmfs1 [server1]root@solaris:~#
ファイルシステムを修復します。コマンド samfsck
-F
-V
family-set-name
を使用します。ここで family-set-name
は、/etc/opt/SUNWsamfs/mcf
ファイルでファイルシステムに対して指定されたファミリセット名です。
必要に応じて、今後の参照や診断の目的のために、修復結果を日付の付いたファイルに保存しておくことを推奨します。そのため、この例では、samfsck
の出力をコマンド tee
/var/tmp/
samfsck-FV.
family-set-name
.`
date
'+%Y%m%d.%H%M%S'
`
にパイプして結果を保存します (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。
[server1]root@solaris:~# samfsck -F -V hsmfs1 | tee \ /var/tmp/samfsck-FV.hsmfs1. `date '+%Y%m%d.%H%M%S'` name: /hsm/hsmfs1 version: 2A First pass Second pass Third pass NOTICE: ino 2.2, Repaired link count from 8 to 14 Inodes processed: 123392 total data kilobytes = 1965952 total data kilobytes free = 1047680 total meta kilobytes = 131040 total meta kilobytes free = 65568 INFO: FS samma1 repaired: start: May 19, 2014 10:57:13 AM MDT finish: May 19, 2014 10:57:37 AM MDT NOTICE: Reclaimed 70057984 bytes NOTICE: Reclaimed 9519104 meta bytes [server1]root@solaris:~#
ファイルシステムを再マウントします。
[server1]root@solaris:~# mount /hsm/hsmfs1 [server1]root@solaris:~#
ここで停止します。
既存のファイルシステムにデバイスを追加する前に、要件や代替方法を検討することをお勧めします。増大する容量の要件を満たすための最適な方法は、既存のファイルシステムを拡張することです。新しいプロジェクトやユーザーコミュニティーに対応するために、より大きな物理ストレージ領域が必要である場合は、1 つ以上の新しい Oracle HSM ファイルシステムを作成することが適切な選択肢となることがあります。一般に、小さいファイルシステムが複数ある方が大きいファイルシステムが 1 つあるよりもパフォーマンスが高く、小さいファイルシステムの方が簡単に作成および保守できます。
ファイルシステムを拡張する必要があると判断したら、次の方法のいずれかを取ります。
次のように進めます。
ファイルシステムサーバーに root
としてログインします。
この例では、ホスト server1
にログインします。
[server1]root@solaris:~#
テキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、拡張する必要のあるファイルシステムを検索します。
この例では、vi
エディタを使用します。汎用の samqfsms
ファイルシステムと高性能 samqfs2ma
ファイルシステムの 2 つのファイルシステムを拡張する必要があります。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ --------------- samqfsms 100 ms samqfsms on /dev/dsk/c1t3d0s3 101 md samqfsms on /dev/dsk/c1t4d0s5 102 md samqfsms on samqfs2ma 200 ma samqfs2ma on /dev/dsk/c1t3d0s3 201 mm samqfs2ma on /dev/dsk/c1t3d0s5 202 md samqfs2ma on /dev/dsk/c1t4d0s5 203 md samqfs2ma on
汎用の ms
ファイルシステムにデバイスを追加する場合は、追加のデータまたはメタデータデバイスを mcf
ファイル内のファイルシステム定義の末尾に追加します。次に、ファイルを保存し、エディタを閉じます。
最大 252 個の論理デバイスを追加できます。この例では、2 つのデバイス (103
と 104
) を samqfsms
ファイルシステムに追加します。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ --------------- samqfsms 100 ms samqfsms on /dev/dsk/c1t3d0s3 101 md samqfsms on /dev/dsk/c1t4d0s5 102 md samqfsms on /dev/dsk/c1t3d0s7 103 md samqfsms on /dev/dsk/c1t4d0s7 104 md samqfsms on :wq [server1]root@solaris:~#
高パフォーマンスの ma
ファイルシステムにデバイスを追加する場合は、データデバイスおよび 1 つ以上の mm
ディスクデバイスを mcf
ファイル内のファイルシステム定義の末尾に追加します。次に、ファイルを保存し、エディタを閉じます。
必ず、新しいデバイスは既存のデバイスリストの末尾に追加します。データデバイスの追加に比例して、最大 252 個のメタデータデバイスを追加できます。この例では、1 つの mm
メタデータデバイス 204
、および 2 つの md
データデバイス (205
と 206
) を samqfs2ma
ファイルシステムに追加します。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ --------------- ... samqfs2ma 200 ma samqfs2ma on /dev/dsk/c1t3d0s3 201 mm samqfs2ma on /dev/dsk/c1t3d0s5 202 md samqfs2ma on /dev/dsk/c1t4d0s5 203 md samqfs2ma on /dev/dsk/c1t5d0s6 204 mm samqfs2ma on /dev/dsk/c1t3d0s7 205 md samqfs2ma on /dev/dsk/c1t4d0s7 206 md samqfs2ma on :wq [server1]root@solaris:~#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、検出された場合は修正します。
sam-fsd
は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーを検出すると停止します。
[server1]root@solaris:~# sam-fsd
sam-fsd
コマンドによって mcf
ファイルでエラーが見つかった場合は、ファイルを編集してエラーを修正し、前の手順の説明に従って再確認します。
次の例では、sam-fsd
によって、デバイスに関して何らかの問題があることが指摘されています。
[server1]root@solaris:~# sam-fsd Problem in mcf file /etc/opt/SUNWsamfs/mcf for filesystem samqfsms sam-fsd: Problem with file system devices.
通常、このようなエラーの原因は不注意なタイプミスです。ここで、エディタで mcf
ファイルを開くと、デバイス 104
(2 番目に新しい md
デバイス) の装置名に、0 の代わりに文字 o
が入力されていることがわかります。
samqfsms 100 ms samqfsms on /dev/dsk/c1t3d0s3 101 md samqfsms on /dev/dsk/c1t4d0s5 102 md samqfsms on /dev/dsk/c1t3d0s7 103 md samqfsms on /dev/dsk/c1t4dos7 104 md samqfsms on ˆ
sam-fsd
コマンドがエラーなしで実行された場合、mcf
ファイルは正確です。次の手順に進みます。
この例は、エラーのない出力の一部です。
[server1]root@solaris:~# sam-fsd
Trace file controls:
sam-amld /var/opt/SUNWsamfs/trace/sam-amld
cust err fatal ipc misc proc date
...
Would start sam-archiverd()
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[server1]root@solaris:~#
mcf
ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM ソフトウェアに指示します。コマンド samd
config
を使用します。
[server1]root@solaris:~# samd config Configuring SAM-FS [server1]root@solaris:~#
samd
config
によって、新しいデバイスが含まれるように Oracle HSM ファイルシステムの構成が更新されたことを確認します。コマンド samcmd
f
を使用します。
デバイスの状態は「off
」になっているはずです。この例では、samcmd
f
は新しいデバイス 103
と 104
、および両方とも「off
」であることが表示されます。
[server1]root@solaris:~# samcmd f File systems samcmd 5.4 16:57:35 Feb 27 2014 samcmd on server1 ty eq state device_name status high low mountpoint server ms 100 on samqfsms m----2----- 80% 70% /samqfsms md 101 on /dev/dsk/c1t3d0s3 md 102 on /dev/dsk/c1t4d0s5 md 103 off /dev/dsk/c1t3d0s7 md 104 off /dev/dsk/c1t4d0s7 [server1]root@solaris:~#
新たに追加されたデバイスを有効にします。デバイスごとに、コマンド samcmd
add
equipment-number
を使用します。ここで equipment-number
は、/etc/opt/SUNWsamfs/mcf
ファイル内のデバイスに割り当てられている装置の順序番号です。
この例では、新しいデバイス (103
と 104
) を有効にします。
[server1]root@solaris:~# samcmd add 103 [server1]root@solaris:~# samcmd add 104
共有ファイルシステムにデバイスを追加する場合は、共有ファイルシステムに追加された新しいデバイスの構成の完了に進みます。
非共有のスタンドアロンファイルシステムにデバイスを追加する場合は、デバイスが追加され、ファイルシステムで使用できる状態になっていることを確認します。コマンド samcmd
m
を使用して、結果を確認します。
デバイスの状態が「on
」である場合は、デバイスが正常に追加され、使用できる状態になっています。この例では、デバイス 103
と 104
が正常に追加されています。
[server1]root@solaris:~# samcmd f Mass storage status samcmd 5.4 17:17:08 Feb 27 2014 samcmd on server1 ty eq status use state ord capacity free ra part high low ms 100 m----2----- 13% on 3.840G 3.588G 1M 16 80% 70% md 101 31% on 0 959.938M 834.250M md 102 13% on 1 959.938M 834.250M md 103 0% on 2 959.938M 959.938M md 104 0% on 3 959.938M 959.938M [server1]root@solaris:~#
ここで停止します。
共有ファイルシステムにデバイスを追加する場合は、すべてのファイルシステムホスト上でデバイスが構成される前に、追加の手順をいくつか実行する必要があります。次のように進めます。
ファイルシステムのメタデータサーバーホストに root
としてログインします。
この例では、メタデータサーバーホストは metadata-server
という名前です。
[metadata-server]root@solaris:~#
メタデータサーバーに新しいデバイスが追加されたことを確認します。コマンド samcmd
m
を使用します。
デバイスの状態が「unavail
」である場合は、デバイスが正常に追加されましたが、使用できる状態にはなっていません。この例では、デバイス 103
と 104
が正常に追加されています。
[metadata-server]root@solaris:~# samcmd f Mass storage status samcmd 5.4 17:17:08 Feb 27 2014 samcmd on metadata-server ty eq status use state ord capacity free ra part high low ms 100 m----2----- 13% on 3.840G 3.588G 1M 16 80% 70% md 101 31% on 0 959.938M 834.250M md 102 13% on 1 959.938M 834.250M md 103 0% unavail 2 959.938M 959.938M md 104 0% unavail 3 959.938M 959.938M [metadata-server]root@solaris:~#
各ファイルシステムのクライアントホストに root
としてログインします。
潜在的なメタデータサーバーもクライアントであるため、忘れずに含めてください。この例では、potential-metadata-server
という名前の潜在的なメタデータサーバー、client1
および client2Linux
の 2 つのクライアントにログインする必要があります。そのため、3 つの端末ウィンドウを開き、セキュアシェル (ssh
) を使用します。
[metadata-server]root@solaris:~# ssh root@potential-metadata-server Password: [potential-metadata-server]root@solaris:~# [metadata-server]root@solaris:~# ssh root@client1 Password: [client1]root@solaris:~# [metadata-server]root@solaris:~# ssh root@client2Linux Password: [client2Linux]:[root@linux ~]#
クライアントが Linux クライアントである場合は、共有ファイルシステムをアンマウントします。
[client2Linux]:[root@linux ~]# umount /samqfsms
クライアントごとに、テキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、サーバー上で行なったときと同様に、新しいデバイスをファイルシステム定義の末尾に追加します。
この例では、デバイス 103
と 104
を client1
上の mcf
ファイルに追加します。
[client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ ---------- samqfsms 100 ms samqfsms on shared /dev/dsk/c1t3d0s3 101 md samqfsms on /dev/dsk/c1t4d0s5 102 md samqfsms on /dev/dsk/c1t3d0s7 103 md samqfsms on /dev/dsk/c1t4d0s7 104 md samqfsms on :wq [metadata-server]root@solaris:~#
クライアントごとに、sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、検出された場合は修正します。
[metadata-server]root@solaris:~# sam-fsd
各クライアント上で、mcf
ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM ソフトウェアに指示します。
[metadata-server]root@solaris:~# samd config
クライアントが Linux クライアントである場合は、共有ファイルシステムをマウントします。
[client2Linux]:[root@linux ~]# mount /samqfsms
すべてのクライアントが構成されたら、メタデータサーバーに戻って、新しいデバイス上でストレージの割り当てを有効にします。デバイスごとに、コマンド samcmd
alloc
equipment-number
を使用します。ここで equipment-number
は、/etc/opt/SUNWsamfs/mcf
ファイル内のデバイスに割り当てられている装置の順序番号です。
この例では、デバイス 103
と 104
上でストレージの割り当てを有効にします。
[metadata-server]root@solaris:~# samcmd alloc 103 [metadata-server]root@solaris:~# samcmd alloc 104
最後に、デバイスがファイルシステムで使用できる状態になっていることを確認します。コマンド samcmd
m
を使用して、結果を確認します。
デバイスの状態が「on
」である場合は、デバイスが正常に追加され、使用できる状態になっています。この例では、デバイス 103
と 104
が正常に追加されています。
[metadata-server]root@solaris:~# samcmd f Mass storage status samcmd 5.4 17:17:08 Feb 27 2014 samcmd on metadata-server ty eq status use state ord capacity free ra part high low ms 100 m----2----- 13% on 3.840G 3.588G 1M 16 80% 70% md 101 31% on 0 959.938M 834.250M md 102 13% on 1 959.938M 834.250M md 103 0% on 2 959.938M 959.938M md 104 0% on 3 959.938M 959.938M [metadata-server]root@solaris:~#
ここで停止します。
次のように進めます。
ファイルシステムのサーバーホストに root
としてログインします。
この例では、メタデータサーバーホストは server1
という名前です。
[server1]root@solaris:~#
アーカイブファイルシステムをアンマウントする前に、手順アーカイブおよびステージングプロセスのアイドル状態を実行する必要があります。
ファイルシステムをマウント解除します。
ファイルシステムをアンマウントするまでは次に進まないでください。この例では、ファイルシステム hsmfs1
をアンマウントします。
[server1]root@solaris:~# umount hsmfs1
テキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、拡張する必要のあるファイルシステムを検索します。
次の例では、vi
エディタを使用します。hsmfs1
ファイルシステムを拡張する必要があります。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------- hsmfs1 100 ms hsmfs1 on /dev/dsk/c1t3d0s3 101 md hsmfs1 on /dev/dsk/c1t4d0s5 102 md hsmfs1 on
高パフォーマンスの ma
ファイルシステムにデバイスを追加する場合は、データストレージとともにメタデータストレージを追加する必要があります。追加するデータデバイスのメタデータを格納するのに十分な mm
ディスクデバイスを追加します。次に、ファイルを保存し、エディタを閉じます。
最大 252 個の論理デバイスを追加できます。この例では、1 つの mm
メタデータデバイスを samqfs2ma
ファイルシステムに、2 つのデータデバイスを samqfs2ma
ファイルシステムに追加します。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------- samqfs2ma 200 ma samqfs2ma on /dev/dsk/c1t3d0s3 201 mm samqfs2ma on /dev/dsk/c1t5d0s6 204 mm samqfs2ma on /dev/dsk/c1t3d0s5 202 md samqfs2ma on /dev/dsk/c1t4d0s5 203 md samqfs2ma on /dev/dsk/c1t3d0s7 205 md samqfs2ma on /dev/dsk/c1t4dos7 206 md samqfs2ma on :wq [server1]root@solaris:~#
汎用の ms
ファイルシステムにデバイスを追加する場合は、追加のデータデバイスまたはメタデータデバイスを mcf
ファイル内のファイルシステム定義に追加します。次に、ファイルを保存し、エディタを閉じます。
最大 252 個の論理デバイスを追加できます。この例では、2 つのデバイスを hsmfs1
ファイルシステムに追加します。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------- hsmfs1 100 ms hsmfs1 on /dev/dsk/c1t3d0s3 101 md hsmfs1 on /dev/dsk/c1t4d0s5 102 md hsmfs1 on /dev/dsk/c1t3d0s7 103 md hsmfs1 on /dev/dsk/c1t4dos7 104 md hsmfs1 on :wq [server1]root@solaris:~#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、検出された場合は修正します。
sam-fsd
は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーを検出すると停止します。
[server1]root@solaris:~# sam-fsd
mcf
ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM software に指示します。
root@solaris:~# samd config
新しいデバイスをファイルシステムに組み込みます。コマンド samgrowfs
family-set-name
を使用します。ここで family-set-name
は、/etc/opt/SUNWsamfs/mcf
ファイル内でファイルシステムに指定されたファミリセット名です。
この例では、hsmfs1
ファイルシステムを拡張します。
[server1]root@solaris:~# samgrowfs hsmfs1
ファイルシステムを再マウントします。
[server1]root@solaris:~# mount /hsm/hsmfs1
アーカイブファイルシステムにデバイスを追加した場合は、Oracle HSM ライブラリ管理デーモンを再起動します。コマンド samd
start
を使用します。
[server1]root@solaris:~# samd start
変更を行う前にファイルシステムをアンマウントし忘れたために、ファイルシステムがマウントされない場合は、追加したデバイスへの参照を削除して、元の mcf
ファイルを復元します。次に、samd
config
を実行して構成を復元し、ファイルシステムをアンマウントしてから、もう一度やり直します。
ここで停止します。
必要に応じて、マウントした Oracle HSM ファイルシステムからデータデバイスを削除できます。一般に、障害の発生したユニットを交換する必要がある場合、または十分に利用されていないデバイスをほかのユーザー用に解放する必要がある場合に、この操作が必要になります。ただし、いくつかの制限があります。
データデバイスのみを削除できます。メタデータにはファイルシステム自体の構成が定義されているため、メタデータの保持に使用されているデバイスは削除できません。つまり、高パフォーマンスの ma
ファイルシステムから削除できるデバイスは、md
、mr
、およびストライプグループデバイスのみです。ma
ファイルシステムから mm
メタデータデバイスを削除することはできません。また、md
デバイスには、データとメタデータの両方が格納されているため、これらのデバイスを汎用の ms
ファイルシステムから削除することもできません。
デバイスを削除するには、ターゲットデバイス上に存在する有効なデータファイルを移動するための場所も必要です。つまり、すべてのデバイスを削除することはできません。必ず、1 つのデバイスがファイルシステムに残っている必要があり、削除するデバイスに存在するすべてのファイルを保持するための十分な空き容量が必要です。したがって、ストライプグループを削除する必要がある場合は、同数のメンバーデバイスを持つ別の使用可能なストライプグループを構成する必要があります。
デバイスを削除するには、次のように進めます。
次のタスクを実行します。
samexplorer
の実行ファイルシステムのサーバーホストに root
としてログインします。
この例では、メタデータサーバーホストは server1
という名前です。
[server1]root@solaris:~#
samexplorer
レポートを作成します。コマンド samexplorer
path/
hostname
.
YYYY
MM
DD
.
hh
mm
z
.tar.gz
を使用します。ここでは:
path
は選択したディレクトリへのパスです。
hostname
は Oracle HSM ファイルシステムのホスト名です。
YYYY
MM
DD
.
hh
mm
z
は日付とタイムスタンプです。
このファイルはデフォルトで /tmp/SAMreport.
hostname
.
YYYY
MM
DD
.
hh
mm
z
.tar.gz
と呼ばれます。この例では、ディレクトリ /zfs1/tmp/
を使用します。ここで /zfs1
は、Oracle HSM ファイルシステムと共通のコンポーネントを持たないファイルシステムです (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。
[server1]root@solaris:~# samexplorer \ /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz Report name: /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz Lines per file: 1000 Output format: tar.gz (default) Use -u for unarchived/uncompressed. Please wait............................................. Please wait............................................. Please wait...................................... The following files should now be ftp'ed to your support provider as ftp type binary. /zfs1/sam_config/explorer/samhost1.20140130.1659MST.tar.gz
ファイルシステムのサーバーホストに root
としてログインします。
この例では、メタデータサーバーホストは server1
という名前です。
[server1]root@solaris:~#
回復ポイントが格納される場所を選択します。選択した場所では、バックアップするファイルシステムでデバイスを共有してはならず、異常に大きいファイルを格納できる容量が必要です。
削除する予定のデバイスには、アーカイブされていないファイルが含まれていることがあります。このようなファイルは単一のコピーとして存在するだけであるため、少なくとも一部のデータおよびメタデータを格納する回復ポイントファイルを作成する必要があります。これにより、回復ポイントファイルのサイズが大幅に増加する可能性があります。
この例では、Oracle HSM ファイルシステム /zfs1
と共通のコンポーネントを持たないファイルシステムに、サブディレクトリ tmp/
を作成します。
[server1]root@solaris:~# mkdir /zfs1/tmp/ [server1]root@solaris:~#
ファイルシステムのルートディレクトリに移動します。
この例では、マウントポイントディレクトリ /hsm/hsmfs1
に移動します。
[server1]root@solaris:~# cd /hsm/hsmfs1 [server1]root@solaris:~#
ファイルシステムメタデータおよびアーカイブされていないデータをバックアップします。コマンド samfsdump
-f
-u
recovery-point
を使用します。ここで recovery-point
は、最終的な回復ポイントのパスおよびファイル名です。
-u
オプションを付けると、回復ポイントにアーカイブされていないファイルのデータ部分が追加されます。これにより、ファイルのサイズが大幅に増加する可能性があります。
この例では、ディレクトリ /zfs1/tmp/
に、hsmfs1-20140313.025215
という hsmfs1
ファイルシステム用の回復ポイントファイルを作成します。コマンド ls
-l
を使用して結果を確認します (次の 2 つ目のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。
[server1]root@solaris:~# cd /hsm/hsmfs1 [server1]root@solaris:~# samfsdump -f \ /zfs1/tmp/hsm/hsmfs1-`date '+%Y%m%d.%H%M%S'` -T /hsm/hsmfs1 samfsdump statistics: Files: 10010 Directories: 2 Symbolic links: 0 Resource files: 0 Files as members of hard links : 0 Files as first hard link : 0 File segments: 0 File archives: 10010 Damaged files: 0 Files with data: 0 File warnings: 0 Errors: 0 Unprocessed dirs: 0 File data bytes: 0 [server1]root@solaris:~# ls -l /zfs1/tmp/hsmfs1* -rw-r--r-- 1 root other 5376517 Mar 13 02:52 /zfs1/tmp/hsm/hsmfs1-20140313.025215 [server1]root@solaris:~#
ここで、マウントした高パフォーマンスのファイルシステムからデバイスを削除します。
デバイスは一度に 1 つずつ削除する必要があります。デバイスごとに、次のように進めます。
ファイルシステムのサーバーホストに root
としてログインします。
この例では、メタデータサーバーホストは server1
という名前です。
[server1]root@solaris:~#
/etc/opt/SUNWsamfs/mcf
ファイルを開き、削除する必要のあるデバイスの装置の順序番号を書き留めます。
次の例では、vi
エディタを使用します。hsmfs1
ファイルシステムの装置一覧からデバイス /dev/dsk/c1t4d0s7
を削除する必要があります。装置の順序番号は 104
です。
[server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ -------------- hsmfs1 100 ms hsmfs1 on /dev/dsk/c1t3d0s3 101 md hsmfs1 on /dev/dsk/c1t4d0s5 102 md hsmfs1 on /dev/dsk/c1t3d0s7 103 md hsmfs1 on /dev/dsk/c1t4d0s7 104 md hsmfs1 on :q [server1]root@solaris:~#
デバイスの削除を試みる前に、ファイルシステム内の残りのデバイスが、削除する予定のデバイスから移動する必要のあるファイルを受け入れることができることを確認します。
残りのデバイスに十分な容量があることを確認します。
デバイスがストライプグループである場合は、ファイルシステムに同等の構成を持つ別のストライプグループが含まれていることを確認します。
たとえば、削除する予定のストライプグループが 4 つの装置番号を持っている場合は、状態が「ON」で、4 つの装置番号を持っている別のストライプグループが必要です。
変更する予定のファイルシステムにバージョン 2A スーパーブロックが含まれていることを確認します。コマンド samfsinfo
filesystem-name
を使用します。ここで filesystem-name
はファイルシステムの名前です。
この例では、ファイルシステム hsmfs1
で version:
2A
スーパーブロックが使用されています。
[server1]root@solaris:~# /opt/SUNWsamfs/sbin/samfsinfo hsmfs1 samfsinfo: filesystem hsmfs1 is mounted. name: hsmfs1 version: 2A time: Tuesday, June 28, 2011 6:07:36 AM MDT feature: Aligned Maps count: 4 ... [server1]root@solaris:~#
ファイルシステムにバージョン 2A スーパーブロックが含まれていない場合は、ここで終了します。このファイルシステムがマウントされている場合は、デバイスを削除できません。
Oracle HSM アーカイブファイルシステムからデバイスを削除する場合は、削除するディスクデバイスからアーカイブ済みファイルをすべて解放します。コマンド samcmd
release
equipment-number
を使用します。ここで equipment-number
は、/etc/opt/SUNWsamfs/mcf
ファイル内のデバイスを識別する装置の順序番号です。
デバイスがストライプグループである場合は、グループ内の任意のデバイスの装置番号を指定します。
Oracle HSM ソフトウェアは、新しいファイルが格納されないように、指定したデバイスの状態を「noalloc
」 (割り当てなし) に変更し、事前にアーカイブされたファイルの解放を開始します。デバイスにアーカイブされていないファイルが 1 つも含まれなくなると、ソフトウェアはファイルシステム構成からデバイスを削除して、状態を「off
」に変更します。
この例では、アーカイブファイルシステム hsmfs1
内のデバイス 104
からファイルを解放します。
[server1]root@solaris:~# samcmd release 104
Oracle HSM 非アーカイブファイルシステムからデバイスを削除する場合は、削除するディスクデバイス外に残りの有効なファイルをすべて移動します。コマンド samcmd
remove
equipment-number
を使用します。ここで equipment-number
は、/etc/opt/SUNWsamfs/mcf
ファイル内のデバイスを識別する装置の順序番号です。
Oracle HSM ソフトウェアは、新しいファイルが格納されないように、指定したデバイスの状態を「noalloc
」 (割り当てなし) に変更し、有効なデータが含まれるファイルをファイルシステム内の残りのデバイスに移動し始めます。すべてのファイルが移動されると、ソフトウェアはファイルシステム構成からデバイスを削除して、状態を「off
」に変更します。
この例では、デバイス 104
外にファイルを移動します。
[server1]root@solaris:~# samcmd remove 104
選択したプロセス samcmd
remove
または samcmd
release
の進捗状況をモニターします。コマンド samcmd
m
を使用するか、またはログファイルと /var/opt/SUNWsamfs/trace/sam-shrink
ファイルを監視します (あるいは両方を行います)。
release
プロセスは、アーカイブメディアにコピーされたファイルに関連付けられている容量のみを解放するため、すべてのファイルがアーカイブされている場合は瞬時に完了します。remove
プロセスでは、ディスクデバイス間でファイルを移動する必要があるため、データ量およびファイル数によっては非常に長い時間がかかります。
[server1]root@solaris:~# samcmd m ty eq status use state ord capacity free ra part high low ms 100 m----2----- 27% on 3.691G 2.628G 1M 16 80% 70% md 101 27% on 0 959.938M 703.188M md 102 28% on 1 899.938M 646.625M md 103 13% on 2 959.938M 834.250M md 104 0% noalloc 3 959.938M 959.938M [server1]root@solaris:~#
samcmd
release
を使用していて、ターゲットデバイスの状態が「off
」になっていない場合は、デバイス上にアーカイブされていないファイルが存在します。アーカイバが実行され、アーカイブが完了するまで待機します。次に、コマンド samcmd
release
を再度使用します。コマンド samcmd
a
を使用すると、アーカイブの進捗状況を確認できます。
release
プロセスは、アーカイブされていないファイルがアーカイブされるまでディスク領域を解放できません。
[server1]root@solaris:~# samcmd a Archiver status samcmd 5.4 14:12:14 Mar 1 2014 samcmd on server1 sam-archiverd: Waiting for resources sam-arfind: hsmfs1 mounted at /hsm/hsmfs1 Files waiting to start 4 schedule 2 archiving 2 [server1]root@solaris:~#
1 つ以上のアーカイブされていないファイルをアーカイブできないために samcmd
release
に失敗した場合は、アーカイブされていないファイルを別のデバイスに移動します。スタンドアロンの非アーカイブファイルシステムからデバイスを削除するときと同様に、コマンド samcmd
remove
equipment-number
を使用します。
この例では、デバイス 104
外にファイルを移動します。
[server1]root@solaris:~# samcmd remove 104
デバイスの状態が「off
」に変更されたら、テキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、ファイルシステムを検索し、変更が反映されるように装置一覧を更新します。ファイルを保存して、エディタを閉じます。
この例では、samcmd
m
は 104
が off
であることを示しています。したがって、vi
エディタを使用して mcf
ファイルを開きます。hsmfs1
ファイルシステムの装置一覧からデバイス 104
のエントリを削除して、変更を保存します。
[server1]root@solaris:~# samcmd m ty eq status use state ord capacity free ra part high low ms 100 m----2----- 27% on 3.691G 2.628G 1M 16 80% 70% md 101 27% on 0 959.938M 703.188M md 102 28% on 1 899.938M 646.625M md 103 13% on 2 959.938M 834.250M md 104 0% off 3 959.938M 959.938M [server1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------- --------- --------- --------- ------ --------- hsmfs1 100 ms hsmfs1 on /dev/dsk/c1t3d0s3 101 md hsmfs1 on /dev/dsk/c1t4d0s5 102 md hsmfs1 on /dev/dsk/c1t3d0s7 103 md hsmfs1 on :wq [server1]root@solaris:~#
sam-fsd
コマンドを実行して、変更した mcf
ファイルにエラーがないかどうかを確認し、検出された場合はエラーを修正します。
エラーが発生した場合は、sam-fsd
コマンドが停止します。
[server1]root@solaris:~# sam-fsd
mcf
ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM software に指示します。
[server1]root@solaris:~# samd config
ここで停止します。
このセクションでは、次のタスクの概要について説明します。
共有ファイルシステムをマウントまたはマウント解除するときは、メタデータサーバーとクライアントをマウントまたはマウント解除する順序が重要です。
フェイルオーバーを行うため、メタデータサーバーとすべての潜在的なメタデータサーバーでマウントオプションは同じにしておく必要があります。たとえば、マウントオプションを含む samfs.cmd
ファイルを作成し、そのファイルをすべてのホストにコピーできます。
共有ファイルシステムのマウントの詳細については、mount_samfs
のマニュアルページを参照してください。
Oracle HSM メタデータサーバーおよびクライアントホストに root
としてログインします。
この例では、sharefs
ファイルシステムのメタデータサーバーホスト sharefs-mds
にログインします。次に各クライアント sharefs-client1
および sharefs-client2
に対して端末ウィンドウを開きます。ssh
(セキュアシェル) を使用してログインします。
[sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# [sharefs-mds]root@solaris:~# ssh root@sharefs-client2 Password: [sharefs-client2]root@solaris:~#
ファイルシステムの Solaris /etc/vfstab
ファイルにエントリが存在する場合は、コマンド mount
mountpoint
を使用して、メタデータサーバーホスト上に共有ファイルシステムをマウントします。ここで mountpoint
は、ホストのルートファイルシステム上のマウントポイントディレクトリです。
必ず、クライアント上でファイルシステムをマウントする前に、まずメタデータサーバーホスト上にファイルシステムをマウントします。
この例では、sharefs
ファイルシステムの /etc/vfstab
ファイルに次のエントリが存在します。
sharefs - /sharefs samfs - no shared
したがって、マウントポイントパラメータを指定するだけでファイルシステムをマウントできます。
[sharefs-mds]root@solaris:~# mount /sharefs [sharefs-mds]root@solaris:~#
ファイルシステムの Solaris /etc/vfstab
ファイルにエントリが存在しない場合は、コマンド mount
-F
samfs
-o
shared
mountpoint
を使用して、メタデータサーバーホスト上に共有ファイルシステムをマウントします。ここで mountpoint
は、ホストのルートファイルシステム上のマウントポイントディレクトリです。
必ず、クライアント上でファイルシステムをマウントする前に、まずメタデータサーバーホスト上にファイルシステムをマウントします。
この例では、sharefs
ファイルシステムの /etc/vfstab
ファイルに次のエントリが存在しません。
[sharefs-mds]root@solaris:~# mount -F samfs -o shared /sharefs [sharefs-mds]root@solaris:~#
ファイルシステムの Solaris /etc/vfstab
ファイルにエントリが存在する場合は、コマンド mount
mountpoint
を使用して、各クライアントホスト上に共有ファイルシステムをマウントします。ここで mountpoint
は、ホストのルートファイルシステム上のマウントポイントディレクトリです。
クライアントホストには、任意の順序でファイルシステムをマウントできます。
[sharefs-client1]root@solaris:~# mount /sharefs [sharefs-client1]root@solaris:~# [sharefs-client2]root@solaris:~# mount /sharefs [sharefs-client2]root@solaris:~#
ファイルシステムの Solaris /etc/vfstab
ファイルにエントリが存在しない場合は、コマンド mount
-F
samfs
-o
shared
mountpoint
を使用して、各クライアントホスト上に共有ファイルシステムをマウントします。ここで mountpoint
は、ホストのルートファイルシステム上のマウントポイントディレクトリです。
クライアントホストには、任意の順序でファイルシステムをマウントできます。
[sharefs-client1]root@solaris:~# mount -F samfs -o shared /sharefs [sharefs-client1]root@solaris:~# [sharefs-client2]root@solaris:~# mount -F samfs -o shared /sharefs [sharefs-client2]root@solaris:~#
ここで停止します。
Oracle HSM メタデータサーバーおよびクライアントホストに root
としてログインします。
この例では、sharefs
ファイルシステムのメタデータサーバーホスト sharefs-mds
にログインします。次に各クライアント sharefs-client1
および sharefs-client2
に対して端末ウィンドウを開き、ssh
(セキュアシェル) を使用してログインします。
[sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# [sharefs-mds]root@solaris:~# ssh root@sharefs-client2 Password: [sharefs-client2]root@solaris:~#
ファイルシステムが NFS または SAMBA で共有されている場合は、マウントを解除する前に、そのファイルシステムの共有を解除します。メタデータサーバーでコマンド unshare
mount-point
を使用します。ここで mount-point
は、Oracle HSM ファイルシステムのマウントポイントディレクトリです。
[sharefs-mds]root@solaris:~# unshare /sharefs [sharefs-mds]root@solaris:~#
各クライアントから Oracle HSM 共有ファイルシステムをアンマウントします。コマンド umount
mount-point
を使用します。ここで mount-point
は、Oracle HSM ファイルシステムのマウントポイントディレクトリです。
詳細については、umount_samfs
のマニュアルページを参照してください。この例では、2 つのクライアント (sharefs-client1
と sharefs-client2
) から /sharedqfs1
をアンマウントします。
[sharefs-client1]root@solaris:~# umount /sharefs [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~# [sharefs-client2]root@solaris:~# umount /sharefs [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~#
メタデータサーバーから Oracle HSM 共有ファイルシステムをアンマウントします。コマンド umount
-o
await_clients=
interval
mount-point
を使用します。ここで、mount-point
は Oracle HSM ファイルシステムのマウントポイントディレクトリ、interval
は -o
await_clients
オプションで実行を遅延させる秒数です。
Oracle HSM 共有ファイルシステムのメタデータサーバー上で -o
await_clients
オプションを付けて umount
コマンドを発行すると、umount
はクライアントが共有をアンマウントする時間を持てるように、指定された秒数間待機します。非共有ファイルシステムをアンマウントする場合や、Oracle HSM クライアント上でコマンドを発行する場合は影響がありません。詳細については、umount_samfs
のマニュアルページを参照してください。
この例では、サーバーから /sharefs
ファイルシステムをアンマウントします。クライアントにアンマウントする時間を、60
秒間与えます。
[sharefs-mds]root@solaris:~# umount -o await_clients=60 /sharefs [sharefs-mds]root@solaris:~#
ここで停止します。
このセクションでは、共有ファイルシステムのクライアントとして追加ホストを構成する手順、および既存のクライアントの構成を解除する手順について説明します。次のセクションが含まれます。
クライアントホストを共有ファイルシステムに追加するプロセスは、3 つの部分に分かれています。
まず、共有ファイルシステム構成にホスト情報を追加します。
次に、ホストのオペレーティングシステムに固有の手順 (Solaris または Linux) を使用して、ホスト上に共有ファイルシステムを構成します。
最後に、ホストのオペレーティングシステムに固有の手順 (Solaris または Linux) を使用して、ホスト上に共有ファイルシステムをマウントします。
Oracle HSM メタデータサーバーに root
としてログインします。
この例では、Oracle HSM 共有ファイルシステムは sharefs
、メタデータサーバーホストは sharefs-mds
です。
[sharefs-mds]root@solaris:~#
ファイル /etc/opt/SUNWsamfs/hosts.
filesystem
をバックアップします。ここで filesystem
はクライアントホストの追加先であるファイルシステムの名前です。
次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします。
[sharefs-mds]root@solaris:~# cp /etc/opt/SUNWsamfs/hosts.sharefs \ /etc/opt/SUNWsamfs/hosts.sharefs.bak
共有ファイルシステムがマウントされている場合は、アクティブなメタデータサーバーからコマンド samsharefs
filesystem
を実行して、出力をファイル /etc/opt/SUNWsamfs/hosts.
filesystem
にリダイレクトします。ここで filesystem
は、クライアントホストの追加先であるファイルシステムの名前です。
samsharefs
コマンドは、Oracle HSM 共有ファイルシステムのホスト構成を表示します。出力をファイルにリダイレクトすると、新しい hosts ファイルが作成されます (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。
[sharefs-mds]root@solaris:~# samsharefs sharedqfs1 > \ /etc/opt/SUNWsamfs/hosts.sharedqfs1
共有ファイルシステムがマウントされていない場合は、アクティブまたは潜在的なメタデータサーバーからコマンド samsharefs
-R
filesystem
を実行して、出力をファイル /etc/opt/SUNWsamfs/hosts.
filesystem
にリダイレクトします。ここで filesystem
は、クライアントホストの追加先であるファイルシステムの名前です。
samsharefs
-R
コマンドは、アクティブまたは潜在的なメタデータサーバーからのみ実行できます (詳細については、samsharefs
のマニュアルページを参照)。samsharefs
コマンドは、Oracle HSM 共有ファイルシステムのホスト構成を表示します。出力をファイルにリダイレクトすると、新しい hosts ファイルが作成されます。この例では、メタデータサーバー sharefs-mds
からコマンドを実行します (次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします)。
[sharefs-mds]root@solaris:~# samsharefs -R sharedqfs1 \ > /etc/opt/SUNWsamfs/hosts.sharedqfs1
新たに作成された hosts ファイルをテキストエディタで開きます。
次の例では、vi
エディタを使用します。ホスト構成には、アクティブなメタデータサーバー sharefs-mds
、潜在的なメタデータサーバーでもある 1 つのクライアント sharefs-mds_alt
、および他の 2 つのクライアント sharefs-client1
と sharefs-client2
が含まれています。
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117 1 0 server sharefs-mds_alt 10.79.213.217 2 0 sharefs-client1 10.79.213.133 0 0 sharefs-client2 10.79.213.47 0 0
hosts ファイルに新しいクライアントホストの行を追加し、ファイルを保存して、エディタを閉じます。
この例では、ホスト sharefs-client3
のエントリを追加します。
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117 1 0 server sharefs-mds_alt 10.79.213.217 2 0 sharefs-client1 10.79.213.133 0 0 sharefs-client2 10.79.213.47 0 0 sharefs-client3 10.79.213.49 0 0 :wq [sharefs-mds]root@solaris:~#
ファイルシステムがマウントされている場合は、アクティブなメタデータサーバーからファイルシステムを更新します。コマンド samsharefs
-u
filesystem
を使用します。ここで filesystem
はクライアントホストの追加先であるファイルシステムの名前です。
samsharefs
コマンドは、修正されたホストファイルを再度読み取り、構成を更新します。
[sharefs-mds]root@solaris:~# samsharefs -u sharefs1
ファイルシステムがマウントされていない場合は、アクティブなメタデータサーバーまたは潜在的なメタデータサーバーからファイルシステムを更新します。コマンド samsharefs
-R
-u
filesystem
を使用します。ここで filesystem
はクライアントホストの追加先であるファイルシステムの名前です。
samsharefs
コマンドは、修正されたホストファイルを再度読み取り、構成を更新します。
[sharefs-mds]root@solaris:~# samsharefs -R -u sharefs1
クライアントとして Solaris ホストを追加する場合は、Solaris クライアントでの共有ファイルシステムの構成に進みます。
クライアントとして Linux ホストを追加する場合は、Linux クライアントホストでの共有ファイルシステムの構成に進みます。
共有ファイルシステムクライアントで、root
としてログインします。
この例では、Oracle HSM 共有ファイルシステムは sharefs
、クライアントホストは sharefs-client1
です。
[sharefs-client1]root@solaris:~#
端末ウィンドウで、共有ファイルシステムの構成情報を取得します。コマンド samfsconfig
device-path
を使用します。ここで device-path
は、コマンドがファイルシステムディスクデバイスの検索を開始する場所 (/dev/dsk/*
や /dev/zvol/dsk/rpool/*
など) です。
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っているため、潜在的なメタデータサーバーとしての使用に適している場合は、samfsconfig
の出力が、ファイルシステムのメタデータサーバーで作成された mcf
ファイルに酷似しています。
この例では、ホスト sharefs-client1
がメタデータデバイス (装置タイプ mm
) へのアクセス権を持っているため、コマンドの出力にサーバー sharefs-mds
上の mcf
ファイルに一覧表示されるものと同じ装置が表示されます。ホストで割り当てられたデバイスコントローラ番号のみが異なります。
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # Generation 0 Eq count 4 Eq meta count 1 sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、samfsconfig
コマンドではメタデータデバイスを検索できません。したがって、検出された Oracle HSM デバイスをファイルシステム構成に合わせることはできません。コマンドの出力では、Missing
Slices
の下に Ordinal
0
(メタデータデバイス) が一覧表示されますが、ファイルシステムファミリセットを識別する行を含めることができず、データデバイスの一覧がコメントアウトされています。
この例では、ホスト sharefs-client2
はデータデバイスへのアクセス権のみを持っています。したがって、samfsconfig
の出力は次のように表示されます。
[sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # Missing slices # Ordinal 0 # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
samfsconfig
の出力から共有ファイルシステムのエントリをコピーします。次に、2 つ目のウィンドウからテキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、コピーしたエントリをファイルにペーストします。
1 つ目の例では、ホスト sharefs-client1
がファイルシステムのメタデータデバイスへのアクセス権を持っているため、mcf
ファイルの始まりは次のように表示されます。
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
2 つ目の例では、ホスト sharefs-client2
がファイルシステムのメタデータデバイスへのアクセス権を持っていないため、mcf
ファイルの始まりは次のように表示されます。
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っている場合は、共有ファイルシステムのエントリの「Additional Parameters
」フィールドに、shared
パラメータを追加します。
1 つ目の例では、ホスト sharefs-client1
はメタデータへのアクセス権を持っています。
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、共有ファイルシステムの行を追加し、shared
パラメータを追加します。
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、メタデータデバイスの行を追加します。Equipment
Identifier
フィールドを nodev
(デバイスなし) に設定し、残りのフィールドはメタデータサーバーの場合とまったく同じ値に設定します。
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、データデバイスのエントリのコメントを解除します。
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs - /dev/dsk/c4t3d0s1 303 mr sharefs -
すべてのデバイスで「Device State
」フィールドが「on
」に設定されていることを確認し、mcf
ファイルを保存して、エディタを閉じます。
1 つ目の例では、ホスト sharefs-client1
がファイルシステムのメタデータデバイスへのアクセス権を持っているため、mcf
ファイルの終わりは次のように表示されます。
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared /dev/dsk/c1t0d0s0 301 mm sharefs on /dev/dsk/c1t3d0s0 302 mr sharefs on /dev/dsk/c1t3d0s1 303 mr sharefs on :wq [sharefs-client1]root@solaris:~#
2 つ目の例では、ホスト sharefs-client2
がファイルシステムのメタデータデバイスへのアクセス権を持っていないため、mcf
ファイルの終わりは次のように表示されます。
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #---------------- --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs on /dev/dsk/c4t3d0s1 303 mr sharefs on :wq [sharefs-client2]root@solaris:~#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。
sam-fsd
は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーが発生した場合は停止します。この例では、sharefs-client1
上で mcf
ファイルを確認します。
[sharefs-client1]root@solaris:~# sam-fsd
次に、Solaris ホストに共有ファイルシステムをマウントします。
共有ファイルシステムホストで、root
としてログインします。
この例では、Oracle HSM 共有ファイルシステムは sharefs
、ホストは sharefs-client1
という名前のクライアントです。
[sharefs-client1]root@solaris:~#
オペレーティングシステムの /etc/vfstab
ファイルをバックアップします。
[sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
テキストエディタで /etc/vfstab
ファイルを開き、共有ファイルシステムの行を追加します。
この例では、vi
テキストエディタでファイルを開き、sharefs
ファミリセットデバイスの行を追加します。
[sharefs-client1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------ /devices - /devices devfs - no - /proc - /proc proc - no - ... sharefs - /sharefs samfs - no
クライアント上のファイルシステムを共有ファイルシステムとしてマウントするには、共有ファイルシステムの vfstab
エントリの「Mount Options
」列に shared
オプションを入力します。
現在のクライアントで共有ファイルシステム sharefs
を読み取り専用でマウントする必要がある場合は、vfstab
エントリを次の例で示すように編集します。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- ------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared
セパレータとしてコンマを使用して、その他の必要なマウントオプションを追加し、その他の必要な変更を /etc/vfstab
ファイルに加えます。次に、/etc/vfstab
ファイルを保存します。
この例では、追加のマウントオプションはありません。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared
:wq
[sharefs-client1]root@solaris:~#
/etc/vfstab
ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。
マウントポイントのアクセス権は、メタデータサーバーおよびその他のすべてのクライアントと同じにする必要があります。ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x
) を持っている必要があります。この例では、/sharefs
マウントポイントディレクトリを作成し、アクセス権を 755
(-rwxr-xr-x
) に設定します。
[sharefs-client1]root@solaris:~# mkdir /sharefs [sharefs-client1]root@solaris:~# chmod 755 /sharefs [sharefs-client1]root@solaris:~#
共有ファイルシステムをマウントします。
[sharefs-client1]root@solaris:~# mount /sharefs [sharefs-client1]root@solaris:~#
分散テープ入出力データムーバーとして潜在的なメタデータサーバーホストを追加する場合は、分散テープ入出力用のデータムーバークライアントの構成に進みます。
ここで停止します。
Linux クライアント上で、root
としてログインします。
この例では、Oracle HSM 共有ファイルシステムは sharefs
、ホストは sharefs-clientL
という名前の Linux クライアントです。
[sharefs-clientL][root@linux ~]#
端末ウィンドウで、samfsconfig
device-path
コマンドを使用して共有ファイルシステムに関する構成情報を取得します。ここで device-path
は、コマンドがファイルシステムディスクデバイスの検索を開始する場所 (/dev/*
など) です。
Linux ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていないため、samfsconfig
コマンドではメタデータデバイスを検索できません。したがって、検出された Oracle HSM デバイスをファイルシステム構成に合わせることはできません。コマンドの出力では、Missing
Slices
の下に Ordinal
0
(メタデータデバイス) が一覧表示されますが、ファイルシステムファミリセットを識別する行を含めることができず、データデバイスの一覧がコメントアウトされています。
この例では、Linux ホスト sharefs-clientL
用の samfsconfig
出力が次のように表示されます。
[sharefs-clientL][root@linux ~]# samfsconfig /dev/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # # Missing slices # Ordinal 0 # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
samfsconfig
の出力から共有ファイルシステムのエントリをコピーします。次に、2 つ目のウィンドウからテキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、コピーしたエントリをファイルにペーストします。
この例では、Linux ホスト sharefs-clientL
用の mcf
ファイルの始まりが次のように表示されます。
[sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ------------- # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
ファイルに共有ファイルシステムの行を挿入し、shared
パラメータを追加します。
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ------------- sharefs 300 ma sharefs - shared # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
ファイルに、ファイルシステムのメタデータデバイスの行を挿入します。Linux ホストはメタデータデバイスへのアクセス権を持っていないため、Equipment
Identifier
フィールドを nodev
(デバイスなし) に設定し、残りのフィールドはメタデータサーバーの場合とまったく同じ値に設定します。
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
ファイルで、Linux データデバイスのエントリをコメント解除します。
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs - /dev/sda5 303 mr sharefs -
すべてのデバイスで「Device State
」フィールドが「on
」に設定されていることを確認し、mcf
ファイルを保存します。
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs on /dev/sda5 303 mr sharefs on :wq [sharefs-clientL][root@linux ~]#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。
sam-fsd
は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーが発生した場合は停止します。この例では、Linux クライアント sharefs-clientL
上で mcf
ファイルを確認します。
[sharefs-clientL][root@linux ~]# sam-fsd
次に、Linux ホストに共有ファイルシステムをマウントします。
Linux クライアント上で、root
としてログインします。
この例では、Oracle HSM 共有ファイルシステムは sharefs
、ホストは sharefs-clientL
という名前の Linux クライアントです。
[sharefs-clientL][root@linux ~]#
オペレーティングシステムの /etc/fstab
ファイルをバックアップします。
[sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
テキストエディタで /etc/fstab
ファイルを開き、共有ファイルシステムの行を開始します。
この例では、vi
テキストエディタを使用して、sharefs
ファミリセットデバイスの行を追加します。
[sharefs-clientL][root@linux ~]# vi /etc/fstab #File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs
ファイルの 4 列目で、必須の shared
マウントオプションを追加します。
[sharefs-clientL][root@linux ~]# vi /etc/fstab
#File
#Device Mount System Mount Dump Pass
#to Mount Point Type Options Frequency Number
#-------- ------- -------- ------------------------- --------- ------
...
/proc /proc proc defaults
sharefs /sharefs samfs shared
ファイルの 4 列目で、セパレータとしてコンマを使用して、その他の必要なマウントオプションを追加します。
Linux クライアントでは、次の追加マウントオプションがサポートされています。
rw
, ro
retry
meta_timeo
rdlease
, wrlease
, aplease
minallocsz
, maxallocsz
noauto
, auto
この例では、オプション noauto
を追加します。
#File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs shared,noauto
ファイルの残りの 2 列には、それぞれゼロ (0
) を入力します。次に、/etc/fstab
ファイルを保存します。
#File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs shared,noauto 0 0 :wq [sharefs-clientL][root@linux ~]#
/etc/fstab
ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。
マウントポイントのアクセス権は、メタデータサーバーおよびその他のすべてのクライアントと同じにする必要があります。ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x
) を持っている必要があります。この例では、/sharefs
マウントポイントディレクトリを作成し、アクセス権を 755
(-rwxr-xr-x
) に設定します。
[sharefs-clientL][root@linux ~]# mkdir /sharefs [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
共有ファイルシステムをマウントします。コマンド mount
mountpoint
を使用します。ここで mountpoint
は、/etc/fstab
ファイルで指定されたマウントポイントディレクトリです。
例で示すように、mount
コマンドは警告を生成します。これは通常の動作であり、無視できます。
[sharefs-clientL][root@linux ~]# mount /sharefs Warning: loading SUNWqfs will taint the kernel: SMI license See http://www.tux.org/lkml/#export-tainted for information about tainted modules. Module SUNWqfs loaded with warnings
ここで停止します。
次で説明するように、共有ファイルシステムからホストを削除しても、単にサーバー構成からホストが削除されるだけです (完全にホストの構成を解除するには、ソフトウェアおよび構成ファイルをアンインストールしてください)。
Oracle HSM メタデータサーバーに root
としてログインします。
この例では、Oracle HSM 共有ファイルシステムは sharefs
、メタデータサーバーホストは sharefs-mds
です。
[sharefs-mds]root@solaris:~#
各クライアントに root
としてログインし、共有ファイルシステムをアンマウントします。
潜在的なメタデータサーバー自体もクライアントであることを忘れないでください。この例には、sharefs-client1
、sharefs-client2
、および sharefs-mds_alt
の 3 つのクライアントと、潜在的なメタデータサーバーがあります。各クライアントに対して、ssh
を使用してログインし、ファイルシステム sharefs
をアンマウントし、ssh
セッションを終了します。
[sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# umount sharefs [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh root@sharefs-client2 Password: [sharefs-client2]root@solaris:~# umount sharefs [sharefs-client2]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# umount sharefs root@solaris:~# exit [sharefs-mds]root@solaris:~#
メタデータサーバー上で、共有ファイルシステムをアンマウントします。
[sharefs-mds]root@solaris:~# umount sharefs
メタデータサーバー上で、ファイル /etc/opt/SUNWsamfs/hosts.
filesystem
の名前を /etc/opt/SUNWsamfs/hosts.
filesystem
.bak
に変更します。ここで filesystem
は、クライアントホストの削除元であるファイルシステムの名前です。
次のコマンドは 1 行で入力し、改行はバックスラッシュ文字でエスケープします。
[sharefs-mds]root@solaris:~# mv /etc/opt/SUNWsamfs/hosts.sharefs \ /etc/opt/SUNWsamfs/hosts.sharefs.bak
現在の共有ファイルシステムのホスト構成をファイル上に取得します。メタデータサーバーからコマンド samsharefs -R
filesystem
を実行して、出力をファイル /etc/opt/SUNWsamfs/hosts.
filesystem
にリダイレクトします。ここで filesystem
は、クライアントホストの追加先であるファイルシステムの名前です。
samsharefs
コマンドは、指定した Oracle HSM 共有ファイルシステムのホスト構成を表示します。出力をファイルにリダイレクトすると、新しい hosts ファイルが作成されます。この例では、メタデータサーバー sharefs-mds
からコマンドを実行します。
[sharefs-mds]root@solaris:~# samsharefs -R sharedqfs1 > / /etc/opt/SUNWsamfs/hosts.sharedqfs1
新たに作成された hosts ファイルをテキストエディタで開きます。
次の例では、vi
エディタを使用します。クライアント sharefs-client3
を削除する必要があります。
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117 1 0 server sharefs-mds_alt 10.79.213.217 2 0 sharefs-client1 10.79.213.133 0 0 sharefs-client2 10.79.213.47 0 0 sharefs-client3 10.79.213.49 0 0
hosts ファイルで、削除する必要のあるクライアントホストに対応する行を削除します。次に、ファイルを保存し、エディタを閉じます。
この例では、ホスト sharefs-client3
のエントリを削除します。
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
sharefs-mds_alt 10.79.213.217 2 0
sharefs-client1 10.79.213.133 0 0
sharefs-client2 10.79.213.47 0 0
:wq
[sharefs-mds]root@solaris:~#
修正されたホストファイルを使用してファイルシステムを更新します。メタデータサーバーからコマンド samsharefs
-R
-u
filesystem
を使用します。ここで filesystem
はクライアントホストの削除元であるファイルシステムの名前です。
[sharefs-mds]root@solaris:~# samsharefs -u sharefs
メタデータサーバーホスト上で、共有ファイルシステムをマウントします。
この例では、/etc/vfstab
ファイルに sharefs
ファイルシステムのエントリが含まれているため、単純なマウント構文を使用します (詳細な情報については、mount_samfs
のマニュアルページを参照)。
[sharefs-mds]root@solaris:~# mount sharefs
各クライアントホスト上で、共有ファイルシステムをマウントします。
潜在的なメタデータサーバー自体もクライアントであることを忘れないでください。この例には、sharefs-client1
、sharefs-client2
、および sharefs-mds_alt
の 3 つのクライアントと、潜在的なメタデータサーバーがあります。各クライアントに対して、ssh
を使用してログインし、ファイルシステム sharefs
をアンマウントし、ssh
セッションを終了します。
[sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# mount sharefs sharefs-mds_alt]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# mount sharefs sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh root@sharefs-client2 Password: [sharefs-client2]root@solaris:~# mount sharefs sharefs-client2]root@solaris:~# exit [sharefs-mds]root@solaris:~#
ここで停止します。
Oracle HSM リリース 6.1 以降、Solaris 11 以上が実行されている共有アーカイブファイルシステムのクライアントは、テープドライブを接続して、ファイルシステムの代わりにテープ入出力を実行できます。これらのデータムーバーホスト間でテープ入出力を分散させると、サーバーのオーバーヘッドが大幅に削減されるため、ファイルシステムのパフォーマンスが向上し、Oracle HSM 実装のスケーリング時の柔軟性が大幅に向上します。アーカイブの必要性が高くなれば、Oracle HSM メタデータサーバーをより強力なシステムに交換するか (垂直スケーリング)、より多くのクライアント間で負荷を分散させるか (水平スケーリング) の選択肢があります。
分散テープ入出力用のクライアントを構成するには、次のように進めます。
分散入出力用に使用されるすべてのデバイスをクライアントに接続します。
まだ実行していない場合は、手順永続的なバインドを使用したテープドライブの接続を実行します。その後、ここに戻ります。
共有アーカイブファイルシステムのメタデータサーバーに root
としてログインします。
この例では、ホスト名は samsharefs-mds
です。
[samsharefs-mds]root@solaris:~#
メタデータサーバーで Oracle HSM Solaris 11 以上が実行されていることを確認します。
[samsharefs-mds]root@solaris:~# uname -r 5.11 [samsharefs-mds]root@solaris:~#
データムーバーとして動作するすべてのクライアントで、Oracle HSM Solaris 11 以上が実行されていることを確認します。
この例では、各クライアントホスト samsharefs-client1
および samsharefs-client2
に対して端末ウィンドウを開き、ssh
を使用してリモートでログインします。ログインバナーに Solaris バージョンが表示されます。
[samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1 ... Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client1]root@solaris:~# [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2 ... Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client2]root@solaris:~#
メタデータサーバーでファイル /etc/opt/SUNWsamfs/defaults.conf
をテキストエディタで開き、行 distio =
をコメント解除し、値を on
に設定して分散入出力を有効にします。
デフォルトでは、「distio
」は「off
」 (無効) になっています。
この例では、vi
エディタでファイルを開き、行を追加します。
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. ... distio = on
次に、分散入出力に追加するデバイスタイプを特定します。分散入出力でデバイスタイプ dev
を使用するには、defaults.conf
ファイルに行 dev
_distio
=
on
を追加します。分散入出力からデバイスタイプ dev
を除外するには、行 dev
_distio
=
off
を追加します。ファイルを保存して、エディタを閉じます。
デフォルトでは、Oracle HSM T10000 ドライブおよび LTO ドライブを分散入出力に追加できます (ti_distio
=
on
および li_distio
=
on
) が、その他のタイプはすべて除外されています。この例では、LTO ドライブを除外します。
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. ... distio = on li_distio = off :wq [samsharefs-mds]root@solaris:~#
データムーバーとして動作する各クライアント上で、サーバー上のファイルと一致するように defaults.conf
ファイルを編集します。
この例では、クライアント samsharefs-client1
上の defaults.conf
ファイルを vi
を使用して編集し、このファイルを保存してエディタを閉じます。
[samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1 Password: [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. ... distio = on li_distio = off :wq [samsharefs-client1]root@solaris:~# [samsharefs-mds]root@solaris:~#
データムーバーとして動作する各クライアント上で、テキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開きます。分散テープ入出力用にメタデータサーバーが使用しているテープデバイスをすべて追加します。デバイスの順序および装置番号がメタデータサーバー上の mcf
ファイルのものと同じであることを確認します。
この例では、vi
を使用してクライアント samsharefs-client1
上の mcf
ファイルを編集します。
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ ------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti on /dev/rmt/61cbn 902 ti on /dev/rmt/62cbn 903 ti on /dev/rmt/63cbn 904 ti on
データムーバーとして動作するクライアント上に、メタデータサーバー上の /etc/opt/SUNWsamfs/mcf
ファイルに一覧表示されたテープライブラリが構成されている場合は、分散テープ入出力用に使用されているテープデバイスのファミリセット名としてライブラリファミリセットを指定します。ファイルを保存します。
この例では、ホスト上にライブラリが構成されているため、テープデバイスのファミリセット名 library1
を使用します。
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ ------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/scsi/changer/c1t0d5 900 rb library1 on /dev/rmt/60cbn 901 ti library1 on /dev/rmt/61cbn 902 ti library1 on /dev/rmt/62cbn 903 ti library1 on /dev/rmt/63cbn 904 ti library1 on :wq [samsharefs-client1]root@solaris:~#
データムーバーとして動作するクライアント上に、メタデータサーバー上の /etc/opt/SUNWsamfs/mcf
ファイルに一覧表示されたテープライブラリが構成されていない場合は、分散テープ入出力用に使用されているテープデバイスのファミリセット名としてハイフン (-
) を使用します。
この例では、ライブラリはホスト上で構成されていません。
[samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ ------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti - on /dev/rmt/61cbn 902 ti - on /dev/rmt/62cbn 903 ti - on /dev/rmt/63cbn 904 ti - on :wq [samsharefs-client2]root@solaris:~#
特定のアーカイブセットのコピーで分散テープ入出力を有効または無効にする必要がある場合は、テキストエディタでサーバーの /etc/opt/SUNWsamfs/archiver.cmd
ファイルを開き、-distio
パラメータをコピーディレクティブに追加します。分散入出力を有効にするには「 -distio
on
」、無効にするには「off
」を設定します。ファイルを保存して、エディタを閉じます。
この例では、vi エディタを使用して、コピー 1
の分散入出力を「off
」、コピー 2
の分散入出力を「on
」に設定します。
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd # archiver.cmd # Generated by config api Mon Nov 22 14:31:39 2013 ... # # Copy Parameters Directives params allsets -sort path -offline_copy stageahead allsets.1 -startage 10m -startsize 500M -startcount 500000 -distio off allsets.2 -startage 24h -startsize 20G -startcount 500000 -distio on :wq [samsharefs-mds]root@solaris:~#
各ホストで、sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、見つかったエラーを修正します。
sam-fsd
は、Oracle HSM 構成ファイルを読み取る初期化コマンドです。エラーが発生した場合は停止します。この例では、Linux クライアント sharefs-clientL
上で mcf
ファイルを確認します。
[sharefs-clientL][root@linux ~]# sam-fsd
サーバーで、変更した構成ファイルを読み取り、ソフトウェア自体を適宜再構成するように、Oracle HSM ソフトウェアに指示します。コマンド samd config
を使用し、見つかったエラーを修正します。
この例では、サーバー sharefs-mds
上でコマンド samd config
を実行します。
[samsharefs-mds]root@solaris:~# samd config
ここで停止します。
潜在的なメタデータサーバーまたは分散入出力データムーバークライアントとして機能するホストを追加する際には、永続的なバインドを使用してリムーバブルメディアデバイスを構成する必要があります。Solaris オペレーティングシステムは、起動時にデバイスが検出される順序でドライブをシステムデバイスツリーに追加します。この順序によって、その他のファイルシステムホストでデバイスが検出される順序や、テープライブラリに物理的にインストールされる順序が反映される場合と、反映されない場合があります。したがって、その他のホストにバインドするときと同じ方法、およびリムーバブルメディアライブラリにインストールされるときと同じ順序で、デバイスを新しいホストにバインドする必要があります。
次の手順では、必要なステップの概要を示します (完全な情報については、devfsadm
および devlinks
のマニュアルページ、および使用している Solaris オペレーティングシステムのバージョンに対応した管理ドキュメントを参照)。
ライブラリ内のドライブを移動、追加、または削除した場合や、アーカイブ Oracle HSM 共有ファイルシステムに関連付けられているライブラリを交換または再構成した場合は、変更を反映させるために永続的なバインドを更新します。
新しいメタデータサーバーまたはデータムーバークライアントをアーカイブ Oracle HSM 共有ファイルシステムに追加する場合は、新しいファイルシステムホストをリムーバブルメディアデバイスに永続的にバインドします
アクティブなメタデータサーバーホストに root
としてログインします。
[sharefs-mds]root@solaris:~#
ドライブをライブラリに取り付ける順序の判別で説明するように、新しいドライブマッピングファイルを作成します。
この例では、device-mappings.txt
ファイルは次のように表示されます。
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- ----------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
/etc/devlink.tab
ファイルをテキストエディタで開きます。
この例では、vi
エディタを使用します。
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. # This is the table used by devlinks # Each entry should have 2 fields; but may have 3. Fields are separated # by single tab ('\t') characters. ...
ガイドとして device-mappings.txt
ファイルを使用して、Solaris テープデバイスツリー内の開始ノードをライブラリ内の 1 番目のドライブに再マッピングします。/etc/devlink.tab
ファイルに、type=ddi_byte:tape;
addr=
device_address
,0;
rmt/
node-number
\M0
という形式の行を追加します。ここで、device_address
はデバイスの物理アドレス、node-number
は Solaris デバイスツリー内のデバイスの位置です。Solaris で自動的に構成されるデバイスとの競合を回避するために、十分に大きいノード番号を選択してください (Solaris ではノード 0
から始まります)。
この例では、ライブラリ内の 1 番目のデバイス 1
のデバイスアドレス w500104f0008120fe
を書き留め、デバイスが rmt/1
にあるホストに現在接続されていることを確認します。
[sharefs-mds] vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- ----------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
/etc/devlink.tab
に、rmt/60
をライブラリ内の番号 1
のドライブ w500104f0008120fe
に再マッピングする 1 行を作成します。
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 :w
メタデータサーバー上のデバイスツリー内のドライブ順序とライブラリへのインストール順序が一致するように、Oracle HSM アーカイブ用に割り当てられているテープデバイスごとに、/etc/devlink.tab
ファイルへの行の追加を繰り返します。ファイルを保存して、エディタを閉じます。
この例では、残りの 3 つのデバイス (w500104f00093c438
にあるライブラリドライブ 2
、w500104f000c086e1
にあるライブラリドライブ 3
、w500104f000c086e1
にあるライブラリドライブ 4
) の順序とアドレスを書き留めます。
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt ... 2 /dev/rmt/0cbn -> ../../devices/pci@8\.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8\.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8\.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8\.../st@w500104f000b6d98d,0:cbn
次に、デバイスのアドレスを次の 3 つの Solaris デバイスノードにマッピングして、ライブラリ内と同じ順序を保持します。
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds]root@solaris:~#
/dev/rmt
内のテープデバイスへの既存のリンクをすべて削除します。
[sharefs-mds]root@solaris:~# rm /dev/rmt/*
/etc/devlink.tab
ファイル内のエントリから、新しい永続的なテープデバイスのリンクを作成します。コマンド devfsadm -c tape
を使用します。
devfsadm
コマンドを実行するたびに、/etc/devlink.tab
ファイルで指定された構成を使用して、そのファイルに指定されたデバイス用に新しいテープデバイスのリンクが作成されます。-c tape
オプションを指定すると、テープクラスデバイス用の新しいリンクのみが作成されるようにコマンドが制限されます。
[sharefs-mds]root@solaris:~# devfsadm -c tape
潜在的なメタデータサーバーおよび共有ファイルシステム構成のデータムーバーで操作を繰り返します。いずれの場合も、/etc/devlink.tab
ファイルに同じ行を追加し、/dev/rmt
内のリンクを削除し、devfsadm -c tape
を実行します。
この例では、ssh
を使用して各ホストに順にログインし、同じ 4 つの論理デバイス rmt/60\M0
、rmt/61\M0
、rmt/62\M0
、および rmt/63\M0
を構成します。
[sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* [sharefs-mds_alt]root@solaris:~# devfsadm -c tape [sharefs-mds_alt]root@solaris:~# exit sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-client1]root@solaris:~# rm /dev/rmt/* [sharefs-client1]root@solaris:~# devfsadm -c tape [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~#
ホストに root
としてログインします。
[sharefs-mds]root@solaris:~#
既存のファイルシステムホストが構成されたために、メディアライブラリ内のデバイスの物理的な順序が変更された場合は、ドライブをライブラリに取り付ける順序の判別で説明するように、新しいマッピングファイルを作成します。
この例では、device-mappings.txt
ファイルは次のように表示されます。
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- ----------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
テキストエディタで /etc/devlink.tab
ファイルを開きます。
この例では、vi
エディタを使用します。
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. # This is the table used by devlinks # Each entry should have 2 fields; but may have 3. Fields are separated # by single tab ('\t') characters. ...
ガイドとして device-mappings.txt
ファイルを使用して、Solaris テープドライブツリー内の開始ノード rmt/
node-number
をライブラリ内の 1 番目のドライブに再マッピングします。/etc/devlink.tab
ファイルに行を、type=ddi_byte:tape;
addr=
device_address
,0;
rmt/
node-number
\M0
の形式で入力します。ここでは: device_address
はデバイスの物理アドレス、node-number
は Solaris デバイスツリー内のデバイスの位置です。Solaris で自動的に構成されるデバイスとの競合を回避するために、十分に大きいノード番号を選択してください (Solaris ではノード 0
から始まります)。
この例では、ライブラリ内の 1 番目のデバイス 1
のデバイスアドレス w500104f0008120fe
を書き留め、デバイスが rmt/1
にあるホストに現在接続されていることを確認します。
[sharefs-mds] vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- ----------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
/etc/devlink.tab
に、rmt/60
をライブラリ内の番号 1
のドライブ w500104f0008120fe
に再マッピングする 1 行を作成します。
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 :w
メタデータサーバー上のデバイスツリー内のドライブ順序とライブラリへのインストール順序が一致するように、Oracle HSM アーカイブ用に割り当てられているテープデバイスごとに、/etc/devlink.tab
ファイルへの行の追加を繰り返します。ファイルを保存します。
この例では、残りの 3 つのデバイス (w500104f00093c438
にあるライブラリドライブ 2
、w500104f000c086e1
にあるライブラリドライブ 3
、w500104f000c086e1
にあるライブラリドライブ 4
) の順序とアドレスを書き留めます。
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt ... 2 /dev/rmt/0cbn -> ../../devices/pci@8.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8.../st@w500104f000b6d98d,0:cbn
次に、デバイスのアドレスを次の 3 つの Solaris デバイスノードにマッピングして、ライブラリ内と同じ順序を保持します。
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds]root@solaris:~#
/dev/rmt
内のテープデバイスへの既存のリンクをすべて削除します。
[sharefs-mds]root@solaris:~# rm /dev/rmt/*
/etc/devlink.tab
ファイル内のエントリから、新しい永続的なテープデバイスのリンクを作成します。コマンド devfsadm -c tape
を使用します。
devfsadm
コマンドを実行するたびに、/etc/devlink.tab
ファイルで指定された構成を使用して、そのファイルに指定されたデバイス用に新しいテープデバイスのリンクが作成されます。-c tape
オプションを指定すると、テープクラスデバイス用の新しいリンクのみが作成されるようにコマンドが制限されます。
[sharefs-mds]root@solaris:~# devfsadm -c tape
潜在的なメタデータサーバーおよび共有ファイルシステム構成内のデータムーバ-のそれぞれで、/etc/devlink.tab
ファイルに同じ行を追加し、/dev/rmt
内のリンクを削除し、devfsadm -c tape
を実行します。
この例では、ssh
を使用して潜在的なメタデータサーバーホスト sharefs-mds_alt
およびクライアントホスト sharefs-client1
にログインします。次に、それぞれについて同じ 4 つの論理デバイス rmt/60\M0
、rmt/61\M0
、rmt/62\M0
、および rmt/63\M0
を構成します。
[sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* [sharefs-mds_alt]root@solaris:~# devfsadm -c tape [sharefs-mds_alt]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh root@sharefs-client1 Password: [sharefs-client1]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-client1]root@solaris:~# rm /dev/rmt/* [sharefs-client1]root@solaris:~# devfsadm -c tape [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~#
このセクションの手順を実行すると、ファイルシステム用のメタデータサービスが現在のホスト (アクティブなメタデータサーバー) からスタンバイホスト (潜在的なメタデータサーバー) に移動します。使用する手順は、交換するサーバーホストの状態によって異なります。
この手順を実行すると、機能を停止したアクティブなメタデータサーバーホスト外にメタデータサービスを移動できます。ファイルシステムがマウントされている場合でも、潜在的なメタデータサーバーはアクティブになります。次のように進めます。
注意:
障害のあるメタデータサーバーを停止、無効化、または切断するまで、潜在的なメタデータサーバーをアクティブにしないでください。ファイルシステムがマウントされていて、アクティブなメタデータサーバーが停止しているときに、潜在的なサーバーをアクティブにするには、-R
オプションを付けて samsharefs
コマンドを起動する必要があります。これにより、コマンドがファイルシステムインタフェース上ではなく、raw デバイス上で実行されます。そのため、障害のあるサーバーがデバイスに接続されているときに、潜在的なメタデータサーバーをアクティブにすると、障害のあるサーバーによってファイルシステムが壊れる可能性があります。
アクティブなメタデータサーバーに障害がある場合は、何らかの操作を行う前に、メタデータデバイスにアクセスできないことを確認します。影響を受けるホストの電源をオフにして、ホストを停止するか、またはメターデータデバイスから障害のあるホストを切断します。
すべてのクライアントの読み取り、書き込み、および追加のリース期限が切れるように、少なくとも最大のリースタイムが経過するまで待機します。
潜在的なメタデータサーバーに root
としてログインします。
この例では、潜在的なメタデータサーバー sharefs-mds_alt
にログインします。
[sharefs-mds_alt]root@solaris:~#
潜在的なメタデータサーバーをアクティブにします。潜在的なメタデータサーバーから、コマンド samsharefs -R
-s
server
file-system
を発行します。ここで server
は潜在的なメタデータサーバーのホスト名、file-system
は Oracle HSM 共有ファイルシステムの名前です。
この例では、潜在的なメタデータサーバーは sharefs-mds_alt
、ファイルシステム名は sharefs
です。
[sharefs-mds_alt]root@solaris:~# samsharefs -R -s sharefs-mds_alt sharefs
ファイルシステムの整合性を確認し、発生する可能性のある問題を修復する必要がある場合は、ここで手順共有ファイルシステムのアンマウントを使用してファイルシステムをアンマウントします。
ファイルシステムをアンマウントした場合は、ファイルシステムの確認を実行します。コマンド samfsck -F
file-system
を使用します。ここで -F
を指定するとエラーが修復され、file-system
はファイルシステムの名前です。
この例では、ファイルシステム名が sharefs
であることを確認してから、修復します。
[sharefs-mds_alt]root@solaris:~# samfsck -F sharefs
ここで停止します。
必要に応じて、メタデータサービスを正常でアクティブなメタデータサーバーホストから、新たにアクティブにした潜在的なメタデータサーバーに移動できます。たとえば、元のサーバーホストやそのコンポーネントの一部をアップグレードまたは交換するときに、ファイルシステムの可用性を保持するために、メタデータサービスを代替のホストに転送することがあります。次のように進めます。
アクティブなメタデータサーバーと潜在的なメタデータサーバーの両方に root
としてログインします。
この例では、アクティブなメタデータサーバー sharefs-mds
にログインします。次に、2 つ目の端末ウィンドウでセキュアシェル (ssh
) を使用して、潜在的なメタデータサーバー sharefs-mds_alt
にログインします。
[sharefs-mds]root@solaris:~#
[sharefs-mds]root@solaris:~# ssh root@sharefs-mds_alt
Password:
[sharefs-mds-alt]root@solaris:~#
アクティブなメタデータサーバー上で Oracle HSM アーカイブファイルシステムがマウントされている場合は、アクティブなアーカイブおよびステージングジョブを終了し、新しいアクティビティーを停止してから続行してください。アーカイブおよびステージングプロセスのアイドル状態を参照してください。
アクティブなメタデータサーバー上で Oracle HSM アーカイブファイルシステムがマウントされている場合は、リムーバルメディアドライブをアイドル状態にして、ライブラリ制御デーモンを停止します。アーカイブおよびステージングプロセスの停止を参照してください。
crontab
エントリを使用してリサイクラプロセスを実行する場合は、そのエントリを削除して、リサイクラが現在実行されていないことを確認します。
潜在的なメタデータサーバーをアクティブにします。潜在的なメタデータサーバーから、コマンド samsharefs
-s
server
file-system
を発行します。ここで server
は潜在的なメタデータサーバーのホスト名、file-system
は Oracle HSM 共有ファイルシステムの名前です。
この例では、潜在的なメタデータサーバーは sharefs-mds_alt
、ファイルシステム名は sharefs
です。
[sharefs-mds_alt]root@solaris:~# samsharefs -s sharefs-mds_alt sharefs
構成ファイルをロードして、潜在的なメタデータサーバー上で Oracle HSM プロセスを起動します。コマンド samd config
を使用します。
アーカイブ共有ファイルシステムで、samd config
コマンドを使用すると、アーカイブプロセスおよびライブラリ制御デーモンが再起動されます。ただし、ファイルがテープからプライマリディスクキャッシュにステージングされるまで待機している共有ファイルシステムクライアントは、ステージング要求を再発行する必要があります。
crontab
エントリを使用してリサイクラプロセスを実行する必要がある場合は、そのエントリを復元します。
ここで停止します。
非共有ファイルシステムを共有ファイルシステムに変換するには、次のタスクを実行します。
各メタデータサーバー上で、共有ファイルシステムのサーバーおよびクライアントに関するネットワークアドレス情報を一覧表示する hosts ファイルを作成する必要があります。hosts ファイルは、/etc/opt/SUNWsamfs/
ディレクトリに mcf
ファイルとともに格納されています。共有ファイルシステムの初期作成中に、sammkfs -S
コマンドを実行すると、このファイルに格納されている設定を使用して共有が構成されます。ここで、次の手順を使用して作成します。
クライアントとしてファイルシステムを共有するホストのネットワークホスト名と IP アドレスを収集します。
次の例では、hsmfs1
ファイルシステムをクライアント hsmfs1-mds_alt
(潜在的なメタデータサーバー)、hsmfs1-client1
、および hsmfs1-client2
と共有します。
メタデータサーバーに root
としてログインします。
この例では、ホスト hsmfs1-mds
にログインします。
[hsmfs1-mds]root@solaris:~#
テキストエディタを使用して、メタデータサーバー上で /etc/opt/SUNWsamfs/hosts.
family-set-name
を作成します。family-set-name
は、共有する予定のファイルシステムのファミリセット名で置き換えます。
この例では、vi
テキストエディタを使用してファイル hosts.hsmfs1
を作成します。いくつかのオプションの見出しを追加します。各行は、コメントを示すシャープ記号 (#
) で始めます。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
1 列目にメタデータサーバーのホスト名を入力し、2 列目に対応する IP アドレスまたはドメイン名を入力します。列は空白文字で区切ります。
この例では、メタデータサーバーのホスト名および IP アドレスをそれぞれ hsmfs1-mds
、10.79.213.117
と入力します。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1 # /etc/opt/SUNWsamfs/hosts.hsmfs1 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- hsmfs1-mds 10.79.213.117
3 列目を、空白文字でネットワークアドレスと区切って追加します。この列には、サーバーの装置番号 (アクティブなメタデータサーバーの場合は 1
、1 台目の潜在的なメタデータサーバーの場合は 2
など) を入力します。
この例では、メタデータサーバーは 1 つだけであるため、1
を入力します。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
hsmfs1-mds 10.79.213.117 1
4 列目を、空白文字でサーバーの順序番号と区切って追加します。この列には、0
(ゼロ) を入力します。
4 列目の 0
、-
(ハイフン)、または空白値は、ホストが「on
」 (共有ファイルシステムへのアクセスありで構成) であることを示します。1
(数字の 1) は、ホストが「off
」(ファイルシステムへのアクセスなしで構成) であることを示します (共有ファイルシステムを管理する際のこれらの値の使用については、samhsmfs1
のマニュアルページを参照)。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
hsmfs1-mds 10.79.213.117 1 0
5 列目を、空白文字で on/off ステータス列と区切って追加します。この列には、現在アクティブなメタデータサーバーを示すキーワード「server
」を入力します。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
hsmfs1-mds 10.79.213.117 1 0 server
潜在的なメタデータサーバーとして 1 つ以上のホストを追加する予定である場合は、それぞれのエントリを作成します。そのたびに、サーバー番号を増分します。ただし、「server
」キーワードは含めないでください (アクティブなメタデータサーバーは、ファイルシステムごとに 1 つのみです)。
この例では、ホスト hsmfs1-mds_alt
は、サーバー番号が 2
の潜在的なメタデータサーバーです。メタデータサーバーとしてアクティブにしないかぎり、クライアントとなります。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
hsmfs1-mds 10.79.213.117 1 0 server
hsmfs1-mds_alt 10.79.213.217 2 0
クライアントホストごとに 1 行追加して、それぞれのサーバー番号の値を 0
に指定します。
サーバー番号 0
は、クライアントとしてのホストを示します。この例では、2 つのクライアント (hsmfs1-client1
と hsmfs1-client2
) を追加します。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1 # /etc/opt/SUNWsamfs/hosts.hsmfs1 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- hsmfs1-mds 10.79.213.17 1 0 server hsmfs1-mds_alt 10.79.213.7 2 0 hsmfs1-client1 10.79.213.33 0 0 hsmfs1-client2 10.79.213.47 0 0
/etc/opt/SUNWsamfs/hosts.
family-set-name
ファイルを保存して、エディタを終了します。
この例では、/etc/opt/SUNWsamfs/hosts.hsmfs1
への変更を保存して、vi
エディタを終了します。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.hsmfs1
# /etc/opt/SUNWsamfs/hosts.hsmfs1
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
hsmfs1-mds 10.79.213.117 1 0 server
hsmfs1-mds 10.79.213.117 1 0 server
hsmfs1-mds_alt 10.79.213.217 2 0
hsmfs1-client1 10.79.213.133 0 0
hsmfs1-client2 10.79.213.147 0 0
:wq
[hsmfs1-mds]root@solaris:~#
共有ファイルシステムの構成に含まれる任意の潜在的なメタデータサーバー上に、新しい /etc/opt/SUNWsamfs/hosts.
family-set-name
ファイルのコピーを配置します。
この例では、ホスト hsmfs1-mds_alt
上にコピーを配置します。
[hsmfs1-mds]root@solaris:~# sftp root@hsmfs1-mds_alt Password: sftp> cd /etc/opt/SUNWsamfs/ sftp> put /etc/opt/SUNWsamfs/hosts.hsmfs1 sftp> bye [hsmfs1-mds]root@solaris:~#
ここで、非共有ファイルシステムの共有とクライアントの構成を実行します。
メタデータサーバーに root
としてログインします。
この例では、ホスト hsmfs1-mds
にログインします。
[hsmfs1-mds]root@solaris:~#
システムファイルおよび構成ファイルの最新のバックアップコピーがない場合は、ここでバックアップを作成します。Oracle HSM 構成のバックアップを参照してください。
最新のファイルシステムの回復ポイントファイルおよびアーカイブログの最新コピーがない場合も、ここで作成します。ファイルシステムのバックアップを参照してください。
初期構成時にファイルシステムの自動バックアッププロセスを設定する場合は、追加のバックアップが必要ないこともあります。
アーカイブファイルシステムを変換する場合は、アクティブなアーカイブおよびステージングジョブを終了し、新しいアクティビティーを停止してから続行してください。アーカイブおよびステージングプロセスのアイドル状態および アーカイブおよびステージングプロセスの停止を参照してください。
ファイルシステムをマウント解除します。コマンド umount
family-set-name
を使用します。ここで family-set-name
は、共有する予定のファイルシステムのファミリセット名です。
Oracle HSM ファイルシステムのマウントおよびアンマウントの詳細については、mount_samfs
のマニュアルページを参照してください。この例では、hsmfs1
ファイルシステムをアンマウントします。
[hsmfs1-mds]root@solaris:~# umount hsmfs1 [hsmfs1-mds]root@solaris:~#
ファイルシステムを Oracle HSM 共有ファイルシステムに変換します。コマンド samfsck
-
S
-
F
file-system-name
を使用します。ここで file-system-name
はファイルシステムのファミリセット名です。
この例では、hsmfs1
というファイルシステムを変換します。
[hsmfs1-mds]root@solaris:~# samfsck -S -F hsmfs1
テキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、該当するファイルシステムの行を探します。
この例では、vi
エディタを使用します。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- hsmfs1 200 ma hsmfs1 on /dev/dsk/c0t0d0s0 201 mm hsmfs1 on /dev/dsk/c0t3d0s0 202 md hsmfs1 on /dev/dsk/c0t3d0s1 203 md hsmfs1 on
mcf
ファイルで、ファイルシステムエントリの最終列にある「Additional Parameters」フィールドに、shared
パラメータを追加します。その後、ファイルを保存してエディタを閉じます。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- hsmfs1 200 ma hsmfs1 on shared /dev/dsk/c0t0d0s0 201 mm hsmfs1 on /dev/dsk/c0t3d0s0 202 md hsmfs1 on /dev/dsk/c0t3d0s1 203 md hsmfs1 on :wq [hsmfs1-mds]root@solaris:~#
テキストエディタで /etc/vfstab
ファイルを開き、該当するファイルシステムの行を探します。
この例では、vi
エディタを使用します。
[hsmfs1-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - yes
/etc/vfstab
ファイルで、ファイルシステムエントリの最終列にある「Mount Options」フィールドに、shared
マウントオプションを追加します。その後、ファイルを保存してエディタを閉じます。
[hsmfs1-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - yes shared :wq [hsmfs1-mds]root@solaris:~#
共有ファイルシステムおよびホスト構成を初期化します。コマンド samsharefs -u -R
family-set-name
を使用します。ここで family-set-name
はファイルシステムのファミリセット名です。
[hsmfs1-mds]root@solaris:~# samsharefs -u -R hsmfs1
mcf
ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM software に指示します。
[hsmfs1-mds]root@solaris:~# samd config
メタデータサーバー上で共有ファイルシステムをマウントします。
[hsmfs1-mds]root@solaris:~# mount /hsm/hsmfs1
複数のネットワークインタフェースを持つホストを構成する場合は、ローカル hosts ファイルを使用したホストネットワーク通信のルーティングを参照してください。
追加ファイルシステムクライアントの構成で概要を示した手順を使用して、新たに共有したファイルシステムに必要なクライアントを追加します。
個別のホストには、ローカル hosts ファイルは必要ありません。メタデータサーバー上にあるファイルシステムのグローバルファイルは、すべてのファイルシステムホストについて、アクティブなメタデータサーバーとアクティブおよび潜在的なメタデータサーバーのネットワークインタフェースを識別します (アクティブおよび潜在的なメタデータサーバーでのホストファイルの作成を参照)。ただし、複数のネットワークインタフェースを持つファイルシステムホスト間で、ネットワークトラフィックを選択的にルーティングする必要がある場合は、ローカル hosts ファイルが役立ちます。
各ファイルシステムホストは、メタデータサーバー上の /etc/opt/SUNWsamfs/hosts.
family-set-name
ファイルを最初に確認することで、その他のホストのネットワークインタフェースを識別します。ここで family-set-name
は、/etc/opt/SUNWsamfs/mcf
ファイル内で指定されたファイルシステムのファミリ名です。次に、個別の /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
ファイルを確認します。ローカル hosts ファイルが存在しない場合、ホストはグローバル hosts ファイルに指定されたインタフェースアドレスをグローバルファイルに指定された順序で使用します。ただし、ローカル hosts ファイルが存在する場合、ホストはグローバルファイルと比較して、両方のファイルに一覧表示されたインタフェースのみをローカルファイルに指定された順序で使用します。各ファイルでさまざまなアドレスを使用すると、さまざまなホストで使用されているインタフェースを制御できます。
ローカル hosts ファイルを構成するには、次に概要を示す手順を使用します。
アクティブおよび潜在的なメタデータサーバーでのホストファイルの作成で説明するように、メタデータサーバーホスト上およびそれぞれの潜在的なメタデータサーバーホスト上で、グローバル hosts ファイル /etc/opt/SUNWsamfs/hosts.
family-set-name
のコピーを作成します。
このセクションの例では、共有ファイルシステム sharefs2
に、アクティブなメタデータサーバー sharefs2-mds
、および潜在的なメタデータサーバー sharefs2-mds_alt
(それぞれが 2 つのネットワークインタフェースを持つ) が含まれています。また、2 つのクライアント (sharefs2-client1
と sharefs2-client2
) も存在します。
アクティブおよび潜在的なメタデータサーバーが、プライベートネットワークアドレスを使用して相互に通信し、DNS (Domain Name Service) でパブリック LAN (Local Area Network) 上のアドレスに解決できるホスト名を使用してクライアントと通信する必要があります。したがって、ファイルシステムのグローバル hosts ファイル /etc/opt/SUNWsamfs/hosts.sharefs2
には、アクティブおよび潜在的サーバーのエントリの「Network Interface
」フィールド内のプライベートネットワークアドレス、および各クライアントのインタフェースアドレス用のホスト名が指定されています。このファイルは、次のようになっています。
# /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 sharefs2-client1 sharefs2-client1 0 0 sharefs2-client2 sharefs2-client2 0 0
パスとファイル名 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
を使用して、それぞれのアクティブおよび潜在的なメタデータサーバー上でローカル hosts ファイルを作成します。ここで family-set-name
は、/etc/opt/SUNWsamfs/mcf
ファイルで共有ファイルシステムに対して指定された名前です。アクティブおよび潜在的なサーバーで使用するネットワーク用のインタフェースのみを含めてください。
この例では、アクティブおよび潜在的なメタデータサーバーがプライベートネットワークを介して相互に通信するようにするため、各サーバー上のローカル hosts ファイル hosts.sharefs2.local
には、アクティブおよび潜在的なサーバーのプライベートアドレスのみが一覧表示されています。
[sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt Password:
[sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds_alt]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
パスとファイル名 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
を使用して、それぞれのクライアント上でローカル hosts ファイルを作成します。ここで family-set-name
は、/etc/opt/SUNWsamfs/mcf
ファイルで共有ファイルシステムに対して指定された名前です。クライアントで使用するネットワーク用のインタフェースのみを含めてください。
この例では、クライアントはパブリックネットワーク経由でのみサーバーと通信する必要があります。したがって、アクティブおよび潜在的なメタデータサーバーのホスト名のみがファイルに含まれています。
[sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1 Password: [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client1]root@solaris:~# exit [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2 Password:
[sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client2]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
サーバーの構成が完了したときに、この手順を開始した場合は、クライアントを追加します。追加ファイルシステムクライアントの構成を参照してください。
ファイルシステムの共有を解除する必要がある場合は、次のように進めます。
メタデータサーバーに root
としてログインします。
この例では、ホスト hsmfs1-mds
にログインします。
[hsmfs1-mds]root@solaris:~#
手順ファイルシステムの hosts ファイルからのホストの削除を使用して、メタデータサーバーの構成からクライアントを削除します。
システムファイルおよび構成ファイルの最新のバックアップコピーがない場合は、ここでバックアップを作成します。Oracle HSM 構成のバックアップを参照してください。
最新のファイルシステムの回復ポイントファイルおよびアーカイブログの最新コピーがない場合も、ここで作成します。ファイルシステムのバックアップを参照してください。
初期構成時にファイルシステムの自動バックアッププロセスを設定する場合は、追加のバックアップが必要ないこともあります。
アーカイブファイルシステムを変換する場合は、アクティブなアーカイブおよびステージングジョブを終了し、新しいアクティビティーを停止してから続行してください。アーカイブおよびステージングプロセスのアイドル状態および アーカイブおよびステージングプロセスの停止を参照してください。
ファイルシステムをマウント解除します。コマンド umount
family-set-name
を使用します。ここで family-set-name
は、/etc/opt/SUNWsamfs/mcf
ファイル内で共有ファイルシステムに対して指定された名前です。
Oracle HSM ファイルシステムのマウントおよびアンマウントの詳細については、mount_samfs
のマニュアルページを参照してください。この例では、hsmfs1
ファイルシステムをアンマウントします。
[hsmfs1-mds]root@solaris:~# umount hsmfs1
Oracle HSM 共有ファイルシステムを非共有ファイルシステムに変換します。コマンド samfsck -F -U
file-system-name
を使用します。ここで file-system-name
は、/etc/opt/SUNWsamfs/mcf
ファイル内で共有ファイルシステムに対して指定された名前です。
この例では、hsmfs1
というファイルシステムを変換します。
[hsmfs1-mds]root@solaris:~# samfsck -F -U hsmfs1
テキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、該当するファイルシステムの行を探します。
この例では、vi
エディタを使用します。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- hsmfs1 200 ma hsmfs1 on shared /dev/dsk/c0t0d0s0 201 mm hsmfs1 on /dev/dsk/c0t3d0s0 202 md hsmfs1 on /dev/dsk/c0t3d0s1 203 md hsmfs1 on
mcf
ファイルで、ファイルシステムエントリの最終列にある「Additional Parameters」フィールドから、shared
パラメータを削除します。その後、ファイルを保存してエディタを閉じます。
[hsmfs1-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- ------- ------ ----------------- hsmfs1 200 ma hsmfs1 on /dev/dsk/c0t0d0s0 201 mm hsmfs1 on /dev/dsk/c0t3d0s0 202 md hsmfs1 on /dev/dsk/c0t3d0s1 203 md hsmfs1 on :wq [hsmfs1-mds]root@solaris:~#
テキストエディタで /etc/vfstab
ファイルを開き、該当するファイルシステムの行を探します。
この例では、vi
エディタを使用します。
[hsmfs1-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - yes shared
/etc/vfstab
ファイルで、ファイルシステムエントリの最終列にある「Mount Options」フィールドから、shared
マウントオプションを削除します。その後、ファイルを保存してエディタを閉じます。
この例では、vi
エディタを使用します。
[hsmfs1-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... hsmfs1 - /hsm/hsmfs1 samfs - yes :wq [hsmfs1-mds]root@solaris:~#
ファイル /etc/opt/SUNWsamfs/hosts.
file-system-name
を削除します。
mcf
ファイルを再度読み取り、ソフトウェア自体を適宜再構成するように Oracle HSM software に指示します。
[hsmfs1-mds]root@solaris:~# samd config
ファイルシステムをマウントします。
[hsmfs1]root@solaris:~# mount /hsm/hsmfs1
ここで停止します。