Oracle HSM ファイルシステムは、いくつかの方法のいずれかを使用して複数のホスト間で共有できます。それぞれの方法には、ある状況では一定の利点がある一方で、別の状況では著しい欠点もあります。したがって、方法の選択は固有の要件によって異なります。共有する方法は次のとおりです。
Oracle HSM では、すべてのファイルシステムを同時にマウントする 1 つのサーバーおよび 1 つ以上のクライアントを構成することによって、ファイルシステムを複数のホストで使用できるようにします。その後、ファイルデータは、NFS および CIFS 共有に関連するネットワークおよび中間サーバーの待ち時間なしで、高パフォーマンスのローカルパス入出力によってディスクデバイスからホストに直接渡されます。メタデータサーバーとして同時にアクティブにできるホストは 1 つだけですが、冗長化の目的では、任意の数のクライアントを潜在的なメタデータサーバーとして構成できます。ファイルシステムのマウントポイント数には制限がありません。
Oracle HSM では、アーカイブ処理を使用するかどうかに関係なく、複数読み取り/単一書き込み構成と共有構成の両方で高パフォーマンス (ma
) と汎用 (ms
) の両方のファイルシステムへの複数ホストアクセスがサポートされています。制限事項がわずかにあります。
ブロック (b
–) 特殊ファイルはサポートされていません。
文字 (c
–) 特殊ファイルはサポートされていません。
FIFO 名前付きパイプ (p
–) 特殊ファイルはサポートされていません。
セグメント化ファイルはサポートされていません。
セグメント化ファイル環境では、Oracle HSM 共有ファイルシステムを実装できません。
必須のロックはサポートされていません。
必須のロックが設定されている場合は、EACCES
エラーが返されます。ただし、アドバイザリロックはサポートされています。アドバイザリロックの詳細は、fcntl
のマニュアルページを参照してください。
Oracle HSM software ホストは、2 つの構成のいずれかを使用してファイルシステムデータにアクセスできますが、それぞれの構成に特定のアプリケーションでの独自の利点と制限があります。
複数読み取り/単一書き込み構成では、単一のホストに読み取り/書き込みアクセス権を付与してファイルシステムをマウントし、その他のすべてのホストではそれを読み取り専用でマウントします。構成は、単にマウントポイントオプションを設定するだけで済みます。単一のホストがファイルに対するすべての変更を行うため、追加のファイルロックや整合性チェックなしでも、ファイルの整合性およびデータの完全性が保証されます。パフォーマンスを最適にするために、すべてのホストがディスクから直接メタデータとデータを読み取ります。ただし、すべてのホストがファイルシステムのメタデータにアクセスする必要があるため、ma
ファイルシステム内のすべてのホストがデータとメタデータデバイスの両方へのアクセス権を持っている必要があります。
共有構成では、単一のホストが特定の期間内に特定の方法でファイルにアクセスすることを許可するリースを使用することで、すべてのホストがファイルデータの読み取り、書き込み、および追加を行うことができます。メタデータサーバーは読み取り、書き込み、および追加のリースを発行し、更新および競合リースの要求を管理します。共有ファイルシステムでは、高い柔軟性が提供されますが、構成が多少複雑になるため、ファイルシステムのオーバーヘッドが増加します。すべてのホストはディスクから直接ファイルデータを読み取りますが、クライアントはネットワークを介してメタデータにアクセスします。そのため、メタデータデバイスへのアクセス権が不足しているクライアントでも、ma
ファイルシステムを共有できます。
複数のホストからのデータへのアクセスを構成するには、2 つの方法のいずれかを選択します。
単一書き込み/複数読み取りファイルシステムを構成するには、次のタスクを実行します。
次のように進めます。
root
アカウントを使用して、writer
として機能するホストにログインします。
この例では、writer
ホストの名前は swriterfs-mds-writer
です。
[swriterfs1-mds-writer]root@solaris:~#
writer
として機能するホスト上で、/etc/opt/SUNWsamfs/mcf
ファイルをテキストエディタで開き、QFS ファイルシステムを追加します。汎用の ms
または高性能な ma
ファイルシステムを構成できます。
個別のメタデータデバイスを持つ ma
ファイルシステム上で、ファイルシステムのメタデータサーバーを書き込み側として構成します。次の例では、vi
テキストエディタを使用して、ホスト swriterfs1-mds-writer
上の mcf
ファイルを編集します。この例では、装置 ID およびファミリセット名 swriterfs1
と装置番号 300
を使用して ma
ファイルシステムを指定します。
[swriterfs1-mds-writer]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- swriterfs1 300 ma swriterfs1 on /dev/dsk/c0t0d0s0 301 mm swriterfs1 on /dev/dsk/c0t3d0s0 302 mr swriterfs1 on /dev/dsk/c0t3d0s1 303 mr swriterfs1 on
/etc/opt/SUNWsamfs/mcf
ファイルを保存して、エディタを終了します。
この例では、変更を保存して、vi
エディタを終了します。
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#------------------ --------- --------- --------- ------ ---------------
swriterfs1 300 ma swriterfs1 on
/dev/dsk/c0t0d0s0 301 mm swriterfs1 on
/dev/dsk/c0t3d0s0 302 mr swriterfs1 on
/dev/dsk/c0t3d0s1 303 mr swriterfs1 on
:wq
[swriterfs1-mds-writer]root@solaris:~#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。
sam-fsd
コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーを検出すると停止します。
[swriterfs1-mds-writer]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[swriterfs1-mds-writer]root@solaris:~#
Oracle HSM サービスに、mcf
ファイルを再度読み取り、それ自体を適宜再構成するように指示します。コマンド samd
config
を使用します。
[swriterfs1-mds-writer]root@solaris:~# samd config Configuring SAM-FS [swriterfs1-mds-writer]root@solaris:~#
高パフォーマンス ma
ファイルシステムの構成で説明したとおりに、sammkfs
コマンドおよびファイルシステムのファミリセット名を使用して、ファイルシステムを作成します。
この例では、コマンドは単一書き込み/複数読み取りファイルシステム swriterfs1
を作成します。
[swriterfs1-mds-writer]root@solaris:~# sammkfs swriterfs1 Building 'swriterfs1' will destroy the contents of devices: /dev/dsk/c0t0d0s0 /dev/dsk/c0t3d0s0 /dev/dsk/c0t3d0s1 Do you wish to continue? [y/N]yes ...
オペレーティングシステムの /etc/vfstab
ファイルをバックアップします。
[swriterfs1-mds-writer]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [swriterfs1-mds-writer]root@solaris:~#
高パフォーマンス ma
ファイルシステムの構成で説明したとおりに、オペレーティングシステムの /etc/vfstab
ファイルに新しいファイルシステムを追加します。
この例では、vi
テキストエディタで /etc/vfstab
ファイルを開き、swriterfs1
ファミリセットデバイスの行を追加します。
[swriterfs1-mds-writer]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ----------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... swriterfs1 - /swriterfs1 samfs - no
/etc/vfstab
ファイルの「Mount Options
」列に、writer
マウントオプションを入力します。
注意:
常に 1 つのホストのみがwriter
になっていることを確認します。writer
オプションを使用して、複数のホストによる複数読み取り/単一書き込みファイルシステムのマウントを許可すると、ファイルシステムが破損する可能性があります。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer
その他の必要な変更を /etc/vfstab
ファイルに行います。コンマを区切り文字として使用して、マウントオプションを追加します。
たとえば、最初の試行に失敗した場合にバックグラウンドでファイルシステムをマウントするには、「Mount Options
」フィールドに bg
マウントオプションを追加します (指定可能なマウントオプションの包括的なリストについては、mount_samfs
のマニュアルページを参照)。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
/etc/vfstab
ファイルを保存して、エディタを終了します。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
:wq
[swriterfs1-mds-writer]root@solaris:~#
/etc/vfstab
ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。
マウントポイントディレクトリに移動し、マウント済みファイルシステム内のファイルにアクセスするには、すべてのホスト上でマウントポイントアクセス権が同じである必要があり、ユーザーが実行 (x
) 権限を持っている必要があります。この例では、/swriterfs1
マウントポイントディレクトリを作成し、アクセス権を 755
(-rwxr-xr-x
) に設定します。
[swriterfs1-mds-writer]root@solaris:~# mkdir /swriterfs1 [swriterfs1-mds-writer]root@solaris:~# chmod 755 /swriterfs1 [swriterfs1-mds-writer]root@solaris:~#
新しいファイルシステムをマウントします。
[swriterfs1-mds-writer]root@solaris:~# mount /swriterfs1 [swriterfs1-mds-writer]root@solaris:~#
共有ファイルシステムが作成されたら、読み取りを構成します。
読み取りは、ファイルシステムを読み取り専用でマウントするホストです。読み取りとして構成するホストごとに、次の手順を実行します。
ホストに root
としてログインします。
この例では、reader
ホストの名前は swriterfs-reader1]
です。
[swriterfs-reader1]root@solaris:~#
端末ウィンドウで samfsconfig
device-path
を使用して、複数読み取り/単一書き込みファイルシステムの構成情報を取得します。ここで device-path
は、コマンドがファイルシステムディスクデバイスの検索を開始する場所 (/dev/dsk/*
など) です。
samfsconfig
ユーティリティーは、sammkfs
が Oracle HSM ファイルシステムに含まれている各デバイス上に書き込む識別スーパーブロックを読み取ることで、ファイルシステムの構成情報を取得します。このコマンドは、現在のホストから始まる、構成内の各デバイスへの正確なパスを返し、到達できないデバイスにフラグを付けます (コマンドの構文およびパラメータの詳細は、samfsconfig
のマニュアルページを参照)。
この例では、samfsconfig
出力は、デバイスへのパスがホスト swriterfs1-reader1
から指定されている点を除き、swriterfs1-mds-writer
上の mcf
ファイルに一覧表示されるものと同じ装置を示しています。
[swriterfs1-reader1]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'swriterfs1' Created Thu Nov 21 07:17:00 2013 # Generation 0 Eq count 4 Eq meta count 1 # sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
samfsconfig
の出力から共有ファイルシステムのエントリをコピーします。次に、2 つ目のウィンドウで /etc/opt/SUNWsamfs/mcf
ファイルをテキストエディタで開き、コピーしたエントリをファイルにペーストします。
あるいは、samfsconfig
の出力を mcf
ファイルにリダイレクトできます。または、samd buildmcf
コマンドを使用して samfsconfig
を実行し、クライアント mcf
ファイルを自動的に作成できます。
この例では、コメントアウトした列見出しを追加したあとのホスト swriterfs1-reader1
の mcf
ファイルが次のように表示されます。
[swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
すべてのデバイスで「Device State
」フィールドが on
に設定されていることを確認します。次に、mcf
ファイルを保存します。
[swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on /dev/dsk/c1t0d0s0 301 mm sharefs on /dev/dsk/c1t3d0s0 302 mr sharefs on /dev/dsk/c1t3d0s1 303 mr sharefs on :wq [swriterfs1-reader1]root@solaris:~#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。
sam-fsd
コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーを検出すると停止します。
[swriterfs1-reader1]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[swriterfs1-reader1]root@solaris:~#
オペレーティングシステムの /etc/vfstab
ファイルをバックアップします。
[swriterfs1-reader1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [swriterfs1-reader1]root@solaris:~#
ホストオペレーティングシステムの /etc/vfstab
ファイルに単一書き込み/複数読み取りファイルシステムを追加します。
この例では、vi
テキストエディタで /etc/vfstab
ファイルを開き、swriterfs1
ファミリセットデバイスの行を追加します。
[swriterfs1-reader1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ----------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... swriterfs1 - /swriterfs1 samfs - no
/etc/vfstab
ファイルの「Mount
Options
」列に、reader
オプションを入力します。
注意:
ホストがreader
オプションを使用してファイルシステムをマウントすることを確認します。誤って複数のホスト上で writer
マウントオプションを使用すると、ファイルシステムが破損する可能性があります。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no reader
セパレータとしてコンマを使用して、その他の必要なマウントオプションを追加し、その他の必要な変更を /etc/vfstab
ファイルに加えます。次に、/etc/vfstab
ファイルを保存します。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
:wq
[swriterfs1-reader1]root@solaris:~#
/etc/vfstab
ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。
マウントポイントディレクトリに移動し、マウント済みファイルシステム内のファイルにアクセスするには、すべてのホスト上でマウントポイントアクセス権が同じである必要があり、ユーザーが実行 (x
) 権限を持っている必要があります。この例では、書き込みホストで実行したときと同様に、/swriterfs1
マウントポイントディレクトリを作成し、アクセス権を 755
(-rwxr-xr-x
) に設定します。
[swriterfs1-reader1]root@solaris:~# mkdir /swriterfs1 [swriterfs1-reader1]root@solaris:~# chmod 755 /swriterfs1 [swriterfs1-reader1]root@solaris:~#
新しいファイルシステムをマウントします。
[swriterfs1-reader1]root@solaris:~# mount /swriterfs1 [swriterfs1-reader1]root@solaris:~#
ファイルシステムを読み取り専用でマウントするようにすべての読み取りホストが構成されるまで、この手順を繰り返します。
サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。
それ以外の場合は、通知とロギングの構成に進みます。
Oracle HSM 共有ファイルシステムでは、複数の Oracle HSM ホストにファイルへの読み取り、書き込み、および追加のアクセス権が付与されます。すべてのホストがファイルシステムをマウントし、ストレージデバイスに直接接続します。さらに、1 つのホストであるメタデータサーバー (MDS) がファイルシステムのメタデータを排他的に制御し、同じファイルへのアクセスを求めるホスト間を調整します。サーバーは読み取り、書き込み、追加リースを発行、更新、および取り消すことで、Ethernet ローカルネットワーク経由でクライアントホストにメタデータの更新を提供し、ファイルアクセスを制御します。高パフォーマンス ma
または汎用 ms
タイプの非アーカイブファイルシステムとアーカイブファイルシステムの両方を共有できます。
共有ファイルシステムを構成するには、次のタスクを実行します。
共有ファイルシステムがサポートされるようにメタデータサーバーを構成するには、次に示すタスクを実行します。
アクティブおよび潜在的なメタデータサーバー上で、共有ファイルシステムのサーバーおよびクライアントに関するネットワークアドレス情報を一覧表示する hosts ファイルを作成する必要があります。hosts ファイルは、/etc/opt/SUNWsamfs/
ディレクトリに mcf
ファイルとともに格納されています。共有ファイルシステムの初期作成中に、sammkfs -S
コマンドを実行すると、このファイルに格納されている設定を使用して共有が構成されます。ここで、次の手順を使用して作成します。
サーバーに root
としてログインします。
この例では、サーバーの名前は sharefs-mds
です。
[sharefs-mds]root@solaris:~#
テキストエディタを使用して、メタデータサーバー上で /etc/opt/SUNWsamfs/hosts.
family-set-name
を作成します。family-set-name
は、共有する予定のファイルシステムのファミリセット名で置き換えます。
この例では、vi
テキストエディタを使用してファイル hosts.sharefs
を作成します。いくつかのオプションの見出しを追加します。各行は、コメントを示すシャープ記号 (#
) で始めます。
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs # /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ----------
メタデータサーバーのホスト名と IP アドレスまたはドメイン名を 2 列で、空白文字で区切って追加します。
# /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117
3 列目を、空白文字でネットワークアドレスと区切って追加します。この列に、アクティブなメタデータサーバーの順序番号である 1
を入力します。
この例では、メタデータサーバーは 1 つだけであるため、1
を入力します。
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1
4 列目を、空白文字でネットワークアドレスと区切って追加します。この列には、0
(ゼロ) を入力します。
4 列目の 0
、-
(ハイフン)、または空白値は、ホストが「on」 (共有ファイルシステムへのアクセスありで構成) であることを示します。1
(数字の 1) は、ホストが「off」(ファイルシステムへのアクセスなしで構成) であることを示します (共有ファイルシステムを管理する際のこれらの値の使用については、samsharefs
のマニュアルページを参照してください)。
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0
5 列目を、空白文字でネットワークアドレスと区切って追加します。この列には、現在アクティブなメタデータサーバーを示すキーワード「server
」を入力します。
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
潜在的なメタデータサーバーとして 1 つ以上のホストを追加する予定である場合は、それぞれのエントリを作成します。そのたびに、サーバー番号を増分します。ただし、「server
」キーワードは含めないでください (アクティブなメタデータサーバーは、ファイルシステムごとに 1 つのみです)。
この例では、ホスト sharefs-mds_alt
は、サーバー番号が 2
の潜在的なメタデータサーバーです。
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
sharefs-mds_alt 10.79.213.217 2 0
クライアントホストごとに 1 行追加して、それぞれのサーバー番号の値を 0
に指定します。
サーバー番号 0
は、クライアントとしてのホストを示します。この例では、2 つのクライアント (sharefs-client1
と sharefs-client2
) を追加します。
# /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117 1 0 server sharefs-mds_alt 10.79.213.217 2 0 sharefs-client1 10.79.213.133 0 0 sharefs-client2 10.79.213.147 0 0
/etc/opt/SUNWsamfs/hosts.
family-set-name
ファイルを保存して、エディタを終了します。
この例では、/etc/opt/SUNWsamfs/hosts.sharefs
への変更を保存して、vi
エディタを終了します。
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
sharefs-mds_alt 10.79.213.217 2 0
sharefs-client1 10.79.213.133 0 0
sharefs-client2 10.79.213.147 0 0
:wq
[sharefs-mds]root@solaris:~#
共有ファイルシステムの構成に含まれる任意の潜在的なメタデータサーバー上に、新しい /etc/opt/SUNWsamfs/hosts.
family-set-name
ファイルのコピーを配置します。
次のように進めます。
サーバーに root
としてログインします。
この例では、サーバーの名前は sharefs-mds
です。
[sharefs-mds]root@solaris:~#
メタデータサーバー (MDS) 上で、/etc/opt/SUNWsamfs/mcf
ファイルをテキストエディタで開き、QFS ファイルシステムを追加します。汎用の ms
または高性能な ma
ファイルシステムを構成できます。
次の例では、vi
テキストエディタを使用して、ホスト sharefs-mds
上の mcf
ファイルを編集します。この例では、装置 ID およびファミリセット名 sharefs
と装置番号 300
を使用して ma
ファイルシステムを指定します。
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on /dev/dsk/c0t0d0s0 301 mm sharefs on /dev/dsk/c0t3d0s0 302 mr sharefs on /dev/dsk/c0t3d0s1 303 mr sharefs on
ma
ファイルシステム装置に対応する行の「Additional
Parameters
」フィールドに shared
パラメータを入力します。
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#------------------ --------- --------- --------- ------ ---------------
sharefs 300 ma sharefs on shared
/dev/dsk/c0t0d0s0 301 mm sharefs on
/dev/dsk/c0t3d0s0 302 mr sharefs on
/dev/dsk/c0t3d0s1 303 mr sharefs on
/etc/opt/SUNWsamfs/mcf
ファイルを保存して、エディタを終了します。
この例では、変更を保存して、vi
エディタを終了します。
sharefs 300 ma sharefs on shared
/dev/dsk/c0t0d0s0 301 mm sharefs on
/dev/dsk/c0t3d0s0 302 mr sharefs on
/dev/dsk/c0t3d0s1 303 mr sharefs on
:wq
[sharefs-mds]root@solaris:~#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。
sam-fsd
コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーを検出すると停止します。
[sharefs-mds]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-mds]root@solaris:~#
mcf
ファイルを再度読み取り、それ自体を適宜再構成するように Oracle HSM サービスに指示します。報告されたエラーをすべて修正して、必要に応じて繰り返します。
[sharefs-mds]root@solaris:~# samd config [sharefs-mds]root@solaris:~#
高パフォーマンス ma
ファイルシステムの構成で説明したとおりに、sammkfs -S
コマンドおよびファイルシステムのファミリセット名を使用して、ファイルシステムを作成します。
sammkfs
コマンドは、hosts.
family-set-name
および mcf
ファイルを読み取って、指定されたプロパティーを使用して共有ファイルシステムを作成します。この例では、コマンドは hosts.sharefs
ファイルから共有パラメータを読み取り、共有ファイルシステム sharefs
を作成します。
[sharefs-mds]root@solaris:~# sammkfs -S sharefs Building 'sharefs' will destroy the contents of devices: /dev/dsk/c0t0d0s0 /dev/dsk/c0t3d0s0 /dev/dsk/c0t3d0s1 Do you wish to continue? [y/N]yes ... [sharefs-mds]root@solaris:~#
サーバーに root
としてログインします。
この例では、サーバーの名前は sharefs-mds
です。
[sharefs-mds]root@solaris:~#
オペレーティングシステムの /etc/vfstab
ファイルをバックアップします。
[sharefs-mds]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [sharefs-mds]root@solaris:~#
高パフォーマンス ma
ファイルシステムの構成で説明したとおりに、オペレーティングシステムの /etc/vfstab
ファイルに新しいファイルシステムを追加します。
この例では、vi
テキストエディタで /etc/vfstab
ファイルを開き、sharefs
ファミリセットデバイスの行を追加します。
[sharefs-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sharefs - /sharefs samfs - no
「Mount Options
」列に shared
オプションを入力します。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared
その他の必要な変更を /etc/vfstab
ファイルに行います。
たとえば、最初の試行に失敗した場合にバックグラウンドでファイルシステムのマウントを再試行するには、「Mount Options
」フィールドに bg
マウントオプションを追加します (指定可能なマウントオプションの詳細は、mount_samfs
のマニュアルページを参照)。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared,bg
/etc/vfstab
ファイルを保存して、エディタを終了します。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared,bg
:wq
[sharefs-mds]root@solaris:~#
/etc/vfstab
ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。
マウントポイントディレクトリに移動し、マウント済みファイルシステム内のファイルにアクセスするには、メタデータサーバー上およびすべてのクライアント上でマウントポイントアクセス権が同じである必要があり、ユーザーが実行 (x
) 権限を持っている必要があります。この例では、/sharefs
マウントポイントディレクトリを作成し、アクセス権を 755
(-rwxr-xr-x
) に設定します。
[sharefs-mds]root@solaris:~# mkdir /sharefs [sharefs-mds]root@solaris:~# chmod 755 /sharefs [sharefs-mds]root@solaris:~#
新しいファイルシステムをマウントします。
[sharefs-mds]root@solaris:~# mount /sharefs
[sharefs-mds]root@solaris:~#
ホストに複数のネットワークインタフェースが構成されている場合は、ローカル hosts ファイルを使用してネットワーク通信をルーティングすることもできます。
それ以外の場合は、メタデータサーバー上に共有ファイルシステムが作成されたら、ファイルシステムクライアントに共有を構成します。
クライアントには、純粋にクライアントとして構成されているホストと、潜在的なメタデータサーバーとして構成されているホストの両方が含まれています。ほとんどの点で、クライアントの構成はサーバーの構成と同じです。各クライアントには、サーバーとまったく同じデバイスが含まれています。マウントオプションとデバイスへの正確なパスのみが異なります (コントローラ番号は各クライアントホストで割り当てられるため、異なる可能性があります)。
共有ファイルシステムがサポートされるように 1 つ以上のクライアントを構成するには、次に示すタスクを実行します。
Linux クライアントでの共有ファイルシステムの作成 (存在する場合)
Linux クライアントでの共有ファイルシステムのマウント (存在する場合)。
クライアントごとに、次の手順を実行します。
クライアント上で、root
としてログインします。
この例では、サーバーは sharefs-client1
という名前です。
[sharefs-client1]root@solaris:~#
端末ウィンドウで、コマンド samfsconfig
device-path
を入力します。ここで device-path
は、コマンドがファイルシステムディスクデバイスの検索を開始する場所 (/dev/dsk/*
や /dev/zvol/dsk/rpool/*
など) です。
samfsconfig
コマンドは、共有ファイルシステムの構成情報を取得します。
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っているため、潜在的なメタデータサーバーとしての使用に適している場合は、samfsconfig
の出力が、ファイルシステムのメタデータサーバーで作成された mcf
ファイルに酷似しています。
この例では、ホスト sharefs-client1
がメタデータデバイス (装置タイプ mm
) へのアクセス権を持っているため、コマンドの出力にサーバー sharefs-mds
上の mcf
ファイルに一覧表示されるものと同じ装置が表示されます。ホストで割り当てられたデバイスコントローラ番号のみが異なります。
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # Generation 0 Eq count 4 Eq meta count 1 # sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、samfsconfig
コマンドではメタデータデバイスを検索できません。したがって、検出された Oracle HSM デバイスをファイルシステム構成に合わせることはできません。コマンドの出力では、「Missing Slices
」の下に「Ordinal
0
」(メタデータデバイス) が一覧表示されますが、ファイルシステムファミリセットを識別する行を含めることができず、データデバイスの一覧がコメントアウトされています。
この例では、ホスト sharefs-client2
はデータデバイスへのアクセス権のみを持っています。したがって、samfsconfig
の出力は次のように表示されます。
[sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # # Missing slices # Ordinal 0 # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
samfsconfig
の出力から共有ファイルシステムのエントリをコピーします。次に、2 つ目のウィンドウからテキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、コピーしたエントリをファイルにペーストします。
1 つ目の例では、ホスト sharefs-client1
がファイルシステムのメタデータデバイスへのアクセス権を持っているため、mcf
ファイルの始まりは次のように表示されます。
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
2 つ目の例では、ホスト sharefs-client2
がファイルシステムのメタデータデバイスへのアクセス権を持っていないため、mcf
ファイルの始まりは次のように表示されます。
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っている場合は、共有ファイルシステムのエントリの「Additional Parameters
」フィールドに、shared
パラメータを追加します。
この例では、ホスト sharefs-client1
はメタデータへのアクセス権を持っています。
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、共有ファイルシステムの行を追加し、shared
パラメータを追加します。
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、メタデータデバイスの行を追加します。「Equipment Identifier
」フィールドを「nodev
」 (デバイスなし) に設定し、残りのフィールドはメタデータサーバーの場合とまったく同じ値に設定します。
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていない場合は、データデバイスのエントリのコメントを解除します。
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ----------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs - /dev/dsk/c4t3d0s1 303 mr sharefs -
すべてのデバイスで「Device State
」フィールドが「on
」に設定されていることを確認し、mcf
ファイルを保存します。
1 つ目の例では、ホスト sharefs-client1
がファイルシステムのメタデータデバイスへのアクセス権を持っているため、mcf
ファイルの終わりは次のように表示されます。
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared /dev/dsk/c1t0d0s0 301 mm sharefs on /dev/dsk/c1t3d0s0 302 mr sharefs on /dev/dsk/c1t3d0s1 303 mr sharefs on :wq [sharefs-client1]root@solaris:~#
2 つ目の例では、ホスト sharefs-client2
がファイルシステムのメタデータデバイスへのアクセス権を持っていないため、mcf
ファイルの終わりは次のように表示されます。
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs on /dev/dsk/c4t3d0s1 303 mr sharefs on :wq [sharefs-client2]root@solaris:~#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。
sam-fsd
コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーが発生した場合は停止します。この例では、sharefs-client1
上で mcf
ファイルを確認します。
[sharefs-client1]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-client1]root@solaris:~#
この時点で、ホストに複数のネットワークインタフェースが構成されている場合は、ローカル hosts ファイルを使用してネットワーク通信をルーティングすることもできます。
クライアントごとに、次の手順を実行します。
Solaris クライアント上で、root
としてログインします。
この例では、サーバーは sharefs-client1
という名前です。
[sharefs-client1]root@solaris:~#
オペレーティングシステムの /etc/vfstab
ファイルをバックアップします。
[sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [sharefs-client1]root@solaris:~#
テキストエディタで /etc/vfstab
ファイルを開き、共有ファイルシステムの行を追加します。
この例では、vi
テキストエディタでファイルを開き、sharefs
ファミリセットデバイスの行を追加します。
[sharefs-client1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sharefs - /sharefs samfs - no
セパレータとしてコンマを使用して、その他の必要なマウントオプションを追加し、その他の必要な変更を /etc/vfstab
ファイルに加えます。次に、/etc/vfstab
ファイルを保存します。
この例では、マウントオプションを追加しません。
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no -
:wq
[sharefs-client1]root@solaris:~#
/etc/vfstab
ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。
マウントポイントのアクセス権は、メタデータサーバーおよびその他のすべてのクライアントと同じにする必要があります。ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x
) を持っている必要があります。この例では、/sharefs
マウントポイントディレクトリを作成し、アクセス権を 755
(-rwxr-xr-x
) に設定します。
[sharefs-client1]root@solaris:~# mkdir /sharefs [sharefs-client1]root@solaris:~# chmod 755 /sharefs [sharefs-client1]root@solaris:~#
共有ファイルシステムをマウントします。
[sharefs-client1]root@solaris:~# mount /sharefs [sharefs-client1]root@solaris:~#
共有ファイルシステムに Linux クライアントが含まれている場合は、Linux クライアント上に共有ファイルシステムを作成します。
Oracle HSM 共有アーカイブファイルシステムを構成している場合は、共有ファイルシステム用のアーカイブストレージの構成の次のタスクに進みます。
それ以外の場合は、ここで終了します。Oracle HSM 共有ファイルシステムが構成されました。
クライアントごとに、次の手順を実行します。
Linux クライアント上で、root
としてログインします。
この例では、Linux クライアントホストの名前は sharefs-clientL
です。
[sharefs-clientL][root@linux ~]#
端末ウィンドウで、コマンド samfsconfig
device-path
を入力します。ここで device-path
は、コマンドがファイルシステムディスクデバイスの検索を開始する場所 (/dev/*
など) です。
samfsconfig
コマンドは、共有ファイルシステムの構成情報を取得します。Linux ホストがファイルシステムのメタデータデバイスへのアクセス権を持っていないため、samfsconfig
コマンドではメタデータデバイスを検索できません。したがって、検出された Oracle HSM デバイスをファイルシステム構成に合わせることはできません。コマンドの出力では、「Missing
Slices
」の下に「Ordinal
0
」(メタデータデバイス) が一覧表示されますが、ファイルシステムファミリセットを識別する行を含めることができず、データデバイスの一覧がコメントアウトされています。
この例では、Linux ホスト sharefs-clientL
用の samfsconfig
出力が次のように表示されます。
[sharefs-clientL][root@linux ~]# samfsconfig /dev/*
# Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
#
# Missing slices
# Ordinal 0
# /dev/sda4 302 mr sharefs -
# /dev/sda5 303 mr sharefs -
samfsconfig
の出力から共有ファイルシステムのエントリをコピーします。次に、2 つ目のウィンドウからテキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開き、コピーしたエントリをファイルにペーストします。
この例では、Linux ホスト sharefs-clientL
用の mcf
ファイルの始まりが次のように表示されます。
[sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
ファイルに共有ファイルシステムの行を挿入し、shared
パラメータを追加します。
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
ファイルに、ファイルシステムのメタデータデバイスの行を挿入します。Linux ホストはメタデータデバイスへのアクセス権を持っていないため、「Equipment
Identifier
」フィールドを「nodev
」(デバイスなし) に設定し、残りのフィールドはメタデータサーバーの場合とまったく同じ値に設定します。
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
mcf
ファイルで、データデバイスのエントリをコメント解除します。
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs - /dev/sda5 303 mr sharefs -
すべてのデバイスで「Device
State
」フィールドが「on
」に設定されていることを確認し、mcf
ファイルを保存します。
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs on /dev/sda5 303 mr sharefs on :wq [sharefs-clientL][root@linux ~]#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認し、エラーがあれば修正します。
sam-fsd
コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーが発生した場合は停止します。この例では、Linux クライアント sharefs-clientL
上で mcf
ファイルを確認します。
[sharefs-clientL][root@linux ~]# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-clientL][root@linux ~]#
クライアントごとに、次の手順を実行します。
Linux クライアント上で、root
としてログインします。
この例では、Linux クライアントホストの名前は sharefs-clientL
です。
[sharefs-clientL][root@linux ~]#
オペレーティングシステムの /etc/fstab
ファイルをバックアップします。
[sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
テキストエディタで /etc/fstab
ファイルを開き、共有ファイルシステムの行を開始します。
この例では、sharefs-clientL
上で /etc/fstab
ファイルをバックアップしたあとに、vi
テキストエディタでファイルを開き、sharefs
ファミリセットデバイスの行を追加します。
[sharefs-clientL][root@linux ~]# vi /etc/fstab #File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs
ファイルの 4 列目で、必須の shared
マウントオプションを追加します。
#File
#Device Mount System Mount Dump Pass
#to Mount Point Type Options Frequency Number
#-------- ------- -------- ------------------------- --------- ------
...
/proc /proc proc defaults
sharefs /sharefs samfs shared
ファイルの 4 列目で、セパレータとしてコンマを使用して、その他の必要なマウントオプションを追加します。
Linux クライアントでは、次の追加マウントオプションがサポートされています。
rw
, ro
retry
meta_timeo
rdlease
, wrlease
, aplease
minallocsz
, maxallocsz
noauto
, auto
この例では、オプション noauto
を追加します。
#File
#Device Mount System Mount Dump Pass
#to Mount Point Type Options Frequency Number
#-------- ------- -------- ------------------------- --------- ------
...
/proc /proc proc defaults
sharefs /sharefs samfs shared,noauto
ファイルの残りの 2 列には、それぞれゼロ (0
) を入力します。次に、/etc/fstab
ファイルを保存します。
#File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs shared,noauto 0 0 :wq [sharefs-clientL][root@linux ~]#
/etc/fstab
ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。
マウントポイントのアクセス権は、メタデータサーバーおよびその他のすべてのクライアントと同じにする必要があります。ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x
) を持っている必要があります。この例では、/sharefs
マウントポイントディレクトリを作成し、アクセス権を 755
(-rwxr-xr-x
) に設定します。
[sharefs-clientL][root@linux ~]# mkdir /sharefs [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
共有ファイルシステムをマウントします。コマンド mount
mountpoint
を使用します。ここで mountpoint
は、/etc/fstab
ファイルで指定されたマウントポイントです。
例で示すように、mount
コマンドは警告を生成します。これは通常の動作であり、無視できます。
[sharefs-clientL][root@linux ~]# mount /sharefs Warning: loading SUNWqfs will taint the kernel: SMI license See http://www.tux.org/lkml/#export-tainted for information about tainted modules. Module SUNWqfs loaded with warnings [sharefs-clientL][root@linux ~]#
Oracle HSM 共有アーカイブファイルシステムを構成している場合は、共有ファイルシステム用のアーカイブストレージの構成の次のタスクに進みます
サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。
それ以外の場合は、通知とロギングの構成に進みます。
個別のホストには、ローカル hosts ファイルは必要ありません。ファイルシステムは、すべてのファイルシステムホストについて、アクティブなメタデータサーバーとアクティブおよび潜在的なメタデータサーバーのネットワークインタフェースを識別します (アクティブおよび潜在的なメタデータサーバーでのホストファイルの作成を参照)。ただし、複数のネットワークインタフェースを持つファイルシステムホスト間で、ネットワークトラフィックを選択的にルーティングする必要がある場合は、ローカル hosts ファイルが役立ちます。
それぞれのファイルシステムホストは、メタデータサーバー上のほかのホストでネットワークインタフェースを検索します。ファイルシステムのグローバル hosts ファイル /etc/opt/SUNWsamfs/hosts.
family-set-name
にホスト名と IP アドレスが一覧表示されます。ここで family-set-name
は、共有ファイルシステムのファミリセット名です。その後、ホストはローカル hosts ファイル /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
を検索します。
ローカル hosts ファイルがない場合、ホストは、グローバル hosts ファイルで指定されたインタフェースアドレスを使用します。ホストは、グローバルファイルで指定された順序で使用されます。
ローカル hosts ファイルが存在する場合、ホストはグローバルファイルと比較して、両方のファイルに一覧表示されたインタフェースのみを使用します。ホストは、ローカルファイルで指定された順序で使用されます。
そのため、各ファイルでさまざまなアドレスを使用すると、さまざまなホストで使用されているインタフェースを制御できます。ローカル hosts ファイルを構成するには、次に概要を示す手順を使用します。
それぞれのアクティブおよび潜在的なメタデータサーバーホスト上で、共有ファイルシステムのグローバル hosts ファイルを編集して、必要な方法でサーバーとホストの通信がルーティングされるようにします。
このセクションの例では、共有ファイルシステム sharefs2nic
に、アクティブなメタデータサーバー sharefs2-mds
、および潜在的なメタデータサーバー sharefs2-mds_alt
(それぞれが 2 つのネットワークインタフェースを持つ) が含まれています。また、2 つのクライアント (sharefs2-client1
と sharefs2-client2
) も存在します。
アクティブおよび潜在的なメタデータサーバーが、プライベートネットワークアドレスを使用して相互に通信し、DNS (Domain Name Service) でパブリック LAN (Local Area Network) 上のアドレスに解決できるホスト名を使用してクライアントと通信する必要があります。
そのため、ファイルシステムのグローバルホストファイルである /etc/opt/SUNWsamfs/hosts.sharefs2
を編集します。アクティブおよび潜在的なサーバーには、プライベートネットワークインタフェースアドレスを指定します。ただし、クライアントには、アドレスではなくホスト名を指定します。
[sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2 # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 sharefs2-client1 sharefs2-client1 0 0 sharefs2-client2 sharefs2-client2 0 0 :wq [sharefs2-mds]root@solaris:~#
パスとファイル名 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
を使用して、それぞれのアクティブおよび潜在的なメタデータサーバー上でローカル hosts ファイルを作成します。ここで family-set-name
は、共有ファイルシステムの装置識別子です。アクティブおよび潜在的なサーバーで使用するネットワーク用のインタフェースのみを含めてください。
この例では、アクティブおよび潜在的なメタデータサーバーがプライベートネットワークを介して相互に通信するように、各サーバー上のローカル hosts ファイル hosts.sharefs2.local
には、2 つのホスト (アクティブおよび潜在的なメタデータサーバー) のプライベートアドレス のみが一覧表示されています。
[sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 on sharefs2-mds # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt Password:
[sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-mds_alt # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds_alt]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
パスとファイル名 /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
を使用して、各クライアント上でローカル hosts ファイルを作成します。ここで family-set-name
は、共有ファイルシステムの装置識別子です。クライアントで使用するネットワーク用のインタフェースのみを含めてください。
この例では、クライアントはパブリックネットワーク経由でのみサーバーと通信する必要があります。そのため、ファイルには、2 つのホスト (アクティブおよび潜在的なメタデータサーバー) のホスト名のみを含めます。
[sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1 Password: [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client1 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client1]root@solaris:~# exit [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2 Password:
[sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client2]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
サーバーの構成が完了したときに、この手順を開始した場合は、アクティブなサーバーでの共有ファイルシステムのマウントに進みます。
クライアントを構成しているときに、この手順を開始した場合は、ここでSolaris クライアントでの共有ファイルシステムのマウントを実行する必要があります。
アーカイブ Oracle HSM 共有ファイルシステム用にアーカイブストレージを設定するには、次のタスクを実行します。
共有アーカイブファイルシステムのホスト間でのテープ入出力の分散 (必要な場合)。
共有アーカイブファイルシステムでは、すべての潜在的なメタデータサーバーにライブラリおよびテープドライブへのアクセス権が必要です。テープ入出力を共有アーカイブファイルシステムのホスト間で分散させることにした場合は、1 つ以上のクライアントにもドライブへのアクセスが必要になります。したがって、それぞれのドライブに整合性のある方法で対処できるように、これらの各ホストを構成する必要があります。
Solaris オペレーティングシステムは、起動時にデバイスが検出される順序でドライブをシステムデバイスツリーに追加します。この順序によって、その他のファイルシステムホストでデバイスが検出される順序や、リムーバブルメディアライブラリに物理的にインストールされる順序が反映される場合と、反映されない場合があります。したがって、その他のホストにバインドするときと同じ方法、およびリムーバブルメディアライブラリにインストールされるときと同じ順序で、デバイスを各ホストに永続的にバインドする必要があります。
次の手順では、必要な手順の概要を示します (永続的なバインドの作成についての詳細は、devfsadm
と devlinks
のマニュアルページ、および使用中の Solaris オペレーティングシステムバージョンに対応した管理ドキュメントを参照)。
アクティブなメタデータサーバーに root
としてログインします。
[sharefs-mds]root@solaris:~#
ライブラリ内のドライブの現在の物理的な順序を把握していない場合は、ドライブをライブラリに取り付ける順序の確認で説明したとおりに、マッピングファイルを作成します。
この例では、device-mappings.txt
ファイルは次のように表示されます。
LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- -------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
テキストエディタで /etc/devlink.tab
ファイルを開きます。
この例では、vi
エディタを使用します。
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. # This is the table used by devlinks # Each entry should have 2 fields; but may have 3. Fields are separated # by single tab ('\t') characters. ...
ガイドとして device-mappings.txt
ファイルを使用して、Solaris テープドライブツリー内の開始ノード rmt/
node-number
をライブラリ内の 1 番目のドライブに再マッピングする 1 行を /etc/devlink.tab
ファイルに追加します。type=ddi_byte:tape;
addr=
device_address
,0;
rmt/
node-number
\M0
形式で行を入力します。ここで device_address
は、デバイスの物理アドレスで、node-number
は、Solaris で自動的に構成されるデバイスとの競合を回避するために十分に大きい Solaris デバイスツリー内の位置です (Solaris はノード 0
から起動されます)。
この例では、ライブラリ内の 1 番目のデバイス 1
のデバイスアドレス w500104f0008120fe
を書き留め、デバイスが rmt/1
にあるホストに現在接続されていることを確認します。
[sharefs-mds] vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ----------- --------------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
そのため、競合しないノード rmt/60
をライブラリ w500104f0008120fe
内の番号 1
のドライブに再マッピングする行を /etc/devlink.tab
に作成します。
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 :w
メタデータサーバー上のデバイスツリー内のドライブ順序とライブラリへのインストール順序が一致するように、Oracle HSM アーカイブ用に割り当てられているテープデバイスごとに、/etc/devlink.tab
ファイルへの行の追加を繰り返します。ファイルを保存します。
この例では、残りの 3 つのデバイス (w500104f00093c438
にあるライブラリドライブ 2
、w500104f000c086e1
にあるライブラリドライブ 3
、w500104f000c086e1
にあるライブラリドライブ 4
) の順序とアドレスを書き留めます。
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt ... 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
その後、ライブラリ内と同じ順序を維持して、デバイスアドレスを次の 3 つの Solaris デバイスノード (rmt/61
、rmt/62
、および rmt/63
) にマッピングします。
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds]root@solaris:~#
/dev/rmt
内のテープデバイスへの既存のリンクをすべて削除します。
[sharefs-mds]root@solaris:~# rm /dev/rmt/*
/etc/devlink.tab
ファイル内のエントリから、新しい永続的なテープデバイスのリンクを作成します。コマンド devfsadm -c tape
を使用します。
devfsadm
コマンドを実行するたびに、/etc/devlink.tab
ファイルで指定された構成を使用して、そのファイルに指定されたデバイス用に新しいテープデバイスのリンクが作成されます。-c tape
オプションを指定すると、テープクラスデバイス用の新しいリンクのみが作成されるようにコマンドが制限されます。
[sharefs-mds]root@solaris:~# devfsadm -c tape
共有ファイルシステム構成内のそれぞれの潜在的なメタデータサーバーとデータムーバー上で同じ永続的なテープデバイスリンクを作成します。/etc/devlink.tab
ファイルに同じ行を追加し、/dev/rmt
内のリンクを削除して、devfsadm
-c
tape
を実行します。
この例では、潜在的なメタデータサーバー sharefs-mds_alt
およびデータムーバークライアント sharefs-client1
があります。したがって、アクティブなサーバー sharefs-mds
上のファイルと一致するように、それぞれの /etc/devlink.tab
ファイルを編集します。次に、sharefs-mds_alt
および sharefs-client1
上の /dev/rmt
にある既存のリンクを削除して、それぞれで devfsadm
-c
tape
を実行します。
[sharefs-mds]root@solaris:~# ssh sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* [sharefs-mds_alt]root@solaris:~# devfsadm -c tape [sharefs-mds_alt]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh sharefs-client1 Password: [sharefs-client1]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-client1]root@solaris:~# rm /dev/rmt/* [sharefs-client1]root@solaris:~# devfsadm -c tape [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~#
アクティブなメタデータサーバー、およびそれぞれの潜在的なメタデータサーバーとデータムーバークライアントで、次の手順を実行します。
ホストに root
としてログインします。
[sharefs-host]root@solaris:~#
テキストエディタで /etc/opt/SUNWsamfs/mcf
ファイルを開きます。
次の例では、vi
エディタを使用します。
[sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf sharefs 100 ms sharefs on /dev/dsk/c1t3d0s3 101 md sharefs on /dev/dsk/c1t3d0s4 102 md sharefs on ...
/etc/opt/SUNWsamfs/mcf
ファイル内のファイルシステム定義のあとに、アーカイブストレージ装置のセクションを開始します。
この例では、わかりやすくするため見出しをいくつか追加します。
[sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf ... # Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ----------------
アーカイブテープストレージを追加するには、ライブラリのエントリの追加から開始します。「Equipment Identifier」フィールドで、ライブラリのデバイス ID を入力し、装置番号を割り当てます。
この例では、ライブラリの装置 ID は /dev/scsi/changer/c1t0d5
です。装置番号は 900
(ディスクアーカイブ用に選択された範囲に続く範囲) に設定します。
# Archival storage for copies:
#
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#----------------------- --------- --------- --------- ------ ----------------
/dev/scsi/changer/c1t0d5 900
装置タイプを汎用 SCSI 接続テープオプションライブラリ rb
に設定して、テープライブラリファミリセットの名前を指定して、デバイスの状態を on
に設定します。
この例では、ライブラリ library1
を使用しています。
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ---------------- /dev/scsi/changer/c1t0d5 900 rb library1 on
「Additional Parameters
」列で、ライブラリカタログのオプションのユーザー定義のパスと名前を入力できます。
オプションのデフォルト以外のパスは 127 文字を超えることはできません。この例では、ユーザー定義のカタログファイル名 library1cat
とともにデフォルトのパス var/opt/SUNWsamfs/catalog/
を使用します。ドキュメントのレイアウト制限のために、例ではパスが省略されています。
# Archival storage for copies:
#
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#----------------------- --------- --------- --------- ------ ----------------
/dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat
次に、テープドライブごとにエントリを追加します。永続的なバインドを使用したサーバーおよびデータムーバーホストへのテープドライブの接続の手順で設定した永続的な装置 ID を使用します。
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- -------- ------ ----------------- DISKVOL1 800 ms DISKVOL1 on /dev/dsk/c6t0d1s7 801 md DISKVOL1 on /dev/dsk/c4t0d2s7 802 md DISKVOL1 on /dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat /dev/rmt/60cbn 901 tp library1 on /dev/rmt/61cbn 902 tp library1 on /dev/rmt/62cbn 903 tp library1 on /dev/rmt/63cbn 904 tp library1 on
最後に、Oracle HSM ヒストリアンを自分で構成する場合、装置タイプ hy
を使用してエントリを追加します。「Family Set」列と「Device State」列にハイフンを入力し、「Additional Parameters」列にヒストリアンのカタログへのパスを入力します。
ヒストリアンは、アーカイブからエクスポートされたボリュームをカタログする仮想ライブラリです。ヒストリアンを構成しない場合、指定された最大の装置番号に 1 を加えた値を使用して、ソフトウェアによってヒストリアンが自動的に作成されます。
ページレイアウトの都合上、この例では、ヒストリアンカタログへのパスが短縮されていることに注意してください。フルパスは /var/opt/SUNWsamfs/catalog/historian_cat
です。
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ---------------- /dev/scsi/changer/c1t0d5 900 rb library1 on ...catalog/library1cat /dev/rmt/60cbn 901 tp library1 on /dev/rmt/61cbn 902 tp library1 on /dev/rmt/62cbn 903 tp library1 on /dev/rmt/63cbn 904 tp library1 on historian 999 hy - - .../historian_cat
mcf
ファイルを保存して、エディタを閉じます。
...
/dev/rmt/3cbn 904 tp library1 on
historian 999 hy - - .../historian_cat
:wq
[sharefs-host]root@solaris:~#
sam-fsd
コマンドを実行して、mcf
ファイルにエラーがないかどうかを確認します。見つかったエラーを修正します。
sam-fsd
コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーを検出すると停止します。
[sharefs-host]root@solaris:~# sam-fsd
...
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[sharefs-host]root@solaris:~#
mcf
ファイルを再度読み取り、それ自体を適宜再構成するように Oracle HSM サービスに指示します。報告されたエラーをすべて修正して、必要に応じて繰り返します。
[sharefs-host]root@solaris:~# samd config Configuring SAM-FS [sharefs-host]root@solaris:~#
すべてのアクティブおよび潜在的なメタデータサーバーと、すべてのデータムーバークライアントがアーカイブストレージを使用するように構成されるまで、この手順を繰り返します。
サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。
それ以外の場合は、通知とロギングの構成に進みます。
Oracle HSM リリース 6.1 以降、Oracle Solaris 11 以上が実行されている共有アーカイブファイルシステムのクライアントは、テープドライブを接続して、ファイルシステムの代わりにテープ入出力を実行できます。これらのデータムーバーホスト間でテープ入出力を分散させると、サーバーのオーバーヘッドが大幅に削減されるため、ファイルシステムのパフォーマンスが向上し、Oracle HSM 実装のスケーリング時の柔軟性が大幅に向上します。アーカイブの必要性が高くなれば、Oracle HSM メタデータサーバーをより強力なシステムに交換するか (垂直スケーリング)、より多くのクライアント間で負荷を分散させるか (水平スケーリング) の選択肢があります。
共有ファイルシステムホスト間でテープ入出力を分散させるには、次の手順を実行します。
テープ入出力を処理するファイルシステムメタデータサーバーおよびすべてのファイルシステムクライアントに、分散入出力で使用されるデバイスをすべて接続します。
まだ実行していない場合は、永続的なバインドを使用して、テープドライブをデータムーバーとして機能する各クライアントに接続します。その後、ここに戻ります。
共有アーカイブファイルシステムのメタデータサーバーに root
としてログインします。
この例では、サーバーのホスト名は samsharefs-mds
です。
[samsharefs-mds]root@solaris:~#
メタデータサーバーで Oracle Solaris 11 以上が実行されていることを確認します。
[samsharefs-mds]root@solaris:~# uname -r 5.11 [samsharefs-mds]root@solaris:~#
データムーバーとして動作するすべてのクライアントで、Oracle Solaris 11 以上が実行されていることを確認します。
この例では、ssh
を使用してクライアントホスト samsharefs-client1
および samsharefs-client2
にリモートログインして、ログインバーナーから Solaris のバージョンを取得します。
[samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client1]root@solaris:~# exit [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client2]root@solaris:~# exit [samsharefs-mds]root@solaris:~#
分散入出力構成内のテープドライブごとにバッファー領域として割り当てることのできるシステムメモリーの量を計算します。使用可能な合計メモリーをドライブの数で割り、妥当な安全マージンを引きます。
(total-memory bytes)/(drive-count drives) = memory bytes/drive (memory bytes/drive) - (safe-margin bytes/drive) = buffsize bytes/drive
Oracle HSM は、使用されているドライブごとにバッファーを割り当てます。そのため、システムメモリーで提供可能な量より多くのバッファー領域を誤って構成することがないようにしてください。この例では、ドライブ当たり 224K バイトを超える割り当てはできないことがわかります。そのため、安全マージンを見越して 128 に切り下げます。
((3584 kilobytes)/(16 drives)) = 224 kilobytes/drive
buffsize = 128 kilobytes/drive
各ドライブに割り当てることのできるバッファーのサイズを計算したら、Oracle HSM のデバイスブロックサイズと、指定されたサイズのバッファーに収まるブロック数を計算します。
(number blocks/buffer)*block-size bytes/block/drive = buffersize bytes/drive
この 2 つの積が計算されたバッファーサイズ以下になるまで、ブロック数とブロックサイズを変動させます。ブロック数は、[2-8192]
の範囲内にある必要があります。この例では、バッファー当たり 64K バイトの 2 つのブロックに落ち着きました。
(2 blocks/buffer)*(64 kilobytes/block/drive) = 128 kilobytes/drive
メタデータサーバー上で、テキストエディタで /etc/opt/SUNWsamfs/archiver.cmd
ファイルを開きます。このファイルの先頭にある汎用ディレクティブのセクション内の新しい行に、bufsize =
media-type
media-blocks
と入力します。ここでは:
media-type
は、mcf
ファイルが分散入出力に使用されるドライブとメディアに割り当てるタイプコードです。
media-blocks
は、上で計算したバッファー当たりのブロック数です。
ファイルを保存して、エディタを閉じます。
この例では、サーバー samsharefs-mds
にログインし、vi
エディタを使用して行 bufsize
=
ti
2
を追加します。ここで、ti
は使用している Oracle StorageTek T10000 ドライブのメディアタイプであり、2
は計算したドライブバッファー当たりのブロック数です。
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd # archiver.cmd #----------------------------------------------------------------------- # General Directives archivemeta = off examine = noscan bufsize = ti 2 :wq [samsharefs-mds]root@solaris:~#
メタデータサーバー上で、テキストエディタで /etc/opt/SUNWsamfs/defaults.conf
ファイルを開きます。分散入出力に参加するメディアタイプごとに、media-type
_blksize =
size
という形式の行を入力します。ここでは:
media-type
は、mcf
ファイルが分散入出力に使用されるドライブとメディアに割り当てるタイプコードです。
size
は、この手順で前に計算したブロックサイズです。
デフォルトでは、StorageTek T10000 ドライブのデバイスブロックサイズは 2M バイトまたは 2048K バイトです (ti_blksize = 2048
)。そのため、この例では、計算したブロックサイズ 64K バイトでデフォルトをオーバーライドします。
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. ... #li_blksize = 256 ti_blksize = 64 [samsharefs-mds]root@solaris:~#
まだ /etc/opt/SUNWsamfs/defaults.conf
ファイルを開いている間に、必要に応じて行 #distio = off
のコメントを解除するか、またはまったく存在しない場合はこの行を追加します。
デフォルトでは、「distio
」は「off
」 (無効) になっています。この例では、行 distio = on
を追加します。
...
distio = on
まだ /etc/opt/SUNWsamfs/defaults.conf
ファイルを開いている間に、分散入出力に参加する各デバイスタイプを有効にします。新しい行に、media-type
_distio = on
と入力します。ここで、media-type
は、mcf
ファイルがドライブとメディアに割り当てるタイプコードです。
デフォルトでは、StorageTek T10000 ドライブおよび LTO ドライブを分散入出力に追加できますが (ti_distio = on
および li_distio = on
)、その他のタイプはすべて除外されています。この例では、StorageTek T10000 ドライブを明示的に含めます。
...
distio = on
ti_distio = on
まだ /etc/opt/SUNWsamfs/defaults.conf
ファイルを開いている間に、分散入出力に参加しない各デバイスタイプを無効にします。新しい行に、media-type
_distio = off
と入力します。ここで、media-type
は、mcf
ファイルがドライブとメディアに割り当てるタイプコードです。
この例では、LTO ドライブを除外します。
...
distio = on
ti_distio = on
li_distio = off
/etc/opt/SUNWsamfs/defaults.conf
ファイルの編集を完了したら、内容を保存してエディタを閉じます。
...
distio = on
ti_distio = on
li_distio = off
:wq
[samsharefs-mds]root@solaris:~#
データムーバーとして動作する各クライアント上で、サーバー上のファイルと一致するように defaults.conf
ファイルを編集します。
データムーバーとして機能する各クライアント上で、/etc/opt/SUNWsamfs/mcf
ファイルをテキストエディタで開き、メタデータサーバーが分散テープ入出力で使用しているテープデバイスがすべて含まれるように、ファイルを更新します。デバイスの順序および装置番号がメタデータサーバー上の mcf
ファイルのものと同じであることを確認します。
この例では、vi
エディタを使用して、ホスト samsharefs-client1
上に mcf
ファイルを構成します。
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti on /dev/rmt/61cbn 902 ti on /dev/rmt/62cbn 903 ti on /dev/rmt/63cbn 904 ti on
データムーバーとして動作するクライアント上に、メタデータサーバー上の /etc/opt/SUNWsamfs/mcf
ファイルに一覧表示されたテープライブラリが構成されている場合は、分散テープ入出力用に使用されているテープデバイスのファミリセット名としてライブラリファミリセットを指定します。ファイルを保存します。
この例では、ホスト samsharefs-client1
上にライブラリが構成されているため、テープデバイスのファミリセット名 library1
を使用します。
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat /dev/rmt/60cbn 901 ti library1 on /dev/rmt/61cbn 902 ti library1 on /dev/rmt/62cbn 903 ti library1 on /dev/rmt/63cbn 904 ti library1 on :wq [samsharefs-client1]root@solaris:~#
データムーバーとして動作するクライアント上に、メタデータサーバー上の /etc/opt/SUNWsamfs/mcf
ファイルに一覧表示されたテープライブラリが構成されていない場合は、分散テープ入出力用に使用されているテープデバイスのファミリセット名としてハイフン (-
) を使用します。その後、ファイルを保存してエディタを閉じます。
この例では、ホスト samsharefs-client2
上にライブラリが構成されていないため、テープデバイスのファミリセット名としてハイフンを使用します。
[samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti - on /dev/rmt/61cbn 902 ti - on /dev/rmt/62cbn 903 ti - on /dev/rmt/63cbn 904 ti - on :wq [samsharefs-client2]root@solaris:~#
特定のアーカイブセットのコピーで分散テープ入出力を有効または無効にする必要がある場合は、サーバーにログインし、テキストエディタで /etc/opt/SUNWsamfs/archiver.cmd
ファイルを開き、-distio
パラメータをコピーディレクティブに追加します。分散入出力を有効にするには -distio
on
、無効にするには -distio
off
を設定します。ファイルを保存します。
この例では、サーバー samsharefs-mds
にログインし、vi
エディタを使用して、コピー 1
の分散入出力を off
にします。
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd # archiver.cmd ... params allsets -sort path -offline_copy stageahead allfiles.1 -startage 10m -startsize 500M -startcount 500000 -distio off allfiles.2 -startage 24h -startsize 20G -startcount 500000 -reserve set :wq [samsharefs-mds]root@solaris:~#
sam-fsd
コマンドを実行して、構成ファイルにエラーがないかどうかを確認します。見つかったエラーを修正します。
sam-fsd
コマンドは、Oracle HSM 構成ファイルを読み取り、ファイルシステムを初期化します。エラーが発生した場合は停止します。この例では、サーバー sharefs-mds
上でコマンドを実行します。
[sharefs-mds]root@solaris:~# sam-fsd
変更済みの構成ファイルを読み取り、それ自体を適宜再構成するように、Oracle HSM サービスに指示します。報告されたエラーをすべて修正して、必要に応じて繰り返します。
[sharefs-mds]root@solaris:~# samd config
分散入出力が正常にアクティブになったことを確認するには、コマンド samcmd
g
を使用します。クライアントの出力に DATAMOVER
フラグが表示された場合は、分散入出力が正常にアクティブ化されています。
この例では、フラグが表示されています。
[samsharefs-mds]root@solaris:~# samcmd g Shared clients samcmd 6.0.dist_tapeio 11:09:13 Feb 20 2014 samcmd on samsharefs-mds samsharefs is shared, server is samsharefs-mds, 2 clients 3 max ord hostname seqno nomsgs status config conf1 flags 1 samsharefs-mds 14 0 8091 808540d 4051 0 MNT SVR config : CDEVID ARCHIVE_SCAN GFSID OLD_ARCHIVE_FMT " : SYNC_META TRACE SAM_ENABLED SHARED_MO config1 : NFSV4_ACL MD_DEVICES SMALL_DAUS SHARED_FS flags : status : MOUNTED SERVER SAM DATAMOVER last_msg : Wed Jul 2 10:13:50 2014 2 samsharefs-client1 127 0 a0a1 808540d 4041 0 MNT CLI config : CDEVID ARCHIVE_SCAN GFSID OLD_ARCHIVE_FMT " : SYNC_META TRACE SAM_ENABLED SHARED_MO config1 : NFSV4_ACL MD_DEVICES SHARED_FS flags : status : MOUNTED CLIENT SAM SRVR_BYTEREV " : DATAMOVER ...
サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。
それ以外の場合は、通知とロギングの構成に進みます。
Oracle HSM ソフトウェアによる複数のホストファイルシステムアクセスのネイティブサポートの代わりに、またはそのサポートに加えて、Network File System (NFS) または Server Message Block (SMB)/Common Internet File System (CIFS) を使用すると、複数のホストが Oracle HSM ファイルシステムにアクセスできます (Oracle HSM ソフトウェアを使用した複数のホストからのファイルシステムへのアクセスを参照)。次のセクションでは、基本的な構成手順の概要を示します。
次のタスクを実行します。
NFS を使用して Oracle HSM 共有ファイルシステムを共有する場合は、Oracle HSM software が NFS からの干渉なしでアクセスを制御していることを確認する必要があります。一般に、NFS サーバーがそのクライアントの代わりにファイルにアクセスするときは、Oracle HSM 共有ファイルシステムのクライアントとしてアクセスするため、これは問題ではありません。ただし、NFS バージョン 4 のサーバーが読み取り/書き込みアクセス権への制御をクライアントに委任するように構成されている場合は、問題が発生する可能性があります。委任の長所は、サーバーが競合の発生を防止する場合にしか介入する必要がない点にあります。サーバーのワークロードが NFS クライアント間で部分的に分散され、ネットワークトラフィックが削減されます。ただし、委任では、独自の共有ファイルシステムクライアントからのアクセスも制御する Oracle HSM サーバーとは別にアクセス権 (特に書き込みアクセス権) が付与されます。競合の発生およびファイル破損の可能性を回避するには、委任を無効にする必要があります。次のように進めます。
NFS 共有として構成する Oracle HSM ファイルシステムのホストにログインします。root
としてログインします。
ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfsnfs
です。
[qfsnfs]root@solaris:~#
NFS バージョン 4 を使用していて、NFS サーバーで Solaris 11.1 以降が動作している場合は、Service Management Facility (SMF) の sharectl
set
-p
コマンドを使用して、NFS server_delegation
プロパティーを off
にします。
[qfsnfs]root@solaris:~# sharectl set -p server_delegation=off
NFS バージョン 4 を使用していて、NFS サーバーで Solaris 11.0 以前が動作している場合は、テキストエディタで /etc/default/nfs
ファイルを開き、NFS_SERVER_DELEGATION
パラメータを off
に設定して、委任を無効にします。ファイルを保存して、エディタを閉じます。
この例では、vi
エディタを使用します。
[qfsnfs]root@solaris:~# vi /etc/default/nfs # ident "@(#)nfs 1.10 04/09/01 SMI" # Copyright 2004 Sun Microsystems, Inc. All rights reserved. # Use is subject to license terms. ... NFS_SERVER_DELEGATION=off :wq [qfsnfs]root@solaris:~#
共有する予定の Oracle HSM ファイルシステムで Write-Once Read-Many (WORM) 機能がサポートされている場合は、ここで WORM ファイルおよびディレクトリを共有する NFS サーバーおよびクライアントを構成します。
それ以外の場合は、Oracle HSM ホスト上に NFS サーバーを構成します。
NFS を使用して共有する Oracle HSM ファイルシステムのホストにログインします。root
としてログインします。
ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfsnfs
、クライアント名は nfsclient1
です。
[qfsnfs]root@solaris:~#
共有する予定の Oracle HSM ファイルシステムが WORM 機能を使用していて、Oracle Solaris 10 以降で動作しているサーバー上でホストされている場合は、NFS サーバー上およびすべてのクライアント上で NFS バージョン 4 が有効になっていることを確認します。
この例では、サーバー qfsnfs
およびクライアント nfsclient1
を確認します。どちらの場合でも、uname
-r
コマンドを使用して、最初に Solaris のバージョンレベルを確認します。次に、modinfo
コマンドの出力を grep
および正規表現にパイプして、NFS のバージョン情報を検索します。
[qfsnfs]root@solaris:~# uname -r 5.11 [qfsnfs]root@solaris:~# modinfo | grep -i "nfs.* version 4" 258 7a600000 86cd0 28 1 nfs (network filesystem version 4) [qfsnfs]root@solaris:~# ssh root@nfsclient1 Pasword: ... [nfsclient1]root@solaris:~# uname -r 5.11 [nfsclient1]root@solaris:~# modinfo | grep -i "nfs.* version 4" 278 fffffffff8cba000 9df68 27 1 nfs (network filesystem version 4) [nfsclient1]root@solaris:~# exit [qfsnfs]root@solaris:~#
Oracle Solaris 10 以降で動作しているサーバー上で NFS バージョン 4 が有効になっていない場合は、サーバーおよび各クライアントに root
としてログインします。次に、sharectl
set
コマンドを使用して、NFS 4 を有効にします。
[qfsnfs]root@solaris:~# sharectl set -p server_versmax=4 nfs [qfsnfs]root@solaris:~# ssh root@nfsclient1 Password ... [nfsclient1]root@solaris:~# sharectl set -p server_versmax=4 nfs [nfsclient1]root@solaris:~# exit [qfsnfs]root@solaris:~#
クライアントがネットワークファイルシステム (NFS) を使用して正常に Oracle HSM ファイルシステムをマウントできるようにするには、ホスト上でファイルシステムが正常にマウントされるまで、Oracle HSM ファイルシステムの共有が試行されないように NFS サーバーを構成する必要があります。Oracle Solaris 10 以降のオペレーティングシステムバージョンでは、Service Management Facility (SMF) がブート時にファイルシステムのマウントを管理します。次の手順を使用して NFS を構成しない場合は、QFS マウントと NFS 共有のどちらか一方は成功しますが、他方には失敗します。
NFS 共有として構成する Oracle HSM ファイルシステムのホストにログインします。root
としてログインします。
ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfsnfs
です。
[qfsnfs]root@solaris:~#
svccfg
export
/network/nfs/server
コマンドの出力をリダイレクトして、既存の NFS 構成を XML マニフェストファイルにエクスポートします。
この例では、エクスポートされた構成をマニフェストファイル /var/tmp/server.xml
に転送します。
[qfsnfs]root@solaris:~# svccfg export /network/nfs/server > /var/tmp/server.xml [qfsnfs]root@solaris:~#
テキストエディタでマニフェストファイルを開き、filesystem-local
依存関係を探します。
この例では、vi
エディタでファイルを開きます。filesystem-local
依存関係のエントリは、nfs-server_multi-user-server
依存関係のエントリの直前に一覧表示されます。
[qfsnfs]root@solaris:~# vi /var/tmp/server.xml <?xml version='1.0'?> <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'> <service_bundle type='manifest' name='export'> <service name='network/nfs/server' type='service' version='0'> ... <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/system/filesystem/local'/> </dependency> <dependent name='nfs-server_multi-user-server' restart_on='none' grouping='optional_all'> <service_fmri value='svc:/milestone/multi-user-server'/> </dependent> ...
filesystem-local
依存関係の直後に、QFS 共有ファイルシステムをマウントする qfs
依存関係を追加します。次に、ファイルを保存して、エディタを終了します。
これにより、サーバーが NFS 経由で共有を試行する前に、Oracle HSM 共有ファイルシステムがマウントされます。
<?xml version='1.0'?> <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'> <service_bundle type='manifest' name='export'> <service name='network/nfs/server' type='service' version='0'> ... <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/system/filesystem/local'/> </dependency> <dependency name='qfs' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/network/qfs/shared-mount:default'/> </dependency> <dependent name='nfs-server_multi-user-server' restart_on='none' grouping='optional_all'> <service_fmri value='svc:/milestone/multi-user-server'/> </dependent> :wq [qfsnfs]root@solaris:~#
svccfg
validate
コマンドを使用して、マニフェストファイルを検証します。
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
svccfg
validate
コマンドでエラーがレポートされた場合は、そのエラーを修正してから、ファイルを再検証します。
この例では、svccfg
validate
コマンドで XML 解析エラーが返されます。ファイルを保存するときに、誤って末尾のタグ </dependency>
を付け忘れました。そのため、vi
エディタでファイルを再度開いて、問題を修正します。
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml /var/tmp/server.xml:75: parser error : Opening and ending tag mismatch: dependency line 29 and service </service> ˆ /var/tmp/server.xml:76: parser error : expected '>' </service_bundle> ˆ /var/tmp/server.xml:77: parser error : Premature end of data in tag service_bundle line 3 ˆ svccfg: couldn't parse document [qfsnfs]root@solaris:~# vi /var/tmp/server.xml ... :wq [qfsnfs]root@solaris:~#
svccfg
validate
コマンドがエラーなしで完了したら、svcadm
disable
nfs/server
コマンドを使用して NFS を無効にします。
この例では、svccfg
validate
コマンドで出力が返されなかったため、ファイルは有効であり、NFS を無効にできます。
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml [qfsnfs]root@solaris:~# svcadm disable nfs/server
svccfg
delete
nfs/server
コマンドを使用して、既存の NFS サーバー構成を削除します。
[qfsnfs]root@solaris:~# svccfg delete nfs/server
svccfg
import
コマンドを使用して、マニフェストファイルを Service Management Facility (SMF) にインポートします。
[qfsnfs]root@solaris:~# svccfg import /var/tmp/server.xml
svcadm
enable
nfs/server
コマンドを使用して、NFS を再度有効にします。
NFS は、更新済みの構成を使用するように構成されます。
[qfsnfs]root@solaris:~# svcadm enable nfs/server
qfs
依存関係が適用されたことを確認します。コマンド svcs
-d
svc:/network/nfs/server:default
で /network/qfs/shared-mount:default
サービスが表示されることを確認します。
[qfsnfs]root@solaris:~# svcs -d svc:/network/nfs/server:default STATE STIME FMRI ... online Nov_01 svc:/network/qfs/shared-mount:default ...
使用中の Oracle Solaris オペレーティングシステムバージョンに対応した管理ドキュメントに記載されている手順を使用して、Oracle HSM ファイルシステムを共有します。次の手順では、Solaris 11.1 での手順について簡単に説明します。
NFS を使用して共有する Oracle HSM ファイルシステムのホストにログインします。root
としてログインします。
ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfsnfs
です。
[qfsnfs]root@solaris:~#
コマンド行 share
-F
nfs
-o
sharing-options
sharepath
を入力します。ここで -F
スイッチは nfs
共有プロトコルを指定し、sharepath
は共有リソースへのパスです。オプションの -o
パラメータを使用する場合、sharing-options
には次のいずれかを含めることができます。
rw
は、読み取りおよび書き込み権限のある sharepath
をすべてのクライアントが使用できるようにします。
ro
は、読み取り専用権限のある sharepath
をすべてのクライアントが使用できるようにします。
rw=
clients
は、読み取りおよび書き込み権限のある sharepath
を clients
(共有へのアクセス権を持つ 1 つ以上のクライアントのコロン区切りリスト) が使用できるようにします。
ro=
clients
は、読み取り専用権限のある sharepath
を clients
(共有へのアクセス権を持つ 1 つ以上のクライアントのコロン区切りリスト) が使用できるようにします。
この例では、/qfsms
ファイルシステムを読み取り/書き込みでクライアント nfsclient1
および nfsclient2
と共有して、読み取り専用で nfsclient3
と共有します (次のコマンドは 1 行で入力します。改行はバックスラッシュでエスケープされます)。
[qfsnfs]root@solaris:~# share -F nfs -o rw=nfsclient1:nfsclient2 \ ro=nfsclient3 /qfsms
このコマンドを入力すると、自動的に NFS サーバーデーモン nfsd
が再起動されます。追加のオプションおよび詳細は、share_nfs
のマニュアルページを参照してください。
コマンド行 share
-F
nfs
を使用して、共有パラメータを確認します。
この例では、共有が適切に構成されたことがコマンドの出力に表示されます。
[qfsnfs]root@solaris:~# share -F nfs /qfsms sec=sys,rw=nfsclient1:nfsclient2,ro=nfsclient3 [qfsnfs]root@solaris:~#
クライアントシステム上の適切なマウントポイントに、NFS サーバーのファイルシステムをマウントします。クライアントごとに、次の手順を実行します。
クライアントに root
としてログインします。
この例では、NFS クライアントの名前は nfsclient1
です。
[nfsclient1]root@solaris:~#
オペレーティングシステムの /etc/vfstab
ファイルをバックアップします。
[nfsclient1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [nfsclient1]root@solaris:~#
テキストエディタで /etc/vfstab
ファイルを開きます。
次の例では、vi
エディタを使用します。
[nfsclient1]root@solaris:~# vi /etc/vfstab #File Device Mount #Device to Mount System fsck at Mount #to Mount fsck Point Type Pass Boot Options #------------ ------ --------- ------ ---- ----- ---------------- /devices - /devices devfs - no - ...
/etc/vfstab
ファイルの 1 列目に、NFS サーバーの名前と共有するファイルシステムのマウントポイントをコロンで区切って指定して、マウントするファイルデバイスの名前を指定します。
この例では、NFS サーバーの名前は qfsnfs
、共有ファイルシステムの名前は qfsms
、サーバー上のマウントポイントは /qfsms
です。
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms
ローカルシステムがリモートのファイルシステムの整合性チェックを試行しないように、/etc/vfstab
ファイルの 2 列目に、ハイフン (-
) を入力します。
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms -
/etc/vfstab
ファイルの 3 列目に、リモートのファイルシステムをマウントするローカルのマウントポイントを入力します。
この例では、マウントポイントはディレクトリ /qfsnfs
です。
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs
/etc/vfstab
ファイルの 4 列目に、ファイルシステムタイプ nfs
を入力します。
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs
クライアントは NFS ファイルシステムとしてリモートの QFS ファイルシステムをマウントするため、nfs
ファイルシステムタイプを使用します。
ローカルシステムではリモートのファイルシステムの整合性チェックが行われないため、/etc/vfstab
ファイルの 5 列目に、ハイフン (-
) を入力します。
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs -
/etc/vfstab
ファイルの 6 列目に、ブート時にリモートのファイルシステムをマウントする場合は yes
、要求に応じて手動でマウントする場合は no
を入力します。
この例では、yes
を入力します。
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes
/etc/vfstab
ファイルの最後の列に、hard
および intr
NFS マウントオプションを入力して、無制限で中断なしの再試行を強制するか、または retrans
を 120
以上に設定して timeo
を 3000
1/10 秒に設定し、soft
、retrans
、および timeo
マウントオプションを入力することによって、特定の再試行回数を設定します。
hard
再試行オプションを設定するか、または soft
オプションに十分に長いタイムアウト値と十分な再試行回数を指定すると、すぐにマウントできないリムーバブルボリューム上に要求されたファイルが存在するときにも、NFS 要求が失敗しなくなります。これらのマウントオプションの詳細は、Solaris mount_nfs
のマニュアルページを参照してください。
この例では、soft
マウントオプションを入力します。
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes soft,retrans=120,timeo=3000
NFS 2 を使用している場合は、rsize
マウントパラメータを 32768
に設定します。
その他の NFS バージョンを使用している場合は、デフォルト値を受け入れます。
rsize
マウントパラメータは、読み取りバッファーのサイズを 32768
バイトに設定します (デフォルトは 8192
バイト)。この例では、NFS 2 での構成方法を示します。
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs2:/qfs2 - /qfsnfs2 nfs - yes ...,rsize=32768
NFS 2 を使用している場合は、wsize
マウントパラメータを 32768
に設定します。
その他の NFS バージョンを使用している場合は、デフォルト値を受け入れます。
wsize
マウントパラメータは、書き込みバッファーのサイズを指定したバイト数に設定します (デフォルトは 8192
バイト)。この例では、NFS 2 での構成方法を示します。
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs2:/qfs2 - /qfsnfs2 nfs - yes ...,wsize=32768
/etc/vfstab
ファイルを保存して、エディタを終了します。
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes soft,retrans=120,timeo=3000
:wq
[nfsclient1]root@solaris:~#
共有ファイルシステムのマウントポイントディレクトリを作成します。
この例では、/qfsnfs
という名前のディレクトリ上で共有ファイルシステムをマウントします。
[nfsclient1]root@solaris:~# mkdir /qfsnfs [nfsclient1]root@solaris:~#
/etc/vfstab
ファイルで指定されたマウントポイントを作成し、そのマウントポイントに対するアクセス権を設定します。
ユーザーはマウントポイントポイントディレクトリに移動し、マウントしたファイルシステム内のファイルにアクセスするための実行権 (x
) を持っている必要があります。この例では、/qfsnfs
マウントポイントディレクトリを作成し、アクセス権を 755
(-rwxr-xr-x
) に設定します。
[nfsclient1]root@solaris:~# mkdir /qfsnfs [nfsclient1]root@solaris:~# chmod 755 /qfsnfs [nfsclient1]root@solaris:~#
共有ファイルシステムをマウントします。
[nfsclient1]root@solaris:~# mount /qfsnfs [nfsclient1]root@solaris:~#
サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。
それ以外の場合は、通知とロギングの構成に進みます。
SMB を使用すると、Oracle HSM が Microsoft Windows ホストにアクセスできるようになり、大文字と小文字の区別のなし、DOS 属性のサポート、および NFSv4 のアクセス制御リスト (ACL) のサポートなどの相互運用性機能が提供されます。Oracle Solaris OS は、サーバーメッセージブロック (SMB) プロトコルのサーバーおよびクライアント実装を提供し、これには、NT LM 0.12 や共通インタフェースファイルシステム (CIFS) などの多数の SMB ダイアレクトのサポートが含まれます。
Oracle HSM では、Windows Security Identifier (SID) がサポートされます。Windows アイデンティティーは、idmap
サービスを使用して明示的に定義したり、Active Directory サービスで提供したりする必要がなくなりました。
Oracle HSM ファイルシステムで SMB サービスを構成するには、次のタスクを実行します。
次のセクションでは、Oracle HSM ファイルシステムに適用される SMB 構成プロセスの一部について概要を示します。これらは包括的なものではなく、考えられるシナリオをすべて網羅しているわけではありません。そのため、Oracle Solaris SMB サーバーの構成、既存の Windows 環境へのサーバーの統合、および Solaris システムでの SMB 共有のマウントについては、完全な手順を確認してください。完全な手順は、Oracle Solaris Information Library の Oracle Solaris での SMB と Windows の相互運用性の管理に関するガイドにあります。
Oracle HSM では、Windows Security Identifier (SID) が完全にサポートされるようになりましたが、一部の状況では、UNIX アイデンティティーと SID 間の関係を明示的に定義することが引き続き役立つ場合があります。たとえば、ユーザーが UNIX と Windows の両方のアイデンティティーを持っている異種環境では、idmap
サービスまたは Active Directory サービスを使用して、明示的なマッピングを作成する場合があります。SMB と Windows の完全な相互運用性情報については、使用している Oracle Solaris バージョンの製品ドキュメントを参照してください。
SMB/CIFS を使用して共有する Oracle HSM ファイルシステムでは、ネットワークファイルシステム (NFS) Version 4 で採用され、Solaris 11 で導入されたアクセス制御リスト (ACL) の実装を使用する必要があります。旧バージョンの Solaris および NFS では、Windows ACL 実装と互換性のない POSIX ドラフト仕様に基づいた ACL が使用されていました。
Solaris 11 では、Oracle HSM で作成する新しいファイルシステムは、デフォルトで NFS バージョン 4 ACL を使用します。ただし、SMB/CIFS クライアントを使用して既存の Oracle HSM ファイルシステムを共有する必要がある場合は、適切な手順を使用して既存の POSIX スタイルの ACL を変換する必要があります。
次のように進めます。
ホストに root
としてログインします。
この例では、ホスト qfs-host
にログインします。
[qfs-host]root@solaris:~#
ホストで Oracle Solaris 11.1 以上が実行されていることを確認します。コマンド uname
-r
を使用します。
[qfs-host]root@solaris:~# uname -r 5.11 [qfs-host]root@solaris:~#
コマンド umount
mount-point
を使用して、ファイルシステムをアンマウントします。ここで mount-point
は、Oracle HSM ファイルシステムのマウントポイントです。
詳細については、umount_samfs
のマニュアルページを参照してください。次の例では、サーバー名は qfs-host
、ファイルシステムは /qfsms
です。
[qfs-host]root@solaris:~# umount /qfsms
samfsck
-F
-A
file-system
コマンドを使用して、ファイルシステムを変換します。ここで -F
オプションを指定すると、ファイルシステムがチェックおよび修復され、-A
オプションを指定すると ACL が変換されます。file-system
は、変換する必要があるファイルシステムの名前です。
-A
オプションが指定されているときは、-F
オプションが必須です。samfsck
-F
-A
コマンドでエラーが返された場合は、プロセスが異常終了し、ACL は変換されません (これらのオプションの詳細は、samfsck
のマニュアルページを参照)。
[qfs-host]root@solaris:~# samfsck -F -A /qfsms
エラーが返され、ACL が変換されない場合は、samfsck
-F
-a
file-system
コマンドを使用して、強制的に ACL を変換します。
-a
オプションを指定すると、強制的に変換されます。-a
オプションが指定されているときは、-F
オプションが必須です (これらのオプションの詳細は、samfsck
のマニュアルページを参照)。
[qfs-host]root@solaris:~# samfsck -F -a /qfsms
次に、Windows Active Directory ドメインまたはワークグループ用に SMB サーバーを構成します。
ファイルシステムのメタデータサーバーに root
としてログインします。
この例では、メタデータサーバー sharedqfs-mds
にログインします。
[sharedqfs-mds]root@solaris:~#
メタデータサーバーで Oracle Solaris 11.1 以上が実行されていることを確認します。コマンド uname
-r
を使用します。
[sharedqfs-mds]root@solaris:~# uname -r 5.11 [sharedqfs-mds]root@solaris:~#
各 Oracle HSM クライアントに root
としてログインして、各クライアントで Oracle Solaris 11.1 以上が実行されていることを確認します。
この例では、端末ウィンドウを開き、ssh
を使用してクライアントホスト sharedqfs-client1
および sharedqfs-client2
にリモートログインして、ログインバナーから Solaris のバージョンを取得します。
[sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client1 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client1]root@solaris:~# [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client2 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client2]root@solaris:~#
コマンド umount
mount-point
を使用して、各 Oracle HSM クライアントから Oracle HSM 共有ファイルシステムをアンマウントします。ここで mount-point
は、Oracle HSM ファイルシステムのマウントポイントです。
詳細については、umount_samfs
のマニュアルページを参照してください。この例では、2 つのクライアント (sharedqfs-client1
と sharedqfs-client2
) から /sharedqfs1
をアンマウントします。
Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client1]root@solaris:~# umount /sharedqfs [sharedqfs-client1]root@solaris:~# Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client2]root@solaris:~# umount /sharedqfs [sharedqfs-client1]root@solaris:~#
コマンド umount
-o
await_clients=
interval
mount-point
を使用して、メタデータサーバーから Oracle HSM 共有ファイルシステムをアンマウントします。ここで mount-point
は、Oracle HSM ファイルシステムのマウントポイントで、interval は -o
await_clients
オプションの遅延実行で指定された遅延 (秒) です。
Oracle HSM 共有ファイルシステムのメタデータサーバー上で -o
await_clients
オプションを付けて umount
コマンドを発行すると、クライアントが共有をアンマウントする時間を持てるように、umount
は指定された秒数間待機します。非共有ファイルシステムをアンマウントする場合や、Oracle HSM クライアント上でコマンドを発行する場合は影響がありません。詳細については、umount_samfs
のマニュアルページを参照してください。
この例では、クライアントのアンマウントを 60
秒間許可し、メタデータサーバー sharedqfs-mds
から /sharedqfs
ファイルシステムをアンマウントします。
[sharedqfs-mds]root@solaris:~# umount -o await_clients=60 /sharedqfs
ファイルシステムを POSIX スタイルの ACL から NFS バージョン 4 の ACL に変換します。メタデータサーバー上で、コマンド samfsck
-F
-A
file-system
を使用します。ここで -F
オプションを指定するとファイルシステムがチェックおよび修復され、-A
オプションを指定すると ACL が変換されます。file-system
は、変換する必要があるファイルシステムの名前です。
-A
オプションが指定されているときは、-F
オプションが必須です。samfsck
-F
-A
file-system
コマンドでエラーが返された場合は、プロセスが異常終了し、ACL は変換されません (これらのオプションの詳細は、samfsck
のマニュアルページを参照)。この例では、/sharedqfs
という名前の Oracle HSM ファイルシステムを変換します。
[sharedqfs-mds]root@solaris:~# samfsck -F -A /sharedqfs
エラーが返され、ACL が変換されない場合は、強制的に ACL を変換します。メタデータサーバー上で、samfsck
-F
-a
file-system
コマンドを使用します。
-a
オプションを指定すると、強制的に変換されます。-a
オプションが指定されているときは、-F
オプションが必須です (これらのオプションの詳細は、samfsck
のマニュアルページを参照)。この例では、/qfsma
という名前の Oracle HSM ファイルシステムを強制的に変換します。
[sharedqfs-mds]root@solaris:~# samfsck -F -a /sharedqfs
次に、Windows Active Directory ドメインまたはワークグループ用に SMB サーバーを構成します。
Oracle Solaris SMB サービスは、ドメインとワークグループという、相互に排他的な 2 つのモードのいずれかで動作できます。環境と認証のニーズに基づいて、いずれか一方を選択します。
Active Directory ドメインユーザーに Solaris SMB サービスへのアクセス権を付与する必要がある場合は、SMB サーバーをドメインモードで構成します。
ローカルの Solaris ユーザーに SMB サービスへのアクセス権を付与する必要があるとき、Active Directory ドメインが存在しないか、または Active Directory ドメインユーザーにこのサービスへのアクセス権を付与する必要がない場合は、SMB サーバーをワークグループモードで構成します。
Windows Active Directory 管理者に連絡して、次の情報を取得します。
Active Directory ドメインに参加する際に使用する必要がある認証済みの Active Directory ユーザーアカウントの名前
アカウント用のデフォルトの Computers
コンテナの代わりに使用する必要がある組織単位 (存在する場合)
Oracle HSM ファイルシステムが共有されるドメインの完全修飾 LDAP/DNS ドメイン名。
SMB/CIFS 共有として構成する Oracle HSM ファイルシステムのホストにログインします。root
としてログインします。
ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfssmb
です。
[qfssmb]root@solaris:~#
単一の Oracle Solaris システム上では、オープンソースの Samba と SMB サーバーを同時に使用できません。したがって、Samba サービスが実行されているかどうかを確認します。サービスステータスコマンド svcs
の出力を grep
および正規表現 samba
にパイプします。
この例では、svcs
コマンドの出力に正規表現の一致が含まれているため、SMB サービスは実行中です。
[qfssmb]root@solaris:~# svcs | grep samba legacy_run Nov_03 lrc:/etc/rc3_d/S90samba
Samba サービス (svc:/network/samba
) が実行中の場合は、Windows Internet Naming Service/WINS (svc:/network/wins
) (実行中の場合) とともに無効にします。コマンド svcadm
disable
を使用します。
[qfssmb]root@solaris:~# svcadm disable svc:/network/samba [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
ここで、svcadm
enable
-r
smb/server
コマンドを使用して、SMB サーバーおよびこれが依存するサービスを起動します。
[qfssmb]root@solaris:~# svcadm enable -r smb/server
Oracle HSM ホスト上のシステムクロックが Microsoft Windows ドメインコントローラのシステムクロックの 5 分以内であることを確認します。
Windows ドメインコントローラで Network Time Protocol (NTP) サーバーが使用されている場合は、同じサーバーを使用するように Oracle HSM ホストを構成します。Oracle HSM ホスト上に /etc/inet/ntpclient.conf
ファイルを作成し、svcadm
enable
ntp
コマンドを使用して ntpd
デーモンを起動します (詳細は、ntpd
のマニュアルページおよび Oracle Solaris 管理ドキュメントを参照)。
それ以外の場合は、ntpdate
domain-controller-name
コマンドを実行して、Oracle HSM ホストとドメインコントローラを同期するか (詳細は、ntpdate
のマニュアルページを参照)、または Oracle HSM ホスト上のシステムクロックをドメインコントローラのシステムクロックで表示される時間に手動で設定します。
コマンド smbadm
join
-u
username
-o
organizational-unit
domain-name
を使用して、Windows ドメインに参加します。ここで username
は、Active Directory 管理者によって指定されたユーザーアカウントの名前、オプションの organizational-unit
は指定されたアカウントコンテナ (存在する場合)、domain-name
は指定された完全修飾 LDAP または DNS ドメイン名です。
この例では、ユーザーアカウントを使用して、Windows ドメイン this.example.com
に参加します。
[qfssmb]root@solaris:~# smbadm join -u admin -o smbsharing this.example.com
Contact the Windows ネットワーク管理者に連絡して、Oracle HSM ファイルシステムのホストが参加する必要のある Windows ワークグループの名前を取得します。
デフォルトのワークグループの名前は WORKGROUP
です。
Oracle HSM ファイルシステムのホストにログインします。root
としてログインします。
ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfssmb
です。
[qfssmb]root@solaris:~#
単一の Oracle Solaris システム上では、オープンソースの Samba と SMB サーバーを同時に使用できません。したがって、Samba サービスが実行されているかどうかを確認します。svcs
サービスステータスコマンドの出力を grep
および正規表現 samba
にパイプします。
この例では、svcs
コマンドの出力に正規表現の一致が含まれているため、SMB サービスは実行中です。
[qfssmb]root@solaris:~# svcs | grep samba legacy_run Nov_03 lrc:/etc/rc3_d/S90samba
Samba サービス (svc:/network/samba
) が実行中の場合は、Windows Internet Naming Service/WINS (svc:/network/wins
) サービス (実行中の場合) とともに無効にします。コマンド svcadm
disable
を使用します。
単一の Oracle Solaris システム上では、Samba と SMB サーバーを同時に使用できません。
[qfssmb]root@solaris:~# svcadm disable svc:/network/samba [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
ここで、コマンド svcadm
enable
-r
smb/server
を使用して、SMB サーバーおよびこれが依存するサービスを起動します。
[qfssmb]root@solaris:~# svcadm enable -r smb/server
ワークグループに参加します。-w
(ワークグループ) スイッチ、および Windows ネットワーク管理者によって指定されたワークグループの名前を指定して、コマンド smbadm
join
を使用します。
この例では、指定されたワークグループの名前は crossplatform
です。
[qfssmb]root@solaris:~# smbadm join -w crossplatform
SMB パスワードが暗号化されるように Oracle HSM ホストを構成します。テキストエディタで /etc/pam.d/other
ファイルを開き、コマンド行 password
required
pam_smb_passwd.so.1
nowarn
を追加して、ファイルを保存します。
この例では、vi
エディタを使用します。
[qfssmb]root@solaris:~# vi /etc/pam.d/other # Copyright (c) 2012, Oracle and/or its affiliates. All rights reserved. # # PAM configuration # # Default definitions for Authentication management # Used when service name is not explicitly mentioned for authentication # auth definitive pam_user_policy.so.1 ... password required pam_authtok_store.so.1 password required pam_smb_passwd.so.1 nowarn :wq [qfssmb]root@solaris:~#
詳細は、pam_smb_passwd
のマニュアルページを参照してください。
pam_smb_passwd
モジュールがインストールされたら、SMB サーバーが Windows ワークグループにログインできるように、passwd
local-username
コマンドを使用して、ユーザー local-username
の暗号化バージョンのパスワードを生成します。
SMB サーバーのユーザー認証では、Solaris オペレーティングシステムで使用されるものと同じ暗号化バージョンのパスワードを使用できません。この例では、ユーザー smbsamqfs
の暗号化された SMB パスワードを生成します。
[qfssmb]root@solaris:~# passwd smbsamqfs
使用中の Oracle Solaris オペレーティングシステムバージョンに対応した管理ドキュメントに記載されている手順を使用して、Oracle HSM ファイルシステムを共有します。次の手順では、Solaris 11.1 での手順について簡単に説明します。
SMB/CIFS 共有として構成する Oracle HSM ファイルシステムのホストにログインします。root
としてログインします。
ファイルシステムが Oracle HSM 共有ファイルシステムである場合は、そのファイルシステムのメタデータサーバーにログインします。次の例では、サーバー名は qfssmb
です。
[qfssmb]root@solaris:~#
共有を構成します。コマンド share
-F
smb
-o
specific-options
sharepath
sharename
を使用します。ここで -F
スイッチは smb
共有プロトコルを指定し、sharepath
は共有リソースへのパス、sharename
は共有で使用する名前です。オプションの -o
パラメータの値 sharing-options
には、次のいずれかを含めることができます。
abe=
[
true
|
false
]
共有のアクセスベースの列挙 (ABE) ポリシーが true
になっている場合は、クライアントに返されるディレクトリリストから、要求するユーザーがアクセス権を持っていないディレクトリのエントリが削除されます。
ad-container=
cn=
user
,ou=
organization
,dc=
domain-dns
Active Directory コンテナでは、共有アクセスは、LDAP (Lightweight Directory Access Protocol) 相対識別名 (RDN) 属性値 cn
(ユーザーオブジェクトクラス)、ou
(組織単位オブジェクトクラス)、および dc
(ドメイン DNS オブジェクトクラス) で指定されたドメインオブジェクトに制限されます。
SMB/CIFS での Active Directory コンテナの使用の詳細は、Internet Engineering Task Force Request For Comment (RFC) 2253 および Microsoft Windows ディレクトリサービスのドキュメントを参照してください。
catia=
[true
|false]
CATIA 文字置き換えが true
になっている場合は、Windows で無効な CATIA バージョン 4 ファイル名内の文字が有効な文字で置き換えられます。置き換えリストについては、share_smb
のマニュアルページを参照してください。
csc=
[manual
|auto
|vdo
|disabled]
クライアント側キャッシュ (csc
) のポリシーによって、オフラインで使用されるファイルのクライアント側キャッシュが制御されます。manual
ポリシーを使用すると、クライアントはユーザーから要求があればファイルをキャッシュに入れることができますが、自動的なファイルごとの再統合は無効になります (これがデフォルトです)。auto
ポリシーを使用すると、クライアントは自動的にファイルをキャッシュに入れることができ、ファイルごとの自動的な再統合が有効になります。vdo
ポリシーを使用すると、クライアントは自動的にオフラインで使用されるファイルをキャッシュに入れることができ、ファイルごとの再統合が有効になり、オフラインでもクライアントがローカルキャッシュから動作できます。disabled
ポリシーを使用すると、クライアント側キャッシュが許可されません。
dfsroot=
[
true
|
false
]
Microsoft 分散ファイルシステム (DFS) では、ルート共有 (dfsroot=true
) は、幅広く分散している共有フォルダのグループを、より簡単に管理できる単一の DFS ファイルシステムにまとめる共有です。詳細は、Microsoft Windows Server のドキュメントを参照してください。
guestok=
[true
|false]
guestok
ポリシーが true
になっている場合は、ローカルで定義されている guest
アカウントが共有にアクセスできます。false
または未定義のまま (デフォルト) になっている場合は、guest
アカウントが共有にアクセスできません。このポリシーを使用すると、Windows Guest
ユーザーをローカルで定義されている UNIX ユーザー名 (guest
や nobody
など) にマップできます。
# idmap add winname:Guest unixuser:guest
その後、必要に応じて /var/smb/smbpasswd
に格納されているパスワードと照合して、ローカルで定義されているアカウントを認証できます。詳細は、idmap
のマニュアルページを参照してください。
rw=
[*|[[-]
criterion
][:[-]
criterion
]...
rw
ポリシーでは、指定されたアクセスリストに一致するクライアントへのアクセスが許可または拒否されます。
アクセスリストには、すべてを意味する単一のアスタリスク (*
) またはクライアントアクセス条件のコロン区切りのリストのいずれかが含まれています。ここでそれぞれの criterion
は、拒否を意味するオプションのマイナス記号 (-
) と、その後に続くホスト名、ネットワークグループ、完全な LDAP または DNS ドメイン名、@
記号、およびすべてまたは一部の IP アドレスまたはドメイン名で構成されます。アクセスリストは、クライアントでいずれかの基準が満たされるまで、左から右へと評価されます。詳細は、share_smb
のマニュアルページを参照してください。
ro=
[*|[[-]
criterion
][:[-]
criterion
]...
ro
ポリシーでは、アクセスリストに一致するクライアントへの読み取り専用アクセスが許可または拒否されます。
none=
[*|[[-]
criterion
][:[-]
criterion
]...
none
ポリシーでは、アクセスリストに一致するクライアントへのアクセスが拒否されます。アクセスリストがアスタリスク (*
) になっている場合は、ro
および rw
ポリシーで none
ポリシーをオーバーライドできます。
この例では、クライアント smbclient1
および smbclient2
とは読み取り/書き込み、smbclient3
とは読み取り専用で、/qfsms
ファイルシステムを共有します。
[qfssmb]root@solaris:~# share -F smb -o rw=smbclient1:smbclient2 ro=smbclient3 /qfsms
このコマンドを入力すると、自動的に SMB サーバーデーモン smbd
が再起動されます。
共有パラメータを確認します。コマンド share -F nfs
を使用します。
この例では、共有が適切に構成されたことがコマンドの出力に表示されます。
[qfssmb]root@solaris:~# share -F smb /qfsms sec=sys,rw=smbclient1:smbclient2,ro=smbclient3 [qfssmb]root@solaris:~#
サイドバンドデータベース機能を使用する計画がある場合、レポートデータベースの構成に進みます。
それ以外の場合は、通知とロギングの構成に進みます。