この章では、インストーラを起動してOracle ClusterwareとOracle Automatic Storage Management(Oracle ASM)をインストールする前、およびOracle Real Application Clusters(Oracle RAC)のインストールをクラスタへ追加する前に完了しておく必要がある、記憶域の構成作業について説明します。
この章の内容は次のとおりです。
この項では、クラスタ用Oracle Grid Infrastructureの格納用にサポートされている記憶域オプションについて説明します。内容は次のとおりです。
関連項目: 動作保証されている記憶域オプションの最新情報については、My Oracle Supportの動作保証についてのサイトを参照してください。
|
次の表に、Oracle ClusterwareおよびOracle RACファイルを格納するために使用できる記憶域オプションを示します。
表6-1 Oracle ClusterwareおよびOracle RACでサポートされている記憶域オプション
記憶域オプション | OCRおよび投票ディスク | Oracle Clusterwareバイナリ | Oracle RACバイナリ | Oracle Databaseファイル | Oracleリカバリ・ファイル |
---|---|---|---|---|---|
Oracle Automatic Storage Management 注意: ループバック・デバイスは、Oracle ASMでは使用できません。 |
可 |
不可 |
不可 |
可 |
可 |
ローカル・ファイル・システム |
不可 |
可 |
可 |
不可 |
不可 |
動作保証されているNASファイラ上のNFSファイル・システム 注意: Direct NFSクライアントはOracle Clusterwareファイルをサポートしていません。 |
可 |
可 |
可 |
可 |
可 |
共有ディスク・パーティション(ブロック・デバイスまたはRAWデバイス) |
不可 |
不可 |
不可 |
不可 |
不可 |
共有論理ボリューム・マネージャ |
非推奨。これは、Oracle Grid Infrastructure 12c以降、Oracle ClusterwareファイルのRAWデバイスおよびブロック・デバイスがサポートされていないためです。 |
不可 |
不可 |
非推奨。これは、Oracle Grid Infrastructure 12c以降、Oracle DatabaseファイルのRAWデバイスおよびブロック・デバイスがサポートされていないためです。 |
不可 |
可 |
可 |
可 |
可 |
可 |
脚注 1 リストされているオプションは、Oracle ASMには適用されません。Oracle ASMでサポートされている記憶域オプションについては、この表のOracle ASMエントリを参照してください。
脚注 2 共有論理ボリューム・マネージャはクラスタ・ファイル・システムとともに使用できます。
次のガイドラインに従って、記憶域オプションを選択します。
すべてのインストールに対して、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle ASM)およびOracle Real Application Clusters(Oracle RAC)データベースに使用する記憶域オプションを選択する必要があります。
Oracle Clusterware投票ディスクは、クラスタ・ノードのステータスの監視に使用されます。Oracle Cluster Registry(OCR)ファイルには、クラスタに関する構成情報が格納されます。投票ディスクとOCRファイルは、Oracle ASMディスク・グループ、クラスタ・ファイル・システム、共有ネットワーク・ファイル・システムのいずれかに配置できます。記憶域は共有される必要があります。構成されている投票ディスクの大半(過半数)が利用できないノードは再起動されます。
Standard EditionおよびStandard Edition 2 (SE2)のOracle RACインストールでは、データベース・ファイルおよびリカバリ・ファイルの記憶域オプションとして、Oracle ASMのみがサポートされています。すべてのインストールについて、2つの以上のOracle ASMディスク・グループを作成することをお薦めします(Oracle Databaseデータ・ファイルおよびリカバリ・ファイル用にそれぞれ1つずつ)。Oracle Databaseディスク・グループおよびリカバリ・ファイル・ディスク・グループは別の障害グループに配置することをお薦めします。
Oracle ASMを使用しない場合は、データ・ファイルと高速リカバリ領域を、異なる場所にあるOracleホーム以外の共有記憶域に配置し、ハードウェアの障害による可用性の低下を防ぐことをお薦めします。
関連項目:
|
サポートされている記憶域のオプションには、次の追加のガイドラインを考慮してください。
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。
Oracle RACでOracle ASMを使用するために新しいOracle ASMインスタンスを構成する場合は、システムが次の条件を満たしている必要があります。
クラスタ用Oracle Grid Infrastructureのインストールの一部として、クラスタ内のすべてのノードにOracle ClusterwareおよびOracle ASM 12cリリース1(12.1)がインストールされている。
クラスタ内のすべてのノードで既存のすべてのOracle ASMインスタンスが停止されている。
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ディスクの冗長性を確保する必要があります。
Oracle Grid Infrastructureのインストール中、1つのディスク・グループを作成できます。Oracle Grid Infrastructureをインストール後、Oracle Automatic Storage Management Configuration Assistant (ASMCA)、SQL*Plus、または自動ストレージ管理コマンドライン・ユーティリティ(ASMCMD)を使用してディスク・グループを追加作成できます。Oracle Database 11gリリース2 (11.2)以上のリリースでは、Oracle Database Configuration Assistant (DBCA)にOracle ASM用のディスク・グループを作成する機能がないことに注意してください。
Oracle Grid Infrastructureをインストールした後にOracle DatabaseまたはOracle RACをインストールする場合は、データベース・ファイル、OCRおよび投票ディスク・ファイル用に同じディスク・グループを使用するか、または異なるディスク・グループを使用できます。Oracle RACのインストール前またはデータベースの作成前に、複数のディスク・グループを作成する場合は、次のいずれかを実行できます。
Oracle Clusterwareファイルとしてデータ・ファイルを同じディスク・グループに配置する。
データ・ファイルおよびリカバリ・ファイル用に同じOracle ASMディスク・グループを使用する。
ファイル・タイプごとに異なるディスク・グループを使用する。
記憶域用に1つのディスク・グループのみを作成した場合、OCRと投票ディスク・ファイル、データベース・ファイルおよびリカバリ・ファイルは、1つのディスク・グループに配置されます。記憶域用に複数のディスク・グループを作成した場合は、ファイルは異なるディスク・グループに配置できます。
注意: 既存のディスク・グループを管理するOracle ASMインスタンスは、Gridホームで実行されている必要があります。 |
関連項目: ディスク・グループの作成の詳細は、『Oracle Databaseストレージ管理者ガイド』を参照してください。 |
Oracle Grid InfrastructureおよびOracle RACは、クラスタ対応のボリューム・マネージャのみをサポートします。いくつかのサード・パーティのボリューム・マネージャはクラスタ対応ではないため、サポートされていません。使用するボリューム・マネージャがサポートされているかどうかを確認するには、My Oracle Supportの「動作保証」をクリックし、そのボリューム・マネージャがOracle RACで動作保証されているかどうかを確認します。My Oracle Supportは、次のURLで使用可能です。
https://support.oracle.com
ディスクの記憶域オプションを決定したら、共有記憶域の構成を行います。
ファイル・システムを使用する場合は、第6.2項「共有ファイル・システムの記憶域の構成」を参照してください。
Oracle ASMを使用する場合は、第6.4項「Oracle Automatic Storage Managementの記憶域の構成」を参照してください。
インストーラでは、Oracle Cluster Registry(OCR)またはOracle Clusterware投票ディスク用のデフォルトの格納先は提供されません。ファイル・システムにこれらのファイルを作成する場合は、次の項を確認して、Oracle Clusterwareファイル用の記憶域要件を満たしておきます。
注意: OCRは、クラスタの構成情報とステータスを含むファイルです。OCRは、Oracle Universal Installer(OUI)によって、Oracle Clusterwareのインストール時に自動的に初期化されます。Database Configuration Assistantは、OCRを使用して、作成するクラスタ・データベースの構成情報を格納します。 |
Oracle Clusterware、Oracle ASM、Oracle RACに共有ファイル・システムを使用するには、ファイル・システムで次の要件を満たす必要があります。
NFSファイル・システムを使用するには、動作保証されているNASデバイス上にある必要があります。次のURLでMy Oracle Supportにログインし、「動作保証」タブをクリックして、動作保証されているNASデバイスのリストを調べます。
Oracle Cluster Registry(OCR)ファイルを共有ファイル・システムに配置するように選択する場合は、次のいずれかに該当していることが推奨されます。
ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。
2つ以上のファイル・システムがマウントされていて、Oracle Clusterware 11g リリース2(11.2)の機能を使用してOCRに冗長性を提供している。
データベース・ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。
インストールを実行するユーザー・アカウント(oracle
またはgrid
)には、指定したパスにファイルを作成するための書込み権限が必要です。
表6-2と表6-3を使用して、共有ファイル・システムの最小サイズを決定します。
表6-2 Oracle Clusterware共有ファイル・システムのボリューム・サイズ要件
格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
---|---|---|
外部冗長で作成された投票ディスク |
1 |
投票ディスク・ボリュームごとに300MB以上 |
外部冗長で作成されたOracle Cluster Registry(OCR) |
1 |
OCRボリュームごとに400MB以上 |
表6-3 Oracle RAC共有ファイル・システムのボリューム・サイズ要件
格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
---|---|---|
Oracle Databaseファイル |
1 |
ボリュームごとに1.5GB以上 |
リカバリ・ファイル 注意: リカバリ・ファイルはデータベース・ファイルとは異なるボリュームに配置する必要があります。 |
1 |
ボリュームごとに2GB以上 |
表6-2および表6-3で、必要なボリューム・サイズの合計を加算して求めます。たとえば、標準冗長を使用してすべてのOracle Clusterwareファイルを共有ファイル・システムに格納するには、3つ以上のボリューム(OCRと2つのOCRミラー用に3つの別々のボリューム位置と、ボリュームごとに1つの投票ディスク)で2GB以上の記憶域が使用可能である必要があります。投票ディスクおよびOCRファイルを別々の物理ディスクに確実に配置するには、500MB以上の物理ディスクが3つ以上必要です。Oracle RACを追加して、データベース・ファイルにボリューム1つ、リカバリ・ファイルにボリューム1つを使用する場合、2つのボリュームで3.5GB以上、全ボリュームの合計で6.9GB以上の利用可能な記憶域が必要です。
注意: fdisk でデバイス・サイズ(+400M など)を指定し、共有パーティション上にパーティションを作成する際、実際に作成されるデバイスは、ディスクのシリンダ・ジオメトリに基づいて、要求したサイズより小さくなる場合があります。これは、現在のfdiskにおける制限事項が原因です。Oracle ASMで使用するために割り当てたディスク全体をパーティション化することをお薦めします。 |
新規インストールの場合は、Oracle Automatic Storage Management(Oracle ASM)を使用して、投票ディスクおよびOCRファイルを格納することをお薦めします。
カーネルで管理されるNFSのかわりにDirect NFSクライアントを使用することもできます。この項では、Direct NFSクライアントについて次の内容で説明します。
Oracle Database 11g リリース2(11.2)では、オペレーティング・システムのカーネルNFSクライアントを使用するかわりに、Oracle内部のDirect NFSクライアントを使用してNFS V3サーバーに直接アクセスするようにOracle Databaseを構成できます。
Oracle DatabaseでDirect NFSクライアントを使用できるようにするには、インストールを開始する前に、NFSファイル・システムをマウントし、通常のNFSマウントを介して使用できるようにする必要があります。設定は、インストール後にDirect NFSクライアントで管理されます。その場合でも、カーネルのマウント・オプションをバックアップとして設定する必要はありますが、通常の動作では、Direct NFSクライアントでNFSマウントが管理されます。
NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
一部のNFSファイル・サーバーでは、予約されたポートを使用してNFSクライアントを接続する必要があります。予約されたポートのチェックを使用してファイラを実行している場合は、Direct NFSクライアントが動作するように、予約されたポートのチェックを無効にする必要があります。予約されたポートのチェックを無効にする方法については、使用しているNFSファイル・サーバーのドキュメントを参照してください。
ポート範囲を制限するNFSサーバーの場合、root
でNFSサーバーに接続するのではなく、insecure
オプションを使用してクライアントを有効化できます。または、第6.3.10項「NFSのDirect NFSクライアントのOracle Disk Management制御の無効化」の説明に従って、Direct NFSクライアントを無効にできます。
Direct NFSクライアントを使用する場合、Oracleのデータ・ファイル管理専用の新しいファイル(oranfstab
)を使用して、Direct NFSクライアントにOracle Database固有のオプションを追加指定できます。たとえば、oranfstab
を使用して、マウント・ポイントの追加のパスを指定できます。oranfstab
ファイルは、/etc
または$ORACLE_HOME/dbs
のいずれかに追加できます。
共有Oracleホームでは、oranfstab
ファイルが$ORACLE_HOME/dbs
に格納されている場合、このファイルのエントリは、単一データベースに固有のエントリとなります。この場合、Oracle RACデータベースを実行するすべてのノードで同じ$ORACLE_HOME/dbs/oranfstab
ファイルが使用されます。共有されていないOracle RACインストールでは、oranfstab
をすべてのノードにコピーする必要があります。
oranfstab
ファイルが/etc
に格納されている場合、このファイルはすべてのOracle Databaseでグローバルに使用できます。また、oranfstabファイルには、クラスタ内のノードで実行されているすべてのOracle Database(スタンドアロン・データベースを含む)で使用されるマウント・ポイントを含めることができます。ただし、Oracle RACシステムでは、oranfstab
ファイルが/etc
に格納されている場合、/etc/fstab
ファイルの場合と同様に、すべてのノードに/etc/oranfstab
ファイルをレプリケートし、各/etc/oranfstab
ファイルをすべてのノードで同期させる必要があります。
マウント・ポイントがDirect NFSクライアントを使用して処理されているときでも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要があります。オペレーティング・システムNFSの構成およびマウントを実行する方法については、そのベンダーのドキュメントを参照してください。
Direct NFSクライアントでは、/etc/mnttab
の構成に基づいてNFSストレージ・デバイスに対するマウント・ポイント設定が決定されます。このファイルの構成は、/etc/fstab
ファイルの構成によって変更されます。
Direct NFSクライアントでは、次の順序でマウント・エントリが検索され、最初に検索された一致するエントリを使用します。
$ORACLE_HOME/dbs/oranfstab
/etc/oranfstab
/etc/mnttab
Direct NFSクライアントでは、最初に検出されたエントリがマウント・ポイントとして使用されます。
Oracle Databaseでは、Direct NFSクライアントを介して提供されている場合でも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要があります。
注意: インスタンスごとにアクティブなDirect NFSクライアントを1つのみ実装することができます。インスタンスでDirect NFSクライアントを使用すると、別のDirect NFSクライアントは実装できなくなります。 |
Oracle Databaseでoranfstab
を使用して構成されたDirect NFSクライアントのマウント・ポイントを使用する場合は、まず、オペレーティング・システムのNFSマウント・ポイントを使用してoranfstab
内のエントリをクロスチェックすることによってカーネルNFSマウントが検証されます。不一致が存在する場合、Direct NFSクライアントでは、情報メッセージを記録し、動作しません。
Oracle DatabaseでDirect NFSクライアントを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。この場合、カーネルNFSマウント・オプションは、第6.3.3項「Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認」で定義されているとおりに設定する必要があります。また、Direct NFSクライアントをNFSサーバーに接続することができなかったことを示す情報メッセージが、Oracleアラート・ファイルおよびトレース・ファイルに記録されます。
第6.1.1項「サポートされている記憶域オプション」に、Direct NFSクライアントでサポートされているファイル・タイプを示します。
Direct NFSクライアントによって処理されるNFSサーバーに存在するOracleファイルにも、オペレーティング・システムのカーネルNFSクライアントを介してアクセスできます。
関連項目: Direct NFSクライアントまたはカーネルNFSで作成されたOracle Databaseデータ・ファイルの管理におけるガイドラインについては、『Oracle Database Storage管理者ガイド』を参照してください。 |
Direct NFSクライアントでは、NFSサーバー用のoranfstab
ファイルに定義されている最大4つのネットワーク・パスを使用できます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。
クラスタ環境でDirect NFSクライアントを管理するには、次のSQL*Plusのビューを使用します。
gv$dnfs_servers: Direct NFSクライアントを使用してアクセスしたサーバーの表が表示されます。
gv$dnfs_files: Direct NFSクライアントを使用して現在開かれているファイルの表が表示されます。
gv$dnfs_channels: Direct NFSクライアントによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の表が表示されます。
gv$dnfs_stats: Direct NFSクライアントのパフォーマンス統計の表が表示されます。
注意: シングル・インスタンスにはv$ ビューを使用し、Oracle ClusterwareおよびOracle RAC記憶域にはgv$ ビューを使用します。 |
ネットワーク接続ストレージ(NAS)システムでは、データへのアクセスにNFSが使用されます。サポートされているNFSシステムにデータ・ファイルを格納できます。
インストールを開始する前に、NFSファイル・システムをマウントし、NFSマウントを介して使用できるようにする必要があります。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
OracleソフトウェアおよびデータベースがNASデバイスに格納されている場合、そのパフォーマンスは、OracleサーバーとNASデバイス間のネットワーク接続のパフォーマンスによって左右されることに注意してください。
そのため、サーバーとNASデバイスの接続には、ギガビット・イーサネット以上のプライベートな専用ネットワーク接続を使用することをお薦めします。
オペレーティング・システムおよびDirect NFSクライアントを構成するには、次の項を参照してください。
GridホームまたはOracle RACホームにNFSを使用している場合、次を有効にするために記憶域にNFSマウントを設定する必要があります。
記憶域にマウントされるクライアントのroot
ユーザーは、(匿名ユーザーとしてマップされているのではなく、)ファイル・サーバーのroot
ユーザーとみなすことができます。
クライアント・サーバーのroot
ユーザーは、ファイル・サーバーのroot
が所有しているNFSファイル・システムにファイルを作成できます。
NFSでは、サーバー側でroot=access_list
を有効にすることで、記憶域に書込みを行うクライアントにroot
アクセス権を取得できます。たとえば、ドメインmycluster.example.com
のノードnode1、node2、node3について、パス/vol/grid
のOracle Clusterwareファイル記憶域を設定するには、次のような行を/etc/dfs/dfstab
ファイルに追加します。
share -F nfs -o rw=node1.mycluster.example.com,node2,mycluster.example.com,node3.mycluster.example .com,root=node1.mycluster.example.com,node2.mycluster.example.com,node3.mycluster. example.com /vol/grid
注意: 共有設定は1行で入力してください。 |
ドメインまたはDNSがセキュアで、許可されていないシステムはそのIPアドレスを取得できない場合には、特定のクラスタ・メンバー・ノードを指定するのではなく、ドメインごとにrootアクセス権を付与します。
次に例を示します。
/vol/grid/ *.mycluster.example.com
この構文を使用すると、NFSサーバーの再構成を行うことなくノードの追加や削除を行えます。セキュアなDNSまたはドメインを使用して、そのドメインを利用するクラスタ・メンバー・ノードにroot
アクセス権を付与することをお薦めします。
グリッド・ネーミング・サービス(GNS)を使用する場合、クラスタ内でGNSによる解決で割り当てられるサブドメインは、セキュアなドメインです。適切に署名されたGPnP(グリッドのプラグ・アンド・プレイ)のプロファイルがないサーバーは、クラスタに参加できません。そのため、許可されていないシステムは、GNSサブドメイン内の名前を取得または使用できません。
注意: ドメイン単位でroot アクセス権を付与すると、システムへの不正アクセスに利用される場合があります。システム管理者は、root=access の使用に付随するリスクについて、オペレーティング・システムのドキュメントを参照してください。 |
/etc/dfs/dfstab
を変更したら、次のコマンドを使用してファイル・システムのマウントをリロードします。
# /usr/sbin/shareall
クラスタ・メンバー・ノード上では、NFSバッファ・サイズ・パラメータrsize
およびwsize
の値を32768に設定する必要があります。
データ・ファイルのNFSクライアント側のマウント・オプションは次のとおりです。
rw,bg,vers=3,proto=tcp,noac,forcedirectio,hard,nointr,timeo=600,rsize=32768,wsize=32768
Oracle Clusterwareファイル(OCRおよび投票ディスク・ファイル)のNFSクライアント側のマウント・オプションは次のとおりです。
rw,bg,vers=3,proto=tcp,noac, forcedirectio,hard,nointr,timeo=600, rsize=32768,wsize=32768,suid
ご使用のプラットフォームのNFSマウント・オプションを含むエントリで各ノードの/etc/fstab
ファイルを更新します。たとえば、Oracle Clusterwareファイル用のマウント・ポイントを作成する場合には、/etc/fstab
ファイルを次のエントリで更新します。
nfsserver:/vol/grid /u02/oracle/cwfiles nfs \ rw,bg,vers=3,proto=tcp,noac,forcedirectio,hard,nointr,timeo=600,rsize=32768,wsize=32768,suid 0 0
Oracle Clusterwareファイル(OCRおよび投票ディスク)およびデータ・ファイルと比較して、Oracleソフトウェアのバイナリのマウント・ポイント・オプションが異なることに注意してください。
バイナリ専用のマウント・ポイントを作成するには、バイナリ・マウント・ポイントに次のようなエントリを入力します。
nfs-server:/vol/bin /u02/oracle/grid nfs \
rw,bg,vers=3,proto=tcp,noac,hard,nointr,timeo=600,rsize=32768,wsize=32768,suid
関連項目: マウント・オプションの最新情報については、My Oracle Supportのbulletin 359515.1「Mount Options for Oracle Files When Used with NAS Devices」を参照してください。次のURLから入手可能です。 |
注意: マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。 |
NFSマウントを使用する場合、データベース・ファイルの格納に使用するNFSボリュームは、特別なマウント・オプションを指定し、Oracle RACインスタンスのある各ノード上にマウントする必要があります。NFSファイル・システムをマウントするときは、NASベンダーがデバイスの動作保証に使用したのと同じマウント・ポイント・オプションを使用することをお薦めします。推奨されるマウント・ポイント・オプションについては、デバイスのドキュメントを参照するか、ベンダーにご相談ください。
各ノードの/etc/fstab
ファイルを次のエントリで更新します。
nfs-server:/vol/DATA/oradata /u02/oradata nfs\
rw,bg,hard,nointr,noac,proto=tcp,vers=3,timeo=600,
rsize=32768,wsize=32768 0 0
必須のマウント・オプションは、NFSボリュームのマウント時に使用する必要のある最小限のマウント・オプション・セットを構成します。これらのマウント・オプションは、データの整合性を保護し、データベースの破損を防ぐために不可欠です。これらのマウント・オプションを使用しなかった場合は、ファイル・アクセス・エラーが発生する可能性があります。ご使用のプラットフォームでサポートされている個々のオプションの詳細は、オペレーティング・システムまたはNASデバイスのドキュメントを参照してください。
関連項目: NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。https://support.oracle.com/CSP/main/article?cmd=show&type=NOT&id=359515.1 |
デフォルトでネットワークのバッファ・サイズは、TCPでは1 MB、UDPでは2 MBに設定されます。TCPバッファ・サイズはファイル転送に制限を設定することが可能で、これはDirect NFSクライアント・ユーザーのパフォーマンスにマイナスの影響を与える場合があります。
現在のTCPバッファ・サイズをチェックするには、次のコマンドを入力します。
bash-4.0$ ndd -get /dev/tcp tcp_xmit_hiwater_max bash-4.0$ ndd -get /dev/tcp tcp_recv_hiwater_max
サーバーのリンク速度に基づいて値を設定することをお薦めします。次に例を示します。
bash-4.0# ndd -set /dev/tcp tcp_xmit_hiwater_max 10485760 bash-4.0# ndd -set /dev/tcp tcp_recv_hiwater_max 10485760
デフォルトでは、Direct NFSクライアントは有効な状態でインストールされます。ただし、Direct NFSクライアントが無効になっており、有効にする場合には、次の手順を完了させてDirect NFSクライアントを有効にします。
Direct NFSクライアントを使用してアクセスする各NFSサーバーの次の属性を使用してoranfstab
ファイルを作成します。
server: NFSサーバー名。
local: IPアドレスまたは名前のいずれかで指定された、データベース・ホスト上の最大4つのパスであり、データベース・ホスト上でifconfig
コマンドを使用して表示できます。
path: IPアドレスまたは名前のいずれかで指定された、NFSサーバーへの最大4つのネットワーク・パスであり、NFSサーバー上でifconfig
コマンドを使用して表示できます。
export: NFSサーバーからエクスポートされたパス。
mount: エクスポートされたボリュームに対応する、ローカル・マウント・ポイント。
mnt_timeout: Direct NFSクライアントがマウント成功を待機し、タイムアウトするまでの時間(秒)を指定します。このパラメータはオプションです。デフォルトのタイムアウトは10分(600
)です。
nfs_version: Direct NFSクライアントが使用するNFSプロトコルのバージョンを指定します。設定可能な値は、NFSv3、NFSv4およびNFSv4.1です。デフォルトのバージョンはNFSv3です。NFSv4.xを選択する場合、oranfstab
でnfs_version
の値を構成する必要があります。
dontroute: 送信メッセージをオペレーティング・システムでルーティングせず、そのかわりに、そのメッセージがバインドされたIPアドレスを使用して送信するよう指定します。
関連項目: 非同期I/Oの制限の詳細は、『Oracle Databaseパフォーマンス・チューニング・ガイド』を参照してください。 |
この後の例では、oranfstab
のNFSサーバー・エントリを3種類示しています。1つのoranfstab
に、複数のNFSサーバー・エントリを含めることができます。
例6-1 ローカルおよびパスのNFSサーバー・エントリを使用
次の例では、ローカルとパスの両方を使用しています。それぞれが異なるサブネットにあるため、dontroute
を指定する必要がありません。
server: MyDataServer1 local: 192.0.2.0 path: 192.0.2.1 local: 192.0.100.0 path: 192.0.100.1 export: /vol/oradata1 mount: /mnt/oradata1
例6-2 同一サブネット内のローカルおよびパスを使用(dontrouteを指定)
次の例では、同一サブネット内のローカルおよびパスを示しています。ここではdontroute
が指定されています。
server: MyDataServer2 local: 192.0.2.0 path: 192.0.2.128 local: 192.0.2.1 path: 192.0.2.129 dontroute export: /vol/oradata2 mount: /mnt/oradata2
例6-3 IPアドレスのかわりに名前を使用(複数のエクスポート)
server: MyDataServer3 local: LocalPath1 path: NfsPath1 local: LocalPath2 path: NfsPath2 local: LocalPath3 path: NfsPath3 local: LocalPath4 path: NfsPath4 dontroute export: /vol/oradata3 mount: /mnt/oradata3 export: /vol/oradata4 mount: /mnt/oradata4 export: /vol/oradata5 mount: /mnt/oradata5 export: /vol/oradata6 mount: /mnt/oradata6
Oracle Databaseでは、Direct NFSクライアントを有効にするためにODMライブラリlibnfsodm11.so
を使用します。標準のODMライブラリ$ORACLE_HOME/lib/libodm11.so
をODM NFSライブラリlibnfsodm11.so
と置き換えるには、Oracleホーム・ディレクトリが共有されていないかぎり、すべてのノードで次の手順を実行します。
$ORACLE_HOME/lib
に移動します。
次のコマンドを入力します。
cp libodm11.so libodm11.so_stub ln -s libnfsodm11.so libodm11.so
Direct NFSクライアントでは、NFSサーバー用のoranfstab
ファイルに定義されている最大4つのネットワーク・パスを使用できます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。
クラスタ環境でDirect NFSクライアントを管理するには、次のSQL*Plusのビューを使用します。
gv$dnfs_servers: Direct NFSクライアントを使用してアクセスしたサーバーの表が表示されます。
gv$dnfs_files: Direct NFSクライアントを使用して現在開かれているファイルの表が表示されます。
gv$dnfs_channels: Direct NFSクライアントによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の表が表示されます。
gv$dnfs_stats: Direct NFSクライアントのパフォーマンス統計の表が表示されます。
注意: シングル・インスタンスにはv$ ビューを使用し、Oracle ClusterwareおよびOracle RAC記憶域にはgv$ ビューを使用します。 |
Direct NFSクライアントでハイブリッド列圧縮(HCC)を有効にする手順:
ZFSストレージ・サーバーでSNMPが有効であることを確認します。次に例を示します。
$ snmpget -v1 -c public server_name .1.3.6.1.4.1.42.2.225.1.4.2.0 SNMPv2-SMI::enterprises.42.2.225.1.4.2.0 = STRING: "Sun Storage 7410"
NFSサーバー以外のインタフェースでSNMPが有効な場合は、management
パラメータを使用してoranfstab
を構成します。
public以外のコミュニティ文字列を使用してSNMPが構成されている場合は、communityパラメータを使用してoranfstab
ファイルを構成します。
snmpget
が使用可能かどうかを確認して、libnetsnmp.so
がインストールされていることを確認します。
次の手順に従って、Oracle Clusterwareファイル用のディレクトリを作成します。また、Oracle Databaseおよびリカバリ・ファイル用に共有ファイル・システムを構成することもできます。
注意: NFS記憶域については、Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイルを格納する場合にのみ、この手順を実行する必要があります。 |
Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
bdf
コマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、使用するファイル・システムを特定します。600MB以上の空きディスク領域(外部冗長を使用、OCRと投票ディスクを1つずつ)があるファイル・システムを選択します。
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、grid
かoracle
)が、Oracle Clusterwareファイルをインストールする記憶域の場所にディレクトリを作成する権限を所有している場合は、OUIによってOracle Clusterwareファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、そのディレクトリに適切な所有者、グループおよび権限が設定されます。たとえば、ユーザーがoracle
、Oracle Clusterwareファイルの記憶域がcluster
の場合は、次のようになります。
# mkdir /mount_point/cluster # chown oracle:oinstall /mount_point/cluster # chmod 775 /mount_point/cluster
注意: インストール後、Oracle Cluster Registry(OCR)ファイルのインストール・パスにあるディレクトリはroot が所有し、root 以外のアカウントでは書込みできないようにする必要があります。 |
マウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定したら、Oracle Grid Infrastructure用のNFSの構成は完了です。
Oracle Databaseの共有ファイル・システム用のディレクトリ、および(Oracle RACデータベース用などの)リカバリ・ファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで共有ファイル・システムを構成し、マウントします。
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
bdf
コマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、ファイル・システムを特定します。
ファイル・タイプ | ファイル・システムの要件 |
---|---|
データベース・ファイル | 次のいずれかを選択します。
|
リカバリ・ファイル | 2GB以上の空き領域を持つ単一のファイル・システムを選択します。 |
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、oracle
)がOracle Databaseをインストールするディスクにディレクトリを作成する権限を所有している場合は、DBCAによってOracle Databaseファイル・ディレクトリおよびリカバリ・ファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。
データベース・ファイル・ディレクトリ:
# mkdir /mount_point/oradata # chown oracle:oinstall /mount_point/oradata # chmod 775 /mount_point/oradata
リカバリ・ファイル・ディレクトリ(高速リカバリ領域):
# mkdir /mount_point/fast_recovery_area # chown oracle:oinstall /mount_point/fast_recovery_area # chmod 775 /mount_point/fast_recovery_area
oinstall
グループのメンバーをこれらのディレクトリの所有者にすると、これらのディレクトリが複数のOracleホーム(異なるOSDBAグループによるものも含む)から読み取られるようになります。
それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、Oracle Databaseの共有記憶域用のNFSの構成は完了です。
Direct NFSクライアントを無効にするには、次の手順を実行します。
Oracle Grid Infrastructureインストール所有者としてログインして、次のコマンドを使用してDirect NFSクライアントを無効にします(ここで、Grid_home
はOracle Grid Infrastructureホームへのパスです)。
$ cd Grid_home/rdbms/lib
$ make -f ins_rdbms.mk dnfs_off
クラスタの各ノード、または共有Gridホーム(Oracle Grid Infrastructureインストールに共有ホームを使用している場合)でこれらのコマンドを入力します。
oranfstab
ファイルを削除します。
注意: Oracle Databaseで使用されているNFSパスを削除する場合は、データベースを再起動してその変更を有効にする必要があります。 |
次の項で、Oracle Automatic Storage Management(Oracle ASM)の記憶域の構成について説明します。
この項では、Oracle Automatic Storage Management(Oracle ASM)で使用する記憶域の構成方法について説明します。
Oracle ASMを使用するための記憶域要件を指定するには、必要なデバイス数およびディスクの空き領域を確認する必要があります。この作業を実行するには、次の手順を実行します。
Oracle ASMを、Oracle Clusterwareファイル(OCRおよび投票ディスク)、Oracle Databaseファイルまたはリカバリ・ファイルに使用するか、Oracle ClusterwareおよびOracle Databaseのバイナリを除くすべてのファイルに使用するかを決定します。Oracle Databaseファイルには、データ・ファイル、制御ファイル、REDOログ・ファイル、サーバー・パラメータ・ファイルおよびパスワード・ファイルが含まれています。
注意: Oracle Clusterware、Oracle Databaseファイルおよびリカバリ・ファイルに対して、同じメカニズムの記憶域を使用する必要はありません。一方のファイル・タイプに共有ファイル・システムを、他方にOracle ASMを使用することもできます。自動バックアップを有効にすることを選択し、使用可能な共有ファイル・システムがない場合は、リカバリ・ファイルの記憶域にOracle ASMを使用する必要があります。 |
インストール中に自動バックアップを有効にした場合は、高速リカバリ領域にOracle Automatic Storage Managementディスク・グループを指定することで、リカバリ・ファイル用の記憶域メカニズムとしてOracle ASMを選択できます。非対話型のインストール・モードを選択した場合、デフォルトで1つのディスク・グループが作成され、そこにOCRと投票ディスク・ファイルが格納されます。後続のデータベース・インストールで使用するために他のディスク・グループが必要な場合は、対話型モードを選択するか、ASMCA(コマンドライン・ツール)を実行して、データベースのインストールを開始する前に、適切なディスク・グループを作成します。
Oracle ASMディスク・グループに使用するOracle ASMの冗長レベルを選択します。
Oracle ASMディスク・グループに選択した冗長レベルによって、Oracle ASMでディスク・グループ内のファイルをミラー化する方法および必要となるディスク数と空きディスク領域は次のようになります。
外部冗長
外部冗長ディスク・グループでは、最小で1台のディスク・デバイスが必要です。外部冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計です。
Oracle Clusterwareファイルの場合、外部冗長ディスク・グループは、コピーなしの1つの投票ディスクと1つのOCRを提供します。高可用性を確保するためにミラー化を行うには、外部テクノロジを使用する必要があります。
Oracle ASMは外部冗長ディスク・グループ内のデータをミラー化しないため、RAIDなどのストレージ・デバイスによる外部冗長を使用するか、または独自のデータ保護メカニズムを持つ類似デバイスを使用することをお薦めします。
標準冗長
標準冗長ディスク・グループでは、パフォーマンスおよび信頼性を向上させるために、Oracle ASMはデフォルトで2方向のミラー化を使用します。標準冗長ディスク・グループでは、最小で2台のディスク・デバイス(または2つの障害グループ)が必要です。標準冗長のディスク・グループで有効なディスク領域は、すべてのデバイスのディスク領域の合計の半分です。
Oracle Clusterwareファイルの場合、標準冗長ディスク・グループでは、投票ディスク・ファイルが3つ、OCRが1つ、コピーが2つ(1つはプライマリ、1つはセカンダリ・ミラー)になります。標準冗長のクラスタは、障害グループを1つ失っても存続できます。
ほとんどの使用環境では、標準冗長を選択することをお薦めします。
高冗長
高冗長ディスク・グループでは、Oracle ASMはデフォルトで3方向のミラー化を使用してパフォーマンスを向上させ、最高レベルの信頼性を提供します。高冗長ディスク・グループでは、最小で3台のディスク・デバイス(または3つの障害グループ)が必要です。高冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計の3分の1です。
Oracle Clusterwareファイルの場合、高冗長ディスク・グループでは、投票ディスク・ファイルが5つ、OCRが1つ、コピーが3つ(1つはプライマリ、2つはセカンダリ・ミラー)になります。高冗長のクラスタは、障害グループを2つ失っても存続できます。
高冗長ディスク・グループでは、高レベルのデータ保護が提供されますが、この冗長レベルの使用を決定する前に、追加するストレージ・デバイスのコストを考慮する必要があります。
Oracle Clusterwareファイルと、データベース・ファイルおよびリカバリ・ファイルに必要なディスク領域の合計容量を決定します。
表6-4と表6-5を使用して、Oracle Clusterwareファイルのインストールと、初期データベースのインストールに必要なディスクの最小台数およびディスクの最小領域を決定します。投票ディスクは別のディスク・グループにあるものとします。
表6-4 冗長タイプによるOracle Clusterwareに必要な記憶領域の合計
冗長レベル | ディスクの最小台数 | Oracle Cluster Registry(OCR)ファイル | 投票ディスク・ファイル | 合計 |
---|---|---|---|---|
外部 |
1 |
300MB |
300MB |
600MB |
標準 |
3 |
600MB |
900MB |
1.5GB脚注 1 |
高 |
5 |
840MB |
1.4GB |
4GB |
脚注 1 インストール中にディスク・グループを作成する場合は、2GB以上にする必要があります。
注意: 投票ディスク・ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投票ディスク・ファイル)があるディスク・グループの障害グループの最小数は、他のディスク・グループよりも多くなります。インストール中に、OCRおよび投票ディスク・ファイルのインストール先としてディスク・グループを作成する場合、使用可能な領域が2GB以上あるディスク・グループ上にこれらのファイルを作成するよう、インストーラによって求められます。 定数障害グループは特別なタイプの障害グループであり、これらの障害グループのディスクにユーザー・データは含まれません。定数障害グループは、ユーザー・データを格納するための冗長性要件を決定する際には考慮されません。ただし、ディスク・グループをマウントする場合は定数障害グループが考慮されます。 |
Oracle Clusterwareインストールでは、Oracle ASMのメタデータ用にディスク領域を追加する必要もあります。次の計算式を使用して、OCR、投票ディスク・ファイルおよびOracle ASMメタデータの追加のディスク領域の要件(単位: MB)を計算します。
合計 = [2 * ausize * disks] + [redundancy * (ausize * (nodes * (clients + 1) + 30) + (64 * nodes) + 533)]
説明は次のとおりです。
redundancy: ミラー数(外部 = 1、標準 = 2、高 = 3)
ausize: メタデータのAUサイズ(MB単位)
nodes: クラスタ内のノード数
clients - 各ノードのデータベース・インスタンス数
disks - ディスク・グループ内のディスク数
たとえば、標準冗長ディスク・グループに3台のディスクを使用する4ノードのOracle RACインストールでは、追加領域が必要になります。
[2 * 1 * 3] + [2 * (1 * (4 * (4 + 1) + 30) + (64 * 4) + 533)] = 1684MB
Oracle ASMでのOracle Clusterwareファイルの高可用性を確保するには、Oracle Clusterwareファイル用として、別々の3つの障害グループ(物理ディスクは3つ以上)に2GB以上のディスク容量が必要です。各ディスクには1GB以上の容量を確保して、容量に余裕を持ってOracle Clusterwareファイルを作成できるようにする必要があります。
必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
注意: インストール後に、GUIツールのASMCA、コマンドライン・ツールのasmcmd 、またはSQLコマンドを使用して、カスタム障害グループを定義します。
カスタム障害グループを定義する際、データベース・ファイルのみを格納する障害グループの場合、標準冗長ディスク・グループでは最小で2つの障害グループ、高冗長ディスク・グループでは3つの障害グループを指定する必要があります。 データベース・ファイルと、投票ディスクを含むClusterwareファイルを格納する障害グループの場合は、標準冗長ディスク・グループでは3つ以上の障害グループ、高冗長ディスク・グループでは5つ以上の障害グループを指定する必要があります。 投票ファイルを格納するディスク・グループの場合、標準冗長では最小で3つの障害グループ、高冗長では最小で5つの障害グループが必要です。それ以外の場合、最小数はそれぞれ2つと3つです。障害グループの最小数は、カスタム障害グループかどうかにかかわらず適用されます。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。Oracle ASMは、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、Oracle ASMには不要なほどレイヤーが複雑になるため、この使用はお薦めしません。さらに、Oracle ASMおよびOracle RACで論理ボリュームを使用する場合、Oracle RACでは、クラスタ論理ボリューム・マネージャが必要です。
論理ボリューム・マネージャを使用する場合は、ストライプ化またはミラー化なしの単一のLUNとして論理ボリューム・マネージャを使用し、追加の記憶域レイヤーの影響を最小限に抑えるようにすることをお薦めします。
動作保証されているNASストレージ・デバイスがある場合は、NFSマウント・ディレクトリにゼロ埋込みファイルを作成し、そのファイルをOracle ASMディスク・グループのディスク・デバイスとして使用できます。
そのファイルを作成するには、次の手順を実行します。
必要に応じて、NASデバイスのディスク・グループ・ファイル用にエクスポート・ディレクトリを作成します。
この手順の実行方法の詳細は、NASデバイスのドキュメントを参照してください。
ユーザーをroot
に切り替えます。
マウント・ポイント・ディレクトリをローカル・システムに作成します。
システムの再起動時にNFSファイル・システムが確実にマウントされるように、マウント・ファイル/etc/fstab
にファイル・システムのエントリを追加します。
関連項目: NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
|
オペレーティング・システムに対応したマウント・ファイルの編集方法の詳細は、man
ページを参照してください。推奨されるマウント・オプションの詳細は、第6.3.3項「Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認」を参照してください。
NFSファイル・システムをローカル・システムにマウントします。
作成するディスク・グループの名前を選択します。たとえば、sales1
とします。
NFSファイル・システムにファイルのディレクトリを作成します。ディレクトリ名には、ディスク・グループの名前を付けます。
次のようなコマンドを使用して、このディレクトリに必要な数のゼロ埋込みファイルを作成します。
# dd if=/dev/zero of=/mnt/nfsdg/disk1 bs=1024k count=1000
この例では、NFSファイル・システムに1GBのファイルを作成します。外部冗長、標準冗長または高冗長のディスク・グループを作成するには、それぞれ1つ、2つまたは3つのファイルを作成する必要があります。
作成したディレクトリとファイルの所有者、グループおよび権限を変更するには、次のようなコマンドを入力します。インストール所有者はgrid
、OSASMグループはasmadmin
です。
# chown -R grid:asmadmin /mnt/nfsdg # chmod -R 660 /mnt/nfsdg
Oracle RACまたはスタンドアロンのOracle Databaseをインストールする場合は、インストール時に、Oracle ASMのディスク検出文字列を編集して、作成したファイル名と一致する正規表現を指定します。次に例を示します。
/mnt/nfsdg/sales1/
既存のOracle ASMディスク・グループにデータベースまたはリカバリ・ファイルを格納するために、インストール方法に応じて次のいずれかを選択します。
Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合、新しいディスク・グループを作成するか、または既存のディスク・グループを使用するかを選択できます。
インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。
Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合、新しいデータベースには既存のディスク・グループを選択する必要があり、新しいディスク・グループは作成できません。ただし、要件に対して既存ディスク・グループの空き領域が不十分である場合は、既存ディスク・グループにディスク・デバイスを追加できます。
注意: 既存ディスク・グループを管理するOracle ASMインスタンスは、異なるOracleホーム・ディレクトリで実行されている可能性があります。 |
Oracle ASMディスク・グループがすでに存在するかどうか、またはディスク・グループのディスク領域が十分にあるかどうかを判断するには、Oracle Enterprise Manager Cloud ControlまたはOracle ASMコマンドライン・ツール(asmcmd
)を次のとおりに使用します。
Oracle ASMインスタンスに接続し、必要に応じてインスタンスを起動します。
$ $ORACLE_HOME/bin/asmcmd ASMCMD> startup
次のコマンドのいずれかを入力して、既存のディスク・グループ、それらの冗長レベルおよび各グループでのディスクの空き領域を表示します。
ASMCMD> lsdb
または
$ORACLE_HOME/bin/asmcmd -p lsdg
出力結果から、適切な冗長レベルが設定されているディスク・グループを特定し、そのディスク・グループにある空き領域を記録します。
必要に応じて、前述の記憶域要件を満たすために必要な追加のディスク・デバイスを設置または指定します。
注意: 既存のディスク・グループにデバイスを追加する場合は、サイズおよびパフォーマンス特性が、そのディスク・グループ内の既存デバイスと同じであるデバイスの使用をお薦めします。 |
HP-UX上のOracle ASMで使用するようにディスクを構成するには、次の手順を実行します。
ディスクが使用できることを確認するには、すべてのノードで次のコマンドを入力します。
# /usr/sbin/ioscan -fun -C disk
Class I H/W Path Driver S/W State H/W Type Description ========================================================================== disk 0 0/0/1/0.6.0 sdisk CLAIMED DEVICE HP DVD-ROM 6x/32x /dev/rdsk/c0t6d0 /dev/rdsk/c0t6d0 disk 1 0/0/1/1.2.0 sdisk CLAIMED DEVICE SEAGATE ST39103LC /dev/rdsk/c1t2d0 /dev/rdsk/c1t2d0
このコマンドによって、システムに接続されている各ディスクの情報が表示されます。キャラクタRAWデバイス名(/dev/rdsk/
)も含まれます。
注意: HP-UX 11i v.3では、アジャイル・ビューを使用して、キャラクタRAWデバイス(/dev/rdisk/disk xyz )を含む、マス・ストレージ・デバイスを確認することもできます。次に例を示します。
#>ioscan -funN -C disk Class I H/W Path Driver S/W State H/W Type Description =================================================================== disk 4 64000/0xfa00/0x1 esdisk CLAIMED DEVICE HP 73.4GST373454LC /dev/disk/disk4 /dev/rdisk/disk4 disk 907 64000/0xfa00/0x2f esdisk CLAIMED DEVICE COMPAQ MSA1000 VOLUME /dev/disk/disk907 /dev/rdisk/disk907 |
ioscan
コマンドで、使用するデバイスのデバイス名情報が表示されない場合は、次のコマンドを入力して、すべての新しいデバイス用に特別なデバイス・ファイルをインストールします。
# /usr/sbin/insf -e
ディスク・グループに追加するディスクごとに、任意のノードで次のコマンドを入力して、そのディスクがLVMボリューム・グループにまだ属していないことを確認します。
# /sbin/pvdisplay /dev/dsk/cxtydz
このコマンドによってボリューム・グループ情報が表示された場合、そのディスクはボリューム・グループにすでに属しています。選択するディスクは、LVMボリューム・グループに属していないものである必要があります。
注意: 別のボリューム管理ソフトウェアを使用する場合(VERITAS Volume Managerなど)、ディスクが使用されていないことを確認する方法について、該当するマニュアルを参照してください。 |
各ノードで次のコマンドを入力し、所有者がOracle Grid Infrastructure所有者(この例では、grid
)、アクセス権を持つグループがOSASMグループ(この例では、asmadmin
)になるように、ディスク・グループに追加する各ディスクのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。
# chown grid:asmadmin /dev/rdsk/cxtydz # chmod 660 /dev/rdsk/cxtydz
注意: ASMでマルチ・パス・ディスク・ドライバを使用している場合は、そのディスクに正しい論理デバイス名の権限のみを設定してください。ノード構成が異なる場合に、特定のデバイスのデバイス名が一部のノードで異なる場合があります。各ノードで正しいデバイス名を指定してください。 |
次の項で、Oracle ClusterwareおよびOracle DatabaseファイルのためのOracle ASMの記憶域の構成について説明します。
次の項では、既存ディスク・グループの指定方法およびそのディスク・グループが持つ空きディスク領域の確認方法について説明します。
必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
注意: カスタム障害グループを定義する場合、標準冗長では2つ以上の障害グループ、高冗長では3つ以上の障害グループを指定する必要があります。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。Oracle ASMは、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
Oracle ASMストレージ・クライアントには、ノードで実行中のOracle ASMがなく、他のクライアント・クラスタのOracle ASM記憶域サービスを使用します。
Oracle ASMの資格証明ファイルを作成するには、ストレージ・サーバー上のGrid_home
/bin
ディレクトリから、メンバー・ノードの1つで次のコマンドを実行します(credential_fileが、作成するOracle ASM資格証明ファイルの名前とパスです)。
Grid_home/bin/asmcmd mkcc client_cluster_name credential_file
次に例を示します。
Grid_home/bin/asmcmd mkcc clientcluster1 /home/grid/clientcluster1_credentials.xml
クライアント・クラスタのインストールを実行するクライアント・クラスタ・ノード上の安全なパスに、Oracle ASM資格証明ファイルをコピーします。Oracleインストール・ユーザーには、このファイルへのアクセス権限が必要です。他のユーザーにOracle ASM資格証明ファイルへのアクセス権限を付与しないことをお薦めします。インストールの実行中、ファイルへのパスを入力するように求めるメッセージが表示されます。
注意:
|
関連項目: ASMCMDクライアントのクラスタ管理コマンドの詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。 |
以前のリリースのOracle ASMが、サーバー上または既存のOracle Clusterwareインストール環境内にインストールされている場合は、パスGrid_home
/bin
にあるOracle Automatic Storage Management Configuration Assistant (ASMCA)を使用して、既存のOracle ASMインスタンスを12cリリース1 (12.1)にアップグレードし、その後で障害グループ、Oracle ASMボリュームを構成します。
注意: 既存のOracle ASMインスタンスのアップグレードは、そのノード上のすべてのデータベース・インスタンスおよびアプリケーションを停止してから実行する必要があります。 |
インストール時に、11.2より前のOracle ASMリリースからアップグレードする際に、Oracle ASMを使用することを選択し、ASMCAによって以前のOracle ASMバージョンが別のOracle ASMホームにインストールされていることが検出された場合は、Oracle ASM 12cリリース1 (12.1)のバイナリをインストールした後に、ASMCAを起動して既存のOracle ASMインスタンスをアップグレードできます。
Oracle ASM 11gリリース2 (11.2.0.1)以上からアップグレードする場合は、Oracle ASMはローリング・アップグレードの一部として常にOracle Grid Infrastructureとともにアップグレードされ、アップグレード中にrootスクリプトによってASMCAが起動されます。以前のリリースから現在のリリースまで、ASMCAがOracle ASMを個別にアップグレードすることはできません。
Oracle ClusterwareまたはOracle RACの既存のインストール環境で、すべてのノード上のOracle ASMインスタンスの旧バージョンが11gリリース1以上の場合は、Oracle ASMインスタンスのローリング・アップグレードを実行できます。Oracle RACのインストール環境で、旧バージョンのOracle ASMインスタンスが11gリリース1よりも前のリリースの場合は、ローリング・アップグレードを実行できません。その場合、すべてのノード上のOracle ASMは12cリリース1 (12.1)にアップグレードされます。