この章では、Oracle Real Application Clusters(Oracle RAC)搭載のOracle Clusterwareを使用する場合に実行する必要がある記憶域の管理作業について説明します。
この章の内容は次のとおりです。
この項では、Oracle Databaseファイルおよびデータ・ファイルの格納用にサポートされているオプションについて説明します。
|
参照: ネットワーク接続ストレージ・オプションでサポートされているベンダーのリストについては、OracleMetalinkの「Certify」ページを参照してください。
動作保証されている記憶域オプションの最新情報についても、OracleMetalinkの「Certify」ページを参照してください。
|
Oracle Databaseおよびリカバリ・ファイルの格納には、次の3つの方法があります。
自動ストレージ管理: 自動ストレージ管理(ASM)は、Oracle Databaseファイル用の統合された高性能のファイル・システムおよびディスク・マネージャです。データベース・ファイルのストライプ化およびミラー化を自動的に実行します。
サポートされている共有ファイル・システム: サポートされているファイル・システムには、次のものがあります。
General Parallel File System(GPFS): データ・ファイルにGPFSを使用する場合、Oracle Clusterware用のパーティションを作成する際に、データベース・ファイル用のパーティションを十分に大きく作成する必要があることに注意してください。Oracle ClusterwareファイルをGPFSに格納する場合、GPFSのそれぞれのボリューム・サイズを500MB以上にする必要があります。
OracleMetalinkの「Certify」ページに示されているNASネットワーク・ファイル・システム(NFS): データ・ファイルにNFSを使用する場合、Oracle Clusterware用のパーティションを作成する際に、データベース・ファイル用のパーティションを十分に大きく作成する必要があることに注意してください。
|
参照: サポートされているネットワーク接続ストレージ(NAS)デバイスおよびサポートされているクラスタ・ファイル・システムについては、OracleMetalinkの「Certify」ページを参照してください。 |
RAWデバイス: 各データベース・ファイルにパーティションが必要です。ASMを使用しない場合、RAWデバイスへの新しいインストールでは、カスタム・インストールを使用する必要があります。
すべてのインストールに対して、Oracle Databaseファイル、またはOracle RAC搭載のOracle Clusterwareで使用する記憶域オプションを選択する必要があります。また、インストール中に自動バックアップを有効にする場合は、リカバリ・ファイル(フラッシュ・リカバリ領域)で使用する記憶域オプションを選択する必要があります。各ファイル・タイプに同一の記憶域を使用する必要はありません。
フェイルオーバーにOracle Clusterwareを使用するシングル・インスタンスのOracle Databaseインストールでは、フェイルオーバー・プロセスにローカル・ファイル・システムのディスマウントおよび再マウントを含めない場合、ASM(共有RAWディスク)を使用する必要があります。
次の表に、Oracle DatabaseファイルおよびOracle Databaseのリカバリ・ファイルを格納するために使用できる記憶域オプションを示します。Oracle Databaseファイルには、データ・ファイル、制御ファイル、REDOログ・ファイル、サーバー・パラメータ・ファイルおよびパスワード・ファイルが含まれています。
|
注意: Oracle RAC環境でサポートされる記憶域オプションの最新情報は、次のOracle MetaLink Webサイトの「Certify」ページを参照してください。
|
表5-1 Oracle Databaseおよびリカバリ・ファイルでサポートされている記憶域オプション
| 記憶域オプション | サポート対象ファイル・タイプ | |
|---|---|---|
| データベース | リカバリ | |
|
自動ストレージ管理 |
可 |
可 |
|
General Parallel File System(GPFS)
|
可 |
可 |
|
ローカル記憶域 |
不可 |
不可 |
|
可 |
可 |
|
可 |
可 |
次のガイドラインに従って、各ファイル・タイプで使用する記憶域オプションを選択します。
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。
データベースおよびリカバリ・ファイルの記憶域オプションとして、自動ストレージ管理(ASM)を選択することをお薦めします。
Standard EditionのOracle RACインストールでは、データベース・ファイルまたはリカバリ・ファイルの記憶域オプションとして、ASMのみがサポートされています。
Oracle RACでASMを使用するために新しいASMインスタンスを構成する場合は、システムが次の条件を満たしている必要があります。
クラスタ内のすべてのノードに11gリリース1(11.1)のOracle Clusterwareがインストールされている。
クラスタ内のすべてのノードで既存のすべてのASMインスタンスが停止されている。
既存のOracle RACデータベースまたはASMインスタンスが起動されているOracle RACデータベースをアップグレードする場合は、システムが次の条件を満たすようにする必要があります。
Oracle Universal Installer(OUI)およびDatabase Configuration Assistant(DBCA)が、Oracle RACデータベースまたはASMインスタンスが起動されているOracle RACデータベースのあるノードで実行されている。
Oracle RACデータベースまたはASMインスタンスが起動されているOracle RACデータベースが、新しいクラスタ・インストールのメンバーにするノードと同じノードで実行されている。たとえば、既存のOracle RACデータベースを3ノードのクラスタで実行している場合は、3つすべてのノードにアップグレードをインストールする必要があります。アップグレード時に3つ目のインスタンスを削除して、クラスタ内の2つのノードのみをアップグレードすることはできません。
|
参照: 既存のデータベースをアップグレードするための準備方法については、『Oracle Databaseアップグレード・ガイド』を参照してください。 |
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ディスクの冗長性を確保する必要があります。
Oracle Clusterwareの記憶域をインストールおよび構成し、Oracle Databaseファイルのディスク記憶域オプションを確認した後、次の作業をここに示す順序どおりに実行する必要があります。
1: CVUを使用した使用可能な共有記憶域の確認
「CVUを使用した使用可能な共有記憶域の検証」を参照してください。
2: Oracle Databaseファイルおよびリカバリ・ファイル用の記憶域の構成
データベース・ファイルまたはリカバリ・ファイル記憶域に共有ファイル・システムを使用する場合: 「サポートされる共有ファイル・システムでのOracle Databaseファイル用の記憶域の構成」を参照してください。また、Oracle Clusterwareファイル用に作成するボリュームの他に、データベース・ファイルを格納するのに十分なサイズのボリュームをさらに作成する必要があります。
データベース・ファイルまたはリカバリ・ファイルの記憶域に自動ストレージ管理を使用する場合: 「自動ストレージ管理用のディスクの構成」を参照してください。
データベース・ファイル記憶域に共有デバイスを使用する場合: 「共有記憶域デバイスでのOracle Databaseファイル用の記憶域の構成」を参照してください。
|
注意: RAWデバイスでデータベース・ファイルを構成する場合は、まず、データベース・ソフトウェアをインストールした後、記憶域を構成する必要があることに注意してください。OUIを使用して、記憶域にRAWデバイスを使用するデータベースを構成することはできません。 |
サポートされている共有ファイル・システムについて、クラスタ内のすべてのノードで使用可能な共有ファイル・システムを検証するには、インストール所有者ユーザー(oracleまたはcrs)としてログインし、次の構文を使用します。
/mountpoint/runcluvfy.sh comp ssa -n node_list
クラスタ内の特定のノードと特定の共有記憶域タイプの間の共有アクセス性を検証する場合は、次のコマンド構文を使用します。
/mountpoint/runcluvfy.sh comp ssa -n node_list -s storageID_list
前述の構文例で、mountpoint変数はインストール・メディアのマウント・ポイント・パス、node_list変数は検証するノードのカンマ区切りリスト、storageID_list変数は検証対象のファイル・システム・タイプによって管理されるストレージ・デバイスのストレージ・デバイスIDのリストです。
たとえば、マウント・ポイントが/dev/dvdrom/で、ストレージ・デバイス/dev/rhdisk6および/dev/rhdisk7のnode1およびnode2からの共有アクセス性を検証する場合は、次のコマンドを入力します。
$ /mnt/dvdrom/runcluvfy.sh comp ssa -n node1,node2 -s /dev/rhdisk6,/dev/rhdisk7
コマンドにストレージ・デバイスIDを指定しなかった場合は、コマンドによって、リスト上のノードに接続されているすべての使用可能なストレージ・デバイスが検索されます。
データベース・ファイルは、データベースとリカバリ領域のファイルを集めたファイルで構成されています。データベース・ファイルのストレージには、次の5つがあります。
Oracle Clusterwareの構成時に、GPFSまたはNFSを選択していて、作成したボリュームがデータベース・ファイルとリカバリ・ファイルを格納するのに十分な大きさである場合は、インストール前に必要な手順は完了です。第6章「Oracle Clusterwareのインストール」に進みます。
データベース・ファイルをASMに配置する場合は、「自動ストレージ管理用のディスクの構成」に進みます。
データベース・ファイルをRAWデバイスに配置し、データベース・ファイルおよびリカバリ・ファイルの記憶域管理を手動で行う場合は、「共有記憶域デバイスでのOracle Databaseファイル用の記憶域の構成」に進みます。
|
注意: データベースは、ASMファイルと非ASMファイルを混在させて構成できます。ASMの詳細は、『Oracle Database管理者ガイド』を参照してください。 |
次の項で、Oracle Databaseファイル用の記憶域要件を確認します。
Oracle Databaseファイルにファイル・システムを使用する場合、そのファイル・システムは次の要件を満たす必要があります。
データベース・ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。
oracleユーザーには、指定したパスにファイルを作成するための書込み権限が必要です。
表5-2を使用して、共有ファイル・システムのパーティション・サイズを決定します。
表5-2 共有ファイル・システムのボリューム・サイズ要件
| 格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
|---|---|---|
|
Oracle Databaseファイル |
1 |
ボリュームごとに1.5GB以上 |
|
リカバリ・ファイル 注意: リカバリ・ファイルはデータベース・ファイルとは異なるボリュームに配置する必要があります。 |
1 |
ボリュームごとに2GB以上 |
表5-2で、必要なボリューム・サイズの合計を加算して求めます。たとえば、すべてのデータベース・ファイルを共有ファイル・システムに格納するには、2つ以上のボリュームで3.4GB以上の記憶域が使用可能である必要があります。
ネットワーク接続ストレージ(NAS)システムでは、データへのアクセスにNFSが使用されます。サポートされているNFSシステムにデータ・ファイルを格納できます。
インストールを開始する前に、NFSファイル・システムをマウントし、NFSマウントを介して使用できるようにする必要があります。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
この項では、Direct NFSについて説明します。内容は次のとおりです。
Oracle Database 11gリリース1(11.1)では、オペレーティング・システムのカーネルNFSクライアントを使用するかわりに、Oracle内部のDirect NFSクライアントを使用してNFS V3サーバーに直接アクセスするようにOracle Databaseを構成できます。
Oracle DatabaseでDirect NFSを使用できるようにするには、インストールを開始する前に、NFSファイル・システムをマウントし、通常のNFSマウントを介して使用できるようにする必要があります。Direct NFSではインストール後に設定が管理されるため、ファイル・システムのマウントで使用するマウント・オプションは関係ありません。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
一部のNFSファイル・サーバーでは、予約されたポートを使用してNFSクライアントを接続する必要があります。予約されたポートのチェックを使用してファイラを実行している場合は、Direct NFSが動作するように、予約されたポートのチェックを無効にする必要があります。予約されたポートのチェックを無効にする方法については、使用しているNFSファイル・サーバーのドキュメントを参照してください。
Direct NFSを使用する場合は、Oracleデータ・ファイル管理専用の新しいファイル(oranfstab)を使用して、Direct NFSにOracle Database固有のオプションを追加指定できます。たとえば、oranfstabを使用して、マウント・ポイントの追加のパスを指定できます。oranfstabファイルは、/etcまたは$ORACLE_HOME/dbsのいずれかに追加できます。oranfstabファイルでNFSまたはDirect NFSを使用する必要ありません。
Oracle RACインストールでは、Direct NFSを使用する場合、すべてのノードに/etc/oranfstabファイルをレプリケートし、各/etc/oranfstabファイルをすべてのノードで同期させる必要があります。
oranfstabファイルが$ORACLE_HOME/dbsに格納されている場合、このファイルのエントリは、単一データベースに固有のエントリとなります。この場合、Oracle RACデータベースを実行するすべてのノードで同じ$ORACLE_HOME/dbs/oranfstabファイルが使用されます。
oranfstabファイルが/etcに格納されている場合、このファイルはすべてのOracle Databaseでグローバルに使用できます。また、oranfstabファイルには、クラスタ内のノードで実行されているすべてのOracle Database(シングル・インスタンス・データベースを含む)で使用されるマウント・ポイントを含めることができます。ただし、Oracle RACシステムでは、oranfstabファイルが/etcに格納されている場合、/etc/fstabファイルの場合と同様に、すべてのノードに/etc/oranfstabファイルをレプリケートし、各/etc/oranfstabファイルをすべてのノードで同期させる必要があります。
マウント・ポイントがDirect NFSを使用して処理されているときでも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要があります。
Direct NFSでは、/etc/filesystemsの構成に基づいてNFS記憶域デバイスに対するマウント・ポイント設定が決定されます。
Direct NFSでは、次の順序でマウント・エントリが検索されます。
$ORACLE_HOME/dbs/oranfstab
/etc/oranfstab
/etc/filesystems
Direct NFSでは、最初に検出された一致エントリが使用されます。
|
注意: インスタンスごとにアクティブなDirect NFSを1つのみ実装することができます。インスタンスでDirect NFSを使用すると、別のDirect NFSは実装できなくなります。 |
Oracle Databaseでoranfstabを使用して構成されたDirect NFSマウント・ポイントを使用する場合は、まず、オペレーティング・システムのNFSマウント・ポイントを使用してoranfstab内のエントリをクロスチェックすることによってカーネルNFSマウントが検証されます。不一致が存在する場合、Direct NFSでは、情報メッセージが記録され、NFSサーバーは処理されません。Oracle DatabaseでDirect NFSを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。この場合、カーネルNFSマウント・ポイントは、「Oracle RAC用のNFSマウント・バッファ・サイズ・パラメータの確認」で定義されているとおりに設定する必要があります。また、Direct NFSを確立することができなかったことを示す情報メッセージが、Oracleアラート・ファイルおよびトレース・ファイルに記録されます。Direct NFSクライアントによって処理されるNFSサーバーに存在するOracleファイルにも、オペレーティング・システムのカーネルNFSクライアントを介してアクセスできます。この場合、Oracleファイルの整合性を維持するための通常の考慮事項が適用されます。
Direct NFSでは、NFSサーバー用のoranfstabファイルに定義されている最大4つのネットワーク・パスを使用できます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSによって、残りのパスに対してI/Oコマンドが再発行されます。
Direct NFSの管理には、次のビューを使用します。
v$dnfs_servers: Direct NFSを使用してアクセスしたサーバーの表が表示されます。
v$dnfs_files: Direct NFSを使用して現在開かれているファイルの表が表示されます。
v$dnfs_channels: Direct NFSによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の表が表示されます。
v$dnfs_stats: Direct NFSのパフォーマンス統計の表が表示されます。
Direct NFSを有効にするには、次の手順を実行します。
Direct NFSを使用してアクセスする各NFSサーバーの次の属性を使用してoranfstabファイルを作成します。
サーバー: NFSサーバー名。
パス: IPアドレスまたは名前のいずれかで指定された、NFSサーバーへの最大4つのネットワーク・パス。ifconfigコマンドを使用して表示できます。
エクスポート: NFSサーバーからエクスポートされたパス。
マウント: NFSサーバー用のローカル・マウント・ポイント。
|
注意: LinuxおよびUNIXプラットフォームの場合、oranfstabファイルの場所は、$ORACLE_HOME/dbsです。 |
次に、2つのNFSサーバー・エントリが含まれているoranfstabファイルの例を示します。
server: MyDataServer1 path: 132.34.35.12 path: 132.34.35.13 export: /vol/oradata1 mount: /mnt/oradata1 server: MyDataServer2 path: NfsPath1 path: NfsPath2 path: NfsPath3 path: NfsPath4 export: /vol/oradata2 mount: /mnt/oradata2 export: /vol/oradata3 mount: /mnt/oradata3 export: /vol/oradata4 mount: /mnt/oradata4 export: /vol/oradata5 mount: /mnt/oradata5
Oracle Databaseでは、Direct NFSを有効にするためにODMライブラリlibnfsodm10.soを使用します。標準のODMライブラリ$ORACLE_HOME/lib/libodm10.soをODM NFSライブラリlibnfsodm10.soに置き換えるには、次の手順を実行します。
Direct NFSクライアントを無効にするには、次のいずれかの方法を使用します。
oranfstabファイルを削除します。
「NFSのDirect NFSクライアントのOracle Disk Manager制御の有効化」の手順2bで実行したプロセスを取り消すことによって、スタブであるlibodm10.soファイルをリストアします。
oranfstabファイル内の特定のNFSサーバーまたはエクスポート・パスを削除します。
|
注意: Oracle Databaseで使用されているNFSパスを削除する場合は、データベースを再起動してその変更を有効にする必要があります。 |
NFSを使用している場合は、NFSバッファ・サイズ・パラメータrsizeおよびwsizeの値を32768に設定する必要があります。
Direct NFSを使用している場合は、書込みサイズの値(wtmax)を32768以上に設定する必要があります。
各ノードの/etc/fstabファイルを次のエントリで更新します。
nfs_server:/vol/DATA/oradata /u02/oradata nfs\ cio,rw,bg,hard,intr,rsize=32768,wsize=32768,tcp,noac,vers=3,timeo=600
|
注意: マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。 |
Oracle Databaseの共有ファイル・システム用のディレクトリ、および(RACデータベース用などの)リカバリ・ファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。
|
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
df -kコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、使用するファイル・システムを特定します。
| ファイル・タイプ | ファイル・システムの要件 |
|---|---|
| データベース・ファイル | 次のいずれかを選択します。
|
| リカバリ・ファイル | 2GB以上の空き領域を持つ単一のファイル・システムを選択します。 |
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザー(通常、oracle)がOracle Databaseをインストールするディスクにディレクトリを作成する権限を所有している場合は、DBCAによってOracle Databaseファイル・ディレクトリおよびリカバリ・ファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。
データベース・ファイル・ディレクトリ:
# mkdir /mount_point/oradata # chown oracle:oinstall /mount_point/oradata # chmod 775 /mount_point/oradata
リカバリ・ファイル・ディレクトリ(フラッシュ・リカバリ領域):
# mkdir /mount_point/flash_recovery_area # chown oracle:oinstall /mount_point/flash_recovery_area # chmod 775 /mount_point/flash_recovery_area
oracleユーザーをこれらのディレクトリの所有者にすると、これらのディレクトリが複数のOracleホーム(異なるOSDBAグループによるものも含む)から読み取られるようになります。
それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、Oracle Databaseの共有記憶域用のNFSの構成は完了です。
次の項では、RAWデバイスでのOracle Clusterwareファイルの構成方法について説明します。
Oracle Database 11gリリース1(11.1)ソフトウェアおよびOracle RACをインストールする前に、データベースに十分なサイズのパーティションを作成し、将来の拡張に備えて、同じサイズのパーティションもいくつか残しておきます。たとえば、共有ディスク・アレイに空き領域がある場合、データベース全体に対して標準的なパーティション・サイズの上限を選択します。ほとんどのデータベースには、50MB、100MB、500MBおよび1GBが適切なパーティション・サイズです。また、サイズが非常に小さいパーティション(1MBなど)および非常に大きいパーティション(5GB以上など)を、それぞれいくつか予備として作成します。各パーティションの使用計画を基に、1つのディスク上に異なるサイズのパーティションを組み合せたり、各ディスクを同じサイズのパーティションに分割して、これら予備のパーティションの配置を決定します。
|
注意: 各インスタンスには独自のREDOログ・ファイルがありますが、制御ファイルおよびデータ・ファイルはクラスタ内のすべてのインスタンスで共有されることに注意してください。また、リカバリを実行可能にするには、各インスタンスのオンラインREDOログ・ファイルが他のすべてのインスタンスから読取り可能である必要があります。必要最小限のパーティションに加えて、予備のパーティションを構成する必要があります。これによって、表領域のデータ・ファイルが一杯になった場合に、ファイルを再配置または追加できます。 |
|
注意: 新しくインストールする場合は、データベース・ファイルにRAWデバイスは使用しないことをお薦めします。 |
表5-3 に、データベース・ファイル用に構成する必要がある共有パーティションの数およびサイズを示します。
表5-3 AIXでデータベース・ファイル用に必要な共有デバイスまたは論理ボリュームの数
| 数 | パーティション・サイズ(MB) | 用途 |
|---|---|---|
|
1 |
680 |
|
|
1 |
300 +(インスタンスの数×250) |
|
|
インスタンスの数 |
500 |
|
|
1 |
250 |
|
|
1 |
160 |
|
|
1 |
120 |
|
|
2×インスタンスの数 |
120 |
|
|
2 |
110 |
|
|
1 |
5 |
|
|
1 |
5 |
|
注意: 自動UNDO管理を使用せずに手動でUNDO管理を行う場合は、UNDOTBSn共有記憶域デバイスのかわりに、共有記憶域デバイス・パーティションに500MB以上のサイズの単一のロールバック・セグメント(RBS)表領域を作成する必要があります。 |
この項では、自動ストレージ管理で使用するディスクの構成方法について説明します。ディスクを構成する前に、必要なディスクの数と空きディスク領域の大きさを判断する必要があります。次の項では、要件の確認およびディスクの構成方法について説明します。
|
注意: この項ではディスクについて説明していますが、サポートされているNASストレージ・デバイスのゼロ埋込みファイルを自動ストレージ管理ディスク・グループで使用することもできます。自動ストレージ管理ディスク・グループで使用するNASベースのファイルの作成および構成の詳細は、Oracle Databaseのインストレーション・ガイドを参照してください。ストレージにHitachi HDLM( 物理ディスクのパスには、次のようなパス名があります。 /dev/rdlmfdrv8 /dev/rdlmfdrv9 |
自動ストレージ管理を使用するための記憶域要件を指定するには、必要なデバイス数およびディスクの空き領域を確認する必要があります。この作業を実行するには、次の手順を実行します。
Oracle Databaseファイルまたはリカバリ・ファイル(あるいはその両方)に自動ストレージ管理を使用するかどうかを決定します。
|
注意: データベース・ファイルおよびリカバリ・ファイルに対して、同じメカニズムの記憶域を使用する必要はありません。1つのファイル・タイプにファイル・システムを、もう1つに自動ストレージ管理を使用することもできます。Oracle RACのインストールでは、自動バックアップを有効にすることを選択し、使用可能な共有ファイル・システムがない場合は、リカバリ・ファイルの記憶域に自動ストレージ管理を使用する必要があります。 |
インストール時に自動バックアップを有効にしている場合、フラッシュ・リカバリ領域に自動ストレージ管理ディスク・グループを指定して、リカバリ・ファイル用の記憶域メカニズムとして自動ストレージ管理を選択できます。インストール時に選択するデータベースの作成方法に応じて次のいずれかを選択します。
Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合(アドバンスト・データベース構成オプションを選択した場合など)、データベース・ファイルおよびリカバリ・ファイルに同じ自動ストレージ管理ディスク・グループを使用するか、または各ファイル・タイプに別のディスク・グループを使用するかを選択できます。
インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。
Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合は、データ・ファイルとリカバリ・ファイルに同じ自動ストレージ管理ディスク・グループを使用する必要があります。
自動ストレージ管理ディスク・グループに使用する自動ストレージ管理の冗長レベルを選択します。
自動ストレージ管理ディスク・グループに選択した冗長レベルによって、自動ストレージ管理でディスク・グループ内のファイルをミラー化する方法および必要となるディスク数とディスク領域は次のようになります。
外部冗長
外部冗長ディスク・グループでは、最小で1台のディスク・デバイスが必要です。外部冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計です。
自動ストレージ管理は外部冗長ディスク・グループ内のデータをミラー化しないため、このタイプのディスク・グループのディスク・デバイスとしては、RAIDのみを使用するか、または同様にデバイス独自のデータ保護メカニズムを持つデバイスを使用することをお薦めします。
標準冗長
標準冗長ディスク・グループでは、自動ストレージ管理はデフォルトで2方向のミラー化を使用し、パフォーマンスおよび信頼性を向上させます。標準冗長ディスク・グループでは、最小で2台のディスク・デバイス(または2つの障害グループ)が必要です。標準冗長のディスク・グループで有効なディスク領域は、すべてのデバイスのディスク領域の合計の半分です。
ほとんどの使用環境では、標準冗長ディスク・グループを使用することをお薦めします。
高冗長
高冗長ディスク・グループでは、自動ストレージ管理はデフォルトで3方向のミラー化を使用してパフォーマンスを向上させ、最高レベルの信頼性を提供します。高冗長ディスク・グループでは、最小で3台のディスク・デバイス(または3つの障害グループ)が必要です。 高冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計の3分の1です。
高冗長ディスク・グループでは、高レベルのデータ保護が提供されますが、この冗長レベルの使用を決定する前に、追加するストレージ・デバイスのコストを考慮する必要があります。
データ・ファイルおよびリカバリ・ファイルに必要なディスク領域の合計容量を決定します。
次の表を使用して、初期データベースのインストールに必要なディスクの最小台数およびディスクの最小領域を決定します。
| 冗長レベル | ディスクの最小台数 | データベース・ファイル | リカバリ・ファイル | 合計 |
|---|---|---|---|---|
| 外部 | 1 | 1.15GB | 2.3GB | 3.45GB |
| 標準 | 2 | 2.3GB | 4.6GB | 6.9GB |
| 高 | 3 | 3.45GB | 6.9GB | 10.35GB |
Oracle RACインストールでは、自動ストレージ管理のメタデータ用にディスク領域を追加する必要もあります。次の計算式を使用して、追加のディスク領域の要件を計算します(単位: MB)。
15 +(2×ディスクの台数)+(126×自動ストレージ管理インスタンスの数)
たとえば、高冗長ディスク・グループに3台のディスクを使用する4ノードのOracle RAC環境では、525MBの追加ディスク領域が必要になります。
15 +(2×3)+(126×4)= 525
システム上ですでに自動ストレージ管理インスタンスが実行されている場合は、これらの記憶域要件を満たすために既存のディスク・グループを使用できます。インストール時、必要に応じて、既存のディスク・グループにディスクを追加できます。
次の項では、既存ディスク・グループの指定方法およびそのディスク・グループが持つ空きディスク領域の確認方法について説明します。
必要な場合は、自動ストレージ管理ディスク・グループのデバイスに障害グループを指定します。
|
注意: Database Configuration Assistantを対話型モードで実行するインストール方法を使用する場合(カスタム・インストール・タイプやアドバンスト・データベース構成オプションを選択する場合など)にのみ、この手順を実行してください。他のインストール・タイプでは、障害グループを指定できません。 |
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。
|
注意: カスタム障害グループを定義する場合、標準冗長ディスク・グループでは最小で2つの障害グループ、高冗長ディスク・グループでは3つの障害グループを指定する必要があります。 |
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。
自動ストレージ管理ディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。自動ストレージ管理は、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
論理ボリュームは、自動ストレージ管理ディスク・グループのデバイスとして指定できますが、これを使用することはお薦めしません。論理ボリューム・マネージャは、物理ディスク・アーキテクチャを隠すことができ、これによって自動ストレージ管理による物理デバイス間のI/Oの最適化が行われなくなります。
この作業の実行については、「自動ストレージ管理およびRAWデバイスでのデータベース・ファイル記憶域の構成」を参照してください。
既存の自動ストレージ管理ディスク・グループにデータベース・ファイルまたはリカバリ・ファイルを格納する場合は、選択したインストール方法に応じて、次のいずれかを選択できます。
Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合(アドバンスト・データベース構成オプションを選択した場合など)、新しいディスク・グループを作成するか、または既存のディスク・グループを使用するかを選択できます。
インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。
Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合、新しいデータベースには既存のディスク・グループを選択する必要があり、新しいディスク・グループは作成できません。ただし、要件に対して既存ディスク・グループの空き領域が不十分である場合は、既存ディスク・グループにディスク・デバイスを追加できます。
|
注意: 既存ディスク・グループを管理する自動ストレージ管理インスタンスは、異なるOracleホーム・ディレクトリで実行されている可能性があります。 |
既存の自動ストレージ管理ディスク・グループが存在するかどうか、またはディスク・グループに十分なディスク領域があるかどうかを判断するために、Oracle Enterprise Manager Grid ControlまたはDatabase Controlを使用できます。また、次の手順も使用できます。
oratabファイルの内容を表示して、自動ストレージ管理インスタンスがシステムに組み込まれているかどうかを判断します。
$ more /etc/oratab
自動ストレージ管理インスタンスがシステムに組み込まれている場合、oratabファイルには次のような行が含まれます。
+ASM2:oracle_home_path:N
この例では、+ASM2は自動ストレージ管理インスタンスのシステム識別子(SID)、oracle_home_pathは自動ストレージ管理インスタンスが組み込まれているOracleホーム・ディレクトリです。表記規則により、自動ストレージ管理インスタンスのSIDは、プラス(+)記号で始まります。
環境変数ORACLE_SIDおよびORACLE_HOMEに、使用する自動ストレージ管理インスタンスに対して適切な値を指定します。
SYSDBA権限を持つSYSユーザーとして自動ストレージ管理インスタンスに接続し、必要に応じてインスタンスを起動します。
$ $ORACLE_HOME/bin/sqlplus "SYS/SYS_password as SYSDBA"
SQL> STARTUP
次のコマンドを入力して、既存のディスク・グループ、それらの冗長レベルおよび各グループでのディスクの空き領域を表示します。
SQL> SELECT NAME,TYPE,TOTAL_MB,FREE_MB FROM V$ASM_DISKGROUP;
出力結果から、適切な冗長レベルが設定されているディスク・グループを特定し、そのディスク・グループにある空き領域を記録します。
必要に応じて、前述の記憶域要件を満たすために必要な追加のディスク・デバイスを設置または指定します。
|
注意: 既存のディスク・グループにデバイスを追加する場合は、サイズおよびパフォーマンス特性が、そのディスク・グループ内の既存デバイスと同じであるデバイスの使用をお薦めします。 |
AIXでの自動ストレージ管理に使用するディスクを構成するには、次の手順を実行します。
AIX-Based Systemsでは、ASMを使用する前に、Program Technical Fix(PTF)U496549以上を適用する必要があります。
必要に応じて、自動ストレージ管理ディスク・グループに使用する共有ディスクを設置し、システムを再起動します。
すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。
# /usr/sbin/lsdev -Cc disk
hdisk0 Available 1A-09-00-8,0 16 Bit LVD SCSI Disk Drive hdisk1 Available 1A-09-00-9,0 16 Bit LVD SCSI Disk Drive hdisk2 Available 17-08-L SSA Logical Disk Drive
ディスクが使用可能として表示されないノードがある場合は、次のコマンドを入力して、新しいディスクを構成します。
# /usr/sbin/cfgmgr
任意のノードで、次のコマンドを入力し、使用する物理ディスクのデバイス名を確認します。
# /usr/sbin/lspv │ grep -i none
このコマンドによって、ボリューム・グループに構成されていないディスクごとに、次のような情報が表示されます。
hdisk2 0000078752249812 None
この例では、hdisk2はディスクのデバイス名、0000078752249812は物理ボリュームID(PVID)です。使用するディスクにPVIDがあっても、ボリューム・グループには属していない必要があります。
次のコマンドを入力し、使用する各ディスク・デバイスからPVIDを消去します。
# /usr/sbin/chdev -l hdiskn -a pv=clear
他のそれぞれのノードで、次のコマンドを入力し、そのノードの各PVIDに関連付けられているデバイス名を確認します。
# /usr/sbin/lspv │ grep -i 0000078752249812
このコマンドの出力結果は、次のようになります。
hdisk18 0000078752249812 None
各ノードがどのように構成されているかによって、デバイス名がノード間で異なる場合があります。この手順の後でPVIDを消去することに注意してください。
デバイス名がすべてのノードで同じである場合は、すべてのノードで次のコマンドを入力し、ASMデータ・ファイルに使用するディスク・デバイスのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。
# chown oracle:dba /dev/rhdiskn # chmod 660 /dev/rhdiskn
PVIDが構成されており、使用するディスクのPVIDに関連付けられているデバイス名がいずれかのノードで異なる場合は、使用されていない共通の名前を使用して、各ノードのディスクに対して新しいデバイス・ファイルを作成する必要があります。
新しいデバイス・ファイルでは、そのディスク・デバイスの目的を示すような代替デバイス・ファイル名を選択します。表5-4に、各ファイルの代替デバイス・ファイル名を示します。データベース・ファイルでは、代替デバイス・ファイル名のdbnameを、手順1でデータベース用に選択した名前と置き換えます。
|
注意: かわりに、いずれのノードでも使用されない数字を含む名前(hdisk99など)を選択することもできます。 |
すべてのノードで、ディスク・デバイスに新しい共通のデバイス・ファイルを作成するには、各ノードで次の手順を実行します。
次のコマンドを入力して、ディスク・デバイスを示すデバイスのメジャー番号とマイナー番号を確認します。nは、このノードのディスク・デバイスのディスク番号です。
# ls -alF /dev/*hdiskn
このコマンドの出力結果は、次のようになります。
brw------- 1 root system 24,8192 Dec 05 2001 /dev/hdiskn crw------- 1 root system 24,8192 Dec 05 2001 /dev/rhdiskn
この例では、デバイス・ファイル/dev/rhdisknはキャラクタRAWデバイスを示します。24はデバイスのメジャー番号、8192はデバイスのマイナー番号です。
次のコマンドを入力し、新しいデバイス・ファイル名、前述の手順で確認したデバイスのメジャーおよびマイナー番号を指定して、新しいデバイス・ファイルを作成します。
|
注意: 次の例では、キャラクタRAWデバイス・ファイルを作成するために、文字cを指定する必要があります。 |
# mknod /dev/ora_ocr_raw_256m c 24 8192
次のコマンドを入力して、ディスクのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。
OCRの場合:
# chown root:oinstall /dev/ora_ocr_raw_256m # chmod 640 /dev/ora_ocr_raw_256m
投票ディスクまたはデータベース・ファイルの場合:
# chown oracle:dba /dev/ora_vote_raw_256m # chmod 660 /dev/ora_vote_raw_256m
次のコマンドを入力して、新しいデバイス・ファイルが正常に作成されたことを検証します。
# ls -alF /dev │ grep "24,8192"
このコマンドの出力結果は、次のようになります。
brw------- 1 root system 24,8192 Dec 05 2001 /dev/hdiskn crw-r----- 1 root oinstall 24,8192 Dec 05 2001 /dev/ora_ocr_raw_256m crw------- 1 root system 24,8192 Dec 05 2001 /dev/rhdiskn
複数のノードからディスク・デバイスに同時アクセスできるようにするには、それぞれのディスク・タイプに応じて、次の表の該当するObject Data Manager(ODM)属性を、表に示す値に設定する必要があります。
| ディスク・タイプ | 属性 | 値 |
|---|---|---|
| SSAまたはFAStTディスク | reserve_lock | no |
| ESS、EMC、HDS、CLARiiONディスクまたはMPIO対応ディスク | reserve_policy | no_reserve |
使用する各ディスク・デバイスに対し、すべてのクラスタ・ノードで次のコマンドを入力して、属性に正しい値が指定されているかどうかを確認します。
# /usr/sbin/lsattr -E -l hdiskn
必須属性が正しい値に設定されていないノードがある場合は、そのノードで次のコマンドを入力します。
SSAおよびFAStTデバイスの場合:
# /usr/sbin/chdev -l hdiskn -a reserve_lock=no
ESS、EMC、HDS、CLARiiONデバイスおよびMPIO対応デバイスの場合:
# /usr/sbin/chdev -l hdiskn -a reserve_policy=no_reserve
任意のノードで次のコマンドを入力し、使用する各ディスク・デバイスからPVIDを消去します。
# /usr/sbin/chdev -l hdiskn -a pv=clear
各ノードで次のコマンドを入力し、ディスク・グループに追加する各ディスクのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。
# chown oracle:dba /dev/rhdiskn # chmod 660 /dev/rhdiskn
|
注意: ASMでマルチパス・ディスク・ドライバを使用している場合は、そのディスクの正しい論理デバイス名に対してのみ権限を設定してください。ディスクに関連付けられているデバイス名は、他のノードでは異なる場合があります。各ノードで正しいデバイス名を指定してください。 |
Oracle Clusterwareサービスをインストールする際に、OCRおよび投票ディスクのパスを求められたら、適切なデバイス・ファイルへのパスを入力する必要があります。次に例を示します。
/dev/rhdisk10
RAWパーティションでの自動ストレージ管理の作成および構成が完了したら、第6章「Oracle Clusterwareのインストール」に進みます。
次の項では、データベース・ファイル用のRAWパーティションの構成方法について説明します。
表5-4に、データベース・ファイル用に構成する必要があるRAWパーティションの数およびサイズを示します。
|
注意: 各ファイルでは、1台のディスク・デバイス全体を排他的に使用する必要があるため、可能な場合は、格納されるファイルのサイズ要件に近いサイズのディスク・デバイスを使用することをお薦めします。これらのファイル用に使用するディスクは、他の目的では使用できません。 |
表5-4 AIXでデータベース・ファイル用に必要なRAWパーティション
|
注意: 自動UNDO管理を使用せずに手動でUNDO管理を行う場合は、UNDOTBSn RAWデバイスのかわりに、500MB以上のサイズの単一のロールバック・セグメント(RBS)表領域RAWデバイスを作成します。 |
HACMPまたはGPFSを使用しないAIXクラスタにOracle RACをインストールする場合は、データベース・ファイル記憶域に共有RAWディスク・デバイスを使用できます。ただし、この場合は自動ストレージ管理を使用して、データベース・ファイルを格納することをお薦めします。この項では、データベース・ファイル用の共有RAWディスク・デバイスの構成方法について説明します。
Oracle Clusterwareファイル用またはデータベース・ファイル用(あるいはその両方)に共有RAWディスク・デバイスを構成するには、次の手順を実行します。
データベース・ファイル記憶域にRAWディスク・デバイスを使用する場合は、作成するデータベースの名前を指定します。
指定する名前の先頭は文字である必要があり、4文字以下にする必要があります。たとえば、orclなどです。
必要なディスク・デバイスを確認または構成します。
ディスク・デバイスは、すべてのクラスタ・ノードで共有されている必要があります。
任意のノードで、rootユーザーとして次のコマンドを入力し、使用するディスク・デバイスのデバイス名を確認します。
# /usr/sbin/lspv │ grep -i none
このコマンドによって、ボリューム・グループに構成されていないディスク・デバイスごとに、次のような情報が表示されます。
hdisk17 0009005fb9c23648 None
この例では、hdisk17はディスクのデバイス名、0009005fb9c23648は物理ボリュームID(PVID)です。
使用するディスク・デバイスにPVIDがない場合は、次のコマンドを入力してディスク・デバイスに割り当てます。
# /usr/sbin/chdev -l hdiskn -a pv=yes
他のそれぞれのノードで、次のコマンドを入力し、そのノードの各PVIDに関連付けられているデバイス名を確認します。
# /usr/sbin/lspv │ grep -i "0009005fb9c23648"
このコマンドの出力結果は、次のようになります。
hdisk18 0009005fb9c23648 None
この例では、ディスク・デバイスに関連付けられているデバイス名(hdisk18)は、前述のノードのものとは異なります。
デバイス名がすべてのノードで同じである場合は、すべてのノードで次のコマンドを入力し、データベース・ファイルに使用するディスク・デバイスのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。
# chown oracle:dba /dev/rhdiskn # chmod 660 /dev/rhdiskn
使用するディスクのPVIDに関連付けられているデバイス名がいずれかのノードで異なる場合は、使用されていない共通の名前を使用して、各ノードのディスクに対して新しいデバイス・ファイルを作成する必要があります。
新しいデバイス・ファイルでは、そのディスク・デバイスの目的を示すような代替デバイス・ファイル名を選択します。表5-3に、各ファイルの代替デバイス・ファイル名を示します。データベース・ファイルでは、代替デバイス・ファイル名のdbnameを、手順1でデータベース用に選択した名前と置き換えます。
|
注意: かわりに、いずれのノードでも使用されない数字を含む名前(hdisk99など)を選択することもできます。 |
すべてのノードで、ディスク・デバイスに新しい共通のデバイス・ファイルを作成するには、各ノードで次の手順を実行します。
次のコマンドを入力して、ディスク・デバイスを示すデバイスのメジャー番号とマイナー番号を確認します。nは、このノードのディスク・デバイスのディスク番号です。
# ls -alF /dev/*hdiskn
このコマンドの出力結果は、次のようになります。
brw------- 1 root system 24,8192 Dec 05 2001 /dev/hdiskn crw------- 1 root system 24,8192 Dec 05 2001 /dev/rhdiskn
この例では、デバイス・ファイル/dev/rhdisknはキャラクタRAWデバイスを示します。24はデバイスのメジャー番号、8192はデバイスのマイナー番号です。
次のコマンドを入力し、新しいデバイス・ファイル名(この例では、表5-3の代替デバイス・ファイル名を使用)、前述の手順で確認したデバイスのメジャーおよびマイナー番号を指定して、新しいデバイス・ファイルを作成します。
|
注意: 次の例に示すとおり、キャラクタRAWデバイス・ファイルを作成するために、文字cを指定する必要があります。 |
# mknod dbname_example_raw_160m c 24 8192
次のコマンドを入力して、新しいデバイス・ファイルが正常に作成されたことを検証します。
# ls -alF /dev │ grep "24,8192"
このコマンドの出力結果は、次のようになります。
brw------- 1 root system 24,8192 Dec 05 2001 /dev/hdiskn crw-r----- 1 root oinstall 24,8192 Dec 05 2001 /dev/ora_ocr_raw_256m crw------- 1 root system 24,8192 Dec 05 2001 /dev/rhdiskn
複数のノードからディスク・デバイスに同時アクセスできるようにするには、それぞれのディスク・タイプに応じて、次の表の該当するObject Data Manager(ODM)属性を、表に示す値に設定する必要があります。
| ディスク・タイプ | 属性 | 値 |
|---|---|---|
| SSA、FAStTディスクまたはMPIO非対応ディスク | reserve_lock | no |
| ESS、EMC、HDS、CLARiiONディスクまたはMPIO対応ディスク | reserve_policy | no_reserve |
使用する各ディスク・デバイスに対し、すべてのクラスタ・ノードで次のコマンドを入力して、属性に正しい値が指定されているかどうかを確認します。
# /usr/sbin/lsattr -E -l hdiskn
必須属性が正しい値に設定されていないノードがある場合は、そのノードで次のコマンドを入力します。
SSAおよびFAStTデバイス
# /usr/sbin/chdev -l hdiskn -a reserve_lock=no
ESS、EMC、HDS、CLARiiONデバイスおよびMPIO対応デバイス
# /usr/sbin/chdev -l hdiskn -a reserve_policy=no_reserve
任意のノードで次のコマンドを入力し、使用する各ディスク・デバイスからPVIDを消去します。
# /usr/sbin/chdev -l hdiskn -a pv=clear
データベース・ファイルにRAWディスク・デバイスを使用する場合は、次の手順を実行して、Database Configuration AssistantのRAWデバイス・マッピング・ファイルを作成します。
|
注意: データベース・ファイルにRAWデバイスを使用している場合にのみ、この手順を実行する必要があります。Database Configuration AssistantのRAWデバイス・マッピング・ファイルを使用すると、Database Configuration Assistantによって各データベース・ファイルの適切なRAWディスク・デバイスを特定できます。Database Configuration AssistantのRAWデバイス・マッピング・ファイルには、Oracle Clusterwareファイル用のRAWデバイスは指定しません。 |
環境変数ORACLE_BASEに、以前に選択または作成したOracleベース・ディレクトリを指定します。
Bourne、BashまたはKornシェル:
$ ORACLE_BASE=/u01/app/oracle ; export ORACLE_BASE
Cシェル:
% setenv ORACLE_BASE /u01/app/oracle
Oracleベース・ディレクトリにデータベース・ファイルのサブディレクトリを作成し、そのサブディレクトリに適切な所有者、グループおよび権限を設定します。
# mkdir -p $ORACLE_BASE/oradata/dbname
# chown -R oracle:oinstall $ORACLE_BASE/oradata
# chmod -R 775 $ORACLE_BASE/oradata
この例では、dbnameは、以前選択したデータベースの名前です。
ディレクトリを$ORACLE_BASE/oradata/dbnameディレクトリに変更します。
任意のテキスト・エディタを使用して、各データベース・ファイルに関連付けられるディスク・デバイス・ファイル名を示す、次のようなテキスト・ファイルを作成します。
このファイルには、dbname_raw.confのようなファイル名を使用することをお薦めします。
|
注意: 次に示すのは、2インスタンスのOracle RACクラスタに対するマッピング・ファイルの例です。一部のデバイスでは、代替ディスク・デバイス・ファイル名が使用されます。指定したデバイス・ファイル名は、すべてのノードで同じディスク・デバイスを示す必要があります。 |
system=/dev/rhdisk11 sysaux=/dev/rhdisk12 example=/dev/rhdisk13 users=/dev/rhdisk14 temp=/dev/rhdisk15 undotbs1=/dev/rhdisk16 undotbs2=/dev/rhdisk17 redo1_1=/dev/rhdisk18 redo1_2=/dev/rhdisk19 redo2_1=/dev/rhdisk20 redo2_2=/dev/rhdisk22 control1=/dev/rhdisk23 control2=/dev/rhdisk24 spfile=/dev/dbname_spfile_raw_5m pwdfile=/dev/dbname_pwdfile_raw_5m
この例では、dbnameは、データベースの名前です。
次のガイドラインに従って、ファイルを作成および編集します。
ファイルの各行は、次の形式である必要があります。
database_object_identifier=device_file_name
表5-4に示した代替デバイス・ファイル名には、このマッピング・ファイルに使用する必要があるデータベース・オブジェクト識別子が含まれます。たとえば、次の代替ディスク・デバイス名では、redo1_1がデータベース・オブジェクト識別子です。
/dev/rac_redo1_1_raw_120m
Oracle RACデータベースの場合、ファイルは、各インスタンスに対して1つの自動UNDO表領域データ・ファイル(undotbsn)と2つのREDOログ・ファイル(redon_1、redon_2)を指定する必要があります。
2つ以上の制御ファイル(control1、control2)を指定します。
自動UNDO管理のかわりに手動UNDO管理を使用するには、自動UNDO管理表領域のかわりに単一のRBS表領域データ・ファイル(rbs)を指定します。
ファイルを保存して、指定したファイル名を書き留めます。
この章の後半でoracleユーザーの環境を構成する際に、このファイルへのフル・パスが指定されるように環境変数DBCA_RAW_CONFIGを設定します。
Oracle Clusterwareをインストールする際に、OCRおよびOracle Clusterware投票ディスクのパスを求められたら、適切なデバイス・ファイルへのパスを入力する必要があります。次に例を示します。
/dev/rhdisk10
|
注意: データベース・ファイル記憶域用にRAW論理ボリュームを使用するには、すべてのクラスタ・ノードにHACMPをインストールおよび構成する必要があります。 |
この項では、データベース・ファイル記憶域用にRAW論理ボリュームを構成する方法について説明します。この項では、両方のファイル・タイプに必要な論理ボリュームを含む新しいボリューム・グループを作成する手順を説明します。
続行する前に、今回のリリースのOracle RACでボリューム・グループを使用する場合の重要な情報が含まれている次のガイドラインを確認してください。
データベース・ファイルには、コンカレント対応のボリューム・グループを使用する必要があります。
Oracle Clusterwareファイルには、560MB未満のディスク領域(外部冗長を使用)が必要です。ボリューム・グループのディスク領域を効率的に使用するには、Oracle Clusterwareファイルおよびデータベース・ファイルの両方で、論理ボリュームに同じボリューム・グループを使用することをお薦めします。
データベースをアップグレードする場合は、SYSAUX表領域用に新しい論理ボリュームも作成する必要があります。SYSAUX論理ボリュームの要件の詳細は、「データベース・ファイル記憶域用のRAW論理ボリュームの構成」を参照してください。
|
参照: コンカレント・リソース・グループからのボリューム・グループの削除については、HACMPのドキュメントを参照してください。 |
データベース・ファイルのみを含む(Oracle Clusterwareファイルは含まない)新しいボリューム・グループまたは既存のボリューム・グループをアクティブ化するには、HACMPのコンカレント・リソース・グループを使用する必要があります。
|
参照: 新規または既存のコンカレント・リソース・グループへのボリューム・グループの追加については、HACMPのドキュメントを参照してください。 |
データベース・ファイルに使用するすべてのボリューム・グループは、インストールを開始する前に、コンカレント・モードでアクティブ化する必要があります。
この項では、基本的なボリューム・グループとボリュームを作成する手順について説明します。ミラー化を使用するなど、より複雑なボリュームを構成する場合は、この項とともにHACMPのドキュメントも参照してください。
Oracleデータベース・ファイル用のボリューム・グループを作成するには、次の手順を実行します。
すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。
# /usr/sbin/lsdev -Cc disk
hdisk0 Available 1A-09-00-8,0 16 Bit LVD SCSI Disk Drive hdisk1 Available 1A-09-00-9,0 16 Bit LVD SCSI Disk Drive hdisk2 Available 17-08-L SSA Logical Disk Drive
ディスクが使用可能として表示されないノードがある場合は、次のコマンドを入力して、新しいディスクを構成します。
# /usr/sbin/cfgmgr
任意のノードで次のコマンドを入力し、デバイス名と、各ディスクの関連ボリューム・グループを確認します。
# /usr/sbin/lspv
このコマンドの出力結果は、次のようになります。
hdisk0 0000078752249812 rootvg hdisk1 none none hdisk4 00034b6fd4ac1d71 ccvg1
このコマンドは、各ディスクについて次の内容を示します。
ディスク・デバイス名
16文字の物理ボリュームID(PVID)(ディスクにある場合)またはnone
ディスクが属しているボリューム・グループまたはnone
使用するディスクにPVIDがあっても、既存のボリューム・グループには属していない必要があります。
ボリューム・グループとして使用するディスクにPVIDがない場合は、次のコマンドを入力してディスクに割り当てます。
# /usr/sbin/chdev -l hdiskn -a pv=yes
クラスタの各ノードで次のコマンドを入力して、使用されているデバイスのメジャー番号を確認します。
# ls -la /dev │ more
このコマンドの出力結果に、すべての構成済デバイスの情報が次のように表示されます。
crw-rw---- 1 root system 45, 0 Jul 19 11:56 vg1
この例では、45はvg1ボリューム・グループ・デバイスのメジャー番号です。
クラスタ内のすべてのノードで使用されていない適切なメジャー番号を特定します。
次のコマンドを入力するか、またはSMIT(smit mkvg)を使用して、ボリューム・グループを作成します。
# /usr/sbin/mkvg -y VGname -B -s PPsize -V majornum -n \ -C PhysicalVolumes
次の表に、この例で使用されるオプションと変数を示します。これらのオプションの詳細は、mkvgのマニュアル・ページを参照してください。
| コマンド・オプション | SMITフィールド | サンプル値および説明 |
|---|---|---|
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。指定する名前は、ここに示すような一般的な名前や、作成するデータベースの名前にすることができます。 |
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。ここに示すような一般的な名前を指定できます。また、データベース・ボリューム・グループの場合は、作成するデータベースの名前を指定できます。 |
-B |
Create a big VG format Volume Group | ビッグVGフォーマットのボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
-s PPsize
|
Physical partition SIZE in megabytes |
32データベースの物理パーティションのサイズを指定します。ここに示すサンプル値では、最大サイズ32GB(32MB×1016)のディスクを含めることができます。 |
-V Majornum
|
Volume Group MAJOR NUMBER |
46手順7で特定したボリューム・グループのデバイスのメジャー番号を指定します。 |
-n |
Activate volume group AUTOMATICALLY at system restart | ボリューム・グループがシステムの再起動時にアクティブ化されないようにする場合に、このオプションを選択します。
注意: SMITを使用している場合、このフィールドは「no」を選択します。 |
-C |
Create VG Concurrent Capable | コンカレント対応のボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
PhysicalVolumes
|
PHYSICAL VOLUME names |
hdisk3 hdisk4ボリューム・グループに追加するディスクのデバイス名を指定します。 |
次のコマンドを入力して、作成したボリューム・グループを有効にします。
# /usr/sbin/varyonvg VGname
新しいボリューム・グループに必要なRAW論理ボリュームを作成するには、次の手順を実行します。
作成するデータベースの名前を選択します。
指定する名前の先頭は文字である必要があり、4文字以下にする必要があります。たとえば、orclなどです。
表5-5に、データベース・ファイル用に作成する必要がある論理ボリュームの数およびサイズを示します。
表5-5 データベース・ファイルに必要なRAW論理ボリューム
データ・ファイルに必要な各論理ボリュームを作成する場合は、次のコマンドを使用して、0(ゼロ)オフセットを持つ論理ボリュームを作成することをお薦めします。
# /usr/sbin/mklv -y LVname -T O -w n -s n -r n VGname NumPPs
この例の意味は、次のとおりです。
LVnameは、作成する論理ボリュームの名前です。
-T Oオプションは、デバイス・サブタイプがzである必要があることを示します。これによって、OracleはRAW論理ボリュームにアクセスする際に0(ゼロ)オフセットを使用するようになります。
VGnameは、論理ボリュームを作成するボリューム・グループの名前です。
NumPPsは、使用する物理パーティションの数です。
NumPPsに使用する値を決定するには、論理ボリュームに必要なサイズを、物理パーティションのサイズで除算し、その値を整数に切り上げます。たとえば、物理パーティションのサイズが32MBの場合に、500MBの論理ボリュームを作成するには、NumPPsに16(500/32 = 15.625)を指定する必要があります。
0(ゼロ)オフセットを使用すると、データベースのパフォーマンスが向上し、Oracle Bug#2620053に記述された問題が修正されます。
|
注意: RAW論理ボリュームでは、この方法で作成されていないデータ・ファイルに表領域を作成すると、alert.logファイルにメッセージが記録されます。 |
必要に応じて、コマンドsmit mklvを使用し、RAW論理ボリュームを作成することもできます。
次の例は、物理パーティション・サイズが32MB(800/32 = 25)の場合に、testデータベースのSYSAUX表領域の論理ボリュームをoracle_vg1ボリューム・グループに作成するために使用するコマンドを示しています。
# /usr/sbin/mklv -y test_sysaux_raw_800m -T O -w n -s n -r n oracle_vg1 25
次のように、作成した論理ボリュームに関連付けられるキャラクタ・デバイス・ファイルの所有者、グループおよび権限を変更します。
|
注意: Oracle Cluster Registryに関連付けられるデバイス・ファイルは、rootが所有する必要があります。その他のすべてのデバイス・ファイルは、Oracleソフトウェア所有者ユーザー(oracle)が所有する必要があります。 |
# chown oracle:dba /dev/rdbname* # chmod 660 /dev/rdbname*
データベース・ファイルのボリューム・グループをクラスタ内のすべてのノードで使用可能にするには、次の手順に従って、各ノードにインポートする必要があります。
物理ボリューム名は他のノードでは異なる場合があるため、次のコマンドを入力して、ボリューム・グループが使用する物理ボリュームのPVIDを確認します。
# /usr/sbin/lspv
ボリューム・グループが使用する物理デバイスのPVIDを書き留めます。
ボリューム・グループを作成したノードで次のコマンドを入力し、使用するボリューム・グループを無効にします。
# /usr/sbin/varyoffvg VGname
各クラスタ・ノードで、次の手順を実行します。
次のコマンドを入力して、前述の手順で書き留めたPVIDに関連付けられている物理ボリューム名を確認します。
# /usr/sbin/lspv
クラスタの各ノードで、次のコマンドを入力し、ボリューム・グループの定義をインポートします。
# /usr/sbin/importvg -y VGname -V MajorNumber PhysicalVolume
この例では、MajorNumberはボリューム・グループのデバイスのメジャー番号、PhysicalVolumeはボリューム・グループにある物理ボリュームのうちの1つの名前です。
たとえば、hdisk3およびhdisk4物理ボリューム上のデバイスのメジャー番号45を持つoracle_vg1ボリューム・グループの定義をインポートする場合は、次のコマンドを入力します。
# /usr/sbin/importvg -y oracle_vg1 -V 45 hdisk3
次のように、作成した論理ボリュームに関連付けられるキャラクタ・デバイス・ファイルの所有者、グループおよび権限を変更します。
# chown oracle:dba /dev/rdbname* # chmod 660 /dev/rdbname*
次のコマンドを入力して、ノードの起動時に、オペレーティング・システムによってボリューム・グループがアクティブ化されないことを確認します。
# /usr/sbin/chvg -a n VGname
すべてのクラスタ・ノードで、ボリューム・グループをコンカレント・モードでアクティブ化するには、各ノードで次のコマンドを入力します。
# /usr/sbin/varyonvg -c VGname
|
注意: データベース・ファイルにRAWデバイスを使用している場合にのみ、この手順を実行する必要があります。Database Configuration AssistantのRAWデバイス・マッピング・ファイルには、Oracle Clusterwareファイル用のRAWデバイスは指定しません。 |
Database Configuration Assistantで各データベース・ファイルに適切なRAWデバイスを識別できるようにするには、次の手順に従って、RAWデバイス・マッピング・ファイルを作成する必要があります。
環境変数ORACLE_BASEに、以前に選択または作成したOracleベース・ディレクトリを指定します。
Bourne、BashまたはKornシェル:
$ ORACLE_BASE=/u01/app/oracle ; export ORACLE_BASE
Cシェル:
% setenv ORACLE_BASE /u01/app/oracle
Oracleベース・ディレクトリにデータベース・ファイルのサブディレクトリを作成し、そのサブディレクトリに適切な所有者、グループおよび権限を設定します。
# mkdir -p $ORACLE_BASE/oradata/dbname
# chown -R oracle:oinstall $ORACLE_BASE/oradata
# chmod -R 775 $ORACLE_BASE/oradata
この例では、dbnameは、以前選択したデータベースの名前です。
ディレクトリを$ORACLE_BASE/oradata/dbnameディレクトリに変更します。
次のコマンドを入力して、RAWデバイス・マッピング・ファイルの作成に使用可能なテキスト・ファイルを作成します。
# find /dev -user oracle -name 'r*' -print > dbname_raw.conf
テキスト・エディタでdbname_raw.confファイルを編集して、次のようなファイルを作成します。
|
注意: 次に示すのは、2インスタンスのOracle RACクラスタに対するマッピング・ファイルの例です。 |
system=/dev/rdbname_system_raw_500m sysaux=/dev/rdbname_sysaux_raw_800m example=/dev/rdbname_example_raw_160m users=/dev/rdbname_users_raw_120m temp=/dev/rdbname_temp_raw_250m undotbs1=/dev/rdbname_undotbs1_raw_500m undotbs2=/dev/rdbname_undotbs2_raw_500m redo1_1=/dev/rdbname_redo1_1_raw_120m redo1_2=/dev/rdbname_redo1_2_raw_120m redo2_1=/dev/rdbname_redo2_1_raw_120m redo2_2=/dev/rdbname_redo2_2_raw_120m control1=/dev/rdbname_control1_raw_110m control2=/dev/rdbname_control2_raw_110m spfile=/dev/rdbname_spfile_raw_5m pwdfile=/dev/rdbname_pwdfile_raw_5m
この例では、dbnameは、データベースの名前です。
次のガイドラインに従って、ファイルを作成および編集します。
ファイルの各行は、次の形式である必要があります。
database_object_identifier=logical_volume
このマニュアルに示す論理ボリューム名には、このマッピング・ファイルに使用する必要があるデータベース・オブジェクト識別子が含まれます。たとえば、次の論理ボリューム名では、redo1_1がデータベース・オブジェクト識別子です。
/dev/rrac_redo1_1_raw_120m
ファイルは、各インスタンスに対して1つの自動UNDO表領域データ・ファイル(undotbsn)と2つのREDOログ・ファイル(redon_1、redon_2)を指定する必要があります。
2つ以上の制御ファイル(control1、control2)を指定します。
自動UNDO管理のかわりに手動UNDO管理を使用するには、自動UNDO管理表領域のかわりに単一のRBS表領域データ・ファイル(rbs)を指定します。
ファイルを保存して、指定したファイル名を書き留めます。
この章の後半でoracleユーザーの環境を構成する際に、このファイルへのフル・パスが指定されるように環境変数DBCA_RAW_CONFIGを設定します。
Oracle Database 11g およびOracle RACリリース11gでは、Database Configuration Assistantを使用してRAWデバイスを構成することはできなくなりました。
oracleユーザーで次のコマンド構文を使用して、ハードウェア、オペレーティング・システムおよび記憶域の設定を確認するためのクラスタ検証ユーティリティ(CVU)のステージ検証を開始します。
/mountpoint/runcluvfy.sh stage –post hwos –n node_list [-verbose]
前述の構文例のnode_list変数は、クラスタ内のノードのカンマ区切りリストです。たとえば、node1およびnode2で構成され、マウント・ポイントが/mnt/dvdrom/の2ノードのクラスタのハードウェアおよびオペレーティング・システムを、検証結果のみを出力するオプションを指定して検証するには、次のコマンドを入力します。
$ /mnt/dvdrom/runcluvfy.sh stage –post hwos –n node1,node2
-verboseオプションは、クラスタ検証ユーティリティによるシステム検証の進捗状況および検証結果の詳細を表示する場合に選択します。