プライマリ・コンテンツに移動
Oracle® Grid Infrastructureインストレーション・ガイド
11gリリース2 (11.2) for Linux
B56271-14
  目次へ移動
目次
索引へ移動
索引

前
 
次
 

3 クラスタ用Oracle Grid InfrastructureとOracle RACの記憶域の構成

この章では、インストーラを起動してOracle ClusterwareとOracle Automatic Storage Management (Oracle ASM)をインストールする前、およびOracle Real Application Clusters(Oracle RAC)のインストールをクラスタへ追加する前に完了しておく必要がある、記憶域の構成作業について説明します。

この章の内容は次のとおりです。

3.1 Oracle Grid Infrastructureの記憶域オプションの確認

この項では、クラスタ用Oracle Grid Infrastructureの格納用にサポートされている記憶域オプションについて説明します。内容は次のとおりです。


関連項目:

動作保証されている記憶域オプションの最新情報については、My Oracle Supportの動作保証についてのサイトを参照してください。
https://support.oracle.com

3.1.1 Oracle ClusterwareおよびOracle RACの記憶域オプションの概要

Oracle Clusterwareファイルの格納には、次の2つの方法があります。

  • Oracle Automatic Storage Management(Oracle ASM): Oracle Clusterwareファイル(Oracle Cluster Registryおよび投票ディスク)をOracle ASMのディスク・グループにインストールできます。

    標準インストールとStandard EditionのOracle RACインストールにおいて、Oracle ASMは必須のデータベース記憶域オプションです。これは、Oracle ClusterwareとOracle Databaseファイル用の、統合された高性能のデータベース・ファイル・システムおよびディスク・マネージャです。データベース・ファイルのストライプ化およびミラー化を自動的に実行します。

  • サポートされている共有ファイル・システム: サポートされているファイル・システムには、次のものがあります。

    • ネットワーク・ファイル・システム(NFS): データ・ファイルにNFSを使用する場合、Oracle Grid Infrastructure用のパーティションを作成する際に、データベース・ファイル用のパーティションを十分に大きく作成する必要があることに注意してください。NFSマウントは、ソフトウェア・バイナリ、Oracle Clusterwareファイル、データベース・ファイルで、それぞれ異なります。


      注意:

      クラスタ用Oracle Grid Infrastructureバイナリをクラスタ・ファイル・システムに配置することはサポートされていません。

      OUIを使用して、Oracle ClusterwareやOracle Databaseのファイルをブロック・デバイスまたはRAWデバイスにインストールすることはできなくなりました。



      関連項目:

      サポートされているファイル・システムと、NFSまたはNASファイラについては、My Oracle Supportを参照してください。

3.1.2 Oracle ACFSおよびOracle ADVMのサポート

Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)によるOracle ASMテクノロジの拡張によって、単一インスタンスおよびクラスタ構成のいずれにおいても、すべてのアプリケーション・データがサポートされます。Oracle Automatic Storage Management動的ボリューム・マネージャ(Oracle ADVM)では、ボリューム管理サービスおよびクライアントへの標準ディスク・デバイス・ドライバ・インタフェースが提供されます。Oracle Automatic Storage Managementクラスタ・ファイル・システムは、Oracle Automatic Storage Management動的ボリューム・マネージャ・インタフェースを介してOracle ASM上に階層化されます。

Oracle ACFSおよびOracle ADVMは、Linux x86およびLinux x86-64用のOracle Linux 5およびRed Hat Enterprise Linux 5でサポートされます。表3-1に、Oracle ACFSおよびOracle ADVMがサポートされるリリース、プラットフォームおよびカーネルのバージョンを示します。

表3-1 Oracle ACFSおよびOracle ADVMがサポートされているプラットフォーム

リリース プラットフォーム/オペレーティング・システム

11.2.x

Linux x86: Oracle Linux 5およびRed Hat Enterprise Linux 5

2.6.18および2.6.18の以降の更新

11.2.0.1

Linux x86-64: Oracle Linux 5およびRed Hat Enterprise Linux 5

2.6.18および2.6.18の以降の更新

11.2.0.2

Linux x86-64: Oracle Linux 5、Red Hat Enterprise Linux 5、SP3以上のSUSE Linux Enterprise Server 10

2.6.18および2.6.18の以降の更新

11.2.0.3

Linux x86-64: Oracle Linux 5、Red Hat Enterprise Linux 5、SP3以上のSUSE Linux Enterprise Server 10、SUSE Linux Enterprise Server 11 SP1

2.6.18および2.6.18の以降の更新

Oracle Unbreakable Enterprise Kernel 2.6.32-100.34.1および2.6.32-100の以降の更新

11.2.0.3

Linux x86-64: Oracle Linux 6 (Oracle Unbreakable Linux Kernelを使用)

Oracle Unbreakable Enterprise Kernel 2.6.32-100.34.1および2.6.32-100の以降の更新

11.2.0.3.3 (Oracle Grid Infrastructure PSU)

Linux x86-64: Red Hat Enterprise Linux 6、Red Hatと互換性があるカーネルを使用したOracle Linux

6.0, 6.1, 6.2

11.2.0.3.4 (Oracle Grid Infrastructure PSU)

Linux x86-64: Red Hat Enterprise Linux 6、Red Hatと互換性があるカーネルを使用したOracle Linux

6.3以上

11.2.0.3.7 (Oracle Grid Infrastructure PSU)

Linux x86-64: Oracle Linux 6 (Oracle Unbreakable Enterprise Kernelを使用)、SUSE Linux Enterprise Server 11 SP2

Oracle Unbreakable Enterprise Kernel 2.6.39-100および2.6.39-100の以降の更新

11.2.0.4

Linux x86-64: SUSE Linux Enterprise Server 11 SP3




関連項目:

  • Oracle ACFSとOracle ADVMがサポートされているプラットフォームおよびリリースに関する最新情報については、次の場所でMy Oracle SupportのNote 1369107.1を参照してください。

    https://support.oracle.com/CSP/main/article?cmd=show&type=NOT&id=1369107.1

  • 最新のパッチ・セット更新(PSU)のリリースおよびサポートの詳細は、My Oracle SupportのPSUドキュメントを参照してください。



注意:

Security Enhanced Linux(SELinux)のデプロイメントは、Oracle ACFSファイル・システムではサポートされていません。

3.1.3 Oracle ACFSの一般情報

Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)は、汎用のファイル・システムです。このシステムにはOracle Databaseバイナリを配置できますが、Oracle ACFSにOracleデータ・ファイルやOracle Clusterwareファイルを配置することはできません。

Oracle ACFSの次の点に注意してください。

  • Oracle Restartは、rootベースのOracle Clusterwareリソースをサポートしません。このため、Oracle Restart構成でOracle ACFSを実行する場合は、次の制限が適用されます。

    • Oracle ACFSドライバは手動でロードおよびアンロードする必要があります。

    • Oracle ASMインスタンスの起動後、Oracle ACFSファイル・システムを手動でマウントおよびマウント解除する必要があります。

    • 他の登録済Oracle ACFSファイル・システムとともに、Oracle ACFSマウント・レジストリにOracle ACFSデータベース・ホーム・ファイル・システムを配置できます。

  • Oracle ClusterwareのバイナリおよびファイルをOracle ACFSに配置することはできません。

  • Oracle DatabaseファイルをOracle ACFSに配置することはできません。

  • Oracle Databaseのバイナリおよび管理ファイル(トレース・ファイルなど)をOracle ACFSに配置することができます。

  • Oracle ACFSは、他のファイルのための汎用ファイル・システムとなります。

3.1.4 Oracle Grid InfrastructureおよびOracle RACの記憶域についての一般的な考慮事項

すべてのインストールに対して、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle ASM)およびOracle Real Application Clusters(Oracle RAC)データベースに使用する記憶域オプションを選択する必要があります。また、インストール中に自動バックアップを有効にするには、リカバリ・ファイル(高速リカバリ領域)に使用する記憶域オプションを選択する必要があります。各ファイル・タイプに同一の記憶域を使用する必要はありません。

3.1.4.1 Oracle Clusterwareの記憶域についての一般的な考慮事項

Oracle Clusterware投票ディスクは、クラスタ・ノードのステータスの監視に使用されます。Oracle Cluster Registry(OCR)ファイルには、クラスタに関する構成情報が格納されます。投票ディスクとOCRファイルは、Oracle ASMディスク・グループ、クラスタ・ファイル・システム、共有ネットワーク・ファイル・システムのいずれかに配置できます。記憶域は共有される必要があります。構成されている投票ディスクの大半(過半数)が利用できないノードは再起動されます。

3.1.4.2 Oracle RACの記憶域についての一般的な考慮事項

次のガイドラインに従って、各ファイル・タイプで使用する記憶域オプションを選択します。

  • 選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。

  • 共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有mmapがサポートされているバージョン1.4.1以上にアップグレードする必要があります。

  • データベース・ファイルおよびリカバリ・ファイルの記憶域オプションとして、Oracle ASMを選択することをお薦めします。

  • Standard EditionのOracle RACインストールでは、データベース・ファイルまたはリカバリ・ファイルの記憶域オプションとして、Oracle ASMのみがサポートされています。

  • Oracle RACでOracle ASMを使用するために新しいOracle ASMインスタンスを構成する場合は、システムが次の条件を満たしている必要があります。

    • クラスタ用Oracle Grid Infrastructureのインストールの一部として、クラスタ内のすべてのノードにOracle ClusterwareおよびOracle ASM 11gリリース2(11.2)がインストールされている。

    • クラスタ内のすべてのノードで既存のすべてのOracle ASMインスタンスが停止されている。

  • RAWデバイスやブロック・デバイスは、構成済のパーティションを使用している既存のインストールをアップグレードする場合のみ、サポートされます。新規インストールでのRAWデバイスまたはブロック・デバイス・パーティションの使用は、Oracle Automatic Storage Managementコンフィギュレーション・アシスタント(ASMCA)やOracle Universal Installer(OUI)ではサポートされていません。ただし、手動で構成を行えば、ソフトウェアでサポートされます。


    関連項目:

    既存のデータベースをアップグレードするための準備方法については、『Oracle Databaseアップグレード・ガイド』を参照してください。

  • 外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ディスクの冗長性を確保する必要があります。

3.1.5 記憶域にOracle ASMディスク・グループを使用するためのガイドライン

Oracle Grid Infrastructureのインストール中、1つのディスク・グループを作成できます。Oracle Grid Infrastructureのインストール後は、ASMCA、SQL*PlusまたはASMCMDを使用して、追加のディスク・グループを作成できます。Oracle Database 11gリリース2(11.2)以上の場合、Oracle Database Configuration Assistant(DBCA)には、Oracle ASM用のディスク・グループを作成する機能がないことに注意してください。

Oracle Grid Infrastructureをインストールした後にOracle DatabaseまたはOracle RACをインストールする場合は、データベース・ファイル、OCRおよび投票ディスク・ファイル用に同じディスク・グループを使用するか、または異なるディスク・グループを使用できます。Oracle RACのインストール前またはデータベースの作成前に、複数のディスク・グループを作成する場合は、次のいずれかを実行できます。

  • Oracle Clusterwareファイルとしてデータ・ファイルを同じディスク・グループに配置する。

  • データ・ファイルおよびリカバリ・ファイル用に同じOracle ASMディスク・グループを使用する。

  • ファイル・タイプごとに異なるディスク・グループを使用する。

記憶域用に1つのディスク・グループのみを作成した場合、OCRと投票ディスク・ファイル、データベース・ファイルおよびリカバリ・ファイルは、1つのディスク・グループに配置されます。記憶域用に複数のディスク・グループを作成した場合は、異なるディスク・グループにファイルを配置できます。


注意:

既存のディスク・グループを管理するOracle ASMインスタンスは、Gridホームで実行されている必要があります。


関連項目:

ディスク・グループの作成については、『Oracle Automatic Storage Management管理者ガイド』を参照してください。


3.1.6 Oracle Grid InfrastructureおよびOracle RACでの論理ボリューム・マネージャの使用

Oracle Grid InfrastructureおよびOracle RACは、クラスタ対応のボリューム・マネージャのみをサポートします。これは、使用するボリューム・マネージャが特定のベンダー・クラスタ・ソリューションとともに提供されることを意味します。使用するボリュームがサポートされていることを確認するには、My Oracle Supportの「動作保証」タブで、関連するクラスタ・ソリューションがOracle RACで動作保証されているかどうかを確認します。My Oracle Supportは、次のURLで使用可能です。

https://support.oracle.com

3.1.7 サポートされている記憶域オプション

次の表に、Oracle ClusterwareおよびOracle RACファイルを格納するために使用できる記憶域オプションを示します。


注意:

OCFS2の詳細は、次のWebサイトを参照してください。
http://oss.oracle.com/projects/ocfs2/

共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有mmapsがサポートされているバージョン1.4.1以上にアップグレードする必要があります。

OCFS2の動作保証と、その他のクラスタ・ファイル・システムのサポートについては、My Oracle Supportの「動作保証」ページを参照してください。


表3-2 Oracle ClusterwareおよびOracle RACでサポートされている記憶域オプション

記憶域オプション OCRおよび投票ディスク・ファイル Oracle Clusterwareバイナリ Oracle RACバイナリ Oracle Databaseファイル Oracleリカバリ・ファイル

Oracle Automatic Storage Management (Oracle ASM)

注意: ループバック・デバイスは、Oracle ASMでは使用できません。

不可

不可

Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)

不可

不可

不可

不可

ローカル・ファイル・システム

不可

不可

不可

動作保証されているNASファイラ上のNFSファイル・システム

注意: Direct NFSクライアントはOracle Clusterwareファイルをサポートしていません。

共有ディスク・パーティション(ブロック・デバイスまたはRAWデバイス)

OUIおよびASMCAでは非サポートだが、ソフトウェアでサポート。インストール後に追加または削除できます。

不可

不可

OUIおよびASMCAでは非サポートだが、ソフトウェアでサポート。インストール後に追加または削除できます。

不可


次のガイドラインに従って、記憶域オプションを選択します。

  • 選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。

  • Oracle Clusterwareファイルは、Oracle ASM 11gリリース2(11.2)以上を使用して格納できます。これは、以前のリリースのOracle ASMでは行えません。

  • 外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスクの場所、および3つ以上のOracle Cluster Registryの場所を構成して、冗長性を確保する必要があります。

3.1.8 ディスクの記憶域オプションを選択した後の作業

ディスクの記憶域オプションを決定したら、共有記憶域の構成を行います。

3.2 共有ファイル・システムの記憶域の構成

インストーラでは、Oracle Cluster Registry(OCR)またはOracle Clusterware投票ディスク用のデフォルトの格納先は提供されません。ファイル・システムにこれらのファイルを作成する場合は、次の項を確認して、Oracle Clusterwareファイル用の記憶域要件を満たしておきます。


注意:

OCRは、クラスタの構成情報とステータスを含むファイルです。OCRは、インストーラによって、Oracle Clusterwareのインストール時に自動的に初期化されます。Database Configuration Assistantは、OCRを使用して、作成するクラスタ・データベースの構成情報を格納します。

3.2.1 共有ファイル・システムを使用するための要件

Oracle Clusterware、Oracle ASM、Oracle RACに共有ファイル・システムを使用するには、ファイル・システムで次の要件を満たす必要があります。

  • NFSファイル・システムを使用するには、サポートされているNASデバイス上にある必要があります。次のURLでMy Oracle Supportにログインし、「動作保証」タブをクリックして、サポートされているNASデバイスの最新情報を調べます。

    https://support.oracle.com

  • Oracle Cluster Registry(OCR)ファイルを共有ファイル・システムに配置するように選択する場合は、次のいずれかに該当していることが推奨されます。

    • ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。

    • 2つ以上のファイル・システムがマウントされていて、Oracle Clusterware 11g リリース2(11.2)の機能を使用してOCRに冗長性を提供している。

  • データベース・ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。

    • ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。

    • ファイル・システムは、2つ以上の独立したファイル・システムで構成されています。一方のファイル・システムではデータベース・ファイル、もう一方のファイル・システムではリカバリ・ファイルが使用されます。

  • インストールを実行するユーザー・アカウント(oracleまたはgrid)には、指定したパスにファイルを作成するための書込み権限が必要です。


注意:

SRVM構成リポジトリに使用したRAWデバイスまたは共有ファイルをOCRに使用しているOracle9iリリース2からのアップグレードは、サポートされていません。

Oracle Clusterwareをアップグレードする際、既存のクラスタでOCRに100MBのパーティション、投票ディスクに20MBのパーティションが使用されている場合は、これらのパーティションを300MB以上に拡張する必要があります。パーティションは使用せず、OCRおよび投票ディスクをQUORUMディスク・グループとしてマークされたディスク・グループに配置することをお薦めします。

すべてのストレージ製品は、サーバー・ベンダーとストレージ・ベンダーの両方でサポートされている必要があります。


表3-3表3-4を使用して、共有ファイル・システムの最小サイズを決定します。

表3-3 Oracle Clusterware共有ファイル・システムのボリューム・サイズ要件

格納されるファイル・タイプ ボリュームの数 ボリュームのサイズ

外部冗長で作成された投票ディスク

3

投票ディスク・ボリュームごとに300MB以上

外部冗長で作成されたOracle Cluster Registry(OCR)

1

OCRボリュームごとに300MB以上

Oracleソフトウェア提供の冗長で作成されたOracle Clusterwareファイル(OCRおよび投票ディスク)

1

OCRボリュームごとに300MB以上

投票ディスク・ボリュームごとに300MB以上


表3-4 Oracle RAC共有ファイル・システムのボリューム・サイズ要件

格納されるファイル・タイプ ボリュームの数 ボリュームのサイズ

Oracle Databaseファイル

1

ボリュームごとに1.5GB以上

リカバリ・ファイル

注意: リカバリ・ファイルはデータベース・ファイルとは異なるボリュームに配置する必要があります。

1

ボリュームごとに2GB以上


表3-3および表3-4で、必要なボリューム・サイズの合計を加算して求めます。たとえば、標準冗長を使用してすべてのOracle Clusterwareファイルを共有ファイル・システムに格納するには、3つ以上のボリューム(OCRと2つのOCRミラー用に3つの別々のボリューム位置と、ボリュームごとに1つの投票ディスク)で2GB以上の記憶域が使用可能である必要があります。投票ディスクおよびOCRファイルを別々の物理ディスクに確実に配置するには、500MB以上の物理ディスクが3つ以上必要です。Oracle RACを追加して、データベース・ファイルにボリューム1つ、リカバリ・ファイルにボリューム1つを使用する場合、2つのボリュームで3.5GB以上、全ボリュームの合計で5.5GB以上の利用可能な記憶域が必要です。


注意:

fdiskでデバイス・サイズ(+300Mなど)を指定し、共有パーティション上にパーティションを作成する際、実際に作成されるデバイスは、ディスクのシリンダ・ジオメトリに基づいて、要求したサイズより小さくなる場合があります。これは、現在のfdiskの制限事項です。Oracle ASMで使用するために割り当てるディスク全体をパーティション化することをお薦めします。

3.2.2 Oracle Clusterwareファイル用のクラスタ・ファイル・システムの使用の確認

新規インストールの場合は、Oracle Automatic Storage Management(Oracle ASM)を使用して、投票ディスクおよびOCRファイルを格納することをお薦めします。Linux x86(32-bit)およびx86-64(64-bit)プラットフォームでは、クラスタ・ファイル・システムOCFS2を利用できます。ただし、OCFS2は、Oracle Clusterwareファイル用に使用しないことをお薦めします。

3.2.3 データ・ファイル用のDirect NFSクライアントの使用の確認

カーネルで管理されるNFSのかわりにDirect NFSクライアントを使用することもできます。この項では、Direct NFSクライアントについて次の内容で説明します。

3.2.3.1 Direct NFSクライアントの記憶域について

Oracle Database 11g リリース2(11.2)では、オペレーティング・システムのカーネルNFSクライアントを使用するかわりに、Oracle内部のDirect NFSクライアントを使用してNFS V3サーバーに直接アクセスするようにOracle Databaseを構成できます。

Oracle DatabaseでDirect NFSクライアントを使用できるようにするには、インストールを開始する前に、NFSファイル・システムをマウントし、通常のNFSマウントを介して使用できるようにする必要があります。設定は、インストール後にDirect NFSクライアントで管理されます。その場合でも、カーネルのマウント・オプションをバックアップとして設定する必要はありますが、通常の動作では、Direct NFSクライアントでNFSマウントが管理されます。

NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。

一部のNFSファイル・サーバーでは、予約されたポートを使用してNFSクライアントを接続する必要があります。予約されたポートのチェックを使用してファイラを実行している場合は、Direct NFSクライアントが動作するように、予約されたポートのチェックを無効にする必要があります。予約されたポートのチェックを無効にする方法については、使用しているNFSファイル・サーバーのドキュメントを参照してください。

ポート範囲を制限するNFSサーバーに対して、insecureオプションを使用してroot以外のクライアントがNFSサーバーに接続できるようにできます。または、第3.2.12項「NFSのDirect NFSクライアントのOracle Disk Management制御の無効化」の説明に従って、Direct NFSクライアントを無効にできます。


注意:

Oracle RACでサポートされているNFSサーバーを使用してください。サポート情報については、次のURLを参照してください。

https://support.oracle.com


3.2.3.2 Direct NFSクライアントでのoranfstabファイルの使用

Direct NFSクライアントを使用する場合は、Oracleデータ・ファイル管理専用の新しいファイル(oranfstab)を使用して、Direct NFSクライアントにOracle Database固有のオプションを追加指定できます。たとえば、oranfstabを使用して、マウント・ポイントの追加のパスを指定できます。oranfstabファイルは、/etcまたは$ORACLE_HOME/dbsのいずれかに追加できます。

共有Oracleホームでは、oranfstabファイルが$ORACLE_HOME/dbsに格納されている場合、このファイルのエントリは、単一データベースに固有のエントリとなります。この場合、Oracle RACデータベースを実行するすべてのノードで同じ$ORACLE_HOME/dbs/oranfstabファイルが使用されます。共有されていないOracle RACインストールでは、oranfstabをすべてのノードにコピーする必要があります。

oranfstabファイルが/etcに格納されている場合、このファイルはすべてのOracle Databaseでグローバルに使用できます。また、oranfstabファイルには、クラスタ内のノードで実行されているすべてのOracle Database(スタンドアロン・データベースを含む)で使用されるマウント・ポイントを含めることができます。ただし、Oracle RACシステムでは、oranfstabファイルが/etcに格納されている場合、/etc/fstabファイルの場合と同様に、すべてのノードに/etc/oranfstabファイルをレプリケートし、各/etc/oranfstabファイルをすべてのノードで同期させる必要があります。


関連項目:

/etc/fstabの構成の詳細は、第3.2.5項「記憶域のNFSマウントおよびバッファ・サイズ・パラメータの構成」を参照してください。

ダイレクトNFSを使用してサービスが提供されている場合でも、マウント・ポイントは常にカーネルNFSシステムによってマウントされる必要があります。


注意:

Direct NFSクライアントは、NFSサーバーの書込みサイズ値(wtmax)が32768未満の場合は機能しません。

3.2.3.3 Direct NFSクライアントを使用したNFSストレージ・デバイスのマウント

Direct NFSクライアントでは、/etc/mtabの構成に基づいてNFSストレージ・デバイスに対するマウント・ポイントの設定を判断します(これは、/etc/fstabファイルを構成することによって変更できます)。

Direct NFSクライアントでは、次の順序でマウント・エントリが検索されます。

  1. $ORACLE_HOME/dbs/oranfstab

  2. /etc/oranfstab

  3. /etc/mtab

Direct NFSクライアントでは、最初に検出された一致エントリが使用されます。

Oracle Databaseのデフォルトの設定では、ダイレクトNFSクライアントは有効ではありません。Direct NFSクライアントを有効にするには、次の手順を実行します。

  1. $ORACLE_HOME/rdbms/libディレクトリに移動します。

  2. 次のコマンドを入力します。

    make -f ins_rdbms.mk dnfs_on
    

注意:

インスタンスごとにアクティブなDirect NFSクライアントを1つのみ実装することができます。インスタンスでDirect NFSクライアントを使用すると、別のDirect NFSクライアントは実装できなくなります。

Oracle Databaseでoranfstabを使用して構成されたDirect NFSクライアントのマウント・ポイントを使用する場合は、まず、オペレーティング・システムのNFSマウント・ポイントを使用してoranfstab内のエントリをクロスチェックすることによってカーネルNFSマウントが検証されます。不一致が存在する場合、Direct NFSでは、情報メッセージが記録されますが、動作しません。

Oracle DatabaseでDirect NFSクライアントを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネルNFSクライアントが使用されます。この場合、カーネルNFSマウント・オプションは、「Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認」で定義されているとおりに設定する必要があります。また、Direct NFSクライアントをNFSサーバーに接続することができなかったことを示す情報メッセージが、Oracleアラート・ファイルおよびトレース・ファイルに記録されます。

第3.1.7項「サポートされている記憶域オプション」に、Direct NFSでサポートされているファイル・タイプを示します。

Direct NFSクライアントによって処理されるNFSサーバーに存在するOracleファイルにも、オペレーティング・システムのカーネルNFSクライアントを介してアクセスできます。


関連項目:

Direct NFSクライアントまたはカーネルNFSで作成されたOracle Databaseデータ・ファイルの管理におけるガイドラインについては、『Oracle Database管理者ガイド』を参照してください。

3.2.3.4 oranfstabファイルを使用したネットワーク・パスの指定

Direct NFSクライアントでは、NFSサーバー用のoranfstabファイルに定義されている最大4つのネットワーク・パスを使用できます。Direct NFSクライアントによって、指定したすべてのパス間でロード・バランシングが実行されます。指定したパスで障害が発生した場合は、Direct NFSクライアントによって、残りのパスに対してI/Oコマンドが再発行されます。

クラスタ環境でDirect NFSクライアントを管理するには、次のSQL*Plusのビューを使用します。

  • gv$dnfs_servers: Direct NFSクライアントを使用してアクセスしたサーバーの表が表示されます。

  • gv$dnfs_files: Direct NFSクライアントを使用して現在開かれているファイルの表が表示されます。

  • gv$dnfs_channels: Direct NFSクライアントによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の表が表示されます。

  • gv$dnfs_stats: Direct NFSクライアントのパフォーマンス統計の表が表示されます。


注意:

シングル・インスタンスにはv$ビューを使用し、Oracle ClusterwareおよびOracle RAC記憶域にはgv$ビューを使用します。

3.2.4 データ・ファイル用のNFSの使用の確認

ネットワーク接続ストレージ(NAS)システムでは、データへのアクセスにNFSが使用されます。サポートされているNFSシステムにデータ・ファイルを格納できます。

インストールを開始する前に、NFSファイル・システムをマウントし、NFSマウントを介して使用できるようにする必要があります。NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。

OracleソフトウェアおよびデータベースがNASデバイスに格納されている場合、そのパフォーマンスは、OracleサーバーとNASデバイス間のネットワーク接続のパフォーマンスによって左右されることに注意してください。

そのため、サーバーとNASデバイスの接続には、ギガビット・イーサネット以上のプライベートな専用ネットワーク接続を使用することをお薦めします。

3.2.5 記憶域のNFSマウントおよびバッファ・サイズ・パラメータの構成

GridホームまたはOracle RACホームにNFSを使用している場合、記憶域にNFSマウントを設定する必要があり、こうすることで、記憶域にマウントしているクライアントのrootが、匿名ユーザーにマップされるかわりにrootと見なされ、クライアント・サーバーのrootが、NFSファイル・システム上にroot所有のファイルを作成できるようにします。

NFSでは、サーバー側でno_root_squashを有効にすることで、記憶域に書込みを行うクライアントにrootアクセス権を取得できます。たとえば、ドメインmycluster.example.comのノードnode1、node2、node3について、パス/vol/gridのOracle Clusterwareファイル記憶域を設定するには、次のような行を/etc/exportsファイルに追加します。

/vol/grid/ node1.mycluster.example.com(rw,no_root_squash)
node2.mycluster.example.com(rw,no_root_squash) node3.mycluster.example.com
(rw,no_root_squash) 

ドメインまたはDNSがセキュアで、許可されていないシステムはそのIPアドレスを取得できない場合には、特定のクラスタ・メンバー・ノードを指定するのではなく、ドメインごとにrootアクセス権を付与します。

次に例を示します。

/vol/grid/ *.mycluster.example.com(rw,no_root_squash)

この構文を使用すると、NFSサーバーの再構成を行うことなくノードの追加や削除を行えます。セキュアなDNSまたはドメインを使用して、そのドメインを利用するクラスタ・メンバー・ノードにrootアクセス権を付与することをお薦めします。

グリッド・ネーミング・サービス(GNS)を使用する場合、クラスタ内でGNSによる解決で割り当てられるサブドメインは、セキュアなドメインです。適切に署名されたGPnP(グリッドのプラグ・アンド・プレイ)のプロファイルがないサーバーは、クラスタに参加できません。そのため、許可されていないシステムは、GNSサブドメイン内の名前を取得または使用できません。


注意:

ドメイン単位でrootアクセス権を付与すると、システムへの不正アクセスに利用される場合があります。システム管理者は、no_root_squashの使用に付随するリスクについて、オペレーティング・システムのドキュメントを参照してください。

/etc/exportsを変更したら、次のコマンドを使用してファイル・システムのマウントをリロードします。

# /usr/sbin/exportfs -avr

3.2.6 Oracle Clusterware用のNFSマウントおよびバッファ・サイズ・パラメータの確認

クラスタ・メンバー・ノード上では、NFSバッファ・サイズ・パラメータrsizeおよびwsizeの値を32768に設定する必要があります。

バイナリのNFSクライアント側のマウント・オプションは次のとおりです。

rw,bg,hard,nointr,tcp,vers=3,timeo=600,rsize=32768,wsize=32768,actimeo=0

注意:

intrおよびnointrマウント・オプションは、Oracle Linuxでは推奨されておらず、Oracle Unbreakable Enterprise LinuxおよびOracle Linuxのカーネル2.6.32以上でも推奨されていません。

NFSマウント上にOracle Grid Infrastructureのバイナリがある場合は、suidオプションも使用する必要があります。

Oracle Clusterwareファイル(OCRおよび投票ディスク・ファイル)のNFSクライアント側のマウント・オプションは次のとおりです。

rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,noac,vers=3,timeo=600,actimeo=0

ご使用のプラットフォームのNFSマウント・オプションを含むエントリで各ノードの/etc/fstabファイルを更新します。たとえば、プラットフォームがx86-64であり、Oracle Clusterwareファイル用のマウント・ポイントを作成する場合には、/etc/fstabファイルを次のエントリで更新します。

nfs_server:/vol/grid  /u02/oracle/cwfiles nfs \
rw,bg,hard,nointr,tcp,vers=3,timeo=600,actimeo=0,rsize=32768,wsize=32768 0 0

Oracleソフトウェアのバイナリ、Oracle Clusterwareファイル(OCRおよび投票ディスク)、データ・ファイルでマウント・ポイント・オプションが異なることに注意してください。

バイナリ専用のマウント・ポイントを作成するには、バイナリ・マウント・ポイントに次のようなエントリを入力します。

nfs_server:/vol/bin /u02/oracle/grid nfs \
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0,suid

関連項目:

マウント・オプションの最新情報については、My Oracle Supportのbulletin 359515.1「Mount Options for Oracle Files When Used with NAS Devices」を参照してください。次のURLから入手可能です。

https://support.oracle.com



注意:

マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。

3.2.7 Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認

NFSマウントを使用する場合、データベース・ファイルの格納に使用するNFSボリュームは、特別なマウント・オプションを指定し、Oracle RACインスタンスのある各ノード上にマウントする必要があります。NFSファイル・システムをマウントするときは、NASベンダーがデバイスの動作保証に使用したのと同じマウント・ポイント・オプションを使用することをお薦めします。推奨されるマウント・ポイント・オプションについては、デバイスのドキュメントを参照するか、ベンダーにご相談ください。

各ノードの/etc/fstabファイルを次のエントリで更新します。

nfs_server:/vol/DATA/oradata  /u02/oradata     nfs\   
rw,bg,hard,nointr,tcp,vers=3,timeo=600,actimeo=0,rsize=32768,wsize=32768 0 0

必須のマウント・オプションは、NFSボリュームのマウント時に使用する必要のある最小限のマウント・オプション・セットを構成します。これらのマウント・オプションは、データの整合性を保護し、データベースの破損を防ぐために不可欠です。これらのマウント・オプションを使用しなかった場合は、ファイル・アクセス・エラーが発生する可能性があります。ご使用のプラットフォームでサポートされている個々のオプションの詳細は、オペレーティング・システムまたはNASデバイスのドキュメントを参照してください。


関連項目:

NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
https://support.oracle.com

3.2.8 NFSのDirect NFSクライアントのOracle Disk Manager制御の有効化

Direct NFSクライアントを有効にするには、次の手順を実行します。

  1. Direct NFSクライアントを使用してアクセスする各NFSサーバーの次の属性を使用してoranfstabファイルを作成します。

    • サーバー: NFSサーバー名。

    • ローカル: IPアドレスまたは名前のいずれかで指定された、データベース・ホスト上の最大4つのパス。データベース・ホスト上でifconfigコマンドを使用して表示できます。

    • パス: IPアドレスまたは名前のいずれかで指定された、NFSサーバーへの最大4つのネットワーク・パス。NFSサーバー上でifconfigコマンドを使用して表示できます。

    • エクスポート: NFSサーバーからエクスポートされたパス。

    • マウント: エクスポートされたボリュームに対応する、ローカル・マウント・ポイント。

    • マウント・タイムアウト: Direct NFSクライアントがマウント成功を待機し、タイムアウトするまでの時間(秒)を指定します。このパラメータはオプションです。デフォルトのタイムアウトは10分(600)です。

    • ルーティング不可: 送信メッセージをオペレーティング・システムでルーティングせず、そのかわりに、バインドされたIPアドレスを使用して送信するよう指定します。このPOSIXオプションは、同一サブネット上に複数のパスを持つLinuxシステムでは動作しない場合があることに注意してください。

    • management: Direct NFSクライアントを有効にして、SNMP問合せの管理インタフェースを使用します。SNMPがNFSサーバー上の別の管理インタフェースで実行されている場合は、このパラメータを使用できます。デフォルト値は、serverパラメータ値です。

    • community: SNMP問合せで使用するコミュニティ文字列を指定します。デフォルト値はpublicです。

    この後の例では、oranfstabのNFSサーバー・エントリを3種類示しています。1つのoranfstabに、複数のNFSサーバー・エントリを含めることができます。

    例3-1 ローカルおよびパスのNFSサーバー・エントリを使用

    次の例では、localとpathの両方を使用しています。それぞれが異なるサブネットにあるため、dontrouteを指定する必要がありません。

    server: MyDataServer1
    local: 192.0.2.0
    path: 192.0.2.1
    local: 192.0.100.0
    path: 192.0.100.1
    export: /vol/oradata1 mount: /mnt/oradata1
    community: private
    

    例3-2 同一サブネット内のローカルおよびパスを使用(dontrouteを指定)

    次の例では、同一サブネット内のlocalおよびpathを示しています。ここではdontrouteが指定されています。

    server: MyDataServer2
    local: 192.0.2.0
    path: 192.0.2.128
    local: 192.0.2.1
    path: 192.0.2.129
    dontroute
    export: /vol/oradata2 mount: /mnt/oradata2
    management: 192.0.10.128
    

    例3-3 IPアドレスのかわりに名前を使用(複数のエクスポート)

    server: MyDataServer3
    local: LocalPath1
    path: NfsPath1
    local: LocalPath2
    path: NfsPath2
    local: LocalPath3
    path: NfsPath3
    local: LocalPath4
    path: NfsPath4
    dontroute
    export: /vol/oradata3 mount: /mnt/oradata3
    export: /vol/oradata4 mount: /mnt/oradata4
    export: /vol/oradata5 mount: /mnt/oradata5
    export: /vol/oradata6 mount: /mnt/oradata6
    
  2. デフォルトでは、Direct NFSクライアントは無効な状態でインストールされます。Direct NFSクライアントを有効にするには、各ノードで次の手順を完了します。共有Gridホームをクラスタに使用する場合は、共有Gridホームで次の手順を完了します。

    1. Oracle Grid Infrastructureインストール所有者としてログインします。

    2. Grid_home/rdbms/libディレクトリに移動します。

    3. 次のコマンドを入力します。

      $ make -f ins_rdbms.mk dnfs_on
      

3.2.9 Direct NFSクライアントにおけるハイブリッド列圧縮の有効化

Direct NFSクライアントでハイブリッド列圧縮(HCC)を有効にする手順:

  1. ZFSストレージ・サーバーでSNMPが有効であることを確認します。次に例を示します。

    $ snmpget -v1 -c public server_name .1.3.6.1.4.1.42.2.225.1.4.2.0
    SNMPv2-SMI::enterprises.42.2.225.1.4.2.0 = STRING: "Sun Storage 7410"
    
  2. NFSサーバー以外のインタフェースでSNMPが有効な場合は、managementパラメータを使用してoranfstabを構成します。

  3. public以外のコミュニティ文字列を使用してSNMPが構成されている場合は、communityパラメータを使用してoranfstabファイルを構成します。

  4. snmpgetが使用可能かどうかを確認して、libnetsnmp.soがインストールされていることを確認します。

3.2.10 共有ファイル・システムでのOracle Clusterwareファイル用のディレクトリの作成

次の手順に従って、Oracle Clusterwareファイル用のディレクトリを作成します。また、Oracle Databaseおよびリカバリ・ファイル用に共有ファイル・システムを構成することもできます。


注意:

NFSおよびOCFS2記憶域のいずれも、Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイルを格納する場合にのみ、この手順を実行する必要があります。

Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイル用のディレクトリを作成するには、次の手順を実行します。

  1. 必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。


    注意:

    ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。

  2. dfコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。

  3. 表示された情報から、使用するファイル・システムを特定します。600MB以上の空きディスク領域(外部冗長を使用、OCRと投票ディスクを1つずつ)があるファイル・システムを選択します。

    複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。

  4. 選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。

  5. インストールを実行しているユーザー(通常、gridoracle)が、Oracle Clusterwareファイルをインストールする記憶域の場所にディレクトリを作成する権限を所有している場合は、OUIによってOracle Clusterwareファイル・ディレクトリが作成されます。

    インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、そのディレクトリに適切な所有者、グループおよび権限が設定されます。たとえば、ユーザーがoracle、Oracle Clusterwareファイルの記憶域がclusterの場合は、次のようになります。

    # mkdir /mount_point/cluster
    # chown oracle:oinstall /mount_point/cluster
    # chmod 775 /mount_point/cluster
    

    注意:

    インストール後、OCRファイルのインストール・パスにあるディレクトリはrootが所有し、root以外のアカウントでは書込みできないようにする必要があります。

マウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定したら、Oracle Grid Infrastructure用のOCFS2またはNFSの構成は完了です。

3.2.11 共有ファイル・システムでのOracle Databaseファイル用のディレクトリの作成

Oracle Databaseの共有ファイル・システム用のディレクトリ、および(Oracle RACデータベース用などの)リカバリ・ファイル用のディレクトリを作成するには、次の手順を実行します。

  1. 必要に応じて、各ノードで共有ファイル・システムを構成し、マウントします。


    注意:

    ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。

  2. df -hコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。

  3. 表示された情報から、ファイル・システムを特定します。

    ファイル・タイプ ファイル・システムの要件
    データベース・ファイル 次のいずれかを選択します。
    • 1.5GB以上の空き領域を持つ単一のファイル・システム。

    • 合計1.5GB以上の空き領域を持つ複数のファイル・システム。

    リカバリ・ファイル 2GB以上の空き領域を持つ単一のファイル・システムを選択します。

    複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。

  4. 選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。

  5. インストールを実行しているユーザー(通常、oracle)がOracle Databaseをインストールするディスクにディレクトリを作成する権限を所有している場合は、DBCAによってOracle Databaseファイル・ディレクトリおよびリカバリ・ファイル・ディレクトリが作成されます。

    インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。

    • データベース・ファイル・ディレクトリ:

      # mkdir /mount_point/oradata
      # chown oracle:oinstall /mount_point/oradata
      # chmod 775 /mount_point/oradata
      
    • リカバリ・ファイル・ディレクトリ(高速リカバリ領域):

      # mkdir /mount_point/recovery_area
      # chown oracle:oinstall /mount_point/recovery_area
      # chmod 775 /mount_point/recovery_area
      

oinstallグループのメンバーをこれらのディレクトリの所有者にすると、これらのディレクトリが複数のOracleホーム(異なるOSDBAグループによるものも含む)から読み取られるようになります。

それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、Oracle Databaseの共有記憶域用のOCFS2またはNFSの構成は完了です。

3.2.12 NFSのDirect NFSクライアントのOracle Disk Management制御の無効化

Direct NFSクライアントを無効にするには、次の手順を実行します。

  1. Oracle Grid Infrastructureインストール所有者としてログインして、次のコマンドを使用してDirect NFSクライアントを無効にします。Grid_homeはOracle Grid Infrastructureホームへのパスです。

    $ cd Grid_home/rdbms/lib
    $ make -f ins_rdbms.mk dnfs_off
    

    クラスタの各ノード、または共有Gridホーム(Oracle Grid Infrastructureインストールに共有ホームを使用している場合)でこれらのコマンドを入力します。

  2. oranfstabファイルを削除します。


注意:

Oracle Databaseで使用されているNFSパスを削除する場合は、データベースを再起動してその変更を有効にする必要があります。

3.3 Oracle Automatic Storage Managementの記憶域の構成

次の項で、Oracle Automatic Storage Managementの記憶域の構成について説明します。

3.3.1 Oracle Automatic Storage Management用の記憶域の構成

この項では、Oracle Automatic Storage Managementで使用する記憶域の構成方法について説明します。

3.3.1.1 Oracle Automatic Storage Managementの記憶域要件の指定

Oracle ASMを使用するための記憶域要件を指定するには、必要なデバイス数およびディスクの空き領域を確認する必要があります。この作業を実行するには、次の手順を実行します。

  1. Oracle ASMを、Oracle Clusterwareファイル(OCRおよび投票ディスク)、Oracle Databaseファイルまたはリカバリ・ファイルに使用するか、Oracle ClusterwareおよびOracle Databaseのバイナリを除くすべてのファイルに使用するかを決定します。Oracle Databaseファイルには、データ・ファイル、制御ファイル、REDOログ・ファイル、サーバー・パラメータ・ファイルおよびパスワード・ファイルが含まれています。


    注意:

    Oracle Clusterware、Oracle Databaseファイルおよびリカバリ・ファイルに対して、同じメカニズムの記憶域を使用する必要はありません。一方のファイル・タイプに共有ファイル・システムを、他方にOracle ASMを使用することもできます。

    自動バックアップを有効にすることを選択し、使用可能な共有ファイル・システムがない場合は、リカバリ・ファイルの記憶域にOracle ASMを使用する必要があります。


    インストール中に自動バックアップを有効にした場合は、高速リカバリ領域にOracle Automatic Storage Managementディスク・グループを指定することで、リカバリ・ファイル用の記憶域メカニズムとしてOracle ASMを選択できます。非対話型のインストール・モードを選択した場合、デフォルトで1つのディスク・グループが作成され、そこにOCRと投票ディスク・ファイルが格納されます。後続のデータベース・インストールで使用するために他のディスク・グループが必要な場合は、対話型モードを選択するか、ASMCA(コマンドライン・ツール)を実行して、データベースのインストールを開始する前に、適切なディスク・グループを作成します。

  2. Oracle ASMディスク・グループに使用するOracle ASMの冗長レベルを選択します。

    Oracle ASMディスク・グループに選択した冗長レベルによって、Oracle ASMでディスク・グループ内のファイルをミラー化する方法および必要となるディスク数と空きディスク領域は次のようになります。

    • 外部冗長

      外部冗長ディスク・グループでは、最小で1台のディスク・デバイスが必要です。外部冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計です。

      Oracle Clusterwareファイルの場合、外部冗長ディスク・グループは、コピーなしの1つの投票ディスクと1つのOCRを提供します。高可用性を確保するためにミラー化を行うには、外部テクノロジを使用する必要があります。

      Oracle ASMは外部冗長ディスク・グループ内のデータをミラー化しないため、RAIDなどのストレージ・デバイスによる外部冗長を使用するか、または独自のデータ保護メカニズムを持つ類似デバイスを使用することをお薦めします。

    • 標準冗長

      標準冗長ディスク・グループでは、パフォーマンスおよび信頼性を向上させるために、Oracle ASMはデフォルトで2方向のミラー化を使用します。標準冗長ディスク・グループでは、最小で2台のディスク・デバイス(または2つの障害グループ)が必要です。標準冗長のディスク・グループで有効なディスク領域は、すべてのデバイスのディスク領域の合計の半分です。

      Oracle Clusterwareファイルの場合、標準冗長ディスク・グループでは、投票ディスク・ファイルが3つ、OCRが1つ、コピーが2つ(1つはプライマリ、1つはセカンダリ・ミラー)になります。標準冗長のクラスタは、障害グループを1つ失っても存続できます。

      ほとんどの使用環境では、標準冗長を選択することをお薦めします。

    • 高冗長

      高冗長ディスク・グループでは、Oracle ASMはデフォルトで3方向のミラー化を使用してパフォーマンスを向上させ、最高レベルの信頼性を提供します。高冗長ディスク・グループでは、最小で3台のディスク・デバイス(または3つの障害グループ)が必要です。高冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計の3分の1です。

      Oracle Clusterwareファイルの場合、高冗長ディスク・グループでは、投票ディスク・ファイルが5つ、OCRが1つ、コピーが3つ(1つはプライマリ、2つはセカンダリ・ミラー)になります。高冗長のクラスタは、障害グループを2つ失っても存続できます。

      高冗長ディスク・グループでは、高レベルのデータ保護が提供されますが、この冗長レベルの使用を決定する前に、追加するストレージ・デバイスのコストを考慮する必要があります。

  3. Oracle Clusterwareファイルと、データベース・ファイルおよびリカバリ・ファイルに必要なディスク領域の合計容量を決定します。

    表3-5表3-6を使用して、Oracle Clusterwareファイルのインストールと、初期データベースのインストールに必要なディスクの最小台数およびディスクの最小領域を決定します(投票ディスクは別のディスク・グループにあるものとします)。

    表3-5 冗長タイプによるOracle Clusterwareに必要な記憶領域の合計

    冗長レベル ディスクの最小台数 Oracle Cluster Registry(OCR)ファイル 投票ディスク・ファイル 合計

    外部

    1

    300MB

    300MB

    600MB

    標準

    3

    600MB

    900MB

    1.5GB脚注 1 

    5

    900MB

    1.5GB

    2.4GB


    脚注 1 インストール中にディスク・グループを作成する場合は、2GB以上にする必要があります。


    注意:

    投票ディスク・ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投票ディスク・ファイル)があるディスク・グループの障害グループの最小数は、他のディスク・グループよりも多くなります。

    インストール中に、OCRおよび投票ディスク・ファイルのインストール先としてディスク・グループを作成する場合、使用可能な領域が2GB以上あるディスク・グループ上にこれらのファイルを作成するよう、インストーラによって求められます。

    定数障害グループは特別なタイプの障害グループであり、これらの障害グループのディスクにユーザー・データは含まれません。定数障害グループは、ユーザー・データを格納するための冗長性要件を決定する際には考慮されません。ただし、ディスク・グループをマウントする場合は定数障害グループが考慮されます。


    3-6 冗長タイプによるOracle Databaseに必要な記憶領域の合計

    冗長レベル ディスクの最小台数 データベース・ファイル リカバリ・ファイル 合計

    外部

    1

    1.5GB

    3GB

    4.5GB

    標準

    2

    3GB

    6GB

    9GB

    3

    4.5GB

    9GB

    13.5GB


  4. 割当て単位サイズを決定します。すべてのOracle ASMディスクは割当て単位(AU)に分割されます。割当て単位は、ディスク・グループ内の割当ての基本単位です。特定のディスク・グループ互換レベルに応じて、AUサイズの値に1、2、4、8、16、32、64MBを選択できます。デフォルト値は1MBに設定されています。

  5. Oracle Clusterwareインストールでは、Oracle ASMのメタデータ用にディスク領域を追加する必要もあります。次の計算式を使用して、OCR、投票ディスク・ファイルおよびOracle ASMメタデータのディスク領域の要件(単位: MB)を計算します。

    合計 = [2 * ausize * disks] + [redundancy * (ausize * (nodes * (clients + 1) + 30) + (64 * nodes) + 533)]

    説明は次のとおりです。

    • redundancy: ミラー数(外部 = 1、標準 = 2、高 = 3)。

    • ausize: メタデータのAUサイズ(MB単位で、デフォルトは1MB)

    • nodes: クラスタ内のノード数。

    • clients: 各ノードのデータベース・インスタンス数。

    • disks: ディスク・グループ内のディスク数。

    たとえば、標準冗長ディスク・グループに3台のディスクを使用する4ノードのOracle RACインストールでは、1684MBの追加領域が必要になります。

    [2 * 1 * 3] + [2 * (1 * (4 * (4 + 1) + 30) + (64 * 4) + 533)] = 1684MB

    $$Oracle ASMで標準冗長性ディスク・グループに対してOracle Clusterwareファイルの高可用性を確保するには、ほとんどのインストールで原則として、Oracle Clusterwareファイル用として、別々の3つの障害グループ(物理ディスクは3つ以上)に2GB以上のディスク容量が必要です。$$Oracle Clusterwareファイルを作成するのに効果的な2GBのディスク容量を確保するためのベスト・プラクティスは、各ディスクに2.1GB以上、3台のディスクで合計6.3GB以上の容量を確保することです。

  6. 必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。

    標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。

    このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。


    注意:

    インストール後に、GUIツールのASMCA、コマンドライン・ツールのasmcmd、またはSQLコマンドを使用して、カスタム障害グループを定義します。

    カスタム障害グループを定義する際、データベース・ファイルのみを格納する障害グループの場合、標準冗長ディスク・グループでは最小で2つの障害グループ、高冗長ディスク・グループでは3つの障害グループを指定する必要があります。

    データベース・ファイルと、投票ディスクを含むClusterwareファイルを格納する障害グループの場合は、標準冗長ディスク・グループでは3つ以上の障害グループ、高冗長ディスク・グループでは5つ以上の障害グループを指定する必要があります。

    投票ファイルを格納するディスク・グループの場合、標準冗長では最小で3つの障害グループ、高冗長では最小で5つの障害グループが必要です。それ以外の場合、最小数はそれぞれ2つと3つです。障害グループの最小数は、カスタム障害グループかどうかにかかわらず適用されます。


  7. システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。

    • Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。

    • 単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。各ディスク・グループのデバイスは、別々の物理ディスク上に存在する必要があります。

    • 論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、Oracle ASMには不要なほどレイヤーが複雑になるため、この使用はお薦めしません。さらに、Oracle ASMおよびOracle RACで論理ボリュームを使用する場合、Oracle RACでは、クラスタ論理ボリューム・マネージャが必要です。

      論理ボリューム・マネージャを使用する場合は、ストライプ化またはミラー化なしの単一のLUNとして論理ボリューム・マネージャを使用し、追加の記憶域レイヤーの影響を最小限に抑えるようにすることをお薦めします。

3.3.1.2 Oracle ASMで使用するためのNASデバイスでのファイルの作成

動作保証されているNASストレージ・デバイスがある場合は、NFSマウント・ディレクトリにゼロ埋込みファイルを作成し、そのファイルをOracle ASMディスク・グループのディスク・デバイスとして使用できます。

そのファイルを作成するには、次の手順を実行します。

  1. 必要に応じて、NASデバイスのディスク・グループ・ファイル用にエクスポート・ディレクトリを作成します。

    この手順の実行方法の詳細は、NASデバイスのドキュメントを参照してください。

  2. ユーザーをrootに切り替えます。

  3. マウント・ポイント・ディレクトリをローカル・システムに作成します。次に例を示します。

    # mkdir -p /mnt/oracleasm
    
  4. システムの再起動時にNFSファイル・システムが確実にマウントされるように、マウント・ファイル/etc/fstabにファイル・システムのエントリを追加します。


    関連項目:

    NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照してください。
    https://support.oracle.com
    

    オペレーティング・システムに対応したマウント・ファイルの編集方法の詳細は、manページを参照してください。推奨されるマウント・オプションの詳細は、「Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認」を参照してください。

  5. 次のようなコマンドを入力し、ローカル・システムにNFSファイルシステムをマウントします。

    # mount /mnt/oracleasm
    
  6. 作成するディスク・グループの名前を選択します。たとえば、sales1とします。

  7. NFSファイル・システムにファイルのディレクトリを作成します。ディレクトリ名には、ディスク・グループの名前を付けます。次に例を示します。

    # mkdir /mnt/oracleasm/nfsdg
    
  8. 次のようなコマンドを使用して、このディレクトリに必要な数のゼロ埋込みファイルを作成します。

    # dd if=/dev/zero
    of=/mnt/oracleasm/nfsdg/disk1 bs=1024k 
    count=1000 oflag=direct
    

    この例では、NFSファイル・システムに1GBのファイルを作成します。外部冗長、標準冗長または高冗長のディスク・グループを作成するには、それぞれ1つ、2つまたは3つのファイルを作成する必要があります。

  9. 作成したディレクトリとファイルの所有者、グループおよび権限を変更するには、次のようなコマンドを入力します。インストール所有者はgrid、OSASMグループはasmadminです。

    # chown -R grid:asmadmin /mnt/oracleasm
    # chmod -R 660 /mnt/oracleasm
    
  10. Oracle RACまたはスタンドアロンのOracle Databaseをインストールする場合は、インストール時に、Oracle ASMのディスク検出文字列を編集して、作成したファイル名と一致する正規表現を指定します。次に例を示します。

    /mnt/oracleasm/sales1/
    

    注意:

    インストール中、Oracle ASMでマウントされ文字列ORCL:*でASMLIBに登録されたディスク・パスが、デフォルトのデータベース記憶域の候補ディスクとして一覧表示されます。

3.3.1.3 既存のOracle ASMディスク・グループの使用

既存のOracle ASMディスク・グループにデータベースまたはリカバリ・ファイルを格納するために、インストール方法に応じて次のいずれかを選択します。

  • Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合、新しいディスク・グループを作成するか、または既存のディスク・グループを使用するかを選択できます。

    インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。

  • Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合、新しいデータベースには既存のディスク・グループを選択する必要があり、新しいディスク・グループは作成できません。ただし、要件に対して既存ディスク・グループの空き領域が不十分である場合は、既存ディスク・グループにディスク・デバイスを追加できます。


注意:

既存ディスク・グループを管理するOracle Automatic Storage Managementインスタンスは、異なるOracleホーム・ディレクトリで実行されている可能性があります。

既存のOracle Automatic Storage Managementディスク・グループが存在するかどうか、またはディスク・グループに十分なディスク領域があるかどうかを判断するために、Oracle ASMコマンドライン・ツール(asmcmd)、Oracle Enterprise Manager Grid ControlまたはDatabase Controlを使用できます。また、次の手順も使用できます。

  1. oratabファイルの内容を表示して、Oracle Automatic Storage Managementインスタンスがシステムに組み込まれているかどうかを判断します。

    $ more /etc/oratab
    

    Oracle Automatic Storage Managementインスタンスがシステムに組み込まれている場合、oratabファイルには次のような行が含まれます。

    +ASM2:oracle_home_path
    

    この例では、+ASM2はOracle Automatic Storage Managementインスタンスのシステム識別子(SID)、oracle_home_pathはOracle Automatic Storage Managementインスタンスが組み込まれているOracleホーム・ディレクトリです。表記規則により、Oracle Automatic Storage ManagementインスタンスのSIDは、プラス(+)記号で始まります。

  2. 環境変数ORACLE_SIDおよびORACLE_HOMEを設定して、Oracle Automatic Storage Managementインスタンスに対して適切な値を指定します。

  3. Oracle Automatic Storage Managementインスタンスに接続し、必要に応じてインスタンスを起動します。

    $ $ORACLE_HOME/bin/asmcmd
    ASMCMD> startup
    
  4. 次のコマンドのいずれかを入力して、既存のディスク・グループ、それらの冗長レベルおよび各グループでのディスクの空き領域を表示します。

    ASMCMD> lsdg
    

    または

    $ORACLE_HOME/bin/asmcmd -p lsdg
    
  5. 出力結果から、適切な冗長レベルが設定されているディスク・グループを特定し、そのディスク・グループにある空き領域を記録します。

  6. 必要に応じて、前述の記憶域要件を満たすために必要な追加のディスク・デバイスを設置または指定します。


    注意:

    既存のディスク・グループにデバイスを追加する場合は、サイズおよびパフォーマンス特性が、そのディスク・グループ内の既存デバイスと同じであるデバイスの使用をお薦めします。

3.3.1.4 ASMLIBを使用したOracle ASM用のディスクの構成

Oracle Automatic Storage Management(Oracle ASM)ライブラリ・ドライバ(ASMLIB)を使用すると、システムを再起動するたびにOracle ASMで使用するディスク・デバイスをリバインドする必要がなくなるため、ディスク・デバイスの構成および管理が簡単になります。

ASMLIB Linux 2.6以上のカーネルがないときは、権限ファイルかルール・ファイルをクラスタ・メンバー・ノードごとに作成しなければ、ブロック・デバイス・パスの永続的な権限とパスを保持することはできません。/dev/sdaであったブロック・デバイス・パスが、システムの再起動後は/dev/sdbとして表示されることがあります。新しいディスクを追加する際には、udevファイルを変更して、新しいディスクの永続的な権限とパスを指定する必要があります。

ASMLIBで、Oracle ASMディスクとして使用可能にするディスク範囲を定義します。ASMLIBによって、ストレージ・デバイス上で永続する権限とディスク・ラベルが保持されます。そのため、オペレーティング・システムのアップグレード後でもそのラベルを使用できます。ノードごとにoracleasmコマンドを1回実行して、すべてのクラスタ・メンバー・ノードでストレージ・パスを更新できます。

Linuxのデータベース記憶域にブロック・デバイス上のOracle ASMを使用する場合は、ASMLIBドライバと関連ユーティリティをインストールし、これらを使用してOracle ASM用のディスクを構成することをお薦めします。


注意:

IBM: Linux on System zサーバーでは、ブロック・サイズの互換性の問題により、Oracle Grid Infrastructureリリース11.2.0.1以上用にSCSIストレージ・デバイスおよびファイバ・チャネル・プロトコル(FCP)でASMLIBを使用できません。

回避策: ブロック・デバイスを直接使用(たとえば、/dev/mapper/mpatha_part1のようなパスを使用)するか、またはDASDディスクを使用します。



関連項目:

My Oracle SupportのNote「How to Manually Configure Disk Storage devices for use with Oracle ASM 11.2 on IBM: Linux on System z under SLES」(Doc ID 1350008.1)および「How to Manually Configure Disk Storage devices for use with Oracle ASM 11.2 on IBM: Linux on System z under Red Hat 5」(Doc ID 1351746.1)を次のURLで入手できます。

https://support.oracle.com


Oracle Automatic Storage Managementライブラリ(ASMLIB)・ドライバを使用してOracle ASMデバイスを構成するには、次の作業を行います。


注意:

Oracle ASMライブラリ・ドライバを使用して、インストール中にデータベースを作成するには、対話型モードでASMCAを実行するインストール方法を選択する必要があります。また、デフォルトのディスク検出文字列をORCL:*に変更する必要があります。

3.3.1.4.1 Oracle ASMライブラリ・ドライバ・ソフトウェアのインストールおよび構成

ASMLIBは、Unbreakable Enterprise KernelパッケージおよびSUSE 11にすでに含まれています。Unbreakable Linux Networkのメンバーの場合、Oracle Software for Enterprise Linuxチャネルをサブスクライブし、up2dateを使用してシステムおよびカーネルの最新パッケージを取得することによって、ASMLIB rpmsをインストールできます。詳細は、次のURLを参照してください。

http://www.oracle.com/technetwork/topics/linux/asmlib/index-101839.html

ASMLIBドライバ・ソフトウェアを手動でインストールおよび構成するには、次の手順を実行します。

  1. 次のコマンドを入力して、システムのカーネル・バージョンおよびアーキテクチャを判別します。

    # uname -rm
    
  2. 次のOracle Technology Network(OTN)のWebサイトから必要なASMLIBパッケージをダウンロードします。

    http://www.oracle.com/technetwork/server-storage/linux/downloads/index-088143.html
    

    注意:

    Red Hat Enterprise Linux 5 Advanced ServerでASMLIBを使用するには、oracleasm-supportパッケージのバージョン2.0.1以上をインストールする必要があります。ASMLIBは、SUSEディストリビューションにすでに含まれています。


    ヒント:

    Red HatディストリビューションでのASMLIBサポートの詳細は、My Oracle SupportのNote 1089399.1を参照してください。

    https://support.oracle.com/CSP/main/article?cmd=show&type=NOT&id=1089399.1


    次のパッケージをインストールする必要があります。versionはASMLIBドライバのバージョン、archはシステム・アーキテクチャ、kernelは使用しているカーネル・バージョンです。

    oracleasm-support-version.arch.rpm
    oracleasm-kernel-version.arch.rpm
    oracleasmlib-version.arch.rpm
    
  3. ユーザーをrootユーザーに切り替えます。

    $ su -
    
  4. 次のコマンドを入力して、パッケージをインストールします。

    # rpm -ivh oracleasm-support-version.arch.rpm \
               oracleasm-kernel-version.arch.rpm \
               oracleasmlib-version.arch.rpm
    

    たとえば、AMD64システムでRed Hat Enterprise Linux 5 ASのカーネルを使用している場合は、次のコマンドを入力します。

    # rpm -ivh oracleasm-support-2.1.3-1.el5.x86_64.rpm \
         oracleasm-2.6.18-194.26.1.el5xen-2.0.5-1.el5.x86_64.rpm \
         oracleasmlib-2.0.4-1.el5.x86_64.rpm
    
  5. 次のコマンドを入力し、configureオプションを使用してoracleasm初期化スクリプトを実行します。

    # /usr/sbin/oracleasm configure -i
    

    注意:

    /usr/sbinにあるoracleasmコマンドを使用してください。/etc/init.dパスは非推奨ではありませんが、このパスにあるoracleasmバイナリは、現在では通常、内部コマンドに使用されています。

  6. スクリプトで表示されるプロンプトへの応答で、次の情報を入力します。

    プロンプト 推奨される応答
    Default user to own the driver interface: グループおよびユーザーの標準構成: Oracleソフトウェア所有者ユーザー(oracleなど)を指定します。

    役割区分によるグループおよびユーザーの構成: グリッド・インフラストラクチャ・ソフトウェア所有者(gridなど)を指定します。

    Default group to own the driver interface: グループおよびユーザーの標準構成: データベースのOSDBAグループ(dbaなど)を指定します。

    役割区分によるグループおよびユーザーの構成: 記憶域管理のOSASMグループ(asmadminなど)を指定します。

    Start Oracle ASM Library driver on boot (y/n): システムの起動時にOracle Automatic Storage Managementライブラリ・ドライバを起動するには、yと入力します。
    Scan for Oracle ASM disks on boot (y/n) システムの起動時にOracle ASMディスクをスキャンするには、yと入力します。

    スクリプトによって、次の作業が実行されます。

    • /etc/sysconfig/oracleasm構成ファイルの作成

    • /dev/oracleasmマウント・ポイントの作成

    • ASMLIBドライバのファイル・システムのマウント


      注意:

      ASMLIBドライバのファイル・システムは、通常のファイル・システムではありません。Oracle ASMドライバと通信するOracle ASMライブラリでのみ使用されます。

  7. 次のコマンドを入力して、oracleasmカーネル・モジュールをロードします。

    # /usr/sbin/oracleasm init
    
  8. Oracle RACのインストール先となるクラスタ内のすべてのノードでこの手順を繰り返します。

3.3.1.4.2 x86システムでOracle ASMライブラリ・ドライバを使用するためのディスク・デバイスの構成

Oracle ASMディスク・グループで使用するディスク・デバイスを構成するには、次の手順を実行します。

  1. Oracle ASMディスク・グループでIDE、SCSIまたはRAIDデバイスを使用する場合は、次の手順を実行します。

    1. 必要に応じて、ディスク・グループで使用する共有ディスク・デバイスを設置または構成し、システムを再起動します。

    2. 次のコマンドを入力して、使用するディスクのデバイス名を確認します。

      # /sbin/fdisk -l
      

      デバイス名は、ディスク・タイプによって異なることがあります。

      ディスク・タイプ デバイス名の形式 説明
      IDEディスク
      /dev/hdxn
      
      この例で、xは、IDEディスクを識別する文字です。また、nは、パーティションの番号です。たとえば、/dev/hdaは、第1 IDEバスの第1ディスクです。
      SCSIディスク
      /dev/sdxn
      
      この例で、xは、SCSIディスクを識別する文字です。また、nは、パーティションの番号です。たとえば、/dev/sdaは、第1 SCSIバスの第1ディスクです。
      RAIDディスク
      /dev/rd/cxdypz
      /dev/ida/cxdypz
      
      RAIDコントローラに応じて、RAIDデバイスは異なるデバイス名を持つことができます。この例で、xはコントローラの識別番号、yはディスクの識別番号、zはパーティションの識別番号です。たとえば、/dev/ida/c0d1は最初のコントローラ上の第2の論理ドライブです。

      ディスク・グループにデバイスを含めるには、ドライブ・デバイス名またはパーティション・デバイス名のいずれかを指定します。


      注意:

      各ディスクに、単一のディスク全体パーティションを作成することをお薦めします。

    3. fdiskまたはpartedのいずれかを使用して、ディスク・デバイスに、単一のディスク全体パーティションを作成します。

  2. 次のコマンドを入力して、ディスクをOracle ASMディスクとしてマークします。

    # /usr/sbin/oracleasm createdisk DISK1 /dev/sdb1
    

    この例で、DISK1はディスクに割り当てる名前です。


    注意:

    ディスク名に使用できる文字は、大文字、数字およびアンダースコアです。大文字で始める必要があります。

    Oracle ASMでマルチ・パス・ディスク・ドライバを使用している場合は、そのディスクに正しい論理デバイス名を指定してください。


  3. ディスクをクラスタ内の他のノードで使用可能にするには、各ノードでrootとして次のコマンドを入力します。

    # /usr/sbin/oracleasm scandisks
    

    このコマンドによって、Oracle ASMディスクとしてマークされているノードに接続されている共有ディスクが識別されます。

3.3.1.4.3 IBM: Linux on System zでASMライブラリ・ドライバを使用するためのディスク・デバイスの構成
  1. DASDを互換ディスク・レイアウトでフォーマットした場合は、次のコマンドを入力して、デバイスに単一のディスク全体パーティションを作成します。

    # /sbin/fdasd -a /dev/dasdxxxx
    
  2. 次のコマンドを入力して、ディスクをASMディスクとしてマークします。

    # /etc/init.d/oracleasm createdisk DISK1 /dev/dasdxxxx
    

    この例で、DISK1はディスクに割り当てる名前です。


    注意:

    ディスク名に使用できる文字は、大文字、数字およびアンダースコアです。大文字で始める必要があります。

    ASMでマルチ・パス・ディスク・ドライバを使用している場合は、そのディスクに正しい論理デバイス名を指定してください。


  3. ディスクを他のクラスタ・ノードで使用可能にするには、各ノードでrootとして次のコマンドを入力します。

    # /etc/init.d/oracleasm scandisks
    

    このコマンドによって、ASMディスクとしてマークされているノードに接続されている共有ディスクが識別されます。

3.3.1.4.4 Oracle ASMライブラリ・ドライバおよびディスクの管理

Oracle Automatic Storage Managementライブラリ・ドライバ(ASMLIB)およびディスクを管理するには、表3-7に示す様々なオプションとともにoracleasm初期化スクリプトを使用します。

表3-7 ORACLEASMスクリプト・オプション

オプション 説明
configure

必要に応じて、configureオプションを使用してOracle Automatic Storage Managementライブラリ・ドライバを再構成します。

# /usr/sbin/oracleasm configure -i

コマンド・オプションを表示するには、oracleasm configure-iフラグなしで入力します。

enable
disable

disableおよびenableオプションを使用して、システムの起動時のOracle Automatic Storage Managementライブラリ・ドライバの動作を変更します。enableオプションを使用すると、システムの起動時にOracle Automatic Storage Managementライブラリ・ドライバがロードされます。

# /usr/sbin/oracleasm enable
start
stop
restart

startstopおよびrestartオプションを使用して、システムを起動せずにOracle Automatic Storage Managementライブラリ・ドライバをロードまたはアンロードします。

# /usr/sbin/oracleasm restart
createdisk

creatediskオプションを使用して、Oracle Automatic Storage Managementライブラリ・ドライバで使用するディスク・デバイスをマークし、名前を付けます。

# /usr/sbin/oracleasm createdisk DISKNAME devicename
deletedisk

deletediskオプションを使用して、名前付きのディスク・デバイスのマークを外します。

# /usr/sbin/oracleasm deletedisk DISKNAME

注意: このコマンドを使用して、Oracle Automatic Storage Managementディスク・グループで使用されているディスクのマークは外さないでください。このディスクは、Oracle Automatic Storage Managementディスク・グループから削除した後でマークを外す必要があります。

querydisk

querydiskオプションを使用して、ディスク・デバイスまたはディスク名がOracle Automatic Storage Managementライブラリ・ドライバで使用されているかどうかを確認します。

# /usr/sbin/oracleasm querydisk {DISKNAME | devicename}
listdisks

listdisksオプションを使用して、マークされたOracle Automatic Storage Managementライブラリ・ドライバ・ディスクのディスク名を表示します。

# /usr/sbin/oracleasm listdisks
scandisks

scandisksオプションを使用すると、別のノードでOracle Automatic Storage Managementライブラリ・ドライバ・ディスクとしてマークされている共有ディスクを、クラスタ・ノードで識別できます。

# /usr/sbin/oracleasm scandisks

3.3.1.5 マルチパス・ディスク用のASMLIBの構成

Oracle Automatic Storage Managementライブラリ・ドライバ(ASMLIB)をサード・パーティ・ベンダーのマルチパス・ディスクで使用するには、追加の構成が必要です。


関連項目:

サポートされている記憶域オプションの更新については、My Oracle Supportのサイトを参照してください。
https://support.oracle.com

3.3.1.5.1 マルチパス・ディスクでのOracle ASMの使用について

Oracle ASMでは、各ディスクが一意に識別されている必要があります。同じディスクが複数のパスの下に存在するとエラーになります。マルチパス・ディスク構成では、同じディスクが次の3か所で存在できます。

  1. ディスクへの最初のパス

  2. ディスクへの2つ目のパス

  3. マルチパス・ディスクのアクセス・ポイント

例: 1つのローカル・ディスク(/dev/sda)および外部記憶域に接続した1つのディスクがある場合、サーバーにはその外部記憶域への2つの接続またはパスが表示されます。Linux SCSIドライバは、両方のパスを示します。それらは、/dev/sdbおよび/dev/sdcとして表示されます。システムは/dev/sdbまたは/dev/sdcのいずれかにアクセスする場合がありますが、同じディスクにアクセスしていることになります。

マルチパスを有効にすると、/dev/sdbおよび/dev sdcの両方にアクセス可能なマルチパス・ディスク(/dev/multipathaなど)を持つことになり、multipathaへのすべてのI/Oはsdbまたはsdcのいずれかのパスを使用できます。システムが/dev/sdbパスを使用している場合にそのケーブルが抜かれると、システムはエラーを表示します。ただし、マルチパス・ディスクは/dev/sdbパスから/dev/sdcパスへ切り替わります。

ほとんどのシステム・ソフトウェアはマルチパス構成を認識していません。任意のパス(sdbsdcまたはmultipatha)を使用できます。ASMLIBもマルチパス構成を認識していません。

デフォルトでは、ASMLIBはLinuxがレポートする最初のディスク・パスを認識しますが、アイデンティティがディスクに残るため、そのディスクが1つのパスにのみあると認識します。ストレージ・ドライバによっては、マルチパス・ディスクを認識する場合や、またはいずれかの単一ディスク・パスを認識する場合があります。

デフォルトのままにするのではなく、マルチパス・ディスクを認識するようにOracle ASMを構成する必要があります。

3.3.1.5.2 ディスク・スキャン順序

ASMLIB構成ファイルはパス/etc/sysconfig/oracleasmにあります。これは、コマンド/etc/init.d/oracleasm configureで指定したすべての起動時構成が含まれます。このコマンドでスキャン順序を構成することはできません。

構成ファイルには多くの構成変数が含まれます。ORACLEASM_SCANORDER変数は、最初にスキャンされるディスクを指定します。ORACLEASM_SCANEXCLUDE変数は、無視されるディスクを指定します。

スペース区切り接頭辞文字列を使用して、ORACLEASM_SCANORDERの値を構成します。接頭辞文字列は、ディスクのタイプに関連付けられている一般的な文字列です。たとえば、接頭辞文字列sdを使用すると、この文字列は/dev/sda/dev/sdb/dev/sdcなどを含むすべてのSCSIデバイスと一致します。globでないことに注意してください。これらはワイルドカードを使用しません。単に接頭辞です。また、パスは接頭辞の一部ではないことに注意してください。たとえば、/dev/パスは、パス/dev/sd*に含まれるSCSIディスクの接頭辞の一部ではありません。

Oracle LinuxおよびRed Hat Enterprise Linuxバージョン5では、スキャン時にカーネルはデバイスを/dev/mapper/XXXエントリとみなします。デフォルトでは、2.6カーネル・デバイスのファイル・ネーミング・スキームudevによって、わかりやすさを考慮して/dev/mapper/XXXという名前が作成されます。ORACLEASM_SCANORDERを使用するすべての構成では、/dev/mapper/XXXエントリを使用する必要があります。

3.3.1.5.3 マルチパス・ディスクを選択するためのディスク・スキャン順序の構成

最初にマルチパス・ディスクを選択するようにASMLIBを構成するには、次の手順を実行します。

  1. テキスト・エディタを使用して、ASMLIB構成ファイル/etc/sysconfig/oracleasmを開きます。

  2. ORACLEASM_SCANORDER変数を編集して、マルチパス・ディスクの接頭辞パスを指定します。たとえば、マルチパス・ディスクが接頭辞multipath(/dev/mapper/multipatha/dev/mapper/multipathbなど)を使用しており、マルチパス・ディスクがSCSIディスクをマウントする場合、次のような接頭辞パスを指定します。

    ORACLEASM_SCANORDER="multipath sd"
    
  3. ファイルを保存します。

この手順が完了すると、ASMLIBがディスクをスキャンするときに、最初に接頭辞文字列multipathを持つすべてのディスクがスキャンされ、それらのディスクは/dev/mapper/multipathXという値を使用してOracle ASMディスクとしてラベル付けされます。その後、接頭辞文字列sdを持つすべてのディスクがスキャンされます。ただし、ASMLIBではこれらのディスクはすでに/dev/mapper/multipath文字列値でラベル付けされているものとして認識するため、これらのディスクは無視されます。接頭辞文字列multipathおよびsdをスキャンした後、Oracle ASMによりスキャン順に一致しないその他のディスクがスキャンされます。

手順2の例では、キーワードのmultipathは、実際にmultipathsセクションの下の/etc/multipath.confで構成されたマルチパス・デバイスの別名です。次に例を示します。

multipaths {
       multipath {
               wwid                    3600508b4000156d700012000000b0000
               alias                   multipath
               ...
       }
       multipath {
               ...
               alias                   mympath
               ...
       }
       ...
}

デフォルトのデバイス名は、/dev/mapper/mpath*のような形式です。

3.3.1.5.4 単一パス・ディスクを除外するためのディスク順序スキャンの構成

特定の単一パス・ディスクを除外するようにASMLIBを構成するには、次の手順を実行します。

  1. テキスト・エディタを使用して、ASMLIB構成ファイル/etc/sysconfig/oracleasmを開きます。

  2. ORACLEASM_SCANEXCLUDE変数を編集して、単一パス・ディスクの接頭辞パスを指定します。たとえば、単一パス・ディスク/dev sdbおよび/dev/sdcを除外する場合は、次のような接頭辞パスを指定します。

    ORACLEASM_SCANEXCLUDE="sdb sdc"
    
  3. ファイルを保存します。

この手順が完了すると、ASMLIBがディスクをスキャンするときに、接頭辞がsdbおよびsdcのディスクを除くすべてのディスクがスキャンされ、/dev/sdbおよび/dev/sdcは無視されます。他のSCSIディスクもマルチパス・ディスクも無視されません。/dev/sdbおよび/dev sdcにアクセスするマルチパス・ディスク(/dev/multipathaなど)を持ち、sdbおよびsdcを無視するようにASMLIBを構成した場合は、これらのディスクは無視され、マルチパス・ディスクがOracle ASMとしてマーク付けされるだけになります。

3.3.1.6 Oracle ASM用のディスク・デバイスの手動構成

サーバーが起動すると、デフォルトでは、2.6カーネル・デバイス・ファイル・ネーミング・スキームのudevによってデバイス・ファイル名が自動的に作成され、その所有権がrootに割り当てられます。udevでデフォルトの設定が適用される場合は、投票ディスクまたはOracle Cluster Registryパーティションのデバイス・ファイル名と所有者が変更されるため、サーバーの再起動時に内容が破損します。たとえば、ユーザーgridが所有する/dev/sddというデバイス上の投票ディスクが、サーバーの再起動後には、rootが所有する/dev/sdfというデバイスに置かれる可能性もあります。ASMLIBを使用する場合は、udev内で永続的な権限とデバイス・パスを指定する必要がありません。

ASMLIBを使用しない場合は、カスタム・ルール・ファイルを作成する必要があります。udevが起動すると、ルール・ファイルに定義されたルール(構成ディレクティブ)が順次実行されます。これらのファイルは、パス/etc/udev/rules.d/にあります。ルール・ファイルは、字句順に読み取られます。たとえば、ファイル10-wacom.rules内にあるルールは、ルール・ファイル90-ib.rules内にあるルールより先に解析され実行されます。

UDEVルール・ファイルにデバイス情報を指定する場合は、表示されている順に、他の特性より前にOWNER、GROUPおよびMODEが指定される必要があります。たとえば、UDEV行に特性ACTIONを含める場合、OWNER、GROUPおよびMODEの後にACTIONを指定します。

複数のルール・ファイルに同じデバイスの記述があった場合、サポートされているLinuxカーネル・バージョンでは、最後に読み取られたファイルが適用されます。

ディスク・デバイスの権限ファイルを構成するには、次の作業を行います。

  1. 既存のブロック・デバイスに関する情報を取得するには、1つのクラスタ・ノードのストレージ・デバイスでコマンドscsi_id(/sbin/scsi_id)を実行し、一意のデバイス識別子を取得します。-s引数を付けてscsi_idコマンドを実行する場合、渡されるデバイス・パスおよび名前は、/sys/block/deviceを参照するときのsysfsディレクトリ/sysに対する相対パスである必要があります(/block/deviceなど)。次に例を示します。

    # /sbin/scsi_id -g -s /block/sdb/sdb1
    360a98000686f6959684a453333524174
     
    # /sbin/scsi_id -g -s /block/sde/sde1
    360a98000686f6959684a453333524179
    

    必要時に指定できるように、クラスタウェア・デバイスの一意のSCSI識別子を記録します。


    注意:

    コマンドscsi_idは、どのノードでコマンドが実行されるかにかかわらず、指定されたデバイスで同じデバイス識別子値を戻す必要があります。

  2. /etc/scsi_id.configファイルを編集し、options=-gを追加することで、SCSIデバイスを信頼できるデバイス(ホワイト・リスト)として構成します。次に例を示します。

    # cat > /etc/scsi_id.config
    vendor="ATA",options=-p 0x80
    options=-g
    
  3. テキスト・エディタを使用してOracle ASMデバイス用のUDEVルール・ファイルを作成し、インストール所有者と、メンバーがOracle Grid Infrastructureソフトウェアの管理者であるグループの権限を0660に設定します。たとえば、インストール所有者gridを使用し、さらにOSASMグループasmadminによるロール・ベースのグループ構成を使用します。

    # vi /etc/udev/rules.d/99-oracle-asmdevices.rules
    
    KERNEL=="sd?1", BUS=="scsi", PROGRAM=="/sbin/scsi_id",
    RESULT=="14f70656e66696c00000000", OWNER="grid", GROUP="asmadmin", MODE="0660"
    KERNEL=="sd?2", BUS=="scsi", PROGRAM=="/sbin/scsi_id",
    RESULT=="14f70656e66696c00000001", OWNER="grid", GROUP="asmadmin", MODE="0660"
    KERNEL=="sd?3", BUS=="scsi", PROGRAM=="/sbin/scsi_id",
    RESULT=="14f70656e66696c00000002", OWNER="grid", GROUP="asmadmin", MODE="0660"
    
  4. rules.dファイルを、クラスタ上の他のすべてのノードにコピーします。次に例を示します。

    # scp 99-oracle-asmdevices.rules root@node2:/etc/udev/rules.d/99-oracle-asmdevices.rules
    
  5. /sbin/partprobe devicenameを使用して、更新されたブロック・デバイス・パーティション表をクラスタのすべてのメンバー・ノードにロードします。 この操作は、rootで行う必要があります。

  6. コマンドudevtest(/sbin/udevtest)を実行して、作成したUDEVルール構成をテストします。ブロック・デバイスが使用可能で、ルールが予想どおりに適用されたことが出力されます。次に例を示します。

    # udevtest /block/sdb/sdb1
    main: looking at device '/block/sdb/sdb1' from subsystem 'block'
    udev_rules_get_name: add symlink
    'disk/by-id/scsi-360a98000686f6959684a453333524174-part1'
    udev_rules_get_name: add symlink
    'disk/by-path/ip-192.168.1.1:3260-iscsi-iqn.1992-08.com.netapp:sn.887085-part1'
    udev_node_mknod: preserve file '/dev/.tmp-8-17', because it has correct dev_t
    run_program: '/lib/udev/vol_id --export /dev/.tmp-8-17'
    run_program: '/lib/udev/vol_id' returned with status 4
    run_program: '/sbin/scsi_id'
    run_program: '/sbin/scsi_id' (stdout) '360a98000686f6959684a453333524174'
    run_program: '/sbin/scsi_id' returned with status 0
    udev_rules_get_name: rule applied, 'sdb1' becomes 'ocr1'
    udev_device_event: device '/block/sdb/sdb1' validate currently present symlinks
    udev_node_add: creating device node '/dev/ocr1', major = '8', minor = '17', 
    mode = '0640', uid = '0', gid = '500'
    udev_node_add: creating symlink
    '/dev/disk/by-id/scsi-360a98000686f6959684a453333524174-part1' to '../../ocr1'
    udev_node_add: creating symlink
    '/dev/disk/by-path/ip-192.168.1.1:3260-iscsi-iqn.1992-08.com.netapp:sn.84187085
    -part1' to '../../ocr1'
    main: run: 'socket:/org/kernel/udev/monitor'
    main: run: '/lib/udev/udev_run_devd'
    main: run: 'socket:/org/freedesktop/hal/udev_event'
    main: run: '/sbin/pam_console_apply /dev/ocr1
    /dev/disk/by-id/scsi-360a98000686f6959684a453333524174-part1
    /dev/disk/by-path/ip-192.168.1.1:3260-iscsi-iqn.1992-08.com.netapp:sn.84187085-
    part1'
    

    出力例では、ルールを適用することでOCRデバイス/dev/ocr1の名前が/dev/sdb1に変更されることに注意してください。

  7. UDEVサービスを再起動するコマンドを入力します。

    Asianux、Oracle Linux 5およびRHEL5の場合、コマンドは次のとおりです。

    # /sbin/udevcontrol reload_rules
    # /sbin/start_udev
    

    SUSE 10および11の場合、コマンドは次のとおりです。

    # /etc/init.d boot.udev restart
    

3.3.2 Oracle ASMでのOracle Databaseファイルとディスク・グループの使用

次の項で、Oracle ClusterwareおよびOracle DatabaseファイルのためのOracle Automatic Storage Management (Oracle ASM)の記憶域の構成について説明します。

3.3.2.1 Oracle ASM上の既存のOracle Databaseディスク・グループの指定と使用

次の項では、既存ディスク・グループの指定方法およびそのディスク・グループが持つ空きディスク領域の確認方法について説明します。

  • 必要な場合は、Oracle ASMディスク・グループのデバイスに障害グループを指定します。

    標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、ハードウェア障害に対するデータベースの保護を強化できます。デフォルトでは、各デバイスに独自の障害グループが含まれます。ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障害が発生すると、ディスク・グループは使用できなくなります。この例でのコントローラは、シングル・ポイント障害です。

    このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コントローラに接続されたディスクに障害グループを定義します。この構成では、ディスク・グループが1つのSCSIコントローラの障害を許容できるようになります。


    注意:

    カスタム障害グループを定義する場合、標準冗長では2つ以上の障害グループ、高冗長では3つ以上の障害グループを指定する必要があります。

3.3.2.2 Oracle Databaseデータ・ファイルのためのディスク・グループの作成

システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追加します。次のガイドラインに従って、適切なディスク・デバイスを指定します。

  • Oracle ASMディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。

  • 単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。Oracle ASMは、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。

  • 論理ボリュームは、Oracle ASMディスク・グループのデバイスとして指定できますが、Oracle ASMには不要なほどレイヤーが複雑になるため、この使用はお薦めしません。さらに、Oracle ASMおよびOracle RACで論理ボリュームを使用する場合、Oracle RACでは、クラスタ論理ボリューム・マネージャが必要です。

3.3.3 Oracle Automatic Storage Managementクラスタ・ファイル・システムの構成

Oracle ACFSは、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle Automatic Storage Management)11gリリース2(11.2)のインストールの一部として、インストールされます。

ASMCAを使用して、ACFSの汎用ファイル・システム構成を作成することもできます。


関連項目:

サポートされているデプロイメント・オプションについては、第3.1.3項「Oracle ACFSの一般情報」を参照してください。

Oracle RACデータベース用にOracle Databaseホーム用のOracle ACFSを構成するには、次の手順を実行します。

  1. クラスタ用Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle Automatic Storage Management)をインストールします。

  2. Oracle Grid Infrastructureホームに移動します。次に例を示します。

    $ cd /u01/app/11.2.0/grid
    
  3. Oracle Grid Infrastructureインストール所有者が、使用するストレージ・マウント・ポイントに対する読込みおよび書込み権限を持っていることを確認します。たとえば、マウント・ポイント/u02/acfsmounts/を使用する場合は次のようになります。

    $ ls -l /u02/acfsmounts
    
  4. Gridインストールの所有者として、Oracle ASM Configuration Assistantを起動します。次に例を示します。

    ./asmca
    
  5. 「ASMの構成: ASMディスク・グループ」ページに、インストール中に作成したOracle ASMディスク・グループが表示されます。「ASMクラスタ・ファイルシステム」タブをクリックします。

  6. 「ASMクラスタ・ファイルシステム」ページでデータ・ディスクを右クリックし、「データベース・ホームのACFSの作成」を選択します。

  7. 「ACFSホスト・データベース・ホームの作成」ウィンドウで次の情報を入力します。

    • データベース・ホームのADVMボリューム・デバイス名: データベース・ホームの名前を入力します。この名前は、組織で一意である必要があります。たとえば、dbase_01とします。

    • データベース・ホームのマウント・ポイント: マウント・ポイントのディレクトリ・パスを入力します。たとえば、/u02/acfsmounts/dbase_01とします。

      後で参照するために、このマウント・ポイントを書き留めます。

    • データベース・ホーム・サイズ(GB): データベース・ホームのサイズをGB単位で入力します。

    • データベース・ホームの所有者名: データベースのインストールに使用するOracle Databaseインストール所有者の名前を入力します。たとえば、oracle1とします

    • データベース・ホームの所有者グループ: データベースのインストール時に指定するメンバーが含まれるOSDBAグループを入力します。このグループのメンバーには、データベースに対するSYSDBA権限のオペレーティング・システム認証が付与されます。たとえば、dba1とします。

    • 入力が完了したら、「OK」をクリックします。

  8. 特権ユーザー(root)として、Oracle ASM Configuration Assistantによって生成されたスクリプトを実行します。Oracle Clusterware環境では、Oracle Clusterwareによって管理されるリソースとしてACFSが登録されます。リソースとしてACFSを登録することによって、ACFSがOracle RACデータベース・ホームに使用される場合に、Oracle ClusterwareがACFSを適切な順序で自動的にマウントできるようになります。

  9. Oracle RACのインストール中に、Oracle RACをインストールするユーザーまたはDBAが、「データベース・ホームのマウント・ポイント」フィールドで指定したマウント・ポイントをOracleホームに選択するようにします(前の例では/u02/acfsmounts/dbase_01)。


関連項目:

Oracle ACFSを使用してストレージを構成および管理する方法の詳細は、『Oracle Automatic Storage Management管理者ガイド』を参照してください。

3.3.4 既存のOracle ASMインスタンスのアップグレード

以前のリリースのOracle ASMが、サーバー上または既存のOracle Clusterwareインストール環境内にインストールされている場合は、パスGrid_home/binにあるOracle Automatic Storage Managementコンフィギュレーション・アシスタント(ASMCA)を使用して、既存のOracle ASMインスタンスをOracle ASM 11gリリース2(11.2)にアップグレードし、その後で障害グループ、Oracle ASMボリュームおよびOracle Automatic Storage Managementクラスタ・ファイル・システム(ACFS)を構成できます。


注意:

既存のOracle ASMインスタンスのアップグレードは、そのノード上のすべてのデータベース・インスタンスおよびアプリケーションを停止してから実行する必要があります。

インストール時、11.2より前のOracle ASMリリースからアップグレードしていて、Oracle ASMを使用することを選択し、以前のOracle ASMバージョンが別のOracle ASMホームにインストールされていることが検出された場合は、Oracle ASM 11gリリース2(11.2)のバイナリをインストールした後に、ASMCAを起動して既存のOracle ASMインスタンスをアップグレードできます。次に、Oracle ASMボリュームを作成し、アップグレードしたOracle ASMを使用してOracle ACFSを作成することで、Oracle ACFSのデプロイメントを構成できます。

Oracle ASM 11gリリース2(11.2.0.1)以上からアップグレードしている場合は、Oracle ASMはローリング・アップグレードの一部として常にOracle Grid Infrastructureとともにアップグレードされ、アップグレード中にrootスクリプトによってASMCAが起動されます。リリース11.2.0.1から11.2.0.2では、ASMCAがOracle ASMを個別にアップグレードすることはできません。

Oracle ClusterwareまたはOracle RACの既存のインストール環境で、すべてのノード上のOracle ASMインスタンスの旧バージョンが11gリリース1の場合は、Oracle ASMインスタンスのローリング・アップグレードを実行できます。Oracle RACのインストール環境で、旧バージョンのOracle ASMインスタンスが11gリリース1よりも前のリリースの場合は、ローリング・アップグレードを実行できません。Oracle ASMは、すべてのノードで11gリリース2(11.2)にアップグレードされます。

3.4 ブロック・デバイスおよびRAWデバイスのサポート終了

Oracle DatabaseおよびOracle RAC 11gリリース2(11.2)では、Database Configuration Assistantまたはインストーラを使用して、ブロック・デバイスまたはRAWデバイス上にOracle ClusterwareまたはOracle Databaseファイルを格納する処理がサポートされなくなりました。

既存のOracle RACデータベースをアップグレードする場合、またはOracle ASMインスタンスを使用するOracle RACデータベースをアップグレードする場合は、既存のRAWデバイスまたはブロック・デバイスのパーティションを使用して、既存のインストールをローリング・アップグレードできます。ブロック・デバイスまたはRAWデバイスを使用した、新しいインストールは実行できません。

また、IBM: Linux on System zブロック・デバイスで、必要なパーティションが1つのみの場合(ASMファイル管理用のパーティションを作成する場合など)、-d ldlオプションを指定して、Linuxディスク・レイアウトを使用したDASDをフォーマットすることもできます。このディスク・レイアウトを使用すると、DASDのパーティション・デバイス名は/dev/dasdxxxx1となります。

3.5 IBM: Linux on System zでのRAW論理ボリュームの構成

IBM: Linux on System zでは、Oracle ClusterwareおよびAutomatic Storage Managementファイル用にRAW論理ボリューム・マネージャ(LVM)・ボリュームを使用できます。直接アクセス記憶装置(DASD)またはSCSIデバイス上のボリューム・グループに、必要なRAW論理ボリュームを作成できます。必要なRAW論理ボリュームを構成するには、次の手順を実行します。


注意:

LinuxでFBAタイプのDASDをフォーマットする必要はありません。FBAタイプのDASDに対する単一のディスク全体パーティションのデバイス名は、/dev/dasdxxxx1です。

  1. 必要に応じて、ディスク・グループに使用する共有DASDをインストールまたは構成し、システムを再起動します。

  2. 次のコマンドを入力して、システムで構成されたDASDを確認します。

    # more /proc/dasd/devices
    

    このコマンドの出力結果には、次のような行が含まれます。

    0302(ECKD) at ( 94: 48) is dasdm : active at blocksize: 4096, 540000 blocks, 2109 MB
    

    これらの行では、各DASDの次の情報が表示されます。

    • デバイス番号(0302)

    • デバイス・タイプ(ECKDまたはFBA)

    • Linuxデバイスのメジャー番号およびマイナー番号(94: 48)

    • Linuxデバイスのファイル名(dasdm)

      通常、DASDのデバイス名は、dasdxxxxという形式で、xxxxは、デバイスを識別する1から4文字の文字列です。

    • ブロック・サイズおよびデバイス・サイズ

  3. 表示内容から、使用するデバイスを特定します。

    表示されたデバイスがFBAタイプのDASDの場合、それらを構成する必要はありません。Oracle Databaseファイルへのバインド手順に進むことができます。

    ECKDタイプのDASDを使用する場合は、次のようなコマンドを入力して、DASDをフォーマットします(まだフォーマットされていない場合)。

    # /sbin/dasdfmt -b 4096 -f /dev/dasdxxxx
    

    注意:

    DASDをフォーマットすると、デバイス上のすべての既存のデータが破壊されます。次のことを確認してください。
    • 正しいDASDデバイス名を指定する。

    • 保存する必要のある既存のデータがDASDに含まれていない。


    このコマンドは、4KBのブロック・サイズと互換ディスク・レイアウト(デフォルト)でDASDをフォーマットし、DASD上に最大3つのパーティションを作成できます。

  4. SCSIデバイス上にRAW論理ボリュームを作成する場合は、手順5に進みます。

    DASDにRAW論理ボリュームを作成する場合に、DASDを互換ディスク・レイアウトでフォーマット済であれば、パーティションの作成方法を決定します。

    デバイスに単一のディスク全体パーティションを作成するには(たとえば、データベース・ファイル用として1つのRAW論理ボリューム全体に1つのパーティションを作成するには)、次のようなコマンドを入力します。

    # /sbin/fdasd -a /dev/dasdxxxx
    

    このコマンドは、ディスク全体で1つのパーティションを作成します。これで、デバイスを物理ボリュームとしてマークできる状態になります。手順6に進みます。

    デバイス上に最大3つのパーティションを作成するには(たとえば、個々の表領域用にパーティションを作成するには)、次のようなコマンドを入力します。

    # /sbin/fdasd /dev/dasdxxxx
    

    パーティションの作成時に、次のガイドラインを使用します。

    • pコマンドを使用して、デバイスのパーティション表をリストします。

    • nコマンドを使用して、新しいパーティションを作成します。

    • このデバイスに必要なパーティションを作成した後、wコマンドを使用して、変更されたパーティション表をデバイスに書き込みます。

    • パーティションの作成方法の詳細は、fdasdのマニュアル・ページを参照してください。

    DASD上のパーティションには次のようなデバイス名があり、nは、1から3のパーティション番号です。

    /dev/dasdxxxxn
    

    パーティションの作成が完了すると、デバイスを物理ボリュームとしてマークできる状態になります。手順6に進みます。

  5. ボリューム・グループのSCSIデバイスを使用する場合は、次の手順を実行します。

    1. 必要に応じて、ボリューム・グループで使用する共有ディスク・デバイスを設置または構成し、システムを再起動します。

    2. 使用するディスクのデバイス名を確認するには、次のコマンドを入力します。

      # /sbin/fdisk -l
      

      SCSIデバイスには、次のようなデバイス名があります。

      /dev/sdxn
      

      この例で、xは、SCSIディスクを識別する文字です。また、nは、パーティションの番号です。たとえば、/dev/sdaは、第1 SCSIバスの第1ディスクです。

    3. 必要に応じて、fdiskを使用して、使用するデバイス上にパーティションを作成します。

    4. fdisktコマンドを使用して、使用するパーティションのシステムIDを0x8eに変更します。

  6. 次のようなコマンドを入力して、ボリューム・グループで使用する各デバイスを物理ボリュームとしてマークします。

    SCSIデバイスの場合:

    # pvcreate /dev/sda1 /dev/sdb1
    

    DASDデバイスの場合:

    # pvcreate /dev/dasda1 /dev/dasdb1
    
  7. マークしたデバイスを使用してoracle_vgというボリューム・グループを作成するには、次のようなコマンドを入力します。

    SCSIデバイスの場合:

    # vgcreate oracle_vg /dev/sda1 /dev/sdb1
    

    DASDデバイスの場合:

    # vgcreate oracle_vg /dev/dasda1 /dev/dasdb1
    
  8. 作成したボリューム・グループに必要な論理ボリュームを作成するには、次のようなコマンドを入力します。

    # lvcreate -L size -n lv_name vg_name
    

    この例の意味は次のとおりです。

    • sizeは、論理ボリュームのサイズ(たとえば、500M)

    • lv_nameは、論理ボリュームの名前(たとえば、orcl_system_raw_500m)

    • vg_nameは、ボリューム・グループの名前(たとえばoracle_vg)

    たとえば、oracle_vgボリューム・グループのracというデータベースのSYSTEM表領域用に500MBの論理ボリュームを作成するには、次のコマンドを入力します。

    # lvcreate -L 500M -n rac_system_raw_500m oracle_vg
    

    注意:

    これらのコマンドは、各論理ボリュームに対して次のようなデバイス名を作成します。
    /dev/vg_name/lv_name
    

  9. 他のクラスタ・ノードでは、次のコマンドを入力して、すべてのボリューム・グループをスキャンし、それをアクティブにします。

    # vgscan
    # vgchange -a y