ヘッダーをスキップ
Oracle Clusterwareインストレーション・ガイド
11gリリース1(11.1)for AIX Based Systems
B50575-03
  目次
目次
索引
索引

戻る
戻る
 
次へ
次へ
 

2 Oracle Clusterwareのインストール前の作業

この章では、Oracle Universal Installer(OUI)を起動してOracle Clusterwareをインストールする前に完了する必要があるシステムの構成作業について説明します。

この章の内容は次のとおりです。

2.1 アップグレードのベスト・プラクティスの確認

既存のOracleインストールがある場合は、バージョン番号、パッチおよびその他の構成情報を記録して、既存のインストール用のアップグレード手順を確認します。インストールを進める前に、アップグレードに関するOracleドキュメントを確認し、その後の処理を確認します。

最新の更新情報や、アップグレードの前後、互換性、相互運用性に関するベスト・プラクティスについては、「Oracle Upgrade Companion」を参照してください。「Oracle Upgrade Companion」は、OracleMetaLinkのNote 466181.1で参照できます。

https://metalink.oracle.com

2.2 X端末を使用したrootによるリモート・システムへのログイン

Oracleソフトウェアをインストールする前に、Oracleソフトウェアをインストールするシステムでrootユーザーとして複数の作業を実行する必要があります。リモート・サーバーでrootユーザーとして作業を実行するには、rootとしてリモート表示を有効にする必要があります。


注意:

別のユーザー(oracleなど)としてログインする場合は、そのユーザーでもこの手順を繰り返す必要があります。

リモート表示を有効にするには、次のいずれかの手順を実行します。

2.3 Oracle Clusterwareをインストールするためのグループおよびユーザーの概要

Oracle Clusterwareをインストールするには、次のグループおよびユーザーを作成する必要があります。


参照:

OSDBAグループとOSOPERグループ、およびSYSDBASYSASMSYSOPER権限の詳細は、『Oracle Database管理者リファレンスfor UNIX Systems』および『Oracle Database管理者ガイド』を参照してください。

2.4 Oracle Clusterware用のグループおよびユーザーの作成

rootとしてログインし、次の手順を実行して、Oracle InventoryグループおよびOracle Clusterwareのソフトウェア所有者を検索または作成します。

2.4.1 Oracle Inventoryグループの理解

メンバーにOracle Central Inventory(oraInventory)への書込み権が付与されたグループを所有する必要があります。Central Inventoryには、次のものが含まれています。

  • システム上のOracleホーム・ディレクトリ(Oracle Clusterware、Oracle Databaseおよび自動ストレージ管理)のレジストリ。

  • Oracleソフトウェアのインストール時のインストール・ログおよびトレース・ファイル。これらのファイルは、将来参照するためにそれぞれのOracleホームにもコピーされます。

Oracleインストールに関するその他のメタデータ・インベントリ情報は、個々のOracleホーム・インベントリ・ディレクトリに格納されており、Central Inventoryとは区別されます。

2.4.2 Oracle Inventoryディレクトリの理解

初めてOracleソフトウェアをシステムにインストールするときに、Optimal Flexible Architecture(OFA)準拠のパスがu[01-09]/app形式(/u01/appなど)で作成されているかどうかと、インストールを実行しているユーザーがそのパスへの書込み権限を所有しているどうかがOracle Universal Installerで確認されます。これらがあてはまる場合は、Oracle Universal Installerがパス/u[01-09]/app/oraInventoryにOracle Inventoryディレクトリを作成します。次に例を示します。

/u01/app/oraInventory

Oracle Clusterwareのインストールを実行しているユーザーに環境変数$ORACLE_BASEが設定されている場合は、OUIによりパス$ORACLE_BASE/../oraInventoryにOracle Inventoryディレクトリが作成されます。たとえば、$ORACLE_BASE/opt/oracle/11に設定されている場合、Oracle Inventoryディレクトリはパス/opt/oracle/oraInventoryに作成されます。

OFA準拠のパスが作成されておらず、$ORACLE_BASEも設定されていない場合、Oracle Inventoryディレクトリはインストールを実行しているユーザーのホーム・ディレクトリに格納されます。次に例を示します。

/home/oracle/oraInventory

これにより、複数のOracleソフトウェア所有者が存在する後続のインストール時に権限エラーが発生するため、OFA準拠のインストール・パスを作成するか、または環境変数 $ORACLE_BASEを設定することをお薦めします。

新しくインストールする場合は、OUIでCentral Inventoryディレクトリを作成することをお薦めします。デフォルトでは、Oracleソフトウェア所有者が所有する、OFA構造に準拠したOracleパス(/u01/appなど)を作成すると、Central Inventoryはパスu01/app/oraInventoryに作成されます。このとき、すべてのOracleインストール所有者によるこのディレクトリへの書込みを許可する適切な権限が使用されます。

2.4.3 Oracle InventoryおよびOracle Inventoryグループの存在の確認

システムに初めてOracleソフトウェアをインストールする場合は、OUIによってoraInst.locファイルが作成されます。このファイルに、Oracle Inventoryグループのグループ名(通常、oinstall)およびOracle Central Inventoryディレクトリのパスが示されます。oraInst.locファイルには、次のような内容が含まれます。

inventory_loc=central_inventory_location
inst_group=group

この場合、central_inventory_locationはOracle Central Inventory(oraInventory)の場所、groupはOracle Central Inventoryへの書込み権限を持つグループの名前です。

既存のOracle Inventoryがある場合は、必ずすべてのOracleソフトウェア・インストールで同じOracle Inventoryを使用し、インストールに使用するすべてのOracleソフトウェア・ユーザーがこのディレクトリへの書込み権限を持つようにします。

システムにOracle Inventoryがあるかどうかを確認するには、次のようにします。

次のコマンドを入力します。

# more /etc/oraInst.loc

oraInst.locファイルが存在する場合、このコマンドの出力結果は、次のようになります。

inventory_loc=/u01/app/oracle/oraInventory
inst_group=oinstall

前述の出力例の意味は次のとおりです。

  • inventory_locグループは、Oracle Inventoryの場所を示します。

  • inst_groupパラメータは、Oracle Inventoryグループの名前(この例では、oinstall)を示します。

2.4.4 Oracle Inventoryが存在しない場合のOracle Inventoryグループの作成

oraInst.locファイルが存在しない場合は、次のコマンドを入力して、Oracle Inventoryグループを作成します。

# mkgroup id=501 oinstall

このコマンドによって、グループID番号501のoinstallグループが作成されます。

2.4.5 Oracle Clusterwareユーザーの作成

次の場合は、Oracle Clusterwareのソフトウェア所有者を作成する必要があります。

  • Oracleソフトウェア所有者ユーザーが存在しない場合(たとえば、システムへOracleソフトウェアを初めてインストールする場合)。

  • Oracleソフトウェア所有者ユーザーが存在するが、新しいOracle ClusterwareおよびOracle Databaseのインストール環境で、crsなどの別のオペレーティング・システム・ユーザー(異なるグループ・メンバーシップを持つ)を使用して、このグループに別のクラスタウェアおよびデータベースの管理権限を付与する場合。

    Oracleドキュメントでは、Oracle Clusterwareソフトウェアのインストールのみを所有するために作成されたユーザーをcrsユーザーと呼びます。すべてのOracleインストールを所有するために作成されたユーザー、またはOracle Databaseのインストールのみを所有するために作成されたユーザーをoracleユーザーと呼びます。


注意:

異なるOracle Databaseホームに対して複数のOracleソフトウェア所有者を使用する場合は、Oracle Clusterwareに対して個別のOracleソフトウェア所有者を作成し、そのOracle Clusterwareソフトウェア所有者を使用してOracle Clusterwareをインストールすることをお薦めします。

別のOracleソフトウェア所有者(oraclecrsasm)を作成して、異なるOracleソフトウェアのインストール用に別のユーザーおよびオペレーティング・システム権限グループを作成する場合、各ユーザーはプライマリ・グループとしてoinstallグループを所有する必要があり、Central Inventoryの破損を防ぐために、同じOracle Central Inventoryを共有する必要があります。「役割に応じたカスタム・グループおよびユーザーの作成」を参照してください。


2.4.5.1 Oracleソフトウェア所有者ユーザーの存在の確認

oraclecrsというOracleソフトウェア所有者ユーザーが存在するかどうかを確認するには、次のようなコマンドを入力します(この場合、oracleの存在を確認します)。

# id oracle

ユーザーが存在する場合、このコマンドの出力結果は、次のようになります。

uid=501(oracle) gid=501(oinstall) groups=502(dba),503(oper)

既存ユーザーを使用するか、別のユーザーを作成するかを決定します。

既存ユーザーを使用する場合は、ユーザーのプライマリ・グループがOracle Inventoryグループ(oinstall)であることを確認します。

2.4.5.2 Oracle Clusterware用のソフトウェア所有者ユーザーの作成

Oracleソフトウェア所有者ユーザー(oraclecrs)が存在しない、または新しいOracleソフトウェア所有者ユーザーが必要な場合は作成します。次の手順では、Oracleソフトウェア所有者の名前としてcrsが使用されています。

  1. 次のコマンドを入力します。

    # smit security
    
  2. 「Security & Users」メニューで、「Users」を選択します。

  3. 「Users」メニューで、「Add a User」を選択します。

  4. 適切なメニュー項目を選択し、Oracle Clusterwareユーザー(crsまたはoracle)を作成します。「Primary GROUP」フィールドに、Oracle Inventoryグループを指定します。他のノードでも同じ値を指定できるように、このエントリ・フィールドに指定した情報をメモしておいてください。


    注意:

    Oracle ClusterwareユーザーのUIDとGIDは、65536未満にする必要があります。

  5. [F10]を押して終了します。

  6. Oracle Clusterwareのoracleユーザーのパスワードを設定します。次に例を示します。

    # passwd crs
    
  7. Oracle Clusterwareのoracleユーザーの権限に、CAP_NUMA_ATTACH、CAP_BYPASS_RAC_VMMおよびCAP_PROPAGATEが指定されていることを確認します。

    すでに設定されている権限を確認するには、rootで次のコマンドを入力します。この例では、Oracle Clusterwareのoracleユーザーはcrsです。

    # /usr/bin/lsuser -a capabilities crs
    
    

    権限を追加するには、次のコマンドを入力します。

    # /usr/bin/chuser
    capabilities=CAP_NUMA_ATTACH,CAP_BYPASS_RAC_VMM,CAP_PROPAGATE crs
    
  8. 他のすべてのクラスタ・ノードでこの手順を繰り返します。

2.4.5.3 既存のソフトウェア所有者ユーザーの変更

Oracle Clusterwareに使用するユーザー・アカウントは存在しても、そのプライマリ・グループがoinstallでない場合は、次の手順を使用して、グループを追加するユーザーを変更します。

  1. 次のコマンドを入力します。

    # smit security
    
  2. 適切なメニュー項目を選択して、oracleユーザーを変更します。

  3. 「Primary GROUP」フィールドに、Oracle Inventoryグループを指定します。たとえば、oinstallです。

  4. [F10]を押して終了します。

  5. 他のすべてのクラスタ・ノードでこの手順を繰り返します。

2.4.6 Oracle ClusterwareユーザーとOraInventoryパスの作成例

次の例は、Oracle Clusterwareソフトウェア所有者(この場合はcrs)、およびoraInventoryディレクトリに対する適切な権限を持つ、OFA構造に準拠したパスの作成方法を示しています。また、この例は、適切な所有権と権限を持つ、別々のOracle DatabaseホームとOracle ASMホームの作成方法も示しています。

# mkdir /u01/app/crs
# chown crs:oinstall /u01/app
# mkdir /u01/app/oracle
# chown oracle:oinstall /u01/app/oracle
# chmod -R 775 /u01/app/
# mkdir /u01/app/asm
# chown asm:oinstall /u01/app/asm

この手順が完了すると、次のディレクトリが作成されます。

  • rootが所有する/u01

  • 775権限でcrs:oinstallが所有する/u01/app。この所有権と権限によって、OUIはパス/u01/app/oraInventoryにoraInventoryディレクトリを作成できるようになります。

  • 775権限でcrs:oinstallが所有する/u01/app/crs。これらの権限はインストールに必要であり、インストール・プロセスで変更されます。

  • 775権限でoracle:oinstallが所有する/u01/app/oracle

  • 775権限でasm:oinstallが所有する/u01/app/asm

2.5 ハードウェア要件の確認

各システムは、次の最小ハードウェア要件を満たしている必要があります。

システムが各要件を満たしていることを確認するには、次の手順を実行します。

  1. 次のコマンドを入力して、物理RAMのサイズを確認します。

    # /usr/sbin/lsattr -E -l sys0 -a realmem
    

    システムに搭載されている物理RAMのサイズが要件のサイズより少ない場合、次の手順に進む前にメモリーを増設する必要があります。

  2. 次のコマンドを入力して、使用可能なRAMおよびスワップ領域を確認します。

    # /usr/sbin/lsps -s
    
  3. 次のコマンドを入力して、構成されたスワップ領域のサイズを確認します。

    # /usr/sbin/lsps -a
    

    追加のスワップ領域を構成する(必要な場合)方法については、ご使用のオペレーティング・システムのマニュアルを参照してください。

  4. 次のコマンドを入力して、/tmpディレクトリで使用できるディスク領域の大きさを確認します。

    • # df -k /tmp
      

    /tmpディレクトリで使用できるディスク領域が400MB未満の場合、次のいずれかの手順を完了します。

    • 必要なディスク領域を確保するために、/tmpディレクトリから不要なファイルを削除します。

    • oracleユーザーの環境設定(後述)の際に、環境変数TEMPおよびTMPDIRを設定します。

    • /tmpディレクトリを含むファイル・システムを拡張します。ファイル・システムの拡張については、必要に応じてシステム管理者に連絡してください。

  5. システム上の空きディスク領域の量を確認します。Oracle Clusterwareファイルを配置する場所に合わせて次のいずれかのコマンドを使用します。

    GPFSの場合:

    # df -k
    

    コンカレントVGのRAW論理ボリューム(HACMP)の場合: この例の変数lv_nameは、検証する領域を持つRAW論理ボリューム名です。

    # lslv lv_name
    

    RAWハード・ディスクの場合: この例の変数rhdisk#は、検証するRAWハード・ディスク番号であり、変数size_mbは、検証するパーティション・サイズ(MB単位)です。

    # lsattr -El rhdisk# -a size_mb
    

    次の表に、各インストール・タイプのソフトウェア・ファイルの概算のディスク領域要件を示します。

    インストール・タイプ ソフトウェア・ファイルの要件(GB)
    Enterprise Edition 4GB
    Standard Edition 4GB
    カスタム(最大) 4GB

  6. 次のコマンドを入力して、システムのアーキテクチャでソフトウェアを実行できるかどうかを確認します。

    # getconf HARDWARE_BITMODE
    

    注意:

    このコマンドでは64が出力されます。この値が出力されない場合、このシステムにはソフトウェアをインストールできません。

  7. 次のコマンドを入力して、システムが64-bitモードで起動されているかどうかを確認します。

    # bootinfo -K
    

    このコマンドの結果は、64-bitカーネルが有効であることを示す64になるはずです。

2.6 ネットワーク要件の確認

Oracle Real Application Clusters環境に必要なネットワーク・ハードウェアおよびインターネット・プロトコル(IP)・アドレスがあるかを確認します。


注意:

Oracle Clusterware環境でサポートされるネットワーク・プロトコルおよびハードウェアの最新情報は、次のOracle MetaLink Webサイトの「Certify」ページを参照してください。
https://metalink.oracle.com

ネットワーク・ハードウェア要件

クラスタ内の各ノードは、次の要件を満たしている必要があります。

2.6.1 IPアドレス要件

インストールを開始する前に、各ノードで使用可能な次のIPアドレスを準備しておく必要があります。

  • パブリック・インタフェースのドメイン・ネーム・サービス(DNS)に登録されているIPアドレスおよび対応するネットワーク名。使用可能なDNSがない場合は、システムのhostsファイル(/etc/hosts)にネットワーク名とIPアドレスを記述します。

  • DNSに登録されている仮想IP(VIP)アドレスおよび対応するネットワーク名。使用可能なDNSがない場合は、システムのhostsファイル(/etc/hosts)にネットワーク名とVIPアドレスを記述します。次の要件を満たすVIPのアドレスを選択します。

    • IPアドレスおよびネットワーク名は現在使用されていない

    • VIPはパブリック・インタフェースと同じサブネット上にある

    インストールする前に、pingコマンドを実行し、デフォルトのゲートウェイにアクセスできることを確認します。インストール中、OUIではpingコマンドを使用してVIPが到達可能であることを確認します。デフォルトのゲートウェイを検出するには、routeコマンドを使用します(オペレーティング・システムのヘルプを参照)。インストール後に、VIPアドレス、またはVIPに関連付けたネットワーク名のいずれかを使用するようにクライアントを構成します。ノードに障害がある場合、そのノードの仮想IPアドレスは他のノードにフェイルオーバーされます。

  • 各プライベート・インタフェースのプライベートIPアドレスおよびホスト名

    これらのインタフェースでは、プライベート・ネットワークIPアドレス(10.*.*.*、192.168.*.*など)の使用をお薦めします。各ノードで/etc/hostsファイルを使用して、プライベート・ネットワーク名とプライベートIPアドレスを関連付けます。

たとえば、各ノードに1つのパブリック・インタフェースと1つのプライベート・インタフェースがある2ノードのクラスタの場合、ネットワーク・インタフェースとして、次の表に示す構成が考えられます。ここでは、hostsファイルは/etc/hostsです。

ノード インタフェース名 種類 IPアドレス 登録先
rac1 rac1 パブリック 143.46.43.100 DNS(これが使用できない場合はhostsファイル)
rac1 rac1-vip 仮想 143.46.43.104 DNS(これが使用できない場合はhostsファイル)
rac1 rac1-priv プライベート 10.0.0.1 hostsファイル
rac2 rac2 パブリック 143.46.43.101 DNS(これが使用できない場合はhostsファイル)
rac2 rac2-vip 仮想 143.46.43.105 DNS(これが使用できない場合はhostsファイル)
rac2 rac2-priv プライベート 10.0.0.2 hostsファイル

VIPのフェイルオーバーを有効にするために、前述の表に示す構成では、同じサブネット(143.46.43)で両方のノードのパブリックおよびVIPアドレスを定義しています。ノードまたはインターコネクトに障害が発生すると、関連付けられているVIPが動作可能なインスタンスに割り当てられ、そのVIPを介して接続しているクライアントに、障害が迅速に通知されます。アプリケーションおよびクライアントが透過的アプリケーション・フェイルオーバー・オプションを使用して構成されている場合、そのクライアントは動作可能なインスタンスに再接続されます。

2.6.2 ノードの時刻要件

インストールを開始する前に、クラスタ内の各メンバー・ノードが、できるかぎり同じ日時に設定されていることを確認します。 このためには、すべてのノードで同一のネットワーク・タイム・プロトコル・サーバーを参照して、オペレーティング・システムのネットワーク・タイム・プロトコル機能を使用することをお薦めします。

2.6.3 ネットワーク要件の設定

各ノードが要件を満たしていることを確認するには、次の手順を実行します。

  1. 必要に応じて、パブリックおよびプライベート・ネットワーク用のネットワーク・アダプタを設置し、パブリックまたはプライベートIPアドレスを使用してこれらを設定します。

  2. パブリック・ネットワーク・インタフェースのホスト名およびIPアドレスをDNSに登録します。

  3. 各ノードに対して、1つの仮想ホスト名および仮想IPアドレスをDNSに登録します。

  4. すべてのノードの/etc/hostsファイルに、すべてのノードの各プライベート・インタフェースについて、次のような行を追加します。ここには、プライベートIPアドレスおよび対応するプライベート・ホスト名を指定します。

    10.0.0.1     rac1-priv1
    
  5. すべてのネットワーク・アダプタについて、インタフェース名および対応するIPアドレスを確認するには、次のコマンドを入力します。

    # netstat -i
    

    出力結果から、パブリックまたはプライベート・ネットワーク・インタフェースとして指定する、すべてのネットワーク・アダプタのインタフェース名およびIPアドレスを確認します。


    注意:

    Oracle ClusterwareおよびRACをインストールする際に、この情報が必要になります。

2.7 ソフトウェア要件の確認

インストールする製品に応じて、次のソフトウェアがシステムにインストールされていることを確認してください。表の後に、これらの要件に対応しているかどうかを確認する手順を示します。


注意:

Oracle Universal Installerによって、ご使用のシステムが示された要件を満たしていることを確認する検証が実行されます。 最新の更新については、次のURLにあるOracle MetaLinkの「Certify」ページを確認してください。

https://metalink.oracle.com


表2-1 AIXオペレーティング・システムのカーネル要件

項目 要件

オペレーティング・システム

AIX 6Lバージョン6.1(64-bit)、TL01-SP01(注意: オペレーティング・システムの不具合が原因で、AIX6.1-TL0-SP04はサポートされていません。)

AIX 5Lバージョン5.3(64-bit)TL 05、サービス・パック06以上

AIX 6Lオペレーティング・システムのファイル・セット

次のオペレーティング・システムのファイル・セットが必要です。

bos.adt.base
bos.adt.lib
bos.adt.libm
bos.perf.libperfstat
bos.perf.perfstat
bos.perf.proctools
rsct.basic.rte
rsct.compat.clients.rte
xlC.aix61.rte:9.0.0.1 (or later)
xlC.rte:9.0.0.1 (or later)

インストールには、xlC C/C++ランタイム・ファイル・セットが必要ですが、C/C++コンパイラは必要ありません。xlCランタイム・ファイル・セットのライセンスは必要ありません。

AIX 5Lオペレーティング・システムのファイル・セット

次のオペレーティング・システムのファイル・セットが必要です。

bos.adt.base
bos.adt.lib
bos.adt.libm
bos.perf.libperfstat
bos.perf.perfstat
bos.perf.proctools
rsct.basic.rte
rsct.compat.clients.rte
xlC.aix50.rte 8.0.0.7 (or later)
xlC.rte 8.0.0.7 (or later)

インストールには、xlC C/C++ランタイム・ファイル・セットが必要ですが、C/C++コンパイラは必要ありません。xlCランタイム・ファイル・セットのライセンスは必要ありません。

C/C++コンパイラの取得

IBM XL C/C++ Enterprise Edition V8.0またはV9.0コンパイラをインストールしていないOracle Databaseユーザーの場合、XLCファイル・セットを入手するには、IBM XL C/C++ Enterprise Edition V8.0 for AIXランタイム環境コンポーネントをインストールする必要があります。AIX5Lでは、これにxLC.aix.rte 8.0.0.8とxlC.rte 8.0.0.8が含まれています。

次のWebサイトから、C/C++コンパイラをダウンロードします。

http://www-1.ibm.com/support/docview.wss?uid=swg24015075

ライセンス要件のないCランタイム環境ファイル・セットは、次のWebサイトからダウンロードします。

http://www-1.ibm.com/support/docview.wss?uid=swg24015077

Oracle RAC

High Availability Cluster Multi-Processing(HACMP)v5.4.1(AIX 6.1で使用

High Availability Cluster Multi-Processing(HACMP)v5.3(AIX 5Lで使用)

注意: HACMPが必要となるのは、Oracle Clusterwareまたはデータベース・ファイル記憶域にRAW論理ボリュームを使用する場合のみです。ただし、これはすべてのインストールでサポートされます。 パッチ・セットを確認して、必要なパッチを確実に適用します。 HACMP 5.4(5.4.1を含む)のファイルセット・パッケージの変更には、Oracle rootpre.shスクリプトに対する更新が必要です。 Oracle Clusterwareをインストールする前に、パッチ6718715をダウンロードしてインストールします。

General Parallel File System(GPFS)v3.1.0.10以上

注意: GPFSが必要となるのは、Oracle Clusterwareまたはデータベース・ファイルにクラスタ・ファイル・システムを使用する場合のみです。

ADA

OC Systems PowerAda 5.4d

JDK

今回のリリースでは、IBM JDK 1.5がインストールされます。

Pro*FORTRAN

IBM XL Fortran v. 10.1 for AIX

Pro*C/C++、Oracle Call Interface、Oracle C++ Call Interface、Oracle XML Developer's Kit(XDK)、GNU Compiler Collection(GCC)

注意: C/C++コンパイラをインストールしない場合でも、インストールにはC/C++ランタイム・ファイル・セットが必要です(この表の「オペレーティング・システムのファイル・セット」を参照)。

Pro*COBOL

  • AcuCobol 6.1

  • Micro Focus Server Express 5.0(32-bitと64-bitの両方)

Oracle Messaging Gateway

IBM WebSphere MQ V6.0、クライアントおよびサーバー:

mqm.Client.Bnd
mqm.Server.Bnd

システムがこれらの要件を満たしていることを確認するには、次の手順を実行します。

  1. 次のコマンドを入力して、インストールされているAIXのバージョンを確認します。

    # oslevel -r
    

    オペレーティング・システムのバージョンがAIX 5.3未満の場合は、オペレーティング・システムをこのメンテナンス・レベル以上にアップグレードします。AIX 5Lバージョン5.3のメンテナンス・パッケージは、次のWebサイトから入手できます。

    http://www-912.ibm.com/eserver/support/fixes/

  2. 次のコマンドを入力して、必要なファイル・セットがインストールおよびコミットされているかどうかを確認します。

    # lslpp -l bos.adt.base bos.adt.lib bos.adt.libm bos.perf.perfstat \
     bos.perf.libperfstat bos.perf.proctools rsct.basic.rte
    

    ファイル・セットがインストールおよびコミットされていない場合は、インストールします。ファイル・セットのインストールについては、ご使用のオペレーティング・システムまたはソフトウェアのマニュアルを参照してください。

次のパッチがシステムにインストールされていることを確認します。表の後に、これらの要件を確認する手順を示します。


注意:

リストされているパッチのバージョンより新しいパッチがシステムにインストールされている場合があります。リストされているパッチがインストールされていない場合、リストされているパッチ・バージョンをインストールする前に、リストされているパッチを含む新しいパッチがインストールされているかどうかを確認します。

表2-2 AIX APARおよびその他のオペレーティング・システム修正

インストール・タイプまたは製品 要件

すべてのAIX 5L v5.3のインストール

すべてのAIX 5L v. 5.3インストールのAIX 5L v. 5.3 ML06用のAuthorized Problem Analysis Reports(APAR)と、次のAIX修正


IY89080
IY92037
IY94343
IZ01060またはIZ01060のefix
IZ03260またはIZ03260のefix

Oracle JDBC/OCIドライバ

AIX 5L v5.3

注意: これらのAPARが必要となるのは、関連するJDKバージョンを使用する場合のみです。

JDK 1.4.2(64-bit)に必要なAPAR:

  • IY63533: JDK 1.4.2 64-bit SR1 caix64142-20040917

JDK 1.3.1.16(32-bit)に必要なAPAR:

  • IY58350: SDK 1.3.1 32-Bit SR7P: CA131IFX-20040721A

  • IY65305: JAVA142 32-bit PTF: CA142IFX-20041203

RAC

AIX 5L v5.3

HACMPを使用する場合は、さらに次の要件があります。

  • AIX: AIX 5.3 TL06以上(bosrte.lvmが5.3.0.60以上である必要があります)

  • HACMP: 次のバージョンがインストールされている必要があります。

    * HACMP v. 5.3とPTFS(APAR:IY94307)およびcluster.es.clvmのインストール

    * HACMP APAR: IZ01809

  • RSCT(AIXコンポーネント): RSCT(rsct.basic.rte)バージョン2.4.7.3

GPFS v3.1.0.10に必要なAPAR:

なし


システムがこれらの要件を満たしていることを確認するには、次の手順を実行します。

  1. 次のコマンドを入力して、必要なAPARがインストールされているかどうかを確認します。

    # instfix -i -k "IY92312 IY97156 IY76252 IY94335 IY94334"
    

    APARがインストールされていない場合は、次のWebサイトからダウンロードして、インストールします。

    http://www-03.ibm.com/servers/eserver/support/pseries/aixfixes.html
    
  2. 次のコマンドを入力して、PTFがインストールされているかどうかを確認します。

    # lslpp -l -B U489726 U485561 ...
    

    PTFがインストールされていない場合は、次のWebサイトからダウンロードして、インストールします。

    http://www-03.ibm.com/servers/eserver/support/pseries/aixfixes.html
    
  3. WebSphere MQ用のCSDが必要な場合は、ダウンロードおよびインストール情報について、次のWebサイトを参照してください。

    http://www-306.ibm.com/software/
    

2.8 AIXシステム環境のチューニング

すべてのクラスタ・ノードで、次のシステム・チューニングおよび構成を実行します。


注意:

この項には、パラメータおよびシェル制限の推奨値のみを示します。本番データベース・システムでは、これらの値を調整してシステムのパフォーマンスを最適化することをお薦めします。カーネル・パラメータの調整については、ご使用のオペレーティング・システムのマニュアルを参照してください。

2.8.1 Virtual Memory Manager(VMM)のチューニング

vmoコマンドを使用して、仮想メモリーで次の値を使用するようにチューニングすることをお薦めします。

表2-3 Virtual Memory Managerの推奨値

パラメータ

minperm%

3(デフォルトは20)

maxperm%

90(デフォルトは80)

maxclient% = 90

90(デフォルトは80)

lru_file_repage

0(デフォルトは1)

strict_maxclient

1(デフォルトは1)

strict_maxperm

0(デフォルトは0)


次に例を示します。

vmo -p -o minperm%=3
vmo -p -o maxperm%=90
vmo -p -o maxclient%=90
vmo -p -o lru_file_repage=0
vmo -p -o strict_maxclient=1
vmo -p -o strict_maxperm=0

これらの変更を有効にするには、システムを再起動する必要があります。

2.8.2 システムのブロック・サイズ割当ての追加

ARG/ENVリストへの領域割当てを128に増やすことをお薦めします。サイズは4Kブロックの数で指定します。

次に例を示します。

chdev -l sys0 -a ncargs='128'

2.8.3 シェル制限の構成

ソフトウェアのパフォーマンスを改善するには、次のシェル制限を増やす必要があります。

シェル制限 limits.conf内の項目 ハード制限
オープン・ファイル記述子の最大数 nofile 65536
ユーザー1人当たりに使用可能なプロセスの最大数 maxuproc 16384

シェル制限を増やすには、次の手順を実行します。

  1. /etc/security/limitsファイルに、次の行を追加します。

    default:
            fsize = -1
            core = -1
            cpu = -1
            data = 512000
            rss = 512000
            stack = 512000
            nofiles = 2000
    
  2. 次のコマンドを入力して、Oracleソフトウェア・ユーザーに許可されている現在の最大プロセス数をリストします。

    /etc/lsattr -E -l sys0 -a maxuproc
    

    必要に応じて、次のコマンドを使用してmaxuproc設定を変更します。

    /etc/chdev -l sys0 -a maxuproc = 16384
    
  3. クラスタの他のすべてのノードで、この手順を繰り返します。

2.8.4 ユーザー・プロセス・パラメータの構成

各ユーザーに許可されているプロセスの最大数が2048以上であることを確認します。


注意:

本番システムの場合、この値は、システムで実行している各データベースのPROCESSESおよびPARALLEL_MAX_SERVERS初期化パラメータの合計に128を加算した値以上である必要があります。

  1. 次のコマンドを入力します。

    # smit chgsys
    
  2. 「Maximum number of PROCESSES allowed for each user」に表示される値が2048以上であることを確認します。

    必要に応じて、既存の値を編集します。

  3. 変更が完了したら、[F10]を押して終了します。

2.8.5 ネットワーク・チューニング・パラメータの構成

次の表に示すネットワーク・チューニング・パラメータが、表に示されている値以上に設定されていることを確認します。表の後に、値を確認して設定する手順を示します。

ネットワーク・チューニング・パラメータ 推奨値
ipqmaxlen 512
rfc1323 1
sb_max 2*65536
tcp_recvspace 65536
tcp_sendspace 65536
udp_recvspace 655360

注意: このパラメータの推奨値は、udp_sendspaceパラメータの値の10倍です。これは、sb_maxパラメータの値より小さい値である必要があります。

udp_sendspace 65536

注意: この値は、デフォルトのデータベース・インストールに適しています。本番データベースの場合、このパラメータの最小値は、データベースのDB_BLOCK_SIZE初期化パラメータの値をDB_MULTIBLOCK_READ_COUNT初期化パラメータの値で乗算したものに4KBを加算した値です。

DB_BLOCK_SIZE×DB_MULTIBLOCK_READ_COUNT)+ 4KB


これらのパラメータに指定されている現行の値を表示し、必要に応じて変更するには、次の手順を実行します。

  1. 次のコマンドを入力して、ネットワーク・チューニング・パラメータの現行の値を確認します。

    # no -a │ more
    
  2. パラメータの値を変更する必要がある場合は、次のコマンドを入力し、システムが互換性モードで実行されているかどうかを確認ます。

    # lsattr -E -l sys0 -a pre520tune
    

    システムが互換性モードで実行されている場合、出力は次のようになり、pre520tune属性の値がenableであることが示されます。

    pre520tune enable Pre-520 tuning compatibility mode True
    
  3. システムが互換性モードで実行されている場合は、次の手順に従って、パラメータの値を変更します。

    1. 次のコマンドを入力して、各パラメータの値を変更します。

      # no -o parameter_name=value
      

      次に例を示します。

      # no -o udp_recvspace=655360
      
    2. 前述の手順で変更した各パラメータの/etc/rc.netファイルに、次のエントリを追加します。

      if [ -f /usr/sbin/no ] ; then
         /usr/sbin/no -o udp_sendspace=65536
         /usr/sbin/no -o udp_recvspace=655360
         /usr/sbin/no -o tcp_sendspace=65536
         /usr/sbin/no -o tcp_recvspace=65536
         /usr/sbin/no -o rfc1323=1
         /usr/sbin/no -o sb_max=2*655360
         /usr/sbin/no -o ipqmaxlen=512
      fi
      

      これらの行を/etc/rc.netファイルに追加すると、システムの再起動時に値が保持されます。

  4. システムが互換性モードで実行されていない場合は、次のコマンドを入力して、パラメータの値を変更します。

    • ipqmaxlenパラメータの場合:

      no -r -o ipqmaxlen=512
      
    • その他のパラメータの場合:

      no -p -o parameter=value
      

    注意:

    ipqmaxlenパラメータを変更した場合は、システムを再起動する必要があります。

    これらのコマンドによって/etc/tunables/nextbootファイルが変更され、システムの再起動時に属性の値が保持されるようになります。

2.9 すべてのクラスタ・ノードでのSSHの構成

Oracle Clusterwareをインストールして使用する前に、Oracle Clusterwareのインストールに使用する予定のユーザー用のすべてのノードでセキュア・シェル(SSH)を構成する必要があります。この後の例では、Oracleソフトウェア所有者をcrsユーザーとしています。

Oracle RACまたはその他のOracleソフトウェアをインストールする場合は、ソフトウェアのインストールに使用する予定の他のユーザー(oracleasmまたはその他のソフトウェア所有者)用にSSHを構成する必要があります。そして、パス・フレーズを使用しないか、またはインストールの実行前にインストール・ユーザーがSSH鍵をメモリーにロードすることを確認する必要があります。この手順を実行する場合、例はSSHを構成するユーザー名で置き換えてください。

OUIは、インストール中にsshおよびscpコマンドを使用して、他のクラスタ・ノードに対してリモート・コマンドを実行し、そのクラスタ・ノードにファイルをコピーします。SSHを使用できない場合、OUIでは、rshコマンドとrcpコマンドの使用に切り替えます。インストール中のセキュリティを強化するためにSSHを使用するには、インストール中に使用するsshコマンドおよびscpコマンドでパスワードが要求されないように構成しておく必要があります。この項のSSH構成手順では、SSH1を使用してSSHの構成方法について説明します。

この項の内容は次のとおりです。

2.9.1 システム上の既存のSSH構成の確認

次のコマンドを入力して、SSHが実行されているかどうかを確認します。

$ ps -ef │ grep sshd

SSHが実行されている場合、このコマンドの結果は1つ以上のプロセスID番号になります。インストールに使用するソフトウェア所有者(crsoracle)のホーム・ディレクトリで、コマンドls -alを使用して、.sshディレクトリを所有し、そのディレクトリへの書込みが可能であるのはそのユーザーのみであることを確認します。

SSHプロトコルには、RSA鍵またはDSA鍵のいずれかが必要です。RSAはSSH 1.5プロトコルで使用され、DSAはSSH 2.0プロトコルのデフォルトです。OpenSSHの場合は、RSAまたはDSAのいずれかを使用できます。この後の説明ではSSH1を想定しています。SSH2をインストールしており、SSH1を使用できない場合は、SSHディストリビュージョンのドキュメントを参照して、SSH1互換を構成するか、またはDSAを使用してSSH2を構成します。

2.9.2 SSHファイル・セットのダウンロードおよびインストール

  1. AIXのボーナス・パッケージ・インストール・ディスクにあるOpenSSLパッケージをインストールするか、または次のURLからOpenSSLをダウンロードします。

    http://www-306.ibm.com/software/

    このサイトにアクセスするには、IBM IDまたはPartner World IDが必要です。

  2. AIXのBaseインストール・メディアから、次のファイル・セットをインストールします。

    • openssh.base

    • openssh.license

    • openssh.msg.en_US

    • openssh.man.en_US

    次のURLからファイル・セットを入手することもできます。

    http://sourceforge.net/projects/openssh-aix

  3. 次のコマンドを実行して、sshdデーモンを起動します。

    /usr/bin/startsrc -s sshd
    

    注意:

    OpenSSHがインストールされたAIXサーバーにGSAもインストールされている場合、SSHデーモンは起動しません。これは既知の問題です。

    この問題を解決するには、システムにsshdユーザーが存在しているかどうかを確認します。存在しない場合は、次のコマンドを使用して作成します。

    mkgroup sshd
    mkuser -a pgrp=sshd login=false home=/var/empty gecos="OpenSSH\
    privilege separation" account_locked=true sshd
    

2.9.3 クラスタ・メンバー・ノードでのSSHの構成

SSHを構成するには、最初に各クラスタ・ノードにRSA鍵およびDSA鍵を作成してから、すべてのクラスタ・ノード・メンバーで生成されたすべての鍵を各ノードで同じ認証鍵ファイルにコピーする必要があります。SSHファイルを読み取ることができのは、rootおよびソフトウェア・インストール・ユーザー(oraclecrsasm)のみである必要があります。これは、SSHが他のユーザーによってアクセス可能であると、SSHは秘密鍵を無視するためです。これを行うときは、SSHエージェントを起動して鍵をメモリーにロードします。この後の例では、RSA鍵が使用されています。

インストールに使用するOracleソフトウェアのインストール所有者ごとにSSHを構成する必要があります。

SSHを構成するには、次の手順を実行します。

2.9.3.1 各ノードでの.SSHおよびRSA鍵の作成

各ノードに対し、次の手順を実行します。

  1. ソフトウェア所有者(この例ではcrsユーザー)としてログインします。

  2. コマンドidおよびid oracleを入力して、Oracleユーザーとしてログインしていること、およびユーザーIDがOracleユーザーに割り当てたユーザーIDと一致していることを確認します。Oracleユーザー・グループおよびユーザーと、端末ウィンドウ・プロセスのグループIDおよびユーザーIDが同じであることを確認します。次に例を示します。

    $ id
    uid=502(crs) gid=501(oinstall) groups=501(oinstall),502(crs)
    $ id crs
    uid=502(crs) gid=501(oinstall) groups=501(oinstall),502(crs)
    
  3. 必要に応じて、crsユーザーのホーム・ディレクトリに.sshディレクトリを作成して適切な権限を設定し、読取り/書込み権限を持っているのはoracleユーザーのみであることを確認します。

    $ mkdir ~/.ssh
    $ chmod 700 ~/.ssh
    
  4. 次のコマンドを入力します。

    $ /usr/bin/ssh-keygen -t rsa
    

    プロンプトで、次の手順を実行します。

    • 鍵ファイルには、デフォルトの位置を使用します([Enter]を押します)。

    • このインストール・ユーザーに対して一意のパス・フレーズを入力して確認します。

    このコマンドによって、RSA公開鍵が~/.ssh/id_rsa.pubファイルに、秘密鍵が~/.ssh/id_rsaファイルに書き込まれます。

    秘密鍵は、Oracleソフトウェア・インストールの実行を許可されていない他のユーザーには配布しないでください。

  5. クラスタ・メンバーを作成する各ノードで、手順1から手順4を実行します。

2.9.3.2 共通のauthorized_keysファイルへのすべての鍵の追加

次の手順を実行します。

  1. ローカル・ノードで、Oracle Clusterware所有者のホーム・ディレクトリ(通常、crsまたはoracle)にある.sshディレクトリに移動します。

    次に、次のコマンドを使用してRSA鍵をauthorized_keysファイルに追加します。

    $ cat id_rsa.pub >> authorized_keys
    $ ls
    

    .sshディレクトリに、作成したid_rsa.pub鍵とauthorized_keysファイルが表示されるはずです。

  2. ローカル・ノードで、SCP(セキュア・コピー)またはSFTP(セキュアFTP)を使用して、authorized_keysファイルをリモート・ノードのoracleユーザーの.sshディレクトリにコピーします。次の例では、node2というノードでSCPを使用します。SCPはOracle Clusterwareの所有者はcrsです。crsユーザーのパスは/home/crsです。

    [crs@node1 .ssh]$ scp authorized_keys node2:/home/crs/.ssh/
    

    RSA鍵を受け入れるように求められます。Yesと入力して、コピー先のノードがknown_hostsファイルに追加されていることを確認します。

    プロンプトに従って、crsユーザーのパスワードを入力します。パスワードは、クラスタ内のすべてのノードで同じにする必要があります。authorized_keysファイルがリモート・ノードにコピーされます。

    出力結果は、次のようになります。xxxは有効なIPアドレスの一部を示しています。

    [crs@node1 .ssh]$ scp authorized_keys node2:/home/crs/.ssh/
    The authenticity of host 'node2 (xxx.xxx.173.152) can't be established.
    RSA key fingerprint is 7e:60:60:ae:40:40:d1:a6:f7:4e:zz:me:a7:48:ae:f6:7e.
    Are you sure you want to continue connecting (yes/no)? yes
    Warning: Permanently added 'node1,xxx.xxx.173.152' (RSA) to the list
    of known hosts
    crs@node2's password:
    authorized_keys       100%             828             7.5MB/s      00:00
    
  3. SSHを使用して、authorized_keysファイルをコピーしたノードにログインします。このとき、作成したパス・フレーズを使用します。.sshディレクトリに移動し、catコマンドを使用して、2番目のノードのRSA鍵をauthorized_keysファイルに追加します。

    [crs@node1 .ssh]$ ssh node2
    The authenticity of host node2 (xxx.xxx.100.102) can't be established. RSA key fingerprint is z3:z3:33:z3:z3:33:zz:76:z3:z3:z3.
    Are you sure you want to continue connecting? (yes/no)? yes
    Enter passphrase for key '/home/oracle/.ssh/id_rsa':
    [crs@node2 crs]$ cd .ssh
    [crs@node2 ssh]$ cat id_rsa.pub  >> authorized_keys
    

    各ノードからクラスタ内の他の各メンバー・ノードに対して手順2および3を繰り返します。

    クラスタ・ノード・メンバーにする最後のノードのauthorized_keysファイルに各クラスタ・ノード・メンバーから鍵を追加した後、scpを使用して、すべてのノードの鍵を含むauthorized_keysファイルを各クラスタ・ノード・メンバーに再度コピーし、他のノードの既存のバージョンを上書きします。

    authorized_keysファイルにすべてのノードが含まれていることを確認する場合は、more authorized_keysコマンドを入力して、各メンバー・ノードのRSA鍵が存在することを確認します。ファイルには、鍵のタイプ(ssh-rsa)、鍵、ユーザーおよびサーバーの順で示されます。次に例を示します。

    ssh-rsa AAAABBBB . . . = crs@node1
    

    注意:

    各ノードのcrsユーザーの/.ssh/authorized_keysファイルには、すべてのクラスタ・ノードで生成した/.ssh/id_rsa.pubファイルのすべての内容が含まれている必要があります。

2.9.4 クラスタ・メンバー・ノードでのSSHユーザー等価関係の有効化

すべての鍵が含まれているauthorized_keysファイルをクラスタ内の各ノードにコピーしたら、示されている順に次の手順を実行します。この例では、Oracle Clusterwareソフトウェア所有者はcrsです。

  1. OUIを実行するシステムにcrsユーザーとしてログインします。

  2. 次のコマンド構文を使用して、ローカル・ノードから各ノードにSSHを実行します(ローカル・ノードからローカル・ノード自体へのSSHの実行、各ノードから他の各ノードへのSSHの実行を含みます)。hostname1hostname2などは、クラスタ内のノードのパブリック・ホスト名(別名および完全修飾されたドメイン名)です。

    [crs@nodename]$ ssh hostname1 date
    [crs@nodename]$ ssh hostname2 date
        .
        .
        .
    

    次に例を示します。

    [crs@node1 crs]$ ssh node1 date
    The authenticity of host 'node1 (xxx.xxx.100.101)' can't be established.
    RSA key fingerprint is 7z:60:60:zz:48:48:z1:a0:f7:4e.
    Are you sure you want to continue connecting (yes/no)? yes
    Warning: Permanently added 'node1,xxx.xxx.100.101' (RSA) to the list of
    known hosts.
    Enter passphrase for key '/home/crs/.ssh/id_rsa':
    Mon Dec 4 11:08:13 PST 2006
    [crs@node1 crs]$ ssh node1.example.com date
    The authenticity of host 'node1.example.com (xxx.xxx.100.101)' can't be
    established.
    RSA key fingerprint is 7z:60:60:zz:48:48:z1:a0:f7:4e.
    Are you sure you want to continue connecting (yes/no)? yes
    Warning: Permanently added 'node1.example.com,xxx.xxx.100.101' (RSA) to the
    list of known hosts.
    Enter passphrase for key '/home/crs/.ssh/id_rsa':
    Mon Dec 4 11:08:13 PST 2006
    [crs@node1 crs]$ ssh node2 date
    Enter passphrase for key '/home/crs/.ssh/id_rsa':
    Mon Dec 4 11:08:35 PST 2006
    .
    .
    .
    

    この処理の終了時に、各メンバー・ノードのパブリック・ホスト名を、他のすべてのクラスタ・メンバー・ノードのknown_hostsファイルに登録する必要があります。

    リモート・クライアントを使用してローカル・ノードに接続しているときに、xauthデータがなく、X11転送に偽の認証データを使用することを示す警告メッセージが表示された場合は、認証鍵ファイルは適切に構成されているが、ssh構成でX11転送が有効になっていることを示しています。この問題を解決するには、「表示およびX11転送の構成の設定」に進みます。

  3. 各クラスタ・ノード・メンバーに対して手順2を繰り返します。

  4. 各ノードで、次のコマンドを入力してSSHエージェントを起動し、SSH鍵をメモリーにロードします。

    $ exec /usr/bin/ssh-agent $SHELL
    $ /usr/bin/ssh-add
    

    プロンプトで、生成した各鍵に対するパス・フレーズを入力します。

    次に例を示します。

    [crs@node1 .ssh]$ exec /usr/bin/ssh-agent $SHELL
    [crs@node1 .ssh]$ ssh-add
    Enter passphrase for /home/crs/.ssh/id_rsa
    Identity added: /home/crs/.ssh/id_rsa (/home/crs/.ssh/id_rsa)
    

    これらのコマンドによって各ノードでSSHエージェントが起動され、RSA鍵がメモリーにロードされるため、SSHコマンドの発行時にパス・フレーズを使用するように求められなくなります。

SSHが適切に構成されていれば、パスワードまたはパス・フレーズを求めるプロンプトは表示されることなくsshscpコマンドを使用できます。次に例を示します。

[crs@node1 ~]$ ssh node2 date
Mon Feb 26 23:34:42 UTC 2007
[crs@node1 ~]$ ssh node1 date
Mon Feb 26 23:34:48 UTC 2007
[crs@node1 ~]$ ssh node2

パスワードまたはパス・フレーズを求めるノードがある場合、そのノードの~/.ssh/authorized_keysファイルに適切な公開鍵が含まれていること、および同じグループ・メンバーシップおよびIDを持つOracleソフトウェア所有者が作成されていることを確認します。


注意:

このセッションからOUIを実行するか、またはSSHパス・フレーズをメモする必要があることに注意してください。別の端末セッションからOUIを起動するには、手順4を繰り返す必要があります。

2.9.5 表示およびX11転送の構成の設定

  • リモート端末で作業を行っていて、そのローカル・ノードのみが表示されている場合(通常は、この状態になります)、次の構文を使用して、環境変数DISPLAYを設定します。

    Bourne、KornおよびBashシェル:

    $ export DISPLAY=hostname:0
    

    Cシェル:

    $ setenv DISPLAY hostname:0
    

    たとえば、Bashシェルを使用していて、ホスト名がnode1の場合は、次のコマンドを入力します。

    $ export DISPLAY=node1:0
    
  • X11転送によってインストールが失敗しないように、次の手順に従って、Oracleソフトウェア所有者ユーザー用にユーザー・レベルのSSHクライアント構成ファイルを作成します。

    1. テキスト・エディタを使用して、ソフトウェア・インストール所有者の~/.ssh/configファイルを編集または作成します。

    2. ForwardX11属性がnoに設定されていることを確認します。次に例を示します。

      Host *
            ForwardX11 no
      

2.9.6 Oracle Clusterwareのインストール中にsttyコマンドによって発生するエラーの防止

Oracle Clusterwareのインストール中、OUIは、SSHを使用してコマンドを実行したり、他のノードにファイルをコピーします。システム上の隠しファイル(.cshrcなど)にsttyコマンドが含まれていると、インストール中にMakeファイルやその他のインストールに関するエラーが発生します。

この問題を防止するには、すべてのSTDERR出力が停止されるように、Oracleインストール所有者ユーザーのホーム・ディレクトリにあるこれらのファイルを変更する必要があります。次に例を示します。

  • Bourne、BashまたはKornシェル:

    if [ -t 0 ]; then
       stty intr ^C
    fi
    
  • Cシェル:

    test -t 0
    if ($status == 0) then
       stty intr ^C
    endif
    

    注意:

    SSHを使用できない場合、インストーラは、sshおよびscpコマンドのかわりにrshおよびrcpを使用します。

    リモート・シェルによってロードされる隠しファイルにsttyコマンドが含まれている場合も、エラーが発生し、インストールが停止されます。


2.10 ソフトウェア所有者ユーザー環境の構成

Oracle Clusterwareインストールを所有するユーザー・アカウント(oracleまたはcrs)からOUIを起動します。ただし、OUIを起動する前に、Oracle Clusterwareインストールを実行するユーザーの環境を構成する必要があります。また、必要に応じて、他の必要なOracleソフトウェア所有者を作成します。

2.10.1 Oracleソフトウェア所有者の環境の構成手順

Oracleソフトウェア所有者の環境を設定するには、ソフトウェア所有者(crsoracleasm)ごとに次の手順を実行します。

  1. X端末(xterm)などの端末セッションを新規に開始します。

  2. 次のコマンドを入力して、このシステムでX Windowアプリケーションが表示可能であることを確認します。

    $ xhost + hostname
    

    hostnameは、ローカル・ホストの名前です。

  3. ソフトウェアをインストールするシステムにまだログインしていない場合は、ソフトウェア所有者ユーザーとしてそのシステムにログインします。

  4. そのユーザーでログインしていない場合は、構成するソフトウェア所有者に切り替えます。たとえば、crsユーザーの場合は次のようになります。

    $ su - crs
    
  5. 次のコマンドを入力して、ユーザーのデフォルトのシェルを確認します。

    $ echo $SHELL
    
  6. テキスト・エディタでユーザーのシェル起動ファイルを開きます。

    • Bashシェル(bash):

      $ vi .bash_profile
      
    • Bourneシェル(sh)またはKornシェル(ksh):

      $ vi .profile
      
    • Cシェル(cshまたはtcsh):

      % vi .login
      
  7. 次のように行を入力または編集して、デフォルトのファイル・モード作成マスクの値に022を指定します。

    umask 022
    
  8. 環境変数ORACLE_SIDORACLE_HOMEまたはORACLE_BASEがファイルに設定されている場合は、そのファイルから該当する行を削除します。

  9. ファイルを保存して、テキスト・エディタを終了します。

  10. シェル起動スクリプトを実行するには、次のいずれかのコマンドを入力します。

    • Bashシェル:

      $ . ./.bash_profile
      
    • Bourne、BashまたはKornシェル:

      $ . ./.profile
      
    • Cシェル:

      % source ./.login
      
  11. ローカル・システムにソフトウェアをインストールしていない場合は、次のコマンドを入力してXアプリケーションをローカル・システムに表示します。

    • Bourne、BashまたはKornシェル:

      $ DISPLAY=local_host:0.0 ; export DISPLAY
      
    • Cシェル:

      % setenv DISPLAY local_host:0.0
      

    この例で、local_hostは、OUIを表示するために使用するシステム(ご使用のワークステーションまたはPC)のホスト名またはIPアドレスです。

  12. /tmpディレクトリの空きディスク領域が400MB未満である場合は、空き領域が400MB以上のファイル・システムを選択し、環境変数TEMPおよびTMPDIRを設定してこのファイル・システムの一時ディレクトリを指定します。


    注意:

    Oracle RACのインストール用の一時ファイル・ディレクトリ(通常、/tmp)の場所として、共有ファイル・システムは使用できません。共有ファイル・システムに/tmpを配置すると、インストールは失敗します。

    1. df -kコマンドを使用して、十分な空き領域を持つ適切なファイル・システムを選択します。

    2. 必要に応じて、次のコマンドを入力し、選択したファイル・システムに一時ディレクトリを作成して、そのディレクトリに適切な権限を設定します。

      $ su - root
      # mkdir /mount_point/tmp
      # chmod 775 /mount_point/tmp
      # exit
      
    3. 次のコマンドを入力して、環境変数TEMPおよびTMPDIRを設定します。

      • Bourne、BashまたはKornシェル:

        $ TEMP=/mount_point/tmp
        $ TMPDIR=/mount_point/tmp
        $ export TEMP TMPDIR
        
      • Cシェル:

        % setenv TEMP /mount_point/tmp
        % setenv TMPDIR /mount_point/tmp
        
  13. 環境が正しく設定されていることを確認するには、次のコマンドを入力します。

    $ umask
    $ env │ more
    

    umaskコマンドによって値22022または0022が表示されること、およびこの項で設定した環境変数に正しい値が指定されていることを確認します。

2.11 rootpre.shスクリプトの実行


注意:

このシステムに、より新しいリリースのOracleデータベース・ソフトウェアをすでにインストールしている場合は、rootpre.shスクリプトを実行しないでください。

rootpre.shスクリプトは、次の手順で実行します。

  1. ユーザーをrootに切り替えます。

    $ su - root
    
  2. インストールの場所に応じて、次の手順のいずれかを実行します。

    インストール・ファイルがディスクにある場合は、次のコマンドを入力します。directory_pathは、ディスク・マウント・ポイント・ディレクトリまたはDVDのデータベース・ディレクトリのパスです。

    # /directory_path/rootpre.sh
    

    インストール・ファイルがハード・ディスクにある場合は、ディレクトリをDisk1ディレクトリに変更し、次のコマンドを入力します。

    # ./rootpre.sh
    
  3. rootアカウントを終了します。

    # exit
    
  4. クラスタのすべてのノードで手順1から3を繰り返します。


    注意:

    このシステムに、より新しいリリースのOracleデータベース・ソフトウェアをすでにインストールしている場合は、rootpre.shスクリプトを実行しないでください。

2.12 Oracle Clusterwareホーム・ディレクトリの作成要件

インストール中に、Oracle Clusterwareバイナリを格納するホーム・ディレクトリへのパスを指定するように求められます。指定するディレクトリ・パスが次の要件を満たすことを確認します。

Oracle Clusterwareのみをインストールする場合は、Oracle Optimal Flexible Architecture(OFA)に準拠したパスを作成することをお薦めします。これによって、Oracle Universal Installer(OUI)がインストール中にそのディレクトリを選択できるようになります。OUIがパスをOracleソフトウェア・パスとして認識するには、u0[1-9]/appという形式にする必要があります。

OUIでOFA準拠のパスが検出されると、Oracle ClusterwareおよびOracle Central Inventory (oraInventory)ディレクトリが作成されます。

Oracle Clusterwareのパスを作成します。次に例を示します。

# mkdir -p  /u01/app
# chown -R crs:oinstall /u01

または、後でOracle Databaseソフトウェアをインストールする場合は、Oracleベース・パスを作成します。OUIによって、Oracleベース・パスから導出された、Oracle ClusterwareのOFA準拠のパスが自動的に作成されます。OracleベースのOptimal Flexible Architectureパスは、/u01/app/userです。userは、Oracle Databaseソフトウェアを所有するユーザー・アカウントの名前です。次に例を示します。

# mkdir -p  /u01/app/oracle
# chown -R oracle:oinstall /u01/app/oracle
# chmod -R 775 /u01/app/oracle

注意:

Oracle Clusterwareホームを手動で作成する場合は、OracleベースにOracle Clusterwareホームを作成しないでください。Oracleベース・ディレクトリにOracle Clusterwareインストールを作成すると、その後のOracleインストールが失敗します。


参照:

追加のOracleソフトウェア・インストールのグループ、ユーザーおよびソフトウェア・ホームの作成については、「標準構成のオペレーティング・システム・グループおよびユーザーの作成」および「役割に応じたカスタム・グループおよびユーザーの作成」を参照してください。

2.13 クラスタ検証ユーティリティの理解と使用方法

クラスタ検証ユーティリティ(CVU)は、システムの検証を実行するツールです。このマニュアルでは、ご使用のシステムがOracle ClusterwareおよびOracle RACをインストールするために適切に構成されているかを確認するのに役に立つクラスタ検証ユーティリティ・コマンドについて説明します。

この項の内容は次のとおりです。

2.13.1 クラスタ検証ユーティリティ・コマンドの入力

クラスタ検証ユーティリティには2つのスクリプトが提供されます。runcluvfy.shはインストール前に使用するように設計されており、cluvfyはパスCRS_home/binにあります。runcluvfy.shスクリプトには、Oracle ClusterwareまたはOracle Databaseをインストールする前にスクリプトを実行できるようにする一時変数の定義が含まれます。Oracle Clusterwareをインストールした後、cluvfyコマンドを使用して、前提条件を確認し、他のシステムの準備状況の検証を実行します。

Oracleソフトウェアをインストールする前にクラスタ検証ユーティリティ・コマンドを入力するには、次の構文を使用し、ディレクトリを変更してruncluvfy.shを起動します。

cd /mountpoint
./runcluvfy.sh options

前述の例のmountpoint変数はインストール・メディアのマウント・ポイント・パスで、options変数はユーザーが選択するクラスタ検証ユーティリティ・コマンド・オプションです。次に例を示します。

$ cd /mnt/dvdrom
$ ./runcluvfy.sh comp nodereach -n node1,node2 -verbose

デフォルトでは、クラスタ検証ユーティリティ・コマンドを入力すると、テストのサマリーが出力されます。インストール前の手順では、クラスタ検証ユーティリティ・コマンドに-verbose引数を使用して詳細を出力することをお薦めします。-verbose引数を使用すると、個々の検証結果の詳細が出力されます。可能な場合は、各ノードの結果が表形式で表示されます。

2.13.2 CVUを使用したインストールの前提条件の完了確認

クラスタ検証ユーティリティを使用すると、インストールのためのシステム前提条件で、すでに完了しているものを確認できます。既存のOracleソフトウェアがインストールされているシステムにOracle 11gリリース1(11.1)をインストールする場合は、このオプションを使用します。このオプションを使用する場合は、次の点に注意してください。

  • クラスタ検証ユーティリティを使用するための前提条件を完了している必要があります。特に、クラスタ全体の状態を確認する前に、クラスタ内のすべてのノード間でSSHを構成する必要があります。

  • クラスタ検証ユーティリティでは完了する必要があるインストール前の手順を検出することはできますが、インストール前の作業は実行できません。

次の構文を使用して、完了しているインストール前の手順と、実行する必要があるインストール前の手順を確認します。

$ ./runcluvfy.sh stage -pre crsinst -n node_list

前述の構文例のnode_list変数は、クラスタ内のノードのカンマ区切りリストです。

たとえば、クラスタが、マウント・ポイント/mnt/dvdrom/とノードnode1node2およびnode3で構成されている場合は、次のコマンドを入力します。

$ cd /mnt/dvdrom/
$ ./runcluvfy.sh stage -pre crsinst -n node1,node2,node3

クラスタ検証ユーティリティ・レポートを確認し、必要に応じて、インストール前の追加の手順を実行します。

2.13.3 クラスタ検証ユーティリティのヘルプの使用

cluvfyコマンドのヘルプは状況依存のヘルプで、入力したコマンドラインの引数に応じて正しい構文の使用方法を示します。

無効なクラスタ検証ユーティリティ・コマンドを入力すると、クラスタ検証ユーティリティによって、コマンドの正しい使用方法が表示されます。たとえば、runcluvfy.sh stage -pre dbinstと入力すると、dbinstステージ・オプションを使用して、データベースのインストール前検証を実行するための正しい構文が表示されます。状況依存ヘルプのコマンドは、次のとおりです。

  • cluvfy -help: クラスタ検証ユーティリティ・コマンドの詳細な説明が表示されます。

  • cluvfy comp -list: 検証対象のコンポーネントのリストとそのコンポーネントの検証方法に関する簡単な説明が表示されます。

  • cluvfy comp -help: 有効な各コンポーネント検証の詳細な構文が表示されます。

  • cluvfy stage -list: 有効なステージのリストが表示されます。

  • cluvfy stage -help: 有効な各ステージ検証の詳細な構文が表示されます。

2.13.4 Oracle Database 10gリリース1またはリリース2でのクラスタ検証ユーティリティの使用

Oracle Database 11g リリース1(11.1)メディアのクラスタ検証ユーティリティを使用して、Oracle Database 10gリリース1(10.1)以上のインストールのシステム要件を確認します。クラスタ検証ユーティリティを使用して10.2のインストールを検証するには、コマンド・フラグ-r 10gR2をクラスタ検証ユーティリティの標準のシステム検証コマンドに追加します。

たとえば、メディア・マウント・ポイントが/mnt/dvdrom、クラスタ・ノードがnode1node2およびnode3で構成されたシステムで、Cluster Ready Services 10.2のインストールの検証を実行するには、次のコマンドを実行します。

$ cd /mnt/dvdrom
$ ./runcluvfy.sh stage -pre crsinst -n node1,node2,node3 -r 10gR2

注意:

検証するリリースを指定しないと、クラスタ検証ユーティリティでは11g リリース1(11.1)の要件が検証されます。

2.13.5 詳細モードおよび「不明」出力

-verbose引数を使用してクラスタ検証ユーティリティを実行し、特定のノードに対するクラスタ検証ユーティリティ・コマンドの結果がUNKNOWNになる場合、その原因は、検証時に問題が検出されたかどうかをクラスタ検証ユーティリティで判断できないことにあります。結果が「不明」になる場合の、考えられる原因を次に示します。

  • ノードが停止している。

  • クラスタ検証ユーティリティで必要な実行可能ファイルがOracle Clusterwareホームの/binディレクトリまたはOracleホーム・ディレクトリで欠落している。

  • クラスタ検証ユーティリティを起動したユーザー・アカウントには、ノードでオペレーティング・システムの共通実行可能ファイルを実行する権限がない。

  • ノードで、オペレーティング・システム・パッチ、または必須パッケージが欠落している。

  • ノードの最大プロセス数または最大オープン・ファイル数を超えているか、共有メモリー、セマフォなど、IPCセグメントに問題が発生している。

2.14 CVUを使用したOracle Clusterwareのインストール準備状況の確認

クラスタ検証ユーティリティ(CVU)を使用して、Oracle Clusterwareをインストールするためのサーバーの準備状況を確認します。

インストール所有者ユーザー(oracleまたはcrs)として、SSH鍵がメモリーにロードされていることを確認した後、次の構文を使用してコマンドを入力し、クラスタがOracle Clusterwareインストール用に適切に構成されていることを検証します。

/mountpoint/runcluvfy.sh stage -pre crsinst -n node_list [-verbose]

前述の構文例のnode_list変数は、クラスタ内のノードのカンマ区切りリストです。このコマンドによって、ノード到達可能性、各ノードでのユーザーおよびグループの等価関係、ノード接続性、および基本的なシステム要件(カーネルのバージョンやパッケージを含む)が検証されます。

-verboseオプションは、クラスタ検証ユーティリティによるシステム検証の進捗状況および検証結果の詳細を表示する場合に選択します。

たとえば、node1およびnode2で構成され、マウント・ポイントが/mnt/dvdromの2ノードのクラスタでシステムの準備状況を検証して、クラスタ検証ユーティリティによる検証の進捗状況とサマリーを表示するには、次のコマンドを入力します。

$ /mnt/dvdrom/runcluvfy.sh stage -pre crsinst -n node1,node2 -verbose