この章では、Oracle Universal Installer(OUI)を起動してクラスタ用Oracle Grid Infrastructureをインストールする前に完了する必要があり、クラスタにOracle Real Application Clusters(Oracle RAC)をインストールする場合に完了する必要があるシステム構成作業について説明します。
この章の内容は次のとおりです。
注意: オペレーティング・システムをインストールする前に、最小限のハードウェア構成を満たしていることを確認してください。 |
この項では、サポートされているLinuxのディストリビューションのインストールについての情報を提供します。内容は次のとおりです。
Linuxの最小インストールを実行するには、最小インストール・オプションの1つ(「Package Group Selection」から「最小」オプションを選択するか、またはベース・パック以外のすべてのパッケージを選択解除して設定するカスタム・インストール)を選択します。このインストールでは、データベースのインストールに必要な多くのRPMが不足しているため、使用しているOracle LinuxリリースのRPMパッケージを使用して、必要なパッケージをインストールする必要があります。使用するパッケージは、LinuxリリースとUnbreakable Linux Network (ULN)によるサポート・ステータスによって異なります。
注意: Oracle Preinstallation RPMにより、X11クライアント・ライブラリはインストールされますが、X Window Systemのサーバー・パッケージはインストールされません。OUI、コンフィギュレーション・アシスタント、Oracle Enterprise ManagerなどのGraphical User Interfaceを使用するには、表示をX Window Systemサーバー・パッケージを使用するシステムに設定します。 |
削除されたパッケージのインストールに関するドキュメントについては、次のURLを参照してください。
https://support.oracle.com/CSP/main/article?cmd=show&type=NOT&id=728346.1
注意: Unbreakable Linux NetworkまたはRed Hatサポート・ネットワークのメンバーでなく、My Oracle Supportを使用している場合は、削除されたパッケージのインストールが記述された、スクリプトの構成手順を次のURLからダウンロードできます。
また、「削除されたLinuxパッケージ」で、手順を検索することもできます。 |
Oracle Grid Infrastructureのインストールには、SSHが必要です。Linuxディストリビューションの最小インストールには、OpenSSHが必要です。次のコマンドを入力して、SSHパッケージがインストールされていることを確認します。
# rpm -qa |grep ssh
SSHパッケージのリストが表示されない場合は、Linuxディストリビューションにパッケージをインストールします。
注意: Oracle Preinstallation RPMでは、X11クライアント・ライブラリがインストールされますが、X Window Systemサーバー・パッケージはインストールされません。OUI、コンフィギュレーション・アシスタント、Oracle Enterprise ManagerなどのGraphical User Interfaceを使用するには、表示をX Window Systemサーバー・パッケージを使用するシステムに設定します。 |
Oracle Preinstallation RPMをインストールしない場合は、デフォルトのソフトウェア・パッケージ(RPM)が付属しているLinuxオペレーティング・システムをインストールすることをお薦めします。このインストールには、ほとんどの必須パッケージが含まれており、手動によるパッケージの依存性チェックを削減することができます。インストール時にRPMをカスタマイズしないことをお薦めします。
デフォルトのインストールの詳細を参照するには、My Oracle Supportにログオンします。
「デフォルト rpms Linuxインストール」で、ご使用のLinuxディストリビューションを検索します。次に例を示します。
https://support.oracle.com/CSP/main/article?cmd=show&type=NOT&id=ID 401167.1
インストール後に、ご使用のディストリビューションのシステム要件を確認し、必要なカーネル・パッケージがすべてインストールされており、ご使用のディストリビューションやシステム構成に必要なその他のすべての構成タスクが完了していることを確認します。
Oracle Unbreakable Enterprise Kernelは、開発の上流からデータ・センターでRed Hat Enterprise Linux (RHEL) 5またはOracle Linux 5を使用するユーザーまでの、最新の革新を実現します。Unbreakable Enterprise Kernelは、Oracle Linux 5 Update 6に含まれ、デフォルトで起動することができます。
Unbreakable Enterprise Kernelは、最近の安定したメインライン開発のLinuxカーネルに基づき、Oracle Database、OracleミドルウェアおよびOracleハードウェアのエンジニアリング・チームとの共同開発により最適化され、企業で最も高い負荷に対応するための安定性と最適なパフォーマンスを実現します。
エンタープライズ・アプリケーションを実行中の場合は特に、Linux環境にOracle Unbreakable Enterprise Kernelをデプロイすることをお薦めします。ただし、Oracle Unbreakable Enterprise Kernelを使用するかどうかは任意です。RHELカーネルとの厳密な互換性が必要な場合、Oracle LinuxにはRHELソース・コードから直接コンパイルされたRHEL Linuxカーネルとの互換性もあります。
Oracle Unbreakable Enterprise Kernel for Linuxの詳細は、次のURLを参照してください。
http://www.oracle.com/us/technologies/linux
Oracle Unbreakable Enterprise Kernel for Linuxは、Oracle製品で使用される標準のカーネルです。Oracle Databaseとその他のOracle製品のビルド・システムおよびQAシステムでは、Oracle Unbreakable Enterprise Kernel for Linuxを排他的に使用します。Oracle Unbreakable Enterprise Kernel for Linuxは、Oracle ExadataおよびOracle Exalogicシステムでも使用されるカーネルです。Oracle Unbreakable Enterprise Kernel for Linuxは、Oracleが参加するLinuxでのベンチマーク・テストおよびOracle Preinstallation RPMプログラム(x86-64用)で使用されます。
KspliceはOracle Linuxの一部であり、Linuxの動作中に、再起動または中断することなくLinuxオペレーティング・システム(OS)カーネルを更新します。Kspliceは、Oracle Linuxでのみ使用可能です。
ご使用のLinuxディストリビューションがOracle Linuxで、Oracle Linuxを使用している場合は、Oracle Linux NetworkまたはOracle LinuxのDVDディスクにある使用するリリースのOracle Preinstallation RPMまたはOracle Validated RPMを使用すると、ほとんどのインストール前の構成タスクを完了できます。Oracle Preinstallation RPMの使用は必須ではありませんが、クラスタ・サーバーの設定時間を節約するために使用することをお薦めします。
Oracle Preinstallation RPMがインストールされると、Oracle Preinstallation RPMまたはOracle Validated RPMで次が実行されます。
Oracle Grid InfrastructureおよびOracle Databaseのインストールに必要な追加のRPMパッケージが自動的にダウンロードおよびインストールされ、依存性が解決されます。
oracle
ユーザーが作成され、そのユーザーのoraInventory(oinstall
)およびOSDBA(dba
)グループが作成されます。
必要に応じて、sysctl.conf
の設定、システム起動パラメータおよびドライバ・パラメータの値が、Oracle Preinstallation RPMプログラムの推奨値に基づいて設定されます。
ハードリソース制限およびソフトリソース制限を設定します。
カーネル・バージョンに応じて、他の推奨パラメータを設定します。
Oracle Linux Networkを使用するには、営業担当者に連絡するか、またはOracle Linuxストアからライセンスを購入します。
https://shop.oracle.com/product/oraclelinux
ご使用のサーバーをUnbreakable Linux Networkに登録するか、または詳しい情報を検索するには、次のURLを参照してください。
Oracle Linux 5.2以上を使用する場合、Oracle Preinstallation RPMはインストール・メディアに含まれています。
注意: 各Oracle Databaseリリースに指定されたOracle Preinstallation RPMでは、ユーザー・アカウントoracle にのみカーネル・パラメータとリソース制限が設定されます。複数のソフトウェア・アカウント所有者を使用する場合、他のアカウントに対してはシステム構成を手動で行う必要があります。 |
Linuxカーネルは、Oracle Linux Public Yumリポジトリから入手できます。Oracle Linux 4、Oracle Linux 5およびOracle Linux 6のPublic Yumリポジトリは、次のURLで使用可能です。
Unbreakable Linux Networkを使用するには、営業担当者に連絡するか、またはUnbreakable Linuxストアからライセンスを購入します。
https://shop.oracle.com/product/oraclelinux
ご使用のサーバーをUnbreakable Linux Networkに登録するか、または詳しい情報を検索するには、次のURLを参照してください。
Oracle Linux 4.7以上またはOracle Linux 5.2以上を使用している場合、Oracle Preinstallation RPMまたはOracle Validated RPMはインストール・メディアに含まれています。
次の手順を使用して、Unbreakable Linux Network (ULN) Oracle Linuxチャネルをサブスクライブし、使用するリリースに対応するOracle Preinstallation RPMまたはOracle Validated RPMを配布するOracle Linuxチャネルを追加します。
Unbreakable Linux Network(ULN)にサーバーを登録します。デフォルトでは、ご使用のオペレーティング・システムおよびハードウェアのOracle Linux Latestチャネルに登録されています。
Unbreakable Linux Networkにログインします。
「Systems」タブをクリックし、「System Profiles」リストで、登録したサーバーを選択します。「システム詳細」ウィンドウが開き、サーバーのサブスクリプションが表示されます。
「Manage Subscriptions」をクリックします。「System Summary」ウィンドウが開きます。
「Available Channels」リストから、使用するOracle Linuxディストリビューションに対応するLinuxインストール・メディアのコピーおよび更新パッチ・チャネルを選択します。たとえば、ディストリビューションがOracle Linux 5 Update 6 for x86_64の場合は、次のチャネルを選択します。
Oracle Linux 5 Update 6のインストール・メディア・コピー(x86_64)
Oracle Linux 5 Update 6 Patch (x86_64)
「Subscribe」をクリックします。
端末セッションを開始し、プラットフォームに応じてroot
として次のコマンドを入力します。
Oracle Linux 6:
# yum install oracle-rdbms-server-11gR2-preinstall
Oracle Linux 5またはOracle Linux 4:
# yum install oracle-validated
Oracle Linuxチャネルにサブスクライブしたこと、そのパッケージがインストール中であることを示す出力が表示されます。次に例を示します。
el5_u6_i386_base el5_u6_x86_64_patch
Oracle Linuxにより、標準の(ロール割当てでない)Oracleインストールの所有者およびグループの作成、およびOracleインストールに必要なその他のカーネル構成の設定が自動的に行われます。
クラスタ内の他のすべてのサーバーで手順1から8を繰り返します。
注意: RPMログ・ファイルをチェックして、システム構成の変更を確認します。次に例を示します。Oracle Linux 6: /var/log/oracle-rdbms-server-11gR2-preinstall/results/orakernel.log Oracle Linux 5およびOracle Linux 4: /var/log/oracle-validated/results/orakernel.log |
次の手順を使用して、Oracle LinuxディストリビューションからOracle Preinstallation RPMをインストールします。
Oracle Linuxディスクを入手するには、Oracle StoreからOracle Linux Media Packを注文するか、Oracle LinuxおよびOracle VMのOracle Software Delivery Cloud Webサイトからディスク・イメージをダウンロードします。
Oracle Store:
https://shop.oracle.com
Oracle Software Delivery Cloud Webサイト:
http://edelivery.oracle.com/linux
Oracle Linuxのインストールを開始します。
最初のソフトウェア選択画面を確認します(タスク固有のソフトウェア・オプションがリストされます)。画面下部に、ここでカスタマイズするか、後でカスタマイズするかを選択するオプションがあります。「すぐにカスタマイズ」を選択し、「次へ」をクリックします。
カスタマイズ・ページの画面左側のリストから「ベース・システム」を選択し、画面右側から「システム・ツール」を選択します。その後、「オプションのパッケージ」をクリックします。
「システム・ツールのパッケージ」ウィンドウが開きます。
パッケージ・リストからOracle Preinstallation RPMパッケージ・ボックスを選択して「次へ」をクリックします。
その他の画面の指示に従って、Oracle Linuxのインストールを完了します。
Oracle Linuxにより、標準の(ロール割当てでない)Oracleインストールの所有者およびグループの作成、およびOracleインストールに必要なその他のカーネル構成の設定が自動的に行われます。
手順2から6を他のすべてのクラスタ・メンバー・ノードで繰り返します。
Ksplice Uptrack更新によってLinuxセキュリティおよびバグ修正の更新が提供され、これらの更新はカーネルを再起動することなく適用される形式に再パッケージ化されます。
Ksplice Uptrackを使用するには、次の手順を実行します。
Unbreakable Linux NetworkからOracle Linuxプレミアム・サポート・サブスクリプションを取得または確認します。
rootユーザーでログインします。
Kspliceを使用するサーバーでインターネットにアクセスできることを確認します。たとえば、プロキシ・サーバーを使用する場合は、シェルで次のようなコマンドを使用して、プロキシ・サーバーおよびポートの値を設定します。
# export http_proxy=http://proxy.example.com:port # export https_proxy=http://proxy.example.com:port
Ksplice UptrackリポジトリRPMパッケージをダウンロードします。
https://www.ksplice.com/yum/uptrack/ol/ksplice-uptrack-release.noarch.rpm
次のコマンドを実行します。
rpm -i ksplice-uptrack-release.noarch.rpm yum -y install uptrack
テキスト・エディタで/etc/uptrack/uptrack.conf
を開き、プレミアム・サポートのアクセス・キーを入力して、ファイルを保存します。システム全体で、同じアクセス・キーを使用する必要があります。
次のコマンドを実行して、カーネルのゼロ停止時間更新を実行します。
uptrack-upgrade -y
関連項目:
|
注意: 構成の変更を開始する前に、既存のデータベースのバックアップを必ず作成してください。 |
既存のOracleインストールがある場合は、バージョン番号、パッチおよびその他の構成情報を記録して、既存のインストール用のアップグレード手順を確認します。インストールを進める前に、アップグレードに関するOracleドキュメントを確認し、その後の処理を確認します。
Oracle Automatic Storage Management(Oracle ASM)11gリリース1(11.1)は、クラスタ内の個別のノードに対して、または複数のノードに対してまとめてローリング・アップグレードを行うことで、Oracle RACデータベースを停止することなくアップグレードできます。ただし、Oracle ASMを使用しているクラスタにスタンドアロン・データベースがある場合、アップグレードする前にそのスタンドアロン・データベースを停止する必要があります。Oracle ASM 10gからアップグレードする場合は、Oracle ASMクラスタ全体を停止してアップグレードを行う必要があります。
Oracle ASMがすでにインストールされている場合は、Oracleのアップグレードに関するドキュメントを確認します。今回のリリースでは、Oracle ASMホームの場所が変更されています。したがって、ストレージ管理を簡略化またはカスタマイズするためには、他の構成の変更も検討することが必要な場合があります。以前のリリースから既存のOracle ASMホームがある場合は、Oracle Clusterwareをアップグレードするために使用するユーザーがOracle ASMホームを所有する必要があります。
オペレーティング・システムのローリング・アップグレード時に、そのオペレーティング・システムの両方のバージョンが、使用しているOracle Databaseリリースで保証されている場合は、異なるオペレーティング・システム・バイナリを使用できます。
注意: 異なるバージョンのオペレーティング・システムを使用できるのは、アップグレードの間の数時間だけです。Oracle Clusterwareでは、同じクラスタで異なる命令セット・アーキテクチャ(ISA)を使用するプロセッサを搭載するノードはサポートされていません。各ノードは、バイナリ・レベルでクラスタ内の他のノードとの互換性が必要です。たとえば、同じクラスタの1つのノードでIntel 64プロセッサを使用し、別のノードでIA-64(Itanium)プロセッサを使用することはできません。同じクラスタの1つのノードでIntel 64プロセッサを使用し、別のノードでAMD64プロセッサを使用することはできますが、これは、プロセッサが同じx86-64 ISAを使用し、同じバイナリ・バージョンのOracleソフトウェアを実行するためです。クラスタに異なる処理速度やサイズのCPUを搭載するノードをインストールできますが、ハードウェア構成が同じノードを使用することをお薦めします。 |
最新のソフトウェア更新情報や、アップグレードの前後、互換性、相互運用性に関するベスト・プラクティスについては、「Oracle Upgrade Companion」を参照してください。「Oracle Upgrade Companion」は、My Oracle SupportのNote 785351.1で参照できます。
Oracle Clusterware 11gリリース2では、インストールの最小要件を満たしていない場合はOracle Universal Installer(OUI)によって検知され、要件を満たしていないシステム構成手順を実行するために、修正スクリプトと呼ばれるシェル・スクリプト・プログラムが作成されます。OUIによって不完全な作業が検知されると、修正スクリプト(runfixup.sh
)が生成されます。「修正および再チェック」ボタンをクリックした後で、修正スクリプトを実行できます。
CVUで、インストールの前に修正スクリプトを生成することもできます。
関連項目: cluvfy コマンドの使用の詳細は、『Oracle Clusterware管理およびデプロイメント・ガイド』を参照してください。 |
修正スクリプトによって、次の作業が実行されます。
必要に応じて、インストールを正しく実行するために必要な値を次のカーネル・パラメータに設定します。
共有メモリーのパラメータ。
オープン・ファイル記述子とUDP送受信のパラメータ。
Oracle Inventory(中央インベントリ)ディレクトリに権限を設定します。
インストール所有者、必要な場合はOracleインベントリ・ディレクトリ、オペレーティング・システム権限グループの、プライマリおよびセカンダリ・グループ・メンバーシップが再構成されます。
必要に応じて、シェル制限が必要な値に設定されます。
インストールに使用するユーザー・アカウントのために、クラスタ・メンバー・ノード間でSSHを構成している場合は、インストール前にクラスタ構成を確認し、インストールを開始する前にオペレーティング・システムの変更を行うための修正スクリプトを生成できます。
これを行うには、インストールを実行するユーザー・アカウントでログインし、runcluvfyコマンドがあるステージング領域に移動し、次のコマンド構文を使用します。nodeは、クラスタ・メンバーにするノードをカンマで区切ったリストです。
$ ./runcluvfy.sh stage -pre crsinst -n node -fixup -verbose
たとえば、node1とnode2の2ノードがあるクラスタを構成する場合は、次のコマンドを入力します。
$ ./runcluvfy.sh stage -pre crsinst -n node1,node2 -fixup -verbose
インストール中は、rootまたは他のユーザーとして、リモート端末上で作業を行う必要があります。リモート表示できるようにする必要があるユーザー・アカウントに対して、次の手順を実行します。
注意: 別のユーザー(oracle など)としてログインする場合は、そのユーザーでもこの手順を繰り返します。 |
リモート表示を可能にするには、次のいずれかの手順を実行します。
ソフトウェアをX Window SystemワークステーションまたはX端末からインストールする場合は、次の手順を実行します。
X端末(xterm
)などのローカル端末セッションを開始します。
ソフトウェアを別のシステムにインストールし、そのシステムをX11ディスプレイとして使用する場合は、次の構文を使用してコマンドを入力し、リモート・ホストがローカルのXサーバーでXアプリケーションを表示できるようにします。
# xhost + RemoteHost
RemoteHost
は完全修飾されたリモートのホスト名です。次に例を示します。
# xhost + somehost.example.com somehost.example.com being added to the access control list
ソフトウェアをローカル・システムにインストールしない場合は、ssh
コマンドを使用してソフトウェアをインストールするシステムに接続します。
# ssh -Y RemoteHost
RemoteHost
は完全修飾されたリモートのホスト名です。-Y
フラグ(Yes)により、元のX11ディスプレイに対する完全なアクセス権がリモートのX11クライアントに付与されます。次に例を示します。
# ssh -Y somehost.example.com
root
ユーザーでログインしていない場合は、次のコマンドを入力してユーザーをroot
に切り替えます。
$ su - root password: #
Xサーバー・ソフトウェアがインストールされているPCまたはその他のシステムからソフトウェアをインストールする場合は、次の手順を実行します。
注意: 必要に応じて、この手順の実行の詳細は、X Window Systemのドキュメントを参照してください。使用しているXソフトウェアによっては、異なる順序でタスクを実行することが必要な場合があります。 |
X Window Systemソフトウェアを起動します。
X Window Systemソフトウェアのセキュリティ設定を、リモート・ホストでローカル・システムのXアプリケーションを表示できるように構成します。
ソフトウェアをインストールするリモート・システムに、クラスタ用Oracle Grid Infrastructureソフトウェアの所有者(grid
、oracle
)として接続し、システムでX端末(xterm
)などの端末セッションを開始します。
リモート・システム上で別の端末セッションを開き、root
ユーザーとしてリモート・システムにログインします。プロンプトが表示されたら、root
としてスクリプトを実行できます。
root
としてログインし、次の手順を実行して、Oracle InventoryグループおよびOracle Grid Infrastructureのソフトウェア所有者を検索または作成します。
注意: Oracle Grid Infrastructureのインストールでは、Oracle Clusterwareおよび Oracle Automatic Storage Management(Oracle ASM)の両方がインストールされます。Oracle Clusterwareのインストール所有者とOracle ASMのインストール所有者は、分離することができなくなりました。 |
システムに初めてOracleソフトウェアをインストールする場合は、OUIによってoraInst.loc
ファイルが作成されます。このファイルに、Oracle Inventoryグループのグループ名(デフォルトはoinstall
)およびOracle中央インベントリ・ディレクトリのパスが示されます。oraInst.loc
ファイルには、次のような内容が含まれます。
inventory_loc=central_inventory_location inst_group=group
この場合、central_inventory_location
はOracle中央インベントリの場所、group
は中央インベントリへの書込み権限を持つグループの名前です(OINSTALLグループ権限)。
既存のOracle中央インベントリがある場合は、必ずすべてのOracleソフトウェア・インストールで同じOracle Inventoryを使用し、インストールに使用するすべてのOracleソフトウェア・ユーザーがこのディレクトリへの書込み権限を持つようにします。
システムにOracle中央インベントリ・ディレクトリ(oraInventory
)があるかどうかを確認するには、次のようにします。
# more /etc/oraInst.loc
oraInst.loc
ファイルが存在する場合、このコマンドの出力結果は、次のようになります。
inventory_loc=/u01/app/oracle/oraInventory inst_group=oinstall
前述の出力例の意味は次のとおりです。
inventory_loc
グループは、Oracle Inventoryの場所を示します。
inst_group
パラメータは、Oracle Inventoryグループの名前(この例では、oinstall
)を示します。
grep
groupname
/etc/group
コマンドを使用して、Oracle Inventoryグループとして指定されたグループがまだシステムに存在していることを確認します。次に例を示します。
$ grep oinstall /etc/group oinstall:x:1000:grid,oracle
oraInst.loc
ファイルが存在しない場合は、次のコマンドを入力して、Oracle Inventoryグループを作成します。
# /usr/sbin/groupadd -g 1000 oinstall
このコマンドによって、グループID番号が1000のoraInventoryグループoinstall
が作成されます。oraInventoryグループのメンバーには、Oracle中央インベントリ(oraInventory
)への書込み権限が付与されます。
oraInventoryグループが存在しない場合、デフォルトでは、クラスタ用Oracle Grid Infrastructureソフトウェアのインストール所有者のプライマリ・グループが、oraInventoryグループとして表示されます。使用するOracleソフトウェア・インストール所有者のすべてが、このグループをプライマリ・グループとして利用できることを確認します。
次の場合は、Oracle Grid Infrastructureのソフトウェア所有者を作成する必要があります。
Oracleソフトウェア所有者ユーザーが存在しない場合(たとえば、システムへOracleソフトウェアを初めてインストールする場合)。
Oracleソフトウェア所有者ユーザーは存在するが、他のグループに所属する別のオペレーティング・システム・ユーザーを使用して、Oracle Grid InfrastructureとOracle Databaseの管理権限を分離する場合。
Oracleドキュメントでは、Oracle Grid Infrastructureソフトウェアのインストールのみを所有するために作成されたユーザーをgrid
ユーザーと呼びます。すべてのOracleインストールを所有するために作成されたユーザー、またはOracle Databaseのインストールのみを所有するために作成されたユーザーをoracle
ユーザーと呼びます。
異なるOracle Databaseホームに対して複数のOracleソフトウェア所有者を使用する場合は、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle ASM)ソフトウェアに対して別途ソフトウェア所有者を作成し、その所有者でOracle Grid Infrastructureをインストールすることをお薦めします。
Oracle DatabaseまたはOracle RACをインストールする予定がある場合は、Oracle Grid InfrastructureおよびOracle Databaseのインストール・ユーザーを別々に作成することをお薦めします。使用するインストール所有者が1つの場合は、管理タスクを実行するときに、$ORACLE_HOME
の値を管理対象のインスタンス(Oracle ASM、Oracle Grid Infrastructureホーム内、またはOracleホームのデータベース)に変更する必要があります。そのコマンド構文の例は次のようになります。ここで/u01/app/11.2.0/grid
はOracle Grid Infrastructureホームです。
$ ORACLE_HOME=/u01/app/11.2.0/grid; export ORACLE_HOME
sqlplus
、lsnrctl
、asmcmd
のいずれかのコマンドを使用してインスタンスを管理しようとしたときに、$ORACLE_HOME
が別のバイナリ・パスに設定されていると、エラーが発生します。データベース・ホームからsrvctlを起動する場合、$ORACLE_HOME
が設定されていないと、srvctl
は失敗します。ただし、Oracle Grid InfrastructureホームでSRVCTLを使用している場合は、$ORACLE_HOME
が無視されるため、Oracleホームのパスはsrvctl
コマンドに影響しません。$ORACLE_HOME
は必ず、管理対象のインスタンスに変更する必要があります。
異なるOracleソフトウェアのインストール環境に対して、ユーザーを別々に作成し、オペレーティング・システム権限グループを別々に作成するためにOracleソフトウェア所有者を別々に作成する場合は、そのユーザーのプライマリ・グループとしてOracle中央インベントリ・グループ(oraInventoryグループ)が必要なことに注意してください。このグループのメンバーはOracle中央インベントリ(oraInventory
)ディレクトリに対する書込み権限を所有します。また、様々なOracle Clusterwareリソース、OCRキー、DBAが書込み権限を必要とするOracle Clusterwareホーム内のディレクトリに対する権限やその他の必要な権限が付与されます。Oracleドキュメントのコード例では、このグループをoinstall
で表しています。
それぞれのOracleソフトウェア所有者は、同じ中央インベントリ・グループのメンバーであることが必要です。Oracleインストールに対して複数の中央インベントリを持たないことをお薦めします。あるOracleソフトウェア所有者が別の中央インベントリ・グループを持っている場合、その中央インベントリは破損することがあります。
oracle
やgrid
というOracleソフトウェア所有者ユーザーが存在するかどうかを確認するには、次のようなコマンドを入力します(この場合、oracle
の存在を確認します)。
# id oracle
ユーザーが存在する場合、このコマンドの出力結果は、次のようになります。
uid=501(oracle) gid=501(oinstall) groups=502(dba),503(oper)
既存ユーザーを使用するか、別のユーザーを作成するかを決定します。ユーザーIDおよびグループIDの番号は、クラスタ・メンバー・ノードにする各ノード上で同一である必要があります。
既存ユーザーを使用する場合は、ユーザーのプライマリ・グループがOracle Inventoryグループ(oinstall
)であることを確認します。Oracle Databaseインストールにこのユーザー・アカウントを使用する場合は、OracleアカウントがASM用のOSDBAグループ(メンバーがOracle ASM記憶域への書込みを許可されているグループ)として指定する予定のグループのメンバーであることを確認します。
Oracleソフトウェア所有者ユーザー(oracle
、grid
)が存在しない、または新しいOracleソフトウェア所有者ユーザーが必要な場合は作成します。既存のユーザー・アカウントを使用する場合は、各クラスタ・メンバー・ノードでユーザーIDおよびグループIDが一致していることを確認します。次の手順では、Oracleソフトウェア所有者の名前としてgrid
が、OSASMグループとしてdba
が使用されています。異なる管理権限に対して個別のシステム権限グループを作成するには、ユーザーを作成する前に、グループ作成を行います(第2.5.5項「役割区分によるオペレーティング・システム権限グループおよびユーザーの作成」)。
既存のシステム権限グループ(この例ではdba
)がある場合にグリッド・インストール所有者アカウントを作成し、グループのメンバーにOracle ASMインスタンスを管理するためのSYSASM権限を付与する場合、次のようなコマンドを入力します。
# /usr/sbin/useradd -u 1100 -g oinstall -G dba grid
前述のコマンドの意味は、次のとおりです。
-u
オプションは、ユーザーIDを指定します。システムによって自動的にユーザーID番号を生成するようにできるため、このコマンド・フラグの使用は任意です。ただし、Oracle Grid Infrastructure用に作成するユーザーのユーザーID番号は、この後のインストール前の作業で必要になるため、記録しておく必要があります。また、クラスタのすべてのノードで、このユーザーのユーザーIDを一致させる必要があります。
-g
オプションは、プライマリ・グループを指定します。プライマリ・グループは、Oracle Inventoryグループである必要があります。たとえば、oinstall
です。
-G
オプションには、セカンダリ・グループ(この例ではdba
)を指定します。
セカンダリ・グループにはOSASMグループを含める必要があります。このグループのメンバーは、Oracle ASMインスタンスを管理するためのSYSASM権限を付与されます。SYSASMシステム権限を付与するグループは1つのグループのみ指定でき、データベース管理者グループとは別のグループか、またはOSASMグループとOSDBAグループとして1つのグループを指定できます。この場合、グループのメンバーにはSYSASMおよびSYSDBA権限が付与され、Oracle ASMインスタンスとOracle Databaseインスタンスの両方を管理するためのシステム権限が与えられます。コード例では、このグループはasmadmin
です。
このユーザーを、Oracle Grid InfrastructureとOracle Databaseインストールの両方の所有者として作成する場合は、ASM用のOSDBAグループをユーザーのセカンダリ・グループにする必要があります。コード例では、このグループ名はasmdba
です。ASM用のOSDBAグループのメンバーには、Oracle ASM記憶域へのアクセス権限が付与されます。Oracle ASM記憶域にアクセスするデータベースが複数になる場合は、ASM用のOSDBAグループを作成するか、または、ASM用のOSDBAグループとして、すべてのデータベースに対するOSDBAグループと同じグループを使用する必要があります。
usermod
コマンドを使用して、既存のユーザーID番号とグループを変更します。
次に例を示します。
# id oracle uid=501(oracle) gid=501(oracle) groups=501(oracle) # /usr/sbin/usermod -u 1001 -g 1000 -G 1000,1001 oracle # id oracle uid=1001(oracle) gid=1000(oinstall) groups=1000(oinstall),1001(oracle)
Oracle Grid Infrastructureを所有するユーザーのパスワードを設定します。次に例を示します。
# passwd grid
他のすべてのクラスタ・ノードでこの手順を繰り返します。
グリッド・インストール所有者のOracleベース・ディレクトリは、Oracle ASMおよびOracle Clusterwareに関する診断ログ、管理ログ、およびその他のログが格納される場所です。
Oracleソフトウェアのパスとして、Oracle Optimal Flexible Architecture(OFA)ガイドラインに準拠したOracle Clusterwareホームのパスを作成した場合は、Oracleベース・ディレクトリを作成する必要はありません。OUIでOFA準拠のパスが検出されると、そのパスにOracleベース・ディレクトリが作成されます。
OUIがパスをOracleソフトウェアのパスとして認識するには、u[00-99]/appという形式にし、oraInventory(oinstall
)グループのすべてのメンバーによる書込みを可能にする必要があります。OracleベースのOFAパスは、/u01/app/
user
です。user
は、ソフトウェアのインストール所有者の名前です。
クラスタ用Oracle Grid InfrastructureおよびOracle Databaseソフトウェア所有者が別の場合は特に、Oracle Grid InfrastructureのGridホームおよびOracleベース・ホームを手動で作成して、ログ・ファイルを分けることができるようにすることをお薦めします。
次に例を示します。
# mkdir -p /u01/app/11.2.0/grid # mkdir -p /u01/app/grid # mkdir -p /u01/app/oracle # chown grid:oinstall /u01/app/11.2.0/grid # chown grid:oinstall /u01/app/grid # chown oracle:oinstall /u01/app/oracle # chmod -R 775 /u01/ # chown -R grid:oinstall /u01
注意: クラスタ用Oracle Grid Infrastructureバイナリをクラスタ・ファイル・システムに配置することはサポートされていません。共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有 |
役割区分によるOracle ASMの権限構成は、Oracle ASMインストール環境に対する管理アクセス権限と、他のOracleインストール環境に関連付けられた管理権限グループおよびユーザーとを分離するためのグループおよびユーザーを持つ構成です。管理アクセス権は、個々のオペレーティング・システム・グループのメンバーシップによって付与され、インストール権限は、Oracleをインストールするたびにインストール所有者を変えることで付与されます。
注意: この構成はオプションで、Oracleソフトウェアに対するユーザー・アクセスを、様々な管理者ユーザーの役割に応じて制限するための構成です。 |
必要な場合、記憶域およびデータベース層におけるすべてのシステム権限について、1つの管理ユーザーと1つのグループをオペレーティング・システム認証で使用できるように、オペレーティング・システム・ユーザー権限を割り当てることができます。
たとえば、すべてのOracleソフトウェアのインストール所有者をoracle
ユーザーとし、Oracle Clusterware、Oracle ASM、サーバー上のすべてのOracle Databaseに対するすべてのシステム権限、およびインストール所有者としてのすべての権限をメンバーに付与されるグループをoinstall
とすることができます。このグループは、Oracle Inventoryグループであることも必要です。
少なくとも2つのグループを使用することをお薦めします。メンバーに管理システム権限が付与されるシステム権限グループと、個別のインストール権限であるOINSTALL
権限が付与されるインストール所有者グループ(oraInventoryグループ)です。クラスタ検証ユーティリティなどのOracleツールでデフォルトを使用しやすくするため、すべてのシステム権限とoraInventoryへの書込み権限を1つのオペレーティング・システム・グループに付与する場合は、そのグループ名をoinstall
にする必要があります。
この項では、ユーザーおよびグループを作成し、役割区分を使用する方法の概要を説明します。これらのグループおよびユーザーを作成するには、root
でログインします。
個別のソフトウェア・インストール所有者を作成するすべてのインストールで、次のオペレーティング・システム・グループとユーザーを作成することをお薦めします。
各Oracleソフトウェア製品を所有する1つのソフトウェア所有者(通常、データベース・ソフトウェアの所有者ユーザーはoracle
、Oracle Grid Infrastructureの所有者ユーザーはgrid
)。
システムに初めてOracleソフトウェアをインストールするときは、少なくとも1つのソフトウェア所有者を作成する必要があります。このユーザーがOracle Grid InfrastructureソフトウェアのOracleバイナリを所有します。このユーザーをOracle DatabaseまたはOracle RACのバイナリ所有者にすることもできます。
Oracleソフトウェア所有者には、プライマリ・グループとしてOracle Inventoryグループが必要です。これによって、それぞれのOracleソフトウェア・インストールの所有者が中央インベントリ(oraInventory
)に書込みできるようになり、OCRとOracle Clusterwareリソース権限が適切に設定されます。データベース・ソフトウェア所有者には、セカンダリ・グループ(作成する場合)としてOSDBAグループとOSOPERグループが必要です。Oracleドキュメントでは、Oracleソフトウェア所有者ユーザーをoracle
ユーザーとします。
ソフトウェア所有者ユーザーを個別に作成し、各Oracleソフトウェア・インストールの所有者にすることをお薦めします。特に、システムに複数のデータベースをインストールする場合にお薦めします。
Oracleドキュメントでは、Oracle Grid Infrastructureバイナリを所有するために作成されたユーザーをgrid
ユーザーとします。このユーザーは、Oracle ClusterwareとOracle Automatic Storage Managementの両方のバイナリを所有します。
関連項目: OSDBAグループ、OSASMグループおよびOSOPERグループと、SYSDBA権限、SYSASM権限およびSYSOPER権限の詳細は、『Oracle Clusterware管理およびデプロイメント・ガイド』および『Oracle Database管理者ガイド』を参照してください。 |
Oracle Databaseをインストールするには、次のオペレーティング・システム・グループおよびユーザーが必要です。
システムに初めてOracle Databaseソフトウェアをインストールする場合は、このグループを作成する必要があります。このグループのオペレーティング・システム・ユーザー・アカウントには、データベースの管理権限(SYSDBA権限)があります。Oracle ASMインスタンスに個別のOSDBA、OSOPERおよびOSASMグループを作成しない場合は、SYSOPERおよびSYSASM権限を持つオペレーティング・システム・ユーザー・アカウントが、このグループのメンバーである必要があります。Oracleのコード例では、このグループにdba
という名前を使用します。OSASMグループとして個別のグループを指定しない場合は、定義するOSDBAグループもデフォルトでOSASMとなります。
デフォルト(dba
)以外のグループ名を指定するには、拡張インストール・タイプを選択してソフトウェアをインストールするか、またはこのグループのメンバーではないユーザーとしてOracle Universal Installer(OUI)を起動する必要があります。この場合、OUIによって、グループ名の指定を求めるプロンプトが表示されます。
以前は、OSDBAグループのメンバーにOracle ASMインスタンスのSYSASM権限(ディスク・グループのマウントおよびマウント解除を含む)が付与されていました。Oracle Grid Infrastructure 11g リリース2の場合、別々のオペレーティング・システム・グループがOSDBAとOSASMグループに指定されているときには、この権限が付与されません。同じグループが、OSDBAとOSASMの両方に使用されている場合は、権限がそのまま保持されます。
Oracle DatabaseのOSOPERグループ(通常、oper
)
これは、オプションのグループです。制限付きのデータベース管理権限(SYSOPER
権限)を別のグループのオペレーティング・システム・ユーザーに付与する場合に、このグループを作成します。OSDBAグループのメンバーには、デフォルトで、SYSOPER
権限によって付与されるすべての権限もあります。
OSOPERグループを使用してデフォルトのdba
グループより少ない権限でデータベース管理者グループを作成するには、拡張インストール・タイプを選択してソフトウェアをインストールするか、またはdba
グループのメンバーでないユーザーとしてOUIを起動する必要があります。この場合、OUIによって、グループ名の指定を求めるプロンプトが表示されます。このグループの標準的な名前はoper
です。
SYSASMは、Oracle ASMストレージ管理権限をSYSDBAから切り離すことができる新しいシステム権限です。Oracle Automatic Storage Management 11gリリース2(11.2)では、OSASMグループに指定されたオペレーティング・システム・グループと、OSDBAグループに指定されたグループが同じ場合を除き、データベースOSDBAグループのメンバーにSYSASM権限は付与されません。
Oracle ASMに対する権限のオペレーティング・システム認証グループとして、別のオペレーティング・システム・グループを選択します。OUIを起動する前に、Oracle ASM用に次のグループとユーザーを作成します。
Oracle Automatic Storage Managementグループ(通常、asmadmin
)
これは、必須のグループです。Oracle ASM管理者用とOracle Database管理者用の管理権限グループを別にする場合、このグループは個別のグループとして作成します。Oracleドキュメントでは、メンバーに権限が付与されたオペレーティング・システム・グループをOSASMグループと呼びます。コード例には、この権限を付与するために特別に作成された、asmadmin
と呼ばれるグループがあります。
システムに複数のデータベースがあり、複数のOSDBAグループがあるために、各データベースに別々のSYSDBA権限を付与できる場合は、OSASMグループを別途作成し、データベース・ユーザーとは別のユーザーにOracle Grid Infrastructureインストール(Oracle ClusterwareおよびOracle ASM)を所有させる必要があります。Oracle ASMでは、複数のデータベースがサポートされます。
OSASMグループのメンバーは、SQLを使用して、SYSASMとしてOracle ASMインスタンスに接続できます。このとき、オペレーティング・システム認証が使用されます。SYSASM権限では、ディスク・グループのマウント、マウント解除およびその他の記憶域管理作業が許可されます。SYSASM権限には、RDBMSインスタンスに対するアクセス権限はありません。
ASMデータベース管理者グループ(ASM用のOSDBA、通常はasmdba
)
ASMデータベース管理者グループ(ASM用のOSDBA)のメンバーには、Oracle ASMによって管理されるファイルへの読取りおよび書込みアクセス権限が付与されます。Oracle Grid Infrastructureインストール所有者とすべてのOracle Databaseソフトウェア所有者は、このグループのメンバーである必要があります。また、Oracle ASMによって管理されるファイルへアクセスするデータベースに対するOSDBAメンバーシップを持つすべてのユーザーが、ASM用のOSDBAグループのメンバーである必要があります。
ASMオペレータ・グループ(ASM用のOSOPER、通常はasmoper
)
これは、オプションのグループです。Oracle ASMインスタンスの起動と停止を含む、制限付きのOracle ASMインスタンスの管理権限(ASM用のSYSOPER権限)を別のグループのオペレーティング・システム・ユーザーに付与する場合に、このグループを作成します。OSASMグループのメンバーには、デフォルトで、ASM用のSYSOPER権限によって付与されるすべての権限もあります。
Oracle ASMオペレータ・グループを使用してデフォルトのasmadmin
グループより少ない権限でOracle ASM管理者グループを作成するには、拡張インストール・タイプを選択してソフトウェアをインストールする必要があります。この場合、OUIによって、グループ名の指定を求めるプロンプトが表示されます。コード例では、このグループはasmoper
です。
次の項では、必要なオペレーティング・システム・ユーザーおよびグループを作成する方法について説明します。
Oracle DatabaseをインストールしてOracle Grid Infrastructure環境で使用するときに、次のような場合はOSDBAグループを作成する必要があります。
OSDBAグループが存在しない場合(たとえば、システムへOracle Databaseソフトウェアを初めてインストールする場合)。
OSDBAグループが存在するが、新しいOracle Database環境では、データベースの管理権限を別のグループのオペレーティング・システム・ユーザーに付与する場合。
OSDBAグループが存在しない場合または新しいOSDBAグループが必要な場合は、次の手順で作成します。既存のグループですでに使用されていないかぎり、グループ名にはdba
を使用します。
# /usr/sbin/groupadd -g 1031 dba
OSOPERグループを作成する必要があるのは、制限付きのデータベース管理権限(SYSOPERオペレータ権限)を持つオペレーティング・システム・ユーザーのグループを指定する場合のみです。ほとんどの環境では、OSDBAグループを作成するのみで十分です。次の場合にOSOPERグループを使用するには、このグループを作成する必要があります。
OSOPERグループが存在しない場合(たとえば、システムへOracle Databaseソフトウェアを初めてインストールする場合)
OSOPERグループが存在するが、新しいOracle環境で、データベースのオペレータ権限を別のグループのオペレーティング・システム・ユーザーに付与する場合
新しいOSOPERグループが必要な場合は、次の手順で作成します。既存のグループですでに使用されていないかぎり、グループ名にはoper
を使用します。
# /usr/sbin/groupadd -g 1032 oper1
OSASMグループが存在しない場合または新しいOSASMグループが必要な場合は、次の手順で作成します。既存のグループですでに使用されていないかぎり、グループ名にはasmadmin
を使用します。
# /usr/sbin/groupadd -g 1020 asmadmin
データベース管理者などのオペレーティング・システム・ユーザーのグループを指定し、Oracle ASM記憶域の起動と停止を含む、Oracle ASM記憶域層に対する制限付きの管理権限を付与する場合には、ASM用のOSOPERグループを作成します。ほとんどの環境では、OSASMグループを作成するのみで十分です。インストールのインタビュー時に、そのグループをASM用のOSOPERグループとして指定します。
新しいASM用のOSOPERグループが必要な場合は、次の手順で作成します。次の手順では、既存のグループですでに使用されていないかぎり、グループ名にはasmoper
を使用します。
# /usr/sbin/groupadd -g 1022 asmoper
Oracle ASMインスタンスへのアクセスを可能にするには、ASM用のOSDBAグループを作成する必要があります。これは、OSASMとOSDBAが異なるグループである場合に必要です。
ASM用のOSDBAグループが存在しない場合、または新しいASM用のOSDBAグループが必要な場合は、次の手順で作成します。既存のグループですでに使用されていないかぎり、グループ名にはasmdba
を使用します。
# /usr/sbin/groupadd -g 1021 asmdba
次の場合は、Oracleソフトウェア所有者ユーザーを作成する必要があります。
Oracleソフトウェア所有者ユーザーが存在するが、新しいOracle Database環境では、別のオペレーティング・システム・ユーザー(異なるグループ・メンバーシップを持つ)を使用して、このグループにデータベースの管理権限を付与する場合。
Oracle Grid Infrastructureに対してgrid
などのOracleソフトウェア所有者が作成されており、Oracle Databaseソフトウェアに対してoracle
などの別のOracleソフトウェア所有者を作成する場合。
oracle
やgrid
というOracleソフトウェア所有者ユーザーが存在するかどうかを確認するには、次のようなコマンドを入力します(この場合、oracle
の存在を確認します)。
# id oracle
ユーザーが存在する場合、このコマンドの出力結果は、次のようになります。
uid=501(oracle) gid=501(oinstall) groups=502(dba),503(oper)
既存ユーザーを使用するか、別のユーザーを作成するかを決定します。既存のユーザーを使用する場合は、そのユーザーのプライマリ・グループがOracleインベントリ・グループであり、そのユーザーが適切なOSDBAグループおよびOSOPERグループのメンバーであることを確認します。詳細は、次のいずれかの項を参照してください。
既存のユーザーを変更するには、第2.5.5.2.9項「既存のOracleソフトウェア所有者ユーザーの変更」を参照してください。
ユーザーを作成するには、第2.5.5.2.8項「Oracleソフトウェア所有者ユーザーの作成」を参照してください。
Oracleソフトウェア所有者ユーザーが存在しない、または新しいOracleソフトウェア所有者ユーザーが必要な場合は、次の手順で作成します。既存のユーザーですでに使用されていないかぎり、ユーザー名にはoracle
を使用します。
# /usr/sbin/useradd -u 1101 -g oinstall -G dba,asmdba oracle
前述のコマンドの意味は、次のとおりです。
-u
オプションは、ユーザーIDを指定します。システムによって自動的にユーザーID番号を生成するようにできるため、このコマンド・フラグの使用は任意です。ただし、oracle
ユーザーID番号は、この後のインストール前の作業で必要になるため、記録しておく必要がります。
-g
オプションは、プライマリ・グループを指定します。プライマリ・グループは、oinstall
などのOracle Inventoryグループである必要があります。
-G
オプションは、セカンダリ・グループを指定します。セカンダリ・グループには、OSDBAグループとASM用のOSDBAグループ、必要に応じてASM用のOSOPERグループを含める必要があります。たとえば、dba
、asmdba
、またはdba
、asmdba
、asmoper
などです。
oracle
ユーザーのパスワードを設定します。
# passwd oracle
Oracleソフトウェア所有者ユーザー、Oracle Inventory、OSDBAグループおよびOSOPERグループは、すべてのクラスタ・ノードに存在し、また同一である必要があります。同一のユーザーおよびグループを作成するには、ユーザーおよびグループを作成したノードで割り当てられたユーザーIDおよびグループIDを確認してから、他のクラスタ・ノードで同じ名前とIDを持つユーザーおよびグループを作成する必要があります。
注意: 次の手順は、ローカル・ユーザーおよびグループを使用している場合にのみ実行する必要があります。NISなどのディレクトリ・サービスで定義されたユーザーおよびグループを使用している場合、各クラスタ・ノードのユーザーおよびグループはすでに同一です。 |
grid
またはoracle
ユーザーのユーザーID(uid
)と、既存のOracleグループのグループID(gid
)を確認するには、次の手順を実行します。
次のコマンドを入力します(ここでは、oracle
ユーザーのユーザーIDを確認します)。
# id oracle
このコマンドの出力結果は、次のようになります。
uid=502(oracle) gid=501(oinstall) groups=502(dba),503(oper),506(asmdba)
表示された情報から、ユーザーのユーザーID(uid
)および所属するグループのグループID(gid
)を特定します。これらのID番号がクラスタの各ノードで同じであることを確認します。ユーザーのプライマリ・グループはgid
の後に表示されます。セカンダリ・グループはgroups
の後に表示されます。
他のクラスタ・ノードでユーザーおよびグループを作成するには、各ノードで次の手順を繰り返します。
次のクラスタ・ノードへroot
でログインします。
次のコマンドを入力して、oinstall
、asmadmin
およびasmdba
グループを作成します。また、必要に応じて、asmoper
、dba
およびoper
グループを作成します。-g
オプションを使用して、各グループに正しいグループIDを指定します。
# /usr/sbin/groupadd -g 1000 oinstall # /usr/sbin/groupadd -g 1020 asmadmin # /usr/sbin/groupadd -g 1021 asmdba # /usr/sbin/groupadd -g 1022 asmoper # /usr/sbin/groupadd -g 1031 dba # /usr/sbin/groupadd -g 1032 oper
注意: グループがすでに存在している場合は、必要に応じてgroupmod コマンドを使用してそのグループを変更します。このノードのグループに、同じグループIDを使用できない場合、すべてのノードの/etc/group ファイルを表示し、どのノードでも使用できるグループIDを特定します。すべてのノードのグループIDが同じになるように、グループIDを変更する必要があります。 |
oracle
ユーザーまたはOracle Grid Infrastructure(grid
)ユーザーを作成するには、次のようなコマンドを入力します(この例では、oracle
ユーザーを作成します)。
# /usr/sbin/useradd -u 1101 -g oinstall -G asmdba,dba oracle
前述のコマンドの意味は、次のとおりです。
-u
オプションは、ユーザーIDを指定します。ユーザーIDは、前の項で特定したユーザーIDである必要があります。
-g
オプションは、プライマリ・グループを指定します。プライマリ・グループは、oinstall
などのOracle Inventoryグループである必要があります。
-G
オプションは、セカンダリ・グループを指定します。セカンダリ・グループには、OSASM、OSDBA、ASM用のOSDBA、OSOPERまたはASM用のOSOPERグループを含めることができます。次に例を示します。
グリッド・インストール所有者: OSASM(asmadmin
)。メンバーはSYSASM権限を付与されます。
SYSASMアクセス権限のないOracle Databaseインストール所有者: OSDBA(dba
)、ASM用のOSDBA(asmdba
)、ASM用のOSOPER(asmoper
)。
注意: ユーザーがすでに存在している場合は、必要に応じてusermod コマンドを使用して変更します。すべてのノードのユーザーに、同じユーザーIDを使用できない場合、すべてのノードの/etc/passwd ファイルを表示して、どのノードでも使用できるユーザーIDを特定します。すべてのノードのユーザーにそのIDを指定する必要があります。 |
# passwd oracle
「グリッド・インフラストラクチャ・ソフトウェア所有者ユーザー環境の構成」で説明するとおり、各ユーザーに対してユーザー環境の構成を行います。
Oracle Inventoryグループ(oinstall
)を作成し、OSDBA、OSASM、Oracle ASM用のOSDBAグループとして1つのグループ(dba
)を作成する方法の例を次に示します。また、適切なグループ・メンバーシップを持つ、Oracle Grid Infrastructureソフトウェア所有者(grid
)と1つのOracle Database所有者(oracle
)を作成する方法も示します。また、この例は、適切な権限を持つ、OFA構造に準拠したOracleベース・パスの構成方法も示しています。
# groupadd -g 1000 oinstall # groupadd -g 1031 dba # useradd -u 1100 -g oinstall -G dba grid # useradd -u 1101 -g oinstall -G dba oracle # mkdir -p /u01/app/11.2.0/grid # mkdir -p /u01/app/grid # chown -R grid:oinstall /u01 # mkdir /u01/app/oracle # chown oracle:oinstall /u01/app/oracle # chmod -R 775 /u01/
これらのコマンドを実行すると、次のグループとユーザーができます。
Oracle中央インベントリ・グループ、つまりoraInventoryグループ(oinstall
)。プライマリ・グループが中央インベントリ・グループであるメンバーは、oraInventory
ディレクトリに書込みできるOINSTALL権限を付与されます。
OSASM、OSDBA、ASM用のOSDBAおよびASM用のOSOPERグループとして使用される1つのシステム権限グループ(dba
)。メンバーは、Oracle Clusterware、Oracle ASM、Oracle Databaseを管理するためのSYSASMおよびSYSDBA権限を付与され、さらにOracle ASM記憶域にアクセスするためのSYSASMおよびASM用のOSOPER権限を付与されます。
クラスタ用Oracle Gridのインストール所有者(grid
)。プライマリ・グループはoraInventoryグループ、セカンダリ・グループはOSASMグループ。Oracleベース・ディレクトリは/u01/app/grid
。
Oracle Database所有者(oracle
)。プライマリ・グループはoraInventoryグループ、セカンダリ・グループはOSDBAグループ。Oracleベース・ディレクトリは/u01/app/oracle
。
インストール前は775権限でgrid:oinstall
が所有し、インストール中にroot.shスクリプトが実行された後はrootが所有する/u01/app
。この所有権と権限によって、OUIはパス/u01/app/oraInventory
にOracle Inventoryディレクトリを作成できるようになります。
インストール前はgrid:oinstall
が所有し、インストール中にroot.sh
スクリプトが実行された後はroot
が所有する/u01
。
775権限でgrid:oinstall
が所有する/u01/app/11.2.0/grid
。これらの権限はインストールに必要であり、インストール・プロセスで変更されます。
インストール前は775権限で、インストール後は755権限でgrid:oinstallが所有する/u01/app/grid
。
775権限でoracle:oinstall
が所有する/u01/app/oracle
。
Optimal Flexible Architecture(OFA)デプロイメントに準拠した、ロール割当てをしたグループおよびユーザーを作成する方法の例を、次に示します。
# groupadd -g 1000 oinstall # groupadd -g 1020 asmadmin # groupadd -g 1021 asmdba # groupadd -g 1031 dba1 # groupadd -g 1041 dba2 # groupadd -g 1022 asmoper # useradd -u 1100 -g oinstall -G asmadmin,asmdba grid # useradd -u 1101 -g oinstall -G dba1,asmdba oracle1 # useradd -u 1102 -g oinstall -G dba2,asmdba oracle2 # mkdir -p /u01/app/11.2.0/grid # mkdir -p /u01/app/grid # chown -R grid:oinstall /u01 # mkdir -p /u01/app/oracle1 # chown oracle1:oinstall /u01/app/oracle1 # mkdir -p /u01/app/oracle2 # chown oracle2:oinstall /u01/app/oracle2 # chmod -R 775 /u01
これらのコマンドを実行すると、次のグループとユーザーができます。
Oracle中央インベントリ・グループ、つまりoraInventoryグループ(oinstall
)。プライマリ・グループがこのグループであるメンバーは、oraInventory
ディレクトリへの書込み権限を付与されます。
個別のOSASMグループ(asmadmin
)。メンバーは、Oracle ClusterwareおよびOracle ASMを管理するためのSYSASM権限を付与されます。
個別のASM用OSDBAグループ(asmdba
)。メンバーは、grid
、oracle1
、oracle2
の他、Oracle ASMへのアクセス権を付与されたユーザーです。
個別のASM用のOSOPERグループ(asmoper
)。メンバーはOracle ASMインスタンスの起動と停止を含む、制限付きのOracle ASMの管理者権限が付与されたユーザーです。
クラスタ用Oracle Gridのインストールの所有者(grid
)。プライマリ・グループはoraInventoryグループ、セカンダリ・グループはOSASM(asmadmin
)、ASM用のOSDBAグループ(asmdba)。
2つの異なるデータベースに対する、2つの別々のOSDBAグループ(dba1
とdba2
)。それぞれのデータベースに対して、別々のSYSDBA権限を設定します。
Oracle Databaseバイナリの所有権を分けるための、2つのOracle Databaseソフトウェア所有者(oracle1
とoracle2
)と、プライマリ・グループとしてのoraInventoryグループ、セカンダリ・グループとしてのそれぞれのデータベースに対するOSDBAグループ(dba1
またはdba2
)と、ASM用のOSDBAグループ(asmdba
)。
grid:oinstall
が所有する、OFA準拠のマウント・ポイント/u01
(インストール前)。
775権限でgrid:oinstall
が所有する、グリッド・インストール所有者のOracleベース/u01/app/grid
。インストール・プロセスで755権限に変更されます。
775権限でoracle1:oinstall
が所有する、Oracleベース/u01/app/oracle1
。
775権限でoracle2:oinstall
が所有する、Oracleベース/u01/app/oracle2
。
775(drwxdrwxr-x
)権限でgrid:oinstall
が所有する、Gridホーム/u01/app/11.2.0/grid
。これらの権限はインストールに必要であり、インストール・プロセスでroot:oinstall
の755権限(drwxr-xr-x
)に変更されます。
/u01/app/oraInventory
.このパスの所有者はgrid:oinstall
のままで、他のOracleソフトウェア所有者による中央イベントリへの書込みを可能にします。
次の要件を確認します。
各システムは、次の最小ハードウェア要件を満たしている必要があります。
1024 x 768以上のディスプレイ解像度。OUIを正しく表示するため。
/tmp
ディレクトリに1GBの領域。
クラスタ用Oracle Grid Infrastructureホーム(Gridホーム)に6.6GBの領域で、ここにはOracle ClusterwareおよびOracle ASMのファイルとログ・ファイル、ACFSログ・ファイルおよびクラスタ状態モニター・リポジトリが格納されます(プラットフォームで使用可能な場合)。
トレース・ファイル・アナライザおよびコレクタによって生成された診断収集用に、グリッド・インフラストラクチャ所有者のOracleベース・ディレクトリに最大10GBの追加領域。
Oracleベースに4GBの領域の割当て(Linux x86プラットフォームに対してOracle Databaseをインストールする場合)。
Oracleベースに4.6GBのディスク領域の割当て(Linux x86_64プラットフォームに対してOracle Databaseをインストールする場合)。
注意: Oracle DatabaseまたはOracle RACデータベースをクラスタ上にインストールする場合は、各サーバーの/dev/shm マウント領域が、サーバーのデータベースのシステム・グローバル領域(SGA)およびプログラム・グローバル領域(PGA)より大きいサイズである必要があることに注意してください。SGAおよびPGAの予想サイズをデータベース管理者に確認し、データベースをクラスタにインストールした後に/dev/shm を増やす必要がないようにしてください。 |
Oracle Databaseのインストールでは、自動バックアップを構成する場合は、高速リカバリ領域用に追加の領域(ファイル・システムまたはOracle Automatic Storage Managementディスク・グループ)が必要です。
関連項目: 『Oracle Automatic Storage Management管理者ガイド』 |
システム・アーキテクチャに応じて、システムが次の要件を満たしていることを確認します。
注意: LinuxのHugepages機能では、メモリー・マップ・ファイルを使用して、ラージ・ページ表にはスワップできないメモリーが割り当てられます。HugePagesを有効にする場合は、スワップ領域を計算する前に、HugePagesに割り当てられるメモリー分を使用可能なRAMから差し引く必要があります。スワップ領域のサイズが足りないというOUIエラーが発生したにもかかわらず、スワップ領域はここに記載された要件を満たしている場合は、エラーを無視してかまいません。 |
各システムは、次のメモリー要件を満たしている必要があります。
Cluster用Oracle Grid Infrastructureインストール用に2.5GB以上のRAM(Oracle RACをインストールする計画があるインストールを含む)。
次の表に示す使用可能なRAMの倍数と同等のスワップ領域
システムが各要件を満たしていることを確認するには、次の手順を実行します。
次のコマンドを入力して、物理RAMのサイズを確認します。
# grep MemTotal /proc/meminfo
システムに搭載されている物理RAMのサイズが要件のサイズより少ない場合、次の手順に進む前にメモリーを増設する必要があります。
次のコマンドを入力して、構成されたスワップ領域のサイズを確認します。
# grep SwapTotal /proc/meminfo
追加のスワップ領域を構成する(必要な場合)方法については、ご使用のオペレーティング・システムのマニュアルを参照してください。
次のコマンドを入力して、/tmp
ディレクトリで使用できる領域の大きさを確認します。
# df -k /tmp
このコマンドでは1KBブロック単位でディスク領域が表示されます。ほとんどのシステムでは、-h
フラグ付きのdf
コマンド(df -h
)を使用して、「24G」や「10M」など、判読可能な書式で出力を表示できます。/tmp
ディレクトリで使用できるディスク領域が1GB未満の場合(1048576 1k-blocks未満)、次のいずれかの手順を完了します。
必要な領域を確保するために、/tmp
ディレクトリから不要なファイルを削除します。
/tmp
ディレクトリを含むファイル・システムを拡張します。ファイル・システムの拡張については、必要に応じてシステム管理者に連絡してください。
次のコマンドを入力して、システムのRAMおよびディスク・スワップ領域の空き領域の大きさを確認します。
# free
注意:
|
次のコマンドを入力して、システム・アーキテクチャでソフトウェアを実行できるかどうかを確認します。
# uname -m
注意: このコマンドの出力結果には、プロセッサ・タイプが表示されます。64-bitのアーキテクチャにインストールする場合、出力はx86_64 になります。 |
次の項で、クラスタ用Oracle Grid Infrastructure環境に必要なネットワーク・ハードウェアおよびインターネット・プロトコル(IP)・アドレスがあるかを確認します。
注意: Oracle RAC環境でサポートされるネットワーク・プロトコルおよびハードウェアの最新情報は、次のMy Oracle Support Webサイトの「動作保証」ページを参照してください。WebサイトのURLは次のとおりです。
|
次にネットワーク構成要件を示します。
各ノードには2つ以上のネットワーク・アダプタまたはネットワーク・インタフェース・カード(NIC)が必要です。パブリック・ネットワーク・インタフェース用とプライベート・ネットワーク・インタフェース(インターコネクト)用のネットワーク・アダプタです。
冗長インターコネクトを使用すると、ボンディングなどのテクノロジを使用しなくても、複数のインタフェースを指定してクラスタ・プライベート・ネットワークに使用します。この機能は、Oracle Database 11g リリース2(11.2.0.2)以上で使用可能です。
複数のインタフェースを定義すると、Oracle Clusterwareは1つから4つの高可用性IP(HAIP)アドレスを作成します。Oracle RACおよびOracle ASMインスタンスはこれらのインタフェース・アドレスを使用して、ノード間でのロード・バランシングされた高可用性インタフェース通信を保証します。インストーラは、冗長インターコネクトを使用して、高可用性プライベート・ネットワークを提供します。
デフォルトでは、Oracle Grid InfrastructureソフトウェアはすべてのHAIPアドレスをプライベート・ネットワーク通信に使用して、プライベート・ネットワークとして指定した一連のインタフェースにロード・バランシングを提供します。プライベート・インターコネクト・インタフェースに障害が発生するか、または通信できなくなった場合、Oracle Clusterwareは、機能している残りのインタフェースのいずれかに対応するHAIPアドレスを透過的に移動します。
注意: プライベート・ネットワーク・インタフェースとして5つ以上のインタフェースを定義した場合は、Oracle Clusterwareが一度にアクティブにするインタフェースは4つのみであることに注意してください。ただし、4つのアクティブなインタフェースのうちの1つに障害が発生した場合は、その障害が発生したインタフェースに構成されたHAIPアドレスを、一連の定義済プライベート・インタフェースのうちの予備インタフェースの1つに移します。 |
ノードをOracle Grid Infrastructure 11gリリース2(11.2.0.2)以上にアップグレードする場合、アップグレードされたシステムは既存のネットワーク分類を使用します。
複数のパブリック・インタフェースを構成するには、ご使用のプラットフォーム用のサード・パーティ・テクノロジを使用して、インストールを開始する前に複数のパブリック・インタフェースを集約する必要があります。その後、結合されたインタフェースの単一のインタフェース名をパブリック・インタフェースとして選択します。Oracle Grid Infrastructureのインストール中に、複数のパブリック・インタフェース名を指定しないことをお薦めします。集約テクノロジを使用せずに、2つのネットワーク・インタフェースをクラスタ内のパブリック・ネットワーク・インタフェースとして構成する場合、ノード上の1つのパブリック・インタフェースで発生した障害によって、もう1つのパブリック・インタフェースへの自動VIPフェイルオーバーが行われることはないことに注意してください。
プライベート・ネットワークに複数のインタフェースを使用するには、冗長インターコネクト機能を使用することをお薦めします。ただし、サード・パーティのテクノロジを使用しても、プライベート・ネットワークを冗長にすることは可能です。
OUIを使用してOracle Clusterwareをインストールする場合は、各ネットワークのネットワーク・アダプタに関連付けるパブリック・インタフェース名は、すべてのノードで同じである必要があり、ネットワーク・アダプタに関連付けるプライベート・インタフェース名もすべてのノードで同じである必要があります。この制限は、新しいクラスタを作成するため、または既存のクラスタにノードを追加するためにクローニングを使用する場合は適用されません。
たとえば、2ノードのクラスタのネットワーク・アダプタの場合、パブリック・インタフェースとしてnode1
ではeth0
、node2
ではeth1
というようには構成できません。パブリック・インタフェース名は同じである必要があるため、bothノードでパブリックとしてeth0
を構成する必要があります。同じネットワークのアダプタでは、プライベート・インタフェースも同様に構成する必要があります。eth1
がnode1
のプライベート・インタフェースであれば、node2
のプライベート・インタフェースもeth1
である必要があります。
関連項目: クローニングを使用してノードを追加する方法の詳細は、『Oracle Clusterware管理およびデプロイメント・ガイド』を参照してください。 |
パブリック・ネットワークの場合、各ネットワーク・アダプタではTCP/IPがサポートされている必要があります。
プライベート・ネットワークでは、インタフェースにTCP/IPをサポートする高速ネットワーク・アダプタおよびスイッチ(最低要件: 1ギガビット・イーサネット)を使用して、ユーザー・データグラム・プロトコル(UDP)がサポートされている必要があります。
注意: UDPはOracle RAC用のデフォルトのインタフェース・プロトコルで、TCPはOracle Clusterware用のインターコネクト・プロトコルです。インターコネクト用のスイッチを使用する必要があります。専用のスイッチを使用することをお薦めします。インターコネクト用のトークン・リングまたはクロスオーバー・ケーブルはサポートされていません。 |
各ノードのインターコネクト用のプライベート・インタフェースは同じサブネット上にある必要があり、これらのサブネットはクラスタのすべてのノードに接続する必要があります。たとえば、プライベート・インタフェースのサブネット・マスクが255.255.255.0の場合、プライベート・ネットワークの範囲は192.168.0.0から192.168.0.255になり、プライベート・アドレスの範囲は192.168.0.[0-255]である必要があります。プライベート・インタフェースのサブネット・マスクが255.255.0.0の場合、プライベート・アドレスの範囲は192.168.[0-255].[0-255]になります。
冗長インターコネクトを使用するクラスタの場合、各プライベート・インタフェースは、異なるサブネット上にある必要があります。ただし、各クラスタ・メンバー・ノードは各プライベート・インターコネクト・サブネット上にインタフェースを持つ必要があり、これらのサブネットがクラスタのすべてのノードに接続されている必要があります。たとえば、プライベート・ネットワークがサブネット192.168.0および10.0.0上にある場合、各クラスタ・メンバー・ノードにはサブネット192.168.0および10.0.0に接続されているインタフェースが必要です。
プライベート・ネットワークでは、指定されているすべてのインターコネクト・インタフェースのエンドポイントがネットワークで確実にアクセス可能である必要があります。ノードはすべてのプライベート・ネットワーク・インタフェースに接続されている必要があります。ping
を使用して、インターコネクト・インタフェースが接続可能であるかどうかをテストできます。
インストールを開始する前に、各ノードにインタフェースが2つ以上構成されている必要があります。1つはプライベートIPアドレス用、もう1つはパブリックIPアドレス用です。
IPアドレスは、次のいずれかのオプションで構成できます。
Oracleグリッド・ネーミング・サービス(GNS)を使用した動的IPアドレスの割当て。このオプションを選択すると、ネットワーク管理者は静的IPアドレスを物理ホスト名に割り当て、動的に割り当てられたIPをOracle Clusterware管理VIPアドレスに割り当てます。この場合、VIPのIPアドレスはDHCPによって割り当てられ、Oracle Clusterwareの一部としてクラスタ内で構成されたマルチキャスト・ドメイン・ネーム・サーバーを使用して解決されます。GNSを使用する場合は、次のものが必要です。
クラスタのために、パブリック・ネットワーク上で実行されているDHCPサービス。
DHCP上の十分なアドレス。これにより、各ノードの仮想IPとしてIPアドレスを1つずつ、そしてクラスタの単一クライアント・アクセス名(SCAN)によって使用される、クラスタのIPアドレスを3つ提供します。
静的IPアドレスの割当て。このオプションを選択すると、ネットワーク管理者は固定IPアドレスをクラスタの各物理ホスト名とOracle Clusterware管理VIPのIPに割り当てます。また、ドメイン・ネーム・サーバ(DNS)に基づいた静的名前解決が各ノードに使用されます。このオプションを選択する場合は、クラスタの変更時にネットワーク管理の更新を依頼する必要があります。
注意: すべてのサーバー・ノードのパブリック・ホスト名には、静的なホスト名を使用することをお薦めします。パブリックIPアドレスと仮想IPアドレスは、同じサブネット内にある必要があります。 DHCP割当てのネットワークは、デフォルトのネットワークでのみサポートされ、その後のネットワークではサポートされません。 |
グリッド・ネーミング・サービス(GNS)を有効にする場合、クラスタへの名前解決要求はGNSに委任され、GNSによってGNS仮想IPアドレスでリスニングされます。このアドレスは、インストール前にドメイン・ネーム・サーバー(DNS)・ドメインに定義します。DNSは、クラスタ名(クラスタに委任されたサブドメイン内のすべての名前)の解決要求がGNSに委任されるように構成する必要があります。要求がドメインに届くと、GNSによってその要求が処理され、要求された名前に対する適切なアドレスとともに応答が返されます。
GNSを使用するには、インストールの前に、サブドメインのDNS解決をクラスタに指示するDNS参照をDNS管理者が設定しておく必要があります。GNSを有効にする場合は、クラスタで必要な仮想IPアドレスをクラスタによって動的に割り当てるために、パブリック・ネットワーク上にDHCPサービスが必要です。
注意: 次の制限事項が、ご使用のシステムのベンダー構成に適用されます。
|
GNSを有効にしない場合、各ノードのパブリックIPアドレスおよび仮想IPアドレスは、静的アドレスであることが必要です。このアドレスは、インストール前に各ノードで構成しておく必要がありますが、現在未使用である必要があります。パブリックIPアドレスと仮想IPアドレスは、同じサブネット内にある必要があります。
インストールのインタビュー時にプライベートとして指定したインタフェース上のプライベート・サブネットに含まれるプライベートIPアドレスが、Oracle Clusterwareによって管理されます。
クラスタには、次のアドレスが構成されている必要があります。
次の特性がある、各ノードのパブリックIPアドレス:
静的IPアドレス
各ノードでインストール前に構成済で、インストール前にそのノードに対して解決可能
他のすべてのパブリックIPアドレス、VIPアドレスおよびSCANアドレスと同じサブネット上にある
次の特性がある、各ノードの仮想IPアドレス:
静的IPアドレス
各ノードでインストール前に構成済だが、現在は使用されていない
他のすべてのパブリックIPアドレス、VIPアドレスおよびSCANアドレスと同じサブネット上にある
次の特性がある、クラスタの単一クライアント・アクセス名(SCAN):
SCANとして指定された名前に3つの静的IPアドレスが関連付けられ、そのすべてのアドレスがランダムな順序でDNSによってリクエスタに返されるように、インストール前にドメイン・ネーム・サーバー(DNS)上で静的IPアドレスが3つ構成されている
現在使用されていないアドレスに解決されるためにDNSでインストール前に構成済
数値以外で始まる名前が指定されている
他のすべてのパブリックIPアドレス、VIPアドレスおよびSCANアドレスと同じサブネット上にある
RFC 952標準に準拠し、英数字とハイフン("-")は使用できるが、アンダースコア("_")は使用できない
次の特性がある、各ノードのプライベートIPアドレス:
静的IPアドレス
インストール前に構成済だが、独自のサブネットを持つ別のプライベート・ネットワーク上では、他のクラスタ・メンバー・ノード以外が解決することはできない
SCANは、クラスタへのサービス・アクセスをクライアントに提供するために使用される名前です。SCANは、特定のノードではなくクラスタ全体に関連付けされているため、クライアントの再構成を必要とせずに、クラスタでノードを追加または削除することを可能にします。また、データベースに場所の独立性がもたらされるため、クライアント構成は特定のデータベースがどのノードで実行されているかに依存しません。クライアントは引き続き、以前のリリースと同じ方法でクラスタにアクセスできますが、クラスタにアクセスするクライアントではSCANの使用をお薦めします。
注意: 標準インストールでは、指定するSCANはクラスタの名前でもあるため、SCAN名はクラスタ名の要件を満たしている必要があります。拡張インストールでは、SCANとクラスタ名はインストール時に別のフィールドに入力するため、クラスタ名要件はSCAN名に適用されません。 |
nslookupコマンドを使用して、DNSによってSCANが正常にアドレスに関連付けられていることを確認できます。次に例を示します。
root@node1]$ nslookup mycluster-scan Server: dns.example.com Address: 192.0.2.001 Name: mycluster-scan.example.com Address: 192.0.2.201 Name: mycluster-scan.example.com Address: 192.0.2.202 Name: mycluster-scan.example.com Address: 192.0.2.203
インストール後、クライアントがクラスタにリクエストを送信すると、Oracle Clusterware SCANリスナーは、クライアント・リクエストをクラスタのサーバーにリダイレクトします。
注意: SCAN VIPアドレスの構成は、hostsファイルで行わないことを強くお薦めします。SCAN VIPにはDNS解決を使用します。SCANの解決にhostsファイルを使用すると、1つのIPアドレスへの解決しかできず、SCANアドレスは1つのみになってしまいます。サポートされているのは、DNSまたはホスト・ファイルでのSCANの構成のみです。Network Information Service(NIS)でのSCANの構成はサポートされていません。 |
ブロードキャスト通信(ARPおよびUDP)は、Oracle Grid Infrastructureリリース2パッチセット1(11.2.0.2)以上で使用するために構成されたすべてのパブリックおよびプライベート・インタフェース全体で適切に動作する必要があります。
ブロードキャストは、パブリックまたはプライベート・インタフェースによって使用されるものとして構成されたVLAN全体で動作する必要があります。
Oracle Grid Infrastructureリリース2(11.2)では、各クラスタ・メンバー・ノードで、Oracle mDNSデーモンがすべてのインタフェースでマルチキャスティングを使用して、クラスタの他のノードと通信します。
Oracle Grid Infrastructureリリース2パッチセット1(11.2.0.2)以上では、マルチキャスティングはプライベート・インターコネクトで必須です。このため、少なくとも次のクラスタでマルチキャスティングを有効にする必要があります。
プライベート・インターコネクトとして定義されたブロードキャスト・ドメイン全体
IPアドレス・サブネット範囲224.0.0.0/24および230.0.1.0/24
ルーター全体でマルチキャスト通信を有効にする必要はありません。
GNSを使用する場合、Oracle Grid Infrastructureのインストール前に、GNSが提供するサブドメイン(クラスタ・メンバー・ノード)に対する名前解決要求がGNSへ送信されるよう、ドメイン・ネーム・サーバー(DNS)を構成しておく必要があります。次にドメイン委任に必要な手順の概要を示します。実際の手順はこの例と異なる場合があります。
委任を使用してGNS名前解決要求を送信するようにDNSを構成します。
DNSでGNS仮想IPアドレスのエントリを作成します。アドレスの書式はgns-server.CLUSTERNAME.DOMAINNAMEです。たとえば、クラスタ名がmycluster
で、ドメイン名がexample.com
で、IPアドレスが192.0.2.1の場合、次のようなエントリを作成します。
mycluster-gns.example.com A 192.0.2.1
指定したアドレスは、ルーティング可能である必要があります。
GNSでGNSサブドメインへのアドレスを解決できるように、GNS仮想IPアドレスへのGNSサブドメインの転送を設定します。これには、委任されたドメインに対して次のようなBIND構成エントリを作成します。cluster01.example.com
は、委任するサブドメインです。
cluster01.example.com NS mycluster-gns.example.com
GNSを使用する場合、クラスタ内のノードのresolve.conf
(または解決情報を提供するシステムのファイル)を構成し、社内のDNSサーバーに解決可能なネーム・サーバーのエントリを追加する必要があります。オプションの試行回数(リトライ回数)とオプションのタイムアウト(指数バックオフ)を組み合せた合計タイムアウト時間の構成は、30秒以下にすることをお薦めします。たとえば、xxx.xxx.xxx.42とxxx.xxx.xxx.15がネットワーク内で有効なネーム・サーバーのアドレスである場合、/etc/resolv.conf
に次のようなエントリを入力します。
options attempts: 2 options timeout: 1 search cluster01.example.com example.com nameserver xxx.xxx.xxx.42 nameserver xxx.xxx.xxx.15
/etc/nsswitch.conf
によって、ネーム・サービスの参照順序が制御されます。一部のシステム構成では、ネットワーク情報システム(NIS)によってOracle SCANアドレス解決に問題が発生することがあります。nis
エントリは、検索リストの最後に配置することをお薦めします。次に例を示します。
/etc/nsswitch.conf hosts: files dns nis
注意: ホスト名およびユーザー名の解決が失敗する可能性があるため、NISを使用することがケーブルのプル・テストを実行するときの問題の原因になることがあることに注意してください。 |
GNSを使用する場合は、GNSのVIPアドレスに静的なIPアドレスを指定し、その静的なGNSのIPアドレスにサブドメインを委任する必要があります。
クラスタにノードが追加されると、社内のDHCPサーバーによって、これらのノードに動的にアドレスが提供されます。これらのアドレスは自動的にGNSに登録され、GNSによってサブドメイン内で、GNSに登録されたクラスタ・ノード・アドレスの解決が行われます。
アドレスの割当てと構成はGNSによって自動的に行われるため、これ以上の構成は必要ありません。Oracle Clusterwareによって、クラスタに対してノードが追加または削除されるときに、動的なネットワーク構成が行われます。参考までに例を示します。
2ノードのクラスタで、GNSのVIPが定義されている場合、インストール後に次のような構成を2ノードのクラスタに対して行います。クラスタ名はmycluster
、GNSの親ドメインはexample.com
、サブドメインはgrid.example.com
です。IPアドレスの192.0.2はクラスタのパブリックIPアドレス・ネットワークを表し、192.168.0はプライベートIPアドレス・サブネットを表します。
表2-3 グリッド・ネーミング・サービスのネットワーク例
ID | ホーム・ノード | ホスト・ノード | 指定された名前 | 種類 | アドレス | アドレスの割当て元 | 解決方法 |
---|---|---|---|---|---|---|---|
GNS VIP |
なし |
Oracle Clusterwareにより選択 |
|
仮想 |
192.0.2.1 |
ネットワーク管理者が固定 |
DNS |
ノード1パブリック |
ノード1 |
|
|
パブリック |
192.0.2.101 |
固定 |
GNS |
ノード1 VIP |
ノード1 |
Oracle Clusterwareにより選択 |
|
仮想 |
192.0.2.104 |
DHCP |
GNS |
ノード1プライベート |
ノード1 |
|
|
プライベート |
192.168.0.1 |
固定またはDHCP |
GNS |
ノード2パブリック |
ノード2 |
|
|
パブリック |
192.0.2.102 |
固定 |
GNS |
ノード2 VIP |
ノード2 |
Oracle Clusterwareにより選択 |
|
仮想 |
192.0.2.105 |
DHCP |
GNS |
ノード2プライベート |
ノード2 |
|
|
プライベート |
192.168.0.2 |
固定またはDHCP |
GNS |
SCAN VIP 1 |
なし |
Oracle Clusterwareにより選択 |
|
仮想 |
192.0.2.201 |
DHCP |
GNS |
SCAN VIP 2 |
なし |
Oracle Clusterwareにより選択 |
|
仮想 |
192.0.2.202 |
DHCP |
GNS |
SCAN VIP 3 |
なし |
Oracle Clusterwareにより選択 |
|
仮想 |
192.0.2.203 |
DHCP |
GNS |
脚注 1 ノードのホスト名が、ホスト上で使用されているVIPアドレスなど、複数のアドレスに解決される場合があります。
GNSを使用しない場合は、インストールの前に、パブリックIPアドレス、仮想IPアドレスおよびプライベートIPアドレスを構成する必要があります。また、ping
コマンドを実行し、デフォルトのゲートウェイにアクセスできることも確認してください。デフォルトのゲートウェイを検出するには、route
コマンドを使用します(オペレーティング・システムのヘルプを参照)。
たとえば、各ノードに1つのパブリック・インタフェースと1つのプライベート・インタフェースがある2ノードのクラスタの場合に、3つのIPアドレスのいずれかに解決されるSCANドメイン・アドレスがDNSに定義してあるとすると、ネットワーク・インタフェースには、次の表に示す構成が考えられます。
表2-4 手動によるネットワークの構成例
ID | ホーム・ノード | ホスト・ノード | 指定された名前 | 種類 | アドレス | アドレスの割当て元 | 解決方法 |
---|---|---|---|---|---|---|---|
ノード1パブリック |
ノード1 |
|
|
パブリック |
192.0.2.101 |
固定 |
DNS |
ノード1 VIP |
ノード1 |
Oracle Clusterwareにより選択 |
|
仮想 |
192.0.2.104 |
固定 |
DNSおよびhostsファイル |
ノード1プライベート |
ノード1 |
|
|
プライベート |
192.168.0.1 |
固定 |
DNSおよびhostsファイル、またはなし |
ノード2パブリック |
ノード2 |
|
|
パブリック |
192.0.2.102 |
固定 |
DNS |
ノード2 VIP |
ノード2 |
Oracle Clusterwareにより選択 |
|
仮想 |
192.0.2.105 |
固定 |
DNSおよびhostsファイル |
ノード2プライベート |
ノード2 |
|
|
プライベート |
192.168.0.2 |
固定 |
DNSおよびhostsファイル、またはなし |
SCAN VIP 1 |
なし |
Oracle Clusterwareにより選択 |
mycluster-scan |
仮想 |
192.0.2.201 |
固定 |
DNS |
SCAN VIP 2 |
なし |
Oracle Clusterwareにより選択 |
mycluster-scan |
仮想 |
192.0.2.202 |
固定 |
DNS |
SCAN VIP 3 |
なし |
Oracle Clusterwareにより選択 |
mycluster-scan |
仮想 |
192.0.2.203 |
固定 |
DNS |
脚注 1 ノード・ホスト名が、複数のアドレスに解決される場合があります。
インターコネクト用にプライベート名を指定する必要はありません。インターコネクト用に名前解決が必要な場合は、hostsファイルかDNSでプライベートIP名を構成できます。ただしOracle Clusterwareでは、インストール中にプライベート・インタフェースとして定義されたインタフェース(eth1
など)と、プライベート・サブネットに使用されるサブネットに、インターコネクト・アドレスが割り当てられます。
SCANが解決されるアドレスはOracle Clusterwareによって割り当てられるため、特定のノードには固定されません。VIPのフェイルオーバーが有効になるように、前述の表で示した構成では、SCANアドレスと、両方のノードのパブリック・アドレスおよびVIPアドレスが同一のサブネット(192.0.2)上に定義されています。
注意: すべてのホスト名はRFC 952標準(英数字を許可)に準拠している必要があります。アンダースコア(_)を使用するホスト名は使用できません。 |
選択する正確なネットワーク構成は、構成するクラスタのサイズおよび使用方法と、必要な可用性のレベルによって異なります。
動作保証されているネットワーク接続ストレージ(NAS)をOracle RAC用に使用し、このストレージにイーサネットベースのネットワークを介して接続する場合は、NAS I/O用に3つ目のネットワーク・インタフェースが必要です。この場合、3つの別々のインタフェースを使用しないと、負荷によってパフォーマンスと安定性の問題が発生します。
カーネル2.6.31以上(Oracle Unbreakable Enterprise Kernel 2.6.32を含む)では、戻り経路フィルタのバグが修正されています。この修正の結果、プライベート・インターコネクトに複数のNICを使用するOracle RACシステムでは、現在、rp_filter
パラメータに固有の設定が必要です。この要件は、Linuxカーネル2.6.32以上を実行しているすべてのExadataシステムにも適用されます。rp_filter
パラメータにこれらの設定を行わないと、インターコネクト・パケットが遮断または破棄される可能性があります。
rp_filter
の値で、戻り経路フィルタがフィルタなし(0
)、厳密なフィルタ(1
)または緩いフィルタ(2
)に設定されます。プライベート・インターコネクトの場合は、rp_filter
の値を0
または2
に設定します。プライベート・インターコネクトNICを1
に設定すると、プライベート・インターコネクトで接続の問題が発生する可能性があります。プライベート・インターコネクトは、分離されたプライベートのネットワーク上にあるはずなので、このフィルタを無効または解放することは危険だとは考えられていません。
たとえば、eth1
およびeth2
がプライベート・インターコネクトNICで、eth0
がパブリック・ネットワークNICの場合、/etc/sysctl.conf
で次のエントリを使用して、プライベート・アドレスのrp_filter
を2
(緩いフィルタ)に設定し、パブリック・アドレスを1
(厳密なフィルタ)に設定します。
net.ipv4.conf.eth2.rp_filter = 2 net.ipv4.conf.eth1.rp_filter = 2 net.ipv4.conf.eth0.rp_filter = 1
Enterprise Linux 5.6(Enterprise Linux 5 Update 6)にはinitscripts-8.45.33-1.0.4.el5.i386.rpm
を使用した修正が含まれ、これによって、カーネル・パラメータnet.ipv4.conf.default.rp_filter
が2
(解放モード)に設定されます。そのため、Unbreakable Linux KernelをEnterprise Linux 5.6の最上位に適用した後、すべてのNICのrp_filter
値が2
に設定されているため、手動での変更が不要になる場合があります。パブリック・ネットワークでより厳密な戻り経路フィルタが必要な場合は、パブリックNICのrp_filter
を1
に設定します。
関連項目: 次のURLで、My Oracle Support Note 1286796.1の複数のプライベート・インターコネクトおよびLinux Kernel 2.6.32以上でのrp_filterの説明を参照してください。
|
Oracle ClusterwareがNASデバイスまたはNFSマウントの使用によるネットワーク障害をより許容できるようにするには、ネーム・サービス・キャッシュ・デーモン(nscd
)を有効にします。
システムの再起動時にnscdがロードされるよう設定されているかを確認するには、コマンドchkconfig --list nscd
を入力します。次に例を示します。
# chkconfig --list nscd nscd 0:off 1:off 2:off 3:on 4:off 5:off 6:off
この例でnscd
は、実行レベル3がオンで、実行レベル5はオフです。nscd
は、実行レベル3と実行レベル5の両方をオンにする必要があります。
nscd
の実行レベル3と実行レベル5の両方をオンにするには、次のコマンドのいずれかをroot
として入力します。
Red HatおよびOracle Linux 4および5の場合
# chkconfig --level 35 nscd on
SUSE SLES10および11の場合
# chkconfig --level 35 nscd on
現在のセッションでnscd
を起動するには、次のコマンドをroot
として入力します。
# service nscd start
新しい設定でnscd
を再起動するには、次のコマンドをroot
として入力します。
# service nscd restart
インストールする製品に応じて、次のオペレーティング・システム・ソフトウェアがシステムにインストールされていることを確認します。これらの要件を確認するには、「ソフトウェア要件の確認」を参照してください。
ここに記載されている要件は、初回リリース日時点で最新のものです。カーネル要件の最新情報については、Oracle Technology Network(OTN)を参照してください。URLは次のとおりです。
http://www.oracle.com/technetwork/indexes/documentation/index.html
OUIによって、ご使用のシステムが示されたオペレーティング・システムの要件を満たしていることを確認する検証が実行されます。これらの検証が正常に完了するように、OUIを起動する前に要件を確認してください。
Linuxオペレーティング・システムをインストールするときは、最小インストールを実行する場合を除いて、デフォルトのソフトウェア・パッケージ(RPM)もインストールすることをお薦めします。その際は、インストールの実行手順に従って、Oracleソフトウェアに必要なすべてのパッケージをインストールしてください。
デフォルトのオペレーティング・システムのインストール時にRPMをカスタマイズしないことをお薦めします。デフォルトのインストールには、ほとんどの必須パッケージが含まれており、手動によるパッケージの依存性チェックを削減することができます。
サポートされているLinuxバージョンおよびリリース時における要件を次に示します。
Oracle Grid Infrastructureをインストールする場合は、カーネル・バージョンとパッケージが、表2-5および表2-6に示されたものであることを確認します。
サーバーにOpenSSHがインストールされていることを確認します。OpenSSHは必須のSSHソフトウェアです。
Oracle Grid Infrastructureに加えてOracle DatabaseまたはOracle RACをインストールする場合は、表2-7を確認し、使用する予定の機能のために追加パッケージをインストールする必要があるかどうかを確認します。
注意: Asianux Server、Oracle LinuxおよびRed Hat Enterprise Linuxの場合、システム要件はカーネル・バージョンと同一です。具体的には、次のとおりです。Oracle Linux 4およびRed Hat Enterprise Linux 4の要件は同じです。 Asianux Server 3、Oracle Linux 5およびRed Hat Enterprise Linux 5の要件は同一です。 Asianux Server 4、Red Hat Enterprise Linux 6の要件は同一です。 |
表2-5 Linux x86オペレーティング・システムのカーネル要件
表2-6 Linux x86 Grid InfrastructureおよびOracle RACのパッケージ要件
項目 | 要件 |
---|---|
Oracle Linux 4およびRed Hat Enterprise Linux 4 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.15.92.0.2 compat-libstdc++-33-3.2.3 elfutils-libelf-0.97 elfutils-libelf-devel-0.97 gcc-3.4.6 gcc-c++-3.4.6 glibc-2.3.4-2.41 glibc-common-2.3.4 glibc-devel-2.3.4 glibc-headers-2.3.4 libaio-devel-0.3.105 libaio-0.3.105 libgcc-3.4.6 libstdc++-3.4.6 libstdc++-devel-3.4.6 make-3.80 numactl-0.6.4.i386 pdksh-5.2.14 sysstat-5.0.5 unixODBC-2.2.11 unixODBC-devel-2.2.11 |
Asianux Server 3、Oracle Linux 5およびRed Hat Enterprise Linux 5 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.17.50.0.6 compat-libstdc++-33-3.2.3 elfutils-libelf-0.125 elfutils-libelf-devel-0.125 elfutils-libelf-devel-static-0.125 gcc-4.1.2 gcc-c++-4.1.2 glibc-2.5-24 glibc-common-2.5 glibc-devel-2.5 glibc-headers-2.5 kernel-headers-2.6.18 ksh-20060214 libaio-0.3.106 libaio-devel-0.3.106 libgcc-4.1.2 libgomp-4.1.2 libstdc++-4.1.2 libstdc++-devel-4.1.2 make-3.81 sysstat-7.0.2 unixODBC-2.2.11 unixODBC-devel-2.2.11 |
Oracle Linux 6、Red Hat Enterprise Linux 6、Asianux Server 4 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.20.51.0.2-5.11.el6.i686 compat-libcap1-1.10-1.i686 compat-libstdc++-33-3.2.3-69.el6.i686 gcc-4.4.4-13.el6.i686 gcc-c++-4.4.4-13.el6.i686 glibc-2.12-1.7.el6.i686 glibc-devel-2.12-1.7.el6.i686 ksh libgcc-4.4.4-13.el6.i686 libstdc++-4.4.4-13.el6.i686 libstdc++-devel-4.4.4-13.el6.i686 libaio-0.3.107-10.el6.i686 libaio-devel-0.3.107-10.el6.i686 make-3.81-19.el6.i686 sysstat-9.0.4-11.el6.i686 |
SUSE Linux Enterprise Server10の各パッケージ |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.16.91.0.5 compat-libstdc++-5.0.7 gcc-4.1.2 gcc-c++-4.1.2 glibc-2.4-31.63 glibc-devel-2.4.31.63 ksh-93r-12.9 libaio-0.3.104 libaio-devel-0.3.104 libelf-0.8.5 libgcc-4.1.2 libstdc++-4.1.2 libstdc++-devel-4.1.2 make-3.80 sysstat-8.0.4 |
SUSE Linux Enterprise Server11の各パッケージ |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.19 gcc-4.3 gcc-c++-4.3 glibc-2.9 glibc-devel-2.9 ksh-93t libcap1-1.10-6.10 libstdc++33-3.3.3 libstdc++43-4.3.3_20081022 libstdc++43-devel-4.3.3_20081022 libaio-0.3.104 libaio-devel-0.3.104 libgcc43-4.3.3_20081022 libstdc++-devel-4.3 make-3.81 sysstat-8.1.5 |
注意: Linux x86のnuma パッケージのリンクは/usr/lib です。 |
表2-7 Linux x86 Oracle Databaseの機能のパッケージ要件
項目 | 要件 |
---|---|
LDAPパッケージ |
デフォルトのLinuxインストールを実行しなかった場合、LDAPを使用し、スクリプト |
ご使用のLinuxディストリビューション用の最新のLinux PAM(Linux用プラガブル認証モジュール)ライブラリをインストールします。PAMによって、システム管理者はアプリケーションのユーザー認証方法を柔軟に選択できるようになります。Linuxでは、外部スケジューラ・ジョブにPAMが必要です。 |
|
Pro*C/C++、Oracle Call Interface、Oracle C++ Call Interface、Oracle XML Developer's Kit(XDK) |
これらの製品では、Intel C/C++ Compiler 10.1以上と、ディストリビューション用に前述したバージョンのGNU CおよびC++コンパイラの使用がサポートされています。 注意: Intel C/C++ Compiler v10.1は、OCCIアプリケーションを構築する際に、「パッケージ要件」に示されたgccバージョンの標準テンプレート・ライブラリでのみ使用できます。 Oracle XML Developer's Kitは、OCCIと同じコンパイラで使用できます。 |
Oracle ODBCドライバ |
Open Database Connectivity(ODBC)を使用する場合は、Linux用の最新のODBCドライバ・マネージャをインストールする必要があります。 ご使用のオペレーティング・システムのベンダーから、最新のODBCドライバを入手する必要があります。ODBCの詳細は、次のURLを参照してください。
ODBC RPMは、ODBCを使用する場合にのみ必要です。ODBCを使用しない場合は、Oracle Clusterware、Oracle ASMまたはOracle RACにODBC RPMをインストールする必要はありません。 ODBCを使用する場合は、オペレーティング・システムに応じて、次の32-bit ODBC RPMも追加でインストールする必要があります。 Oracle Linux 4およびRed Hat Enterprise Linux 4: unixODBC-2.2.11 (32 bit) or later unixODBC-devel-2.2.11 (32 bit) or later Asianux Server 3、Oracle Linux 5およびRed Hat Enterprise Linux 5: unixODBC-2.2.11 (32 bit) or laterunixODBC-devel-2.2.11 (32 bit) or later Oracle Linux 6、Red Hat Enterprise Linux 6およびAsianux Server 4: unixODBC-2.2.14-11.el6.i686 or laterunixODBC-devel-2.2.14-11.el6.i686 or later SUSE Linux Enterprise Server 10: unixODBC-32bit-2.2.11 (32 bit) or later unixODBC-devel-32bit-2.2.11 (32 bit) or later SUSE Linux Enterprise Server 11: unixODBC-32bit-2.2.12 (32-bit) or later unixODBC-devel-32bit-2.2.12 (32 bit) or later |
Oracle JDBC/OCIドライバ |
Oracle Java Database ConnectivityおよびOracle Call Interfaceドライバでは、JNDI拡張機能を提供するJDK 6(Java SE Development Kit 1.6.0_21)またはJDK 5(1.5.0_24)を使用します。このリリースでは、JDK 1.5がインストールされています。 |
Oracle Real Application Clusters |
クラスタ・ファイル・システムの場合は、次のいずれかのオプションを使用します。 OCFS2
共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有mmapがサポートされているバージョン1.4.1以上にアップグレードする必要があります。 OCFSのバージョンを確認するには、次のコマンドを入力します。 modinfo ocfs2 OCFS2ツールとOCFS2コンソールのバージョンを確認するには、次のコマンドを入力します。 rpm -qa| grep ocfs2
OCFS2の詳細は、次のWebサイトを参照してください。
OCFS2の動作保証については、My Oracle Supportの「動作保証」ページを参照してください。 |
Oracle Grid Infrastructureのみをインストールする場合は、カーネル・バージョンとパッケージが、表2-8および表2-9に示されたものであることを確認します。
サーバーにOpenSSHがインストールされていることを確認します。OpenSSHは必須のSSHソフトウェアです。
Oracle Grid Infrastructureに加えてOracle DatabaseまたはOracle RACをインストールする場合は、表2-10を確認し、使用する予定の機能のために追加パッケージをインストールする必要があるかどうかを確認します。
注意: Asianux Server、Oracle LinuxおよびRed Hat Enterprise Linuxの場合、通常、2.6カーネルのシステム要件はカーネル・バージョンごとに同一です。具体的には、次のとおりです。Oracle Linux 4およびRed Hat Enterprise Linux 4の要件は同じです。 Asianux Server 3、Oracle Linux 5およびRed Hat Enterprise Linux 5 Update 2の要件は同一です。 Oracle Linux 6には、Unbreakable Enterprise Kernelが含まれています。 x86-64システムに使用可能なOracle Unbreakable Enterprise Kernel for Linux 5 Update 5 (2.6.32)およびOracle Linux 6には、Oracle Linuxまたはその他のサポートされているLinuxディストリビューションでは使用できない追加機能およびパフォーマンス拡張が複数含まれます。このカーネルは、Oracle LinuxまたはRed Hat Enterprise Linuxディストリビューションにインストールできます。Unbreakable Enterprise Kernel,カーネルをインストールする前に、Oracle Linux 5 Update 5またはRHEL5 Update 5をx86-64サーバーにインストールしておく必要があります。 Oracle Linux 6の場合、Oracle Validated RPMはOracle Preinstallation RPMに置き換えられています。詳細は、第2.1.1項「Linuxの最小インストールの実行」を参照してください。 Oracle Grid Infrastructure 11g リリース2 (11.2.0.2)以上では、gcc-32bit-4.3を除いて、次の表に示すすべての32-bitパッケージはインストールに必要なくなりました。64-bitパッケージのみ必要です。ただし、Oracle 11gリリース2 (11.2.0.1)より前のリリースでは、次の表に示す32-bitと64-bitのパッケージの両方が必要です。 |
表2-8 Linux x86-64オペレーティング・システムのカーネル要件
表2-9 Linux x86-64 Oracle Grid InfrastructureおよびOracle RACのパッケージ要件
項目 | 要件 |
---|---|
Oracle Linux 7およびRed Hat Enterprise Linux 7 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.23.52.0.1-12.el7.x86_64 compat-libcap1-1.10-3.el7.x86_64 gcc-4.8.2-3.el7.x86_64 gcc-c++-4.8.2-3.el7.x86_64 glibc-2.17-36.el7.i686 glibc-2.17-36.el7.x86_64 glibc-devel-2.17-36.el7.i686 glibc-devel-2.17-36.el7.x86_64 ksh libaio-0.3.109-9.el7.i686 libaio-0.3.109-9.el7.x86_64 libaio-devel-0.3.109-9.el7.i686 libaio-devel-0.3.109-9.el7.x86_64 libgcc-4.8.2-3.el7.i686 libgcc-4.8.2-3.el7.x86_64 libstdc++-4.8.2-3.el7.i686 libstdc++-4.8.2-3.el7.x86_64 libstdc++-devel-4.8.2-3.el7.i686 libstdc++-devel-4.8.2-3.el7.x86_64 libXi-1.7.2-1.el7.i686 libXi-1.7.2-1.el7.x86_64 libXtst-1.2.2-1.el7.i686 libXtst-1.2.2-1.el7.x86_64 make-3.82-19.el7.x86_64 sysstat-10.1.5-1.el7.x86_64 |
Oracle Linux 6 (2.6.32-100.28.5.el6.x86_64以上) |
Unbreakable Linux NetworkでOracle Linux 6チャネルをサブスクライブした後、Oracle Preinstallation RPMをインストールします。これによって、Oracle Unbreakable Enterprise Kernel for Linuxと、Oracle Grid InfrastructureおよびOracle Databaseインストールに必須のすべてのカーネル・パッケージがインストールされます。 |
Oracle Linux 6、Red Hat Enterprise Linux 6、Asianux Server 4 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.20.51.0.2-5.11.el6 (x86_64) compat-libcap1-1.10-1 (x86_64) compat-libstdc++-33-3.2.3-69.el6 (x86_64) compat-libstdc++-33-3.2.3-69.el6.i686 gcc-4.4.4-13.el6 (x86_64) gcc-c++-4.4.4-13.el6 (x86_64) glibc-2.12-1.7.el6 (i686) glibc-2.12-1.7.el6 (x86_64) glibc-devel-2.12-1.7.el6 (x86_64) glibc-devel-2.12-1.7.el6.i686 ksh libgcc-4.4.4-13.el6 (i686) libgcc-4.4.4-13.el6 (x86_64) libstdc++-4.4.4-13.el6 (x86_64) libstdc++-4.4.4-13.el6.i686 libstdc++-devel-4.4.4-13.el6 (x86_64) libstdc++-devel-4.4.4-13.el6.i686 libaio-0.3.107-10.el6 (x86_64) libaio-0.3.107-10.el6.i686 libaio-devel-0.3.107-10.el6 (x86_64) libaio-devel-0.3.107-10.el6.i686 make-3.81-19.el6 sysstat-9.0.4-11.el6 (x86_64) |
Oracle Linux 5 Update 5 (2.6.32-100.0.19以上) |
Unbreakable Linux NetworkでOracle Linux 5チャネルをサブスクライブした後、Oracle Preinstallation RPM (またはOracle Validated RPM)をインストールします。これにより、Oracle Enterprise Kernel for Linux、およびOracle Grid InfrastructureとOracle Databaseのインストールに必須のすべてのカーネル・パッケージがインストールされます。 |
Asianux Server 3、Oracle Linux 5およびRed Hat Enterprise Linux 5 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.17.50.0.6 compat-libstdc++-33-3.2.3 compat-libstdc++-33-3.2.3 (32 bit) elfutils-libelf-0.125 elfutils-libelf-devel-0.125 gcc-4.1.2 gcc-c++-4.1.2 glibc-2.5-24 glibc-2.5-24 (32 bit) glibc-common-2.5 glibc-devel-2.5 glibc-devel-2.5 (32 bit) glibc-headers-2.5 ksh-20060214 libaio-0.3.106 libaio-0.3.106 (32 bit) libaio-devel-0.3.106 libaio-devel-0.3.106 (32 bit) libgcc-4.1.2 libgcc-4.1.2 (32 bit) libstdc++-4.1.2 libstdc++-4.1.2 (32 bit) libstdc++-devel-4.1.2 make-3.81 sysstat-7.0.2 unixODBC-2.2.11 unixODBC-2.2.11 (32 bit) unixODBC-devel-2.2.11 unixODBC-devel-2.2.11 (32 bit) coreutils-5.97-23.el5_4.1 or later |
Oracle Linux 4およびRed Hat Enterprise Linux 4 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.15.92.0.2 compat-libstdc++-33-3.2.3 compat-libstdc++-33-3.2.3 (32 bit) elfutils-libelf-0.97 elfutils-libelf-devel-0.97 expat-1.95.7 gcc-3.4.6 gcc-c++-3.4.6 glibc-2.3.4-2.41 glibc-2.3.4-2.41 (32 bit) glibc-common-2.3.4 glibc-devel-2.3.4 glibc-headers-2.3.4 libaio-0.3.105 libaio-0.3.105 (32 bit) libaio-devel-0.3.105 libaio-devel-0.3.105 (32 bit) libgcc-3.4.6 libgcc-3.4.6 (32-bit) libstdc++-3.4.6 libstdc++-3.4.6 (32 bit) libstdc++-devel 3.4.6 make-3.80 numactl-0.6.4.x86_64 pdksh-5.2.14 sysstat-5.0.5 unixODBC-2.2.11 unixODBC-2.2.11 (32 bit) unixODBC-devel-2.2.11 unixODBC-devel-2.2.11 (32 bit) |
SUSE Linux Enterprise Server 12 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.25.0-13.1 gcc-4.8-6.189 gcc48-4.8.5-24.1 glibc-2.19-31.9 glibc-32bit-2.19-31.9 glibc-devel-2.19-31.9.x86_64 glibc-devel-32bit-2.19-31.9.x86_64 libaio1-0.3.109-17.15 libaio-devel-0.3.109-17.15 libcap1-1.10-59.61 libstdc++48-devel-4.8.5-24.1.x86_64 libstdc++48-devel-32bit-4.8.5-24.1.x86_64 libstdc++6-5.2.1+r226025-4.1.x86_64 libstdc++6-32bit-5.2.1+r226025-4.1.x86_64 libstdc++-devel-4.8-6.189.x86_64 libstdc++-devel-32bit-4.8-6.189.x86_64 libgcc_s1-5.2.1+r226025-4.1.x86_64 libgcc_s1-32bit-5.2.1+r226025-4.1.x86_64 mksh-50-2.13 make-4.0-4.1.x86_64 sysstat-10.2.1-3.1.x86_64 xorg-x11-driver-video-7.6_1-14.30.x86_64 xorg-x11-server-7.6_1.15.2-36.21.x86_64 xorg-x11-essentials-7.6_1-14.17.noarch xorg-x11-Xvnc-1.4.3-7.2.x86_64 xorg-x11-fonts-core-7.6-29.45.noarch xorg-x11-7.6_1-14.17.noarch xorg-x11-server-extra-7.6_1.15.2-36.21.x86_64 xorg-x11-libs-7.6-45.14.noarch xorg-x11-fonts-7.6-29.45.noarch 注意: パッチ18370031をダウンロードしてインストールする必要があります。このパッチのダウンロードおよびインストール方法の詳細は、次を参照してください。 |
SUSE Linux Enterprise Server 11。 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.19 gcc-4.3 gcc-32bit-4.3 gcc-c++-4.3 glibc-2.9 glibc-32bit-2.9 glibc-devel-2.9 glibc-devel-32bit-2.9 ksh-93t libaio-0.3.104 libaio-32bit-0.3.104 libaio-devel-0.3.104 libaio-devel-32bit-0.3.104 libstdc++33-3.3.3 libstdc++33-32bit-3.3.3 libstdc++43-4.3.3_20081022 libstdc++43-32bit-4.3.3_20081022 libstdc++43-devel-4.3.3_20081022 libstdc++43-devel-32bit-4.3.3_20081022 libgcc43-4.3.3_20081022 libstdc++-devel-4.3 make-3.81 sysstat-8.1.5 |
SUSE Linux Enterprise Server 10。 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.16.91.0.5 compat-libstdc++-5.0.7 (not needed with IBM:Linux on System z) gcc-4.1.2 gcc-c++-4.1.2 glibc-2.4-31.63 glibc-devel-2.4 glibc-devel-32bit-2.4 ksh-93r-12.9 libaio-0.3.104 libaio-32bit-0.3.104 libaio-devel-0.3.104 libaio-devel-32bit-0.3.104 libelf-0.8.5 libgcc-4.1.2 libstdc++-4.1.2 make-3.80 numactl-0.9.6.x86_64 sysstat-8.0.4 |
NeoKylin Linux Advanced Server 7 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.23.52.0.1-55.el7.x86_64 compat-libcap1-1.10-7.el7.x86_64 gcc-4.8.5-4.el7.ns7.01.x86_64 gcc-c++-4.8.5-4.el7.ns7.01.x86_64 glibc-2.17-105.el7.ns7.01.i686 glibc-2.17-105.el7.ns7.01.x86_64 glibc-devel-2.17-105.el7.ns7.01.i686 glibc-devel-2.17-105.el7.ns7.01.x86_64 ksh-20120801-22.el7_1.2.x86_64 libaio-0.3.109-13.el7.i686 libaio-0.3.109-13.el7.x86_64 libaio-devel-0.3.109-13.el7.i686 libaio-devel-0.3.109-13.el7.x86_64 libgcc-4.8.5-4.el7.ns7.01.i686 libgcc-4.8.5-4.el7.ns7.01.x86_64 libstdc++-4.8.5-4.el7.ns7.01.i686 libstdc++-4.8.5-4.el7.ns7.01.x86_64 libstdc++-devel-4.8.5-4.el7.ns7.01.i686 libstdc++-devel-4.8.5-4.el7.ns7.01.x86_64 libXi-1.7.4-2.el7.i686 libXi-1.7.4-2.el7.x86_64 libXtst-1.2.2-2.1.el7.i686 libXtst-1.2.2-2.1.el7.x86_64 make-3.82-21.el7.x86_64 sysstat-10.1.5-7.el7.x86_64 |
NeoKylin Linux Advanced Server 6 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.20.51.0.2-5.36.el6 (x86_64) compat-libcap1-1.10-1 (x86_64) compat-libstdc++-33-3.2.3-69.el6 (x86_64) compat-libstdc++-33-3.2.3-69.el6 (i686) gcc-4.4.7-4.el6 (x86_64) gcc-c++-4.4.7-4.el6 (x86_64) glibc-2.12-1.132.el6 (i686) glibc-2.12-1.132.el6 (x86_64) glibc-devel-2.12-1.132.el6 (x86_64) glibc-devel-2.12-1.132.el6 (i686) ksh libgcc-4.4.7-4.el6 (i686) libgcc-4.4.7-4.el6 (x86_64) libstdc++-4.4.7-4.el6 (x86_64) libstdc++-4.4.7-4.el6 (i686) libstdc++-devel-4.4.7-4.el6 (x86_64) libstdc++-devel-4.4.7-4.el6 (i686) libaio-0.3.107-10.el6 (x86_64) libaio-0.3.107-10.el6 (i686) libaio-devel-0.3.107-10.el6 (x86_64) libaio-devel-0.3.107-10.el6 (i686) make-3.81-20.el6 sysstat-9.0.4-22.el6 (x86_64) |
注意: Linux x86-64のnumaパッケージ・リンクは/usr/lib64/ です。 |
表2-10 Linux x86-64 Oracle Databaseの機能のパッケージ要件
項目 | 要件 |
---|---|
LDAPパッケージ |
デフォルトのLinuxインストールを実行しなかった場合、LDAPを使用し、スクリプト |
Pro*C/C++、Oracle Call Interface、Oracle C++ Call Interface、Oracle XML Developer's Kit(XDK) |
これらの製品では、Intel C/C++ Compiler 10.1以上と、ディストリビューション用に前述したバージョンのGNU CおよびC++コンパイラの使用がサポートされています。 注意: Intel C/C++ Compiler v10.1は、Oracle C++ Call Interface(OCCI)アプリケーションを作成するためにサポートされているgccバージョンの標準テンプレート・ライブラリでのみ使用できます。 Oracle XML Developer's Kitは、OCCIと同じコンパイラで使用できます。 |
ご使用のLinuxディストリビューション用の最新のLinux PAM(Linux用プラガブル認証モジュール)ライブラリをインストールします。PAMによって、システム管理者はアプリケーションのユーザー認証方法を柔軟に選択できるようになります。Linuxでは、外部スケジューラ・ジョブにPAMが必要です。 |
|
Oracle ODBCドライバ |
Open Database Connectivity(ODBC)を使用する場合は、Linux用の最新のODBCドライバ・マネージャをインストールする必要があります。 ご使用のオペレーティング・システムのベンダーから、最新のODBCドライバを入手する必要があります。ODBCの詳細は、次のURLを参照してください。
ODBC RPMは、ODBCを使用する場合にのみ必要です。ODBCを使用しない場合は、Oracle Clusterware、Oracle ASMまたはOracle RACにODBC RPMをインストールする必要はありません。 |
Oracle ODBCドライバ RPM |
ODBCを使用するには、使用するオペレーティング・システムに応じて、次のODBC RPMも追加インストールする必要があります。 Oracle Linux 4およびRed Hat Enterprise Linux 4: unixODBC-2.2.11 (32 bit) or later unixODBC-devel-2.2.11 (64 bit) or later unixODBC-2.2.11 (64 bit ) or later Asianux Server 3、Oracle Linux 5およびRed Hat Enterprise Linux 5: unixODBC-devel-2.2.11 (32 bit) or later unixODBC-devel-2.2.11 (64 bit) or later unixODBC-2.2.11 (64 bit) or later Oracle Linux 6およびRed Hat Enterprise Linux 6: unixODBC-2.2.14-11.el6 (x86_64) or later unixODBC-2.2.14-11.el6.i686 or later unixODBC-devel-2.2.14-11.el6 (x86_64) or later unixODBC-devel-2.2.14-11.el6.i686 or later Oracle Linux 7およびRed Hat Enterprise Linux 7: unixODBC-2.3.1-6.el7.x86_64 or later unixODBC-2.3.1-6.el7.i686 or later unixODBC-devel-2.3.1-6.el7.x86_64 or later unixODBC-devel-2.3.1-6.el7.i686 or later SUSE Linux Enterprise Server 10: unixODBC-32bit-2.2.11 (32 bit) or later unixODBC-2.2.11 (64 bit ) or later unixODBC-devel-2.2.11 (64 bit) or later SUSE Linux Enterprise Server 11: unixODBC-2.2.12 or later unixODBC-devel-2.2.12 or later unixODBC-32bit-2.2.12 (32 bit) or later NeoKylin Linux Advanced Server 7の場合: unixODBC-2.3.1-11.el7.i686 or later unixODBC-2.3.1-11.el7.x86_64 or later unixODBC-devel-2.3.1-11.el7.i686 or later unixODBC-devel-2.3.1-11.el7.x86_64 or later NeoKylin Linux Advanced Server 6の場合: unixODBC-2.2.14-12.el6_3.i686 or later unixODBC-2.2.14-12.el6_3.x86_64 or later unixODBC-devel-2.2.14-12.el6_3.x86_64 or later unixODBC-devel-2.2.14-12.el6_3.i686 or later |
Oracle JDBC/OCIドライバ |
Oracle JDBC/OCIドライバでは、次の任意のJDKバージョンを使用できますが、インストールには必要ありません。
注意: このリリースでは、デフォルトでJDK 1.5がインストールされています。 |
Oracle Real Application Clusters |
クラスタ・ファイル・システムの場合は、次のオプションを使用します。 OCFS2
OCFSのバージョンを確認するには、次のコマンドを入力します。 modinfo ocfs2 OCFS2ツールとOCFS2コンソールのバージョンを確認するには、次のコマンドを入力します。 rpm -qa| grep ocfs2
OCFS2の詳細は、次のWebサイトを参照してください。
OCFS2の動作保証については、My Oracle Supportの「動作保証」ページを参照してください。
OCFS2の動作保証については、My Oracle Supportの「動作保証」ページを参照してください。 |
サーバーにOpenSSHがインストールされていることを確認します。OpenSSHは必須のSSHソフトウェアです。
表2-11 IBM: Linux on System zのパッケージ要件
項目 | 要件 |
---|---|
オペレーティング・システム |
Red Hat Enterprise Linux 7 Red Hat Enterprise Linux 6 Red Hat Enterprise Linux 5 Red Hat Enterprise Linux 4 SUSE Linux Enterprise Server 11。 SUSE Linux Enterprise Server 10。 |
カーネル・バージョン |
システムで、各Linuxディストリビューションに対し、次のバージョンのカーネルが実行されている必要があります。 Red Hat Enterprise Linux 7: 3.10.0-229.el7以上 Red Hat Enterprise Linux 6: 2.6.32-200以上 Red Hat Enterprise Linux 5: 2.6.18以上 Red Hat Enterprise Linux 4: 2.6.9以上 SUSE Linux Enterprise Server 11: 2.6.32.12以上 SUSE Linux Enterprise Server 10: 2.6.16.60以上 |
Red Hat Enterprise Linux 7 |
次のパッケージ(またはそれ以上のバージョン)がインストールされている必要があります binutils-2.23.52.0.1-30.el7.s390x compat-libcap1-1.10-7.el7.s390x cpp-4.8.2-16.el7.s390x gcc-4.8.3-9.el7.s390x gcc-c++-4.8.3-9.el7.s390x glibc-2.17-78.el7.s390 glibc-2.17-78.el7.s390x glibc-devel-2.17-78.el7.s390 glibc-devel-2.17-78.el7.s390x glibc-headers-2.17-55.el7.s390x ksh-20120801-22.el7.s390x libaio-0.3.109-12.el7.s390 libaio-0.3.109-12.el7.s390x libaio-devel-0.3.109-12.el7.s390 libaio-devel-0.3.109-12.el7.s390x libgcc-4.8.3-9.el7.s390 libgcc-4.8.3-9.el7.s390x libstdc++-4.8.3-9.el7.s390 libstdc++-4.8.3-9.el7.s390x libstdc++-devel-4.8.3-9.el7.s390 libstdc++-devel-4.8.3-9.el7.s390x libXi-1.2.2-2.1.el7.s390 libXi-1.2.2-2.1.el7.s390x libXtst-1.2.2-2.1.el7.s390 libXtst-1.2.2-2.1.el7.s390x make-3.82-21.el7.s390x mpfr-3.1.1-4.el7.s390x sysstat-10.1.5-7.el7.s390x |
Red Hat Enterprise Linux 6 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.20.51.0.2-5.28 (s390x) compat-libstdc++-33-3.2.3-69.el6 (s390) gcc-4.4.6-3.el6 (s390x) gcc-c++-4.4.6-3.el6 (s390x) glibc-2.12-1.47.el6 (s390) glibc-2.12-1.47.el6 (s390x) glibc-devel-2.12-1.47.el6 (s390) glibc-devel-2.12-1.47.el6 (s390x) ksh libaio-0.3.107-10.el6 (s390) libaio-0.3.107-10.el6 (s390x) libaio-devel-0.3.107-10.el6 (s390x) libgcc-4.4.6-3.el6 (s390) libgcc-4.4.6-3.el6 (s390x) libstdc++-4.4.6-3.el6 (s390x) make-3.81-19.el6 (s390x) sysstat-9.0.4-18.el6 (s390x) unixODBC-2.2.14-11.el6 (s390x) (Only needed if using ODBC) unixODBC-devel-2.2.14-11.el6 (s390x) (Only needed if using ODBC) |
Red Hat Enterprise Linux 5 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.17.50.0.6-12.el5 (s390x) compat-libstdc++-33-3.2.3-61 (s390) compat-libstdc++-33-3.2.3-61 (s390x) gcc-4.1.2-46.el5 (s390x) gcc-c++-4.1.2-46.el5 (s390x) glibc-2.5-42(s390) glibc-2.5-42 (s390x) glibc-devel-2.5-42 (s390) glibc-devel-2.5-42 (s390x) ksh libaio-0.3.106-3.2 (s390) libaio-0.3.106-3.2 (s390x) libaio-devel-0.3.106-3.2 (s390) libaio-devel-0.3.106-3.2 (s390x) libgcc-4.1.2-46.el5 (s390) libgcc-4.1.2-46.el5 (s390x) libstdc++-4.1.2-46.el5 (s390) libstdc++-4.1.2-46.el5 (s390x) libstdc++-devel-4.1.2-46.el5 (s390x) make-3.81 sysstat-7.0.2-3.el5 (s390x) unixODBC-2.2.11 (Only needed if using ODBC) unixODBC-devel-2.2.11 (Only needed if using ODBC) |
Red Hat Enterprise Linux 4 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.15.92.0.2-25 (s390x) compat-libstdc++-33-3.2.3-47.3 (s390) compat-libstdc++-33-3.2.3-47.3 (s390x) gcc-3.4.6-11 (s390x) gcc-c++-3.4.6-11 (s390x) glibc-2.3.4-2.43 (s390) glibc-2.3.4-2.43 (s390x) glibc-devel-2.3.4-2.43 (s390) glibc-devel-2.3.4-2.43 (s390x) libaio-0.3.105-2 (s390) libaio-0.3.105-2 (s390x) libaio-devel-0.3.105-2 (s390) libaio-devel-0.3.105-2 (s390x) libgcc-3.4.6-11 (s390) libgcc-3.4.6-11 (s390x) libstdc++-3.4.6-10.0.1 libstdc++-3.4.6-10.0.1 (32-bit) libstdc++-devel-3.4.6-10.0.1 libstdc++-devel-3.4.6-10.0.1 (x86_64) make-3.80 pdksh sysstat-5.0.5-25.el4 (s390x) unixODBC-2.2.11 (Only needed if using ODBC) unixODBC-devel-2.2.11 (Only needed if using ODBC) |
SUSE Linux Enterprise Server 11。 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-2.20.0-0.7.9 (s390x) gcc-4.3-62.198 (s390x) gcc-c++-4.3-62.198 (s390x) glibc-2.11.1-0.17.4 (s390x) glibc-32bit-2.11.1-0.17.4 (s390x) glibc-devel-2.11.1-0.17.4 (s390x) glibc-devel-32bit-2.11.1-0.17.4 (s390x) ksh libaio-0.3.109-0.1.46 (s390x) libaio-32bit-0.3.109-0.1.46 (s390x) libaio-devel-0.3.109-0.1.46 (s390x) libaio-devel-32bit-0.3.109-0.1.46 (s390x) libstdc++43-4.3.4_20091019-0.7.35 (s390x) libstdc++43-32bit-4.3.4_20091019-0.7.35 (s390x) libstdc++43-devel-4.3.4_20091019-0.7.35 (s390x) libstdc++43-devel-32bit-4.3.4_20091019-0.7.35 (s390x) libgcc43-4.3.4_20091019-0.7.35 make-3.81 sysstat-8.1.5-7.9.56 (s390x) unixODBC-2.2.11 (Only needed if using ODBC) unixODBC-devel-2.2.11 (Only needed if using ODBC) |
SUSE Linux Enterprise Server 10。 |
次のバージョン以上のパッケージがインストールされている必要があります。 binutils-32bit-2.16.91.0.5-23.34.33 (s390x) gcc-4.1.2_20070115-0.29.6 (s390x) gcc-c++-4.1.2_20070115-0.29.6 (s390x) glibc-2.4-31.74.1 (s390x) glibc-32bit-2.4-31.74.1 (s390x) glibc-devel-2.4-31.74.1 (s390x) glibc-devel-32bit-2.4-31.74.1 (s390x) ksh libaio-0.3.104-14.2 (s390x) libaio-32bit-0.3.104-14.2 (s390x) libaio-devel-0.3.104-14.2 (s390x) libaio-devel-32bit-0.3.104-14.2 (s390x) libgcc-4.1.2_20070115-0.29.6 (s390x) libstdc++-4.1.2_20070115-0.29.6 (s390x) libstdc++-devel-4.1.2_20070115-0.29.6 (s390x) make-3.80-202.2 (s390x) sysstat-8.0.4-1.7.27 (s390x) unixODBC-2.2.11 (Only needed if using ODBC) unixODBC-devel-2.2.11 (Only needed if using ODBC) |
IBM WebSphere MQ for Linux |
MQ Series 7.0 (Red Hat 5、Red Hat 6、Red Hat 7、SUSE 10、SUSE 11) |
Micro Focus Server Express |
Micro Focus Server Express 5.1 |
Oracle ODBCドライバ |
ODBCを使用する場合は、OCFS2 1.4以上をインストールします。 ドライバ・マネージャは、次のURLからダウンロードしてインストールできます。
Linux RPMは、このサイトで入手できます。 Oracle Clusterware、Oracle DatabaseまたはOracle RACのインストールにODBCドライバ・マネージャは必要ありません。 次の追加ODBC RPM(またはそれ以降のバージョン)が必要です。 Red Hat Enterprise Linux 4: unixODBC-2.2.11 (32 bit) or later unixODBC-devel-2.2.11 (64 bit) or later unixODBC-2.2.11 (64 bit ) or later Red Hat Enterprise Linux 5: unixODBC-2.2.11 (32 bit) or later unixODBC-devel-2.2.11 (64 bit) or later unixODBC-2.2.11 (64 bit) or later Red Hat Enterprise Linux 6: unixODBC-2.2.14-11 (32 bit) or later unixODBC-devel-2.2.14-11(64 bit) or later unixODBC-2.2.14-11 (64 bit) or later Red Hat Enterprise Linux 7: unixODBC-2.3.1-11 (32 bit) or later unixODBC-2.3.1-11 (64 bit) or later unixODBC-devel-2.3.1-11 (32 bit) or later unixODBC-devel-2.3.1-11 (64 bit) or later SUSE Linux Enterprise Server 10: unixODBC-32bit-2.2.11 (32 bit) or later unixODBC-2.2.11 (64 bit ) or later unixODBC-devel-2.2.11 (64 bit) or later SUSE Linux Enterprise Server 11の場合: unixODBC-2.2.12 or later unixODBC-devel-2.2.12 or later unixODBC-32bit-2.2.12 (32 bit) or later |
Oracle JDBC/OCIドライバ |
Oracle JDBC/OCIドライバでは、次の任意のJDKバージョンのいずれかを使用できますが、インストールには必要ありません。
|
システムがこれらの要件を満たしていることを確認するには、次の手順を実行します。
次のコマンドを入力して、Linuxのディストリビューションおよびバージョンを確認します。
# cat /proc/version
注意: 前述の表に示されているディストリビューションとバージョンのみがサポートされています。他のバージョンのLinuxにはソフトウェアをインストールしないでください。 |
次のコマンドを入力して、必要なカーネル・エラータがインストールされているかどうかを確認します。
# uname -r
Red Hat Enterprise Linux 4.0システム上で次のコマンドを実行すると、次のような出力が表示されます。
2.6.9-55.0.0.0.2.ELsmp
この例の出力結果には、システムのカーネル・バージョン(2.6.9
)およびエラータ・レベル(55.0.0.0.2.ELsmp
)が表示されます。
ご使用のディストリビューションに必要なエラータ・レベルを確認します。エラータ・レベルが必要最小限のエラータ更新より以前の場合は、Linuxのディストリビュータからカーネルの最新の更新を取得してインストールします。
次のコマンドを入力して、必要なパッケージがインストールされているかどうかを確認します。
# rpm -q package_name
特定のシステム・アーキテクチャ情報が必要な場合は、次のコマンドを入力します。
# rpm -qa --queryformat "%{NAME}-%{VERSION}-%{RELEASE} (%{ARCH})\n" | grep package_name
複数のパッケージの問合せをまとめて行い、その出力によって適切なバージョンかどうかを確認することもできます。次に例を示します。
# rpm -q binutils compat-libstdc++ elfutils gcc glibc libaio libgcc libstdc++ \ make sysstat unixodbc
パッケージがインストールされていない場合は、Linuxの配布メディアからインストールするか、またはLinuxのディストリビュータのサイトから必要なバージョンのパッケージをダウンロードしてインストールします。
次のコマンドを入力して、OCFS2がインストールされているかどうかを確認します。
# /sbin/modinfo ocfs2
Oracle DatabaseファイルをOCFS2ファイル・システムにインストールする際にパッケージがインストールされていない場合は、次のWebサイトからダウンロードします。キットに記載された手順に従って、パッケージをインストールし、ファイル・システムを構成します。
http://oss.oracle.com/projects/ocfs2/
サーバーの予測負荷に対応できる十分なエフェメラル・ポートを提供するために、TCP/IPエフェメラル・ポート範囲のパラメータを設定します。Well Knownポートを避け、通常、Oracleとその他のサーバー・ポートが使用する登録済ポートの範囲にあるポートを避けるために、範囲の下限が9000以上になるようにします。ポート範囲は、使用する予定のアプリケーションに予約されているポートを避けるために十分に高く設定します。範囲の下限値が9000より大きく、予測負荷に十分対応するだけの大きさがある場合は、エフェメラル・ポート範囲に関するOUIの警告は無視してかまいません。
たとえば、IPv4の場合、次のコマンドを使用して、エフェメラル・ポートの現在の範囲を確認します。
$ cat /proc/sys/net/ipv4/ip_local_port_range 32768 61000
前述の例では、最も低いポート(32768)と最も高いポート(61000)がデフォルトの範囲に設定されています。
必要に応じて、UDPおよびTCPエフェメラル・ポートの範囲を、システムの予測負荷に対応できる十分な値に更新し、エフェメラル・ポートの範囲が9000以上になるようにします。次に例を示します。
# echo 9000 65500 > /proc/sys/net/ipv4/ip_local_port_range
これらの値が永続的になるように設定することをお薦めします。たとえば、root
として、テキスト・エディタを使用して/etc/sysctl.conf
を開き、net.ipv4.ip_local_port_range = 9000 65500
のように追加または変更してから、ネットワーク(# /etc/rc.d/init.d/network restart
)を再起動します。システムの再起動時にこのエフェメラル・ポートの範囲の変更を自動的に行う方法については、ご使用のLinuxディストリビューションのシステム管理ドキュメントを参照してください。
Oracle Clusterwareでは、すべてのクラスタ・ノードで同じのタイムゾーン設定が必要です。インストール中に、インストール・プロセスは、OUIを実行しているノードでグリッド・インストール所有者のタイムゾーン設定を選択し、Oracle Clusterwareによって管理されるすべてのプロセスのデフォルトのTZ設定として、すべてのノードでその設定を使用します。このデフォルトは、データベース、Oracle ASMおよびその他の管理プロセスで使用されます。
時刻を同期させるための手段は2つあります。オペレーティング・システムに構成されているネットワーク・タイム・プロトコル(NTP)と、Oracleクラスタ時刻同期化サービスです。Oracleクラスタ時刻同期化サービスは、クラスタ・サーバーからNTPサービスにアクセスできない組織のために設計されています。NTPを使用する場合、Oracle Cluster時刻同期化デーモン(ctssd
)はオブザーバ・モードで起動します。NTPデーモンがない場合、ctssd
はアクティブ・モードで起動し、外部の時間サーバーに接続しなくても、クラスタ・メンバー間で時刻が同期化されます。
注意: Oracle Grid Infrastructureのインストールを開始する前に、すべてのノードの時計が同じ時刻になっていることを確認することをお薦めします。 |
サーバー上にNTPデーモンがあっても時間サーバーの時刻と同期されるように構成できない場合に、クラスタ時刻同期化サービスを使用してクラスタ内で同期化サービスを提供する場合は、NTPを非アクティブにし、削除します。
NTPサービスを非アクティブ化するには、既存のntpd
サービスを停止し、初期化シーケンスでは無効化し、ntp.conf
ファイルを削除します。この手順をOracle LinuxおよびAsianuxのシステムで行うには、次のコマンドをroot
ユーザーとして実行します。
# /sbin/service ntpd stop # chkconfig ntpd off # rm /etc/ntp.conf
または、mv /etc/ntp.conf
to /etc/ntp.conf.org
を実行します。
次のファイルも削除します。
/var/run/ntpd.pid
このファイルには、NTPデーモンのpidが保持されています。
NTPプロトコルがアクティブでないとインストーラによって判断されると、クラスタ時刻同期化サービスがアクティブ・モードでインストールされ、ノード間で時刻が同期されます。NTPが構成されていると判断された場合は、クラスタ時刻同期化サービスはオブザーバ・モードで起動され、クラスタ内でOracle Clusterwareによるアクティブな時刻同期化は行われません。
インストール後にctssd
がアクティブになっていることを確認するには、グリッド・インストール所有者として次のコマンドを入力します。
$ crsctl check ctss
NTPを使用しており、クラスタ時刻同期化サービスではなくNTPを使用し続けたい場合は、NTP構成を変更して-x
フラグを設定し、逆向きの時間調整が行われないようにします。この作業が終わった後で、ネットワーク・タイム・プロトコル・デーモンを再起動します。
これを行うには、Oracle Linux、Red Hat LinuxおよびAsianux systemsでは、/etc/sysconfig/ntpd
ファイルを編集して、次の例のように-x
フラグを追加します。
# Drop root to id 'ntp:ntp' by default. OPTIONS="-x -u ntp:ntp -p /var/run/ntpd.pid" # Set to 'yes' to sync hw clock after successful ntpdate SYNC_HWCLOCK=no # Additional options for ntpdate NTPDATE_OPTIONS=""
# /sbin/service ntp restart
SUSEシステムでは、構成ファイル/etc/sysconfig/ntp
を次の設定に変更します。
NTPD_OPTIONS="-x -u ntp"
次のコマンドを使用して、デーモンを再起動します。
# service ntp restart
オペレーティング・システム・パッケージcvuqdisk
をインストールします。cvuqdisk
がインストールされていない状態でクラスタ検証ユーティリティを実行すると、クラスタ検証ユーティリティは共有ディスクを検出できずに、「パッケージcvuqdiskがインストールされていません。」というメッセージを表示します。ご使用のハードウェア(x86_64
やi386
など)に応じたcvuqdisk
rpmを使用します。
cvuqdisk
RPMをインストールするには、次の手順を実行します。
cvuqdisk
RPMパッケージの場所を確認します。このパッケージは、インストール・メディアのrpm
ディレクトリにあります。Oracle Grid Infrastructureをすでにインストールしている場合は、grid_home
/rpm
ディレクトリにあります。
cvuqdisk
パッケージをクラスタの各ノードにコピーします。各ノードで同じバージョンのLinuxが実行されていることを確認する必要があります。
root
としてログインします。
次のコマンドを使用して、cvuqdisk
パッケージの既存バージョンがあるかどうかを確認します。
# rpm -qi cvuqdisk
既存バージョンがある場合は、次のコマンドを入力して既存バージョンを削除します。
# rpm -e cvuqdisk
cvuqdiskを所有しているグループを指すように、環境変数CVUQDISK_GRP
を設定します。通常は、oinstall
です。次に例を示します。
# CVUQDISK_GRP=oinstall; export CVUQDISK_GRP
cvuqdisk rpmを保存したディレクトリで、次のコマンドを使用してcvuqdisk
パッケージをインストールします。
rpm -iv package
次に例を示します。
# rpm -iv cvuqdisk-1.0.9-1.rpm
Intelligent Platform Management Interface(IPMI)は、コンピュータのハードウェアおよびファームウェアへの共通インタフェースを提供し、システム管理者はそのインタフェースを使用して、システム状態の監視およびシステムの管理を実行できます。Oracle 11g リリース2では、Oracle ClusterwareにIPMIを統合して、障害分離をサポートしたりクラスタの整合性を確保することができます。
インストール中にノード・ターミネーション・プロトコル(IPMIなど)を選択することで、IPMIでノード・ターミネーションを構成できます。また、IPMIは、crsctl
コマンドを使用してインストール後に構成することもできます。
関連項目: インストール後にIPMIの構成を行う方法の詳細は、『Oracle Clusterware管理およびデプロイメント・ガイド』を参照してください。 |
クラスタ・ノードをIPMIで管理できるようするには、次のようにハードウェアおよびソフトウェアを構成する必要があります。
各クラスタ・メンバー・ノードにBaseboard Management Controller(BMC)が必要です。このBMCは、IPMI over LANをサポートするIPMIバージョン1.5以上と互換性があるファームウェアを実行し、LANを使用したリモート制御に対応するように構成されている必要があります。
各クラスタ・メンバー・ノードに、IPMIドライバがインストールされている必要があります。
クラスタに、IPMI用の管理ネットワークが必要です。これは共有ネットワークでも可能ですが、専用ネットワークの構成をお薦めします。
BMCで使用する各クラスタ・メンバー・ノードのイーサネット・ポートが、IPMI管理ネットワークに接続されている必要があります。
各クラスタ・メンバーが管理ネットワークに接続されている必要があります。
一部のサーバー・プラットフォームでは、電源を切るとネットワーク・インタフェースが省電力モードになります。この場合には、低いリンク速度(1GBではなく100MBなど)で動作することになります。こうしたプラットフォームの場合、BMCが接続されるネットワーク・スイッチ・ポートで、低い速度に合わせた自動ネゴシエートが可能である必要があります。そうでない場合は、IPMIが正常に動作しません。
BMCはDHCPまたは静的IPアドレスで構成できます。お薦めするのは、DHCPを使用して動的に割り当てたIPアドレスでBMCを構成する方法です。この方法を選択する場合は、BMCのIPアドレスを割り当てるようにDHCPサーバーを構成する必要があります。
注意: IPMIを構成し、グリッド・ネーミング・サービス(GNS)を使用する場合でも、IPMIインタフェースには別のアドレスを構成する必要があります。IPMIアダプタはホストから直接には認識できないため、GNSはホスト上のアドレスとしてIPMIアダプタを認識できません。 |
Oracle ClusterwareがBMCと通信するには、システムの再起動時にIPMIドライバが使用できるように、IPMIドライバが各ノードに永続的にインストールされている必要があります。IPMIドライバは、このリリースでサポートしているAsianux Linux、Oracle Linux、Red Hat Enterprise LinuxおよびSUSE Enterprise Linuxのディストリビューションで使用可能です。
Linuxシステムの場合、IPMIを組み込んだOracle Clusterwareデプロイメントでサポートしているドライバは、OpenIPMIドライバです。
このドライバは、必要なモジュールを手動でロードすることで、動的にインストールして構成できます。ご使用のディストリビューション用にIPMIを構成する方法については、ご使用のLinuxディストリビューションのベンダーにお問い合せください。
次の例では、Oracle Linuxに手動でOpen IPMIドライバを構成する方法を示します。
root
としてログインします。
# /sbin/modprobe ipmi_msghandler # /sbin/modprobe ipmi_si # /sbin/modprobe ipmi_devintf
(オプション)コマンド/sbin/lsmod |grep ipmi
を実行して、IPMIモジュールがロードされていることを確認します。次に例を示します。
# /sbin/lsmod | grep ipmi ipmi_devintf 12617 0 ipmi_si 33377 0 ipmi_msghandler 33701 2 ipmi_devintf,ipmi_si
注意: BMCがあるかどうかにかかわらず、モジュールはインストールできます。 |
テキスト・エディタを使用して/etc/rc.local
ファイルを開き、ファイルの末尾に移動して、次のような行を入力し、手順2のmodprobe
コマンドがシステムの再起動時に自動的に実行されるようにします。
# START IPMI ON SYSTEM RESTART /sbin/modprobe ipmi_msghandler /sbin/modprobe ipmi_si /sbin/modprobe ipmi_devintf
注意: SUSEシステムの場合は、/etc/init.d/boot.local の上にmodprobe コマンドを追加します。 |
次のコマンドを使用して、LinuxシステムがIPMIデバイスを認識していることを確認します。
ls -l /dev/ipmi0
IPMIデバイスが動的にロードされた場合、出力は次のようになります。
# ls -l /dev/ipmi0 crw------- 1 root root 253, 0 Sep 23 06:29 /dev/ipmi0
デバイス・ファイルの出力が表示された場合は、IPMIドライバが構成済であり、これ以降の手順を行う必要はありません。
デバイス・ファイルの出力が表示されない場合は、デバイス・ファイルが自動的に作成されるようにudevd
デーモンが設定されていません。次の手順に進みます。
コマンドgrep ipmi /proc/devices
を使用して、IPMIデバイスのデバイス・メジャー番号を確認します。次に例を示します。
# grep ipmi /proc/devices 253 ipmidev
この例の場合、デバイス・メジャー番号は253です。
デバイス・メジャー番号を指定してmknod
コマンドを実行し、IPMIデバイスのディレクトリ・エントリとi-nodeを作成します。次に例を示します。
# mknod /dev/ipmi0 c 253 0x0
この例の/dev/ipmi0
の権限により、root
のみがデバイスにアクセスできます。システムの脆弱性を防ぐため、デバイスはroot
のみがアクセスするようにしてください。
IPMIベースのノード・フェンシングを適切に機能させるには、各ノードのBMCがLANによるリモート制御を行えるように構成します。BMCの構成は、BIOSプロンプトからディストリビューション固有の管理ユーティリティを使用して実行できます。また、次のような公開ユーティリティを使用して実行することもできます。
IPMItool(Linuxで使用可能):
http://ipmitool.sourceforge.net
IPMIutil(LinuxおよびWindowsで使用可能):
http://ipmiutil.sourceforge.net
ツールを使用してBMCを構成する方法の詳細は、選択した構成ツールのドキュメントを参照してください。
各ノードでBMCを構成するときには、次の手順を実行する必要があります。
IPMI over LANを有効にして、管理ネットワーク経由でBMCを制御できるようにします。
DHCPまたはGNSを使用して動的なIPアドレスを有効にするか、BMCに対して静的IPアドレスを構成します。
BMCの管理者ユーザー・アカウントおよびパスワードを設定します。
BMCをタグVLANで使用する場合は、VLANのタグに対応するようにBMCを構成します。
使用する構成ツールは問いませんが、BMCが正しく機能するには、これらの条件を満たしている必要があります。
次に示すのは、ipmitool
(バージョン1.8.6)を使用してBMCを構成する例です。
root
としてログインします。
ipmitool
が、IPMIドライバを使用してBMCと通信できることを確認します。これを行うには、コマンドbmc info
を使用して、その出力からデバイスIDを探します。次に例を示します。
# ipmitool bmc info Device ID : 32 . . .
ipmitool
がBMCと通信していない場合は、「Open IPMIドライバの構成」の項を参照して、IPMIドライバが動作しているかどうかを確認します。
次の手順で、IPMI over LANを有効にします。
IPMI over LANに使用するチャネルの、チャネル番号を決めます。チャネル1から始めて、LAN属性(IPアドレスなど)が表示されるチャネルが見つかるまで、次のコマンドを実行します。
# ipmitool lan print 1 . . . IP Address Source : 0x01 IP Address : 140.87.155.89 . . .
検出されたチャネルに対してLANアクセスを有効にします。たとえば、チャネルが1の場合は次のようにします。
# ipmitool lan set 1 access on
次のいずれかの手順で、IPMIのIPアドレス設定を構成します。
動的IPアドレス(DHCP)を使用する場合
動的IPアドレスは、Oracle Universal Installerでのデフォルトです。クラスタのノードを簡単に追加または削除できるように(アドレスの設定を自動的に割り当てることができるように)、このオプションを選択することをお薦めします。
注意: DHCPを使用するには、サブネット上にDHCPサーバーがあることが必要です。 |
チャネルを設定します。たとえば、チャネルが1の場合は、次のコマンドを入力してDHCPを有効にします。
# ipmitool lan set 1 ipsrc dhcp
静的IPアドレスを使用する場合
ネットワーク接続をBMCとオペレーティング・システムで共有する場合は、IPアドレスが同じサブネット上にあることが必要です。IPアドレスを設定するだけでなく、ネットマスクの値およびデフォルト・ゲートウェイも適切に設定する必要があります。たとえば、チャネルが1の場合は次のようにします。
# ipmitool lan set 1 ipaddr 192.168.0.55 # ipmitool lan set 1 netmask 255.255.255.0 # ipmitool lan set 1 defgw ipaddr 192.168.0.1
指定したアドレス(192.168.0.55
)は、BMCのみに関連付けられます。通常のpingに応答することはありません。
次の手順を実行して、ユーザー名とパスワードを管理アカウントに設定します(チャネルは1を想定しています)。
LAN経由のADMINアクセスに対してパスワード認証を要求するようにBMCを設定します。次に例を示します。
# ipmitool lan set 1 auth ADMIN MD5,PASSWORD
BMC上のアカウント・スロットをリストして、使用されていないスロット(ユーザー名フィールドが空のユーザーID)を特定します。次に例を示します。
# ipmitool channel getaccess 1 . . . User ID : 4 User Name : Fixed Name : No Access Available : call-in / callback Link Authentication : disabled IPMI Messaging : disabled Privilege Level : NO ACCESS . . .
任意の管理者ユーザー名およびパスワードを割り当て、特定したスロットに対してメッセージ機能を有効にします。(IPMI v1.5の場合、ユーザー名およびパスワードは最長で16文字です。)さらに、そのスロットがLAN(チャネル1)経由でアクセスされる場合の権限レベルをADMIN(レベル4)に設定します。たとえば、username
が管理ユーザー名で、password
がパスワードの場合は、次のようになります。
# ipmitool user set name 4 username # ipmitool user set password 4 password # ipmitool user enable 4 # ipmitool channel setaccess 1 4 privilege=4 # ipmitool channel setaccess 1 4 link=on # ipmitool channel setaccess 1 4 ipmi=on
lan print 1コマンドを使用して、設定を確認します。出力結果は、次のようになります。太字のテキストで示した項目は、前述の構成手順で設定した内容です。コメントや代替オプションは、カッコ[ ]内に示しています。
# ipmitool lan print 1 Set in Progress : Set Complete Auth Type Support : NONE MD2 MD5 PASSWORD Auth Type Enable : Callback : MD2 MD5 : User : MD2 MD5 : Operator : MD2 MD5 : Admin : MD5 PASSWORD : OEM : MD2 MD5 IP Address Source : DHCP Address [or Static Address] IP Address : 192.168.0.55 Subnet Mask : 255.255.255.0 MAC Address : 00:14:22:23:fa:f9 SNMP Community String : public IP Header : TTL=0x40 Flags=0x40 Precedence=… Default Gateway IP : 192.168.0.1 Default Gateway MAC : 00:00:00:00:00:00 . . . # ipmitool channel getaccess 1 4 Maximum User IDs : 10 Enabled User IDs : 2 User ID : 4 User Name : username [This is the administration user] Fixed Name : No Access Available : call-in / callback Link Authentication : enabled IPMI Messaging : enabled Privilege Level : ADMINISTRATOR
クラスタ内のリモート・ノードからBMCにアクセスして管理できることを、bmc info
コマンドで確認します。たとえば、node2
のBMCのIPアドレスを割り当てられたネットワーク・ホスト名がnode2-ipmi
の場合、管理者アカウントusername
とパスワードmypassword
を使用して、node1
からnode2
上のBMCを確認するには、node1
上で次のコマンドを入力します。
$ ipmitool -H node2-ipmi -U username -P mypassword bmc info
BMCが正しく構成されている場合は、リモート・ノードのBMCに関する情報が表示されます。Error: Unable to establish LAN session
などのエラー・メッセージが表示された場合は、リモート・ノードのBMC構成を確認する必要があります。
Oracleソフトウェアをインストールするには、すべてのクラスタ・メンバー・ノード間にセキュア・シェル(SSH)の接続が設定されている必要があります。OUIは、インストール中にssh
およびscp
コマンドを使用して、他のクラスタ・ノードに対してリモート・コマンドを実行し、そのクラスタ・ノードにファイルをコピーします。これらのコマンドを使用する際にパスワードを求めるプロンプトが表示されないように、SSHを構成する必要があります。
注意: ローカルからリモート・ノードへの構成オプションとしてOracle構成アシスタントではSSHが使用されるため、Oracle Grid Infrastructureのインストールには、SSHが必要です。Oracle Enterprise ManagerもSSHを使用します。ノード間の通信でRSHはサポート対象外となりました。 |
OUIインタフェースから、インストール中に、インストールを実行しているユーザー・アカウントにSSHを構成することができます。自動構成によって、パスワードなしのSSH接続をすべてのクラスタ・メンバー・ノード間に作成することができます。可能なかぎり、この自動手順を利用することをお薦めします。
スクリプトを実行できるようにするには、すべてのOracleソフトウェア・インストール所有者のプロファイルからstty
コマンドを削除するとともに、ログイン時にトリガーされる他のセキュリティ手段で、端末に対してメッセージを生成するものを削除する必要があります。これらのメッセージやメール・チェックなどが表示されていると、Oracleソフトウェア・インストール所有者は、Oracle Universal Installerに組み込まれているSSH構成スクリプトを使用できません。これらの表示が無効になっていない場合は、SSHを手動で構成してからでなければ、インストールを実行できません。
まれに、リモート・ノードがSSH接続を閉じると、「AttachHome」操作時にOracle Clusterwareインストールが失敗する場合があります。この問題を回避するために、すべてのクラスタ・ノードでSSHデーモン構成ファイル/etc/ssh/sshd_configに次のパラメータを設定し、タイムアウト待機時間を無制限に設定します。
LoginGraceTime 0
インストーラ・ソフトウェアは、Oracle Grid Infrastructureインストール所有者ユーザー・アカウント(oracle
またはgrid
)で実行します。ただし、インストーラを起動する前に、インストール所有者ユーザー・アカウントの環境を構成する必要があります。また、必要に応じて、他の必要なOracleソフトウェア所有者を作成します。
この項の内容は次のとおりです。
Oracle Grid Infrastructureソフトウェア所有者の環境を構成するには、次の変更を行う必要があります。
Oracleソフトウェア所有者の環境を設定するには、ソフトウェア所有者(grid
、oracle
)ごとに次の手順を実行します。
X端末(xterm
)などの端末セッションを新規に開始します。
次のコマンドを入力して、このシステムでX Windowアプリケーションが表示可能であることを確認します。
$ xhost + hostname
hostnameは、ローカル・ホストの名前です。
ソフトウェアをインストールするシステムにまだログインしていない場合は、ソフトウェア所有者ユーザーとしてそのシステムにログインします。
そのユーザーでログインしていない場合は、構成するソフトウェア所有者に切り替えます。たとえば、grid
ユーザーの場合は次のようになります。
$ su - grid
次のコマンドを入力して、ユーザーのデフォルトのシェルを確認します。
$ echo $SHELL
テキスト・エディタでユーザーのシェル起動ファイルを開きます。
Bashシェル(bash
):
$ vi .bash_profile
Bourneシェル(sh
)またはKornシェル(ksh
):
$ vi .profile
Cシェル(csh
またはtcsh
):
% vi .login
次のように行を入力または編集して、デフォルトのファイル・モード作成マスクの値に022を指定します。
umask 022
環境変数ORACLE_SID
、ORACLE_HOME
またはORACLE_BASE
がファイルに設定されている場合は、そのファイルからこれらの行を削除します。
ファイルを保存して、テキスト・エディタを終了します。
シェル起動スクリプトを実行するには、次のいずれかのコマンドを入力します。
Bashシェル:
$ . ./.bash_profile
Bourne、BashまたはKornシェル:
$ . ./.profile
Cシェル:
% source ./.login
ローカル・システムにソフトウェアをインストールしていない場合は、次のコマンドを入力してXアプリケーションをローカル・システムに表示します。
Bourne、BashまたはKornシェル:
$ DISPLAY=local_host
:0.0 ; export DISPLAY
Cシェル:
% setenv DISPLAY local_host
:0.0
この例で、local_host
は、インストーラを表示するためのシステム(ご使用のワークステーションまたは他のクライアント)のホスト名またはIPアドレスです。
/tmp
ディレクトリの空き領域が1GB未満である場合は、空き領域が1GB以上のファイル・システムを選択し、環境変数TEMP
およびTMPDIR
を設定してこのファイル・システムの一時ディレクトリを指定します。
注意: Oracle RACのインストール用の一時ファイル・ディレクトリ(通常、/tmp )の場所として、共有ファイル・システムは使用できません。共有ファイル・システムに/tmp を配置すると、インストールは失敗します。 |
必要に応じて、次のコマンドを入力し、選択したファイル・システムに一時ディレクトリを作成して、そのディレクトリに適切な権限を設定します。
$ su - root # mkdir /mount_point/tmp # chmod 775 /mount_point/tmp # exit
次のコマンドを入力して、環境変数TEMP
およびTMPDIR
を設定します。
Bourne、BashまたはKornシェル:
$ TEMP=/mount_point/tmp $ TMPDIR=/mount_point/tmp $ export TEMP TMPDIR
Cシェル:
% setenv TEMP /mount_point/tmp % setenv TMPDIR /mount_point/tmp
環境が正しく設定されていることを確認するには、次のコマンドを入力します。
$ umask $ env | more
umask
コマンドによって値22
、022
または0022
が表示されること、およびこの項で設定した環境変数に正しい値が指定されていることを確認します。
各インストール・ソフトウェア所有者で、次の推奨範囲を使用して、インストールのリソース制限を確認します。
表2-12 インストール所有者のリソース制限の推奨範囲
リソースのシェル制限 | リソース | ソフト制限 | ハード制限 |
---|---|---|---|
オープン・ファイル記述子 |
nofile |
1024以上 |
65536以上 |
ユーザー1人当たりに使用可能なプロセスの数 |
nproc |
2047以上 |
16384以上 |
プロセスのスタック・セグメントのサイズ |
スタック |
10240KB以上 |
10240KB以上、32768KB以下 |
リソース制限を確認するには、次の手順を実行します。
インストール所有者としてログインします。
ファイル記述子の設定のソフト制限およびハード制限を確認します。結果が推奨範囲内であることを確認します。次に例を示します。
$ ulimit -Sn 1024 $ ulimit -Hn 65536
ユーザーが使用可能なプロセス数のソフト制限およびハード制限を確認します。結果が推奨範囲内であることを確認します。次に例を示します。
$ ulimit -Su 2047 $ ulimit -Hu 16384
スタック設定のソフト制限を確認します。結果が推奨範囲内であることを確認します。次に例を示します。
$ ulimit -Ss 10240 $ ulimit -Hs 32768
各Oracleソフトウェア・インストール所有者で、この手順を繰り返します。
リモート端末で作業を行っていて、そのローカル・ノードのみが表示されている場合(通常は、この状態になります)、次の構文を使用して、環境変数DISPLAYを設定します。
Bourne、KornおよびBashシェル:
$ export DISPLAY=hostname:0
Cシェル:
$ setenv DISPLAY hostname:0
たとえば、Bashシェルを使用していて、ホスト名がnode1
の場合は、次のコマンドを入力します。
$ export DISPLAY=node1:0
X11転送によってインストールが失敗しないように、次の手順に従って、Oracleソフトウェア所有者ユーザー用にユーザー・レベルのSSHクライアント構成ファイルを作成します。
テキスト・エディタを使用して、ソフトウェア・インストール所有者の~/.ssh/config
ファイルを編集または作成します。
ForwardX11
属性がno
に設定されていることを確認します。次に例を示します。
Host * ForwardX11 no
Oracle Grid Infrastructureのインストール中、OUIは、SSHを使用してコマンドを実行したり、他のノードにファイルをコピーします。システム上の隠しファイル(.bashrc
や.cshrc
など)に端末出力コマンドが含まれていると、インストール中にMakeファイルやその他のインストールに関するエラーが発生します。
この問題を回避するには、次の例に示すとおり、STDOUT
またはSTDERR
でのすべての出力が抑制されるように、Oracleインストール所有者ユーザーのホーム・ディレクトリにあるこれらのファイルを変更する必要があります(stty
やxtitle
などのコマンド)。
Bourne、BashまたはKornシェル:
if [ -t 0 ]; then stty intr ^C fi
Cシェル:
test -t 0 if ($status == 0) then stty intr ^C endif
注意: SSHを使用できない場合、インストーラは、ssh およびscp コマンドのかわりにrsh およびrcp を使用します。
リモート・シェルによってロードされる隠しファイルに |
インストール中に、Oracle Grid Infrastructureソフトウェアを格納するホーム・ディレクトリへのパスを指定するように求められます。指定するディレクトリ・パスが次の要件を満たすことを確認します。
Oracle Clusterwareホームを含む、既存のOracleホーム以外のパスに作成する必要があります。
ユーザー・ホーム・ディレクトリには作成できません。
すべてのファイルをroot
によって所有可能なパス内のサブディレクトリとして作成するか、一意のパス内に作成します。
インストール前にパスを作成する場合は、Oracle Grid Infrastructureのインストール所有者(通常、すべてのOracleソフトウェアに対して1つのインストール所有者の場合はoracle
、ロール・ベースのOracleインストール所有者の場合はgrid
)が所有し、権限が775に設定されている必要があります。
Oracle Grid Infrastructureは、共有記憶域の共有ホームではなく、ローカル・ホームにインストールすることをお薦めします。
Oracle Grid Infrastructureのみをインストールする場合は、Oracle Optimal Flexible Architecture(OFA)に準拠したパスを作成することをお薦めします。これによって、Oracle Universal Installer(OUI)がインストール中にそのディレクトリを選択できるようになります。OUIがパスをOracleソフトウェア・パスとして認識するには、u0[1-9]/appという形式にする必要があります。
OUIでOFA準拠のパスが検出されると、Oracle Grid InfrastructureおよびOracle Inventory(oraInventory
)ディレクトリが作成されます。
手動でOracle Grid Infrastructureのパスを作成する場合は、既存のOracleベース・パスではなく、別のパスの下に作成します。次に例を示します。
# mkdir -p /u01/app/11.2.0/grid # chown grid:oinstall /u01/app/11.2.0/grid # chmod -R 775 /u01/app/11.2.0/grid
このパスでは、インストール所有者の名前がgridの場合、OUIによってデフォルトで、Gridホームとして次のパスが作成されます。
/u01/app/11.2.0/grid
データベースのインストールのために、Oracle Databaseインストール所有者アカウントを所有者とするOracleベース・パスを作成します。OracleベースのOFAパスは、/u01/app/
user
です。user
は、Oracleソフトウェア・インストールの所有者アカウントです。たとえば、次のコマンドを使用して、データベース・インストールの所有者アカウントoracle
のOracleベースを作成します。
# mkdir -p /u01/app/oracle # chown -R oracle:oinstall /u01/app/oracle # chmod -R 775 /u01/app/oracle
クラスタ名は長さ1文字以上15文字以下の英数字である必要があり、ハイフン(-)を含ることはできますが、先頭を数字にすることはできません。
標準インストールでは、指定するSCANはクラスタの名前でもあるため、SCAN名はクラスタ名の要件を満たしている必要があります。拡張インストールでは、SCANとクラスタ名はインストール時に別のフィールドに入力するため、クラスタ名要件はSCAN名に適用されません。