この付録では、Oracle Grid Infrastructureのインストールに関するトラブルシューティング情報について説明します。
関連項目: ドキュメント・ディレクトリに含まれるOracle Database 11g Oracle RACのドキュメントを参照してください。
|
この付録の内容は次のとおりです。
次に、インストール中に発生する可能性のある様々なエラーの例を示します。内容は次のとおりです。
zeroconf
)によって作成されたことを示します。適切なスタックが機能していることを確認するためにOracleソフトウェアがルートを削除したことを示します。ゼロ構成ネットワークを無効にするには、次の手順を実行します。
rootユーザーでログインします。
/etc/sysconfig
に移動します。
/etc/sysconfig/network
のコピーを作成します。次に例を示します。
# cp network network_old
テキスト・エディタを使用してファイル/etc/sysconfig/network
を開きます。
ファイルのNOZEROCONF
の値がyesに設定されていることを確認します。ファイルにこのパラメータが見つからない場合は、次のエントリをファイルに追加します。
NOZEROCONF=yes
この設定を更新した後、ファイルを保存します。
ネットワーク・サービスを再起動します。次に例を示します。
# service network restart
各クラスタ・ノード・メンバーに対してこの手順を繰り返します。
su
コマンドを使用して変更している場合(root
ユーザーのコンソール・ディスプレイで低い権限のユーザーがウィンドウを開いている場合など)に起こります。echo $DISPLAY
コマンドを使用して、環境変数に正しいディスプレイ、つまり正しいホストが設定されていることを確認してください。DISPLAY変数が正しく設定されていたら、X Windowを開く権限のあるユーザーでログインしていることを確認するか、またはxhost +
コマンドを実行してすべてのユーザーにX Windowを開く許可を与えてください。
サーバー・コンソール上でroot
としてローカルでログインし、su -コマンドを使用してOracle Grid Infrastructureのインストール所有者に変更した場合は、サーバーからログアウトし、Gridのインストール所有者としてログインしなおしてください。
root.sh
を実行したとき、Oracle Grid Infrastructureのインストールが失敗しました。ローカル・ホスト・エントリがhostsファイルから欠落しているため、Oracle Grid Infrastructureは起動に失敗しました。
Oracle Grid Infrastructureのalert.logファイルには、次のように示されます。
[/oracle/app/grid/bin/orarootagent.bin(11392)]CRS-5823:Could not initialize agent framework. Details at (:CRSAGF00120:) in /oracle/app/grid/log/node01/agent/crsd/orarootagent_root/orarootagent_root.log 2010-10-04 12:46:25.857 [ohasd(2401)]CRS-2765:Resource 'ora.crsd' has failed on server 'node01'.
crsdOUT.log
ファイルを確認し、次を見つけることで、これが原因であることを検証できます。
Unable to resolve address for localhost:2016 ONS runtime exiting Fatal error: eONS: eonsapi.c: Aug 6 2009 02:53:02
xhost
が適切に構成されていない場合か、Xサーバーを起動するためにstartx
コマンドで使用したアカウントとは異なるユーザー・アカウントで実行している場合の、WindowsまたはUNIXシステムに特有のX Window表示エラーです。$ xhost fullyqualifiedRemoteHostname
次に例を示します。
$ xhost somehost.example.com
その後、次のコマンドを入力してください。workstationname
はワークステーションのホスト名またはIPアドレスです。
Bourne、BashまたはKornシェル:
$ DISPLAY=workstationname:0.0
$ export DISPLAY
X Windowアプリケーションがローカル・システムで適切に表示されるかどうかを確認するには、次のコマンドを入力します。
$ xclock
モニターにXクロックが表示されます。このようにならない場合は、xhost
コマンドの使用が制限されている可能性があります。
VNCクライアントを使用してサーバーにアクセスしている場合は、インストールに使用しようとしているユーザーに割り当てられているビジュアルにアクセスしていることを確認します。たとえば、su
コマンドを使用して、別のユーザー・ビジュアルでインストール所有者になった場合、xhost
コマンドの使用は制限され、xhost
コマンドを使用して表示を変更することはできません。インストール所有者に割り当てられたビジュアルを使用すると、正しく表示でき、xclock
コマンドの入力によってxclockが表示されます。
Xクロックが表示されたら、Xクロックを閉じてインストーラを再度起動します。
/etc/fstab
ファイル内のNFS用に構成されたオプションが間違っています。
これを確認するには、Grid_home
/log/node
number
/client
パスにあるocrconfig.log
ファイルをチェックし、次の行を検索します。
/u02/app/crs/clusterregistry, ret -1, errno 75, os err string Value too large for defined data type 2007-10-30 11:23:52.101: [ OCROSD][3085960896]utopen:6'': OCR location
/etc/fstab
ファイル内で指定します。
rw,sync,bg,hard,nointr,tcp,vers=3,timeo=300,rsize=32768,wsize=32768,actimeo=0
注意: マウントの指定にnetdev やvers=2 を含めないでください。netdev オプションを必要とするのは、OCFSファイル・システムを対象とした場合のみです。また、vers=2 を指定すると、カーネルによって強制的にNFSがマウントされます。この場合、古いバージョン2のプロトコルが使用されます。 |
NFSマウント情報を修正した後にNFSマウント・ポイントを再マウントし、root.sh
スクリプトを再度実行します。たとえば、マウント・ポイント/u02
の場合は次のようになります。
#umount /u02 #mount -a -t nfs #cd $GRID_HOME #sh root.sh
root
に変更されます。この変更により、他のインストールで権限エラーが発生します。また、Oracle Clusterwareソフトウェア・スタックも、Oracleベース・パスの下に配置しないでください。/dev/shm
のサイズが不十分です。
Linuxシステムにインストールする場合は、初期化パラメータMEMORY_TARGETまたはMEMORY_MAX_TARGETを設定する「メモリー・サイズ(SGAおよびPGA)」をオペレーティング・システムの共有メモリー・ファイル・システム(/dev/shm
)より大きい値にはできません。
/dev/shm
マウント・ポイントのサイズを大きくしてください。次に例を示します。
# mount -t tmpfs shmfs -o size=4g /dev/shm
また、システムを再起動してもこの変更が保持されるようにするには、/etc/fstab
に次のようなエントリを追加します。
shmfs /dev/shm tmpfs size=4g 0
rootupgrade.sh
の実行中に移行障害が発生します。確認するには、ログ・ファイルGrid_home
/log/
hostname/client/ocrconfig_
pid
.log
でエラーutopen:12: バッキング・ストアに十分なスペースがありませんを検索してください(ここで、pid
はプロセスIDです)。root.sh
またはrootupgrade.sh
を第2ノードで実行中、次のエラーが報告されてスクリプトが失敗します。
Failed to start Cluster Synchorinisation Service in clustered mode at /u01/app/crs/11.2.0.2/crs/install/crsconfig_lib.pm line 1016.
mcasttest.pl
)を実行します。パッチのインストールが必要な場合もあります。
詳細は、My Oracle Supportに問い合せて、マルチキャスト・テスト・ツールおよびパッチを取得してください。
listener.ora
、Oracleログ・ファイルまたはアクション・スクリプトがNASデバイスまたはNFSマウントに格納されていて、ネーム・サービス・キャッシュ・デーモンnscd
がアクティブになっていない場合に発生します。/sbin/service nscd start
エラー・メッセージの解決に関するその他のヘルプについては、My Oracle Supportを参照してください。たとえば、Doc ID 1367631.1のNoteには、Oracle Grid InfrastructureおよびOracle Clusterwareの最も一般的なインストールの問題の一部が含まれています。
-verbose
引数を使用してクラスタ検証ユーティリティを実行し、特定のノードに対するクラスタ検証ユーティリティ・コマンドの結果がUNKNOWN
になる場合、その原因は、検証時に問題が検出されたかどうかをクラスタ検証ユーティリティで判断できないことにあります。結果が「不明」になる場合の、考えられる原因を次に示します。
ノードが停止している。
クラスタ検証ユーティリティで必要な、オペレーティング・システムの共通コマンド・バイナリが、Oracle Grid Infrastructureホームの/bin
ディレクトリまたはOracleホーム・ディレクトリで不足している。
クラスタ検証ユーティリティを起動したユーザー・アカウントには、ノードでオペレーティング・システムの共通コマンドを実行する権限がない。
ノードで、オペレーティング・システム・パッチ、または必須パッケージが不足している。
ノードの最大プロセス数または最大オープン・ファイル数を超えているか、共有メモリー、セマフォなど、IPCセグメントに問題が発生している。
Oracle Grid Infrastructureをインストールするための要件をシステムが満たしていないことがクラスタ検証ユーティリティのレポートに示された場合は、この項の説明に従ってレポートに示されている問題を解決し、クラスタ検証ユーティリティを再実行します。
失敗したノードと示されている各ノードに対して、ユーザー構成およびSSH構成が正常に完了していることをインストール所有者のユーザー構成で確認してください。Oracle Clusterwareのインストールを実行するユーザーには、SSH接続を作成する権限が必要です。
SSHの構成は、OUIのSSH構成オプションで行うことをお薦めします。手動でSSHの構成を行う場合はインストール前に、インストールのためにSSHが構成済の場合はインストール後に、クラスタ検証ユーティリティを使用できます。
たとえば、ユーザー・アカウントoracle
のユーザー等価関係を確認するには、su - oracle
コマンドを使用し、date
コマンド引数を指定したssh
コマンドを次の構文を使用してローカル・ノードで実行し、ユーザー等価関係を手動で確認します。
$ ssh nodename date
このコマンドによって、nodename
に指定した値で指定されたリモート・ノードのタイムスタンプが出力されます。パスワードを求められた場合、SSHの構成を行う必要があります。デフォルトの場所(/usr/bin
ディレクトリ)にssh
がある場合は、ssh
を使用してユーザー等価関係を構成します。ユーザー等価関係は、rsh
を使用しても確認できます。
SSHを使用してdateコマンドを入力した際に次のメッセージが表示された場合、この問題はユーザー等価関係エラーが原因である可能性があります。
The authenticity of host 'node1 (140.87.152.153)' can't be established. RSA key fingerprint is 7z:ez:e7:f6:f4:f2:4f:8f:9z:79:85:62:20:90:92:z9. Are you sure you want to continue connecting (yes/no)?
「yes」と入力してクラスタ検証ユーティリティを実行し、ユーザー等価関係エラーが解決されたかどうかを確認します。
ssh
がデフォルト(/usr/bin
)以外の場所にある場合は、クラスタ検証ユーティリティによって、ユーザー等価関係の検証に失敗したことがレポートされます。このエラーを回避するには、Grid_home
/cv/admin
ディレクトリに移動し、テキスト・エディタでcvu_config
ファイルを開き、ORACLE_SRVM_REMOTESHELL
キーを追加または更新してシステム上のssh
パスの位置を指定します。次に例を示します。
# Locations for ssh and scp commands ORACLE_SRVM_REMOTESHELL=/usr/local/bin/ssh ORACLE_SRVM_REMOTECOPY=/usr/local/bin/scp
cvu_config
ファイルを変更する場合は、次の規則に注意します。
キー・エントリはname=value構文で指定する。
キーに割り当てる各キー・エントリおよび値は適切なものを1のみ定義する。
シャープ記号(#)で始まる行はコメント行であり無視される。
name=value構文が前にない行は無視される。
パス設定の変更後、再度クラスタ検証ユーティリティを実行します。また、ssh
がデフォルト以外の場所にある場合は、リモート・シェルおよびリモート・コピー・コマンドに別の場所を指定するために引数を追加してOUIを起動する必要があります。これらの引数の使用方法の詳細を表示するには、runInstaller -help
を入力してください。
注意: ユーザーまたはOUIがssh またはrsh コマンド(ログインや起動するその他のシェル・スクリプトを含む)を実行し、それらのスクリプトによって出力が行われると、無効な引数または標準の入力に関するエラーが表示されます。これらのエラーの原因を解決する必要があります。
エラーを回避するには、 X11転送についてのメッセージが表示されたら、「表示およびX11転送構成の設定」のタスクを完了し、この問題を解決します。 次のようなエラーが出力される場合もあります。 stty: standard input: Invalid argument stty: standard input: Invalid argument これらのエラーは、システム上の隠しファイル( |
/bin/ping
address
コマンドを使用して、各ノードのアドレスを確認してください。到達できないアドレスを発見した場合は、パブリックおよびプライベート・アドレスのリストを確認して、それらを正しく構成してください。他社ベンダーのクラスタウェアを使用する場合に役立つ情報については、そのベンダーのドキュメントを参照してください。パブリック・ネットワーク・インタフェースおよびプライベート・ネットワーク・インタフェースのインタフェース名は、クラスタ内の各ノードで同じである必要があります。id
コマンドを使用して、インストール所有者ユーザー(grid
やoracle
など)が正しいグループ・メンバーシップで作成されていることを確認してください。必要なグループを作成していることを確認し、影響のあるノードでユーザー・アカウントを作成または変更して、必要なグループ・メンバーシップを設定してください。
関連項目: 必要なグループの作成方法およびインストール所有者ユーザーの構成方法については、第2章の「Oracle Grid Infrastructureのグループ、ユーザーおよびパスの作成」を参照してください。 |
深刻なエラーを見つけるには、まずOracle Clusterwareのアラート・ログを見ます。エラーが発生すると、エラーの原因に関する具体的な情報がある診断ログのパス情報が含まれていることがあります。
重要なイベントが発生した場合には、インストール後に、Oracle Clusterwareがアラート・メッセージを書き込みます。たとえば、Cluster Ready Services(CRS)デーモン・プロセスからのアラート・メッセージは、起動時、中断した場合、フェイルオーバー・プロセスが失敗した場合、CRSリソースの自動再起動が失敗した場合に出力されます。
Oracle Enterprise ManagerはClusterwareのログ・ファイルを監視し、エラーが検出されると「クラスタ・ホーム」ページにアラートを書き込みます。たとえば、投票ディスクが利用できない場合はCRS-1604
エラーが発生し、「クラスタ・ホーム」ページにクリティカル・アラートが書き込まれます。「メトリックとポリシー設定」ページで、エラー検出とアラートの設定をカスタマイズできます。
Oracle Clusterwareのログ・ファイルの場所は、CRS_home
/log/
hostname
/alert
hostname
.log
です。CRS_home
はOracle Clusterwareがインストールされたディレクトリ、hostname
はローカル・ノードのホスト名です。
関連項目: 『Oracle Real Application Clusters管理およびデプロイメント・ガイド』 |
Oracle Grid Infrastructure、Oracle RACまたはOracle Databaseのインストール時に次のようなエラー・メッセージが表示された場合は、システムのオペレーティング・システム・パッケージが不足しています。
libstdc++.so.5: cannot open shared object file: No such file or directory libXp.so.6: cannot open shared object file: No such file or directory
不足しているパッケージはインストール中に見つかり、このようなエラーは発生しないはずです。動作保証されていないオペレーティング・システムのディストリビューションを使用しているか、古いバージョンのクラスタ検証ユーティリティを使用していることを示している可能性があります。
Red Hatネットワーク、Oracle Unbreakable LinuxサポートなどのLinuxサポート・ネットワークが構成されている場合は、up2date
コマンドを使用してパッケージの名前を確認できます。次に例を示します。
# up2date --whatprovides libstdc++.so.5 compat-libstdc++-33.3.2.3-47.3
また、クラスタ検証ユーティリティの最新バージョンをダウンロードして、必要なパッケージの最新リストを入手してください。最新バージョンは、次のURLから入手できます。
http://www.oracle.com/technetwork/database/options/clustering/downloads/cvu-download-homepage-099973.html
インストーラで「ノードの選択」ページが表示されない場合は、次のコマンド構文を使用してクラスタ・マネージャの整合性を検証します。
cluvfy comp clumgr -n node_list -verbose
前述の構文例で、node_list
変数は、クラスタ内のノードのカンマ区切りリストです。
Oracle Grid Infrastructure 11gリリース2(11.2.0.3)以上では、CVUのhealthcheckコマンド・オプションを使用してOracle ClusterwareおよびOracle Databaseインストールをチェックし、必須要件およびベスト・プラクティス・ガイドラインへの適合性を調べたり、正しく動作していることを確認できます。
次の構文を使用してhealthcheckコマンド・オプションを実行します。
cluvfy comp healthcheck [-collect {cluster|database}] [-db db_unique_name] [-bestpractice|-mandatory] [-deviations] [-html] [-save [-savedir directory_path]
次に例を示します。
$ cd /home/grid/cvu_home/bin $ ./cluvfy comp healthcheck -collect cluster -bestpractice -deviations -html
オプションは次のとおりです。
-collect [cluster|database]
このフラグを使用して、Oracle Clusterware(クラスタ)またはOracle Database(データベース)のチェックを実行することを指定します。healthcheckオプションでcollectフラグを使用しない場合、cluvfy comp healthcheckではOracle ClusterwareとOracle Databaseの両方のチェックが実行されます。
-db
db_unique_name
このフラグを使用して、db
フラグの後に入力した一意のデータベース名に対するチェックを指定します。
CVUでは、JDBCを使用してcvusys
ユーザーとしてデータベースに接続し、様々なデータベース・パラメータが検証されます。このため、-db
フラグで指定したデータベースに対してチェックを実行する場合は、最初にそのデータベースでcvusys
ユーザーを作成し、このユーザーにCVU固有の役割であるcvusapp
を付与する必要があります。cvusapp
の役割のメンバーに、システム表に対するselect
権限を付与する必要もあります。
SQLスクリプトがCVU_home/cv/admin/cvusys.sql
に含まれており、このユーザーの作成を容易にします。このSQLスクリプトを使用して、CVUにより検証するすべてのデータベースでcvusysユーザーを作成します。
db
フラグを使用し、一意のデータベース名を指定しない場合、CVUではクラスタのすべてのOracle Databaseが検出されます。これらのデータベースでベスト・プラクティス・チェックを実行する場合は、各データベースでcvusys
ユーザーを作成し、ベスト・プラクティス・チェックを実行するのに必要なcvusapp
の役割とselect
権限をこのユーザーに付与する必要があります。
[-bestpractice | -mandatory] [-deviations
]
ベスト・プラクティス・チェックを指定するにはbestpractice
フラグを使用し、必須チェックを指定するにはmandatory
フラグを使用します。ベスト・プラクティスの推奨事項または必須要件からの差異のみを確認することを指定するには、deviations
フラグを追加します。-bestpractice
または-mandatory
のいずれかのフラグを指定できますが、両方のフラグを指定することはできません。-bestpractice
または-mandatory
のいずれも指定しない場合は、ベスト・プラクティスと必須要件の両方が表示されます。
-html
html
フラグを使用すると、詳細レポートがHTML形式で生成されます。
html
フラグを指定し、CVUで認識されるブラウザがシステムで使用可能な場合は、チェックの完了時にブラウザが起動されてレポートがブラウザに表示されます。
htmlフラグを指定しない場合、詳細レポートはテキスト・ファイルで生成されます。
-save [-savedir
dir_path
]
検証レポート(cvuchecdkreport_
timestamp
.txt
およびcvucheckreport_
timestamp
.htm
)を保存するには、save
フラグまたは-save -savedir
フラグを使用します(timestamp
は検証レポートの日時)。
save
フラグを単独で使用すると、レポートはパスCVU_home
/cv/report
に保存されます(CVU_home
はCVUバイナリの場所)。
-save -savedir
フラグを使用し、CVUレポートを保存するパスを入力すると、指定したパスにCVUレポートが保存されます。
インターコネクトに複数のネットワーク・インタフェース・カード(NIC)を使用する場合で、それらを冗長インターコネクトを使用してインストール時またはインストール後に構成していない場合は、サード・パーティのソリューションを使用して、オペレーティング・システム・レベルでインタフェースをボンディングする必要があります。そうしない場合、1つのNICの障害が、クラスタ・ノードの可用性に影響します。
Oracle Grid InfrastructureおよびOracle RACをインストールする場合は、インターコネクトに同じNICカードまたはボンディングされたNICカードを使用する必要があります。
ボンディングされたNICカードを使用する場合は、それらが同じサブネット上に存在している必要があります。
エラーが発生したら、次のシステム検証を実行してください。
スイッチに適切なケーブル(長さやタイプ)やソフトウェアが使用されていることを、ネットワーク・プロバイダに確認してください。場合によっては、負荷によって切断を起こす不具合を回避するため、またはジャンボ・フレームなどの追加機能をサポートするために、インターコネクト・スイッチのファームウェアのアップグレードや、新しいNICドライバ、オペレーティング・システム・レベルの新しいファームウェアが必要になることがあります。こうした修正を行わずに実行すると、初めのインストールは正常に見えても、後でOracle RACデータベースが不安定になることがあります。
ベンダーおよびOracleの推奨事項に従って、VLAN構成、二重化設定、自動ネゴシエーションを確認してください。
インストールの最終チェック時にSCAN VIPアドレスまたはリスナーに関連するエラーが報告された場合、次の項目をチェックして、ネットワークが正しく構成されていることを確認します。
ファイル/etc/resolv.conf
をチェックして、内容が各ノードで同じであることを確認します。
SCANに対してDNSエントリが存在しており、SCANが3つの有効なIPアドレスに解決されることを確認します。コマンドnslookup
scan-name
を使用します(このコマンドにより、DNSサーバー名およびSCAN用に構成された3つのIPアドレスが戻されます)。
ping
コマンドを使用して、SCANに割り当てられたIPアドレスをテストします(IPアドレスごとにレスポンスを受信する必要があります)。
注意: クラスタ環境用にDNSが構成されていない場合は、各ノードの/etc/hosts ファイルでSCANのエントリを作成できます。ただし、/etc/hosts ファイルを使用してSCANを解決すると、クラスタ全体に対して使用可能なSCANは3つではなく1つのみとなります。hosts ファイルにおけるSCAN用の最初のエントリのみが使用されます。 |
パブリック・インタフェースと同じサブネットがSCAN VIPで使用されていることを確認してください。
SCAN、SCAN VIPまたはリスナーに関連するエラーのトラブルシューティングについてさらに支援が必要な場合は、My Oracle Supportを参照してください。たとえば、Doc ID 1373350.1のNoteには、SCANおよびリスナーについて最も一般的な問題の一部が含まれています。
次にストレージ構成の問題を示します。
Oracle Clusterwareリリース11.2以上では、誤ってファイル・システムを削除したり、Oracle Local Registryを失うことになる別のストレージ構成の問題が発生したり、ノードが破損した場合は、次のいずれかの方法でノードをリカバリできます。
オペレーティング・システム・レベルのバックアップからノードをリストアする(推奨)。
ノードを削除した後、ノードを追加する。11.2以上のクラスタでは、プロファイル情報はノードにコピーされ、ノードがリストアされます。
クラスタ内の残りのノードからリストアできるように、クラスタ・ノードを削除して再度追加することを可能にする機能をグリッドのプラグ・アンド・プレイ(GPnP)と呼びます。グリッドのプラグ・アンド・プレイによって、ノードごとの構成データが削減され、明示的にノードを追加したり削除する必要性がなくなります。この機能によって、システム管理者は、テンプレートのシステム・イメージを取得するだけで、それ以上の構成を行わなくても、新しいノードでそのイメージを実行できます。そのため多くの手動操作が不要になり、エラーの発生する可能性が減るだけでなく、構成の変更をより簡単に行えるようになります。ノード単位の構成が排除されると、個々の状態をノードで保持して管理する必要がなくなるため、ノードの交換が容易になります。
グリッドのプラグ・アンド・プレイ機能により、ノード単位の状態が使い捨て可能になることで、データベース・ノードのインストール、構成および管理のコストが削減されます。これによって、再生成された状態でノードを簡単に交換できるようになります。
次のようなaddnode構文を使用してノードのリカバリを開始します。lostnode
は、クラスタに再度追加しているノードです。
グリッド・ネーミング・サービス(GNS)を使用している場合:
$ ./addNode.sh -silent "CLUSTER_NEW_NODES=lostnode"
GNSを使用していない場合:
$ ./addNode.sh -silent "CLUSTER_NEW_NODES={lostnode}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={lostnode-vip}"
リストアするノードでroot.shスクリプトを実行できるようにし、OCRキーを再作成し、他の構成タスクを実行するには、ルートにアクセスする必要があることに注意してください。/usr/local/binの既存の情報を上書きするプロンプトが表示された場合は、デフォルトを受け入れます。
The file "dbhome" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: The file "oraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]: The file "coraenv" already exists in /usr/local/bin. Overwrite it? (y/n) [n]:
次に、Oracle ASMドライバ・ライブラリのエラー・メッセージとその対処方法を示します。
/usr/sbin/oracleasm-discover
を入力してください。次に例を示します。
[grid@node1]$ /usr/sbin/oracleasm-discover 'ORCL:*'
/usr/sbin/oracleasm-discover
がない場合は、oracleasmlib
がインストールされていません。コマンドがある場合は、ASMLibが有効かどうか、ディスクが作成されているか、候補ディスクを作成するその他のタスクが完了しているかどうかを判定できます。
問題を解決済の場合は、コマンドを入力すると次のように出力されます。
[grid@node1]$ /usr/sbin/oracleasm-discover 'ORCL:*' Using ASMLib from /opt/oracle/extapi/64/asm/orcl/1/libasm.so [ASM Library - Generic Linux, version 2.0.4 (KABI_V2)] Discovered disk: ORCL:DISK1 [78140097 blocks (40007729664 bytes), maxio 512] Discovered disk: ORCL:DISK2 [78140097 blocks (40007729664 bytes), maxio 512] Discovered disk: ORCL:DISK3 [78140097 blocks (40007729664 bytes), maxio 512]
root.sh
スクリプトの完了時、OUIで「OK」をクリックしてインストールを終了し、Configuration Assistantを起動する必要があります。root.sh
スクリプトが実行される前または実行が完了する前にOUIが終了した場合、Oracle Grid Infrastructureのインストールは不完全となります。
中断されたインストールを完了するには、grid
ユーザーとして、インストールが開始されたノードで次のコマンドを実行します。
$
Grid_home
/cfgtoollogs/configToolAllCommands
このコマンドは最初のノードでのみ実行します。このコマンドを実行することにより、Oracle Grid Infrastructureのインストールが完了します。configToolAllCommands
ファイルが存在しない場合、ファイルを手動で作成する場合の支援についてMy Oracle Supportにお問い合せください。