プライマリ・コンテンツに移動
Oracle® Clusterware管理およびデプロイメント・ガイド
11gリリース2 (11.2)
B56289-08
  目次へ移動
目次
索引へ移動
索引

前
 
次
 

4 クラスタ・ノードの追加および削除

この章では、既存のクラスタにノードを追加する方法、およびクラスタからノードを削除する方法について説明します。この章では、Linux、UNIXおよびWindowsシステムでこれらのタスクを実行する手順を説明しています。


注意:

  • 特に指定がないかぎり、Oracle Clusterwareをインストールしたユーザーとしてノードの追加および削除のすべての手順を実行します。

  • クラスタを作成する場合は、第5章「Oracle Clusterwareのクローニング」に記載されているクローニング手順を使用することをお薦めします。


内容は次のとおりです。

クラスタ・ノードを追加するための必須手順


注意:

クラスタにノードを追加する前に、『Oracle Grid Infrastructureインストレーション・ガイド』に示す前処理を実行してください。

Oracle Clusterwareはインストールしないでください。ソフトウェアはクラスタにノードを追加したときに既存のノードからコピーされます。


次の手順を実行して、クラスタに追加するノードを準備します。

  1. 物理的な接続を確立します。

    ノードのハードウェアをクラスタのネットワーク・インフラストラクチャに接続します。この作業には、電気的な接続の確立、ネットワーク・インターコネクトの構成、共有ディスク・サブシステム接続の構成などが含まれます。この手順の詳細は、ハードウェア・ベンダーのマニュアルを参照してください。

  2. オペレーティング・システムをインストールします。

    クラスタの他のノード上のオペレーティング・システムと一致するオペレーティング・システムのクローン・イメージをインストールします。これには、必要なサービス・パッチ、更新およびドライバのインストールも含まれます。この手順の詳細は、オペレーティング・システム・ベンダーのマニュアルを参照してください。


    注意:

    クローン・イメージを使用することをお薦めします。ただし、インストール要件が満たされている場合は、ベンダーのドキュメントに従ってオペレーティング・システムをインストールしてください。

  3. Oracleユーザーを作成します。

    既存ノードに存在すべてのOracleユーザーを新規ノードで作成する必要があります。たとえば、2つのノードを持つクラスタにノードを追加する際、これら2つのノードにグリッド・インフラストラクチャ・ホームとOracleホームの異なる所有者が存在する場合は、新規ノードにOracleホームをインストールする予定がなくても、新規ノードでこれらの所有者を作成する必要があります。


    注意:

    この手順は、LinuxおよびUNIXシステムに対してのみ実行します。

    rootとして、既存ノードと同じユーザーIDおよびグループIDを使用してOracleユーザーおよびグループを作成します。

  4. SSHがノードに構成されていることを確認します。


    注意:

    Oracle Clusterware 11gリリース2(11.2)をインストールすると、SSHが構成されます。SSHが構成されない場合は、SSHの構成について、『Oracle Grid Infrastructureインストレーション・ガイド』を参照してください。

  5. クラスタ検証ユーティリティ(CVU)を使用して、ハードウェアおよびオペレーティング・システムのインストールを確認します。

    追加対象ノードにハードウェアおよびオペレーティング・システムを構成した後、次のコマンドを実行して、クラスタ内の他のノードから追加対象ノードへの到達可能性を検査できます。また、このコマンドで、ローカル・ノードから指定されたすべてのノードへのユーザー等価関係、指定されたすべてのノード間のノード接続性、指定されたすべてのノードからの共有記憶域へのアクセス可能性などを検査することもできます。

    既存ノードで、Grid_home/binディレクトリからCVUコマンドを実行して、参照ノードのプロパティと、現在のクラスタ環境に含まれるその他のすべてのノードのプロパティとの詳細な比較情報を取得します。ref_nodeを、CVUで追加対象ノードと比較する既存クラスタ内のノードの名前に置き換えます。-nオプションの後に、カンマ区切りのノードのリストを指定します。次の例では、orainventory_groupはOracle Inventoryグループの名前、osdba_groupはOSDBAグループの名前です。

    $ cluvfy comp peer [-refnode ref_node] -n node_list
    [-orainv orainventory_group] [-osdba osdba_group] [-verbose]
    

    注意:

    参照ノードについては、CVUによる比較を行うクラスタ・ノードを選択します。たとえば、-nオプションで指定して追加するノードなどです。

この項の手順を完了すると、ノードをクラスタに追加できるようになります。


注意:

Oracle Clusterwareインストールの完了後は、ホスト名の変更(ドメイン修飾の追加または削除を含む)はしないでください。ホスト名を変更されたノードはクラスタから削除され、新しい名前で追加されます。

LinuxおよびUNIXシステムでのクラスタ・ノードの追加および削除

この項では、LinuxおよびUNIXシステムでのクラスタ・ノードの追加および削除について説明します。この項のノードの追加の手順は、「クラスタ・ノードを追加するための必須手順」の項の手順を完了していることを前提としています。

ノード追加プロセスの最後の手順には、既存のノード上のOracle Clusterwareホームから追加対象ノードへのOracle Clusterwareホームの拡張が含まれます。

この項には次のトピックが含まれます:


注意:

Oracle Clusterware 11gリリース1(11.1)以降では、ノードの追加時、Oracle Universal Installerはデフォルトでサイレント・モードになっています。

LinuxおよびUNIXシステムでのクラスタ・ノードの追加

この手順では、クラスタにノードを追加する方法について説明します。この手順では、次の項目を前提としています。

  • node1およびnode2という2つのノードを持つクラスタが存在する

  • グリッド・ネーミング・サービス(GNS)を使用していない場合は、node3-vipという仮想ノード名を使用して、IPアドレスに解決される、node3という名前のノードを追加する

  • Oracle Clusterwareがnode1およびnode2のローカルの非共有ホームにインストールされており、Grid_homeは正常にインストールされたホームを表す

ノードを追加するには、次の手順を実行します。

  1. クラスタ環境内で1つ以上のノードにOracle Clusterwareを正常にインストールしていることを確認します。次の手順を実行するには、Grid_homeが、正常にインストールされたOracle Clusterwareホームを指している必要があります。


    関連項目:

    Oracle Clusterwareのインストール手順については、『Oracle Grid Infrastructureインストレーション・ガイド』を参照してください。

  2. クラスタおよびnode3の整合性を検証します。

    $ cluvfy stage -pre nodeadd -n node3 [-fixup [-fixupdir fixup_dir]] [-verbose]
    

    -fixupオプションと、検証が失敗した場合にクラスタまたはノードを修正するための指示がCVUによって出力されるディレクトリを指定できます。

  3. グリッド・インフラストラクチャ・ホームをnode3に拡張するには、node1Grid_home/oui/binに移動し、次の構文を使用してOracle ClusterwareをインストールしたユーザーとしてaddNode.shスクリプトを実行します(node3は追加するノードの名前、node3-vipはノードのVIP名です)。

    グリッド・ネーミング・サービス(GNS)を使用している場合、次のコマンドを実行します。

    $ ./addNode.sh "CLUSTER_NEW_NODES={node3}"
    

    グリッド・ネーミング・サービス(GNS)を使用していない場合、次のコマンドを実行します。

    $ ./addNode.sh "CLUSTER_NEW_NODES={node3}" "CLUSTER_NEW_VIRTUAL_
    HOSTNAMES={node3-vip}"
    

    注意:

    カッコの中にノードのカンマ区切りリストを入力することで、CLUSTER_NEW_NODESCLUSTER_NEW_VIRTUAL_HOSTNAMESパラメータに複数のノードを指定できます。次に例を示します。
    "CLUSTER_NEW_NODES={node3,node4,node5}"
    "CLUSTER_NEW_VIRTUAL_HOSTNAMES={node3-vip,node4-vip,node5-vip}"
    

    または、例4-1に示すエントリをレスポンス・ファイルに記述したうえで、次のようにaddNode.shスクリプトを実行することもできます。file_nameはファイルの名前です。

    $ ./addNode.sh -responseFile file_name
    

    例4-1 Oracle Clusterwareホームを追加するためのレスポンス・ファイルのエントリ

    RESPONSEFILE_VERSION=2.2.1.0.0
    
    CLUSTER_NEW_NODES={node3}
    CLUSTER_NEW_VIRTUAL_HOSTNAMES={node3-vip}
    

    関連項目:

    コマンドライン・レスポンス・ファイルの構成方法の詳細は、『Oracle Universal InstallerおよびOpatchユーザーズ・ガイド』を参照してください。


    注意:

    • Oracleグリッド・ネーミング・サービス(GNS)を使用していない場合は、DNSにnode3の名前およびIPアドレスを追加する必要があります。

    • コマンドラインの値は、常にレスポンス・ファイルの値に優先します。


  4. Oracle RACまたはOracle RAC One Nodeデータベースをクラスタで構成した場合で、ローカルのOracleホームを持つ場合は、次を実行してOracle Databaseホームをnode3に拡張します。

    1. node1Oracle_home/oui/binディレクトリに移動し、次の構文を使用してOracle RACをインストールしたユーザーとしてaddNode.shスクリプトを実行します。

      $ ./addNode.sh "CLUSTER_NEW_NODES={node3}"
      
    2. rootとしてnode3Oracle_home/root.shスクリプトを実行します。Oracle_homeはOracle RACホームです。

    Oracle Automatic Storage Management クラスタ・ファイル・システム(Oracle ACFS)を使用して共有されている共有Oracleホームを持つ場合は、Oracle RACをインストールしたユーザーとして次を実行し、Oracle Databaseホームをnode3に拡張します。

    1. rootとして、node3に対しGrid_home/root.shスクリプトを実行します。Grid_homeはOracle Grid Infrastructureホームです。

    2. rootとしてGrid_home/binディレクトリから次のコマンドを実行して、新しいノードでOracle ACFSリソースを起動します。

      # srvctl start filesystem -d volume_device_name [-n node_name]
      

      注意:

      ORACLE_HOMEが格納されているOracle ACFSレジストリ・リソースおよびOracle ACFSファイル・システム・リソースを含むOracle ACFSリソースが、新しく追加されたノードでオンラインであることを確認します。

    3. node1Oracle_home/oui/binディレクトリに移動し、次の構文を使用してOracle RACをインストールしたユーザーとしてaddNode.shスクリプトを実行します。

      $ ./addNode.sh -noCopy "CLUSTER_NEW_NODES={node3}"
      

      注意:

      宛先ノードのOracleホームはすでにソフトウェアに完全に移入されているため、-noCopyオプションを使用します。

    Oracle ACFS以外の共有ファイル・システムで共有Oracleホームを持つ場合は、まずターゲット・ノードでOracle RACデータベース・ホームのマウント・ポイントを作成し、Oracle RACデータベース・ホームをマウントおよびアタッチし、次のようにOracle Inventoryを更新します。

    1. クラスタの既存のノードでsrvctl config db -d db_nameコマンドを実行し、マウント・ポイント情報を取得します。

    2. rootとして、node3で次のコマンドを実行し、マウント・ポイントを作成します。

      # mkdir -p mount_point_path
      
    3. Oracle RACデータベース・ホームをホストするファイル・システムをマウントします。

    4. Oracle RACをインストールしたユーザーとして、追加したノードのOracle_home/oui/binディレクトリから次のコマンドを実行し、Oracle RACデータベース・ホームを追加します。

      $ ./runInstaller -attachHome ORACLE_HOME="ORACLE_HOME" "CLUSTER
      _NODES={node_list}" LOCAL_NODE="node_name"
      
    5. Oracle RACをインストールしたユーザーとして、次のようにOracle Inventoryを更新します。

      $ ./runInstaller -updateNodeList ORACLE_HOME=mount_point_path "CLUSTER
      _NODES={node_list}"
      

      前述のコマンドで、node_listはOracle RACデータベース・ホームがインストールされたすべてのノード(追加したものも含む)のリストです。

  5. rootとして、node3Grid_home/root.shスクリプトを実行し、指示に従って後続のスクリプトを実行します。

  6. Oracle Clusterwareをインストールしたユーザーとして次のCVUコマンドを実行して、クラスタの整合性をチェックします。このコマンドで、指定した任意の数のノードがネットワーク、共有記憶域およびクラスタウェアの各レベルでクラスタに正常に追加されていることを確認します。

    $ cluvfy stage -post nodeadd -n node3 [-verbose]
    

    関連項目:

    このCVUコマンドの詳細は、「cluvfy stage [-pre | -post] nodeadd」を参照してください。

ポリシー管理Oracle RACデータベースまたは管理者管理Oracle RACデータベースのいずれかがnode3(新しく追加されたノード)で実行されるように構成されているかどうかを確認します。管理者管理Oracle RACデータベースを構成した場合、DBCAを使用してデータベースにインスタンスを追加し、この新しく追加されたノードで実行します。


関連項目:

  • DBCAを使用した管理者管理Oracle RACデータベース・インスタンスの追加の詳細は、『Oracle Real Application Clusters管理およびデプロイメント・ガイド』を参照してください。

  • ポリシー管理Oracle RACデータベースを構成した場合のターゲット・ノードへのOracle RACデータベース・インスタンスの追加の詳細は、『Oracle Real Application Clusters管理およびデプロイメント・ガイド』を参照してください。


LinuxおよびUNIXシステムでのクラスタ・ノードの削除

この項では、クラスタからノードを削除する手順について説明します。


注意:

  • クラスタからノードを削除する前にノードからOracle RACデータベース・インスタンスを削除することができますが、この手順は必須ではありません。インスタンスを削除しない場合、インスタンスは構成されたままですが、実行されることはありません。クラスタからノードを削除しても、クラスタからノードの構成情報が削除されることはありません。残った構成情報がクラスタの操作を妨害することはありません。

    関連項目: Oracle RACデータベース・インスタンスの削除の詳細は、『Oracle Real Application Clusters管理およびデプロイメント・ガイド』を参照してください。

  • DHCPおよびGNSを使用して動的なグリッド・プラグ・アンド・プレイ・クラスタを実行する場合は、手順3(VIPリソースの削除)、手順4(ノードの削除)および手順7(残りのノードでのインベントリの更新)のみを実行する必要があります。

    また、グリッド・プラグ・アンド・プレイ・クラスタの場合、固定解除されているノードは、しばらくするとOracle Clusterwareから認識されなくなるため、ユーザーが削除する必要はありません。

  • (特定のノードでサービスを無効にしたり、サーバー・プールの候補リストにノードを追加するなどして)あるノードにノード固有の構成を作成すると、ノードがクラスタから削除されても、ノード固有の構成は削除されません。このようなノード固有の構成は、手動で削除する必要があります。

  • クラスタに変更を行うと、投票ディスクは自動的にOCRにバックアップされます。


クラスタからノードを削除するには、次の手順を実行します。

  1. Grid_homeが各ノード上のOracle Clusterwareホームへの完全なディレクトリ・パスを正しく指定していることを確認します。Grid_homeは、Oracle Clusterwareソフトウェアをインストールした場所です。

  2. rootとしてまたはOracle Clusterwareをインストールしたユーザーとして次のコマンドを実行し、削除対象のノードがアクティブであることおよび固定されているかどうかを確認します。

    $ olsnodes -s -t
    

    ノードが固定されている場合は、crsctl unpin cssコマンドを実行します。使用していない場合は次の手順に進みます。

  3. ノード上で実行されているOracle Clusterwareアプリケーションおよびデーモンを無効にします。削除対象のノードで、rootとしてGrid_home/crs/installディレクトリからrootcrs.plスクリプトを次のように実行します。


    注意:

    このコマンドを実行する前に、次のようにEMAGENTを停止する必要があります。
    $ emctl stop dbconsole
    

    # ./rootcrs.pl -deconfig -force
    

    複数のノードを削除する場合、削除対象の各ノードでrootcrs.plスクリプトを実行します。

    クラスタからすべてのノードを削除するには、前述のコマンドに-lastnodeオプションを追加し、次のようにOCRおよび投票ディスクをクリアします。

    # ./rootcrs.pl -deconfig -force -lastnode
    

    注意:

    すべてのクラスタ・ノードを削除する場合のみ、-lastnodeオプションを使用してください(このオプションによりrootcrs.plスクリプトはOCRおよび投票ディスクのデータをクリアするためです)。


    注意:

    前述のコマンドで-forceオプションを使用しない場合、または前述のコマンドを実行する目的で削除対象のノードにアクセスできない場合、VIPリソースはそのノードで実行され続けます。削除対象ではないノードからrootとして次のコマンドを使用して、VIPリソースを手動で停止および削除する必要があります。
    # srvctl stop vip -i vip_name -f
    # srvctl remove vip -i vip_name -f
    

    vip_nameは、削除対象のノードのVIPです。複数のVIP名を指定する場合、名前をカンマで区切り、リストを二重引用符("")で囲む必要があります。


  4. 削除対象ではない任意のノードから、rootとしてGrid_home/binディレクトリで次のコマンドを実行して、クラスタからノードを削除します。

    # crsctl delete node -n node_to_be_deleted
    
  5. 削除対象のノードで、Oracle ClusterwareをインストールしたユーザーとしてGrid_home/oui/binディレクトリから次のコマンドを実行します。node_to_be_deletedは、削除対象のノードの名前です。

    $ ./runInstaller -updateNodeList ORACLE_HOME=Grid_home "CLUSTER_NODES=
    {node_to_be_deleted}" CRS=TRUE -silent -local
    

    注意:

    次の手順に進む前に、inventory.xmlをチェックして、更新されていないことを確認します。この手順を実行し、誤ってinventory.xmlファイルを更新した場合、またはこの手順を完了せずに次の手順に進んだ場合、次の手順でクラスタ全体が削除されます。

  6. 共有Oracleホームを持つかローカルOracleホームを持つかによって、Oracle Clusterwareをインストールしたユーザーとして、次のいずれかの手順を実行します。

    • 共有ホームがある場合は、削除するノードで次のコマンドを次の順序で実行します。

      Oracle Clusterwareを構成解除するには、次のコマンドを実行します。

      $ Grid_home/perl/bin/perl Grid_home/crs/install/rootcrs.pl -deconfig
      

      Gridホームをデタッチするには、次のコマンドをGrid_home/oui/binディレクトリから実行します。

      $ ./runInstaller -detachHome ORACLE_HOME=Grid_home -silent -local
      

      手動で次のファイルを削除します。

      /etc/oraInst.loc
      /etc/oratab
      /etc/oracle/
      /opt/ORCLfmap/
      $OraInventory/
      
    • ローカル・ホームの場合は、次のコマンドを実行し、削除対象のノードからOracle Clusterwareホームを削除します。Grid_homeは、Oracle Clusterwareホームに定義されているパスです。

      $ Grid_home/deinstall/deinstall –local
      

      注意:

      -localフラグを指定しない場合は、コマンドによって、クラスタ内のすべてのノードからグリッド・インフラストラクチャ・ホームが削除されます。

  7. 削除対象でない任意のノードで、Grid_home/oui/binディレクトリから次のコマンドを実行します。remaining_nodes_listは、クラスタの一部として残すノードのカンマ区切りのリストです。

    $ ./runInstaller -updateNodeList ORACLE_HOME=Grid_home "CLUSTER_NODES=
    {remaining_nodes_list}" CRS=TRUE -silent
    

    注意:

    • 次のように、このコマンドをもう1回(ORACLE_HOME=ORACLE_HOMEで、CRS=TRUE -silentが構文から省略されている)実行する必要があります。

      $ ./runInstaller -updateNodeList ORACLE_HOME=ORACLE_HOME
       "CLUSTER_NODES={remaining_nodes_list}"
      
    • Oracle Grid Infrastructureホームが共有ホームの場合は、この手順のコマンド例に-cfsオプションを追加し、クラスタ・ファイル・システムの完全なパス位置を指定します。


  8. 指定したノードがクラスタから正常に削除されたことを確認するには、次のCVUコマンドを実行します。

    $ cluvfy stage -post nodedel -n node_list [-verbose]
    

    関連項目:

    このCVUコマンドの詳細は、「cluvfy stage -post nodedel」を参照してください。

Windowsシステムでのクラスタ・ノードの追加および削除

この項では、Windowsシステムでのクラスタ・ノードの追加および削除について説明します。この項には次のトピックが含まれます:


関連項目:

クラスタ全体の削除の詳細は、『Oracle Grid Infrastructureインストレーション・ガイド』を参照してください。

Windowsシステムでのクラスタへのノードの追加

ノードを追加する前に、「クラスタ・ノードを追加するための必須手順」にリストされている前提条件を満たしておく必要があります。

この手順では、クラスタにノードを追加する方法について説明します。この手順では、次の項目を前提としています。

  • node1およびnode2という2つのノードを持つクラスタが存在する

  • node3という名前のノードを追加する

  • Oracle Clusterwareがnode1およびnode2のローカル・ホームにインストールされており、Grid_homeは正常にインストールされたホームを表す


注意:

WindowsシステムでOracle DatabaseがOracle Database 10gリリース1(10.1)からアップグレードされている構成の場合は、クラスタ・ノードの追加に、この項で説明する手順を使用しないでください。

ノードを追加するには、次の手順を実行します。

  1. クラスタおよびnode3の整合性を検証します。

    C:\>cluvfy stage -pre nodeadd -n node3 [-fixup [-fixupdir fixup_dir]] [-verbose]
    

    -fixupオプションと、検証が失敗した場合にクラスタまたはノードを修正するための指示がCVUによって出力されるディレクトリを指定できます。

  2. node1Grid_home\oui\binディレクトリに移動し、次のように、addNode.batスクリプトを実行します。

    C:\>addNode.bat "CLUSTER_NEW_NODES={node3}"
    "CLUSTER_NEW_VIRTUAL_HOSTNAMES={node3-vip}"
    

    また、レスポンス・ファイルに例4-2に示すエントリを指し、次のように、addNode.batを実行することもできます。

    C:\>addNode.bat -responseFile filename
    

    例4-2 ノードを追加するためのレスポンス・ファイルのエントリ

    CLUSTER_NEW_NODES={"node3"}
    CLUSTER_NEW_VIRTUAL_HOSTNAMES={"node3-vip"}
    

    コマンドラインの値は、常にレスポンス・ファイルの値に優先します。


    関連項目:

    コマンドライン・レスポンス・ファイルの構成方法の詳細は、『Oracle Universal InstallerおよびOpatchユーザーズ・ガイド』を参照してください。

  3. 新規ノードで次のコマンドを実行します。

    C:\>Grid_home\crs\config\gridconfig.bat
    
  4. 次のコマンドを実行し、構成済のすべてのノード(既存のノードと追加したノードの両方)でOracle Clusterwareコンポーネントの整合性を検証します。

    C:\>cluvfy stage -post crsinst -n all [-verbose]
    

この項のノードの追加手順を完了してから、必要に応じてOracle Real Application Clusters(Oracle RAC)コンポーネントを含むOracle Databaseを新規ノードに拡張し、新規ノードを既存のOracle RACデータベースのメンバーにすることも可能です。


関連項目:

Oracle RACを含むOracle Databaseの新規ノードへの拡張の詳細は、『Oracle Real Application Clusters管理およびデプロイメント・ガイド』を参照してください。

Windowsシステムでのクラスタ・ノードの削除

この項では、Windowsシステムでクラスタ・ノードを削除する方法について説明します。この手順は、Oracle Clusterwareがnode1node2およびnode3にインストールされており、クラスタからnode3を削除すると想定しています。


注意:

  • Oracleでは、WindowsシステムでOracle Enterprise Managerを使用してノードを削除することはサポートしていません。

  • ノードの追加手順または削除手順を完成したら、投票ディスクおよびOCRをバックアップすることをお薦めします。

  • クラスタからノードを削除する前にノードからOracle RACデータベース・インスタンスを削除することができますが、この手順は必須ではありません。インスタンスを削除しない場合、インスタンスは構成されたままですが、実行されることはありません。クラスタからノードを削除しても、クラスタからノードの構成情報が削除されることはありません。残った構成情報がクラスタの操作を妨害することはありません。

    関連項目: Oracle RACデータベース・インスタンスの削除の詳細は、『Oracle Real Application Clusters管理およびデプロイメント・ガイド』を参照してください。


Windowsシステムでクラスタ・ノードを削除するには、次の手順を実行します。

  1. ノードを削除する前に、ノードで実行中のOracle Clusterwareアプリケーションとサービスを無効にする必要があります。

    削除するノードで、管理者グループのメンバーとして、次のようにrootcrs.pl -deconfigスクリプトを実行します。

    C:\>Grid_home\perl\bin\perl -I$Grid_home\perl\lib -I$Grid_home\crs\install
    Grid_home\crs\install\rootcrs.pl -deconfig -force
    

    複数のノードを削除する場合、削除対象の各ノードでこのスクリプトを実行します。

  2. 削除対象のノードで、次のコマンドを実行します。

    C:\>Grid_home\bin\crsctl delete node -n node_to_be_deleted
    
  3. ローカル・ホームを持つ場合のみ、削除対象のノードで次のコマンドを-localオプションで実行し、ノード・リストを更新します。

    C:\>Grid_home\oui\bin\setup.exe -updateNodeList ORACLE_HOME=Grid_home "CLUSTER_NODES=
    {node_to_be_deleted}" CRS=TRUE -local
    
  4. 次のようにGrid_home\deinstallディレクトリにある削除ツールを実行し、Oracle Clusterwareホームを削除して、構成を解除します。

    C:\>deinstall.bat
    
  5. 削除対象でない任意のノードで、Grid_home\oui\binディレクトリから次のコマンドを実行します(remaining_nodes_listは、クラスタの一部として残すノードのカンマ区切りのリストです)。

    C:\>setup.exe –updateNodeList ORACLE_HOME=Grid_home
    "CLUSTER_NODES={remaining_nodes_list}" CRS=TRUE -silent
    

    注意:

    • 次のように、このコマンドをもう1回(ORACLE_HOME=ORACLE_HOMEで、CRS=TRUE -silentが構文から省略されている)実行する必要があります。

      C:\>setup.exe -updateNodeList ORACLE_HOME=ORACLE_HOME
       "CLUSTER_NODES={remaining_nodes_list}"
      
    • Oracle Grid Infrastructureホームが共有ホームの場合は、この手順のコマンド例に-cfsオプションを追加し、クラスタ・ファイル・システムの完全なパス位置を指定します。


  6. 指定したノードがクラスタから正常に削除されたことを確認するには、次のCVUコマンドを実行します。

    C:\>cluvfy stage -post nodedel -n node_list [-verbose]