この章では、クラスタへのノードの追加とノードの削除方法を説明します。
クラスタのメンテナンスに関する情報は、第 9 章クラスタの管理を参照してください。
このセクションでは、グローバルクラスタまたはゾーンクラスタにノードを追加する方法を説明します。新しいゾーンクラスタノードは、そのゾーンクラスタをホストするグローバルクラスタのノード上に作成できますが、それは、グローバルクラスタノードが、そのゾーンクラスタのノードをまだホストしていない場合に限られます。グローバルクラスタ上の既存の非投票ノードを、ゾーンクラスタノードに変換することはできません。
この章での phys-schost# は、グローバルクラスタのプロンプトを表します。clzonecluster の対話型シェルプロンプトは clzc:schost> です。
次の表に、ノードを既存のクラスタに追加するときに行う作業を示します。作業は、示されている順に実行してください。
表 8–1 作業マップ: 既存のグローバルクラスタまたはゾーンクラスタへのノードの追加
作業 |
参照先 |
---|---|
ホストアダプタのノードへの取り付けと、既存のクラスタインターコネクトが新しいノードをサポートできることの確認 |
『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 』 |
共有記憶装置の追加 |
『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 』 |
追加ノードのクラスタの準備 |
『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「追加のグローバルクラスタノード用にクラスタを準備する」 |
clsetup を使用した、承認済みノードリストへのノードの追加 | |
新しいクラスタノードへのソフトウェアのインストールと構成 |
『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の第 2 章「グローバルクラスタノードへのソフトウェアのインストール」 |
クラスタが Sun Cluster Geographic Edition のパートナーシップで構成されている場合、構成内のアクティブな参加メンバーとして新しいノードを構成する |
Solaris ホストまたは仮想マシンを既存のグローバルクラスタまたはゾーンクラスタに追加する前に、プライベートクラスタインターコネクトへの物理的な接続が正しく動作しているかどうかも含め、必要なハードウェアがすべてノードに正しくインストールおよび構成されていることを確認してください。
ハードウェアのインストールについては、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 』 または各サーバーに付属するハードウェアマニュアルを参照してください。
この手順によって、マシンは自分自身をクラスタ内にインストールします。つまり、自分のノード名を当該クラスタの認証ノードリストに追加します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
現在のグローバルクラスタメンバーで、現在のクラスタメンバー上のスーパーユーザーになります。次の手順は、グローバルクラスタのノードから実行します。
表 8–1 の作業マップに記載されている必要なハードウェアのインストールと構成作業をすべて正しく完了していることを確認します。
clsetup ユーティリティーを起動します。
phys-schost# clsetup |
メインメニューが表示されます。
ノードをゾーンクラスタに追加するために、clzonecluster ユーティリティーを使用します。ゾーンをゾーンクラスタに手動で追加する方法は、手順 9 を参照してください。
新規ノードメニューを表示するためのオプションに対応する番号を入力し、Return キーを押します。
承認済みリストを変更するためのオプションに対応する番号を入力し、Return キーを押します。自分自身を追加できるマシンの名前を指定します。
指示に従って、ノードの名前をクラスタに追加します。追加するノードの名前が問い合わせられます。
作業が正常に行われたことを確認します。
作業が正常に行われた場合、clsetup ユーティリティーは「コマンドが正常に完了しました」というメッセージを表示します。
新しいマシンがクラスタに追加されないようにするために、新しいマシンを追加する要求を無視するようクラスタに指示する、オプションに対応する番号を入力します。Return キーを押します。
clsetup のプロンプトに従います。このオプションを設定すると、クラスタは、自分自身をクラスタに追加しようとする新しいマシンからのパブリックネットワーク経由の要求をすべて無視します。
clsetup ユーティリティーを終了します。
ノードをゾーンクラスタに手動で追加するには、Solaris ホストおよび仮想ノード名を指定してください。また、各ノードでパブリックネットワーク通信に使用するネットワークリソースも指定してください。次の例では、ゾーン名は sczone で、bge0 は両方のマシンのパブリックネットワークアダプタです。
clzc:sczone>add node clzc:sczone:node>set physical-host=phys-cluster-1 clzc:sczone:node>set hostname=hostname1 clzc:sczone:node>add net clzc:sczone:node:net>set address=hostname1 clzc:sczone:node:net>set physical=bge0 clzc:sczone:node:net>end clzc:sczone:node>end clzc:sczone>add node clzc:sczone:node>set physical-host=phys-cluster-2 clzc:sczone:node>set hostname=hostname2 clzc:sczone:node>add net clzc:sczone:node:net>set address=hostname2 clzc:sczone:node:net>set physical=bge0 clzc:sczone:node:net>end clzc:sczone:node>end |
ノードを構成する手順の詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「ゾーンクラスタの設定」を参照してください。
新しいクラスタノード上でソフトウェアをインストールして構成します。
scinstall または JumpStartTM ソフトウェアのいずれかを使用して、新しいノードのインストールと構成を完了します。詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。
次に、ノード phys-schost-3 を既存のクラスタの認証ノードリストに追加する例を示します。
[Become superuser and execute the clsetup utility.] phys-schost# clsetup [Select New nodes>Specify the name of a machine which may add itself.] [Answer the questions when prompted.] [Verify that the scconf command completed successfully.] claccess allow -h phys-schost-3 Command completed successfully. [Select Prevent any new machines from being added to the cluster.] [Quit the clsetup New Nodes Menu and Main Menu.] [Install the cluster software.] |
クラスタノードを追加する作業の一連の手順については、表 8–1、「作業マップ: クラスタノードの追加」を参照してください。
ノードを既存のリソースグループに追加する方法については、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』を参照してください。
ここでは、非投票ノード (単にゾーンと呼ばれる) をグローバルクラスタノード上に作成するための次の情報と手順を説明します。
非投票ノードを作成するグローバルクラスタノードでスーパーユーザーになります。
大域ゾーンで作業してください。
Solaris 10 OS の場合、各ノードでサービス管理機能 (Service Management Facility、SMF) 用のマルチユーザーサービスがオンラインであることを確認します。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
新しいゾーンを構成、インストール、および起動します。
グローバルクラスタの非投票ノードでリソースグループ機能をサポートするには、autoboot プロパティーを true に設定にします。
Solaris のマニュアルの手順に従ってください。
ゾーンが ready 状態であることを確認します。
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
ip-type プロパティーが exclusive に設定されている完全ルートゾーンの場合: ゾーンで論理ホスト名リソースをホストする可能性がある場合は、大域ゾーンからメソッドディレクトリをマウントするファイルシステムリソースを構成します。
phys-schost# zonecfg -z sczone zonecfg:sczone> add fs zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm zonecfg:sczone:fs> set type=lofs zonecfg:sczone:fs> end zonecfg:sczone> exit |
(省略可能) 共有 IP ゾーンでは、プライベート IP アドレスとプライベートホスト名をゾーンに割り当てます。
次のコマンドは、クラスタのプライベート IP アドレスの範囲から、使用可能な IP アドレスを選択し、割り当てます。またこのコマンドは、指定されたプライベートホスト名、またはホスト別名をゾーンに割り当て、割り当てられたプライベート IP アドレスにそれをマッピングします。
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
プロパティーを指定します。
ゾーンプライベートホスト名、またはホスト別名を指定します。
ノードの名前。
グローバルクラスタの非投票ノードの名前。
初期内部ゾーン構成を実行します。
『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「初期内部ゾーン構成を実行する」の手順に従います。次のどちらかの方法を選択します。
ゾーンにログインします。
/etc/sysidcfg ファイルを使用します。
非投票ノードで、nsswitch.conf ファイルを変更します。
これらの変更により、クラスタ固有のホスト名と IP アドレスの検索をゾーンが解決できるようになります。
ゾーンにログインします。
phys-schost# zlogin -c zonename |
編集するため /etc/nsswitch.conf ファイルを開きます。
sczone# vi /etc/nsswitch.conf |
hosts エントリと netmasks エントリのルックアップの先頭に、cluster スイッチを追加し、その後に files スイッチを追加します。
変更されたエントリは次のようになるはずです。
… hosts: cluster files nis [NOTFOUND=return] … netmasks: cluster files nis [NOTFOUND=return] … |
ほかのすべてのエントリでは、files スイッチが、エントリに一覧表示される最初のスイッチになるようにする必要があります。
ゾーンを終了します。
排他的 IP ゾーンを作成した場合は、そのゾーン上の /etc/hostname.interface ファイルごとに IPMP グループを構成します。
ゾーン内のデータサービストラフィックに使用されているパブリックネットワークアダプタごとに、IPMP グループを設定します。この情報は、大域ゾーンから継承されません。クラスタでの IPMP グループの設定については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「パブリックネットワーク」を参照してください。
ゾーンにより使用されるすべての論理ホスト名リソースの名前とアドレスのマッピングを設定します。
このセクションでは、グローバルクラスタまたはゾーンクラスタ上のノードを削除する手順について説明します。グローバルクラスタから特定のゾーンクラスタを削除することもできます。次の表に、ノードを既存のクラスタから削除するときに行う作業を示します。作業は、示されている順に実行してください。
RAC 構成の場合、この手順のみを使用してノードを削除すると、再起動中のノードでパニックが発生する可能性があります。RAC 構成からノードを削除する方法については、『Sun Cluster Data Service for Oracle RAC Guide for Solaris OS』の「How to Remove Sun Cluster Support for Oracle RAC From Selected Nodes」を参照してください。このプロセスが終了したら、次の適切な手順に従ってください。
作業 |
参照先 |
---|---|
削除するノードからすべてのリソースグループとデバイスグループを移動 |
clnode evacuate node |
許可されたホストをチェックして、ノードを削除できることを確認 ノードを削除できない場合に、クラスタ構成へのアクセス権をノードに付与 |
claccess show node claccess allow -h node-to-remove |
すべてのデバイスグループからノードを削除 |
「デバイスグループからノードを削除する (Solaris ボリュームマネージャー)」
|
削除するノードに接続されているすべての定足数デバイスを削除 |
2 ノードクラスタのノードを削除する場合、この手順は省略可能です。 次の手順では、ストレージデバイスを削除する前に定足数デバイスを削除する必要がありますが、定足数デバイスはその直後に追加し直すことができます。 |
削除するノードを非クラスタモードにする | |
ゾーンクラスタからノードを削除 | |
クラスタソフトウェア構成からノードを削除 | |
(省略可能) Sun Cluster ソフトウェアをクラスタノードからアンインストール | |
ゾーンクラスタ全体の削除 |
ノードを停止し、アインストールして、構成からノードを削除することで、ゾーンクラスタからノードを削除することができます。あとでノードをゾーンクラスタに戻す場合は、表 8–1 の手順に従います。ここからの手順のほとんどは、グローバルクラスタノードから実行します。
グローバルクラスタのノードのスーパーユーザーになります。
ノードとそのゾーンクラスタを指定して、削除するゾーンクラスタノードを停止します。
phys-schost# clzonecluster halt -n node zoneclustername |
ゾーンクラスタ内で clnode evacuate コマンドと shutdown コマンドを使用することもできます。
ゾーンクラスタノードをアンインストールします。
phys-schost# clzonecluster uninstall -n node zoneclustername |
ゾーンクラスタノードを構成から削除します。
次のコマンドを使用します。
phys-schost# clzonecluster configure zoneclustername |
clzc:sczone> remove node physical-host=zoneclusternodename |
ノードがゾーンクラスタから削除されたことを確認します。
phys-schost# clzonecluster status |
この手順を実行して、ノードをグローバルクラスタから削除します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
この手順を実行する前に、ノードをすべてのリソースグループ、デバイスグループ、および定足数デバイスの構成から削除していること、および、このノードを保守状態にしていることを確認します。
削除するノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。グローバルクラスタのノードから、次の手順のステップをすべて実行します。
削除するグローバルクラスタノードを非クラスタモードで起動します。ゾーンクラスタノードの場合は、この手順を実行する前に、「ゾーンクラスタからノードを削除する」の手順を実行します。
SPARC ベースのシステム上で、次のコマンドを実行します。
ok boot -x |
x86 ベースのシステム上で、次のコマンドを実行します。
shutdown -g -y -i0 Press any key to continue |
GRUB メニューで矢印キーを使用して該当する Solaris エントリを選択し、e と入力してコマンドを編集します。
GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
GRUB ベースの起動についての詳細は、『Solaris のシステム管理 (基本編) 』の「GRUB を使用して x86 システムをブートする (作業マップ)」を参照してください。
ブートパラメータの画面で、矢印キーを使用してカーネルエントリを選択し、e を入力してエントリを編集します。
GRUB ブートパラメータの画面は、次のような画面です。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu. |
コマンドに -x を追加して、システムを非クラスタモードで起動するように指定します。
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x |
Enter キーを押して変更を受け入れ、ブートパラメータの画面に戻ります。
画面には編集されたコマンドが表示されます。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.- |
b と入力して、ノードを非クラスタモードで起動します。
カーネル起動パラメータコマンドへのこの変更は、システムを起動すると無効になります。次にノードを再起動する際には、ノードはクラスタモードで起動します。クラスタモードではなく、非クラスタモードで起動するには、これらの手順を再度実行して、カーネル起動パラメータコマンドに -x オプションを追加します。
削除するノードが使用できない場合や、起動できなくなっている場合は、アクティブな任意のクラスタノードで clnode clear -F <node-to-be-removed> コマンドを実行します。clnode status <nodename> を実行して、ノードが削除されていることを確認します。
削除するノードで、ノードをクラスタから削除します。
phys-schost# clnode remove -F |
clnode remove コマンドが失敗し、無効なノード参照が存在したままになっている場合は、アクティブなノードで clnode clear -F nodename を実行します。
クラスタ内の最後のノードを削除する場合は、そのノードがクラスタモードモードでないこと、およびクラスタ内にアクティブなノードがないことが必要です。
別のクラスタノードから、ノードの削除を確認します。
phys-schost# clnode status nodename |
ノードの削除を完了します。
削除するノードから Sun Cluster ソフトウェアをアンインストールする場合は、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」 に進んでください。
削除するノードから Sun Cluster ソフトウェアをアンインストールしない場合は、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』 で説明されているように、ハードウェア接続を削除することにより、クラスタからノードを物理的に削除できます。
次に、ノード phys-schost-2 をクラスタから削除する例を示します。clnode remove コマンドは、クラスタから削除するノード (phys-schost-2) から非クラスタモードで実行されます。
[Remove the node from the cluster:] phys-schost-2# clnode remove phys-schost-1# clnode clear -F phys-schost-2 [Verify node removal:] phys-schost-1# clnode status -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online |
削除するノードから Sun Cluster ソフトウェアをアンインストールする方法については、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」を参照してください。
ハードウェア手順については、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』を参照してください。
クラスタノードを削除する作業の概要については、表 8–2 を参照してください。
ノードを既存のクラスタに追加する方法については、「ノードを認証ノードリストに追加する」を参照してください。
非投票ノードを作成したグローバルクラスタノードでスーパーユーザーになります。
システムから非投票ノードを削除します。
『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「システムから非大域ゾーンを削除する」の手順に従います。
3 ノードまたは 4 ノード接続のクラスタでストレージアレイを単一クラスタノードから取り外すには、次の手順を使用します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。
取り外す予定のストレージアレイに関連付けられているすべてのデータベーステーブル、データサービス、ボリュームのバックアップを作成します。
切断する予定のノードで動作しているリソースグループとデバイスグループを判別します。
phys-schost# clresourcegroup status phys-schost# cldevicegroup status |
必要であれば、切断する予定のノードからすべてのリソースグループとデバイスグループを移動します。
Oracle RAC ソフトウェアをクラスタで実行している場合、グループをノードから移動する前に、動作している Oracle RAC データベースのインスタンスを停止します。手順については、『Oracle Database Administration Guide』を参照してください。
phys-schost# clnode evacuate node |
clnode evacuate コマンドは、すべてのデバイスグループを、指定ノードから次に優先されるノードに切り替えます。またこのコマンドは、指定ノード上の投票ノードまたは非投票ノードから、次に優先される投票ノードまたは非投票ノードへ、すべてのリソースグループを切り替えます。
デバイスグループを保守状態にします。
Veritas 共有ディスクグループへの入出力活動を休止させる手順については、VxVM のマニュアルを参照してください。
デバイスグループを保守状態にする手順については、「ノードを保守状態にする」を参照してください。
デバイスグループからノードを削除します。
VxVM または raw ディスクを使用している場合は、cldevicegroup(1CL) コマンドを使用して、デバイスグループを削除します。
Solstice DiskSuite を使用している場合は、metaset コマンドを使用して、デバイスグループを削除します。
HAStoragePlus リソースが含まれる各リソースグループで、リソースグループのノードリストからノードを削除します。
phys-schost# clresourcegroup remove-node -z zone -n node + | resourcegroup |
ノードの名前。
リソースグループをマスターできる非投票ノードの名前。リソースグループを作成した際に非投票ノードを指定した場合にのみ、zone を指定します。
リソースグループのノードリストを変更する方法の詳細は、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』を参照してください。
clresourcegroup を実行するときには、リソースタイプ、リソースグループ、およびリソースのプロパティー名には大文字と小文字の区別があります。
削除する予定のストレージアレイがノードに接続されている最後のストレージアレイである場合、当該ストレージアレイに接続されているハブまたはスイッチとノードの間にある光ケーブルを取り外します (そうでない場合、この手順は省略します)。
切断するノードからホストアダプタを削除する場合、ノードの電源を切ります。切断するノードからホストアダプタを削除する場合は、手順 11 に進みます。
ノードからホストアダプタを削除します。
ホストアダプタの削除手順については、ノード用ドキュメントを参照してください。
起動が行われないようにして、ノードに電源を入れます。
Oracle RAC ソフトウェアがインストールされている場合、切断する予定のノードからそのパッケージを削除します。
phys-schost# pkgrm SUNWscucm |
切断したノードから Oracle RAC ソフトウェアを削除しない場合、そのノードをクラスタに導入し直すときにノードでパニックが発生し、データの可用性が失われる可能性があります。
クラスタモードでノードを起動します。
SPARC ベースのシステム上で、次のコマンドを実行します。
ok boot |
x86 ベースのシステム上で、次のコマンドを実行します。
GRUB メニューが表示された時点で、適切な Solaris エントリを選択し Enter キーを押します。GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
ノードの /devices と /dev エントリを更新して、デバイスの名前空間を更新します。
phys-schost# devfsadm -C cldevice refresh |
デバイスグループをオンラインに戻します。
Veritas 共有ディスクグループをオンラインにする手順については、Veritas Volume Manager のマニュアルを参照してください。
デバイスグループをオンラインにする方法については、「ノードを保守状態から戻す」を参照してください。
クラスタノードの削除手順のいずれかを実行中に発生したエラーメッセージを修正するには、次の手順を実行します。
グローバルクラスタへのノードの再結合を試みます。この手順は、グローバルクラスタ上のみで実行します。
phys-schost# boot |
ノードがクラスタに正常に再結合されているかどうかを確認します。
再結合されていない場合は、手順 b に進みます。
再結合されている場合は、次の各手順を行なってノードをデバイスグループから削除します。
ノードが正常にクラスタに再結合された場合は、残っているデバイスグループからノードを削除します。
「すべてのデバイスグループからノードを削除する」 の作業を行います。
すべてのデバイスグループからノードを削除したあと、「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」 に戻り、その手順を繰り返します。
ノードがクラスタに再結合されなかった場合は、ノードの /etc/cluster/ccr ファイルを他の名前に変更します (たとえば、ccr.old)。
# mv /etc/cluster/ccr /etc/cluster/ccr.old |
「Sun Cluster ソフトウェアをクラスタノードからアンインストールする」に戻り、その手順を繰り返します。