障害の発生したルートディスクを交換したあとなどに、この手順を使用して ZFS ルート (/) ファイルシステムを新しいディスクに復元します。復元中のノードはブートしなおさないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。UFS はサポートされます (ルートファイルシステムとして使用する場合を除く)。UFS は共有ディスクの Solaris Volume Manager メタセットのメタデバイスで使用できます。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
復元する以外のノードを使用します。
このコマンドは、削除するノード以外のメタセットのノードから実行します。回復しているノードはオフラインであるため、システムは「RPC: Rpcbind failure - RPC: Timed out」というエラーを表示します。このエラーを無視し、次のステップを続けます。
# metaset -s setname -f -d -h nodelist
ディスクセット名を指定します。
ディスクセットから最後のホストを削除します。
ディスクセットから削除します。
ディスクセットから削除するノードの名前を指定します。
詳細は、Oracle Solaris 11.3 での ZFS ファイルシステムの管理 の ZFS ルートプール内のディスクの交換を参照してください。
ZFS ルートプールまたはルートプールスナップショットを回復する場合は、Oracle Solaris 11.3 での ZFS ファイルシステムの管理 の ZFS ルートプール内のディスクの交換に記載されている手順に従います。
バックアップディレクトリに /.globaldevices バックアップファイルが存在する場合は、ZFS ルートの復元とともに復元されます。globaldevices SMF サービスは、このファイルを自動的には作成しません。
# reboot
# cldevice repair root-disk
# metadb -c copies -af raw-disk-device
作成するレプリカの数を指定します。
レプリカの作成先の raw ディスクデバイス名を指定します。
レプリカを追加します。
詳細は、metadb(1M) のマニュアルページを参照してください。
phys-schost-2# metaset -s setname -a -h nodelist
ホストを作成してディスクセットに追加します。
ノードがクラスタモードでリブートします。これでクラスタを使用できるようになります。
次に、ノード phys-schost-1 に復元したルート (/) ファイルシステムの例を示します。metaset コマンドは、クラスタの別のノード phys-schost-2 から実行し、ノード phys-schost-1 を削除し、後でディスクセット schost-1 に追加します。その他のコマンドはすべて phys-schost-1 から実行します。新しいブートブロックが /dev/rdsk/c0t0d0s0 に作成され、3 つの状態データベースのレプリカが /dev/rdsk/c0t0d0s4 に再作成されます。データの復元の詳細は、Oracle Solaris 11.3 での ZFS ファイルシステムの管理 の ZFS ストレージプール内のデータの問題を解決するを参照してください。
メタセットからノードを削除します phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1障害の発生したディスクを交換し、ノードをブートします Oracle Solaris ドキュメントの手順を使用して、ルート (/) および /usr ファイルシステムを復元します ノードをリブートします # rebootディスク ID を交換します # cldevice repair /dev/dsk/c0t0d0状態データベースのレプリカを再作成します # metadb -c 3 -af /dev/rdsk/c0t0d0s4メタセットに再度ノードを追加します phys-schost-2# metaset -s schost-1 -a -h phys-schost-1