ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
Oracle Solaris Cluster システム管理 Oracle Solaris Cluster 4.1 (日本語) |
1. Oracle Solaris Cluster の管理の概要
2. Oracle Solaris Cluster と RBAC
5. グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理
7. クラスタインターコネクトとパブリックネットワークの管理
ZFS ルートファイルシステムを新しいディスクに復元できます。
ファイルまたはファイルシステムの復元を開始する前に、次の点を確認してください。
必要なテープ
ファイルシステムを復元する raw デバイス名
使用するテープドライブの種類
テープドライブのデバイス名 (ローカルまたはリモート)
障害が発生したディスクのパーティション分割方式。これは、パーティションとファイルシステムを交換用ディスクに正確に複製しなければならないためです。
表 12-2 タスクリスト : クラスタファイルの復元
|
障害の発生したルートディスクを交換したあとなどに、この手順を使用して ZFS ルート (/) ファイルシステムを新しいディスクに復元します。復元中のノードはブートしなおさないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。UFS はサポートされます (ルートファイルシステムとして使用する場合を除く)。UFS は共有ディスクの Solaris Volume Manager メタセットのメタデバイスで使用できます。
注 - 新しいディスクは、障害が発生したディスクと同じ形式でパーティション分割する必要があります。このため、この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
復元する以外のノードを使用します。
このコマンドは、削除するノード以外のメタセットのノードから実行します。復元を行なっているノードはオフラインであるため、システムは「RPC: Rpcbind failure - RPC: Timed out」というエラーを表示します。このエラーを無視し、次のステップを続けます。
# metaset -s setname -f -d -h nodelist
ディスクセット名を指定します。
ディスクセットから最後のホストを削除します。
ディスクセットから削除します。
ディスクセットから削除するノードの名前を指定します。
『Oracle Solaris 11.1 の管理: ZFS ファイルシステム』の「ZFS ルートプールのディスクを交換する方法 (SPARC または x86/VTOC)」
ZFS ルートプールまたはルートプールスナップショットを回復するには、『Oracle Solaris 11.1 の管理: ZFS ファイルシステム』の「ZFS ルートプールのディスクを交換する方法 (SPARC または x86/VTOC)」の手順に従います。
注 - /global/.devices/ node@nodeid ファイルシステムが作成されていることを確認します。
バックアップディレクトリに /.globaldevices バックアップファイルが存在する場合は、ZFS ルートの復元とともに復元されます。globaldevices SMF サービスは、このファイルを自動的には作成しません。
# reboot
# cldevice repair rootdisk
# metadb -c copies -af raw-disk-device
作成する複製の数を指定します。
複製の作成先の raw ディスクデバイス名を指定します。
複製を追加します。
詳細は、metadb(1M) のマニュアルページを参照してください。
phys-schost-2# metaset -s setname -a -h nodelist
ホストを作成してディスクセットに追加します。
ノードがクラスタモードでリブートします。これでクラスタを使用できるようになります。
例 12-1 ZFS ルート (/) ファイルシステムの復元 (Solaris Volume Manager)
次に、ノード phys-schost-1 に復元したルート (/) ファイルシステムの例を示します。metaset コマンドは、クラスタの別のノード phys-schost-2 から実行し、ノード phys-schost-1 を削除し、後でディスクセット schost-1 に追加します。そのコマンドはすべて phys-schost-1 から実行します。新しいブートブロックが /dev/rdsk/c0t0d0s0 に作成され、3 つの状態データベースの複製が /dev/rdsk/c0t0d0s4 に再作成されます。 データの復元の詳細は、『Oracle Solaris 11.1 の管理: ZFS ファイルシステム』の「損傷したデータを修復する」を参照してください。
[Assume a role that provides solaris.cluster.modify RBAC authorization on a cluster node other than the node to be restored.] [Remove the node from the metaset:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Replace the failed disk and boot the node:] Restore the root (/) and /usr file system using the procedure in the Solaris system administration documentation [Reboot:] # reboot [Replace the disk ID:] # cldevice repair /dev/dsk/c0t0d0 [Re-create state database replicas:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 [Add the node back to the metaset:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1