作業 |
参照箇所 |
---|---|
Solstice DiskSuite/Solaris Volume Manager の場合、Solaris の復元手順に従って対話形式でファイルを復元 |
個々のファイルを対話形式で復元する (Solstice DiskSuite/Solaris Volume Manager) |
Solstice DiskSuite/Solaris Volume Manager の場合、ルート (/) ファイルシステムを復元 |
ルート(/)ファイルシステムを復元する (Solstice DiskSuite/Solaris Volume Manager) |
|
メタデバイスにあったルート (/) ファイルシステムを復元する (Solstice DiskSuite/Solaris Volume Manager) |
VERITAS Volume Manager の場合、非カプセル化ルート (/) ファイルシステムを復元 | |
VERITAS Volume Manager の場合、カプセル化ルート (/) ファイルシステムを復元 |
この手順を使用し、1 つまたは複数の個々のファイルを復元します。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。
復元するクラスタノード上でスーパーユーザーになります。
復元するファイルを使用しているデータサービスをすべて停止します。
# scswitch -z -g resource-group[,...] -h ““ |
ufsrestore コマンドを使用してファイルを復元します。
障害の発生したルートディスクを交換した後などに、この手順を使用してルート (/) ファイルシステムを新しいディスクに復元します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。
新しいディスクは、障害の発生したディスクと同じ形式でパーティション分割する必要があります。この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。
復元するノード以外で、メタセットへのアクセスを持つクラスタノード上でスーパーユーザーになります。
復元するノードのホスト名をすべてのメタセットから削除します。
このコマンドは、削除するノード以外のメタセットのノードから実行します。
# metaset -s setname -f -d -h nodelist |
ディスクセット名を指定します。
強制的に実行します。
ディスクセットから削除します。
ディスクセットから削除するノードの名前を指定します。
ルート (/) ファイルシステムを復元するノードで、障害の発生したディスクを交換します。
ディスク交換手順については、サーバーに付属のマニュアルを参照してください。
復元するノードを起動します。
Solaris CD-ROM を使用している場合は、次のコマンドを実行します。
ok boot cdrom -s |
Solaris JumpStartTM サーバーを使用している場合は、次のコマンドを実行します。
ok boot net -s |
format(1M) コマンドを使用し、ルートディスクのすべてのパーティションとスワップを作成します。
障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。
newfs(1M) コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。
障害の発生したディスクに存在していた元のファイルシステムを再作成します。
/global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。
ルート (/) ファイルシステムを一時マウントポイントにマウントします。
# mount device temp-mountpoint |
次のコマンドを使用し、ルート (/) ファイルシステムを復元します。
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable # cd / # umount temp-mountpoint # fsck raw-disk-device |
これでファイルシステムが復元されます。
新しい起動ブロックを新しいディスクにインストールします。
# /usr/sbin/installboot /usr/platform/`uname -ì/lib/fs/ufs/bootblk raw-disk-device |
ノードをシングルユーザーモードで再起動します。
# reboot -- "-s" |
scdidadm(1M) コマンドを使用し、ディスク ID を置換します。
# scdidadm -R rootdisk |
metadb(1M) コマンドを使用し、状態データベースの複製を再作成します。
# metadb -c copies -af raw-disk-device |
作成する複製の数を指定します。
複製の作成先の raw ディスクデバイス名を指定します。
複製を追加します。
ノードをクラスタモードで再起動します。
復元したノード以外のクラスタノードから、metaset(1M) コマンドを使用し、復元したノードをすべてのメタセットに追加します。
phys-schost-2# metaset -s setname -a -h nodelist |
ホストを作成してディスクセットに追加します。
ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。
次に、テープデバイス /dev/rmt/0 からノード phys-schost-1 に復元したルート (/) ファイルシステムの例を示します。metaset コマンドは、クラスタの別のノード phys-schost-2 から実行し、ノード phys-schost-1 を削除し、後でディスクセット schost-1 に追加します。そのコマンドはすべて phys-schost-1 から実行します。新しいブートブロックが /dev/rdsk/c0t0d0s0 に作成され、3 つの状態データベースの複製が /dev/rdsk/c0t0d0s4 に再作成されます。
[Become superuser on a cluster node other than the node to be restored.] [Remove the node from the metaset:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Replace the failed disk and boot the node:] ok boot cdrom -s [Use format and newfs to recreate partitions and file systems.] [Mount the root file system on a temporary mount point:] # mount /dev/dsk/c0t0d0s0 /a [Restore the root file system:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Install a new boot block:] # /usr/sbin/installboot /usr/platform/`uname \ -ì/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Reboot in single-user mode:] # reboot -- "-s" [Replace the disk ID:] # scdidadm -R /dev/dsk/c0t0d0 [Recreate state database replicas:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 # reboot Press CTL-d to boot into multiuser mode. [Add the node back to the metaset:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
この手順を使用し、バックアップ実行時にメタデバイスに存在していたルート (/) ファイルシステムを復元します。この手順は、破損したルートディスクを新しいディスクに交換する場合などに実行します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。
新しいディスクは、障害の発生したディスクと同じ形式でパーティション分割する必要があります。この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。
復元するノード以外で、メタセットへのアクセスを持つクラスタノード上でスーパーユーザーになります。
復元するノードのホスト名をすべてのメタセットから削除します。
# metaset -s setname -f -d -h nodelist |
メタセット名を指定します。
強制的に実行します。
メタセットから削除します。
メタセットから削除するノードの名前を指定します。
ルート (/) ファイルシステムを復元するノードで、障害の発生したディスクを交換します。
ディスク交換手順については、サーバーに付属のマニュアルを参照してください。
復元するノードを起動します。
Solaris CD-ROM を使用している場合は、次のコマンドを実行します。
ok boot cdrom -s |
JumpStart サーバーを使用している場合は、次のコマンドを実行します。
ok boot net -s |
format(1M) コマンドを使用し、ルートディスクのすべてのパーティションとスワップを作成します。
障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。
newfs(1M) コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。
障害の発生したディスクに存在していた元のファイルシステムを再作成します。
/global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。
ルート (/) ファイルシステムを一時マウントポイントにマウントします。
# mount device temp-mountpoint |
次のコマンドを使用し、ルート (/) ファイルシステムを復元します。
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable |
新しい起動ブロックを新しいディスクにインストールします。
# /usr/sbin/installboot /usr/platform/`uname -ì/lib/fs/ufs/bootblk raw-disk-device |
/temp-mountpoint/etc/system ファイルの MDD ルート情報の行を削除します。
* Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) |
/temp-mountpoint/etc/vfstab ファイルを編集し、ルートエントリを、メタデバイスから、そのメタデバイスの一部であるルートディスクの各ファイルシステムに対応する通常のスライスに変更します。
Example: Change from— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /usr ufs 1 no - |
一時ファイルシステムをマウント解除し、raw ディスクデバイスを確認します。
# cd / # umount temp-mountpoint # fsck raw-disk-device |
ノードをシングルユーザーモードで再起動します。
# reboot -- "-s" |
scdidadm コマンドを使用し、ディスク ID を置換します。
# scdidadm -R rootdisk |
metadb(1M) コマンドを使用し、状態データベースの複製を再作成します。
# metadb -c copies -af raw-disk-device |
作成する複製の数を指定します。
指定した raw ディスクデバイスに初期状態のデータベースの複製を作成します。
ノードをクラスタモードで再起動します。
復元したノード以外のクラスタノードから、metaset(1M) コマンドを使用し、復元したノードをすべてのメタセットに追加します。
phys-schost-2# metaset -s setname -a -h nodelist |
メタセットを追加 (作成) します。
Solstice DiskSuite のマニュアルに従って、ルート (/) のメタデバイスおよびミラーを設定します。
ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。
次に、テープデバイス /dev/rmt/0 からノード phys-schost-1 に復元したルート (/) ファイルシステムの例を示します。metaset コマンドは、クラスタの別のノード phys-schost-2 から実行し、ノード phys-schost-1 を削除し、後でメタセット schost-1 に追加します。そのコマンドはすべて phys-schost-1 から実行します。新しいブートブロックが /dev/rdsk/c0t0d0s0 に作成され、3 つの状態データベースの複製が /dev/rdsk/c0t0d0s4 に再作成されます。
[Become superuser on a cluster node with access to the metaset, other than the node to be restored.] [Remove the node from the metaset:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Replace the failed disk and boot the node:] ok boot cdrom -s [Use format and newfs to recreate partitions and file systems.] [Mount the root file system on a temporary mount point:] # mount /dev/dsk/c0t0d0s0 /a [Restore the root file system:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [Install a new boot block:] # /usr/sbin/installboot /usr/platform/`uname \ -ì/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Remove the lines in /temp-mountpoint/etc/system file for MDD root information:] * Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) [Edit the /temp-mountpoint/etc/vfstab file] Example: Change from— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /usr ufs 1 no - [Unmount the temporary file system and check the raw disk device:] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Reboot in single-user mode:] # reboot -- "-s" [Replace the disk ID:] # scdidadm -R /dev/dsk/c0t0d0 [Recreate state database replicas:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 # reboot Type CTRL-d to boot into multiuser mode. [Add the node back to the metaset:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
この手順を使用し、非カプセル化ルート (/) ファイルシステムをノードに復元します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。
新しいディスクは、障害の発生したディスクと同じ形式でパーティション分割する必要があります。この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。
ルートファイルシステムを復元するノードで、障害が発生したディスクを交換します。
ディスク交換手順については、サーバーに付属のマニュアルを参照してください。
復元するノードを起動します。
Solaris CD-ROM を使用している場合は、次のコマンドを実行します。
ok boot cdrom -s |
JumpStart サーバーを使用している場合は、次のコマンドを実行します。
ok boot net -s |
format(1M) コマンドを使用し、ルートディスクのすべてのパーティションとスワップを作成します。
障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。
newfs(1M) コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。
障害の発生したディスクに存在していた元のファイルシステムを再作成します。
/global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。
ルート (/) ファイルシステムを一時マウントポイントにマウントします。
# mount device temp-mountpoint |
バックアップからルート (/) ファイルシステムを復元し、ファイルシステムをマウント解除して確認します。
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable # cd / # umount temp-mountpoint # fsck raw-disk-device |
これでファイルシステムが復元されます。
新しい起動ブロックを新しいディスクにインストールします。
# /usr/sbin/installboot /usr/platform/`uname -ì/lib/fs/ufs/bootblk raw-disk-device |
ノードをシングルユーザーモードで再起動します。
scdidadm コマンドを使用し、ディスク ID を更新します。
# scdidadm -R /dev/rdsk/disk-device |
Control-D キーを押して、マルチユーザーモードで再起動します。
ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。
次に、非カプセル化ルート (/) ファイルシステムがテープデバイス /dev/rmt/0 からノード phys-schost-1 に復元される例を示します。
[障害の発生したディスクを置換しノードをブートする:] ok boot cdrom -s [format および newfs を使用してパーティションとファイルシステムを再作成する] [一時マウントポイント上でルートファイルシステムをマウントする:] # mount /dev/dsk/c0t0d0s0 /a [ルートファイルシステムを復元する:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [新しいブートブックをインストールする:] # /usr/sbin/installboot /usr/platform/`uname \ -ì/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [シングルユーザーモードでリブートする:] # reboot -- "-s" [ディスク ID をアップデートする:] # scdidadm -R /dev/rdsk/c0t0d0 [CTRL-d を押して、マルチユーザーモードで再開する] |
この手順を使用し、カプセル化ルート (/) ファイルシステムをノードに復元します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。
新しいディスクは、障害の発生したディスクと同じ形式でパーティション分割する必要があります。この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。
ルートファイルシステムを復元するノードで、障害が発生したディスクを交換します。
ディスク交換手順については、サーバーに付属のマニュアルを参照してください。
復元するノードを起動します。
Solaris CD-ROM を使用している場合は、次のコマンドを実行します。
ok boot cdrom -s |
JumpStart サーバーを使用している場合は、次のコマンドを実行します。
ok boot net -s |
format(1M) コマンドを使用し、ルートディスクのすべてのパーティションとスワップを作成します。
障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。
newfs(1M) コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。
障害の発生したディスクに存在していた元のファイルシステムを再作成します。
/global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。
ルート (/) ファイルシステムを一時マウントポイントにマウントします。
# mount device temp-mountpoint |
バックアップからルート (/) ファイルシステムを復元します。
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable |
空の install-db ファイルを作成します。
これによって、次回起動時にノードが VxVM インストールモードになります。
# touch /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db |
/temp-mountpoint/etc/system ファイルの次のエントリを削除またはコメントアウトします。
* rootdev:/pseudo/vxio@0:0 * set vxio:vol_rootdev_is_volume=1 |
/temp-mountpoint/etc/vfstab ファイルを編集し、すべての VxVM マウントポイントをルートディスクの標準ディスクデバイス (/dev/dsk/c0t0d0s0 など) に置換します。
Example: Change from— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - |
一時ファイルシステムをマウント解除してファイルシステムを確認します。
# cd / # umount temp-mountpoint # fsck raw-disk-device |
起動ブロックを新しいディスクにインストールします。
# /usr/sbin/installboot /usr/platform/`uname -ì/lib/fs/ufs/bootblk raw-disk-device |
ノードをシングルユーザーモードで再起動します。
# reboot -- "-s" |
scdidadm(1M) を使用し、ディスク ID を更新します。
# scdidadm -R /dev/rdsk/c0t0d0 |
ディスクをカプセル化して再起動するために、vxinstall を実行します。
# vxinstall |
マイナー番号が他のシステムと衝突している場合は、広域デバイスをマウント解除し、ディスクグループに別のマイナー番号を割り当てます。
クラスタノードの広域デバイスファイルシステムをマウント解除します。
# umount /global/.devices/node@nodeid |
クラスタノードの rootdg ディスクグループに別のマイナー番号を割り当てます。
# vxdg reminor rootdg 100 |
ノードを停止し、クラスタモードで再起動します。
# shutdown -g0 -i6 -y |
次に、カプセル化ルート (/) ファイルシステムがテープデバイス /dev/rmt/0 からノード phys-schost-1 に復元される例を示します。
[障害の発生したディスクを置換しノードをブートする:] ok boot cdrom -s [format および newfs を使用してパーティションとファイルシステムを再作成する] [一時マウントポイント上でルートファイルシステムをマウントする:] # mount /dev/dsk/c0t0d0s0 /a [ルートファイルシステムを復元する:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [空の install-db ファイルを作成する:] # touch /a/etc/vx/reconfig.d/state.d/install-db [etc/system を一時ファイルシステム上で編集し、次の入力例を削除もしくはコメントアウトする:] # rootdev:/pseudo/vxio@0:0 # set vxio:vol_rootdev_is_volume=1 [etc/vfstab を一時ファイルシステム上で編集する:] Example: Change from— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no- Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - [一時ファイルシステムをアンマウントし、ファイルシステムをチェックする:] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [新しいブートブックをインストールする:] # /usr/sbin/installboot /usr/platform/`uname \ -ì/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [シングルユーザーモードでリブートする:] # reboot -- "-s" [ディスク ID を置換する:] # scdidadm -R /dev/rdsk/c0t0d0 [vxinstall を実行する:] # vxinstall Choose to encapsulate the root disk. [マイナー番号が重複する場合、rootdg ディスクグループのマイナー番号を変更する:] # umount /global/.devices/node@nodeid # vxdg reminor rootdg 100 # shutdown -g0 -i6 -y |
カプセル化ルートディスクをミラーリングする指示については、『Sun Cluster 3.1 ソフトウェアのインストール』を参照してください。