Sun Cluster 3.0 U1 のシステム管理

クラスタファイルの復元の作業マップ

表 8-2 作業リスト : クラスタファイルの復元

作業 

参照箇所 

Solstice DiskSuite の場合は、Solaris の復元手順に従って対話形式でファイルを復元する。 

「個々のファイルを対話形式で復元する (Solstice DiskSuite)」

Solstice DiskSuite のルート (/) ファイルシステムを復元する。

「ルート (/) ファイルシステムを復元する (Solstice DiskSuite)」

 

「メタデバイスにあったルート (/) ファイルシステムを復元する (Solstice DiskSuite) 」

VERITAS Volume Manager の非カプセル化ルート (/) ファイルシステムを復元する。 

「非カプセル化ルート (/) ファイルシステムを復元する (VERITAS Volume Manager) 」

VERITAS Volume Manager のカプセル化ルート (/) ファイルシステムを復元する。 

「カプセル化ルート (/) ファイルシステムを復元する (VERITAS Volume Manager) 」

個々のファイルを対話形式で復元する (Solstice DiskSuite)

この手順を使用し、1 つまたは複数の個々のファイルを復元します。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。

  1. 復元するクラスタノードでスーパーユーザーになります。

  2. 復元するファイルを使用しているデータサービスをすべて停止します。


    # scswitch -z -g resource-group -h ""
    

  3. ufsrestore コマンドを使用してファイルを復元します。

ルート (/) ファイルシステムを復元する (Solstice DiskSuite)

障害の発生したルートディスクを交換した後などに、この手順を使用してルート (/) ファイルシステムを新しいディスクに復元します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 -

新しいディスクは、障害の発生したディスクと同じ形式でパーティション分割する必要があります。この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


  1. 復元するノード以外の、メタセットを使用できるクラスタノードでスーパーユーザーになります。

  2. 復元するノードのホスト名をすべてのメタセットから削除します。

    このコマンドは、削除するノード以外のメタセットのノードから実行します。


    # metaset -s setname -f -d -h nodelist
    

    -s setname

    ディスクセット名を指定します。

    -f

    強制的に実行します。

    -d

    ディスクセットから削除します。

    -h nodelist

    ディスクセットから削除するノードの名前を指定します。

  3. ルート (/) ファイルシステムを復元するノードで、障害の発生したディスクを交換します。

    ディスク交換手順については、サーバーに付属のマニュアルを参照してください。

  4. 復元するノードを起動します。

    • Solaris CD-ROM を使用している場合は、次のコマンドを実行します。


      ok boot cdrom -s
      

    • JumpStartTM サーバーを使用している場合は、次のコマンドを実行します。


      ok boot net -s
      

  5. format(1M) コマンドを使用し、ルートディスクのすべてのパーティションとスワップを作成します。

    障害の発生したディスクに存在していた元のパーティションと同じ分割方式で再作成します。

  6. newfs(1M) コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。

    障害の発生したディスクに存在していた元のファイルシステムを再作成します。


    注 -

    /global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。


  7. ルート (/) ファイルシステムを一時マウントポイントにマウントします。


    # mount device temp-mount-point
    

  8. 次のコマンドを使用し、ルート (/) ファイルシステムを復元します。


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mount-point
    # fsck raw-disk-device
    

    これで、ファイルシステムが復元されます。

  9. 新しい起動ブロックを新しいディスクにインストールします。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  10. ノードをシングルユーザーモードで再起動します。


    # reboot -- "-s"
    

  11. scdidadm コマンドを使用し、ディスク ID を置換します。


    # scdidadm -R rootdisk
    

  12. metadb(1M) コマンドを使用し、状態データベースの複製を再作成します。


    # metadb -c copies -af raw-disk-device
    

    -c copies

    作成する複製の数を指定します。

    -f raw-disk-device

    複製の作成先の raw ディスクデバイス名を指定します。

    -a

    複製を追加します。

  13. ノードをクラスタモードで再起動します。

    1. 再起動します。


      # reboot
      

      この起動中、次のような指示で終了するエラーまたは警告メッセージが表示されることがあります。


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. CTRL + d キーを押してマルチユーザーモードで起動します。

  14. 復元したノード以外のクラスタノードから、metaset(1M) コマンドを使用し、復元したノードをすべてのメタセットに追加します。


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    ホストを作成してディスクセットに追加します。

    ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。

例 - ルート (/) ファイルシステムの復元 (Solstice DiskSuite)

次に、テープデバイス /dev/rmt/0 からノード phys-schost-1 に復元したルート (/) ファイルシステムの例を示します。metaset コマンドは、クラスタの別のノード phys-schost-2 から実行し、ノード phys-schost-1 を削除し、後でディスクセット schost-1 に追加します。そのコマンドはすべて phys-schost-1 から実行します。新しい起動ブロックが /dev/rdsk/c0t0d0s0 に作成され、3 つの状態データベースの複製が /dev/rdsk/c0t0d0s4 に再作成されます。


[復元するノード以外のクラスタノードで
スーパーユーザーになる.]
[メタセットからノードを削除する:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[障害の発生したディスクを交換してノードを起動する:]
ok boot cdrom -s
[format および newfs を使用してパーティションとファイルシステムを再作成する]
[一時マウントポイントにルートファイルシステムをマウントする]
# mount /dev/dsk/c0t0d0s0 /a
[ルートファイルシステムを復元する]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[新しい起動ブロックをインストールする]
# /usr/sbin/installboot /usr/platform/`uname ¥
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[シングルユーザーモードで再起動する]
# reboot -- "-s"
[ディスク ID を置換する]
# scdidadm -R /dev/dsk/c0t0d0
[状態データベースの複製を再作成する]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[ノードをメタセットに追加し直す]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

メタデバイスにあったルート (/) ファイルシステムを復元する (Solstice DiskSuite)

この手順を使用し、バックアップ実行時にメタデバイスにあったルート (/) ファイルシステムを復元します。この手順は、破損したルートディスクを新しいディスクに交換する場合などに実行します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 -

新しいディスクは、障害の発生したディスクと同じ形式でパーティション分割する必要があります。この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


  1. 復元するノード以外で、メタセットへのアクセスを持つクラスタノードでスーパーユーザーになります。

  2. 復元するノードのホスト名をすべてのメタセットから削除します。


    # metaset -s setname -f -d -h nodelist
    

    -s setname

    メタセット名を指定します。

    -f

    強制的に実行します。

    -d

    メタセットから削除します。

    -h nodelist

    メタセットから削除するノードの名前を指定します。

  3. ルート (/) ファイルシステムを復元するノードで、障害の発生したディスクを交換します。

    ディスク交換手順については、サーバーに付属のマニュアルを参照してください。

  4. 復元するノードを起動します。

    • Solaris CD-ROM を使用している場合は、次のコマンドを実行します。


      ok boot cdrom -s
      

    • JumpStart サーバーを使用している場合は、次のコマンドを実行します。


      ok boot net -s
      

  5. format(1M) コマンドを使用し、ルートディスクのすべてのパーティションとスワップを作成します。

    障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。

  6. newfs(1M) コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。

    障害の発生したディスクに存在していた元のファイルシステムを再作成します。


    注 -

    /global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。


  7. ルート (/) ファイルシステムを一時マウントポイントにマウントします。


    # mount device temp-mount-point 
    

  8. 次のコマンドを使用し、ルート (/) ファイルシステムを復元します。


    # cd  temp-mount-point
    # ufsrestore rvf dump-device 
    # rm restoresymtable 
    

  9. 新しい起動ブロックを新しいディスクにインストールします。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device 
    
  10. /temp-mount-point/etc/system ファイルの MDD ルート情報の行を削除します。


     * Begin MDD root info (do not edit) 
    forceload: misc/md_trans 
    forceload: misc/md_raid 
    forceload: misc/md_mirror 
    forceload: misc/md_hotspares 
    forceload: misc/md_stripe 
    forceload: drv/pcipsy 
    forceload: drv/glm 
    forceload: drv/sd 
    rootdev:/pseudo/md@0:0,10,blk 
    * End MDD root info (do not edit) 

  11. /temp-mount-point/etc/vfstab ファイルを編集し、ルートエントリを、メタデバイスから、そのメタデバイスの一部であるルートディスクの各ファイルシステムに対応する通常のスライスに変更します。


    Example: 
    Change from-
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
     
    Change to-
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -

  12. 一時ファイルシステムをマウント解除し、raw ディスクデバイスを確認します。


    # cd /
    # umount  temp-mount-point
    # fsck raw-disk-device
    

  13. ノードをシングルユーザーモードで再起動します。


    # reboot -- "-s"
    

  14. scdidadm コマンドを使用し、ディスク ID を置換します。


    # scdidadm -R rootdisk
    

  15. metadb(1M) コマンドを使用し、状態データベースの複製を再作成します。


    # metadb -c copies -af raw-disk-device
    

    -c copies

    作成する複製の数を指定します。

    -af raw-disk-device

    指定した raw ディスクデバイスに初期状態のデータベースの複製を作成します。

  16. ノードをクラスタモードで再起動します。

    1. 再起動します。


      # reboot
      

      この起動中、次のような指示で終了するエラーまたは警告メッセージが表示されることがあります。


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. Control-D キーを押してマルチユーザーモードで起動します。

  17. 復元したノード以外のクラスタノードから、metaset(1M) コマンドを使用し、復元したノードをすべてのメタセットに追加します。


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    メタセットを追加 (作成) します。

    Solstice DiskSuite のマニュアルに従って、ルート (/) のメタデバイスおよびミラーを設定します。

    ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。

例 - メタデバイスに存在していたルート (/) ファイルシステムを復元する (Solstice DiskSuite)

次に、テープデバイス /dev/rmt/0 からノード phys-schost-1 に復元したルート (/) ファイルシステムの例を示します。metaset コマンドは、クラスタの別のノード phys-schost-2 から実行し、ノード phys-schost-1 を削除し、後でメタセット schost-1 に追加します。そのコマンドはすべて phys-schost-1 から実行します。新しいブートブロックが /dev/rdsk/c0t0d0s0 に作成され、3 つの状態データベースの複製が /dev/rdsk/c0t0d0s4 に再作成されます。


[復元するノード以外の、メタセットにアクセスできるクラスタノードでスーパー
 ユーザーになる]
[メタセットからノードを削除する]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[障害の発生したディスクを交換してノードを起動する]
ok boot cdrom -s
[format および newfs を使用してパーティションとファイルシステムを再作成する]
[一時マウントポイントにルートファイルシステムをマウントする]
# mount /dev/dsk/c0t0d0s0 /a
[ルートファイルシステムを復元する]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[新しい起動ブロックをインストールする]
# /usr/sbin/installboot /usr/platform/`uname ¥
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[MDD ルート情報用の /temp-mount-point/etc/system ファイルの行を削除する]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mount-point/etc/vfstab ファイルを編集する]
Example: 
Change from-
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
 
Change to-
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[一時ファルシステムをマウント解除して raw ディスクデバイスを確認する]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[シングルモードで再起動する]
# reboot -- "-s"
[ディスク ID を置換する]
# scdidadm -R /dev/dsk/c0t0d0
[状態データベース複製を再作成する]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Type CTRL-d to boot into multiuser mode.
[ノードをメタセットに追加し直す]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

非カプセル化ルート (/) ファイルシステムを復元する (VERITAS Volume Manager)

この手順を使用し、非カプセル化ルート (/) ファイルシステムをノードに復元します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 -

新しいディスクは、障害の発生したディスクと同じ形式でパーティション分割する必要があります。この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


  1. ルートファイルシステムを復元するノードで、障害が発生したディスクを交換します。

    ディスク交換手順については、サーバーに付属のマニュアルを参照してください。

  2. 復元するノードを起動します。

    • Solaris CD-ROM を使用している場合は、次のコマンドを実行します。


      ok boot cdrom -s
      

    • JumpStart サーバーを使用している場合は、次のコマンドを実行します。


      ok boot net -s
      

  3. format(1M) コマンドを使用し、ルートディスクのすべてのパーティションとスワップを作成します。

    障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。

  4. newfs(1M) コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。

    障害の発生したディスクに存在していた元のファイルシステムを再作成します。


    注 -

    /global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。


  5. ルート (/) ファイルシステムを一時マウントポイントにマウントします。


    # mount device temp-mount-point
    

  6. バックアップからルート (/) ファイルシステムを復元し、ファイルシステムをマウント解除して確認します。


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mount-point
    # fsck raw-disk-device
    

    これでファイルシステムが復元されました。

  7. 新しい起動ブロックを新しいディスクにインストールします。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  8. ノードをシングルユーザーモードで再起動します。

    1. 再起動します。


      # reboot -- "-s"

      この起動中、次のような指示で終了するエラーまたは警告メッセージが表示されることがあります。


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. root パスワードを入力します。

  9. ルートディスクグループがルートディスクの単一のスライスにあることを確認します。

    • 単一のスライスにある場合は、ルートディスクグループを作成および設定します。


      # vxdctl init
      # vxdg init rootdg
      # vxdctl add disk diskslice type=simple
      # vxdisk -f init diskslice type=simple
      # vxdg adddisk diskslice
      # vxdctl enable
      

    • 単一のスライスにない場合は、手順 10 に進みます。

  10. scdidadm コマンドを使用し、ディスク ID を更新します。


    # scdidadm -R /dev/rdsk/disk-device
    

  11. Control-D キーを押してマルチユーザーモードで再起動します。

    ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。

例 - 非カプセル化ルート (/) ファイルシステムの復元 (VERITAS Volume Manager)

次に、非カプセル化ルート (/) ファイルシステムがテープデバイス /dev/rmt/0 からノード phys-schost-1 に復元される例を示します。


[障害の発生したディスクを交換してノードを起動する]
ok boot cdrom -s
[format および newfs を使用してパーティションとファイルシステムを作成する]
[一時マウントポイントにルートファイルシステムをマウントする]
# mount /dev/dsk/c0t0d0s0 /a
[ルートファイルシステムを復元する]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[新しい起動ブロックをインストールする]
# /usr/sbin/installboot /usr/platform/`uname ¥
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[シングルユーザーモードで再起動する]
# reboot -- "-s"
[ルートディスクグループが単一のスライスにある場合は、新しいルートディスク
 グループを作成する]
# vxdctl init
# vxdg init rootdg
# vxdctl add disk c0t0d0s4 type=simple
# vxdisk -f init c0t0d0s4 type=simple
# vxdg adddisk c0t0d0s4
# vxdctl enable
[ディスク ID を更新する]
# scdidadm -R /dev/rdsk/c0t0d0
[CTRL + d キーを押してマルチユーザーモードを再開する]

カプセル化ルート (/) ファイルシステムを復元する (VERITAS Volume Manager)

この手順を使用し、カプセル化ルート (/) ファイルシステムをノードに復元します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 -

新しいディスクは、障害の発生したディスクと同じ形式でパーティション分割する必要があります。この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


  1. ルートファイルシステムを復元するノードで、障害が発生したディスクを交換します。

    ディスク交換手順については、サーバーに付属のマニュアルを参照してください。

  2. 復元するノードを起動します。

    • Solaris CD-ROM を使用している場合は、次のコマンドを実行します。


      ok boot cdrom -s
      
    • JumpStart サーバーを使用している場合は、次のコマンドを実行します。


      ok boot net -s
      

  3. format(1M) コマンドを使用し、ルートディスクのすべてのパーティションとスワップを作成します。

    障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。

  4. newfs(1M) コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。

    障害の発生したディスクに存在していた元のファイルシステムを再作成します。


    注 -

    /global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。


  5. ルート (/) ファイルシステムを一時マウントポイントにマウントします。


    # mount device temp-mount-point
    

  6. バックアップからルート (/) ファイルシステムを復元します。


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    

  7. 空の install-db ファイルを作成します。

    これによって、次回起動時にノードが VxVM インストールモードになります。


    # touch /temp-mount-point/etc/vx/reconfig.d/state.d/install-db
    

  8. /temp-mount-point/etc/system ファイルの次のエントリを削除またはコメントアウトします。


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1

  9. /temp-mount-point/etc/vfstab ファイルを編集し、すべての VxVM マウントポイントをルートディスクの標準ディスクデバイス (/dev/dsk/c0t0d0s0 など) に置換します。


    Example: 
    Change from-
    /dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol /      ufs   1     no -
     
    Change to-
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -

  10. 一時ファイルシステムをマウント解除してファイルシステムを確認します。


    # cd /
    # umount temp-mount-point
    # fsck raw-disk-device
    

  11. 起動ブロックを新しいディスクにインストールします。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  12. ノードをシングルユーザーモードで再起動します。


    # reboot -- "-s"
    

  13. scdidadm(1M) を使用し、ディスク ID を更新します。


    # scdidadm -R /dev/rdsk/c0t0d0
    

  14. ディスクをカプセル化して再起動するために、vxinstall を実行します。


    # vxinstall
    

  15. マイナー番号が他のシステムと衝突している場合は、広域デバイスをマウント解除し、ディスクグループに別のマイナー番号を割り当てます。

    • クラスタノードの広域デバイスファイルシステムをマウント解除します。


      # umount /global/.devices/node@nodeid
      

    • クラスタノードの rootdg ディスクグループに別のマイナー番号を割り当てます。


      # vxdg reminor rootdg 100
      

  16. ノードを停止し、クラスタモードで再起動します。


    # shutdown -g0 -i6 -y
    

例 - カプセル化ルート (/) ファイルシステムの復元 (VERITAS Volume Manager)

次に、カプセル化ルート (/) ファイルシステムがテープデバイス /dev/rmt/0 からノード phys-schost-1 に復元される例を示します。


[障害の発生したディスクを交換してノードを起動する:]
ok boot cdrom -s
[format および newfs を使用してパーティションとファイルシステムを作成する]
[一時マウントポイントにルートファイルシステムをマウントする]
# mount /dev/dsk/c0t0d0s0 /a
[ルートファイルシステムを復元する]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[空の install-db ファイルを作成する]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[一時ファイルシステムで /etc/system を編集するか、または次のエントリをコメントアウトする]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[一時ファイルシステムの /etc/vfstab を編集する]
Example: 
Change from-
/dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol / ufs 1 no-
 
Change to-
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[一時ファイルシステムをマウント解除してファイルシステムを確認する]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[新しい起動ブロックをインストールする]
# /usr/sbin/installboot /usr/platform/`uname ¥
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[シングルユーザーモードで再起動する]
# reboot -- "-s"
[ディスク ID を更新する]
# scdidadm -R /dev/rdsk/c0t0d0
[vxinstall を実行する]
# vxinstall
Choose to encapsulate the root disk.
[マイナー番号が衝突している場合は、rootdg ディスクグループに別のマイナー番号を割り当てる]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

次の作業

カプセル化されているルートディスクをミラー化する方法については、『Sun Cluster 3.0 U1 ソフトウェアのインストール』のクラスタファイルの復元に関する説明を参照してください。