JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris Cluster システム管理     Oracle Solaris Cluster (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris Cluster の管理の概要

2.  Oracle Solaris Cluster と RBAC

3.  クラスタの停止と起動

4.  データ複製のアプローチ

5.  グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理

6.  定足数の管理

7.  クラスタインターコネクトとパブリックネットワークの管理

8.  ノードの追加と削除

9.  クラスタの管理

10.  CPU 使用率の制御の構成

11.  Oracle Solaris Cluster ソフトウェアとファームウェアのパッチ

12.  クラスタのバックアップと復元

クラスタのバックアップ

バックアップするファイルシステム名を確認する

完全なバックアップに必要なテープ数を決定する

ルート(/) ファイルシステムをバックアップする

ミラーのオンラインバックアップを実行する (Solaris Volume Manager)

ボリュームのオンラインバックアップを実行する (Veritas Volume Manager)

クラスタ構成をバックアップする

クラスタファイルの復元の作業マップ

個々のファイルを対話形式で復元する (Solaris Volume Manager)

ルート(/)ファイルシステムを復元する (Solaris Volume Manager)

Solaris Volume Manager ボリューム上に存在していたルート (/) ファイルシステムを復元する

カプセル化されていないルート (/) ファイルシステムを復元する (Veritas Volume Manager)

カプセル化されたルート (/) ファイルシステムを復元する (Veritas Volume Manager)

13.  グラフィカルユーザーインタフェースによる Oracle Solaris Cluster の管理

A.  例

索引

クラスタファイルの復元の作業マップ

ufsrestore(1M) コマンドを実行すると、ufsdump(1M) コマンドで作成されたバックアップのファイルが、現在の作業ディレクトリを基準として指定されるディスク上の位置にコピーされます。ufsrestore を使用すると、レベル 0 のダンプとそれ以降の増分ダンプからファイルシステム階層全体を読み込み直したり、任意のダンプテープから個々のファイルを復元できます。スーパーユーザーまたは同等の役割として ufsrestore を実行すると、元の所有者、最終修正時刻、モード (アクセス権) を保持したままファイルを復元できます。

ファイルまたはファイルシステムの復元を開始する前に、次の点を確認してください。

表 12-2 作業リスト : クラスタファイルの復元

作業
参照先
Solaris Volume Manager の場合、対話形式でファイルを復元
Solaris Volume Manager の場合、ルート (/) ファイルシステムを復元
 
Veritas Volume Manager の場合、ルート (/) ファイルシステムを復元
Veritas Volume Manager の場合、カプセル化されたルート ( /) ファイルシステムを復元

個々のファイルを対話形式で復元する (Solaris Volume Manager)

この手順を使用し、1 つまたは複数の個々のファイルを復元します。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。

  1. 復元するクラスタノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.admin を提供する役割になります。
  2. 復元するファイルを使用しているデータサービスをすべて停止します。
    # clresourcegroup offline resource-group
  3. ファイルを復元します。
    # ufsrestore

ルート(/)ファイルシステムを復元する (Solaris Volume Manager)

障害の発生したルートディスクを交換した後などに、この手順を使用してルート (/) ファイルシステムを新しいディスクに復元します。復元中のノードは起動しなおさないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 - 新しいディスクは、障害が発生したディスクと同じ形式でパーティション分割する必要があります。このため、この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. 復元するノードの添付先であるディスクセットへのアクセス権があるクラスタノード上で、スーパーユーザーになるか、solaris.cluster.modify RBAC 権限を提供する役割になります。

    復元する以外のノードを使用します。

  2. すべてのメタセットから、復元するノードのホスト名を削除します。

    このコマンドは、削除するノード以外のメタセットのノードから実行します。復元を行っているノードはオフラインであるため、システムは「RPC: Rpcbind failure - RPC: Timed out」というエラーを表示します。このエラーを無視し、次のステップを続けます。

    # metaset -s setname -f -d -h nodelist
    -s setname

    ディスクセット名を指定します。

    -f

    ディスクセットから最後のホストを削除します。

    -d

    ディスクセットから削除します。

    -h nodelist

    ディスクセットから削除するノードの名前を指定します。

  3. root (/) ファイルシステムと /usr ファイルシステムを復元します。

    root ファイルシステムと /usr ファイルシステムを復元するには、『Solaris のシステム管理 (デバイスとファイルシステム)』の第 26 章「UFS ファイルとファイルシステムの復元 (手順)」の手順に従ってください。Oracle Solaris OS の手順にあるシステムを再起動する手順は省略してください。


    注 - /global/.devices/ node@nodeid ファイルシステムが作成されていることを確認します。


  4. ノードをマルチユーザーモードで再起動します。
    # reboot
  5. デバイス ID を交換します。
    # cldevice repair rootdisk
  6. metadb(1M) コマンドを使用し、状態データベースの複製を再作成します。
    # metadb -c copies -af raw-disk-device
    -c copies

    作成する複製の数を指定します。

    -f raw-disk-device

    複製の作成先の raw ディスクデバイス名を指定します。

    -a

    複製を追加します。

  7. 復元するノード以外のクラスタノードから、復元するノードをすべてのディスクセットに追加します。
    phys-schost-2# metaset -s setname -a -h nodelist
    -a

    ホストを作成してディスクセットに追加します。

    ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。

例 12-6 ルート (/) ファイルシステムの復元 (Solaris Volume Manager)

次に、テープデバイス /dev/rmt/0 からノード phys-schost-1 に復元したルート (/) ファイルシステムの例を示します。metaset コマンドは、クラスタの別のノード phys-schost-2 から実行し、ノード phys-schost-1 を削除し、後でディスクセット schost-1 に追加します。そのコマンドはすべて phys-schost-1 から実行します。新しいブートブロックが /dev/rdsk/c0t0d0s0 に作成され、3 つの状態データベースの複製が /dev/rdsk/c0t0d0s4 に再作成されます。

[Become superuser or assume a  role that provides solaris.cluster.modify RBAC authorization on a cluster node
    other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
Restore the root (/) and /usr file system using the procedure in the Solaris system
    administration documentation
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/dsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

Solaris Volume Manager ボリューム上に存在していたルート (/) ファイルシステムを復元する

この手順を使用して、バックアップ実行時に Solaris Volume Manager ボリューム上に存在していたルート (/) ファイルシステムを復元します。 この手順は、破損したルートディスクを新しいディスクに交換する場合などに実行します。復元中のノードは起動しなおさないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 - 新しいディスクは、障害が発生したディスクと同じ形式でパーティション分割する必要があります。このため、この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. ディスクセットへのアクセス権があるクラスタノード、ただし復元するノード以外のノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modifiy を提供する役割になります。

    復元する以外のノードを使用します。

  2. 接続先のすべてのディスクセットから、復元するノードのホスト名を削除します。 ディスクセットごとに次のコマンドを 1 回実行します。
    # metaset -s setname -d -h hostname
    -s setname

    メタセット名を指定します。

    -f

    ディスクセットから最後のホストを削除します。

    -d

    メタセットから削除します。

    -h nodelist

    メタセットから削除するノードの名前を指定します。

    -h hostname

    ホストの名前を指定します。

    -m mediator_host_list

    ディスクセットから追加または削除するメディエータホストの名前を指定します。

  3. ノードが二重列メディエータホストである場合は、メディエータを削除します。 ノードの接続先ディスクセットごとに次のコマンドを 1 回実行します。
    # metaset -ssetname-d -m hostname
  4. ルート (/) ファイルシステムを復元するノードで、障害の発生したディスクを交換します。

    ディスク交換手順については、サーバーに付属のマニュアルを参照してください。

  5. 復元するノードを起動します。修復されたホストは CD-ROM からシングルユーザーモードで起動されるため、Solaris Volume Manager はそのノードで実行されていません。
    • Oracle Solaris OS CD を使用している場合は、次の点に注意してください。

      • SPARC:次のように入力します。

        ok boot cdrom -s
      • x86:CD をシステムの CD ドライブに挿入し、システムを停止して、電源を切って入れなおすことにより、システムを起動します。「Current Boot Parameters」画面で b または i を入力します。

                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
    • Solaris JumpStart サーバーを使用している場合は、次の点に注意してください。

      • SPARC:次のように入力します。

        ok boot net -s
      • x86:CD をシステムの CD ドライブに挿入し、システムを停止して、電源を切って入れなおすことにより、システムを起動します。「Current Boot Parameters」画面で b または i を入力します。

                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
  6. format コマンドを使用し、ルートディスクのすべてのパーティションとスワップ空間を作成します。

    障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。

  7. newfs コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。

    障害の発生したディスクに存在していた元のファイルシステムを再作成します。


    注 - /global/.devices/ node@nodeid ファイルシステムが作成されていることを確認します。


  8. ルート (/) ファイルシステムを一時マウントポイントにマウントします。
    # mount device temp-mountpoint
  9. 次のコマンドを使用し、ルート (/) ファイルシステムを復元します。
    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
  10. 新しい起動ブロックを新しいディスクにインストールします。
    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk 
    raw-disk-device
  11. /temp-mountpoint/etc/system ファイルの MDD ルート情報の行を削除します。
    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)
  12. /temp-mountpoint/etc/vfstab ファイルを編集して、ルートエントリを、Solaris Volume Manager ボリュームから、メタデバイスまたはボリュームの一部であるルートディスク上の各ファイルシステムの対応する正常なスライスに変更します。
    Example: 
    Change from—
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /      ufs   1     no       -
  13. 一時ファイルシステムをマウント解除し、raw ディスクデバイスを確認します。
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
  14. ノードをマルチユーザーモードで再起動します。
    # reboot
  15. デバイス ID を交換します。
    # cldevice repair rootdisk
  16. metadb コマンドを使用し、状態データベースの複製を再作成します。
    # metadb -c copies -af raw-disk-device
    -c copies

    作成する複製の数を指定します。

    -af raw-disk-device

    指定した raw ディスクデバイスに初期状態のデータベースの複製を作成します。

  17. 復元したノード以外のクラスタノードから、復元したノードをすべてのディスクセットに追加します。
    phys-schost-2# metaset -s setname -a -h nodelist
    -a

    メタセットを追加 (作成) します。

    マニュアルに従って、ボリューム/ミラーのルート (/) を設定します。

    ノードがクラスタモードで再起動します。

  18. ノードが二重列メディエータホストだった場合は、メディエータを再び追加します。
    phys-schost-2# metaset -s setname -a -m hostname 

例 12-7 Solaris Volume Manager ボリューム上に存在していたルート (/) ファイルシステムの復元

次に、テープデバイス /dev/rmt/0 からノード phys-schost-1 に復元したルート (/) ファイルシステムの例を示します。metaset コマンドは、クラスタの別のノード phys-schost-2 から実行し、ノード phys-schost-1 を削除し、後でメタセット schost-1 に追加します。そのコマンドはすべて phys-schost-1 から実行します。新しいブートブロックが /dev/rdsk/c0t0d0s0 に作成され、3 つの状態データベースの複製が /dev/rdsk/c0t0d0s4 に再作成されます。

[Become superuser or assume a role that provides solaris.cluster.modify RBAC
   authorization on a cluster node with access to the metaset, other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -d -h phys-schost-1
[Replace the failed disk and boot the node:]

Oracle Solaris OS CD からノードを起動するには、次の手順に従います。

[Use format and newfs to recreate partitions and file systems
.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Remove the lines in / temp-mountpoint/etc/system file for MDD root information:
]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab file]
Example: 
Change from—
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

カプセル化されていないルート (/) ファイルシステムを復元する (Veritas Volume Manager)

この手順を使用して、カプセル化されていないルート (/) ファイルシステムをノードに復元します。復元中のノードは起動しなおさないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 - 新しいディスクは、障害が発生したディスクと同じ形式でパーティション分割する必要があります。このため、この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. ルートファイルシステムを復元するノードで、障害が発生したディスクを交換します。

    ディスク交換手順については、サーバーに付属のマニュアルを参照してください。

  2. 復元するノードを起動します。
    • Oracle Solaris OS CD を使用している場合は、OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。

      ok boot cdrom -s
    • Solaris JumpStart サーバーを使用している場合は、OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。

      ok boot net -s
  3. format コマンドを使用し、ルートディスクのすべてのパーティションとスワップを作成します。

    障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。

  4. newfs コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。

    障害の発生したディスクに存在していた元のファイルシステムを再作成します。


    注 - /global/.devices/ node@nodeid ファイルシステムが作成されていることを確認します。


  5. ルート (/) ファイルシステムを一時マウントポイントにマウントします。
    # mount device temp-mountpoint
  6. バックアップからルート (/) ファイルシステムを復元し、ファイルシステムをマウント解除して確認します。
    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device

    これでファイルシステムが復元されます。

  7. 新しい起動ブロックを新しいディスクにインストールします。
    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
  8. ノードをマルチユーザーモードで再起動します。
    # reboot
  9. デバイス ID を更新します。
    # cldevice repair /dev/rdsk/disk-device
  10. Control-D キーを押して、マルチユーザーモードで再起動します。

    ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。

例 12-8 カプセル化されていないルート (/) ファイルシステムの復元 (Veritas Volume Manager)

次に、カプセル化されていないルート (/) ファイルシステムがテープデバイス /dev/rmt/0 からノード phys-schost-1 に復元される例を示します。

[Replace the failed disk and boot the node:]

Oracle Solaris OS CD からノードを起動します。 OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。

ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Reboot:]
# reboot
[Update the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0

カプセル化されたルート (/) ファイルシステムを復元する (Veritas Volume Manager)

この手順を使用して、カプセル化されたルート (/) ファイルシステムをノードに復元します。 復元中のノードは起動しなおさないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 - 新しいディスクは、障害が発生したディスクと同じ形式でパーティション分割する必要があります。このため、この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. ルートファイルシステムを復元するノードで、障害が発生したディスクを交換します。

    ディスク交換手順については、サーバーに付属のマニュアルを参照してください。

  2. 復元するノードを起動します。
    • Oracle Solaris OS CD を使用している場合は、OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。

      ok boot cdrom -s
    • Solaris JumpStart サーバーを使用している場合は、OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。

      ok boot net -s
  3. format コマンドを使用し、ルートディスクのすべてのパーティションとスワップ空間を作成します。

    障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。

  4. newfs コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。

    障害の発生したディスクに存在していた元のファイルシステムを再作成します。


    注 - /global/.devices/ node@nodeid ファイルシステムが作成されていることを確認します。


  5. ルート (/) ファイルシステムを一時マウントポイントにマウントします。
    # mount device temp-mountpoint
  6. バックアップからルート (/) ファイルシステムを復元します。
    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
  7. 空の install-db ファイルを作成します。

    このファイルによって、次回起動時にノードが VxVM インストールモードになります。

    # touch \
    /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
  8. / temp-mountpoint/etc/system ファイル内の次のエントリを削除します。
    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1
  9. /temp-mountpoint /etc/vfstab ファイルを編集し、すべての VxVM マウントポイントをルートディスクの標準ディスクデバイス (/dev/dsk/c0t0d0s0 など) に置換します。
    Example: 
    Change from—
    /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
  10. 一時ファイルシステムをマウント解除してファイルシステムを確認します。
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
  11. 起動ブロックを新しいディスクにインストールします。
    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
  12. ノードをマルチユーザーモードで再起動します。
    # reboot
  13. scdidadm(1M) を使用し、デバイス ID を更新します。
    # cldevice repair /dev/rdsk/c0t0d0
  14. ディスクをカプセル化して再起動するために、clvxvm コマンドを実行します。
  15. マイナー番号が他のシステムと衝突している場合は、グローバルデバイスをマウント解除し、ディスクグループに別のマイナー番号を割り当てます。
    • クラスタノードのグローバルデバイスファイルシステムをマウント解除します。

      # umount /global/.devices/node@nodeid
    • クラスタノードの rootdg ディスクグループに別のマイナー番号を割り当てます。

      # vxdg reminor rootdg 100
  16. ノードを停止し、クラスタモードで再起動します。
    # shutdown -g0 -i6 -y

例 12-9 カプセル化されたルート (/) ファイルシステムの復元 (Veritas Volume Manager)

次に、カプセル化されたルート (/) ファイルシステムがテープデバイス /dev/rmt/0 からノード phys-schost-1 に復元される例を示します。

[Replace the failed disk and boot the node:]

Oracle Solaris OS CD からノードを起動します。 OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。

ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and 
remove or comment out the following entries:]
    # rootdev:/pseudo/vxio@0:0
    # set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from—
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no-

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Update the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Encapsulate the disk::]
# vxinstall
Choose to encapsulate the root disk.
[If a conflict  in minor number occurs, reminor the rootdg disk group:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

参照

カプセル化されたルートディスクをミラー化する手順については、『Oracle Solaris Cluster ソフトウェアのインストール』を参照してください。