Sun Cluster のシステム管理 (Solaris OS 版)

第 11 章 クラスタのバックアップと復元

この章は次の節から構成されています。

クラスタのバックアップ

表 11–1 作業リスト : クラスタファイルのバックアップ

作業 

参照先 

バックアップするファイルシステムの名前の検索 

「バックアップするファイルシステム名を確認する」

フルバックアップを作成するのに必要なテープ数の計算 

「完全バックアップに必要なテープ数を判別する」

ルートファイルシステムのバックアップの作成 

「ルート(/) ファイルシステムをバックアップする」

ミラーまたはプレックスファイルシステムのオンラインバックアップの実行 

「ミラーのオンラインバックアップを実行する (Solaris ボリュームマネージャー)」

 

「SPARC: ボリュームのオンラインバックアップの実行 (VERITAS Volume Manager)」

クラスタ構成のバックアップ 

「クラスタ構成をバックアップする」

ストレージディスクのディスクパーティション分割構成のバックアップ 

ストレージディスクのマニュアルを参照 

Procedureバックアップするファイルシステム名を確認する

この手順を使用し、バックアップするファイルシステムの名前を判別します。

  1. /etc/vfstab ファイルの内容を表示します。

    このコマンドを実行するためにスーパーユーザーまたは同等の役割である必要はありません。


    % more /etc/vfstab
    
  2. バックアップするファイルシステムの名前のマウントポイントの列を調べます。

    この名前は、ファイルシステムをバックアップするときに使用します。


    % more /etc/vfstab 
    

例 11–1 バックアップするファイルシステム名の確認

次に、/etc/vfstab ファイルに記述されている使用可能なファイルシステム名の例を示します。


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

Procedure完全バックアップに必要なテープ数を判別する

この手順を使用し、ファイルシステムのバックアップに必要なテープ数を計算します。

  1. バックアップするクラスタノード上で、スーパーユーザーまたは同等の役割になります。

  2. バックアップのサイズをバイト単位で予測します。


    # ufsdump S filesystem 
    
    S

    バックアップの実行に必要な予測バイト数を表示します。

    filesystem

    バックアップするファイルシステムの名前を指定します。

  3. 予測サイズをテープの容量で割り、必要なテープの数を確認します。


例 11–2 必要なテープ数の判別

次の例では、ファイルシステムのサイズは 905,881,620 バイトなので、4G バイトのテープに収めることができます (905,881,620 ÷ 4,000,000,000)。


# ufsdump S /global/phys-schost-1
905881620

Procedureルート(/) ファイルシステムをバックアップする

この手順を使用し、クラスタノードのルート ( /) ファイルシステムをバックアップします。バックアップ手順を実行する前に、クラスタが正常に動作していることを確認してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. バックアップするクラスタノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. 実行中の各データサービスを、バックアップを作成するノードからクラスタ内の別のノードに切り替えます。


    # clnode evacuate node
    
    node

    リソースグループとデバイスグループを切り替えるノードを指定します。

  3. ノードを停止します。


    # shutdown -g0 -y -i0
    
  4. ノードを非クラスタモードで再起動します。

    • SPARC:次のように入力します。


      ok boot -x
      
    • x86 ベースのシステム上で、以下のコマンドを実行します。


      phys-schost# shutdown -g -y -i0
      
      Press any key to continue
    1. GRUB メニューで、矢印キーを使用して適切な Solaris エントリを選択し、e を入力してそのコマンドを編集します。

      GRUB メニューは次のようになっています。


      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      GRUB ベースの起動についての詳細は、『Solaris のシステム管理 (基本編)』の第 11 章「GRUB ベースのブート (手順)」を参照してください。

    2. ブートパラメータの画面で、矢印キーを使用してカーネルエントリを選択し、e を入力してエントリを編集します。

      GRUB ブートパラメータの画面は、次のような画面です。


      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot                                     |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.
    3. コマンドに -x を追加して、システムを非クラスタモードで起動することを指定します。


      [ Minimal BASH-like line editing is supported. For the first word, TAB
      lists possible command completions. Anywhere else TAB lists the possible
      completions of a device/filename. ESC at any time exits. ]
      
      grub edit> kernel /platform/i86pc/multiboot -x
    4. Enter キーを押して変更を受け入れ、ブートパラメータの画面に戻ります。

      画面には編集されたコマンドが表示されます。


      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot -x                                  |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.-
    5. b を入力してノードを非クラスタモードで起動します。


      注 –

      カーネル起動パラメータコマンドへのこの変更は、システムを起動すると無効になります。次にノードを再起動する際には、ノードはクラスタモードで起動します。クラスタモードではなく、非クラスタモードで起動するには、これらの手順を再度実行して、カーネル起動パラメータコマンドに -x オプションを追加します。


  5. ルート (/) ファイルシステムをバックアップします。

    • ルートディスクがカプセル化されていない場合は、次のコマンドを使用します。


      # ufsdump 0ucf dump-device /
      
    • ルートディスクがカプセル化されている場合は、次のコマンドを使用します。


      # ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol
      

    詳細については、ufsdump(1M) のマニュアルページを参照してください。

  6. ノードをクラスタモードで再起動します。


    # init 6
    

例 11–3 ルート (/) ファイルシステムのバックアップ

次に、ルート (/) ファイルシステムをテープデバイス /dev/rmt/0 にバックアップする例を示します。


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

Procedureミラーのオンラインバックアップを実行する (Solaris ボリュームマネージャー)

ミラー化した Solstice DiskSuite メタデバイスまたは Solaris Volume Manager のボリュームは、マウント解除したりミラー全体をオフラインにすることなくバックアップできます。サブミラーの 1 つを一時的にオフラインにする必要があるので、ミラー化の状態ではなくなりますが、バックアップ完了後ただちにオンラインに戻し、再度同期をとることができます。システムを停止したり、データへのユーザーアクセスを拒否する必要はありません。ミラーを使用してオンラインバックアップを実行すると、アクティブなファイルシステムの「スナップショット」であるバックアップが作成されます。

lockfs コマンドを実行する直前にプログラムがボリュームにデータを書き込むと、問題が生じることがあります。この問題を防ぐには、このノードで実行中のすべてのサービスを一時的に停止します。また、バックアップ手順を実行する前に、クラスタが正常に動作していることを確認してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. バックアップするクラスタノード上で、スーパーユーザーまたは同等の役割になります。

  2. metaset(1M) コマンドを使用し、バックアップするボリュームの所有権を持つノードを判別します。


    # metaset -s setname
    
    -s setname

    ディスクセット名を指定します。

  3. -w オプションを指定して lockfs(1M) コマンドを使用し、ファイルシステムへの書き込みをロックします。


    # lockfs -w mountpoint 
    

    注 –

    ファイルシステムをロックする必要があるのは、UFS ファイルシステムがミラー上にある場合だけです。たとえば、Solstice DiskSuite メタデバイスや Solaris ボリュームマネージャーボリューム がデータベース管理ソフトやその他の特定のアプリケーションに使用する raw デバイスとして設定されている場合、lockfs コマンドを使用する必要はありません。ただし、ソフトウェアアプリケーション固有の適切なユーティリティーを実行し、任意のバッファをフラッシュしてアクセスをロックしてもかまいません。


  4. metastat(1M) コマンドを使用し、サブミラーの名前を判別します。


    # metastat -s setname -p
    
    -p

    md.tab ファイルと同様の形式で状態を表示します。

  5. metadetach(1M) コマンドを使用し、ミラーから 1 つのサブミラーをオフラインにします。


    # metadetach -s setname mirror submirror
    

    注 –

    読み取り操作は引き続きそのほかのサブミラーから行われます。読み取り操作は引き続きそのほかのサブミラーから実行できますが、 オフラインのサブミラーは、ミラーに最初に書き込んだ直後から同期がとれなくなります。この不一致は、オフラインのサブミラーをオンラインに戻したときに修正されます。fsck を実行する必要はありません。


  6. -u オプションを指定して lockfs コマンドを使用し、ファイルシステムのロックを解除して書き込みを続行できるようにします。


    # lockfs -u mountpoint 
    
  7. ファイルシステムを確認します。


    # fsck /dev/md/diskset/rdsk/submirror
    
  8. オフラインのサブミラーをテープなどのメディアにバックアップします。

    ufsdump(1M) コマンドか、それ以外の通常使用しているバックアップユーティリティーを使用します。


    # ufsdump 0ucf dump-device submirror
    

    注 –

    ブロックデバイス (/dsk) 名ではなく、サブミラーの raw デバイス (/rdsk) 名を使用してください。


  9. metattach(1M) コマンドを使用し、メタデバイスまたはボリュームをオンラインに戻します。


    # metattach -s setname mirror submirror
    

    メタデバイスまたはボリュームをオンラインに戻すと、自動的にミラーとの再同期が行われます。

  10. metastat コマンドを使用し、サブミラーが再同期されていることを確認します。


    # metastat -s setname mirror
    

例 11–4 ミラーのオンラインバックアップの実行 (Solaris ボリュームマネージャー)

次の例では、クラスタノード phys-schost-1 がメタセット schost-1 の所有者なので、バックアップ作成手順は phys-schost-1 から実行します。ミラー /dev/md/schost-1/dsk/d0 は、サブミラー d10d20d30 で構成されています。


[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Lock the file system from writes:] 
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resynchronize the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

ProcedureSPARC: ボリュームのオンラインバックアップの実行 (VERITAS Volume Manager)

VERITAS Volume Manager では、ミラー化ボリュームはプレックスと認識されます。プレックスは、マウント解除したり、ボリューム全体をオフラインにしなくてもバックアップできます。プレックスは、ボリュームのスナップショットコピーを作成し、この一時ボリュームをバックアップします。システムを停止したり、データへのユーザーアクセスを拒否する必要はありません。

バックアップ手順を実行する前に、クラスタが正常に動作していることを確認してください。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. クラスタ内の任意のノードにログオンし、クラスタ上のディスクグループの現在の主ノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.admin を提供する役割になります。

  2. ディスクグループ情報を表示します。


    # vxprint -g diskgroup
    
  3. どのノードに現在インポートされているディスクグループがあるかを判別します (これはそのノードがディスクグループの主ノードであることを示します)。


    # cldevicegroup status
    
  4. ボリュームのスナップショットを作成します。


    # vxassist -g diskgroup snapstart volume
    

    注 –

    ボリュームのサイズによっては、スナップショットの作成に時間がかかることがあります。


  5. 新しいボリュームが作成されたことを確認します。


    # vxprint -g diskgroup
    

    スナップショットの作成が完了すると、選択したディスクグループの State フィールドに Snapdone と表示されます。

  6. ファイルシステムにアクセスしているデータサービスを停止します。


    # clresourcegroup offline resource-group
    

    注 –

    データファイルシステムが正しくバックアップされるように、すべてのデータサービスを停止します。データサービスが実行中でない場合は、手順 6手順 8 を実行する必要はありません。


  7. bkup-vol という名前のバックアップボリュームを作成し、それにスナップショットボリュームを添付します。


    # vxassist -g diskgroup snapshot volume bkup-vol
    
  8. clresourcegroup コマンドを使用して、手順 6 で停止されたデータサービスを再起動します。


    # clresourcegroup online - zone -n node resourcegroup
    
    node

    ノードの名前。

    zone

    リソースグループをマスターできる、node 上の非大域ゾーンの名前。リソースグループを作成した際に非大域ゾーンを指定した場合にのみ、zone を指定します。

  9. そのボリュームが新しいボリューム bkup-vol に添付されていることを確認します。


    # vxprint -g diskgroup
    
  10. デバイスグループ構成変更を登録します。


    # cldevicegroup sync diskgroup
    
  11. バックアップボリュームを確認します。


    # fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
    
  12. テープなどのメディアにボリューム bkup-vol をバックアップします。

    ufsdump(1M) コマンドか、それ以外の通常使用しているバックアップユーティリティーを使用します。


    # ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
    
  13. 一時ボリュームを削除します。


    # vxedit -rf rm bkup-vol
    
  14. ディスクグループ構成変更を登録します。


    # cldevicegroup sync diskgroup
    

例 11–5 SPARC: ボリュームのオンラインバックアップの実行 (VERITAS Volume Manager)

次の例では、クラスタノード phys-schost-2 はデバイスグループ schost-1 の主所有者です。そのため、バックアップ手順は phys-schost-2 から実行します。ボリューム /vo101 がコピーされ、新しいボリューム bkup-vol と関連付けられます。


[Become superuser or assume a role that provides solaris.cluster.admin RBAC authorization on 
the primary node.]
[Identify the current primary node for the device group:]
# cldevicegroup status
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1

-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[List the device group information:]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stop data services, if necessary:]
# clresourcegroup offline nfs-rg
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# clresourcegroup online -n phys-schost-1 nfs-rg
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronize the disk group with cluster framework:]
# cldevicegroup sync schost-1
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# cldevicegroup sync schost-1

Procedureクラスタ構成をバックアップする

クラスタ構成をアーカイブし、クラスタ構成の簡単な復元を実現するため、定期的にクラスタ構成をバックアップします。Sun Cluster 3.2 には、クラスタ構成を XML (eXtensible Markup Language) ファイルにエクスポートする機能があります。

  1. クラスタ内の任意のノードにログオンし、スーパーユーザーになるか、RBAC の承認 solaris.cluster.read を提供する役割になります。

  2. クラスタ構成情報をファイルにエクスポートします。


    # /usr/cluster/bin/cluster/export -o configfile
    
    configfile

    クラスタコマンドのクラスタ構成情報のエクスポート先である XML 構成ファイルの名前。XML 構成ファイルの詳細については、clconfiguration(5CL) を参照してください。

  3. クラスタ構成情報が正常に XML ファイルにエクスポートされたことを確認します。


    # vi configfile
    

クラスタファイルの復元の作業マップ

ufsrestore(1M) コマンドを使うと、ufsdump(1M) コマンドで作成されたバックアップから現在の作業ディレクトリに対する相対パスで指定されるディスク上の位置にファイルがコピーされます。ufsrestore を使用すると、レベル 0 のダンプとそれ以降の増分ダンプからファイルシステム階層全体を読み込み直したり、任意のダンプテープから個々のファイルを復元できます。スーパーユーザーまたは同等の役割として ufsrestore を実行すると、元の所有者、最終修正時刻、モード (アクセス権) を保持したままファイルを復元できます。

ファイルまたはファイルシステムの復元を開始する前に、次の点を確認してください。

表 11–2 作業リスト : クラスタファイルの復元

作業 

参照先 

Solaris ボリュームマネージャー の場合、対話形式でファイルを復元 

「個々のファイルを対話形式で復元する (Solaris ボリュームマネージャー)」

Solaris ボリュームマネージャー の場合、ルート (/) ファイルシステムを復元

「ルート(/)ファイルシステムを復元する (/)」

  

「Solstice DiskSuite メタデバイスまたは Solaris ボリュームマネージャー上に存在していたルート (/) ファイルシステムを復元する」

VERITAS Volume Manager の場合、カプセル化されていないルート ( /) ファイルシステムを復元

「SPARC: カプセル化されていないルート(/)ファイルシステムを復元する (VERITAS Volume Manager)」

VERITAS Volume Manager の場合、カプセル化されたルート ( /) ファイルシステムを復元

「SPARC: カプセル化されたルート (/) ファイルシステムを復元する (VERITAS Volume Manager)」

Procedure個々のファイルを対話形式で復元する (Solaris ボリュームマネージャー)

この手順を使用し、1 つまたは複数の個々のファイルを復元します。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。

  1. 復元するクラスタノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.admin を提供する役割になります。

  2. 復元するファイルを使用しているデータサービスをすべて停止します。


    # clresourcegroup offline resource-group
    
  3. ファイルを復元します。


    # ufsrestore
    

Procedureルート(/)ファイルシステムを復元する (/)

障害の発生したルートディスクを交換した後などに、この手順を使用してルート (/) ファイルシステムを新しいディスクに復元します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 –

新しいディスクは、障害が発生したディスクと同じ形式でパーティション分割する必要があります。このため、この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. 復元するノードの添付先であるディスクセットへのアクセス権があるクラスタノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

    復元する以外のノードを使用します。

  2. すべてのメタセットから、復元するノードのホスト名を削除します。

    このコマンドは、削除するノード以外のメタセットのノードから実行します。復元を行っているノードはオフラインであるため、システムは「RPC: Rpcbind failure - RPC: Timed out」というエラーを表示します。このエラーを無視し、次のステップを続けます。


    # metaset -s setname -f -d -h nodelist
    
    -s setname

    ディスクセット名を指定します。

    -f

    ディスクセットから最後のホストを削除します。

    -d

    ディスクセットから削除します。

    -h nodelist

    ディスクセットから削除するノードの名前を指定します。

  3. root (/) ファイルシステムと /usr ファイルシステムを復元します。

    root ファイルシステムと /usr ファイルシステムを復元するには、『Solaris のシステム管理 (デバイスとファイルシステム)』の第 27 章「ファイルとファイルシステムの復元 (手順)」の手順に従ってください。Solaris OS の手順にあるシステムを再起動する手順は省略してください。


    注 –

    /global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。


  4. ノードをマルチユーザーモードで再起動します。


    # reboot
    
  5. ディスク ID を交換します。


    # cldevice repair rootdisk
    
  6. metadb(1M) コマンドを使用し、状態データベースの複製を再作成します。


    # metadb -c copies -af raw-disk-device
    
    -c copies

    作成する複製の数を指定します。

    -f raw-disk-device

    複製の作成先の raw ディスクデバイス名を指定します。

    -a

    複製を追加します。

  7. 復元するノード以外のクラスタノードから、復元するノードをすべてのディスクセットに追加します。


    phys-schost-2# metaset -s setname -a -h nodelist
    
    -a

    ホストを作成してディスクセットに追加します。

    ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。


例 11–6 ルート (/) ファイルシステムの復元 (Solaris ボリュームマネージャー)

次に、テープデバイス /dev/rmt/0 からノード phys-schost-1 に復元したルート (/) ファイルシステムの例を示します。metaset コマンドは、クラスタの別のノード phys-schost-2 から実行し、ノード phys-schost-1 を削除し、後でディスクセット schost-1 に追加します。そのコマンドはすべて phys-schost-1 から実行します。新しいブートブロックが /dev/rdsk/c0t0d0s0 に作成され、3 つの状態データベースの複製が /dev/rdsk/c0t0d0s4 に再作成されます。


[Become superuser or assume a  role that provides solaris.cluster.modify RBAC authorization on a cluster 
node other than the node to be restored
.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
Restore the root (/) and /usr file system 
using the procedure in the Solaris system administration documentation
 [Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/dsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

ProcedureSolstice DiskSuite メタデバイスまたは Solaris ボリュームマネージャー上に存在していたルート (/) ファイルシステムを復元する

この手順を使用して、バックアップ実行時に Solstice DiskSuite メタデバイスまたは Solaris Volume Manager 上に存在していたルート (/) ファイルシステムを復元します。この手順は、破損したルートディスクを新しいディスクに交換する場合などに実行します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 –

新しいディスクは、障害が発生したディスクと同じ形式でパーティション分割する必要があります。このため、この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. ディスクセットへのアクセス権があるクラスタノード、ただし復元するノード以外のノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

    復元する以外のノードを使用します。

  2. すべてのディスクセットから、復元するノードのホスト名を削除します。


    # metaset -s setname -f -d -h nodelist
    
    -s setname

    メタセット名を指定します。

    -f

    ディスクセットから最後のホストを削除します。

    -d

    メタセットから削除します。

    -h nodelist

    メタセットから削除するノードの名前を指定します。

  3. ルート (/) ファイルシステムを復元するノードで、障害の発生したディスクを交換します。

    ディスク交換手順については、サーバーに付属のマニュアルを参照してください。

  4. 復元するノードを起動します。

    • Solaris OS CD を使用している場合は、次の点に注意してください。

      • SPARC:次のように入力します。


        ok boot cdrom -s
        
      • x86: CD をシステムの CD ドライブに挿入し、システムを停止して、電源を切って入れなおすことにより、システムを起動します。「Current Boot Parameters」画面で b または i を入力します。


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        
    • Solaris JumpStartTM サーバーを使用している場合は、次の点に注意してください。

      • SPARC:次のように入力します。


        ok boot net -s
        
      • x86: CD をシステムの CD ドライブに挿入し、システムを停止して、電源を切って入れなおすことにより、システムを起動します。「Current Boot Parameters」画面で b または i を入力します。


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        
  5. format コマンドを使用し、ルートディスクのすべてのパーティションとスワップ空間を作成します。

    障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。

  6. newfs コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。

    障害の発生したディスクに存在していた元のファイルシステムを再作成します。


    注 –

    /global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。


  7. ルート (/) ファイルシステムを一時マウントポイントにマウントします。


    # mount device temp-mountpoint
    
  8. 次のコマンドを使用し、ルート (/) ファイルシステムを復元します。


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    
  9. 新しい起動ブロックを新しいディスクにインストールします。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk 
    raw-disk-device
    
  10. /temp-mountpoint/etc/system ファイルの MDD ルート情報の行を削除します。


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)
  11. /temp-mountpoint/etc/vfstab ファイルを編集して、ルートエントリを Solstice DiskSuite メタデバイスまたは Solaris Volume Manager ボリュームからメタデバイスまたはボリュームの一部であるルートディスク上の各ファイルシステムの対応する正常なスライスに変更します。


    Example: 
    Change from—
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /      ufs   1     no       -
  12. 一時ファイルシステムをマウント解除し、raw ディスクデバイスを確認します。


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    
  13. ノードをマルチユーザーモードで再起動します。


    # reboot
    
  14. ディスク ID を交換します。


    # cldevice repair rootdisk
    
  15. metadb コマンドを使用し、状態データベースの複製を再作成します。


    # metadb -c copies -af raw-disk-device
    
    -c copies

    作成する複製の数を指定します。

    -af raw-disk-device

    指定した raw ディスクデバイスに初期状態のデータベースの複製を作成します。

  16. 復元したノード以外のクラスタノードから、復元したノードをすべてのディスクセットに追加します。


    phys-schost-2# metaset -s setname -a -h nodelist
    
    -a

    メタセットを追加 (作成) します。

    Solstice DiskSuite のマニュアルに従って、メタデバイスまたはボリューム/ミラーのルート ( /) を設定します。

    ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。


例 11–7 Solstice DiskSuite メタデバイスまたは Solaris ボリュームマネージャー上に存在していたルート (/) ファイルシステムの復元

次に、テープデバイス /dev/rmt/0 からノード phys-schost-1 に復元したルート (/) ファイルシステムの例を示します。metaset コマンドは、クラスタの別のノード phys-schost-2 から実行し、ノード phys-schost-1 を削除し、後でメタセット schost-1 に追加します。そのコマンドはすべて phys-schost-1 から実行します。新しいブートブロックが /dev/rdsk/c0t0d0s0 に作成され、3 つの状態データベースの複製が /dev/rdsk/c0t0d0s4 に再作成されます。


[Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on a cluster node with 
access to the metaset, other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]

次の操作で、Solaris OS CD からノードを起動します。


[Use format and newfs to re-create partitions and file systems
.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Remove the lines in / temp-mountpoint/etc/system file for MDD root information:
]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab file]
Example: 
Change from—
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

ProcedureSPARC: カプセル化されていないルート(/)ファイルシステムを復元する (VERITAS Volume Manager)

この手順を使用し、カプセル化されていないルート (/) ファイルシステムをノードに復元します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 –

新しいディスクは、障害が発生したディスクと同じ形式でパーティション分割する必要があります。このため、この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. ルートファイルシステムを復元するノードで、障害が発生したディスクを交換します。

    ディスク交換手順については、サーバーに付属のマニュアルを参照してください。

  2. 復元するノードを起動します。

    • Solaris OS CD を使用している場合は、OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。


      ok boot cdrom -s
      
    • Solaris JumpStart サーバーを使用している場合は、OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。


      ok boot net -s
      
  3. format コマンドを使用し、ルートディスクのすべてのパーティションとスワップを作成します。

    障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。

  4. newfs コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。

    障害の発生したディスクに存在していた元のファイルシステムを再作成します。


    注 –

    /global/.devices/node@nodeid ファイルシステムが作成されていることを確認します。


  5. ルート (/) ファイルシステムを一時マウントポイントにマウントします。


    # mount device temp-mountpoint
    
  6. バックアップからルート (/) ファイルシステムを復元し、ファイルシステムをマウント解除して確認します。


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    これでファイルシステムが復元されます。

  7. 新しい起動ブロックを新しいディスクにインストールします。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  8. ノードをマルチユーザーモードで再起動します。


    # reboot
    
  9. ディスク ID を更新します。


    # cldevice repair /dev/rdsk/disk-device
    
  10. Control-D キーを押して、マルチユーザーモードで再起動します。

    ノードがクラスタモードで再起動します。これでクラスタを使用できるようになります。


例 11–8 SPARC: カプセル化されていないルート (/) ファイルシステムの復元 (VERITAS Volume Manager)

次に、カプセル化されていないルート (/) ファイルシステムがテープデバイス /dev/rmt/0 からノード phys-schost-1 に復元される例を示します。


[Replace the failed disk and boot the node:]

Solaris OS CD からノードを起動します。OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。


ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Reboot:]
# reboot
[Update the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0

ProcedureSPARC: カプセル化されたルート (/) ファイルシステムを復元する (VERITAS Volume Manager)

この手順を使用し、カプセル化されたルート (/) ファイルシステムをノードに復元します。復元するノードは起動しないでください。復元手順を実行する前に、クラスタが正常に動作していることを確認してください。


注 –

新しいディスクは、障害が発生したディスクと同じ形式でパーティション分割する必要があります。このため、この手順を始める前に、パーティションの分割方式を確認し、ファイルシステムを適切に再作成しておいてください。


この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短形式もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短形式については、付録 A 「Sun Cluster オブジェクト指向コマンド」を参照してください。

  1. ルートファイルシステムを復元するノードで、障害が発生したディスクを交換します。

    ディスク交換手順については、サーバーに付属のマニュアルを参照してください。

  2. 復元するノードを起動します。

    • Solaris OS CD を使用している場合は、OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。


      ok boot cdrom -s
      
    • Solaris JumpStart サーバーを使用している場合は、OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。


      ok boot net -s
      
  3. format コマンドを使用し、ルートディスクのすべてのパーティションとスワップ空間を作成します。

    障害の発生したディスクに存在していた元のパーティションの分割方式を再作成します。

  4. newfs コマンドを使用し、必要に応じてルート (/) ファイルシステムやその他のファイルシステムを作成します。

    障害の発生したディスクに存在していた元のファイルシステムを再作成します。


    注 –

    /global/.devices/ node@nodeid ファイルシステムが作成されていることを確認します。


  5. ルート (/) ファイルシステムを一時マウントポイントにマウントします。


    # mount device temp-mountpoint
    
  6. バックアップからルート (/) ファイルシステムを復元します。


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    
  7. 空の install-db ファイルを作成します。

    このファイルによって、次回起動時にノードが VxVM インストールモードになります。


    # touch \
    /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
    
  8. / temp-mountpoint/etc/system ファイル内の次のエントリを削除します。


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1
  9. /temp-mountpoint /etc/vfstab ファイルを編集し、すべての VxVM マウントポイントをルートディスクの標準ディスクデバイス (/dev/dsk/c0t0d0s0 など) に置換します。


    例: 
    変更前の—
    /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol /      ufs   1     no -
    
    変更後の—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
  10. 一時ファイルシステムをマウント解除してファイルシステムを確認します。


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    
  11. 起動ブロックを新しいディスクにインストールします。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  12. ノードをマルチユーザーモードで再起動します。


    # reboot
    
  13. scdidadm(1M) を使用し、ディスク ID を更新します。


    # cldevice repair /dev/rdsk/c0t0d0
    
  14. ディスクをカプセル化して再起動するために、vxinstall コマンドを実行します。

  15. マイナー番号が他のシステムと衝突している場合は、グローバルデバイスをマウント解除し、ディスクグループに別のマイナー番号を割り当てます。

    • クラスタノードのグローバルデバイスファイルシステムをマウント解除します。


      # umount /global/.devices/node@nodeid
      
    • クラスタノードの rootdg ディスクグループに別のマイナー番号を割り当てます。


      # vxdg reminor rootdg 100
      
  16. ノードを停止し、クラスタモードで再起動します。


    # shutdown -g0 -i6 -y
    

例 11–9 SPARC: カプセル化されたルート (/) ファイルシステムの復元 (VERITAS Volume Manager)

次に、カプセル化されたルート (/) ファイルシステムがテープデバイス /dev/rmt/0 からノード phys-schost-1 に復元される例を示します。


[Replace the failed disk and boot the node:]

Solaris OS CD からノードを起動します。OpenBoot PROM の ok プロンプトで、次のコマンドを入力します。


ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and 
remove or comment out the following entries:]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from—
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no-

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Reboot:]
# reboot
[Update the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Encapsulate the disk::]
# vxinstall
Choose to encapsulate the root disk.
[If a conflict  in minor number occurs, reminor the rootdg disk group
:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

参照

カプセル化されたルートディスクのミラーリングに関する指示については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。