JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris Cluster システム管理     Oracle Solaris Cluster (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris Cluster の管理の概要

2.  Oracle Solaris Cluster と RBAC

3.  クラスタの停止と起動

4.  データ複製のアプローチ

5.  グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理

6.  定足数の管理

7.  クラスタインターコネクトとパブリックネットワークの管理

8.  ノードの追加と削除

9.  クラスタの管理

10.  CPU 使用率の制御の構成

11.  Oracle Solaris Cluster ソフトウェアとファームウェアのパッチ

12.  クラスタのバックアップと復元

クラスタのバックアップ

バックアップするファイルシステム名を確認する

完全なバックアップに必要なテープ数を決定する

ルート(/) ファイルシステムをバックアップする

ミラーのオンラインバックアップを実行する (Solaris Volume Manager)

ボリュームのオンラインバックアップを実行する (Veritas Volume Manager)

クラスタ構成をバックアップする

クラスタファイルの復元の作業マップ

個々のファイルを対話形式で復元する (Solaris Volume Manager)

ルート(/)ファイルシステムを復元する (Solaris Volume Manager)

Solaris Volume Manager ボリューム上に存在していたルート (/) ファイルシステムを復元する

カプセル化されていないルート (/) ファイルシステムを復元する (Veritas Volume Manager)

カプセル化されたルート (/) ファイルシステムを復元する (Veritas Volume Manager)

13.  グラフィカルユーザーインタフェースによる Oracle Solaris Cluster の管理

A.  例

索引

クラスタのバックアップ

表 12-1 作業リスト : クラスタファイルのバックアップ

作業
参照先
バックアップするファイルシステムの名前の検索
フルバックアップを作成するのに必要なテープ数の計算
ルートファイルシステムのバックアップの作成
ミラーまたはプレックスファイルシステムのオンラインバックアップの実行
クラスタ構成のバックアップ
ストレージディスクのディスクパーティション分割構成のバックアップ
ストレージディスクのマニュアルを参照

バックアップするファイルシステム名を確認する

この手順を使用し、バックアップするファイルシステムの名前を判定します。

  1. /etc/vfstab ファイルの内容を表示します。

    このコマンドを実行するためにスーパーユーザーまたは同等の役割である必要はありません。

    # more /etc/vfstab
  2. バックアップするファイルシステムの名前のマウントポイントの列を調べます。

    この名前は、ファイルシステムをバックアップするときに使用します。

    # more /etc/vfstab 

例 12-1 バックアップするファイルシステム名の確認

次に、/etc/vfstab ファイルに記述されている使用可能なファイルシステム名の例を示します。

# more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

完全なバックアップに必要なテープ数を決定する

この手順を使用し、ファイルシステムのバックアップに必要なテープ数を計算します。

  1. バックアップするクラスタノード上で、スーパーユーザーまたは同等の役割になります。
  2. バックアップのサイズをバイト単位で予測します。
    # ufsdump S filesystem 
    S

    バックアップの実行に必要な予測バイト数を表示します。

    filesystem

    バックアップするファイルシステムの名前を指定します。

  3. 予測サイズをテープの容量で割り、必要なテープの数を確認します。

例 12-2 必要なテープ数の判別

次の例では、ファイルシステムのサイズは 905,881,620 バイトなので、4G バイトのテープに収めることができます (905,881,620 ÷ 4,000,000,000)。

# ufsdump S /global/phys-schost-1
905881620

ルート(/) ファイルシステムをバックアップする

この手順を使用し、クラスタノードのルート ( /) ファイルシステムをバックアップします。バックアップ手順を実行する前に、クラスタが正常に動作していることを確認してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. バックアップするクラスタノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。
  2. 実行中の各データサービスを、バックアップを作成するノードからクラスタ内の別のノードに切り替えます。
    # clnode evacuate node
    node

    リソースグループとデバイスグループを切り替えるノードを指定します。

  3. ノードを停止します。
    # shutdown -g0 -y -i0
  4. ノードを非クラスタモードで再起動します。
    • SPARC ベースのシステム上で、次のコマンドを実行します。

      ok boot -xs
    • x86 ベースのシステム上で、次のコマンドを実行します。

      phys-schost# shutdown -g -y -i0
      
      Press any key to continue
    1. GRUB メニューで矢印キーを使用して該当する Oracle Solaris エントリを選択し、e と入力してコマンドを編集します。

      GRUB メニューは次のようになっています。

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      GRUB ベースの起動についての詳細は、『Solaris のシステム管理 (基本編) 』の「GRUB を使用して x86 システムをブートする (作業マップ)」を参照してください。

    2. ブートパラメータの画面で、矢印キーを使用してカーネルエントリを選択し、e を入力してエントリを編集します。

      GRUB ブートパラメータの画面は、次のような画面です。

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot                                     |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.
    3. コマンドに -x を追加して、システムが非クラスタモードで起動するように指定します。
      [ Minimal BASH-like line editing is supported. For the first word, TAB
      lists possible command completions. Anywhere else TAB lists the possible
      completions of a device/filename. ESC at any time exits. ]
      
      grub edit> kernel /platform/i86pc/multiboot -x
    4. Enter キーを押して変更を受け入れ、ブートパラメータの画面に戻ります。

      画面には編集されたコマンドが表示されます。

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot -x                                  |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.-
    5. b と入力して、ノードを非クラスタモードで起動します。

      注 - カーネル起動パラメータコマンドへのこの変更は、システムを起動すると無効になります。次にノードを再起動する際には、ノードはクラスタモードで起動します。クラスタモードではなく、非クラスタモードで起動するには、これらの手順を再度実行して、カーネル起動パラメータコマンドに -x オプションを追加します。


  5. UFS スナップショットを作成して、ルート (/) ファイルシステムのバックアップを作成します。
    1. ファイルシステムに、バッキングストアファイル用の十分なディスク容量が存在することを確認してください。
      # df -k
    2. 同じ場所に同じ名前のバッキングストアファイルが存在しないことを確認します。
      # ls /backing-store-file
    3. UFS スナップショットを作成します。
      # fssnap -F ufs -o bs=/backing-store-file /file-system
    4. スナップショットが作成されたことを確認します。
      # /usr/lib/fs/ufs/fssnap -i /file-system
  6. ファイルシステムのスナップショットのバックアップを作成します。
    # ufsdump 0ucf /dev/rmt/0 snapshot-name

    たとえば、次のように使用します。

    # ufsdump 0ucf /dev/rmt/0 /dev/rfssnap/1
  7. スナップショットのバックアップが作成されていることを確認します。
    # ufsrestore ta /dev/rmt/0
  8. ノードをクラスタモードで再起動します。
    # init 6

例 12-3 ルート (/) ファイルシステムのバックアップ

次の例では、ルート (/) ファイルシステムのスナップショットは /usr ディレクトリ内の /scratch/usr.back.file に保存されています。

# fssnap -F ufs -o bs=/scratch/usr.back.file /usr
  /dev/fssnap/1

ミラーのオンラインバックアップを実行する (Solaris Volume Manager)

Solaris Volume Manager のミラー化ボリュームは、マウント解除したりミラー全体をオフラインにしたりしなくても、バックアップできます。 サブミラーの 1 つを一時的にオフラインにする必要があるので、ミラー化の状態ではなくなりますが、バックアップ完了後ただちにオンラインに戻し、再度同期をとることができます。システムを停止したり、データへのユーザーアクセスを拒否する必要はありません。ミラーを使用してオンラインバックアップを実行すると、アクティブなファイルシステムの「スナップショット」であるバックアップが作成されます。

lockfs コマンドを実行する直前にプログラムがボリュームにデータを書き込むと、問題が生じることがあります。この問題を防ぐには、このノードで実行中のすべてのサービスを一時的に停止します。また、バックアップ手順を実行する前に、クラスタが正常に動作していることを確認してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. バックアップするクラスタノード上で、スーパーユーザーまたは同等の役割になります。
  2. metaset(1M) コマンドを使用し、バックアップするボリュームの所有権を持つノードを判別します。
    # metaset -s setname
    -s setname

    ディスクセット名を指定します。

  3. -w オプションを指定して lockfs(1M) コマンドを使用し、ファイルシステムへの書き込みをロックします。
    # lockfs -w mountpoint 

    注 - ファイルシステムをロックする必要があるのは、UFS ファイルシステムがミラー上にある場合だけです。たとえば、Solaris Volume Manager ボリュームがデータベース管理ソフトやその他の特定のアプリケーションに使用する raw デバイスとして設定されている場合、lockfs コマンドを使用する必要はありません。 ただし、ソフトウェアアプリケーション固有の適切なユーティリティーを実行し、任意のバッファをフラッシュしてアクセスをロックしてもかまいません。


  4. metastat(1M) コマンドを使用し、サブミラーの名前を判別します。
    # metastat -s setname -p
    -p

    md.tab ファイルと同様の形式で状態を表示します。

  5. metadetach(1M) コマンドを使用し、ミラーから 1 つのサブミラーをオフラインにします。
    # metadetach -s setname mirror submirror

    注 - 読み取り操作は引き続きそのほかのサブミラーから行われます。読み取り操作は引き続きそのほかのサブミラーから実行できますが、 オフラインのサブミラーは、ミラーに最初に書き込んだ直後から同期がとれなくなります。この不一致は、オフラインのサブミラーをオンラインに戻したときに修正されます。fsck を実行する必要はありません。


  6. -u オプションを指定して lockfs コマンドを使用し、ファイルシステムのロックを解除して書き込みを続行できるようにします。
    # lockfs -u mountpoint 
  7. ファイルシステムを検査します。
    # fsck /dev/md/diskset/rdsk/submirror
  8. オフラインのサブミラーをテープなどのメディアにバックアップします。

    ufsdump(1M) コマンドか、通常使用しているバックアップユーティリティーを使用します。

    # ufsdump 0ucf dump-device submirror

    注 - ブロックデバイス (/dsk) 名ではなく、サブミラーの raw デバイス (/rdsk) 名を使用してください。


  9. metattach(1M) コマンドを使用し、メタデバイスまたはボリュームをオンラインに戻します。
    # metattach -s setname mirror submirror

    メタデバイスまたはボリュームをオンラインに戻すと、自動的にミラーとの再同期が行われます。

  10. metastat コマンドを使用し、サブミラーが再同期されていることを確認します。
    # metastat -s setname mirror

例 12-4 ミラーのオンラインバックアップの実行 (Solaris Volume Manager)

次の例では、クラスタノード phys-schost-1 がメタセット schost-1 の所有者なので、バックアップ作成手順は phys-schost-1 から実行します。ミラー /dev/md/schost-1/dsk/d0 は、サブミラー d10d20d30 で構成されています。

[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Lock the file system from writes:] 
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resynchronize the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

ボリュームのオンラインバックアップを実行する (Veritas Volume Manager)

Veritas Volume Manager では、ミラー化ボリュームはプレックスと認識されます。プレックスは、マウント解除したり、ボリューム全体をオフラインにしなくてもバックアップできます。プレックスは、ボリュームのスナップショットコピーを作成し、この一時ボリュームをバックアップします。システムを停止したり、データへのユーザーアクセスを拒否する必要はありません。

バックアップ手順を実行する前に、クラスタが正常に動作していることを確認してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. クラスタ内の任意のノードにログオンし、クラスタ上のディスクグループの現在の主ノード上で、スーパーユーザーになるか、RBAC の承認 solaris.cluster.admin を提供する役割になります。
  2. ディスクグループ情報を表示します。
    # vxprint -g diskgroup
  3. どのノードに現在インポートされているディスクグループがあるかを判別します (これはそのノードがディスクグループの主ノードであることを示します)。
    # cldevicegroup status
  4. ボリュームのスナップショットを作成します。
    # vxassist -g diskgroup snapstart volume

    注 - ボリュームのサイズによっては、スナップショットの作成に時間がかかることがあります。


  5. 新しいボリュームが作成されたことを確認します。
    # vxprint -g diskgroup

    スナップショットの作成が完了すると、選択したディスクグループの State フィールドに Snapdone と表示されます。

  6. ファイルシステムにアクセスしているデータサービスを停止します。
    # clresourcegroup offline resource-group

    注 - データファイルシステムが正しくバックアップされるように、すべてのデータサービスを停止します。データサービスが実行中でない場合は、手順 6手順 8 を実行する必要はありません。


  7. bkup-vol という名前のバックアップボリュームを作成し、それにスナップショットボリュームを添付します。
    # vxassist -g diskgroup snapshot volume bkup-vol
  8. clresourcegroup コマンドを使用して、手順 6 で停止されたデータサービスを再起動します。
    # clresourcegroup online - zone -n node resourcegroup
    node

    ノードの名前。

    zone

    リソースグループをマスターできるグローバルクラスタ非投票ノード (node) の名前。リソースグループを作成した際に非投票ノードを指定した場合にのみ、zone を指定します。

  9. そのボリュームが新しいボリューム bkup-vol に添付されていることを確認します。
    # vxprint -g diskgroup
  10. デバイスグループ構成変更を登録します。
    # cldevicegroup sync diskgroup
  11. バックアップボリュームを確認します。
    # fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
  12. テープなどのメディアにボリューム bkup-vol をバックアップします。

    ufsdump(1M) コマンドか、通常使用しているバックアップユーティリティーを使用します。

    # ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
  13. 一時ボリュームを削除します。
    # vxedit -rf rm bkup-vol
  14. ディスクグループ構成変更を登録します。
    # cldevicegroup sync diskgroup

例 12-5 ボリュームのオンラインバックアップの実行 (Veritas Volume Manager)

次の例では、クラスタノード phys-schost-2 はデバイスグループ schost-1 の主所有者です。そのため、バックアップ手順は phys-schost-2 から実行します。ボリューム /vo101 がコピーされ、新しいボリューム bkup-vol と関連付けられます。

[Become superuser or assume a role that provides solaris.cluster.admin RBAC authorization on 
the primary node.]
[Identify the current primary node for the device group:]
# cldevicegroup status
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1

-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[List the device group information:]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stop data services, if necessary:]
# clresourcegroup offline nfs-rg
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# clresourcegroup online -n phys-schost-1 nfs-rg
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronize the disk group with cluster framework:]
# cldevicegroup sync schost-1
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# cldevicegroup sync schost-1

クラスタ構成をバックアップする

クラスタ構成をアーカイブし、クラスタ構成の簡単な復元を実現するため、定期的にクラスタ構成をバックアップします。Oracle Solaris Cluster には、クラスタ構成を XML (eXtensible Markup Language) ファイルにエクスポートする機能があります。

  1. クラスタ内の任意のノードにログオンし、スーパーユーザーになるか、RBAC の承認 solaris.cluster.read を提供する役割になります。
  2. クラスタ構成情報をファイルにエクスポートします。
    # /usr/cluster/bin/cluster export -o configfile
    configfile

    クラスタコマンドのクラスタ構成情報のエクスポート先である XML 構成ファイルの名前。XML 構成ファイルについては、clconfiguration(5CL) を参照してください。

  3. クラスタ構成情報が正常に XML ファイルにエクスポートされたことを確認します。
    # vi configfile