JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Introduction à l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers du cluster

6.  Gestion de Quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeligud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation du CPU

11.  Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

Restauration d'un cluster

Recherche des noms de systèmes de fichiers à sauvegarder

Calcul du nombre de bandes requises pour une sauvegarde complète

Sauvegarde du système de fichiers racine (/)

Sauvegarde en ligne pour les systèmes mis en miroir (Solaris Volume Manager)

Sauvegarde en ligne pour les volumes (Veritas Volume Manager)

Sauvegarde de la configuration du cluster

Restauration de fichiers en cluster

Restauration interactive de fichiers individuels (Solaris Volume Manager)

Restauration du système de fichiers racine (/) (Solaris Volume Manager)

Restauration d'un système de fichiers racine (/) situé sur un volume Solaris Volume Manager

Restauration d'un système de fichiers racine (/) non encapsulé (Veritas Volume Manager)

Restauration d'un système de fichiers racine (/) encapsulé (Veritas Volume Manager)

13.  Administration de Oracle Solaris Cluster avec les interfaces graphiques

A.  exemple

Index

Restauration d'un cluster

Tableau 12-1 Liste des tâches : sauvegarde de fichiers en cluster

Tâche
Instructions
Recherchez les noms des systèmes de fichiers à sauvegarder.
Calculez le nombre de bandes requises pour une sauvegarde complète.
Sauvegardez le système de fichiers racine.
Effectuez une sauvegarde en ligne pour les systèmes de fichiers mis en miroir ou en plex.
Sauvegardez la configuration du cluster.
Sauvegardez la configuration du partitionnement de disque pour le disque de stockage.
Reportez-vous à la documentation de votre disque de stockage.

Recherche des noms de systèmes de fichiers à sauvegarder

Suivez cette procédure pour déterminer les noms des systèmes de fichiers dont vous souhaitez effectuer la sauvegarde.

  1. Affichez le contenu du fichier /etc/vfstab.

    Vous ne devez pas obligatoirement être un superutilisateur ou adopter un rôle équivalent pour exécuter cette commande.

    # more /etc/vfstab
  2. Recherchez dans la colonne des points de montage le nom du système de fichiers dont vous effectuez la sauvegarde.

    Utilisez ce nom lorsque vous sauvegardez le système de fichiers.

    # more /etc/vfstab 

Exemple 12-1 Recherche des noms de systèmes de fichiers à sauvegarder

L'exemple suivant affiche les noms des systèmes de fichiers disponibles répertoriés dans le fichier /etc/vfstab.

# more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

Calcul du nombre de bandes requises pour une sauvegarde complète

Suivez cette procédure pour calculer le nombre de bandes requises pour sauvegarder un système de fichiers.

  1. Connectez-vous en tant que superutilisateur ou en adoptant un rôle équivalent au nœud du cluster dont vous effectuez la sauvegarde.
  2. Estimez la taille de la sauvegarde en octets.
    # ufsdump S filesystem 
    S

    Affiche le nombre estimé d'octets requis pour effectuer la sauvegarde.

    filesystem

    Spécifie le nom du système de fichiers dont vous souhaitez effectuer la sauvegarde.

  3. Divisez la taille estimée par la capacité de la bande pour obtenir le nombre de bandes nécessaires.

Exemple 12-2 Calcul du nombre de bandes requises

Dans l'exemple suivant, un système de fichiers d'une taille de 905 881 620 octets peut facilement tenir sur une bande de 4 Go (905 881 620 ÷ 4 000 000 000).

# ufsdump S /global/phys-schost-1
905881620

Sauvegarde du système de fichiers racine (/)

Suivez cette procédure pour sauvegarder le système de fichiers racine (/) d'un nœud du cluster. Avant d'entamer la procédure de sauvegarde, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès basé sur les rôles de type solaris.cluster.modify sur le nœud du cluster dont vous effectuez la sauvegarde.
  2. Commutez chaque service de données en cours d'exécution du nœud à sauvegarder vers un autre nœud du cluster.
    # clnode evacuate node
    node

    Spécifie le nœud dont vous commutez les groupes de ressources et de périphériques.

  3. Fermez le nœud.
    # shutdown -g0 -y -i0
  4. Réinitialisez le nœud en mode non cluster.
    • Dans les systèmes SPARC, exécutez la commande suivante.

      ok boot -xs
    • Sur les systèmes x86, exécutez les commandes suivantes :

      phys-schost# shutdown -g -y -i0
      
      Press any key to continue
    1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Oracle Solaris appropriée et saisissez e pour modifier les commandes.

      Le menu GRUB s'affiche comme suit :

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      Pour plus d'informations concernant l'initialisation basée sur GRUB, reportez-vous à la section Booting an x86 Based System by Using GRUB (Task Map) du System Administration Guide: Basic Administration.

    2. Dans l'écran des paramètres d'initialisation, utilisez les touches de direction pour sélectionner l'entrée du noyau et saisissez l'option e pour éditer cette dernière.

      L'écran des paramètres d'initialisation de GRUB s'affiche comme suit :

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot                                     |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.
    3. Ajoutez -x à la commande pour que le système se réinitialise en mode non cluster.
      [ Minimal BASH-like line editing is supported. For the first word, TAB
      lists possible command completions. Anywhere else TAB lists the possible
      completions of a device/filename. ESC at any time exits. ]
      
      grub edit> kernel /platform/i86pc/multiboot -x
    4. Appuyez sur la touche Entrée pour accepter la modification et revenir à l'écran des paramètres d'initialisation.

      L'écran affiche la commande éditée.

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot -x                                  |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.-
    5. Saisissez l'option b pour initialiser le nœud en mode non cluster.

      Remarque - Cette modification de la commande des paramètres d'initialisation du noyau n'est pas conservée, lors du prochain démarrage du système. La prochaine fois que vous réinitialisez le nœud, ce dernier sera initialisé en mode cluster. Si vous souhaitez plutôt initialiser le nœud en mode non cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande des paramètres d'initialisation du noyau.


  5. Sauvegardez le système de fichiers racine (/) en créant un instantané UFS.
    1. Vérifiez que le système de fichiers dispose de suffisamment d'espace disque pour le fichier de sauvegarde de secours.
      # df -k
    2. Vérifiez qu'il n'existe aucun autre fichier de sauvegarde de secours ayant le même nom et se trouvant au même emplacement.
      # ls /backing-store-file
    3. Créez l'instantané UFS.
      # fssnap -F ufs -o bs=/backing-store-file /file-system
    4. Vérifiez que l'instantané a été créé.
      # /usr/lib/fs/ufs/fssnap -i /file-system
  6. Sauvegardez l'instantané du système de fichiers.
    # ufsdump 0ucf /dev/rmt/0 snapshot-name

    Par exemple :

    # ufsdump 0ucf /dev/rmt/0 /dev/rfssnap/1
  7. Vérifiez que l'instantané est sauvegardé.
    # ufsrestore ta /dev/rmt/0
  8. Réinitialisez le nœud en mode cluster.
    # init 6

Exemple 12-3 Sauvegarde du système de fichiers racine (/)

L'exemple suivant illustre la sauvegarde d'un instantané du système de fichiers racine (/) dans le fichier /scratch/usr.back.file du répertoire /usr. `

# fssnap -F ufs -o bs=/scratch/usr.back.file /usr
  /dev/fssnap/1

Sauvegarde en ligne pour les systèmes mis en miroir (Solaris Volume Manager)

Un volume Solaris Volume Manager mis en miroir peut être sauvegardé sans être démonté ou sans placer hors ligne l'ensemble du miroir. Un des sous-miroirs doit être placé hors ligne temporairement entraînant ainsi la perte de la mise en miroir. Il peut toutefois être remis en ligne et resynchronisé dès que la sauvegarde est terminée, sans devoir arrêter le système ou refuser aux utilisateurs l'accès aux données. L'utilisation de miroirs pour effectuer des sauvegardes en ligne crée une sauvegarde correspondant à un « instantané » du système de fichiers actif.

Un problème peut se produire lorsqu'un programme inscrit des données sur le volume juste avant l'exécution de la commande lockfs. Pour éviter ce problème, arrêtez temporairement tous les services en cours d'exécution sur ce nœud. Avant d'entamer la procédure de sauvegarde, assurez-vous également que le cluster est en cours d'exécution et ne signale aucune erreur.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou en adoptant un rôle équivalent au nœud du cluster dont vous effectuez la sauvegarde.
  2. Utilisez la commande metaset(1M) pour déterminer le nœud auquel le volume sauvegardé appartient.
    # metaset -s setname
    -s setname

    Spécifie le nom de l'ensemble de disques.

  3. Utilisez la commande lockfs(1M) avec l'option -w pour verrouiller le système de fichiers en écriture.
    # lockfs -w mountpoint 

    Remarque - Verrouillez le système de fichiers uniquement lorsqu'un système de fichiers UFS se trouve sur le miroir. Si le volume Solaris Volume Manager est défini par exemple en tant que périphérique brut pour les logiciels de gestion de base de données ou pour une autre application en particulier, vous ne devrez pas faire appel à la commande lockfs. Vous pouvez toutefois exécuter l'utilitaire adéquat propre au fournisseur pour vider les tampons et verrouiller l'accès.


  4. Utilisez la commande metastat(1M) pour déterminer les noms des sous-miroirs.
    # metastat -s setname -p
    -p

    Affiche l'état dans un format similaire au fichier md.tab.

  5. Utilisez la commande metadetach(1M) pour placer un sous-miroir du miroir hors ligne.
    # metadetach -s setname mirror submirror

    Remarque - Les autres sous-miroirs continuent à être lus. Le sous-miroir hors ligne n'est toutefois plus synchronisé dès la première écriture effectuée sur le miroir. Cette incohérence est corrigée dès que le sous-miroir hors ligne est remis en ligne. Vous ne devez pas exécuter fsck.


  6. Déverrouillez les systèmes de fichiers et autorisez la poursuite des écritures en faisant appel à la commande lockfs avec l'option -u.
    # lockfs -u mountpoint 
  7. Procédez à une vérification du système de fichiers.
    # fsck /dev/md/diskset/rdsk/submirror
  8. Sauvegardez le sous-miroir hors ligne sur une bande ou sur un autre support.

    Utilisez la commande ufsdump(1M) ou l'utilitaire de sauvegarde auquel vous faites généralement appel.

    # ufsdump 0ucf dump-device submirror

    Remarque - Utilisez le nom du périphérique brut (/rdsk) pour le sous-miroir plutôt que le nom du périphérique en mode bloc (/dsk).


  9. Utilisez la commande metattach(1M) pour remettre en ligne le métapériphérique ou le volume.
    # metattach -s setname mirror submirror

    Une fois en ligne, le métapériphérique ou le volume est automatiquement resynchronisé avec le miroir.

  10. Utilisez la commande metastat pour vérifier que le sous-miroir est resynchronisé.
    # metastat -s setname mirror

Exemple 12-4 Sauvegarde en ligne pour les systèmes mis en miroir (Solaris Volume Manager)

Dans l'exemple suivant, le nœud du cluster phys-schost-1 possède le metaset schost-1. La procédure de sauvegarde est donc effectuée à partir de phys-schost-1. Le miroir /dev/md/schost-1/dsk/d0 se compose des sous-miroirs d10, d20 et d30.

[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Lock the file system from writes:] 
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resynchronize the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

Sauvegarde en ligne pour les volumes (Veritas Volume Manager)

Veritas Volume Manager identifie un volume mis en miroir comme étant un plex. Un plex peut être sauvegardé sans devoir être démonté ou sans placer le volume entier hors ligne. Pour ce faire, créez une copie d'instantané du volume et sauvegardez ce volume temporaire sans arrêter le système ou refuser aux utilisateurs l'accès aux données.

Avant d'entamer la procédure de sauvegarde, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous à un nœud quelconque du cluster en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès basé sur les rôles de type solaris.cluster.admin sur le nœud principal actuel pour le groupe de disques du cluster.
  2. Répertoriez les informations du groupe de disques.
    # vxprint -g diskgroup
  3. Déterminez le nœud dans lequel le groupe de disques est actuellement importé en spécifiant qu'il s'agit du nœud principal pour le groupe de disques.
    # cldevicegroup status
  4. Créez un instantané du volume.
    # vxassist -g diskgroup snapstart volume

    Remarque - La durée de création de l'instantané varie en fonction de la taille du volume.


  5. Vérifiez que le nouveau volume a été créé.
    # vxprint -g diskgroup

    Lorsque l'instantané a été créé, l'état Snapdone (Instantané effectué) s'affiche dans le champ State (État) du groupe de disques sélectionné.

  6. Arrêtez tout service de données accédant au système de fichiers.
    # clresourcegroup offline resource-group

    Remarque - Pour une sauvegarde correcte du système de fichiers de données, arrêtez tous les services de données. L'Étape 6 et l'Étape 8 ne sont pas requises lorsqu'aucun service de données n'est en cours d'exécution.


  7. Créez un volume de sauvegarde nommé bkup-vol et joignez-y le volume d'instantané.
    # vxassist -g diskgroup snapshot volume bkup-vol
  8. Redémarrez tous les services de données arrêtés à l'Étape 6 à l'aide de la commande clresourcegroup.
    # clresourcegroup online - zone -n node resourcegroup
    node

    Nom du nœud.

    zone

    Nom du nœud non votant du cluster global (node) pouvant contrôler le groupe de ressources. Spécifiez la zone uniquement si vous avez spécifié un nœud non votant lorsque vous avez créé le groupe de ressources.

  9. Vérifiez que le volume est joint au nouveau volume bkup-vol.
    # vxprint -g diskgroup
  10. Enregistrez la modification apportée à la configuration du groupe de périphériques.
    # cldevicegroup sync diskgroup
  11. Vérifiez le volume de la sauvegarde.
    # fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
  12. Effectuez une sauvegarde pour copier le volume bkup-vol sur une bande ou un autre support.

    Utilisez la commande ufsdump(1M) ou l'utilitaire de sauvegarde auquel vous faites généralement appel.

    # ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
  13. Supprimez le volume temporaire.
    # vxedit -rf rm bkup-vol
  14. Enregistrez les modifications apportées à la configuration du groupe de disques.
    # cldevicegroup sync diskgroup

Exemple 12-5 Sauvegarde en ligne pour les volumes (Veritas Volume Manager)

Dans l'exemple suivant, le nœud du cluster phys-schost-2 est le propriétaire principal du groupe de périphériques schost-1. La procédure de sauvegarde est donc effectuée à partir de phys-schost-2. Le volume /vo101 est copié, puis associé à un nouveau volume (bkup-vol).

[Become superuser or assume a role that provides solaris.cluster.admin RBAC authorization on 
the primary node.]
[Identify the current primary node for the device group:]
# cldevicegroup status
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1

-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[List the device group information:]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stop data services, if necessary:]
# clresourcegroup offline nfs-rg
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# clresourcegroup online -n phys-schost-1 nfs-rg
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronize the disk group with cluster framework:]
# cldevicegroup sync schost-1
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# cldevicegroup sync schost-1

Sauvegarde de la configuration du cluster

Pour assurer l'archivage de la configuration du cluster et en faciliter la récupération, sauvegardez-la à intervalles réguliers. Oracle Solaris Cluster permet d'exporter la configuration du cluster vers un fichier au format XML (eXtensible Markup Language).

  1. Connectez-vous à un nœud du cluster en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès basé sur les rôles de type solaris.cluster.read.
  2. Exportez les informations de la configuration du cluster dans un fichier.
    # /usr/cluster/bin/cluster export -o configfile
    configfile

    Nom du fichier de configuration XML vers lequel la commande du cluster exporte les informations de la configuration du cluster. Pour plus d'informations sur le fichier de configuration XML, reportez-vous à la section clconfiguration(5CL).

  3. Vérifiez que les informations de la configuration du cluster ont été exportées vers le fichier XML.
    # vi configfile