Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster (Français) |
1. Introduction à l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Fermeture et initialisation d'un cluster
4. Méthodes de réplication de données
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un nud
10. Configuration du contrôle de l'utilisation du CPU
11. Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
12. Sauvegarde et restauration d'un cluster
Recherche des noms de systèmes de fichiers à sauvegarder
Calcul du nombre de bandes requises pour une sauvegarde complète
Sauvegarde du système de fichiers racine (/)
Sauvegarde en ligne pour les systèmes mis en miroir (Solaris Volume Manager)
Sauvegarde en ligne pour les volumes (Veritas Volume Manager)
Restauration de fichiers en cluster
Restauration interactive de fichiers individuels (Solaris Volume Manager)
Restauration du système de fichiers racine (/) (Solaris Volume Manager)
Restauration d'un système de fichiers racine (/) situé sur un volume Solaris Volume Manager
Restauration d'un système de fichiers racine (/) non encapsulé (Veritas Volume Manager)
Restauration d'un système de fichiers racine (/) encapsulé (Veritas Volume Manager)
13. Administration de Oracle Solaris Cluster avec les interfaces graphiques
Tableau 12-1 Liste des tâches : sauvegarde de fichiers en cluster
|
Suivez cette procédure pour déterminer les noms des systèmes de fichiers dont vous souhaitez effectuer la sauvegarde.
Vous ne devez pas obligatoirement être un superutilisateur ou adopter un rôle équivalent pour exécuter cette commande.
# more /etc/vfstab
Utilisez ce nom lorsque vous sauvegardez le système de fichiers.
# more /etc/vfstab
Exemple 12-1 Recherche des noms de systèmes de fichiers à sauvegarder
L'exemple suivant affiche les noms des systèmes de fichiers disponibles répertoriés dans le fichier /etc/vfstab.
# more /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # #/dev/dsk/c1d0s2 /dev/rdsk/c1d0s2 /usr ufs 1 yes - f - /dev/fd fd - no - /proc - /proc proc - no - /dev/dsk/c1t6d0s1 - - swap - no - /dev/dsk/c1t6d0s0 /dev/rdsk/c1t6d0s0 / ufs 1 no - /dev/dsk/c1t6d0s3 /dev/rdsk/c1t6d0s3 /cache ufs 2 yes - swap - /tmp tmpfs - yes -
Suivez cette procédure pour calculer le nombre de bandes requises pour sauvegarder un système de fichiers.
# ufsdump S filesystem
Affiche le nombre estimé d'octets requis pour effectuer la sauvegarde.
Spécifie le nom du système de fichiers dont vous souhaitez effectuer la sauvegarde.
Exemple 12-2 Calcul du nombre de bandes requises
Dans l'exemple suivant, un système de fichiers d'une taille de 905 881 620 octets peut facilement tenir sur une bande de 4 Go (905 881 620 ÷ 4 000 000 000).
# ufsdump S /global/phys-schost-1 905881620
Suivez cette procédure pour sauvegarder le système de fichiers racine (/) d'un nœud du cluster. Avant d'entamer la procédure de sauvegarde, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
# clnode evacuate node
Spécifie le nœud dont vous commutez les groupes de ressources et de périphériques.
# shutdown -g0 -y -i0
Dans les systèmes SPARC, exécutez la commande suivante.
ok boot -xs
Sur les systèmes x86, exécutez les commandes suivantes :
phys-schost# shutdown -g -y -i0 Press any key to continue
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Pour plus d'informations concernant l'initialisation basée sur GRUB, reportez-vous à la section Booting an x86 Based System by Using GRUB (Task Map) du System Administration Guide: Basic Administration.
L'écran des paramètres d'initialisation de GRUB s'affiche comme suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
L'écran affiche la commande éditée.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
Remarque - Cette modification de la commande des paramètres d'initialisation du noyau n'est pas conservée, lors du prochain démarrage du système. La prochaine fois que vous réinitialisez le nœud, ce dernier sera initialisé en mode cluster. Si vous souhaitez plutôt initialiser le nœud en mode non cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande des paramètres d'initialisation du noyau.
# df -k
# ls /backing-store-file
# fssnap -F ufs -o bs=/backing-store-file /file-system
# /usr/lib/fs/ufs/fssnap -i /file-system
# ufsdump 0ucf /dev/rmt/0 snapshot-name
Par exemple :
# ufsdump 0ucf /dev/rmt/0 /dev/rfssnap/1
# ufsrestore ta /dev/rmt/0
# init 6
Exemple 12-3 Sauvegarde du système de fichiers racine (/)
L'exemple suivant illustre la sauvegarde d'un instantané du système de fichiers racine (/) dans le fichier /scratch/usr.back.file du répertoire /usr. `
# fssnap -F ufs -o bs=/scratch/usr.back.file /usr /dev/fssnap/1
Un volume Solaris Volume Manager mis en miroir peut être sauvegardé sans être démonté ou sans placer hors ligne l'ensemble du miroir. Un des sous-miroirs doit être placé hors ligne temporairement entraînant ainsi la perte de la mise en miroir. Il peut toutefois être remis en ligne et resynchronisé dès que la sauvegarde est terminée, sans devoir arrêter le système ou refuser aux utilisateurs l'accès aux données. L'utilisation de miroirs pour effectuer des sauvegardes en ligne crée une sauvegarde correspondant à un « instantané » du système de fichiers actif.
Un problème peut se produire lorsqu'un programme inscrit des données sur le volume juste avant l'exécution de la commande lockfs. Pour éviter ce problème, arrêtez temporairement tous les services en cours d'exécution sur ce nœud. Avant d'entamer la procédure de sauvegarde, assurez-vous également que le cluster est en cours d'exécution et ne signale aucune erreur.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
# metaset -s setname
Spécifie le nom de l'ensemble de disques.
# lockfs -w mountpoint
Remarque - Verrouillez le système de fichiers uniquement lorsqu'un système de fichiers UFS se trouve sur le miroir. Si le volume Solaris Volume Manager est défini par exemple en tant que périphérique brut pour les logiciels de gestion de base de données ou pour une autre application en particulier, vous ne devrez pas faire appel à la commande lockfs. Vous pouvez toutefois exécuter l'utilitaire adéquat propre au fournisseur pour vider les tampons et verrouiller l'accès.
# metastat -s setname -p
Affiche l'état dans un format similaire au fichier md.tab.
# metadetach -s setname mirror submirror
Remarque - Les autres sous-miroirs continuent à être lus. Le sous-miroir hors ligne n'est toutefois plus synchronisé dès la première écriture effectuée sur le miroir. Cette incohérence est corrigée dès que le sous-miroir hors ligne est remis en ligne. Vous ne devez pas exécuter fsck.
# lockfs -u mountpoint
# fsck /dev/md/diskset/rdsk/submirror
Utilisez la commande ufsdump(1M) ou l'utilitaire de sauvegarde auquel vous faites généralement appel.
# ufsdump 0ucf dump-device submirror
Remarque - Utilisez le nom du périphérique brut (/rdsk) pour le sous-miroir plutôt que le nom du périphérique en mode bloc (/dsk).
# metattach -s setname mirror submirror
Une fois en ligne, le métapériphérique ou le volume est automatiquement resynchronisé avec le miroir.
# metastat -s setname mirror
Exemple 12-4 Sauvegarde en ligne pour les systèmes mis en miroir (Solaris Volume Manager)
Dans l'exemple suivant, le nœud du cluster phys-schost-1 possède le metaset schost-1. La procédure de sauvegarde est donc effectuée à partir de phys-schost-1. Le miroir /dev/md/schost-1/dsk/d0 se compose des sous-miroirs d10, d20 et d30.
[Determine the owner of the metaset:] # metaset -s schost-1 Set name = schost-1, Set number = 1 Host Owner phys-schost-1 Yes ... [Lock the file system from writes:] # lockfs -w /global/schost-1 [List the submirrors:] # metastat -s schost-1 -p schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1 schost-1/d10 1 1 d4s0 schost-1/d20 1 1 d6s0 schost-1/d30 1 1 d8s0 [Take a submirror offline:] # metadetach -s schost-1 d0 d30 [Unlock the file system:] # lockfs -u / [Check the file system:] # fsck /dev/md/schost-1/rdsk/d30 [Copy the submirror to the backup device:] # ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30 DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0. ... DUMP: DUMP IS DONE [Bring the submirror back online:] # metattach -s schost-1 d0 d30 schost-1/d0: submirror schost-1/d30 is attached [Resynchronize the submirror:] # metastat -s schost-1 d0 schost-1/d0: Mirror Submirror 0: schost-0/d10 State: Okay Submirror 1: schost-0/d20 State: Okay Submirror 2: schost-0/d30 State: Resyncing Resync in progress: 42% done Pass: 1 Read option: roundrobin (default) ...
Veritas Volume Manager identifie un volume mis en miroir comme étant un plex. Un plex peut être sauvegardé sans devoir être démonté ou sans placer le volume entier hors ligne. Pour ce faire, créez une copie d'instantané du volume et sauvegardez ce volume temporaire sans arrêter le système ou refuser aux utilisateurs l'accès aux données.
Avant d'entamer la procédure de sauvegarde, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
# vxprint -g diskgroup
# cldevicegroup status
# vxassist -g diskgroup snapstart volume
Remarque - La durée de création de l'instantané varie en fonction de la taille du volume.
# vxprint -g diskgroup
Lorsque l'instantané a été créé, l'état Snapdone (Instantané effectué) s'affiche dans le champ State (État) du groupe de disques sélectionné.
# clresourcegroup offline resource-group
# vxassist -g diskgroup snapshot volume bkup-vol
# clresourcegroup online - zone -n node resourcegroup
Nom du nœud.
Nom du nœud non votant du cluster global (node) pouvant contrôler le groupe de ressources. Spécifiez la zone uniquement si vous avez spécifié un nœud non votant lorsque vous avez créé le groupe de ressources.
# vxprint -g diskgroup
# cldevicegroup sync diskgroup
# fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
Utilisez la commande ufsdump(1M) ou l'utilitaire de sauvegarde auquel vous faites généralement appel.
# ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
# vxedit -rf rm bkup-vol
# cldevicegroup sync diskgroup
Exemple 12-5 Sauvegarde en ligne pour les volumes (Veritas Volume Manager)
Dans l'exemple suivant, le nœud du cluster phys-schost-2 est le propriétaire principal du groupe de périphériques schost-1. La procédure de sauvegarde est donc effectuée à partir de phys-schost-2. Le volume /vo101 est copié, puis associé à un nouveau volume (bkup-vol).
[Become superuser or assume a role that provides solaris.cluster.admin RBAC authorization on the primary node.] [Identify the current primary node for the device group:] # cldevicegroup status -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: schost-1 Online [List the device group information:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - dm schost-102 c1t2d0s2 - 17678493 - - - - dm schost-103 c2t1d0s2 - 8378640 - - - - dm schost-104 c2t2d0s2 - 17678493 - - - - dm schost-105 c1t3d0s2 - 17678493 - - - - dm schost-106 c2t3d0s2 - 17678493 - - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - [Start the snapshot operation:] # vxassist -g schost-1 snapstart vol01 [Verify the new volume was created:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - dm schost-102 c1t2d0s2 - 17678493 - - - - dm schost-103 c2t1d0s2 - 8378640 - - - - dm schost-104 c2t2d0s2 - 17678493 - - - - dm schost-105 c1t3d0s2 - 17678493 - - - - dm schost-106 c2t3d0s2 - 17678493 - - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - pl vol01-04 vol01 ENABLED 208331 - SNAPDONE - - sd schost-105-01 vol01-04 ENABLED 104139 0 - - - sd schost-106-01 vol01-04 ENABLED 104139 0 - - - [Stop data services, if necessary:] # clresourcegroup offline nfs-rg [Create a copy of the volume:] # vxassist -g schost-1 snapshot vol01 bkup-vol [Restart data services, if necessary:] # clresourcegroup online -n phys-schost-1 nfs-rg [Verify bkup-vol was created:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - ... v bkup-vol gen ENABLED 204800 - ACTIVE - - pl bkup-vol-01 bkup-vol ENABLED 208331 - ACTIVE - - sd schost-105-01 bkup-vol-01 ENABLED 104139 0 - - - sd schost-106-01 bkup-vol-01 ENABLED 104139 0 - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - [Synchronize the disk group with cluster framework:] # cldevicegroup sync schost-1 [Check the file systems:] # fsck -y /dev/vx/rdsk/schost-1/bkup-vol [Copy bkup-vol to the backup device:] # ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0. ... DUMP: DUMP IS DONE [Remove the bkup-volume:] # vxedit -rf rm bkup-vol [Synchronize the disk group:] # cldevicegroup sync schost-1
Pour assurer l'archivage de la configuration du cluster et en faciliter la récupération, sauvegardez-la à intervalles réguliers. Oracle Solaris Cluster permet d'exporter la configuration du cluster vers un fichier au format XML (eXtensible Markup Language).
# /usr/cluster/bin/cluster export -o configfile
Nom du fichier de configuration XML vers lequel la commande du cluster exporte les informations de la configuration du cluster. Pour plus d'informations sur le fichier de configuration XML, reportez-vous à la section clconfiguration(5CL).
# vi configfile