Cette annexe fournit des instructions relatives à l'administration des ensembles de disques et des métapériphériques Solstice DiskSuite, et à l'administration des objets VERITAS Volume Manager. Les méthodes décrites sont tributaires du logiciel de gestion des volumes utilisé.
"Utilisation de Solstice DiskSuite dans l'environnement Sun Cluster"
"Sauvegarde de données multihôtes à l'aide de Solstice Backup"
Cette section indique comment utiliser DiskSuite pour administrer :
les ensembles de disques.
les disques d'un ensemble.
les métapériphériques multi-hôtes.
les métapériphériques locaux.
Pour une description détaillée de l'administration des objets DiskSuite, reportez-vous à la documentation de Solstice DiskSuite.
Les métapériphériques et les ensembles de disques se créent et s'administrent à l'aide des utilitaires de ligne de commande Solstice DiskSuite ou de l'interface utilisateur graphique DiskSuite Tool (metatool(1M)).
Lisez ce chapitre avant d'avoir recours à la documentation Solstice DiskSuite pour administrer les ensembles de disques et les métapériphériques d'une configuration Sun Cluster.
Les ensembles de disques sont des groupes de disques. La principale tâche d'administration à effectuer en rapport avec les ensembles de disques a trait à l'ajout et au retrait de disques.
Pour pouvoir utiliser un disque qui a été placé dans un ensemble de disques, vous devez configurer un métapériphérique à l'aide des tranches du disque. Un métapériphérique peut être une concaténation, un entrelacement, une image miroir ou un périphérique de consignation UFS (également appelé périphérique trans). Vous pouvez en outre créer des pools de réserve dynamiques qui renferment des tranches qui serviront de remplacement en cas de défaillance d'un métapériphérique.
Les noms des métapériphériques débutent par la lettre d qui est suivie d'un nombre. Par défaut, dans une configuration Sun Cluster, on retrouve 128 métapériphériques compris entre 0 et 127. Chaque périphérique de consignation UFS que vous créez utilise au moins sept noms de métapériphériques. Par conséquent, dans le cas d'une configuration Sun Cluster d'envergure, les 128 noms de métapériphériques par défaut peuvent ne pas suffire. Pour des directives sur la façon de changer la quantité par défaut, reportez-vous à la documentation de Solstice DiskSuite. Les noms des pools de réserve dynamiques débutent par les lettres hsp, qui sont suivies d'un nombre. Vous pouvez avoir jusqu'à 1000 pools de réserve dynamiques, allant de hsp000 à hsp999.
Cette section présente un aperçu général des ensembles de disques et de leurs relations avec les hôtes logiques, ainsi que des procédures d'ajout et de retrait de disques d'un ensemble associé à l'hôte logique.
Les hôtes logiques Sun Cluster ont pour maîtres des hôtes physiques. Seul l'hôte physique qui est actuellement le maître d'un hôte logique peut accéder à l'ensemble de disques de cet hôte. Lorsqu'un hôte physique est le maître de l'ensemble de disques d'un hôte logique, on dit qu'il est propriétaire de l'ensemble de disques. En général, Sun Cluster se charge de la propriété des ensembles de disques. Cependant, si l'hôte logique est en cours de maintenance, comme l'indique la commande hastat(1M), vous pouvez avoir recours à la commande metaset -t de DiskSuite pour assumer manuellement la propriété de l'ensemble de disques. Avant de remettre l'hôte logique en service, libérez la propriété de l'ensemble de disques à l'aide de la commande metaset -r.
N'effectuez jamais l'administration de l'ensemble de disques à l'aide des options -t (prise en charge de la propriété) ou -r (libération de la propriété) de la commande metaset(1M) pendant que les hôtes logiques sont en marche. En effet, ces options sont utilisées par le logiciel Sun Clusteret leur emploi doit être coordonné entre les noeuds de grappe.
Si le disque à ajouter à un ensemble doit faire office de sous-miroir, vous devez disposer de deux disques sur deux unités d'expansion de disques multihôtes différentes afin de permettre l'écriture miroir. Toutefois, si le disque doit être utilisé comme réserve dynamique, vous pouvez ajouter un seul disque.
Vérifiez que le disque ne contient aucune donnée.
Cet aspect est important, car la table de partition sera réécrite et un espace sera alloué, sur le disque, pour la réplique de la base de données d'état des métapériphériques.
Insérez le disque dans l'unité d'expansion de disque multihôtes.
Suivez les instructions qui figurent dans la documentation du matériel de l'unité d'expansion de disque (ajout et retrait de disques).
Ajoutez le disque à un ensemble de disques.
La syntaxe de la commande est précisée ci-après. Dans cette exemple, ensemble_disques est le nom de l'ensemble auquel le disque doit être ajouté, et unité le nom DID du disque sous la forme dN (pour les nouvelles installations de Sun Cluster), ou cNtYdZ (pour les installations mises à niveau à partir de HA 1.3).
# metaset -s ensemble_disques -a unité |
Après avoir ajouté les disques à l'ensemble de disques en utilisant la commande metaset(1M), utilisez la commande scadmin(1M) afin de réserver et d'activer la fonction failfast sur les disques indiqués.
phys-hahost1# scadmin reserve nom_unité |
Vous pouvez retirer un disque d'un ensemble de disques à n'importe quel moment, à condition qu'aucune des tranches de ce disque ne soient en cours d'utilisation dans les métapériphériques ou les pools de réserve dynamiques.
Utilisez la commande metastat(1M) pour vous assurer qu'aucune des tranches n'est utilisée comme métapériphérique ou réserve dynamique.
Utilisez la commande metaset(1M) afin de retirer le disque voulu de l'ensemble.
La syntaxe de la commande est précisée ci-après. Dans cet exemple, ensemble_disques est le nom de l'ensemble de disques qui contient le disque (défectueux) qui doit être retiré et unité le nom du disque sous la forme dN (pour les nouvelles installations de Sun Cluster), ou cNtYdZ (pour les installations mises à jour à partir de HA 1.3).
# metaset -s ensemble_disques -d unité |
Cette opération peut demander 15 minutes et même davantage, selon la taille de la configuration et le nombre de disques.
Les sections suivantes présentent les différences entre l'administration de métapériphériques en environnement Sun Clustermultihôte et en environnement à un seul hôte.
Sauf indication contraire dans les sections qui suivent, vous pouvez suivre les instructions qui figurent dans la documentation de Solstice DiskSuite.
Les instructions qui figurent dans la documentation de Solstice DiskSuitene concernent que les configurations à un seul hôte.
Les sections ci-après présentent les programmes de ligne de commande de Solstice DiskSuite à utiliser pour exécuter une tâche. Vous pouvez également vous servir de l'interface utilisateur graphique metatool(1M) pour toutes les tâches, à moins d'indications contraires. Utilisez l'option -s lorsque vous exécutez metatool(1M), car vous pouvez ainsi indiquer le nom de l'ensemble de disques.
Pour la gestion courante des métapériphériques, vous devez surveiller en permanence leurs éventuelles anomalies de fonctionnement, comme décrit dans "Utilitaires de surveillance"
Lorsque hastat(1M) signale qu'un ensemble de disques est défectueux, employez la commande metastat(1M) afin de déterminer quel métapériphérique est défectueux.
Vous devez utiliser l'option -s lorsque vous exécutez metastat(1M) ou metatool(1M), afin de pouvoir indiquer le nom de l'ensemble de disques.
Vous devez enregistrer les informations de configuration du métapériphérique lorsque vous modifiez la configuration. Utilisez la commande metastat -p pour produire un résultat similaire à celui du fichier md.tab puis enregistrez le résultat. Pour plus de détails sur l'enregistrement de données de partitionnement, reportez-vous à la section "Enregistrement des informations de partitionnement d'un disque (Solstice DiskSuite)".
Les métapériphériques mis en miroir peuvent être utilisés dans le cadre d'un système de fichiers UFS de consignation pour les applications Sun Cluster à haute disponibilité.
On peut configurer en métapériphérique les tranches inactives de disques dans un ensemble de disques à l'aide de la commande metainit(1M).
Sun Cluster peuvent utiliser des métapériphériques mis en miroir bruts pour le stockage des bases de données. Celles-ci ne sont pas mentionnées dans le fichier dfstab.hôtelogique ou vfstab de chaque hôte logique, mais figurent dans les fichiers de configuration de base de données de Sun Cluster. Le miroir doit être retiré de ces fichiers, et le système de base de données Sun Cluster doit cesser d'utiliser ce miroir. Puis, le miroir peut être supprimé à l'aide de la commande metaclear(1M).
Pour les tableaux SPARCstorage, notez qu'avant de remplacer ou d'ajouter une unité de disques sur un plateau, tous les périphériques de ce plateau doivent être mis hors ligne.
Dans des configurations symétriques, la mise hors ligne de sous-miroirs en vue de la maintenance est une tâche complexe, car les disques de chacun des deux ensembles de disques doivent se trouver dans le même plateau, dans le tableau SPARCstorage. Vous devez mettre hors ligne les métapériphériques de chaque ensemble de disques avant de retirer le plateau.
Employez la commande metaoffline(1M) afin de mettre hors ligne tous les sous-miroirs de chaque disque du plateau.
Une fois qu'un disque a été ajouté à un ensemble de disques, vous pouvez créer de nouveaux métapériphériques en utilisant metainit(1M) ou metatool(1M). Si les nouveaux périphériques sont des éléments de réserve dynamiques, employez la commande metahs(1M) afin de placer ces éléments dans un pool de réserve dynamique.
Pour remplacer le composant défectueux d'un métapériphérique, utilisez la commande metareplace(1M)..
Vous devez disposer d'une tranche (ou d'un disque) de remplacement. Il peut s'agir d'un périphérique existant qui n'est pas utilisé ou d'un nouveau périphérique que vous avez ajouté à l'ensemble de disques.
Vous pouvez aussi remettre en service les unités ayant subi des erreurs passagères (par exemple suite à une panne d'alimentation du châssis) à l'aide de la commande metareplace -e commande.
Avant de supprimer un métapériphérique, assurez-vous qu'aucun de ses composants n'est utilisé par Sun Cluster HA for NFS. Utilisez ensuite la commande metaclear(1M), pour supprimer le métapériphérique.
Pour développer un métapériphérique, vous devez disposer d'au moins deux tranches (de disque) situées dans des unités d'expansion de disques multihôtes différentes. Chacune des deux nouvelles tranches doit être ajoutée à un sous-miroir différent à l'aide de la commande metainit(1M). Employez ensuite la commande growfs(1M) pour développer le système de fichiers.
Lorsque la commande growfs(1M) est en cours d'exécution, les clients peuvent subir des interruptions de service.
Si une relève survient pendant que le système de fichiers se développe, le développement n'aura pas lieu. Vous devez relancer la commande growfs(1M) une fois la relève terminée.
Le système de fichiers qui contient /hôtelogique/statmon ne peut être développé. Etant donné que le programme statd(1M) modifie ce répertoire, celui-ci serait paralysé pendant une longue période, le temps que le développement du système de fichiers ait lieu. Les répercussions sur le protocole de verrouillage des fichiers du réseau seraient alors imprévisibles. Ce problème ne concerne que les configurations utilisant Sun Cluster HA for NFS.
Vous pouvez ajouter ou supprimer à tout moment des périphériques de réserve dynamique dans des pools de réserve dynamique, à condition qu'ils ne soient pas en cours d'utilisation. De plus, vous pouvez créer de nouveaux pools de réserve dynamiques, puis les associer à des sous-miroirs à l'aide de la commande metahs(1M).
Tous les jounaux UFS qui se trouvent sur les disques multihôtes sont mis en miroir. Lorsqu'un sous-miroir tombe en panne, le système indique que ce composant est défectueux. Vous pouvez réparer la panne à l'aide de la commande metareplace(1M) ou metatool(1M).
Si le miroir entier qui contient le journal UFS tombe en panne, vous devez démonter le système de fichiers, sauvegarder toutes les données accessibles, corriger l'erreur, réparer le système de fichiers (à l'aide de la commande fsck(1M)), puis remonter le système de fichiers.
Tous les systèmes de fichiers UFS figurant dans un hôte logique doivent être des systèmes UFS de consignation de sorte que la reprise ou les critères de dépassement impartis de haswitch(1M) soient respectés. Ainsi, on favorise une commutation et une relève rapides.
Pour configurer le système de fichiers UFS de consignation, créez un périphérique trans à l'aide d'un périphérique de consignation mis en miroir et d'un système de fichiers maître UFS mis en miroir. Le périphérique de consignation et le périphérique maître UFS doivent être mis en miroir.
En général, la tranche 6 de chaque unité d'un ensemble de disques peut être utilisée comme journal UFS. Les tranches peuvent être employées pour les sous-miroirs des journaux UFS. Si la taille des tranches est inférieure à celle du journal voulu, vous pouvez regrouper plusieurs tranches. Habituellement, un méga-octet par groupe de 100 méga-octets convient aux journaux UFS, jusqu'à un maximum de 64 méga-octets. Idéalement, les tranches d'un journal doivent se trouver sur une unité différente de celle du périphérique maître UFS.
Si vous devez découper le disque afin de libérer de l'espace pour les journaux UFS, conservez la tranche 7 existante, qui débute au cylindre 0 et qui contient au moins deux méga-octets. En effet, cet espace est réservé pour les répliques de base de données d'état des métapériphériques. Les champs Etiquette et Indicateur (dont le contenu est signalé par la commande format(1M)) doivent être réservés pour la tranche 7. La commande metaset(1M) définit correctement les champs Etiquette et Indicateur au moment de la configuration initiale.
Une fois que le périphérique trans a été configuré, créez le système de fichiers UFS, à l'aide de la commande newfs(1M), sur le périphérique trans.
Une fois le processus newfs terminé, ajoutez le système de fichiers UFS au fichier vfstab pour l'hôte logique, en modifiant le fichier /etc/opt/SUNWcluster/conf/hanfs/vfstab.hôtelogique pour mettre à jour les informations des systèmes de fichiers administratifs et multihôtes.
Assurez-vous que les fichiers vfstab.hôtelogique de tous les noeuds de grappe contiennent les mêmes informations. Utilisez la fonction cconsole(1) pour modifier simultanément les fichiers vfstab.hôtelogique de tous les noeuds de la grappe.
Voici un exemple de fichier vfstab.hôtelogique sur lequel apparaissent le système de fichiers administratif et quatre autres systèmes de fichiers UFS :
#device device mount FS fsck mount mount #to mount to fsck point type pass all options# /dev/md/hahost1/dsk/d11 /dev/md/hahost1/rdsk/d11 /hahost1 ufs 1 no - /dev/md/hahost1/dsk/d1 /dev/md/hahost1/rdsk/d1 /hahost1/1 ufs 1 no - /dev/md/hahost1/dsk/d2 /dev/md/hahost1/rdsk/d2 /hahost1/2 ufs 1 no - /dev/md/hahost1/dsk/d3 /dev/md/hahostt1/rdsk/d3 /hahost1/3 ufs 1 no - /dev/md/hahost1/dsk/d4 /dev/md/hahost1/rdsk/d4 /hahost1/4 ufs 1 no - |
Si le système de fichiers est destiné à être également utilisé par Sun Cluster HA for NFS, suivez la procédure de partage des systèmes de fichiers NFS tels que décrite dans le Chapitre 11 du Sun Cluster 2.2 Software Installation Guide.
Le nouveau système de fichier sera monté automatiquement à la prochaine reconfiguration du moniteur d'appartenance. Pour forcer la reconfiguration de l'appartenance, utilisez la commande suivante :
#haswitch -r |
Les disques locaux peuvent être mis en miroir. Si un seul miroir tombe en panne, suivez les instructions de la documentation de Solstice DiskSuite pour remplacer le miroir défectueux et resynchroniser le disque de remplacement avec le bon disque.
Les actions de métapériphériques non prises en charge par les configurations Sun Clustersont :
Création d'un miroir unidirectionnel dans un ensemble de disques.
Création d'une configuration comportant trop peu de répliques de base de données d'état des métapériphériques sur les disques locaux.
Modification de répliques de base de données d'état des métapériphériques sur des disques multihôtes, à moins que des instructions explicites à cet effet figurent dans le présent manuel ou une autre publication Sun Cluster.
VERITAS Volume Manager (VxVM) et le dispositif VxVM du cluster sont des variations du même gestionnaire de volumes. Le dispositif VxVM du cluster est uniquement utilisé dans les configuations Oracle Parallel Server OPS. Cette section décrit l'utilisation de disques relevant de la responsabilité du gestionnaire de volumes en vue de l'administration :
disques du gestionnaire de volumes.
groupes de disques.
sous-disques.
périphériques virtuels.
volumes.
Pour une description détaillée de l'administration de ces objets, reportez-vous à la section correspondante.
Les objets gérés par le gestionnaire de volumes sont créés et administrés à l'aide des utilitaires de ligne de commande, ou de l'interface utilisateur graphique Visual Administrator.
Lisez bien ce chapitre avant de consulter la documentation VxVMconcernant l'administration des objets gérés par un gestionnaire de volumes dans une configuration Sun Cluster. Les méthodes présentées ci-après ne représentent qu'un moyen d'effectuer ces tâches. Utilisez la méthode la mieux adaptée à votre configuration.
Ces objets ont généralement la relation suivante :
Les disques sont mis sous la commande du gestionnaire de volumes et réunis en groupes de disques.
Un ou plusieurs sous-disques (représentant chacun une certaine partie d'un disque) sont réunis afin de former des périphériques virtuels, ou miroirs.
Un volume est composé d'un ou plusieurs périphériques virtuels.
Le groupe de disques par défaut est rootdg (le groupe de disques racine). Vous pouvez créer d'autres groupes de disques au besoin. Les principales tâches d'administration à effectuer en rapport avec les groupes de disques ont trait à l'ajout et au retrait de disques.
Avant d'utiliser un disque que vous avez placé dans un groupe de disques, vous devez configurer des disques et des sous-disques (sous la commande du gestionnaire de volumes) afin de constituer des périphériques virtuels, ou miroirs, à l'aide des tranches du disque physique. Un périphérique virtuel peut être une concaténation ou une tranche.
Avec VxVM, les applications accèdent aux volumes (créés sur les disques du gestionnaire de volumes) plutôt qu'aux tranches.
Les sections ci-après présentent les programmes de ligne de commande de VxVM à utiliser pour effectuer une tâche. Vous pouvez également vous servir de l'interface utilisateur graphique pour toutes les tâches, sauf indication contraire.
Sur les noeuds qui font tourner des services de données Sun ClusterHA, n'exécutez jamais manuellement les options vxdg import ou deport sur un groupe de disques géré par Sun Cluster, à moins que l'hôte logique de ce groupe de disques ne soit en mode maintenance. Avant d'importer ou de déporter manuellement un groupe de disques, vous devez soit arrêter Sun Cluster sur tous les noeuds qui peuvent agir comme maîtres de ce groupe de disques (en lançant scadmin stopnode sur tous ces noeuds), soit utiliser la commande haswitch -m pour basculer en mode maintenance les hôtes logiques correspondants. Lorsque vous êtes prêts à redonner la commande du groupe de disques à Sun Cluster, la méthode la plus sûre consiste à déporter le groupe de disques avant de lancer scadmin startnode ou avant d'utiliser haswitch(1M) pour remettre l'hôte logique sous la commande de Sun Cluster.
Avant d'être utilisé par VxVM, un disque doit être identifié, ou initialisé, comme disque géré par un gestionnaire de volumes. Un disque complètement initialisé peut être ajouté à un groupe de disques, ou encore servir à remplacer un disque défectueux ou à créer un nouveau groupe de disques.
Vérifiez que le disque ne contient aucune donnée.
Cet aspect est important, car les données figurant sur un disque sont détruites lorsque celui-ci est initialisé.
Insérez le périphérique de disque et installez-le dans le boîtier de disque en suivant les instructions figurant dans la documentation fournie avec le matériel.
Initialisez le disque et ajoutez-le à un groupe de disques.
Pour ce faire, vous pouvez utiliser les menus vxdiskadm ou l'interface utilisateur graphique. Vous pouvez également utiliser les utilitaires de ligne de commande vxdisksetup et vxdg addisk pour initialiser le disque et le placer dans un groupe de disques.
Il est parfois nécessaire de mettre un disque physique hors ligne. Si un disque est endommagé, vous devez le désactiver puis le retirer. Vous devez en outre désactiver un disque avant de déplacer le périphérique de disque physique à un autre endroit en vue de la connexion à un autre système.
Pour mettre un disque physique hors ligne, retirez d'abord celui-ci de son groupe de disques. Puis, mettez le disque hors ligne à l'aide de la commande vxdisk(1M).
Vous pouvez retirer un disque dans le but de le placer dans un autre système, ou encore parce qu'il est en panne ou risque de l'être. Il est également possible de retirer les volumes qui ne sont plus utilisés.
Pour retirer un disque du groupe de disques, utilisez la commande vxdg(1M). Pour faire en sorte qu'un disque ne soit plus géré par le gestionnaire de volumes en supprimant les partitions privées et publiques, utilisez la commande vxdiskunsetup(1M). Pour plus de détails sur ces commandes, reportez-vous aux pages vxdg(1M) et vxdiskunsetup(1M) du manuel.
Pour VxVM, il est préférable de créer et de garnir les groupes de disques à partir du noeud actif qui est le maître par défaut de ce groupe de disques. Dans une configuration N+1, chacun de ces noeuds maîtres par défaut partage la connexion au disque multihôtes avec un seul autre noeud de la grappe (le noeud de relève dynamique). En utilisant ces noeuds pour garnir les groupes de disques, vous ne courez pas le risque de générer des groupes incorrectement configurés.
Vous pouvez utiliser les menus vxdiskadm ou l'interface utilisateur graphique pour créer un nouveau groupe de disques. Vous pouvez aussi recourir à l'utilitaire de ligne de commande vxdg init.
Après les avoir créés et garnis, vous devez déporter chaque groupe de disques à l'aide de la commande vxdg deport Ensuite, il convient d'importer chaque groupe sur le noeud de relève dynamique avec l'option -t. L'option -t est importante, dans la mesure où elle empêche l'importation de se poursuivre à la prochaine initialisation. Avant de poursuivre, il est nécessaire de créer tous les périphériques virtuels et les volumes de VxVMet d'activer les volumes.
Utilisez la procédure suivante pour déplacer un disque vers un groupe de disques différent.
Pour déplacer un disque d'un groupe vers un autre, retirez-le du groupe où il se trouve pour le placer dans l'autre groupe.
Dans cet exemple, le disque physique c1t0d1 est déplacé du groupe de disques acct vers le groupe de disques log_node1 à l'aide d'utilitaires de ligne commande.
Utilisez la commande vxprint(1M) pour déterminer si le disque est en cours d'utilisation.
# vxprint -g acct TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg acct acct - - - - - - dm c1t0d0 c1t0d0s2 - 2050272 - - - - dm c1t0d1 c1t0d1s2 - 2050272 - - - - dm c2t0d0 c2t0d0s2 - 2050272 - - - - dm c2t0d1 c2t0d1s2 - 2050272 - - - - v newvol gen ENABLED 204800 - ACTIVE - - pl newvol-01 newvol ENABLED 205632 - ACTIVE - - sd c1t0d1-01 newvol-01 ENABLED 205632 0 - - - pl newvol-02 newvol ENABLED 205632 - ACTIVE - - sd c2t0d1-01 newvol-02 ENABLED 205632 0 - - - v vol01 gen ENABLED 1024000 - ACTIVE - - pl vol01-01 vol01 ENABLED 1024128 - ACTIVE - - sd c1t0d0-01 vol01-01 ENABLED 1024128 0 - - - pl vol01-02 vol01 ENABLED 1024128 - ACTIVE - - sd c2t0d0-01 vol01-02 ENABLED 1024128 0 - - - |
Employez la commande vxedit(1M) afin de retirer le volume et de libérer le disque c1t0d1.
Vous devez exécuter la commande vxedit à partir du noeud qui contrôle le groupe de disques partagé.
# vxedit -g acct -fr rm newvol |
L'option -f force l'exécution de l'opération. L'option -r rend l'opération récursive.
Retirez le disque c1t0d1 du groupe compt.
Vous devez lancer la commande vxdg depuis le noeud qui est le maître du groupe de disques partagé.
# vxdg -g acct rmdisk c1t0d1 |
Ajoutez le disque c1t0d1 au groupe de disques log_node1.
# vxdg -g log_node1 adddisk c1t0d1 |
Cette méthode n'enregistre pas la configuration ni les données sur le disque.
Le groupe de disques acct, après le retrait du disque c1t0d1, est représenté ci-dessous.
# vxprint -g acct TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg acct acct - - - - - - dm c1t0d0 c1t0d0s2 - 2050272 - - - - dm c2t0d0 c2t0d0s2 - 2050272 - - - - dm c2t0d1 c2t0d1s2 - 2050272 - - - - v vol01 gen ENABLED 1024000 - ACTIVE - - pl vol01-01 vol01 ENABLED 1024128 - ACTIVE - - sd c1t0d0-01 vol01-01 ENABLED 1024128 0 - - - pl vol01-02 vol01 ENABLED 1024128 - ACTIVE - - sd c2t0d0-01 vol01-02 ENABLED 1024128 0 - - - |
Le groupe de disques log_node1, après le retrait du disque c1t0d1, est présenté ci-dessous.
# vxprint -g log_node1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg log_node1 log_node1 - - - - - - dm c1t0d1 c1t0d1s2 - 2050272 - - - - dm c1t3d0 c1t3d0s2 - 2050272 - - - - dm c2t3d0 c2t3d0s2 - 2050272 - - - - # |
Pour modifier les autorisations ou la propriété des volumes, vous devez utiliser la commande vxedit.
N'utilisez pas les commandes chmod et chgrp. Les autorisations et la propriété définies par les commandes chmod et chgrp sont automatiquement remises à root (superutilisateur) durant la réinitialisation.
Voici un exemple des autorisations et de la propriété attribués aux volumes vol01 et vol02 dans le répertoire /dev/vx/rdsk avant une modification.
# ls -l crw------- 1 root root nnn,nnnnn date time vol01 crw------- 1 root root nnn,nnnnn date time vol02 ... |
Voici un exemple de changement des autorisations et de la propriété du vol01.
vxedit -g nom_groupe set mode=755 user=oracle vol01 |
Une fois que la modification a été apportée, vous constaterez que les autorisations et la propriété ont changé.
# ls -l crwxr-xr-x 1 oracle root nnn,nnnnn date time vol01 crw------- 1 root root nnn,nnnnn date time vol02 ... |
Les volumes, ou disques virtuels, peuvent contenir des systèmes de fichiers ou des applications telles que des bases de données. Un volume peut comporter jusqu'à 32 périphériques virtuels, chacun d'entre eux renfermant un ou plusieurs sous-disques. Pour qu'un volume puisse être utilisé, au moins un périphérique virtuel comportant au moins un sous-disque correspondant doit y être associé. Précisons que tous les sous-disques d'un volume doivent appartenir au même groupe de disques.
Utilisez l'interface graphique utilisateur ou l'utilitaire de ligne de commande vxassist(1M) pour créer des volumes dans chaque groupe de disques et pour créer un miroir associé à chaque volume.
La taille réelle d'un périphérique VxVMest légèrement inférieure à celle de l'unité de disque complète. VxVM réserve un petit espace à l'utilisation privée, appelé zone privée.
On peut assigner le même nom à des volumes qui appartiennent à des groupes de disques différents.
La consignation de zone modifiée (DRL) est une propriété facultative d'un volume qui sert à assurer une reprise rapide des volumes mis en miroir suite à une panne de système. La DRL assure le suivi des zones qui ont changé en raison d'opérations d'E/S sur un volume mis en miroir : elle se sert de ces informations pour ne récupérer que les parties requises du volume.
Les sous-disques de consignation servent à stocker le journal de zone modifiée d'un volume dont la DRL est activée. Un volume ayant une DRL dispose d'au moins un sous-disque de consignation. En outre, plusieurs sous-disques de consignation peuvent être utilisés afin de mettre en miroir le journal de zone modifiée. Chaque sous-disque de consignation est associé à l'un des périphériques virtuels du volume. Il ne peut y avoir qu'un seul sous-disque de consignation par périphérique virtuel. Si le périphérique virtuel ne contient qu'un sous-disque de consignation et aucun sous-disque de données, ce périphérique peut être appelé périphérique virtuel de consignation. Le sous-disque de consignation peut également être associé à un périphérique virtuel ordinaire qui contient des sous-disques de données ; dans un tel cas, le sous-disque de consignation risque de ne pas être disponible si le périphérique virtuel doit être déconnecté en raison de la panne de l'un de ses sous-disques de données.
Utilisez l'interface graphique utilisateur ou l'utilitaire de ligne de commande vxassist(1M) pour créer un journal pour un volume existant.
La redistribution dynamique est la capacité d'un système à réagir automatiquement aux pannes d'E/S sur des objets redondants du gestionnaire de volumes (mis en miroir ou RAID5), ainsi qu'à rétablir la redondance et l'accès à ces objets. La redistribution dynamique n'est prise en charge que sous les configurations qui utilisent VxVM. VxVMdétecte les pannes d'E/S sur les objets du gestionnaire de volumes et redistribue les sous-disques touchés aux disques désignés à titre de réserve ou d'espace libre dans le groupe de disques. Puis, VxVM reconstitue les objets qui existaient avant la panne, il rétablit leur redondance et les rend à nouveau accessibles.
Lorsqu'une panne partielle d'un disque a lieu (autrement dit, seuls certains sous-disques du disque sont touchés), les données redondantes qui figurent sur la partie défectueuse du disque sont redistribuées, et les volumes qui contiennent les parties intactes du disque demeurent accessibles.
La redistribution dynamique n'est exécutée que pour les sous-disques redondants (mis en miroir ou RAID5) d'un disque défectueux. Les sous-disques non redondants d'un disque défectueux ne sont pas redistribués, mais le système vous avise de la panne.
Un disque de réserve doit être initialisé et placé dans un groupe de disques à titre de réserve pour qu'il puisse être utilisé à des fins de remplacement. Lorsqu'une panne survient, si aucun disque n'a été désigné comme réserve, VxVM utilise automatiquement l'espace libre, le cas échéant, du groupe de disques dans lequel la panne est survenue. Si l'espace du disque de réserve ne suffit pas, le système utilise cet espace de réserve ainsi que l'espace libre. Vous pouvez désigner un ou plusieurs disques, dans chaque groupe de disques, comme réserve pour la redistribution dynamique. Pour désigner les disques devant servir de réserve, utilisez la commande vxedit(1M).
Vous pouvez configurer et spécifier les systèmes de fichier UFS ou VxFS d'un hôte logique se trouvant sur des volumes de type fsgen. Si un noeud de grappe est maître d'un hôte logique, les systèmes de fichiers de cet hôte logique qui sont associés aux groupes de disques sont montés sur les points de montage spécifiés du noeud maître.
Durant la reconfiguration d'un hôte logique, on doit vérifier les systèmes de fichiers à l'aide de la commande fsck(1M). Bien que cette opération soit exécutée en mode parallèle non-intéractif avec les systèmes de fichiers UFS, elle est susceptible d'avoir une incidence sur la durée globale d'exécution de la séquence de reconfiguration. La fonction de consignation des systèmes de fichiers UFS, SDS et VxFS réduit considérablement le temps d'exécution de la commande fsck(1M) avant le montage des systèmes de fichiers.
Lorsqu'on doit effectuer la commutation d'un service de données en plus de la récupération du volume, la récupération dure plus longtemps que la limite permise pour les étapes de reconfiguration. Ainsi le délai imparti est dépassé et l'opération est interrompue sur le noeud.
Par conséquent, lorsque vous configurez des volumes mis en miroir, ajoutez toujours un journal DRL afin de réduire le temps de récupération des volumes en cas de panne du système. Si des volumes mis en miroir sont utilisés dans l'environnement de grappe, la DRL doit être définie pour les volumes dépassant 500 méga-octets.
Faites appel à VxFS si vous utilisez des systèmes de fichiers volumineux (de plus de 500 méga-octets) pour les services de données HD. Dans la plupart des cas, VxFS n'est pas intégré à Sun Cluster et doit donc être acheté séparément de VERITAS.
Il est possible de configurer des hôtes logiques disposant de très petits systèmes de fichiers mis en miroir ; cependant, en raison des risques de dépassement du délai imparti lié l'augmentation de la taille du système de fichiers, il est préférable d'utiliser la consignation de zones modifiées (DRL) ou des systèmes de fichiers VxFS.
Pour développer un volume entrelacé ou RAID5 contenant un système de fichiers, vous devez disposer d'espace libre sur le même nombre de disques que celui figurant actuellement dans le volume entrelacé ou RAID5. Par exemple, si vous disposez de quatre disques de 1 Go entrelacés les uns aux autres (constituant ainsi un système de fichiers de 4 Go) et que vous souhaitez ajouter 1 Go d'espace (afin d'avoir un système de 5 Go), vous devez installer quatre nouveaux disques offrant chacun au moins 0,25 Go d'espace libre. Autrement dit, vous ne pouvez pas ajouter un disque à un entrelacement de quatre disques.
L'interface utilisateur graphique de VxVMdétermine le disque à utiliser pour le développement du système de fichiers. Pour sélectionner des disques particuliers en vue du développement du système de fichiers, employez plutôt l'interface de ligne de commande.
Les systèmes de fichiers UFS ne peuvent pas être réduits. La seule façon de "réduire" un système de fichiers consiste à recréer le volume, à lancer la commande newfs pour ce volume, puis à restaurer les données à partir de la copie de sauvegarde.
Les disques locaux peuvent être mis en miroir. Si un miroir tombe en panne, suivez les directives énoncées dans la documentation du gestionnaire de volumes pour remplacer le miroir défectueux et resynchroniser le disque de remplacement avec le bon disque.
Cette section comporte des conseils sur l'utilisation de Solstice Backup(TM) pour la sauvegarde des systèmes de fichiers Sun Cluster.
Solstice Backup lance chaque copie du logiciel serveur sur un serveur unique. Solstice Backup s'attend à ce que la récupération des fichiers ait lieu à l'aide du même serveur physique que celui utilisé pour la sauvegarde.
Solstice Backup dispose de données considérables sur les ordinateurs physiques (noms et ID d'hôtes) correspondant au serveur et aux clients. Les informations de Solstice Backuprelatives aux ordinateurs physiques sous-jacents sur lesquels les hôtes logiques sont configurés ont une incidence sur le type de stockage des index clients.
Ne placez pas la base de données /nsr de Solstice Backup sur les disques multihôtes. En effet, des conflits risquent de se produire si deux serveurs Solstice Backuptentent d'accéder à la même base de données /nsr.
Etant donné la façon dont Solstice Backupstocke les index clients, pour la sauvegarde d'un client particulier, n'utilisez pas des serveurs Solstice Backup différents à des jours différents. Faites en sorte qu'un hôte logique particulier ait toujours pour maître le même serveur physique lorsque des sauvegardes sont effectuées. Ainsi, les opérations de récupération s'exécuteront sans accroc.
Par défaut, les systèmes Sun Cluster ne génèrent pas la liste complète des systèmes de fichiers pour la configuration de sauvegarde. Si la liste de sauvegarde contient le mot-clé "All", le fichier /etc/vfstab est passé en revue afin de déterminer quels systèmes de fichiers doivent être sauvegardés. Les fichiers Sun Cluster vfstab étant par défaut conservés dans /etc/opt/SUNWcluster/conf/hanfs, Solstice Backupne les trouvera pas, à moins que vous ne précisiez explicitement les systèmes de fichiers Sun Cluster à sauvegarder. Lorsque vous testez vos procédures de sauvegarde, assurez-vous que tous les systèmes de fichiers Sun Cluster qui doivent être sauvegardés figurent dans la liste de systèmes de fichiers de Solstice Backup.
Quatre méthodes de configuration de Solstice Backupsont présentées ci-après. Choisissez celle qui convient à votre configuration de Sun Cluster. A cet égard, vous pouvez tenir compte des temps de commutation. Une fois que vous avez choisi une méthode, continuez de l'utiliser afin que les opérations de récupération futures réussissent.
Voici une description des méthodes de configuration :
Utilisez un serveur qui n'est pas un noeud de grappe et qui n'est pas à haute disponibilité, configuré comme serveur Solstice Backup.
Configurez un serveur supplémentaire différent des serveurs Sun Cluster, qui fera office de serveur Solstice Backup. Configurez les hôtes logiques en tant que clients du serveur. Pour obtenir des résultats optimaux, vérifiez toujours que les hôtes logiques sont configurés sur leurs maîtres par défaut respectifs avant d'effectuer la sauvegarde quotidienne. Cela peut exiger une commutation. Si les hôtes logiques ont pour maître des serveurs différents à des jours différents (peut-être suite à une relève), Solstice Backup risque d'être déconcerté s'il doit effectuer une récupération, en raison de la façon dont Solstice Backup stocke les index clients.
Utilisez un serveur Sun Clusterconfiguré de façon à effectuer les sauvegardes locales.
Configurez l'un des serveurs Sun Cluster en vue de l'exécution des sauvegardes locales. Faites toujours passer les hôtes logiques au serveur Solstice Backup avant d'effectuer la sauvegarde quotidienne. Ainsi, si phys-hahost1 et phys-hahost2 sont les serveurs Sun Cluster et que phys-hahost1 est le serveur Solstice Backup, faites toujours passer les hôtes logiques à phys-hahost1 avant d'effectuer les sauvegardes. Une fois que les sauvegardes sont terminées, refaites passer l'hôte logique à son maître habituel, soit phys-hahost2.
Utilisez les serveurs Sun Clusterconfigurés à titre de serveurs Solstice Backup.
Configurez chaque serveur Sun Cluster pour l'exécution des sauvegardes locales de l'hôte logique dont il est, par défaut, le maître. Assurez-vous toujours que les hôtes logiques sont configurés sur leurs maîtres par défaut respectifs avant d'effectuer la sauvegarde quotidienne. Cela peut exiger une commutation. Si les hôtes logiques ont pour maître des serveurs différents à des jours différents (peut-être suite à une relève), Solstice Backuprisque d'être déconcerté s'il doit effectuer une récupération, en raison de la façon dont Solstice Backup stocke les index clients.
Utilisez un serveur Sun Clusterconfiguré à titre de serveur Solstice Backup.
Configurez un serveur Sun Cluster afin qu'il sauvegarde son hôte logique localement et les frères et soeurs de celui-ci sur le réseau. Assurez-vous toujours que les hôtes logiques sont configurés sur leurs maîtres par défaut respectifs avant d'effectuer la sauvegarde quotidienne. Cela peut exiger une commutation. Si les hôtes logiques ont pour maître des serveurs différents à des jours différents (peut-être suite à une relève), Solstice Backuprisque d'être déconcerté s'il doit effectuer une récupération, en raison de la façon dont Solstice Backup stocke les index clients.
Avec les quatre méthodes de sauvegarde présentées ci-dessus, un autre serveur peut être configuré afin d'effectuer temporairement les sauvegardes en cas de panne du serveur Solstice Backupdésigné. Notez que vous ne pouvez ni utiliser le serveur Solstice Backuptemporaire pour récupérer des fichiers sauvegardés par le serveur Solstice Backup normal, ni récupérer des fichiers sauvegardés par le serveur temporaire depuis le serveur de sauvegarde normal.