Ce chapitre, ainsi que les informations de planification de la rubrique Planification de la gestion des volumes, permettent d'installer et de configurer vos disques multihôtes et locaux pour VERITAS Volume Manager (VxVM). Reportez-vous à la documentation de VxVM pour de plus amples informations.
Ce chapitre comporte les sections suivantes\~:
Cette section présente des informations et des procédures d'installation et de configuration du logiciel VxVM dans une configuration Sun Cluster.
Le tableau suivant énumère les tâches à réaliser pour installer et configurer le logiciel VxVM pour les configurations Sun Cluster.
Tableau 5–1 Liste des tâches : installation et configuration du logiciel VxVM
Tâche |
Instructions |
---|---|
1. Planification de la disposition de votre configuration VxVM. | |
2. (Facultatif) Définition de la méthode de création du groupe de disques racine sur chaque nœud. | |
3. Installation du logiciel VxVM. |
Installation du logiciel VERITAS Volume Manager Documentation de l'installation de VxVM |
4. (Facultatif) Création d'un groupe de disques racine. Vous pouvez encapsuler le disque racine ou créer le groupe de disques racine sur des disques locaux non-racine. |
SPARC : Encapsulation du disque racine Création d'un groupe de disques racine sur un disque non racine |
5. (Facultatif) Mise en miroir du disque racine encapsulé. | |
6. Création de groupes de disques. |
La création d'un groupe de disques racine est facultative. Si vous n'envisagez pas de créer de groupe de disques racine, passez à la rubrique Installation du logiciel VERITAS Volume Manager.
L’accès au groupe de disques racine d’un nœud est restreint à ce seul nœud.
Les nœuds distants ne doivent jamais accéder aux données stockées dans le groupe de disques racine d’un autre nœud.
N'utilisez pas la commande cldevicegroup pour enregistrer le groupe de disques racine en tant que groupe de périphériques.
Dans la mesure du possible, configurez toujours le groupe de disques racine de chaque nœud sur un disque non partagé.
Le logiciel Sun Cluster prend en charge les méthodes suivantes pour la configuration du groupe de disques racine.
Encapsulation du disque racine du nœud : cette méthode permet de mettre en miroir le disque racine et ainsi de fournir une solution d'initialisation en cas de corruption ou d'endommagement du disque racine. L'encapsulation du disque racine nécessite deux tranches de disque libres ainsi que des cylindres libres, de préférence au début ou à la fin du disque.
Utilisation des disques locaux non-racine : cette méthode peut être utilisée à la place de l'encapsulation du disque racine. Si le disque racine d'un nœud est encapsulé, certaines tâches ultérieures éventuelles, telles que la mise à niveau du système d'exploitation Solaris ou l'accomplissement des procédures de restauration après incident, peuvent s'avérer plus compliquées que si le disque racine n'était pas encapsulé. Pour éviter cette complexité supplémentaire potentielle, vous pouvez initialiser ou encapsuler des disques locaux non racine à utiliser comme groupes de disques racine.
Un groupe de disques racine créé sur des disques locaux non racine est local pour ce noeud. Il n'est pas accessible globalement et n'offre pas un haut niveau de disponibilité. Comme pour le disque racine, l'encapsulation d'un disque non racine nécessite deux tranches de disque libres et des cylindres libres au début ou à la fin du disque.
Pour de plus amples informations, reportez-vous à la documentation d'installation de VxVM.
Cette procédure permet d'installer le logiciel VERITAS Volume Manager (VxVM) sur chaque nœud souhaité. Vous pouvez installer VxVM sur tous les nœuds du cluster ou uniquement sur les nœuds physiquement connectés aux périphériques de stockage que VxVM devra gérer.
Effectuez les tâches suivantes :
Assurez-vous que tous les noeuds du cluster tournent en mode cluster.
Procurez-vous tous les numéros de série VERITAS Volume Manager (VxVM) nécessaires à l'installation.
Tenez à votre disposition la documentation d'installation de VxVM.
Devenez superutilisateur sur le noeud du cluster où vous envisagez d'installer VxVM.
Insérez le CD VxVM dans le lecteur de CD du nœud.
Suivez les procédures de votre guide d'installation de VxVM pour installer et configurer le logiciel VxVM et les licences.
Exécutez l'utilitaire clvxvm en mode non interactif.
phys-schost# clvxvm initialize |
L'utilitaire clvxvm exécute les tâches de post-installation requise. L'utilitaire clvxvm sélectionne et configure également un numéro majeur du pilote vxio pour l'ensemble du cluster. Pour de plus amples informations, reportez-vous à la page du manuel clvxvm(1CL).
SPARC : Pour activer la fonctionnalité de cluster de VxVM, indiquez la clé de licence correspondante, si cela n'a pas déjà été fait.
Pour de plus amples informations sur l'ajout d'une licence, reportez-vous à la documentation d'installation de VxVM.
(Facultatif) Installez l'interface utilisateur graphique de VxVM.
Pour de plus amples informations sur l'installation de l'interface utilisateur graphique de VxVM, reportez-vous à la documentation de VxVM.
Éjectez le CD.
Installez les patchs VxVM pour la prise en charge du logiciel Sun Cluster.
Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la rubrique Patches and Required Firmware Levels du manuel Sun Cluster 3.2 2/08 Release Notes for Solaris OS.
Répétez de l'Étape 1 à l'Étape 8 pour installer VxVM sur des nœuds supplémentaires.
SPARC : Pour activer la fonctionnalité de cluster VxVM, vous devez installer VxVM sur tous les nœuds du cluster.
Si vous n'installez pas VxVM sur d'autres nœuds, modifiez le fichier /etc/name_to_major sur chacun des nœuds non-VxVM.
Sur un noeud installé avec VxVM, déterminez le paramètre du numéro majeur vxio.
phys-schost# grep vxio /etc/name_to_major |
Devenez superutilisateur d'un nœud sur lequel vous ne prévoyez pas d'installer VxVM.
Dans le fichier /etc/name_to_major, ajoutez une entrée pour définir le numéro vxio majeur sur NNN (numéro obtenu à l'Étape a).
phys-schost# vi /etc/name_to_major vxio NNN |
Initialisez l'entrée vxio.
phys-schost# drvconfig -b -i vxio -m NNN |
Répétez l'Étape a à l'Étape d sur tous les nœuds à ne pas installer avec VxVM.
Une fois que vous avez terminé, chaque nœud du cluster doit comporter la même entrée vxio dans son fichier /etc/name_to_major.
Si vous envisagez de créer un groupe de disques racine, reportez-vous à la rubrique SPARC : Encapsulation du disque racine ou Création d'un groupe de disques racine sur un disque non racine.
Dans le cas contraire, passez à l'Étape 12.
Le groupe de disques racine est facultatif.
Réinitialisez chaque nœud sur lequel vous avez installé VxVM.
phys-schost# shutdown -g0 -y -i6 |
Si vous envisagez de créer un groupe de disques racine, reportez-vous à la rubrique SPARC : Encapsulation du disque racine ou Création d'un groupe de disques racine sur un disque non racine.
Vous pouvez également Reportez-vous à la rubrique Création de groupes de disques dans un cluster.
Cette procédure permet d'encapsuler le disque racine et ainsi de créer un groupe de disques racine. Les groupes de disques racine sont facultatifs. Reportez-vous à la documentation VxVM pour plus d'informations.
Si vous voulez créer un groupe de disques racine sur des disques non racine, suivez plutôt les procédures de la section Création d'un groupe de disques racine sur un disque non racine.
Assurez-vous d'avoir installé VxVM conformément aux instructions de la rubrique Installation du logiciel VERITAS Volume Manager.
Devenez superutilisateur d'un nœud hébergeant VxVM.
Encapsulez le disque racine.
phys-schost# clvxvm encapsulate |
Pour de plus amples informations, reportez-vous à la page du manuel clvxvm(1CL).
Répétez la procédure pour les autres nœuds hébergeant VxVM.
Si vous envisagez de mettre en miroir le disque racine encapsulé, reportez-vous à la rubrique mise en miroir du disque racine encapsulé.
Dans le cas contraire, reportez-vous à la rubrique Création de groupes de disques dans un cluster.
Suivez cette procédure pour créer un groupe de disques racine en encapsulant ou en initialisant des disques locaux autres que le disque racine. La création d'un groupe de disques racine est facultative.
Si vous voulez créer un groupe de disques racine sur le disque racine, suivez plutôt les procédures de la rubrique SPARC : Encapsulation du disque racine.
Si les disques doivent être encapsulés, assurez-vous que chaque disque dispose d'au moins deux tranches avec 0 cylindre. Si nécessaire, utilisez la commande format(1M) pour affecter des cylindres 0 à chaque tranche VxVM.
Prenez le rôle de superutilisateur.
Lancez l'utilitaire vxinstall.
phys-schost# vxinstall |
Lorsque vous y êtes invité par l'utilitaire vxinstall, procédez aux choix suivants ou sélectionnez les entrées suivantes.
SPARC : Pour activer la fonctionnalité de cluster de VxVM, indiquez la clé de licence correspondante.
Choisissez l'installation personnalisée.
N'encapsulez pas le disque d'initialisation.
Choisissez les disques que vous souhaitez ajouter au groupe de disques racine.
N'acceptez pas la réinitialisation automatique.
Si le groupe de disques racine créé contient un ou plusieurs disques reliés à plusieurs nœuds, activez la propriété localonly.
Utilisez la commande ci-dessous pour activer la propriété localonly du groupe de périphériques de disques bruts pour chacun des disques partagés du groupe de disques racine.
phys-schost# cldevicegroup set -p localonly=true dsk/dN |
Indique une propriété du groupe de périphériques.
Définit le groupe de périphériques comme étant contrôlé uniquement par le nœud unique de la liste des nœuds.
Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le noeud figurant dans sa liste de noeuds. Cela évite la séparation involontaire entre un nœud et le disque utilisé par le groupe de disques racine si le disque est connecté à plusieurs nœuds.
Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).
Évacuez du nœud tous les groupes de ressources ou les groupes de périphériques.
phys-schost# clnode evacuate from-node |
Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.
Réinitialisez le noeud.
phys-schost# shutdown -g0 -y -i6 |
Utilisez la commande vxdiskadm pour ajouter plusieurs disques au groupe de disques racine.
Le groupe de disques racine tolère les pannes de disque dès lors qu'il contient plusieurs disques. Reportez-vous à la documentation de VxVM pour connaître les procédures.
Créez les groupes de disques. Reportez-vous à la rubrique Création de groupes de disques dans un cluster.
Après avoir installé VxVM et encapsulé le disque racine, exécutez cette procédure sur chaque noeud où le disque racine encapsulé doit être mis en miroir.
Assurez-vous d'avoir encapsulé le disque racine conformément aux instructions de la rubrique SPARC : Encapsulation du disque racine.
Prenez le rôle de superutilisateur.
Dressez la liste des périphériques.
phys-schost# cldevice list -v |
Le résultat sera similaire à ce qui suit.
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 |
Mettez en miroir le disque racine encapsulé.
Suivez les procédures de la documentation VxVM.
Pour obtenir une disponibilité maximale et simplifier l'administration, utilisez un disque local comme miroir. Pour obtenir des directives supplémentaires, reportez-vous à la section Recommandations relatives à la mise en miroir du disque racine.
N'utilisez pas un périphérique de quorum pour mettre en miroir le disque racine. Cela risquerait d'empêcher l'initialisation du nœud à partir du disque racine miroir dans certaines circonstances.
Affichez la liste de nœuds du groupe de périphériques de disques bruts pour le périphérique que vous avez utilisé pour mettre en miroir le disque root.
Le nom du groupe de périphériques est de la forme dsk/dN, où dN correspond au nom du périphérique DID.
phys-schost# cldevicegroup list -v dsk/dN |
Affiche le résultat détaillé.
Le résultat sera similaire à ce qui suit.
Device group Type Node list ------------ ---- --------- dsk/dN Local_Disk phys-schost-1, phys-schost-3 |
Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.
Seul le nœud dont vous avez mis le disque racine en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.
phys-schost# cldevicegroup remove-node -n node dsk/dN |
Indique le nœud à supprimer de la liste des nœuds du groupe de périphériques.
Activez la propriété localonly du groupe de périphériques de disques bruts, si elle ne l'est pas déjà.
Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le noeud figurant dans sa liste de noeuds. Cela évite la séparation involontaire d'un nœud de son périphérique d'initialisation si celui-ci est connecté à plusieurs nœuds.
phys-schost# cldevicegroup set -p localonly=true dsk/dN |
Définit la valeur d'une propriété de groupe de périphériques.
Active la propriété localonly du groupe de périphériques.
Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).
Répétez cette procédure pour chacun des nœuds du cluster dont vous souhaitez mettre en miroir le disque racine encapsulé.
L'exemple présenté ci-dessous illustre la création d'un miroir du disque racine du nœud phys-schost-1. Le miroir est créé sur le disque c0t0d0, dont le groupe de périphériques de disques bruts porte le nom dsk2/d2. Le disque c1t1d0 est multihôte. Pour cette raison, le nœud phys-schost-3 est supprimé de la liste des nœuds du disque et la propriété localonly est activée.
phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- d2 pcircinus1:/dev/rdsk/c0t0d0 … Create the mirror by using VxVM phys-schost# cldevicegroup list -v dsk/d2 Device group Type Node list ------------ ---- --------- dsk/d2 Local_Disk phys-schost-1, phys-schost-3 phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2 phys-schost# cldevicegroup set -p localonly=true dsk/d2 |
Créez les groupes de disques. Reportez-vous à la rubrique Création de groupes de disques dans un cluster.
Cette section permet de créer des groupes de disques VxVM dans un cluster. Le tableau suivant décrit les types de groupes de disques VxVM que vous pouvez configurer dans une configuration Sun Cluster et leurs caractéristiques.
Type de groupe de disques |
Utilisation |
Inscription auprès de Sun Cluster ? |
Exigence de stockage |
---|---|---|---|
Groupe de disques VxVM |
Groupes de périphériques pour le basculement ou services de données évolutifs, périphériques globaux ou systèmes de fichiers du cluster |
Oui |
Stockage partagé |
Groupe de disques locaux VxVM |
Applications à faible disponibilité et confinées à un seul nœud |
Non |
Stockage partagé ou non partagé |
Groupe de disques partagés VxVM |
Oracle RAC (requiert également la fonctionnalité de cluster de VxVM) |
Non |
Stockage partagé |
Dans une configuration Sun Cluster, les tâches de création de groupes de disques VxVM sont répertoriées dans le tableau ci-dessous.
Tableau 5–2 Liste des tâches : création de groupes de disques VxVM
Tâche |
Instructions |
---|---|
1. Création de groupes de disques et de volumes. | |
2. Enregistrement en tant que groupes de périphériques Sun Cluster des groupes de disques non locaux et qui n'utilisent pas la fonctionnalité de cluster de VxVM. | |
3. Si nécessaire, résolution des conflits de codes mineurs entre les groupes de périphériques par l'affectation d'un nouveau code mineur. |
Affectation d'un nouveau code mineur à un groupe de périphériques |
4. Vérification des groupes de disques et des volumes. |
Suivez cette procédure pour créer vos groupes de disques et volumes VxVM.
Exécutez cette procédure depuis un nœud physiquement connecté aux disques composant le groupe de disques à ajouter.
Effectuez les tâches suivantes :
Établissez les mappages de vos périphériques de disques de stockage. Reportez-vous au manuel approprié de la Sun Cluster Hardware Administration Collection pour procéder à l'installation initiale de votre périphérique de stockage.
Renseignez les fiches de planification de la configuration suivantes.
Fiche de travail de configuration des systèmes de fichiers locaux
Fiche de travail relative aux configurations des groupes de périphériques
Fiche de travail relative à la configuration du gestionnaire de volumes
Pour connaître les instructions de planification, reportez-vous à la rubrique Planification de la gestion des volumes.
Si vous n'avez pas créé de groupes de disques racine, vérifiez que vous avez réinitialisé tous les nœuds sur lesquels vous avez installé VxVM, comme indiqué dans l'Étape 12 de la section Installation du logiciel VERITAS Volume Manager.
Devenez superutilisateur du nœud associé au groupe de disques.
Créez les volumes et les groupes de disques VxVM.
Prenez en compte les instructions spéciales suivantes :
SPARC : Si vous installez Oracle RAC, créez des groupes de disques partagés VxVM à l'aide de la fonctionnalité de cluster de VxVM. Suivez les recommandations et les instructions de la rubrique How to Create a VxVM Shared-Disk Group for the Oracle RAC Database du Sun Cluster Data Service for Oracle RAC Guide for Solaris OS et dans le Guide de référence de l'administrateur VERITAS Volume Manager.
Sinon, créez des groupes de disques VxVM en suivant les procédures standard de la documentation de VxVM.
Vous pouvez utiliser DRL (Dirty Region Logging) pour réduire le temps de récupération des volumes en cas d'échec d'un nœud. Cependant, ce système risque de réduire le débit d'E/S.
Pour les groupes de disques locaux, définissez la propriété localonly et ajoutez un nœud unique à la liste des nœuds du groupe de disques.
Un groupe de disques configuré pour être local uniquement n'a pas une disponibilité élevée et n'est pas accessible globalement.
Lancez l'utilitaire clsetup.
phys-schost# clsetup |
Choisissez l'option de menu sur les groupes et les volumes de périphériques.
Choisissez l'élément de menu sur la définition de localonly sur un groupe de disques VxVM.
Suivez les instructions pour définir la propriété localonly et indiquer le nœud unique qui contrôle de manière exclusive le groupe de disques.
Un seul nœud à la fois est autorisé à contrôler le groupe de disques. Vous pouvez ultérieurement modifier le nœud correspondant au maître configuré.
Une fois l'opération terminée, quittez l'utilitaire clsetup.
Déterminez l'étape suivante :
SPARC : Si la fonctionnalité de cluster de VxVM est activée, rendez-vous à la section Vérification de la configuration d'un groupe de disques.
Si vous avez créé des groupes de disques qui ne sont pas locaux et que la fonctionnalité de cluster de VxVM n'est pas activée, enregistrez les groupes de disques en tant que groupes de périphériques Sun Cluster. Rendez-vous à la section Procédure d'enregistrement d'un groupe de disques.
Si vous avez créé uniquement des groupes de disques locaux, rendez-vous à la section Vérification de la configuration d'un groupe de disques.
Si la fonctionnalité de cluster de VxVM n'est pas activée, effectuez cette procédure pour enregistrer les groupes de disques qui ne sont pas locaux en tant que groupes de périphériques Sun Cluster.
SPARC : Si la fonctionnalité de cluster de VxVM est activée ou si vous avez créé un groupe de disques locaux, n'effectuez pas cette procédure. Pour continuer, passez à la rubrique Vérification de la configuration d'un groupe de disques.
Devenez superutilisateur sur un noeud du cluster.
Enregistrez le groupe de disques global en tant que groupe de périphériques Sun Cluster.
Lancez l'utilitaire clsetup.
phys-schost# clsetup |
Choisissez l'option de menu sur les groupes et les volumes de périphériques.
Choisissez l'option de menu sur l'enregistrement d'un groupe de disques VxVM.
Suivez les instructions pour indiquer le groupe de disques VxVM à enregistrer comme groupe de périphériques Sun Cluster.
Une fois l'opération terminée, quittez l'utilitaire clsetup.
Retirez et ré-importez chaque groupe de disques local.
phys-schost# vxdg deport diskgroup # vxdg import dg |
Re-démarrez chaque groupe de disques local.
phys-schost# vxvol -g diskgroup startall |
Vérifiez le statut exclusivement local de chaque groupe de disques.
Si la valeur de la propriété d'indicateurs du groupe de disques est nogdl, le groupe de disque est correctement configuré pour un accès local uniquement.
phys-schost# vxdg list diskgroup | grep flags flags: nogdl |
Vérifiez que le groupe de périphériques est enregistré.
Consultez les informations de périphérique de disques concernant le nouveau disque, affichées à l'aide de la commande suivante.
phys-schost# cldevicegroup status |
Reportez-vous à la rubrique Vérification de la configuration d'un groupe de disques.
dépassement de capacité de la pile – Si une pile dépasse sa capacité lorsque le groupe de périphériques passe en ligne, la valeur par défaut de la pile de thread peut s'avérer insuffisante. Sur chaque nœud, ajoutez l'entrée set cl_haci:rm_thread_stacksize=0xsize au fichier /etc/system, où size correspond à un nombre supérieur à 8000 (paramètre par défaut).
modifications de la configuration – Si vous modifiez les informations de configuration pour un groupe de périphériques VxVM ou ses volumes, vous devez enregistrer les modifications de la configuration à l'aide de l'utilitaire clsetup. Les modifications de la configuration que vous devez enregistrer comprennent l'ajout ou la suppression de volumes, ainsi que le changement de groupe, de propriétaire ou de permissions des volumes existants. Reportez-vous à la section Administering Device Groups du Sun Cluster System Administration Guide for Solaris OS pour connaître les procédures d'enregistrement des changements de configuration apportés à un groupe de périphériques VxVM.
Si l'enregistrement d'un groupe de périphériques échoue parce qu'un code mineur entre en conflit avec celui d'un autre groupe de disques, vous devez attribuer au nouveau groupe de disques un nouveau code mineur inutilisé. Exécutez cette procédure pour affecter un nouveau code mineur à un groupe de disques.
Devenez superutilisateur sur un noeud du cluster.
Déterminez les codes mineurs utilisés.
phys-schost# ls -l /global/.devices/node@1/dev/vx/dsk/* |
Choisissez n'importe quel autre multiple de 1000 non utilisé comme code mineur de base pour le nouveau groupe de disques.
Affectez ce nouveau code mineur de base au groupe de disques.
phys-schost# vxdg reminor diskgroup base-minor-number |
Dans cet exemple, les codes mineurs 16000 à 16002 et 4000 à 4001 sont utilisés. La commande vxdg reminor affecte un nouveau code mineur au nouveau groupe de périphériques pour utiliser le code mineur de base (5000).
phys-schost# ls -l /global/.devices/node@1/dev/vx/dsk/* /global/.devices/node@1/dev/vx/dsk/dg1 brw------- 1 root root 56,16000 Oct 7 11:32 dg1v1 brw------- 1 root root 56,16001 Oct 7 11:32 dg1v2 brw------- 1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/node@1/dev/vx/dsk/dg2 brw------- 1 root root 56,4000 Oct 7 11:32 dg2v1 brw------- 1 root root 56,4001 Oct 7 11:32 dg2v2 phys-schost# vxdg reminor dg3 5000 |
Enregistrez le groupe de disques en tant que groupe de périphériques Sun Cluster. Rendez-vous à la section Procédure d'enregistrement d'un groupe de disques.
Exécutez-la sur chaque noeud du cluster.
Prenez le rôle de superutilisateur.
Dressez la liste des groupes de disques.
phys-schost# vxdisk list |
Dressez la liste des groupes de périphériques.
phys-schost# cldevicegroup list -v |
Vérifiez que tous les groupes de disques sont correctement configurés.
Vérifiez que les conditions indiquées ci-après sont respectées :
Le groupe de disques racine inclut uniquement les disques locaux.
Tous les groupes de disques et les groupes de disques locaux sont importés sur le nœud principal actuel uniquement.
Assurez-vous que tous les volumes ont été lancés.
phys-schost# vxprint |
Vérifiez que tous les groupes de disques ont été enregistrés en tant que groupes de périphériques Sun Cluster et sont en ligne.
phys-schost# cldevicegroup status |
Le résultat ne doit présenter aucun groupe de disques local.
(Facultatif) Capturez les informations de partitionnement du disque pour toute référence ultérieure.
phys-schost# prtvtoc /dev/rdsk/cNtXdYsZ > filename |
Stockez le fichier dans un emplacement extérieur au cluster. Si vous modifiez la configuration du disque, exécutez de nouveau cette commande pour capturer la configuration modifiée. Si un disque est en panne et doit être remplacé, vous pouvez utiliser ces informations pour restaurer la configuration de la partition du disque. Pour de plus amples informations, reportez-vous à la page de manuel prtvtoc(1M).
(Facultatif) Procédez à la sauvegarde de votre configuration. Si vous effectuez une sauvegarde archivée de votre configuration de cluster, vous pourrez la récupérer plus facilement en cas de problème. Pour plus d'informations, reportez-vous à la section How to Back Up the Cluster Configuration du Sun Cluster System Administration Guide for Solaris OS.
Prenez en compte les directives suivantes pour l'administration des groupes de disques VxVM dans une configuration Sun Cluster :
groupes de périphériques VxVM - Les groupes de disques VxVM qui ont été enregistrés en tant que groupes de périphériques sont gérés par le logiciel Sun Cluster. Lorsqu'un groupe de disques est enregistré en tant que groupe de périphériques, vous ne devez jamais importer ou déplacer ce groupe de disques VxVM à l'aide des commandes VxVM. Le logiciel Sun Cluster peut traiter tous les cas dans lesquels les groupes de périphériques doivent être importés ou retirés. Reportez-vous à la rubrique Administering Device Groups du Sun Cluster System Administration Guide for Solaris OS pour connaître les procédures de gestion des groupes de périphériques.
Groupes de disques locaux : les groupes de disques VxVM locaux ne sont pas gérés par le logiciel Sun Cluster. Utilisez les commandes VxVM pour administrer les groupes de disques locaux de la même façon que dans un système utilisant une autre forme que le cluster.
Si la sortie de la commande cldevicegroup status comprend des groupes de disques locaux, les groupes de disques affichés ne sont pas configurés correctement pour l'accès local uniquement. Retournez à la section Procédure de création d'un groupe de disques pour reconfigurer le groupe de disques local.
Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.
Pour créer des fichiers de système de cluster, reportez-vous à la rubrique Création de systèmes de fichiers de cluster.
Pour créer des zones non globales sur un nœud, reportez-vous à la rubrique Création d'une zone non globale sur un nœud de cluster.
SPARC : pour surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center.
Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application, ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Cette rubrique décrit la procédure d'annulation de l'encapsulation du disque racine dans une configuration Sun Cluster.
Exécutez cette procédure pour annuler l'encapsulation du disque racine.
Effectuez les tâches suivantes :
Assurez-vous que seuls les systèmes de fichiers racine Solaris se trouvent sur le disque racine. Les systèmes de fichiers racine Solaris sont (/) racine, swap, et les espaces de noms de périphériques globaux, /usr, /var, /opt, et /home.
Sauvegardez les systèmes de fichiers autres que ceux de Solaris et supprimez-les du disque racine.
Devenez superutilisateur sur le noeud dont vous voulez annuler l'encapsulation.
Évacuez tous les groupes de ressources et groupes de périphériques du nœud.
phys-schost# clnode evacuate from-node |
Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.
phys-schost# clinfo -n |
Démontez les systèmes de fichiers de périphériques globaux de ce nœud (N représente l'ID nœud renvoyé lors de l'Étape 3).
phys-schost# umount /global/.devices/node@N |
Consultez le fichier /etc/vfstab et déterminez quel volume VxVM correspond au système de fichiers de périphériques globaux.
phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated #partition cNtXdYsZ |
Retirez du groupe de disques racine le volume VxVM correspondant au système de fichiers de périphériques globaux.
phys-schost# vxedit -g rootdiskgroup -rf rm rootdiskxNvol |
Ne stockez pas de données autres que les entrées de périphériques globaux sur le système de fichiers de périphériques globaux. Toutes les données du système de fichiers de périphériques globaux sont détruites avec la suppression du volume VxVM. Seules les données relatives aux entrées de périphériques globaux sont restaurées après la désencapsulation du disque racine.
Annulez l'encapsulation du disque racine.
n'autorisez pas la demande de fermeture de la commande.
phys-schost# /etc/vx/bin/vxunroot |
Reportez-vous à la documentation de VxVM pour de plus amples informations.
Exécutez la commande format(1M) pour ajouter la partition de 512 Mo au disque racine, à utiliser pour le système de fichiers de périphériques globaux.
Utilisez la même tranche que celle qui avait été allouée au système de fichiers de périphériques globaux avant l'encapsulation du disque racine, comme spécifié dans le fichier /etc/vfstab.
Installez un système de fichiers sur la partition créée à l'Étape 8.
phys-schost# newfs /dev/rdsk/cNtXdYsZ |
Déterminez le nom IDP du disque racine.
phys-schost# cldevice list cNtXdY dN |
Dans le fichier /etc/vfstab, remplacez le nom de chemin de l'entrée du système de fichiers de périphériques globaux par le chemin IDP déterminé à l'Étape 10.
L'entrée d'origine devrait s'apparenter à celle-ci.
phys-schost# vi /etc/vfstab /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs 2 no global |
L'entrée modifiée avec le chemin IDP devrait ressembler à ceci :
/dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2 no global |
Montez le système de fichiers global-devices.
phys-schost# mount /global/.devices/node@N |
À partir d'un nœud du cluster, rétablissez dans le système de fichiers de périphériques globaux, les nœuds de tous les périphériques Solaris Volume Manager et périphériques de disques bruts.
phys-schost# cldevice populate |
Les périphériques VxVM sont récréés pendant la réinitialisation.
Sur chaque nœud, vérifiez que la commande cldevice populate s'est exécutée convenablement avant de passer à l'étape suivante.
La commande cldevice populate est exécutée à distance sur tous les nœuds, bien que la commande soit émise depuis un seul nœud. Pour savoir si la commande cldevice populate s'est exécutée convenablement, exécutez la commande suivante sur chaque nœud du cluster.
phys-schost# ps -ef | grep scgdevs |
Réinitialisez le noeud.
phys-schost# shutdown -g0 -y -i6 |
Répétez cette procédure sur chaque nœud du cluster pour y annuler l'encapsulation du disque racine.