Ce chapitre décrit les procédures d'administration de périphériques globaux, du contrôle de chemin de disques et de systèmes de fichiers de cluster.
Les procédures décrites dans ce chapitre sont les suivantes :
Suppression d'un nœud de tous les groupes de périphériques de disques
Création de plus de trois ensembles de disques dans un cluster
SPARC: Configuration du nombre souhaité de nœuds secondaires (VERITAS Volume Manager)
SPARC: Suppression d'un volume d'un groupe de périphériques de disques (VERITAS Volume Manager)
SPARC: ajout d'un nœud à un groupe de périphériques de disques (VERITAS Volume Manager)
SPARC: suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager)
SPARC: suppression d'un nœud d'un groupe de périphériques de disques bruts
Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques
Affichage de la configuration d'un groupe de périphériques de disques
Changement de nœud principal pour un groupe de périphériques
Mise à l'état de maintenance d'un groupe de périphériques de disques
Pour obtenir une description de haut niveau des procédures connexes décrites dans ce chapitre, reportez-vous au Tableau 4–2.
Pour obtenir des informations conceptuelles relatives aux périphériques globaux, aux espaces de noms globaux, aux groupes de périphériques globaux, au contrôle de chemins de disques et au système de fichiers de cluster, reportez-vous au Guide des notions fondamentales de Sun Cluster pour SE Solaris.
L'administration des groupes de périphériques de disques Sun Cluster dépend du gestionnaire de volumes installé sur le cluster. Solstice DiskSuite/Solaris Volume Manager reconnaît les clusters, il vous suffit donc d'ajouter, d'enregistrer et de supprimer des groupes de périphériques de disques à l'aide de la commande metaset(1M) de Solstice DiskSuite/Solaris Volume Manager. Si vous utilisez VERITAS Volume Manager (VxVM), vous créez des groupes de disques à l'aide des commandes VxVM. Vous pouvez ensuite enregistrer ces groupes en tant que groupes de périphériques de disques Sun Cluster à l'aide de l'utilitaire scsetup(1M). Pour supprimer des groupes de périphériques de disques VxVM, vous utiliserez les commandes scsetup et VxVM.
Le logiciel Sun Cluster crée automatiquement dans le cluster un groupe de périphériques de disques bruts pour chaque disque, ainsi qu'un lecteur de bande. Les groupes de périphériques de cluster restent à l'état hors ligne tant que vous ne les utilisez pas comme périphériques globaux. Lorsque vous administrez des groupes de périphériques de disques ou des groupes de disques du gestionnaire de volumes, vous devez vous trouver sur le nœud du cluster correspondant au nœud principal du groupe en question.
Normalement, vous n'avez pas besoin d'administrer l'espace de noms du périphérique global. L'espace de noms global est automatiquement configuré au cours de l'installation et mis à jour automatiquement pendant la réinitialisation du système d'exploitation Solaris. Cependant, si l'espace de noms global doit être mis à jour, vous pouvez exécuter la commande scgdevs (1M) à partir de n'importe quel nœud de cluster. Via cette commande, l'espace de noms global est alors mis à jour sur tous les autres nœuds du cluster, ainsi que sur les nœuds susceptibles de s'ajouter au cluster par la suite.
Les modifications apportées aux autorisations sur les périphériques globaux ne sont pas automatiquement diffusées vers tous les nœuds du cluster pour Solstice DiskSuite/Solaris Volume Manager et pour les périphériques de disques. Si vous souhaitez modifier ces autorisations, vous devez le faire manuellement sur tous les nœuds du cluster. Si, par exemple, vous souhaitez modifier les autorisations sur le périphérique global /dev/global/dsk/d3s0 pour les définir sur 644, vous devez exécuter
# chmod 644 /dev/global/dsk/d3s0
sur tous les nœuds du cluster.
VxVM ne prend pas en charge la commande chmod. Pour modifier les autorisations sur les périphériques globaux dans VxVM, reportez-vous au manuel de l'administrateur VxVM.
Voici les points à prendre en considération dans le cadre d'une reconfiguration dynamique (DR) de périphériques de disques et de bande dans un cluster.
Toutes les exigences, procédures et restrictions qui sont documentées pour la fonction Solaris DR s'appliquent également au support DR de Sun Cluster. La seule exception s'applique aux opérations de quiescence de l'environnement d'exploitation. Reportez-vous donc à la documentation relative à la DR de Solaris avant d'utiliser la fonction DR du logiciel Sun Cluster. Relisez surtout les conditions applicables aux périphériques ES hors réseau dans le cadre d'une opération DR de détachement.
Sun Cluster rejette les opérations de suppression de carte DR sur les périphériques actifs dans le nœud principal. Les opérations DR peuvent être appliquées à des périphériques inactifs du nœud principal, ainsi qu'à l'ensemble des périphériques des nœuds secondaires.
Après l'opération DR, l'accès aux données de cluster se poursuit comme auparavant.
Sun Cluster rejette les opérations DR ayant un impact sur la disponibilité des périphériques de quorum. Pour de plus amples informations, reportez-vous à la rubriqueReconfiguration dynamique avec périphériques de quorum.
tout échec sur le nœud principal, alors que vous effectuez une opération DR sur un nœud secondaire, a une incidence sur la disponibilité du cluster. Le nœud principal ne pourra pas effectuer de reprise sur panne tant qu'un nouveau nœud secondaire n'est pas disponible.
Procédez comme suit, en respectant l'ordre des étapes, pour effectuer des opérations DR sur des périphériques globaux.
Tableau 4–1 Plan des tâches : reconfiguration dynamique avec des périphériques de disques et de bande
Tâche |
Instructions |
---|---|
1. Pour effectuer sur le nœud principal une opération DR risquant d'avoir une incidence sur un groupe de périphériques actif, désactivez au préalable le nœud principal et les nœuds secondaires. |
Changement de nœud principal pour un groupe de périphériques |
2. Effectuez l'opération DR de suppression sur le périphérique que vous souhaitez supprimer. |
Sun Enterprise 10000 DR Configuration Guide et le Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual dans les collections Solaris 8 on Sun Hardware et Solaris 9 on Sun Hardware. |
Pour que Sun Cluster mette correctement à jour l'espace de noms VxVM, vous devez enregistrer les modifications apportées à un groupe de périphériques de disques ou à un volume VxVM à mesure que la configuration du groupe de périphériques de disques Sun Cluster change. La mise à jour de l'espace de noms sur tous les nœuds de cluster est ainsi assurée. Les modifications de configuration ayant une incidence sur l'espace de noms comprennent l'ajout, la suppression ou le changement de nom d'un volume. La modification des autorisations de volume, le propriétaire ou l'identificateur du groupe a également une incidence sur l'espace de noms.
ne procédez à l'importation ou au déplacement de groupes de disques de VxVM à l'aide des commandes de VxVM qu'une fois le groupe de disques enregistré dans le cluster comme groupe de périphériques de disques Sun Cluster. Le logiciel Sun Cluster gère toutes les situations nécessitant l'importation ou la déportation de groupes de disques.
Chaque groupe de disques VxVM doit posséder un code mineur unique sur tout le cluster. Par défaut, lorsqu'un groupe de disques est créé, VxVM choisit comme code mineur de base du groupe un nombre aléatoire, multiple de mille. Pour la plupart des configurations comprenant un petit nombre de groupes de disques, cela suffit à garantir l'unicité du code. Le code mineur pour un groupe de disques nouvellement créé peut entrer en conflit avec le code mineur d'un groupe de disques préexistant ayant été importé sur un nœud différent. Dans ce cas, il sera impossible d'enregistrer le groupe de périphériques de disques Sun Cluster . Pour résoudre ce problème, il faut attribuer au nouveau groupe de disques un nouveau code mineur unique, puis l'enregistrer en tant que groupe de périphériques de disques Sun Cluster.
Si vous configurez un volume en miroir, vous pouvez utiliser le système DRL (Dirty Region Logging) pour réduire le délai de récupération du volume en cas de panne d'un nœud. Il est fortement recommandé d'utiliser ce système, même s'il risque de diminuer le débit d'E/S.
VxVM ne prend pas en charge la commande chmod. Pour modifier les autorisations sur les périphériques globaux dans VxVM, reportez-vous au manuel de l'administrateur VxVM .
Le logiciel Sun Cluster 3.1 4/04 ne prend pas en charge la fonction de multi-chemin dynamique VxVM (DMP) qui permet de gérer plusieurs chemins à partir du même nœud.
Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server or Oracle Real Application Clusters, utilisez la fonction VxVM du cluster décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager. La création de groupes de disques partagés pour Oracle Parallel Server or Oracle Real Application Clusters et la création d'autres groupes de disques s'effectuent différemment. Vous devez importer les groupes de disques partagés d'Oracle Parallel Server or Oracle Real Application Clusters à l'aide de la commande vxdg -s. Vous n'êtes pas tenu d'enregistrer les groupes de disques partagés d'Oracle Parallel Server or Oracle Real Application Clusters au sein de la structure du cluster. Pour créer d'autres disques de groupes VxVM, consultez la rubrique SPARC: Création d'un nouveau groupe de disques lors de l'initialisation des disques (VERITAS Volume Manager).
Aucune commande spéciale de Sun Cluster n'est nécessaire à l'administration des systèmes de fichiers de cluster. Vous administrez un système de fichiers de grappe exactement de la même façon que n'importe quel autre système de fichiers Solaris, à l'aide des commandes standard Solaris, telles que mount, newfs, etc. Pour monter des systèmes de fichiers de cluster, indiquez l'option -g à la suite de la commande mount. Les systèmes de fichiers de cluster peuvent également être montés automatiquement au moment de l'initialisation.
un système de fichiers de cluster qui lit des fichiers ne procède pas à la mise à jour de l'horaire d'accès à ces fichiers.
Les restrictions suivantes s'appliquent à l'administration du système de fichiers de cluster :
La commande umount -f se comporte exactement de la même façon que la commande umount sans l'option -f. Elle ne prend pas en charge les démontages forcés.
Seuls les répertoires vides prennent en charge la commande unlink(1M).
La commande lockfs -d n'est pas prise en charge. Utilisez lockfs -n à la place.
Il est impossible de remonter un système de fichiers en utilisant l'option de montage directio.
Vous ne pouvez pas définir l'option de montage directio sur un seul fichier au moyen de l'ioctl directio.
Le système de fichiers de cluster Sun Cluster 3.1 ne prend pas en charge les fonctions VxFS suivantes : Elles sont cependant prises en charge sur les systèmes de fichiers locaux.
E/S rapide ;
instantanés ;
points de contrôle du stockage ;
options de montage VxFS spécifiques :
convosync (Convertir O_SYNC) ;
mincache ;
qlog, delaylog, tmplog ;
système de fichiers de cluster VERITAS (requiert VxVM fonction de cluster & VERITAS Cluster Server)
Les avis de cache peuvent être utilisés, mais ils ne s'appliquent qu'au noeud sélectionné.
Toutes les autres fonctions et options VxFS prises en charge dans un système de fichiers de cluster sont également prises en charge par le logiciel Sun Cluster 3.1. Veuillez vous reporter à la documentation VxFS pour obtenir des détails sur les options VxFS qui sont prises en charge dans une configuration de cluster.
Les directives suivantes, relatives à l'utilisation de VxFS pour la création de systèmes de fichiers de cluster à haut niveau de disponibilité, s'appliquent essentiellement à une configuration Sun Cluster 3.1 4/04.
Suivez les procédures de la documentation VxFS pour créer un système de fichiers VxFS.
Montez et démontez un système de fichiers VxFS à partir du nœud principal. Le nœud principal maîtrise le disque sur lequel le système de fichiers VxFS réside. Tout montage ou démontage d'un système de fichiers VxFS à partir d'un nœud secondaire risque d'échouer.
Exécutez toujours les commandes d'administration de VxFS à partir du nœud principal du système de fichiers de cluster VxFS.
Les directives suivantes, relatives à l'administration des systèmes de fichiers de cluster VxFS, ne sont pas spécifiques au logiciel Sun Cluster 3.1 4/04. Ces directives diffèrent toutefois des procédures d'administration des systèmes de fichiers de cluster UFS.
Vous pouvez administrer des fichiers sur un système de fichiers VxFS à partir de n'importe quel nœud du cluster. ioctls constitue une exception: vous ne devez l' émettre qu'à partir du nœud principal. Si vous ne savez pas si la commande d'administration utilise ioctls, exécutez-la toujours à partir du nœud principal.
Lorsqu'un système de fichiers de cluster VxFS procède à un basculement sur un nœud secondaire, toutes les opérations standard d'appel du système, en cours au moment de la panne, sont ré-exécutées en toute transparence sur le nouveau nœud principal. Cependant, toute opération qui impliquerait la commande ioctl, en cours au moment de la panne, échoue. Vérifiez l'état du système de fichiers du cluster VxFS après chaque basculement. Certaines commandes administratives exécutées sur l'ancien nœud principal avant le basculement nécessitent parfois des mesures correctives. Pour de plus amples informations, reportez-vous à la documentation de VxFS .
L'utilitaire scsetup( 1M) est une interface interactive pour la commande scconf(1M). scsetup génère les commandes scconf. Les commandes générées sont présentées dans les exemples proposés après certaines procédures.
le logiciel Sun Cluster crée automatiquement dans le cluster un groupe de périphériques de disques bruts pour chaque disque, ainsi qu'un lecteur de bande. Les groupes de périphériques de cluster restent à l'état hors ligne tant que vous ne les utilisez pas comme périphériques globaux.
Tâche |
Pour les instructions, voir... |
---|---|
Mise à jour de l'espace de noms de périphériques globaux sans réinitialisation de reconfiguration  - Utilisez scgdevs( 1M) | |
Ajout et enregistrement de disques Solstice DiskSuite/Solaris Volume Manager en tant que groupes de périphériques de disques  - Utilisez metaset( 1M) | |
Suppression des groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager de la configuration - Utilisez metaset et metaclear( 1M) | |
Suppression d'un nœud de tous les groupes de périphériques de disques - Utilisez scconf, metaset et scsetup |
Suppression d'un nœud de tous les groupes de périphériques de disques |
Suppression d'un nœud d'un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager - Utilisez metaset | |
SPARC : ajout des groupes de disques VERITAS Volume Manager comme groupes de périphériques de disques - Utilisez les commandes de VxVM et scsetup( 1M) |
|
SPARC : suppression des groupes de périphériques de disques VERITAS Volume Manager de la configuration - Utilisez scsetup (pour générer scconf) |
SPARC: Suppression d'un volume d'un groupe de périphériques de disques (VERITAS Volume Manager)
|
SPARC : ajout d'un nœud à un groupe de périphériques de disques VERITAS Volume Manager - Utilisez scsetup pour générer scconf |
SPARC: ajout d'un nœud à un groupe de périphériques de disques (VERITAS Volume Manager) |
SPARC : suppression d'un nœud d'un groupe de périphériques de disques VERITAS Volume Manager - Utilisez scsetup pour générer scconf |
SPARC: suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager) |
Suppression d'un nœud d'un groupe de périphériques de disques bruts - Utilisez scconf(1M) |
SPARC: suppression d'un nœud d'un groupe de périphériques de disques bruts |
Modification des propriétés de groupes de périphériques de disques - Utilisez scsetup pour générer scconf | |
Affichage des groupes et des propriétés des périphériques de disques  - Utilisez scconf |
Affichage de la configuration d'un groupe de périphériques de disques |
Modification du nombre de nœuds secondaires souhaités pour un groupe de périphériques - Utilisez scsetup pour générer scconf |
Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques |
Changement de nœud principal d'un groupe de périphériques de disques - Utilisez scswitch(1M) |
Changement de nœud principal pour un groupe de périphériques |
Mise à l'état de maintenance d'un groupe de périphériques de disques - Utilisez metaset ou vxdg |
Mise à l'état de maintenance d'un groupe de périphériques de disques |
Lors de l'ajout d'un nouveau périphérique global, mettez à jour manuellement l'espace de noms du périphérique global en exécutant scgdevs(1M).
la commande scgdevs n'a aucune incidence si le nœud qui l'exécute n'est pas actuellement membre du cluster. De même, la commande n'a aucun effet si le système de fichiers /global/.devices/node@ id_nœud n'est pas monté.
Devenez superutilisateur sur un nœud du cluster.
Utilisez la commande scgdevs pour reconfigurer l'espace de noms.
# scgdevs |
L'exemple suivant illustre l'affichage type généré par l'exécution réussie de scgdevs.
# scgdevs Configuration du répertoire /dev/global (périphériques globaux)... obtention de l'accès à tous les disques connectés sortie correcte du programme de réservation |
Utilisez la commande metaset(1M) pour créer un jeu de disques Solstice DiskSuite/Solaris Volume Manager et enregistrez-le en tant que groupe de périphériques de disques Sun Cluster. Lorsque vous enregistrez le jeu de disques, le nom que vous lui avez donné est automatiquement affecté au groupe de périphériques de disques.
Devenez superutilisateur sur le nœud connecté aux disques sur lesquels vous souhaitez créer le jeu de disques.
Calculez le nombre de noms de métapériphériques Solstice DiskSuite ou de volumes Solaris Volume Manager dont vous aurez besoin pour votre configuration, et modifiez le fichier /kernel/drv/md.conf sur chaque nœud.
Voir “Définition du nombre de noms de métapériphériques ou de noms de volume et de jeux de disques” dans le Guide d'installation du logiciel Sun Cluster pour SE Solaris.
Utilisez la commande metaset(1M) pour ajouter l'ensemble de disques Solstice DiskSuite/Solaris Volume Manager et l'enregistrer comme groupe de périphériques de disques dans Sun Cluster. Pour créer un groupe de disques multipropriétaire, utilisez l'option –M.
# metaset -s ensemble_disques - a -h liste_nœuds |
Spécifie l'ensemble de disques à créer.
Ajoute la liste des nœuds capables de servir de maîtres à l'ensemble de disques.
Désigne le groupe de disques comme multipropriétaire.
l'exécution de la commande metaset pour configurer un groupe de périphériques de Solstice DiskSuite/Solaris Volume Manager sur un cluster crée un secondaire par défaut, quel que soit le nombre de nœuds inclus dans ce groupe de périphériques. Vous pouvez modifier le nombre souhaité de nœuds secondaires à l'aide de l'utilitaire scsetup(1M) après que le groupe de périphériques a été créé. Pour de plus amples informations sur les basculements de disques, veuillez consulter Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques.
Vérifiez que le groupe de périphériques de disques a bien été ajouté.
Le nom du groupe de périphériques de disques correspond au nom de l'ensemble de disques spécifié avec la commande metaset.
# scconf -p | grep groupe_périphériques_disques |
L'exemple ci-après illustre la création d'un jeu de disques et d'un groupe de périphériques de disques et la vérification que ce dernier a été créé correctement.
# metaset -s dg-schost-1 -a -h phys-schost-1 # scconf -p | grep dg-schost-1 Nom du groupe de périphériques : dg-schost-1 |
Les groupes de périphériques de disques sont des ensembles de disques Solstice DiskSuite/Solaris Volume Manager ayant été enregistrés avec Sun Cluster. Pour supprimer un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager , utilisez les commandes metaclear et metaset. Ces commandes suppriment le groupe de périphériques de disques portant le nom indiqué et annulent l'enregistrement du groupe de disques comme groupe de périphériques de disques Sun Cluster.
Reportez-vous à la documentation de Solstice DiskSuite/Solaris Volume Manager pour connaître la procédure à suivre pour supprimer un ensemble de disques.
Cette procédure permet de supprimer un nœud de cluster de tous les groupes de périphériques de disques répertoriant le nœud dans leurs listes de nœuds principaux potentiels.
Devenez superutilisateur sur le nœud que vous souhaitez retirer comme nœud principal potentiel de tous les groupes de périphériques de disques.
Déterminez le(s) groupe(s) de périphériques de disques dont le nœud à supprimer est membre.
Recherchez le nom du nœud dans la liste Liste des nœuds du groupe de périphériques pour chaque groupe de périphériques de disques.
# scconf -p | grep ¨Device group" |
Certains des groupes de périphériques de disques sont-ils identifiés à l'Étape 2 du type de groupe de périphériques SDS/SVM ?
Si oui, exécutez les procédures décrites dans Suppression d'un nœud d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager).
Si ce n'est pas le cas, allez directement à l'Étape 4.
Certains des groupes de périphériques de disques sont-ils identifiés dans l'Étape 2 du type de groupe de périphériques VXVM ?
Si oui, exécutez les procédures décrites dans SPARC: suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager).
Si ce n'est pas le cas, allez directement à l'Étape 5.
Déterminez le(s) groupe(s) de périphériques de disques bruts dont fait partie le nœud à supprimer.
Remarquez que la commande suivante contient deux “v”s dans -pvv. Le deuxième “v” est nécessaire à l'affichage des groupes de périphériques de disques bruts.
# scconf -pvv | grep ¨Groupe de périphériques¨ |
Certains des groupes de périphériques de disques apparaissent-ils à l' Étape 5 des types de groupe de périphériques Disk, Local_Disk, ou dans les deux ?
Si oui, exécutez les procédures décrites dans SPARC: suppression d'un nœud d'un groupe de périphériques de disques bruts.
Si ce n'est pas le cas, allez directement à l'Étape 7.
Vérifiez que le nœud a bien été retiré de la liste de nœuds principaux potentiels de tous les groupes de périphériques de disques.
La commande ne produit aucun retour si le nœud n'est plus inscrit comme primaire potentiel d'un groupe de périphériques de disques.
# scconf -pvv | grep ¨Groupe de périphériques¨ | grep nom_nœud |
Utilisez cette procédure pour supprimer un nœud de cluster d'une liste de nœuds principaux potentiels d'un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager. Répétez la commande metaset pour chaque groupe de périphériques de disques duquel vous voulez supprimer le nœud.
Assurez-vous que le nœud fait encore partie du groupe et que le groupe est un groupe de périphériques SDS/SVM.
Le type de groupe de périphériques SDS/SVM indique un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager.
phys-schost-1% scconf -pv | grep '(global-galileo)' (global-galileo) Type de groupe : SDS/SVM (global-galileo) Rétablissement du groupe de périphérique activé : no (global-galileo) Liste des nœuds du groupe de périphériques : phys-schost-1, phys-schost-2 (global-galileo) Nom du jeu de disques : global-galileo phys-schost-1% |
Déterminez quel nœud est actuellement le nœud principal pour le groupe de périphériques.
# scstat -D |
Devenez superutilisateur sur le nœud possédant actuellement le groupe de périphériques de disques à modifier.
Dans le groupe de périphériques de disques, supprimez le nom d'hôte du nœud.
# metaset -s nom_ensemble -d -h liste_nœuds |
Indique le nom du groupe de périphériques de disques.
Supprime du groupe de périphériques de disques les nœuds identifiés par -h.
Supprime de la liste des nœuds le nœud susceptible d'agir en tant que maître du groupe de périphériques de disques
la mise à jour peut prendre quelques minutes.
Si la commande échoue, ajoutez l'option -f (Force) à la commande.
# metaset -s nom_ensemble -d -f -h liste_nœuds |
Répétez l'Étape 4 pour chaque groupe de périphériques de disques dont le nœud est supprimé en tant que nœud principal potentiel.
Vérifiez que le nœud a bien été supprimé du groupe de périphériques de disques.
Le nom du groupe de périphériques de disques correspond au nom de l'ensemble de disques spécifié avec la commande metaset.
phys-schost-1% scconf -pv |grep Liste des nœuds du groupe de périphériques : phys-schost-1, phys-schost-2, phys-schost-1% |
L'exemple suivant illustre la suppression du nom d'hôte phys-schost-2 d'une configuration de groupe de périphériques de disques. Cette exemple élimine phys-schost-2 comme nœud principal potentiel pour le groupe de périphériques de disques désigné. Vérifiez la suppression du nœud en exécutant la commande scstat - D. Assurez-vous que le nœud supprimé n'est plus affiché sur le texte de l'écran.
[Déterminez le groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager (2) pour le nœud :] # scconf -pv | grep Device Nom du groupe de périphériques : dg-schost-1 Type de groupe de périphériques : SDS/SVM Rétablissement du groupe de périphériques activé : no Liste des nœuds du groupe de périphérique : phys-schost-1, phys-schost-2 Liste ordonnée des nœuds du groupe de périphériques : yes Nom du jeu de disques du groupe de périphériques : dg-schost-1 [Déterminez le ou les groupes de périphériques de disques du nœud :] # scstat -D -- Serveurs de groupe de périphériques -- Groupe de périphériques Principal Secondaire ------------------- ------------ ---------------- Serveurs de groupe de périphériques : dg-schost-1 phys-schost-1 phys-schost-2 [Connectez-vous en tant que superutilisateur.] [Supprimez le nom d'hôte du groupe de périphériques de disques :] # metaset -s dg-schost-1 -d -h phys-schost-2 [Assurez-vous que le nœud a été supprimé :] phys-schost-1% scconf -pv |grep -- Serveurs du groupe de périphériques -- Groupe de périphériques Principal Secondaire ------------------- ------------ ---------------- Liste des nœuds du groupe de périphériques : dg-schost-1, phys-schost-2, |
Si vous prévoyez de créer plus de trois ensembles de disques dans le cluster, suivez d'abord les étapes indiquées ci-dessous. Ces étapes s'appliquent que vous installiez des jeux de disques pour la première fois ou que vous en ajoutiez dans un cluster déjà configuré.
Assurez-vous que la valeur de la variable md_nsets est suffisamment élevée. Cette valeur doit être appropriée au nombre total de jeux de disques que vous souhaitez créer dans le cluster.
À partir d'un nœud du cluster, vérifiez la valeur de la variable md_nsets dans le fichier /kernel/drv/md.conf.
Si le nombre de jeux de disques du cluster est supérieur à la valeur indiquée pour md_nsets moins un, augmentez la valeur de md_nsets sur chaque nœud.
Le nombre maximum autorisé d'ensembles de disques est la valeur de md_nsets moins un. La valeur maximale autorisée pour md_nsets est 32.
Vérifiez que le fichier /kernel/drv/md.conf est identique sur tous les nœuds du cluster.
le non-respect de cette règle peut entraîner des erreurs graves de Solstice DiskSuite/Solaris Volume Manager et un risque de pertes de données.
Arrêtez le cluster depuis un nœud.
# scshutdown -g0 -y |
Réinitialisez tous les nœuds du cluster.
SPARC :
ok boot |
x86 :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
Exécutez la commande devfsadm(1M) sur chaque nœud du cluster.
Vous pouvez exécuter cette commande sur tous les nœuds du cluster en même temps.
Exécutez la commande scgdevs(1M) à partir d'un nœud du cluster.
Vérifiez, sur chaque nœud, que la commande scgdevs s'est déroulée avec succès avant de commencer à créer des jeux de disques.
La commande scgdevs se déclenche à distance sur tous les nœuds, quand bien même elle est exécutée depuis un seul nœud. Pour savoir si la commande scgdevs s'est exécutée convenablement, exécutez la commande suivante sur chaque nœud du cluster.
% ps -ef | grep scgdevs |
cette procédure s'applique uniquement à l'initialisation de disques. Pour encapsuler des disques, utilisez la procédure SPARC: Création d'un nouveau groupe de disques lors de l'encapsulage de disques (VERITAS Volume Manager).
Après avoir ajouté le groupe de disques VxVM , vous devez enregistrer le groupe de périphériques de disques.
Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server or Oracle Real Application Clusters, utilisez la fonction VxVM du cluster décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager.
Devenez superutilisateur sur un nœud du cluster connecté physiquement aux disques qui composent le groupe de disques à ajouter.
Créez le groupe de disques et le volume VxVM.
Pour cela, utilisez la méthode de votre choix.
si vous configurez un volume en miroir, vous pouvez utiliser le système DRL (Dirty Region Logging) pour réduire le délai de récupération du volume en cas de panne d'un nœud. Cependant, ce système risque de réduire le débit d'E/S.
Reportez-vous à la documentation de VERITAS Volume Manager pour connaître les procédures à suivre.
Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.
Reportez-vous à la rubrique SPARC: enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).
N'enregistrez pas les groupes de disques partagés Oracle Parallel Server or Oracle Real Application Clusters dans la structure du cluster.
cette procédure s'applique uniquement à l'encapsulage de disques. Pour initialiser des disques, suivez la procédure SPARC: Création d'un nouveau groupe de disques lors de l'initialisation des disques (VERITAS Volume Manager).
Vous pouvez transformer des disques non root en groupes de périphériques de disques Sun Cluster en les encapsulant en tant que groupes de disques VxVM, puis en les enregistrant comme groupes de périphériques de disques Sun Cluster.
L'encapsulage de disques n'est possible que lors de la création initiale d'un groupe de disques VxVM. Une fois un groupe de disques VxVM créé et enregistré comme groupe de périphériques de disques Sun Cluster, seuls les disques pouvant être initialisés doivent être ajoutés au groupe.
Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server or Oracle Real Application Clusters, utilisez la fonction VxVM du cluster décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager.
Devenez superutilisateur sur un nœud du cluster.
Si le disque que vous souhaitez encapsuler possède des entrées de système de fichiers dans le fichier /etc/vfstab, vérifiez que l'option mount at boot est bien configurée sur no.
Reconfigurez sur yes une fois que le disque est encapsulé et enregistré comme groupe de périphériques de disques Sun Cluster.
Encapsulez les disques.
Pour cela, utilisez les menus vxdiskadm ou l'interface d'utilisation graphique. VxVM requiert deux partitions libres ainsi que des cylindres non attribués au début ou à la fin du disque. La tranche deux doit également être définie sur le disque entier. Pour de plus amples informations, reportez-vous à la page man vxdiskadm.
Arrêtez le nœud et redémarrez-le.
La commande scswitch(1M) permet de faire passer tous les groupes de ressources et de périphériques du nœud principal au nœud préféré suivant. Utilisez la commande shutdown pour arrêter et redémarrer le nœud.
# scswitch -S -h node[,...] # shutdown -g0 -y -i6 |
Si nécessaire, transférez de nouveau tous les groupes de ressources et de périphériques sur le nœud d'origine.
Si les groupes de ressources et de périphériques étaient configurés à l'origine pour revenir au nœud initial en cas de panne, cette étape n'est pas nécessaire.
# scswitch -z -D disk-device-group -h node[,...] # scswitch -z -g resource-group -h node[,...] |
Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.
Reportez-vous à la rubrique SPARC: enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).
N'enregistrez pas les groupes de disques partagés Oracle Parallel Server or Oracle Real Application Clusters dans la structure du cluster.
Lorsque vous ajoutez un nouveau volume à un groupe de périphériques de disques VxVM existant, exécutez la procédure à partir du nœud principal du groupe de périphériques de disques en ligne.
après avoir ajouté le volume, vous devez enregistrer la modification de configuration en suivant la procédure SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).
Devenez superutilisateur sur un nœud du cluster.
Déterminez le nœud principal du groupe de périphériques de disques auquel vous allez ajouter le nouveau volume.
# scstat -D |
Si le groupe de périphériques de disques est hors ligne, mettez le groupe de périphériques en ligne.
# scswitch -z -D disk-device-group -h node[,...] |
Modifie le nœud principal du groupe de périphériques spécifié.
Indique le nom du nœud vers lequel le groupe de périphériques de disques doit passer. Ce nœud devient le nouveau nœud principal.
À partir du nœud principal (le maître actuel du groupe de périphériques de disques), créez le volume VxVM dans le groupe de disques.
Reportez-vous à la documentation de VERITAS Volume Manager pour connaître la procédure de création d'un volume VxVM .
Enregistrez les modifications du groupe de disques VxVM pour mettre à jour l'espace de noms global.
Reportez-vous à la rubrique SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).
Pour transformer un groupe de disques VxVM existant en groupe de disques Sun Cluster, vous devez d'abord importer le groupe de disques sur le nœud courant, puis l'enregistrer en tant que groupe de périphériques de disques Sun Cluster.
Devenez superutilisateur sur un nœud du cluster.
Importez le groupe de disques VxVM sur le nœud courant.
# vxdg import groupedisques |
Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.
Reportez-vous à la rubrique SPARC: enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).
Si l'enregistrement d'un groupe de périphériques de disques échoue parce qu'un code mineur entre en conflit avec celui d'un autre groupe de disques, vous devez attribuer au nouveau groupe un nouveau code mineur inutilisé. Cela fait, vous devez ré-exécuter la procédure d'enregistrement du groupe de disques en tant que groupe de périphériques de disques Sun Cluster .
Devenez superutilisateur sur un nœud du cluster.
Déterminez les codes mineurs utilisés.
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* |
Choisissez un autre multiple de 1000 non utilisé comme code mineur de base pour le nouveau groupe de disques.
Attribuez ce nouveau code mineur au groupe de disques.
# vxdg reminor groupe_disques code_mineur_base |
Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.
Reportez-vous à la rubrique SPARC: enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).
L'exemple suivant illustre l'utilisation des codes mineurs 16000-16002 et 4000-4001. La commande vxdg reminor permet d'attribuer un nouveau code mineur de base 5000 au nouveau groupe de périphériques de disques.
# ls -l /global/.devices/nœud@id_nœud/dev/vx/dsk/* /global/.devices/nœud@id_nœud/dev/vx/dsk/dg1 brw------- 1 root root 56,16000 Oct 7 11:32 dg1v1 brw------- 1 root root 56,16001 Oct 7 11:32 dg1v2 brw------- 1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/nœud@id_nœud/dev/vx/dsk/dg2 brw------- 1 root root 56,4000 Oct 7 11:32 dg2v1 brw------- 1 root root 56,4001 Oct 7 11:32 dg2v2 # vxdg reminor dg3 5000 |
Cette procédure utilise l'utilitaire scsetup(1M) pour enregistrer le groupe de disques associé VxVM en tant que groupe de périphériques de disques Sun Cluster.
une fois un groupe de périphériques de disques enregistré dans le cluster, n'importez ou ne déplacez jamais un groupe de disques VxVM à l'aide des commandes VxVM. Si vous modifiez le groupe de disques ou le volume VxVM, utilisez la procédure décrite à la section SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager) pour enregistrer les modifications de configuration du groupe de périphériques de disques. Cette procédure permet d'assurer que l'espace de noms global est à l'état approprié.
Pour enregistrer un groupe de périphériques de disques VxVM , les conditions suivantes doivent être remplies :
Vous devez avoir les privilèges de superutilisateur sur un nœud du cluster.
Vous devez connaître le nom du groupe de disques VxVM à enregistrer comme groupe de périphériques de disques.
Vous devez définir l'ordre de préférence pour la maîtrise du groupe de périphériques de disques par les nœuds.
Vous devez disposer d'un nombre souhaité de nœuds secondaires pour le groupe de périphériques de disques.
Lorsque vous définissez l'ordre de préférence, vous devez également indiquer si vous souhaitez que le groupe de périphériques de disques revienne au nœud préféré lorsque celui-ci rejoint le cluster après avoir été arrêté.
Consultez scconf(1M) pour de plus amples informations sur les préférences des nœuds et les options de rétablissement.
Les nœuds de cluster non principaux (de rechange) deviennent secondaires selon l'ordre de préférence du nœud. Le nombre par défaut de secondaires pour un groupe de périphériques est normalement défini sur un. Ce paramètre par défaut minimise la dégradation des performances causée par un contrôle principal de plusieurs nœuds secondaires au cours du fonctionnement normal. Par exemple, sur un cluster à quatre nœuds, le comportement par défaut configure un nœud principal, un nœud secondaire et deux nœuds de rechange. Consultez également SPARC: Configuration du nombre souhaité de nœuds secondaires (VERITAS Volume Manager).
Devenez superutilisateur sur un nœud du cluster.
Lancez l'utilitaire scsetup.
# scsetup |
Le menu principal apparaît.
Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).
Le menu Device Groups apparaît.
Pour enregistrer un groupe de périphériques de disques VxVM , entrez 1 (Enregistrer un groupe de disques VxVM en tant que groupe de périphériques).
Suivez les instructions et entrez le nom du groupe de disques VxVM à enregistrer comme groupe de périphériques de disques Sun Cluster.
Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server/Real Application Clusters, vous n'enregistrez pas les groupes de disques partagés dans la structure du cluster. Utilisez la fonction VxVM du cluster, décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager.
Si vous rencontrez l'erreur suivante alors que vous tentez d'enregistrer le groupe de périphériques de disques, redonnez un code mineur au groupe de périphériques de disques.
scconf: Echec de l'ajout du groupe de périphériques - en cours d'utilisation |
Pour affecter un nouveau code mineur au groupe de périphériques de disques, suivez la procédure SPARC: Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager). Cette procédure vous permet d'affecter un nouveau code mineur n'entrant pas en conflit avec un code mineur utilisé par un groupe de périphériques de disques existant.
Vérifiez que le groupe de périphériques de disques est enregistré et en ligne.
Si le groupe de périphériques de disques est correctement enregistré, les informations relatives au nouveau groupe de périphériques de disques s'affichent lorsque vous utilisez la commande suivante :
# scstat -D |
si vous modifiez des informations de configuration d'un groupe de disques ou d'un volume VxVM, vous devez synchroniser le groupe de périphériques de disques en utilisant scsetup( 1M). Ces modifications de configuration comprennent l'ajout ou la suppression de volumes, ainsi que la modification de groupe, de propriétaire ou d'autorisations de volumes existants. Le réenregistrement après des modifications de configuration assure que l'espace de noms global est à l'état correct. Reportez-vous à la rubrique Mise à jour de l'espace de noms de périphériques globaux.
L'exemple suivant montre la commande scconf générée par scsetup lors de l'enregistrement d'un groupe de périphériques de disques VxVM (dg1), ainsi que l'étape de vérification. Cet exemple suppose que le groupe de disques VxVM et le volume sont créés au préalable.
# scsetup scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2 # scstat -D -- Serveurs du groupe de périphériques -- Groupe de périphériques Élément principal Élément secondaire ------------------ ------------------------ --------------------------- Serveurs du groupe de périphériques : dg1 phys-schost-1 phys-schost-2 -- Statut du groupe de périphériques -- Groupe de périphériques Statut ----------------------------------- ------ Statut du groupe de périphériques : dg1 Online |
Pour créer un système de fichiers de cluster sur le groupe de périphériques de disques VxVM, reportez-vous à la rubrique Ajout d'un système de fichiers de cluster.
Si des problèmes surviennent concernant le code mineur, reportez-vous à la rubrique SPARC: Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager).
Lorsque vous modifiez une configuration pour un groupe de disque ou volume VxVM il est nécessaire d'enregistrer les modifications pour le groupe de périphériques de disques Sun Cluster. L'enregistrement permet d'assurer que l'espace de noms global est dans l'état qui convient.
Devenez superutilisateur sur un nœud du cluster.
Exécutez l'utilitaire scsetup(1M).
# scsetup |
Le menu principal apparaît.
Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).
Le menu Device Groups apparaît.
Pour enregistrer des modifications de configuration, entrez 2 (Synchroniser les données sur le volume d'un groupe de périphériques VxVM).
Suivez les instructions et entrez le groupe de disques VxVM dont la configuration a été modifiée.
L'exemple suivant montre la commande scconf générée par scsetup lors de l'enregistrement d'un groupe de périphériques de disques VxVM modifié (dg1). Cet exemple suppose que le groupe de disques VxVM et le volume sont créés au préalable.
# scsetup scconf -c -D name=dg1,sync |
La propriété numsecondaries précise le nombre de nœuds d'un groupe de périphériques pouvant être maîtres du groupe en cas de défaillance du nœud principal. Le nombre par défaut de nœuds secondaires pour les services de périphériques est un. La valeur peut être définie sur n'importe quel nombre entier compris entre un et le nombre de nœuds fournisseurs non principaux opérationnels dans le groupe de périphériques.
Ce paramètre est un facteur important dans l'équilibrage des performances et de la disponibilité des clusters. Par exemple, l'augmentation du nombre souhaité de nœuds secondaires accroît les chances de survie du groupe de périphériques face à plusieurs pannes survenant simultanément au sein d'un cluster. L'augmentation du nombre de nœuds secondaires réduit également les performances régulièrement au cours du fonctionnement normal. Un plus petit nombre de nœuds secondaires entraîne généralement une meilleure performance, mais réduit la disponibilité. Cependant, un plus grand nombre de nœuds secondaires n'entraîne pas toujours une meilleure disponibilité du système de fichiers ou du groupe de périphériques en question. Pour de plus amples informations, reportez-vous à la rubrique “Notions-clés : administration et développement d'applications” du document Guide des notions fondamentales de Sun Cluster pour SE Solaris.
Devenez superutilisateur sur un nœud du cluster.
Exécutez l'utilitaire scsetup(1M).
# scsetup |
Le menu principal apparaît.
Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).
Le menu Device Groups apparaît.
Pour modifier les propriétés clé d'un groupe de périphériques, entrez 6 (Modifier les propriétés principales d'un groupe de périphériques).
Le menu Change Key Properties apparaît.
Pour modifier le nombre souhaité de nœuds secondaires, entrez 2 (Modifier la propriété nombre de nœuds secondaires).
Suivez les instructions et entrez le nombre souhaité de nœuds secondaires à configurer pour le groupe de périphériques de disques. Une fois une valeur adéquate saisie, la commande scconf correspondante est exécutée. Par la suite, un journal est imprimé et l'utilisateur revient sur le menu précédent.
Validez la configuration du groupe de périphériques à l'aide de la commande scconf -p.
# scconf -p | grep Device Nom du groupe de périphériques : dg-schost-1 Type de groupe de périphériques : VxVM Rétablissement du groupe de périphériques activé : yes Liste des nœuds du groupe de périphériques : phys-schost-1,phys-schost-2, phys-schost-3 Liste ordonnée des nœuds du groupe de périphériques : yes Nombre de nœuds secondaires souhaités pour le groupe de périphériques : 1 Nom du jeu de disques du groupe de périphériques : dg-schost-1 |
si vous modifiez des informations de configuration d'un groupe de disques ou d'un volume VxVM, vous devez réenregistrer le groupe de périphériques de disques via la commande scsetup. Ces modifications de configuration comprennent l'ajout ou la suppression de volumes, ainsi que la modification de groupe, de propriétaire ou d'autorisations de volumes existants. Le réenregistrement après des modifications de configuration assure que l'espace de noms global est à l'état correct. Reportez-vous à la rubrique Mise à jour de l'espace de noms de périphériques globaux.
Vérifiez le nœud principal et le statut du groupe de périphériques de disques.
# scstat -D |
L'exemple suivant montre la commande scconf générée par scsetup lors de la configuration du nombre souhaité de nœuds secondaires pour un groupe de périphériques (diskgrp1). Pour de plus amples informations sur la modification du nombre souhaité de nœuds secondaires après la création d'un groupe de périphériques, reportez-vous à la rubrique Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques.
# scconf -a -D type=vxvm,name=diskgrp1, nodelist=host1:host2:host3,preferenced=true, \ failback=enabled,numsecondaries=2 |
après avoir supprimé le volume du groupe de périphériques de disques, vous devez enregistrer les modifications de configuration apportées au groupe de périphériques de disques en suivant la procédure SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).
Devenez superutilisateur sur un nœud du cluster.
Déterminez le nœud principal et le statut du groupe de périphériques de disques.
# scstat -D |
Si le groupe de périphériques de disques est hors ligne, mettez-le en ligne.
# scswitch -z -D disk-device-group -h node[,...] |
Effectue le transfert.
Définit le groupe de périphériques à transférer.
Indique le nom du nœud qui doit devenir le nouveau nœud principal. Ce nœud devient le nouveau nœud principal.
À partir du nœud principal (celui qui est actuellement maître du groupe de périphériques de disques), supprimez le volume VxVM dans le groupe de disques.
# vxedit -g diskgroup -rf rm volume |
Indique le groupe de disques VxVM qui contient le volume.
Supprime le volume indiqué.
Enregistrez les modifications de configuration apportées au groupe de périphériques de disques afin de mettre à jour l'espace de noms global. Pour ce faire, utilisez scsetup(1M).
Reportez-vous à la rubrique SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).
Si vous supprimez un groupe de périphériques de disques Sun Cluster le groupe de disques VxVM correspondant sera déplacé et non supprimé. Toutefois, même si le groupe de disques VxVM existe toujours, il ne peut être utilisé dans le cluster que s'il est à nouveau enregistré.
Cette procédure fait appel à l'utilitaire scsetup( 1M) pour supprimer un groupe de disques VxVM et annuler son enregistrement comme groupe de périphériques de disques Sun Cluster.
Devenez superutilisateur sur un nœud du cluster.
Mettez le groupe de périphériques de disques hors ligne.
# scswitch -F -D disk-device-group |
Met le groupe de périphériques de disques hors ligne.
Définit le groupe de périphériques à mettre hors ligne.
Lancez l'utilitaire scsetup.
Le menu principal apparaît.
# scsetup |
Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).
Le menu Groupe de périphériques apparaît.
Pour annuler l'enregistrement d'un groupe de disques VxVM, entrez 3 (Supprimer un groupe de périphériques VxVM).
Suivez les instructions et indiquez le groupe de disques VxVM dont vous souhaitez annuler l'enregistrement.
L'exemple suivant illustre la mise hors ligne du groupe de périphériques de disques VxVM dg1, ainsi que la commande scconf générée par scsetup lors de la suppression et de l'annulation de l'enregistrement du groupe de périphériques de disques.
# scswitch -F -D dg1 # scsetup scconf -r -D name=dg1 |
Cette procédure permet d'ajouter un nœud à un groupe de périphériques de disques à l'aide de l'utilitaire scsetup(1M).
Les conditions d'ajout d'un nœud à un groupe de périphériques de disques VxVM sont les suivantes :
Vous devez avoir les privilèges de superutilisateur sur un nœud du cluster.
Vous devez connaître le nom du groupe de périphériques VxVM auquel sera ajouté le nœud.
Vous devez disposer du nom ou de l'ID des nœuds à ajouter.
Devenez superutilisateur sur un nœud du cluster.
À l'invite, entrez la commande scsetup.
# scsetup |
Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).
Le menu Device Groups apparaît.
Pour ajouter un nœud à un groupe de périphériques de disques VxVM, entrez 4 (Ajouter un nœud à un groupe de périphériques VxVM).
Suivez les instructions et entrez le nom du groupe de périphériques et du nœud.
Vérifiez que le nœud a bien été ajouté.
Consultez les informations de groupe de périphériques relatives au nouveau disque, affichées à l'aide de la commande suivante :
# scconf -p |
L'exemple suivant illustre la commande scconf générée par scsetup lors de l'ajout d'un nœud (phys-schost-3) à un groupe de périphériques de disques VxVM (dg1), ainsi que la procédure de vérification.
# scsetup scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3 # scconf -p Nom du groupe de périphériques : dg1 Type de groupe de périphériques : VXVM Rétablissement du groupe de périphérique activé : yes Liste des nœuds du groupe de périphériques : phys-schost-1, phys-schost-3 |
Cette procédure permet de supprimer un nœud de cluster de la liste des nœuds principaux potentiels dans un groupe de périphériques de disques (groupe de disques) VERITAS Volume Manager (VxVM).
Vérifiez si le nœud fait toujours partie du groupe et si le groupe est un groupe de périphériques VxVM.
Le type de groupe de périphériques VxVM indique un groupe de périphériques de disques VxVM.
phys-schost-1% scconf -pv | grep '(global-galileo)' (global-galileo) Type de groupe de périphériques : VxVM (global-galileo) Rétablissement du groupe de périphériques activé : no (global-galileo) Liste des nœuds du groupe de périphériques : phys-schost-1, phys-schost-2 (global-galileo) Nom du jeu de disques : global-galileo phys-schost-1% |
Devenez superutilisateur sur un nœud étant actuellement membre de cluster.
Exécutez la commande scsetup(1M).
# scsetup |
Le menu principal apparaît.
Pour reconfigurer un groupe de périphériques de disques, entrez 4 (Volumes et groupes de périphériques).
Pour supprimer le nœud du groupe de périphériques de disques VxVM, entrez 5 (Supprimer un nœud d'un groupe de périphériques VxVM).
Suivez les indications à l'écran pour supprimer le nœud du cluster du groupe de périphériques de disques. Vous devrez fournir des informations sur les points suivants :
groupe de périphérique VxVM ;
Nom du nœud
Vérifiez que le nœud a bien été supprimé du (des) groupe(s) de périphériques de disques VxVM.
# scconf -p | grep Device |
Cet exemple montre la suppression du nœud qui a pour nom phys-schost-1 du groupe de périphériques de disques dg1 VxVM.
[Déterminez le groupe de périphériques de disques VxVM pour le nœud :] # scconf -p | grep Device Nom du groupe de périphériques : dg1 Type de groupes de périphériques : VxVM Rétablissement du groupe de périphériques activé : no Liste des nœuds du groupe de périphériques : phys-schost-1, phys-schost-2 Nom du jeu de disques du groupe de périphériques : dg1 [Connectez-vous en tant que superutilisateur et exécutez l'utilitaire scsetup :] # scsetup Sélectionnez Groupes de périphériques et volumes>Supprimer un nœud d'un groupe de périphériques VxVM. Répondez aux questions posées. Vous aurez besoin des informations suivantes. Vous aurez besoin de : Exemple : VxVM device group name dg1 node names phys-schost-1 [Assurez-vous que la commande scconf a été exécutée avec succès :] scconf -r -D name=dg1,nodelist=phys-schost-1 La commande a été exécutée avec succès. Quittez le menu Groupes de périphériques scsetup et le menu principal. [Assurez-vous que le nœud a été supprimé :] # scconf -p | grep Device nom du groupe de périphériques : dg1 Type de groupe de périphériques : VxVM Rétablissement du groupe de périphériques activé : no Liste des nœuds du groupe de périphériques : phys-schost-2 Nom du jeu de disques du groupe de périphériques : dg1 |
Cette procédure permet de supprimer un nœud de cluster dans la liste des nœuds principaux potentiels d'un groupe de périphériques de disques (groupe de disques) VERITAS Volume Manager (VxVM).
Utilisez cette procédure pour supprimer un nœud de cluster de la liste de nœuds principaux potentiels d'un groupe de périphériques de disques bruts.
Devenez superutilisateur sur un nœud du cluster autre que le nœud à supprimer.
Identifiez les groupes de périphériques de disques connectés au nœud en cours de suppression.
Recherchez le nom du nœud dans l'entrée Liste des nœuds du groupe de périphériques .
# scconf -pvv | grep nodename | grep "Liste des nœuds du groupe de périphériques " |
Déterminez quels groupes de périphériques de disques identifiés à l'étape 2 sont des groupes de périphériques de disques bruts.
Les groupes d'unités de disques brutes appartiennent au type de groupe d'unités Disk ou Local_Disk.
# scconf -pvv | grep group-type |
Désactivez les propriétés localonly de chaque groupe d'unités de disques brutes Local_Disk.
# scconf -c -D name=rawdisk-device-group,localonly=false |
Pour plus d'informations sur la propriété localonly, reportez-vous à la page man scconf_dg_rawdisk(1M).
Vérifiez que vous avez bien désactivé la propriété localonly de tous les groupes de périphériques de disques bruts connectés au nœud en cours de suppression.
Le type de groupe d'unités Disk indique que la propriété localonly est désactivée pour le groupe d'unités de disques brutes.
# scconf -pvv | grep group-type |
Supprimez le nœud de tous les groupes de périphériques de disques bruts identifiés à l'Étape 3.
Cette opération doit être effectuée pour chaque groupe de périphériques de disques bruts connecté au nœud à supprimer.
# scconf -r -D name=rawdisk-device-group,nodelist=nodename |
Cet exemple montre comment supprimer un nœud (phys-schost-2) d'un groupe de périphériques de disques bruts. Toutes les commandes sont exécutées à partir d'un autre nœud du cluster (phys-schost-1).
[Identifier les groupes de disques connectés au nœud à supprimer :] phys-schost-1# scconf -pvv | grep phys-schost-2 | grep "Liste des noeuds du groupe de périphériques" (dsk/d4) Liste des noeuds du groupe de périphériques : phys-schost-2 (dsk/d2)Liste des noeuds du groupe de périphériques : phys-schost-1, phys-schost-2 (dsk/d1)Liste des noeuds du groupe de périphériques : phys-schost-1, phys-schost-2 [Identifier les groupes de disques en mode caractère :] phys-schost-1# scconf -pvv | grep Disk (dsk/d4) Type de groupe de périphériques : Local_Disk (dsk/d8) Type de groupe de périphériques : Local_Disk [Désactiver la propriété uniquement locale pour chaque disque local du nœud :] phys-schost-1# scconf -c -D name=dsk/d4,localonly=false [Verifier que la propriété est désactivée :] phys-schost-1# scconf -pvv | grep Disk (dsk/d4) Type de groupe de périphériques : Disk (dsk/d8) Type de groupe de périphériques : Local_Disk [Supprimer le nœud de tous les groupes de disques en mode caractère :] phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2 |
Le choix d'un propriétaire principal d'un groupe de périphériques de disques repose sur la définition d'un attribut de préférence de propriété appelé preferenced. Si cet attribut n'est pas défini, le propriétaire principal d'un groupe de périphériques de disques n'en ayant pas autrement est le premier nœud qui tente d'accéder à un disque de ce groupe. Toutefois, si cet attribut est défini, vous devez spécifier l'ordre dans lequel vous préférez que les nœuds tentent d'établir la propriété.
Si vous désactivez l'attribut preferenced, vous désactivez automatiquement l'attribut failback. Toutefois, si vous tentez d'activer ou de réactiver l'attribut preferenced , vous pouvez soit activer, soit désactiver l'attribut failback.
Si l'attribut preferenced est activé ou réactivé, vous êtes invité à rétablir l'ordre des nœuds dans la liste des préférences de propriétaire principal.
Cette procédure fait appel à scsetup( 1M) pour activer ou désactiver l'attribut preferenced et l'attribut failback pour les groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager ou VxVM.
Pour exécuter cette procédure, vous devez connaître le nom du groupe de périphériques de disques pour lequel vous changez les valeurs des attributs.
Devenez superutilisateur sur un nœud du cluster.
Exécutez la commande scsetup.
Le menu principal apparaît.
# scsetup |
Pour utiliser des groupes de périphériques de disques, entrez 4 (Volumes et groupes de périphériques).
Le menu Device Groups apparaît.
Pour modifier les propriétés clés d'un groupe de périphériques, entrez 6 (Modifier les propriétés principales d'un groupe de périphériques).
Le menu Change Key Properties apparaît.
Pour modifier la propriété d'un groupe de périphériques, entrez 1 (Modifier les propriétés de prédilection et/ou de rétablissement).
Suivez les instructions pour définir les options preferenced et failback d'un groupe d'unités.
Vérifiez que les attributs du groupe de périphériques de disques ont bien été changés.
Consultez les informations de groupe de périphériques, affichées à l'aide de la commande suivante.
# scconf -p |
L'exemple suivant montre la commande scconf générée par l'utilitaire scsetup lorsqu'il définit les attributs d'un groupe de périphériques de disques (dg-schost-1).
# scconf -c -D name=dg-schost-1,nodelist=phys-schost-1:phys-schost-2,\ preferenced=true,failback=enabled,numsecondaries=1 # scconf -p | grep Device Nom du groupe de périphériques : dg-schost-1 Type de groupe de périphériques : SDS Établissement du groupe de périphériques activé : yes Liste des nœuds du groupe de périphériques : phys-schost-1, phys-schost-2 Liste ordonnée des nœuds du groupe de périphériques : yes Nombre de nœuds secondaires souhaités pour le groupe de périphériques : 1 Nom du jeu de disques du groupe de périphériques : dg-schost-1 |
Le nombre par défaut de nœuds secondaires pour un groupe de périphériques est défini sur un. Ce paramètre spécifie le nombre de nœuds au sein d'un groupe de périphériques pouvant devenir le propriétaire principal du groupe si le nœud principal connaît une défaillance. Le nombre souhaité de valeurs secondaires peut être défini sur n'importe quel nombre entier compris entre un et le nombre de nœuds fournisseurs non principaux dans le groupe de périphériques.
Si la propriété numsecondaries est modifiée, des nœuds secondaires sont ajoutés au groupe de périphériques ou en sont supprimés, si la modification entraîne un défaut d'assortiment entre le nombre réel et le nombre souhaité.
Cette procédure utilise scsetup( 1M) pour activer ou désactiver la propriété numsecondaries des groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager ou VxVM. Pour plus d'informations sur les options des groupes de périphériques de disques lors de la configuration d'un groupe quelconque de périphérique, consultez scconf_dg_rawdisk(1M), scconf_dg_sds (1M), scconf_dg_svm(1M) et scconf_dg_vxvm(1M).
Devenez superutilisateur sur un nœud du cluster.
Exécutez l'utilitaire scsetup.
# scsetup |
Le menu principal apparaît.
Pour utiliser des groupes de périphériques de disques, entrez 4 (Volumes et groupes de périphériques).
Le menu Device Groups apparaît.
Pour modifier les propriétés clé d'un groupe de périphériques, entrez 6 (Modifier les propriétés principales d'un groupe de périphériques).
Le menu Change Key Properties apparaît.
Pour modifier le nombre souhaité de nœuds secondaires, entrez 2 (Modifier la propriété nombre de nœuds secondaires).
Suivez les instructions et entrez le nombre souhaité de nœuds secondaires à configurer pour le groupe de périphériques de disques. Après qu'une valeur adéquate a été saisie, la commande scconf correspondante est exécutée, un journal est imprimé et l'utilisateur revient sur le menu précédent.
Vérifiez que l'attribut du groupe de périphériques de disques a bien été changé.
Consultez les informations de groupe de périphériques s'affichant à l'aide de la commande suivante :
# scconf -p |
L'exemple suivant montre la commande scconf générée par scsetup lors de la configuration du nombre souhaité de nœuds secondaires pour un groupe de périphériques (dg-schost-1). Cet exemple suppose que le groupe de disques et le volume sont créés au préalable.
# scconf -c -D name=phys-host-1,nodelist=phys-schost-1:phys-schost-2,phys-schost-3\ preferenced=true,failback=enabled,numsecondaries=1 # scconf -p | grep Device Nom du groupe de périphériques : dg-schost-1 Type de groupe de périphériques : SDS/SVM Rétablissement du groupe de périphériques activé : yes Liste des nœuds du groupe de périphériques : phys-schost-1, phys-scost-2, phys-schost-3 Liste ordonnée des nœuds du groupe de périphériques : yes Nombre de nœuds secondaires souhaités pour le groupe de périphériques : 1 Nom du jeu de disques du groupe de périphériques : dg-schost-1 |
L'exemple suivant utilise une valeur de chaîne nulle pour configurer le nombre de nœuds secondaires par défaut. Le groupe de périphériques sera configuré pour utiliser la valeur par défaut, même si la valeur par défaut change.
# scconf -c -D name=diskgrp1, nodelist=host1:host2:host3, preferenced=false,failback=enabled,numsecondaries= # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-1, phost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
Il n'est pas nécessaire d'être superutilisateur pour afficher la configuration.
Il existe trois façons d'afficher la configuration d'un groupe de périphériques de disques.
En utilisant l'interface de SunPlex Manager.
Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
En utilisant scstat(1M) pour afficher la configuration du groupe de périphériques de disques.
% scstat -D |
En utilisant scconf(1M) pour afficher la configuration d'un groupe de périphériques de disques.
% scconf -p |
L'utilisation de la commande scstat -D affiche les informations suivantes :
-- Serveurs du groupe de périphériques -- Groupe de périphériques Principal Secondaire ---------------------------------- ------------ --------- Serveurs du groupe de périphériques : phys-schost-2 - - Serveurs du groupe de périphériques : phys-schost-1 phys-schost-2 phys-schost-3 Serveurs du groupe de périphériques : phys-schost-3 - - -- Statut du groupe de périphériques -- Groupe de périphériques Statut ----------------------------------- ------ Statut du groupe de périphériques : phys-schost-2 En ligne Statut du groupe de périphériques : phys-schost-1 En ligne Statut du groupe de périphériques : phys-schost-3 En ligne |
Lorsque vous utilisez la commande scconf, prenez connaissance des informations répertoriées sous les groupes de périphériques.
# scconf -p ... Nom du groupe de périphériques : dg-schost-1 Type de groupe de périphériques : SDS/SVM Rétablissement du groupe de périphériques activé : yes Liste des nœuds du groupe de périphériques : phys-schost-2, phys-schost-3 Nom du jeu de disques du groupe de périphériques : dg-schost-1 |
Cette procédure permet également de faire démarrer (mettre en ligne) un groupe de périphériques inactif.
Vous pouvez également utiliser l'interface graphique utilisateur de SunPlex Manager pour mettre en ligne un groupe de périphériques inactif ou transférer le nœud principal d'un groupe de périphériques. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Devenez superutilisateur sur un nœud du cluster.
Utilisez scswitch(1M) pour changer le nœud principal d'un groupe de périphériques de disques.
# scswitch -z -D disk-device-group -h node |
Effectue le transfert.
Définit le groupe de périphériques à transférer.
Indique le nom du nœud qui doit devenir le nouveau nœud principal. Ce nœud devient le nouveau nœud principal.
Vérifiez que le groupe de périphériques de disques est bien passé au nouveau nœud principal.
Si le groupe de périphériques de disques est correctement enregistré, les informations relatives au nouveau groupe de périphériques de disques s'affichent lorsque vous utilisez la commande suivante :
# scstat -D |
L'exemple suivant montre comment changer de nœud principal pour un groupe de périphériques de disques et vérifier que la modification a réussi.
# scswitch -z -D dg-schost-1 -h phys-schost-1 # scstat -D -- Serveurs du groupe de périphériques -- Groupe de périphériques Principal Secondaire ----------------------------------- ------------ --------------- Serveurs du groupe de périphériques : dg-schost-1 phys-schost-1 phys-schost-2 -- Statut du groupe de périphériques -- Groupe de périphériques Statut ------------------------------ ------ Statut du groupe de périphériques : dg-schost-1 En ligne |
La mise à l'état de maintenance d'un groupe de périphériques de disques empêche que ce groupe de périphériques ne soit automatiquement mis en ligne à chaque accès à un de ses périphériques. Placez un groupe de périphériques à l'état de maintenance lorsque vous terminez des procédures de réparation qui exigent l'acceptation de toute activité d'E/S jusqu'à la fin de la réparation. La mise à l'état de maintenance d'un groupe de périphériques contribue également à éviter la perte de données en empêchant un groupe de périphériques de disques d'être mis en ligne sur un nœud alors que l'ensemble de disques ou le groupe de disques est en cours de réparation sur un autre nœud.
pour pouvoir mettre à l'état de maintenance un groupe de périphériques, vous devez bloquer tout accès à ses périphériques et démonter tous les systèmes de fichiers qui en dépendent.
Mettez le groupe de périphériques à l'état de maintenance.
# scswitch -m -D groupe_périphériques_disques |
Si la procédure de réparation exécutée exige la propriété d'un jeu ou d'un groupe de disques, importez celui-ci manuellement.
Pour Solstice DiskSuite/Solaris Volume Manager :
# metaset -C take -f -s diskset |
Pour définir la propriété d'un jeu de disques Solstice DiskSuite/Solaris Volume Manager, utilisez impérativement la commande metaset-C take lorsque le groupe de périphériques est à l'état de maintenance. L'utilisation de metaset -t met le groupe de périphériques en ligne et vous en accorde la propriété. Si vous importez un groupe de disques VxVM, utilisez l'indicateur -t lors de l'importation du groupe de disques. Cet indicateur évite l'importation automatique du groupe de disques en cas de réinitialisation de ce nœud.
Pour VERITAS Volume Manager :
# vxdg -t import disk-group-name |
Achevez la procédure de réparation requise.
Libérez la propriété de l'ensemble de disques ou du groupe de disques.
avant de sortir un groupe de périphériques de disques de l'état de maintenance, vous devez libérer la propriété du jeu de disques ou du groupe de disques. Si vous ne le faites pas, vous risquez de perdre des données.
Pour Solstice DiskSuite/Solaris Volume Manager :
# metaset -C release -s diskset |
Pour VERITAS Volume Manager :
# vxdg deport disk-group-name |
Mettez le groupe de périphériques de disques en ligne.
# scswitch -z -D disk-device-group -h node |
L'exemple suivant montre comment placer le groupe d'unités de disque dg-schost-1 à l'état de maintenance et l'en sortir.
[Placez le groupe de périphériques de disques à l'état de maintenance.] # scswitch -m -D dg-schost-1 [Si nécessaire, importez manuellement le jeu de disques ou le groupe de disques.] Pour Solstice DiskSuite/Solaris Volume Manager: # metaset -C take -f -s dg-schost-1 Pour VERITAS Volume Manager: # vxdg -t import dg1 [Effectuez toutes les procédures de réparation nécessaires.] [Propriétaire version.] Pour Solstice DiskSuite/Solaris Volume Manager: # metaset -C release -s dg-schost-1 Pour VERITAS Volume Manager: # vxdg deport dg1 [Mettez en ligne le groupe de périphériques de disques.] # scswitch -z -D dg-schost-1 -h phys-schost-1 |
Le système de fichiers du cluster est un système de fichiers globalement disponible qui peut être lu et est accessible à partir de n'importe quel nœud du cluster.
Tableau 4–3 Plan des tâches : Administration des systèmes de fichiers d'un cluster
Tâche |
Pour les instructions, voir... |
---|---|
Ajout de systèmes de fichiers de cluster après l'installation initiale de Sun Cluster - Utilisez newfs(1M) et mkdir | |
Suppression d'un système de fichiers de cluster - Utilisez fuser(1M) et umount(1M) | |
Vérification de la cohérence des points de montage globaux d'un cluster sur les différents nœuds - Utilisez sccheck(1M) |
Effectuez cette tâche pour chaque système de fichiers de cluster créé après l'installation initiale de Sun Cluster.
Assurez-vous d'avoir indiqué le nom correct du périphérique de disques. La création d'un système de fichiers de cluster détruit toutes les données présentes sur les disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.
Pour ajouter un système de fichiers de cluster supplémentaire, les conditions suivantes doivent être remplies :
Vous devez avoir les privilèges de superutilisateur sur un nœud du cluster.
Volume manager doit être installé et configuré sur le cluster.
Vous devez disposer d'un groupe de périphériques (Solstice DiskSuite/Solaris Volume Manager ou VxVM) ou d'une tranche de disque en mode bloc où créer le système de fichiers du cluster.
Si vous avez utilisé SunPlex Manager pour installer des services de données, un ou plusieurs systèmes de fichiers du cluster existent déjà si le nombre de disques partagés existants était suffisant pour y créer ces systèmes.
Devenez superutilisateur sur un nœud du cluster.
pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.
Créez un système de fichiers à l'aide de la commande newfs.
la commande newfs n'est valide que pour la création de systèmes de fichiers UFS. Pour créer un système de fichiers VxFS, suivez les procédures décrites dans la documentation de votre VxFS.
# newfs périphériques_disques_bruts |
Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.
Tableau 4–4 Exemples de noms de périphériques de disques bruts
Si votre gestionnaire de volume est … |
Un périphérique de disques peut porter le nom … |
Description |
---|---|---|
Solstice DiskSuite/Solaris Volume Manager |
/dev/md/oracle/rdsk/d1 |
Périphériques de disques bruts d1 dans le jeu de disques oracle. |
SPARC : VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Périphériques de disques bruts vol01 dans le groupe de disques oradg. |
Aucune |
/dev/global/rdsk/d1s3 |
Unité de disque brute de tranche de bloc d1s3. |
Sur chaque nœud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.
Un point de montage est requis sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.
pour vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers de cluster, disponibles globalement, des systèmes de fichiers locaux.
# mkdir -p /global/groupe_périphériques/point_montage |
Nom du répertoire correspondant au nom du groupe de périphériques contenant le périphérique en question.
Nom du répertoire sur lequel vous devez monter le système de fichiers du cluster.
Sur chaque nœud de la grappe, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.
Utilisez les options de montage obligatoires suivantes.
l'option logging est requise pour tous les systèmes de fichiers de cluster.
Solaris UFS logging – Utilisez les options de montage global,logging. Reportez-vous à la page man mount_ufs(1M) pour de plus amples informations sur les options de montage UFS.
l'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de cluster UFS. Si vous indiquez syncdir, vous êtes assuré d'un comportement du système de fichiers conforme à POSIX. Dans le cas contraire, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. Le fait de ne pas spécifier syncdir peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir, la situation d'espace insuffisant ne se présente qu'à la fermeture d'un fichier. Les cas dans lesquels vous risquez d'avoir des problèmes si vous n'indiquez pas syncdir sont rares. tandis qu'avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.
Solstice DiskSuite/Solaris Volume Manager métapériphérique Trans ou volume de transaction – Utilisez l'option de montage global (n'utilisez pas l'option de montage logging). Pour de plus amples informations sur la configuration du métapériphérique Trans et des volumes de transaction, reportez-vous à votre documentation Solstice DiskSuite/Solaris Volume Manager.
Les volumes de transaction sont programmés pour être supprimés du système d'exploitation Solaris dans une prochaine version de Solaris. Solaris UFS logging, disponible depuis la version 8 de Solaris, fournit les mêmes capacités mais des performances supérieures, ainsi que des exigences moindres en termes de dépassement et d'administration de système.
VxFS logging – utilisez les options de montage global, et log. Reportez-vous à la page man mount_vxfs accompagnant le logiciel VxFS pour de plus amples informations.
Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.
Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.
Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.
Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.
Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs qu'une fois que phys-schost-1 a démarré et monté /global/oracle.
Reportez-vous à la page man vfstab(4) pour de plus amples informations.
A partir d'un nœud quelconque de la grappe, vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds de la grappe.
# sccheck |
Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.
À partir de n'importe quel nœud du cluster, montez le système de fichiers du cluster.
# mount /global/groupe_périphériques/point_montage |
Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.
Vous pouvez utiliser la commande df ou mount pour afficher la liste des systèmes de fichiers montés.
Pour gérer un système de fichiers de cluster VxFS en environnement Sun Cluster, exécutez les commandes administratives à partir du nœud principal sur lequel est monté le système de fichiers du cluster VxFS.
L'exemple suivant crée un système de fichiers UFS sur le métapériphérique Solstice DiskSuite/Solaris Volume Manager ou le volume /dev/md/oracle/rdsk/d1.
# newfs /dev/md/oracle/rdsk/d1 ... [sur chaque nœud :] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [enregistrez et quittez] [sur un nœud :] # sccheck # mount /dev/md/oracle/dsk/d1 /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2001 |
Pour supprimer un système de fichiers de cluster, il suffit de le démonter. Si vous souhaitez également supprimer ou effacer les données, retirez du système le périphérique de disques sous-jacent (ou le métapériphérique ou volume).
Les systèmes de fichiers de cluster sont automatiquement démontés lors de l'arrêt du système qui survient lorsque vous exécutez scshutdown( 1M) pour arrêter l'ensemble du cluster. Un système de fichiers de cluster n'est pas démonté lorsque vous exécutez la commande shutdown qui se contente d'arrêter un nœud individuel. Si, toutefois, le nœud arrêté est le seul nœud connecté au disque, toute tentative d'accès au système de fichiers du cluster sur ce disque entraîne une erreur.
Pour démonter des systèmes de fichiers de cluster, les conditions suivantes doivent être remplies :
Vous devez avoir les privilèges de superutilisateur sur un nœud du cluster.
Le système de fichiers ne doit pas être actif. Un système de fichiers est considéré actif si un utilisateur se trouve dans un répertoire du système, ou si un programme a ouvert l'un des fichiers du système. L'utilisateur ou le programme peut utiliser n'importe quel nœud du cluster.
Devenez superutilisateur sur un nœud du cluster.
Déterminez quels sont les systèmes de fichiers de cluster montés.
# mount -v |
Sur chaque nœud, répertoriez tous les processus utilisant le système de fichiers du cluster afin de déterminer quels seront ceux que vous allez arrêter.
# fuser -c [ -u ] mountpoint |
Indique les fichiers qui sont des points de montage pour les systèmes de fichiers et répertorie tous les fichiers de ces systèmes de fichiers montés.
(Facultatif) Affiche le nom d'utilisateur correspondant à chaque ID de processus.
Indique le nom du système de fichiers du cluster dont vous souhaitez arrêter les processus.
Sur chaque nœud, arrêtez tous les processus pour le système de fichiers du cluster.
Utilisez la méthode de votre choix pour arrêter les processus. Si nécessaire, utilisez la commande suivante pour forcer l'arrêt des processus associés au système de fichiers du cluster :
# fuser -c -k mountpoint |
Une commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers du cluster.
Sur chaque nœud, vérifiez qu'aucun processus n'utilise le système de fichiers.
# fuser -c mountpoint |
Démontez le système de fichiers à partir d'un seul nœud.
# umount mountpoint |
Indique le nom du système de fichiers du cluster à démonter. Il peut s'agir du nom du répertoire dans lequel le système de fichiers du cluster est monté ou du chemin d'accès au nom du périphérique du système de fichiers.
(Facultatif) Modifiez le fichier /etc/vfstab afin d'effacer l'entrée correspondant au système de fichiers du cluster en cours de suppression.
Effectuez cette opération sur chaque nœud de cluster comportant une entrée pour ce système de fichiers dans le fichier /etc/vfstab.
(Facultatif) Supprimez le périphérique de disque group/metadevice/volume/plex.
Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.
L'exemple suivant supprime un système de fichiers de cluster UFS monté sur le périphérique Solstice DiskSuite/Solaris Volume Manager ou le volume/dev/md/oracle/rdsk/d1.
# mount -v ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles # fuser -c /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c -k /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c /global/oracle/d1 /global/oracle/d1: # umount /global/oracle/d1 (sur chaque nœud, supprimez l'entrée surlignée :) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [Enregistrez et quittez.] |
pour supprimer les données du système de fichiers du cluster, vous devez supprimer le périphérique sous-jacent. Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.
L'utilitaire sccheck (1M) vérifie la syntaxe des entrées des systèmes de fichiers du cluster dans le fichier /etc/vfstab . Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.
exécutez la commande sccheck si vous avez apporté à la configuration du cluster des modifications ayant une incidence sur les périphériques ou les composants de gestion des volumes, par exemple la suppression d'un système de fichiers du cluster.
Devenez superutilisateur sur un nœud du cluster.
Vérifiez les montages globaux du cluster.
# sccheck |
Les commandes d'administration du contrôle de chemins de disques (CCD) vous permettent de recevoir les notifications d'échecs secondaires de chemins de disques. Les procédures de cette rubrique vous permettront d'exécuter les tâches administratives associées au contrôle de chemins de disques. Reportez-vous à la rubrique “Notions-clés : administration et développement d'applications” du document Guide des notions fondamentales de Sun Cluster pour SE Solaris pour obtenir des informations conceptuelles concernant le démon de contrôle de chemins de disques. Reportez-vous à la page man scdpm(1M) pour obtenir une description des options de commandes de scdpm et des commandes connexes. Reportez-vous à la page man syslogd(1M) pour les erreurs enregistrées rapportées par le démon.
les chemins de disques sont automatiquement ajoutés à la liste de contrôle lorsque des périphériques d'E/S sont ajoutés à un nœud à l'aide des commandes scgdevs ou scdidadm. Le contrôle de chemins de disques est également automatiquement désactivé lorsque des périphériques sont supprimés d'un nœud à l'aide des commandes Sun Cluster.
Tâche |
Instructions |
---|---|
Contrôler un chemin de disque à l'aide de la commande scdpm | |
Désactiver le contrôle d'un chemin de disque à l'aide de la commande scdpm | |
Imprimer le statut des chemins de disques erronés pour un nœud à l'aide de la commande scdpm | |
Activer ou désactiver le contrôle de chemins de disques à l'aide de scdpm -f |
Les procédures de la rubrique suivante utilisent la commande scdpm avec l'argument du chemin de disque. Celui-ci est toujours constitué d'un nom de nœud et d'un nom de disque. Le nom de nœud n'est pas requis et est défini par défaut sur all s'il n'est pas spécifié. Le tableau suivant décrit les conventions utilisées pour les noms de chemins de disques.
l'utilisation du nom de chemin de disque global est fortement recommandé, car il est cohérent dans l'intégralité du cluster. Le nom de chemin de disque UNIX ne l'est pas, le chemin de disque UNIX d'un disque peut varier d'un nœud de cluster à l'autre. Il peut par exemple être c1t0d0 sur un nœud, et c2t0d0 sur un autre. Si vous utilisez des noms de chemins de disques UNIX, utilisez la commande scdidadm -L pour les mapper sur les noms de chemins de disques globaux avant d'utiliser des commandes de CCD. Consultez la page man scdidadm(1M).
Type de nom |
Exemple de nom de chemin de disque |
Description |
---|---|---|
Chemin de disque global |
phys-schost-1:/dev/did/dsk/d1 |
Chemin de disque d1 sur le nœud phys-schost-1 |
all:d1 |
Chemin de disque d1 sur tous les nœuds du cluster |
|
Chemin de disque UNIX |
phys-schost-1:/dev/rdsk/c0t0d0s0 |
Chemin de disque c0t0d0s0 sur le nœud phys-schost-1 |
phys-schost-1:all |
Tous les chemins de disques sur le nœud phys-schost-1 |
|
Tous les chemins de disques |
all:all |
Tous les chemins de disques sur tous les nœuds du cluster |
Exécutez cette tâche pour effectuer le contrôle des chemins de disques dans votre cluster.
le CCD n'est pas pris en charge par les nœuds exécutant des versions antérieures du Logiciel Sun Cluster 3.1 9/04 . N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.
Devenez superutilisateur sur un nœud du cluster.
Contrôlez un chemin de disque à l'aide de la commande scdpm.
# scdpm -m nœud:chemin_disque |
Reportez-vous au Tableau 4–6 pour les conventions des noms des arguments de nœud:chemin_disque.
Assurez-vous que le chemin de disque est contrôlé.
# scdpm -p node:all |
L'exemple suivant illustre le contrôle du chemin de disque schost-1:/dev/did/rdsk/d1 à partir d'un seul nœud. Sur le nœud schost-1, seul le démon de CCD effectue le contrôle du chemin d'accès au disque /dev/did/dsk/d1.
# scdpm -m schost-1:d1 # scdpm -p schost-1:d1 schost-1:/dev/did/dsk/d1 Ok |
L'exemple suivant illustre le contrôle du chemin de disque schost-1:/dev/did/dsk/d1 à partir de tous les nœuds. Le CCD démarre sur tous les nœuds pour lesquels /dev/did/dsk/d1 constitue un chemin valide.
# scdpm -m all:/dev/did/dsk/d1 # scdpm -p schost-1:d1 schost-1:/dev/did/dsk/d1 Ok |
L'exemple suivant illustre la procédure forçant le démon à relire la configuration du disque à partir du CCR, et imprimant les chemins de disques contrôlés et leurs statuts.
# scdpm -m all:all # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Échec schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d5 Non contrôlé schost-2:/dev/did/dsk/d6 Ok |
Cette procédure permet de désactiver le contrôle d'un chemin de disque.
le CCD n'est pas pris en charge par les nœuds exécutant des versions antérieures du Logiciel Sun Cluster 3.1 9/04 . N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.
Devenez superutilisateur sur un nœud du cluster.
Déterminez l'état du chemin de disque dont le contrôle doit être désactivé.
# scdpm -p [all:] disk path |
Imprime une liste détaillée des statuts en cours d'un chemin de disque donné
Affiche tous les chemins de disques contrôlés et non contrôlés
Sur chaque nœud, désactivez le contrôle des chemins de disques appropriés.
# scdpm -u nœud:chemin_disque |
Reportez-vous au Tableau 4–6 pour les conventions des noms des arguments de nœud:chemin_disque.
L'exemple suivant illustre la désactivation du contrôle du chemin de disque schost-2:/dev/did/rdsk/d1 et l'impression des chemins de disques et de leurs statuts pour l'ensemble du cluster.
# scdpm -u schost-2:/dev/did/rdsk/d1 # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Échec schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d1 Non contrôlé schost-2:/dev/did/dsk/d6 Ok |
La procédure suivante permet d'imprimer les chemins de disques erronés pour un cluster.
le CCD n'est pas pris en charge par les nœuds exécutant des versions antérieures du Logiciel Sun Cluster 3.1 9/04 . N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.
Devenez superutilisateur sur un nœud du cluster.
Imprimez les chemins de disques erronés dans l'ensemble du cluster.
# scdpm -p -F nœud:chemin_disque |
Reportez-vous au Tableau 4–6 pour les conventions des noms des arguments de nœud:chemin_disque.
La procédure suivante permet d'imprimer les chemins de disques erronés pour l'intégralité d'un cluster.
# scdpm -p -F [all:]all schost-1:/dev/did/dsk/d4 Fail schost-1:/dev/did/dsk/d3 Fail schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Fail schost-2:/dev/did/dsk/d5 Fail schost-2:/dev/did/dsk/d6 Fail |
La procédure suivante permet d'effectuer ou de désactiver le contrôle de chemins de disques à partir d'un fichier. Le fichier doit répertorier les commandes de contrôle ou de désactivation du contrôle, les noms des nœuds et les noms des chemins de disques. Les champs du fichier doivent être séparés par une colonne. Formatez chaque liste en suivant l'exemple.
Syntaxe dans le fichier de commandes : [u,m] [node|all]:<[/dev/did/rdsk/]d- | [/dev/rdsk/]c-t-d- | all> Entrée du fichier de commandes u schost-1:/dev/did/rdsk/d5 m schost-2:all |
le CCD n'est pas pris en charge par les nœuds exécutant des versions antérieures du Logiciel Sun Cluster 3.1 9/04 . N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.
Devenez superutilisateur sur un nœud du cluster.
Contrôlez les chemins de disques à partir d'un fichier.
# scdpm -f nomfichier |
Vérifiez les chemins de disques avec statuts pour le cluster.
# scdpm -p all:all |
L'exemple suivant illustre le contrôle ou la désactivation du contrôle de chemins de disques à partir d'un fichier.
# scdpm -f schost_config # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Échec schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d5 Non contrôlé schost-2:/dev/did/dsk/d6 Ok |