Ce chapitre décrit les procédures d'administration de périphériques globaux, du contrôle de chemin de disques et de systèmes de fichiers de cluster.
Les procédures décrites dans ce chapitre sont les suivantes :
Suppression d'un nœud de tous les groupes de périphériques de disques
Création de plus de trois ensembles de disques dans un cluster
SPARC : Configuration du nombre souhaité de nœuds secondaires (VERITAS Volume Manager)
SPARC : Suppression d'un volume d'un groupe de périphériques de disques (VERITAS Volume Manager)
SPARC : ajout d'un nœud à un groupe de périphériques de disques (VERITAS Volume Manager)
SPARC : suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager)
SPARC : suppression d'un nœud d'un groupe de périphériques de disques bruts
Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques
Affichage de la configuration d'un groupe de périphériques de disques
Changement de nœud principal pour un groupe de périphériques
Mise à l'état de maintenance d'un groupe de périphériques de disques
Pour obtenir une description plus détaillée des procédures correspondantes dans ce chapitre, voir le Tableau 4–2.
Pour accéder aux définitions des périphériques globaux, de l'espace de noms global, des groupes de périphériques de disques, du contrôle des chemins de disques et du système de fichiers de cluster, reportez-vous au document Guide des notions fondamentales de Sun Cluster pour SE Solaris.
L'administration des groupes de périphériques de disques Sun Cluster dépend du gestionnaire de volumes installé sur le cluster. Solstice DiskSuite/Solaris Volume Manager reconnaît les clusters. Il vous suffit donc d'ajouter, d'enregistrer et de supprimer des groupes de périphériques de disques à l'aide de la commande Solstice DiskSuite/Solaris Volume Manager metaset(1M). Si vous utilisez VERITAS Volume Manager (VxVM), vous créez des groupes de disques à l'aide des commandes VxVM. Vous pouvez ensuite enregistrer ces groupes en tant que groupes de périphériques de disques Sun Cluster à l'aide de l'utilitaire scsetup(1M). Pour supprimer des groupes de périphériques de disques VxVM, vous utiliserez les commandes scsetup et VxVM.
Le logiciel Sun Cluster crée automatiquement dans le cluster un groupe de périphériques de disques bruts pour chaque disque, ainsi qu'un lecteur de bande. Les groupes de périphériques de cluster restent à l'état hors ligne tant que vous ne les utilisez pas comme périphériques globaux. Lorsque vous administrez des groupes de périphériques de disques ou des groupes de disques du gestionnaire de volumes, vous devez vous trouver sur le nœud du cluster correspondant au nœud principal du groupe en question.
Normalement, vous n'avez pas besoin d'administrer l'espace de noms du périphérique global. L'espace de noms global est automatiquement configuré au cours de l'installation et mis à jour automatiquement pendant la réinitialisation du système d'exploitation Solaris. Cependant, si l'espace de noms global nécessite une mise à jour, vous pouvez exécuter la commande scgdevs(1M) à partir de n'importe quel nœud de cluster. Via cette commande, l'espace de noms global est alors mis à jour sur tous les autres nœuds du cluster, ainsi que sur les nœuds susceptibles de s'ajouter au cluster par la suite.
Les modifications apportées aux autorisations sur les périphériques globaux ne sont pas automatiquement diffusées vers tous les nœuds du cluster pour Solstice DiskSuite/Solaris Volume Manager et pour les périphériques de disques. Si vous souhaitez modifier ces autorisations, vous devez le faire manuellement sur tous les nœuds du cluster. Si, par exemple, vous souhaitez modifier les autorisations sur le périphérique global /dev/global/dsk/d3s0 pour la définir sur 644, vous devez exécuter
# chmod 644 /dev/global/dsk/d3s0
sur tous les nœuds du cluster.
VxVM ne prend pas en charge la commande chmod. Pour modifier les autorisations sur les périphériques globaux dans VxVM, reportez-vous au manuel de l'administrateur VxVM.
Voici les points à prendre en considération dans le cadre d'une reconfiguration dynamique (DR) de périphériques de disques et de bande dans un cluster.
Toutes les exigences, procédures et restrictions qui sont documentées pour la fonction Solaris DR s'appliquent également au support DR de Sun Cluster. La seule exception s'applique aux opérations de quiescence de l'environnement d'exploitation. Reportez-vous donc à la documentation relative à la DR de Solaris avant d'utiliser la fonction DR du logiciel Sun Cluster. Relisez surtout les conditions applicables aux périphériques ES hors réseau dans le cadre d'une opération DR de détachement.
Sun Cluster rejette les opérations de suppression de carte DR sur les périphériques actifs dans le nœud principal. Les opérations DR peuvent être appliquées à des périphériques inactifs du nœud principal, ainsi qu'à l'ensemble des périphériques des nœuds secondaires.
Après l'opération DR, l'accès aux données de cluster se poursuit comme auparavant.
Sun Cluster rejette les opérations DR ayant un impact sur la disponibilité des périphériques de quorum. Pour de plus amples informations, consultez la section Reconfiguration dynamique avec périphériques de quorum.
tout échec sur le nœud principal, alors que vous effectuez une opération DR sur un nœud secondaire, a une incidence sur la disponibilité du cluster. Le nœud principal ne pourra pas effectuer de reprise sur panne tant qu'un nouveau nœud secondaire n'est pas disponible.
Procédez comme suit, en respectant l'ordre des étapes, pour effectuer des opérations DR sur des périphériques globaux.
Tableau 4–1 Plan des tâches : reconfiguration dynamique avec des périphériques de disques et de bande
Tâche |
Instructions |
---|---|
1. Pour effectuer sur le nœud principal une opération DR risquant d'avoir une incidence sur un groupe de périphériques actif, désactivez au préalable le nœud principal et les nœuds secondaires. |
Changement de nœud principal pour un groupe de périphériques |
2. Effectuez l'opération DR de suppression sur le périphérique que vous souhaitez supprimer. |
Sun Enterprise 10000 DR Configuration Guide et le Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual dans les collections Solaris 8 on Sun Hardware et Solaris 9 on Sun Hardware. |
Pour que Sun Cluster mette correctement à jour l'espace de noms VxVM, vous devez enregistrer les modifications apportées à un groupe de périphériques de disques ou à un volume VxVM à mesure que la configuration du groupe de périphériques de disques Sun Cluster change. La mise à jour de l'espace de noms sur tous les nœuds de cluster est ainsi assurée. Les modifications de configuration ayant une incidence sur l'espace de noms comprennent l'ajout, la suppression ou le changement de nom d'un volume. La modification des autorisations de volume, le propriétaire ou l'identificateur du groupe a également une incidence sur l'espace de noms.
ne procédez à l'importation ou au déplacement de groupes de disques de VxVM à l'aide des commandes de VxVM qu'une fois le groupe de disques enregistré dans le cluster comme groupe de périphériques de disques Sun Cluster. Le logiciel Sun Cluster gère toutes les situations nécessitant l'importation ou la déportation de groupes de disques.
Chaque groupe de disques VxVM doit posséder un code mineur unique sur tout le cluster. Par défaut, lorsqu'un groupe de disques est créé, VxVM choisit comme code mineur de base du groupe un nombre aléatoire, multiple de mille. Pour la plupart des configurations comprenant un petit nombre de groupes de disques, cela suffit à garantir l'unicité du code. Le code mineur pour un groupe de disques nouvellement créé peut entrer en conflit avec le code mineur d'un groupe de disques préexistant ayant été importé sur un nœud différent. Dans ce cas, il sera impossible d'enregistrer le groupe de périphériques de disques Sun Cluster . Pour résoudre ce problème, il faut attribuer au nouveau groupe de disques un nouveau code mineur unique, puis l'enregistrer en tant que groupe de périphériques de disques Sun Cluster.
Si vous configurez un volume en miroir, vous pouvez utiliser le système DRL (Dirty Region Logging) pour réduire le délai de récupération du volume en cas de panne d'un nœud. Il est fortement recommandé d'utiliser ce système, même s'il risque de diminuer le débit d'E/S.
VxVM ne prend pas en charge la commande chmod. Pour modifier les autorisations sur les périphériques globaux dans VxVM, reportez-vous au manuel de l'administrateur VxVM .
Le logiciel Sun Cluster 3.1 4/04 ne prend pas en charge la fonction de multi-chemin dynamique VxVM (DMP) qui permet de gérer plusieurs chemins à partir du même nœud.
Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server ou Oracle Real Application Clusters, utilisez la fonction VxVM du cluster décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager. La création de groupes de disques partagés pour Oracle Parallel Server ou Oracle Real Application Clusters et la création d'autres groupes de disques s'effectuent différemment. Vous devez importer les groupes de disques partagés d'Oracle Parallel Server ou Oracle Real Application Clusters à l'aide de la commande vxdg -s. Vous n'êtes pas tenu d'enregistrer les groupes de disques partagés d'Oracle Parallel Server ou Oracle Real Application Clusters au sein de la structure du cluster. Pour créer d'autres groupes de disques VxVM, consultez la section SPARC : Création d'un nouveau groupe de disques lors de l'initialisation des disques (VERITAS Volume Manager) .
Aucune commande spéciale de Sun Cluster n'est nécessaire à l'administration des systèmes de fichiers de cluster. Vous administrez un système de fichiers de cluster exactement de la même façon que n'importe quel autre système de fichiers Solaris, à l'aide des commandes standard Solaris, telles que mount, newfs, etc. Pour monter des systèmes de fichiers de cluster, indiquez l'option -g à la suite de la commande mount. Les systèmes de fichiers de cluster peuvent également être montés automatiquement au moment de l'initialisation.
un système de fichiers de cluster qui lit des fichiers ne procède pas à la mise à jour de l'horaire d'accès à ces fichiers.
Les restrictions suivantes s'appliquent à l'administration du système de fichiers de cluster :
Seuls les répertoires vides prennent en charge la commande unlink(1M).
La commande lockfs -d n'est pas prise en charge. Utilisez lockfs -n à la place.
Il est impossible de remonter un système de fichiers en utilisant l'option de montage directio alliée à une heure donnée.
Vous ne pouvez pas définir l'option de montage directio sur un seul fichier au moyen de l'ioctl directio.
Les fonctions VxFS suivantes ne sont pas prises en charge dans un système de fichiers de cluster Sun Cluster 3.1. Ces dernières sont cependant prises en charge dans un système de fichiers local.
E/S rapide ;
Instantanés
points de contrôle du stockage ;
Options de montage spécifiques à VxFS :
convosync (Convertir O_SYNC) ;
mincache ;
qlog, delaylog, tmplog ;
système de fichiers de cluster VERITAS (requiert la fonction de cluster VxVM et VERITAS Cluster Server).
Les avis de cache peuvent être utilisés, mais ils ne s'appliquent qu'au noeud sélectionné.
Toutes les autres options et fonctions de VxFS prises en charge dans un système de fichiers de cluster, le sont par le logiciel Sun Cluster 3.1. Pour de plus amples informations sur les options de VxFS prises en charge dans une configuration de cluster, consultez la documentation de VxFS.
Les directives suivantes, relatives à l'utilisation de VxFS pour la création de systèmes de fichiers de cluster à haut niveau de disponibilité, s'appliquent essentiellement à une configuration Sun Cluster 3.1 4/04.
Suivez les procédures de la documentation VxFS pour créer un système de fichiers VxFS.
Montez et démontez un système de fichiers VxFS à partir du nœud principal. Le nœud principal maîtrise le disque sur lequel le système de fichiers VxFS réside. Tout montage ou démontage d'un système de fichiers VxFS à partir d'un nœud secondaire risque d'échouer.
Exécutez toujours les commandes d'administration de VxFS à partir du nœud principal du système de fichiers de cluster VxFS.
Les directives suivantes, relatives à l'administration des systèmes de fichiers de cluster VxFS, ne sont pas spécifiques au logiciel Sun Cluster 3.1 4/04. Ces directives diffèrent toutefois des procédures d'administration des systèmes de fichiers de cluster UFS.
Vous pouvez administrer des fichiers sur un système de fichiers VxFS à partir de n'importe quel nœud du cluster. ioctls constitue une exception: vous ne devez l' émettre qu'à partir du nœud principal. Si vous ne savez pas si la commande d'administration utilise ioctls, exécutez-la toujours à partir du nœud principal.
Lorsqu'un système de fichiers de cluster VxFS procède à un basculement sur un nœud secondaire, toutes les opérations standard d'appel du système, en cours au moment de la panne, sont ré-exécutées en toute transparence sur le nouveau nœud principal. Cependant, toute opération qui impliquerait la commande ioctl, en cours au moment de la panne, échoue. Vérifiez l'état du système de fichiers du cluster VxFS après chaque basculement. Certaines commandes administratives exécutées sur l'ancien nœud principal avant le basculement nécessitent parfois des mesures correctives. Pour de plus amples informations, reportez-vous à la documentation de VxFS .
L'utilitaire scsetup(1M) est une interface interactive pour la commande scconf(1M). scsetup génère les commandes scconf. Les commandes générées sont présentées dans les exemples proposés après certaines procédures.
le logiciel Sun Cluster crée automatiquement dans le cluster un groupe de périphériques de disques bruts pour chaque disque, ainsi qu'un lecteur de bande. Les groupes de périphériques de cluster restent à l'état hors ligne tant que vous ne les utilisez pas comme périphériques globaux.
Tâche |
Pour les instructions, voir... |
---|---|
Mise à jour de l'espace de noms de périphériques globaux sans réinitialisation de reconfiguration - Utilisez la commande scgdevs(1M) | |
Ajout et enregistrement de disques Solstice DiskSuite/Solaris Volume Manager en tant que groupes de périphériques de disques - Utilisez la commande metaset(1M) | |
Suppression des groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager de la configuration - Utilisez les commandes metaset et metaclear(1M) | |
Suppression d'un nœud de tous les groupes de périphériques de disques - Utilisez scconf, metaset et scsetup |
Suppression d'un nœud de tous les groupes de périphériques de disques |
Suppression d'un nœud d'un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager - Utilisez metaset | |
SPARC : ajout des groupes de disques VERITAS Volume Manager comme groupes de périphériques de disques - Utilisez les commandes de VxVM et scsetup(1M) |
|
SPARC : suppression des groupes de périphériques de disques VERITAS Volume Manager de la configuration - Utilisez scsetup (pour générer scconf) |
SPARC : Suppression d'un volume d'un groupe de périphériques de disques (VERITAS Volume Manager)
|
SPARC : ajout d'un nœud à un groupe de périphériques de disques VERITAS Volume Manager - Utilisez scsetup pour générer scconf |
SPARC : ajout d'un nœud à un groupe de périphériques de disques (VERITAS Volume Manager) |
SPARC : suppression d'un nœud d'un groupe de périphériques de disques VERITAS Volume Manager - Utilisez scsetup pour générer scconf |
SPARC : suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager) |
Suppression d'un nœud d'un groupe de périphériques de disques bruts - Utilisez la commande scconf(1M) |
SPARC : suppression d'un nœud d'un groupe de périphériques de disques bruts |
Modification des propriétés de groupes de périphériques de disques - Utilisez scsetup pour générer scconf | |
Affichage des groupes et des propriétés des périphériques de disques - Utilisez scconf |
Affichage de la configuration d'un groupe de périphériques de disques |
Modification du nombre de nœuds secondaires souhaités pour un groupe de périphériques - Utilisez scsetup pour générer scconf |
Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques |
Changement du nœud principal d'un groupe de périphériques de disques - Utilisez la commande scswitch(1M) |
Changement de nœud principal pour un groupe de périphériques |
Mise à l'état de maintenance d'un groupe de périphériques de disques - Utilisez metaset ou vxdg |
Mise à l'état de maintenance d'un groupe de périphériques de disques |
Lors de l'ajout d'un nouveau périphérique global, mettez à jour manuellement l'espace de noms du périphérique global en exécutant la commande scgdevs(1M).
la commande scgdevs n'a aucune incidence si le nœud qui l'exécute n'est pas actuellement membre du cluster. De même, la commande n'a aucun effet si le système de fichiers /global/.devices/node@ id_nœud n'est pas monté.
Devenez superutilisateur sur un nœud du cluster.
Utilisez la commande scgdevs pour reconfigurer l'espace de noms.
# scgdevs |
L'exemple suivant illustre l'affichage type généré par l'exécution réussie de scgdevs.
# scgdevs Configuring the /dev/global directory (global devices)... obtaining access to all attached disks reservation program successfully exiting |
Utilisez la commande metaset(1M) pour créer un jeu de disques Solstice DiskSuite/Solaris Volume Manager et enregistrez-le en tant que groupe de périphériques de disques Sun Cluster. Lorsque vous enregistrez le jeu de disques, le nom que vous lui avez donné est automatiquement affecté au groupe de périphériques de disques.
Devenez superutilisateur sur le nœud connecté aux disques sur lesquels vous souhaitez créer le jeu de disques.
Calculez le nombre de noms de métapériphériques Solstice DiskSuite ou de volumes Solaris Volume Manager dont vous aurez besoin pour votre configuration, et modifiez le fichier /kernel/drv/md.conf sur chaque nœud.
Reportez-vous à la section “How to Set the Number of Metadevice or Volume Names and Disk Sets ” du document Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Utilisez la commande metaset(1M) pour ajouter le jeu de disques Solstice DiskSuite/Solaris Volume Manager et l'enregistrer comme groupe de périphériques de disques dans Sun Cluster. Pour créer un groupe de disques multipropriétaire, utilisez l'option –M.
# metaset -s diskset -a -M -h nodelist |
Spécifie l'ensemble de disques à créer.
Ajoute la liste des nœuds capables de servir de maîtres à l'ensemble de disques.
Désigne le groupe de disques comme multipropriétaire.
L'exécution de la commande metaset pour configurer un groupe de périphériques de Solstice DiskSuite/Solaris Volume Manager sur un cluster crée un secondaire par défaut, quel que soit le nombre de nœuds inclus dans ce groupe de périphériques. Une fois le groupe de périphériques créé, vous pouvez modifier le nombre souhaité de nœuds secondaires à l'aide de l'utilitaire scsetup(1M). Pour de plus amples informations sur le basculement du disque, reportez-vous à la section Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques.
Vérifiez que le groupe de périphériques de disques a bien été ajouté.
Le nom du groupe de périphériques de disques correspond au nom de l'ensemble de disques spécifié avec la commande metaset.
# scconf -p | grep disk-device-group |
L'exemple ci-après illustre la création d'un jeu de disques et d'un groupe de périphériques de disques et la vérification que ce dernier a été créé correctement.
# metaset -s dg-schost-1 -a -h phys-schost-1 # scconf -p | grep dg-schost-1 Device group name: dg-schost-1 |
Les groupes de périphériques de disques sont des ensembles de disques Solstice DiskSuite/Solaris Volume Manager ayant été enregistrés avec Sun Cluster. Pour supprimer un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager , utilisez les commandes metaclear et metaset. Ces commandes suppriment le groupe de périphériques de disques portant le nom indiqué et annulent l'enregistrement du groupe de disques comme groupe de périphériques de disques Sun Cluster.
Reportez-vous à la documentation de Solstice DiskSuite/Solaris Volume Manager pour connaître la procédure à suivre pour supprimer un ensemble de disques.
Cette procédure permet de supprimer un nœud de cluster de tous les groupes de périphériques de disques répertoriant le nœud dans leurs listes de nœuds principaux potentiels.
Devenez superutilisateur sur le nœud que vous souhaitez retirer comme nœud principal potentiel de tous les groupes de périphériques de disques.
Déterminez le(s) groupe(s) de périphériques de disques dont le nœud à supprimer est membre.
Recherchez le nom du nœud dans la liste Liste des nœuds du groupe de périphériques pour chaque groupe de périphériques de disques.
# scconf -p | grep "Device group" |
Des groupes de périphériques de disques sont-ils identifiés à l'Étape 2 de la procédure applicable aux groupes de périphériques SDS/SVM ?
Si oui, suivez les procédures de la section Suppression d'un nœud d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager).
Sinon, passez à l'Étape 4.
Des groupes de périphériques de disques sont-ils identifiés à l'Étape 2 de la procédure applicable aux groupes de périphériques VxVM ?
Si oui, suivez les procédures de la section SPARC : suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager).
Sinon, passez à l'Étape 5.
Déterminez le(s) groupe(s) de périphériques de disques bruts dont fait partie le nœud à supprimer.
Remarquez que la commande suivante contient deux “v”s dans -pvv. Le deuxième “v” est nécessaire à l'affichage des groupes de périphériques de disques bruts.
# scconf -pvv | grep "Device group" |
Des groupes de périphériques de disques sont-ils répertoriés à l'Étape 5 de la procédure applicable aux groupes de périphériques Disk, Local_Disk, ou les deux ?
Si oui, suivez les procédures de la section SPARC : suppression d'un nœud d'un groupe de périphériques de disques bruts.
Sinon, passez à l'Étape 7.
Vérifiez que le nœud a bien été retiré de la liste de nœuds principaux potentiels de tous les groupes de périphériques de disques.
La commande ne produit aucun retour si le nœud n'est plus inscrit comme primaire potentiel d'un groupe de périphériques de disques.
# scconf -pvv | grep "Device group" | grep nodename |
Utilisez cette procédure pour supprimer un nœud de cluster d'une liste de nœuds principaux potentiels d'un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager. Répétez la commande metaset pour chaque groupe de périphériques de disques duquel vous voulez supprimer le nœud.
Vérifiez que le nœud est toujours membre du groupe de périphériques de disques, ce dernier devant être un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager.
Le type de groupe de périphériques SDS/SVM indique un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager.
phys-schost-1% scconf -pv | grep '(global-galileo)' (global-galileo) Device group type: SDS/SVM (global-galileo) Device group failback enabled: no (global-galileo) Device group node list: phys-schost-1, phys-schost-2 (global-galileo) Diskset name: global-galileo phys-schost-1% |
Déterminez quel nœud est actuellement le nœud principal pour le groupe de périphériques.
# scstat -D |
Devenez superutilisateur sur le nœud possédant actuellement le groupe de périphériques de disques à modifier.
Dans le groupe de périphériques de disques, supprimez le nom d'hôte du nœud.
# metaset -s setname -d -h nodelist |
Spécifie le nom du groupe de périphériques de disques.
Supprime du groupe de périphériques de disques les nœuds identifiés par la commande -h.
Supprime le nœud de la liste des nœuds qui peuvent contrôler le groupe de périphériques de disques.
la mise à jour peut prendre quelques minutes.
Si la commande échoue, ajoutez l'option -f (Force) à la commande.
# metaset -s setname -d -f -h nodelist |
Répétez l'Étape 4 pour chaque groupe de périphériques de disques dont le nœud ne doit plus être un nœud principal potentiel.
Vérifiez que le nœud a bien été supprimé du groupe de périphériques de disques.
Le nom du groupe de périphériques de disques correspond au nom de l'ensemble de disques spécifié avec la commande metaset.
phys-schost-1% scconf -pv | grep devicegroup Device group node list: phys-schost-1, phys-schost-2 |
L'exemple suivant illustre la suppression du nom d'hôte phys-schost-2 d'une configuration de groupe de périphériques de disques. Cette exemple élimine phys-schost-2 comme nœud principal potentiel pour le groupe de périphériques de disques désigné. Assurez-vous que le nœud a bien été supprimé en exécutant la commande scstat -D. Assurez-vous que le nœud supprimé n'apparaît plus dans le texte de l'écran.
[Determine the Solstice DiskSuite/Solaris Volume Manager disk device group(2) for the node:] # scconf -pv | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group diskset name: dg-schost-1 [Determine which node is the current primary for the disk device group:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [Become superuser on the node that currently owns the disk device group.] [Remove the hostname from the disk device group:] # metaset -s dg-schost-1 -d -h phys-schost-2 [Verify removal of the node:] phys-schost-1% scconf -pv | grep dg-schost-1 -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 |
Si vous prévoyez de créer plus de trois ensembles de disques dans le cluster, suivez d'abord les étapes indiquées ci-dessous. Ces étapes s'appliquent que vous installiez des jeux de disques pour la première fois ou que vous en ajoutiez dans un cluster déjà configuré.
Assurez-vous que la valeur de la variable md_nsets est suffisamment élevée. Cette valeur doit être appropriée au nombre total de jeux de disques que vous souhaitez créer dans le cluster.
À partir d'un nœud du cluster, vérifiez la valeur de la variable md_nsets dans le fichier /kernel/drv/md.conf.
Si le nombre de jeux de disques du cluster est supérieur à la valeur indiquée pour md_nsets moins un, augmentez la valeur de md_nsets sur chaque nœud.
Le nombre maximum autorisé d'ensembles de disques est la valeur de md_nsets moins un. La valeur maximale autorisée pour md_nsets est 32.
Vérifiez que le fichier /kernel/drv/md.conf est identique sur tous les nœuds du cluster.
le non-respect de cette règle peut entraîner des erreurs graves de Solstice DiskSuite/Solaris Volume Manager et un risque de pertes de données.
Arrêtez le cluster depuis un nœud.
# scshutdown -g0 -y |
Réinitialisez tous les nœuds du cluster.
SPARC :
ok boot |
x86 :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
Exécutez la commande devfsadm(1M) sur chaque nœud du cluster.
Vous pouvez exécuter cette commande sur tous les nœuds du cluster en même temps.
Exécutez la commande scgdevs(1M) à partir d'un nœud du cluster.
Vérifiez, sur chaque nœud, que la commande scgdevs s'est déroulée avec succès avant de commencer à créer des jeux de disques.
La commande scgdevs se déclenche à distance sur tous les nœuds, quand bien même elle est exécutée depuis un seul nœud. Pour savoir si la commande scgdevs s'est exécutée convenablement, exécutez la commande suivante sur chaque nœud du cluster.
% ps -ef | grep scgdevs |
cette procédure s'applique uniquement à l'initialisation de disques. Pour encapsuler des disques, suivez la procédure SPARC : Création d'un nouveau groupe de disques lors de l'encapsulage de disques (VERITAS Volume Manager).
Après avoir ajouté le groupe de disques VxVM , vous devez enregistrer le groupe de périphériques de disques.
Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server ou Oracle Real Application Clusters, utilisez la fonction VxVM du cluster décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager.
Devenez superutilisateur sur un nœud du cluster connecté physiquement aux disques qui composent le groupe de disques à ajouter.
Créez le groupe de disques et le volume VxVM.
Pour cela, utilisez la méthode de votre choix.
si vous configurez un volume en miroir, vous pouvez utiliser le système DRL (Dirty Region Logging) pour réduire le délai de récupération du volume en cas de panne d'un nœud. Cependant, ce système risque de réduire le débit d'E/S.
Reportez-vous à la documentation de VERITAS Volume Manager pour connaître les procédures à suivre.
Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.
Reportez-vous à la section SPARC : enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).
N'enregistrez pas les groupes de disques partagés Oracle Parallel Server ou Oracle Real Application Clusters dans la structure du cluster.
Cette procédure concerne uniquement l'encapsulation de disques. Pour initialiser des disques, suivez la procédure SPARC : Création d'un nouveau groupe de disques lors de l'initialisation des disques (VERITAS Volume Manager) .
Vous pouvez transformer des disques non root en groupes de périphériques de disques Sun Cluster en les encapsulant en tant que groupes de disques VxVM , puis en les enregistrant comme groupes de périphériques de disques Sun Cluster.
L'encapsulage de disques n'est possible que lors de la création initiale d'un groupe de disques VxVM. Une fois un groupe de disques VxVM créé et enregistré comme groupe de périphériques de disques Sun Cluster, seuls les disques pouvant être initialisés doivent être ajoutés au groupe.
Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server ou Oracle Real Application Clusters, utilisez la fonction VxVM du cluster décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager.
Devenez superutilisateur sur un nœud du cluster.
Si le disque que vous souhaitez encapsuler possède des entrées de système de fichiers dans le fichier /etc/vfstab, vérifiez que l'option mount at boot est bien configurée sur no.
Reconfigurez sur yes une fois que le disque est encapsulé et enregistré comme groupe de périphériques de disques Sun Cluster.
Encapsulez les disques.
Pour cela, utilisez les menus vxdiskadm ou l'interface d'utilisation graphique. VxVM requiert deux partitions libres ainsi que des cylindres non attribués au début ou à la fin du disque. La tranche deux doit également être définie sur le disque entier. Pour de plus amples informations, reportez-vous à la page man vxdiskadm.
Arrêtez le nœud et redémarrez-le.
La commande scswitch(1M) permet de faire passer tous les groupes de ressources et de périphériques du nœud principal au nœud préféré suivant. Utilisez la commande shutdown pour arrêter et redémarrer le nœud.
# scswitch -S -h node[,...] # shutdown -g0 -y -i6 |
Si nécessaire, transférez de nouveau tous les groupes de ressources et de périphériques sur le nœud d'origine.
Si les groupes de ressources et de périphériques étaient configurés à l'origine pour revenir au nœud initial en cas de panne, cette étape n'est pas nécessaire.
# scswitch -z -D disk-device-group -h node[,...] # scswitch -z -g resource-group -h node[,...] |
Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.
N'enregistrez pas les groupes de disques partagés Oracle Parallel Server ou Oracle Real Application Clusters dans la structure du cluster.
Si vous avez réglé l'option mount at boot sur no à l'Étape 2, redéfinissez-la sur yes.
Lorsque vous ajoutez un nouveau volume à un groupe de périphériques de disques VxVM existant, exécutez la procédure à partir du nœud principal du groupe de périphériques de disques en ligne.
Après avoir ajouté le volume, vous devez enregistrer le changement de configuration en suivant la procédure SPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).
Devenez superutilisateur sur un nœud du cluster.
Déterminez le nœud principal du groupe de périphériques de disques auquel vous allez ajouter le nouveau volume.
# scstat -D |
Si le groupe de périphériques de disques est hors ligne, mettez le groupe de périphériques en ligne.
# scswitch -z -D disk-device-group -h node[,...] |
Modifie le nœud principal du groupe de périphériques spécifié.
Indique le nom du nœud vers lequel le groupe de périphériques de disques doit passer. Ce nœud devient le nouveau nœud principal.
À partir du nœud principal (le maître actuel du groupe de périphériques de disques), créez le volume VxVM dans le groupe de disques.
Reportez-vous à la documentation de VERITAS Volume Manager pour connaître la procédure de création d'un volume VxVM .
Enregistrez le groupe de disques de VxVM pour mettre à jour l'espace de noms global.
DPM
Pour transformer un groupe de disques VxVM existant en groupe de disques Sun Cluster, vous devez d'abord importer le groupe de disques sur le nœud courant, puis l'enregistrer en tant que groupe de périphériques de disques Sun Cluster.
Devenez superutilisateur sur un nœud du cluster.
Importez le groupe de disques VxVM sur le nœud courant.
# vxdg import diskgroup |
Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.
Si l'enregistrement d'un groupe de périphériques de disques échoue parce qu'un code mineur entre en conflit avec celui d'un autre groupe de disques, vous devez attribuer au nouveau groupe un nouveau code mineur inutilisé. Cela fait, vous devez ré-exécuter la procédure d'enregistrement du groupe de disques en tant que groupe de périphériques de disques Sun Cluster .
Devenez superutilisateur sur un nœud du cluster.
Déterminez les codes mineurs utilisés.
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* |
Choisissez un autre multiple de 1000 non utilisé comme code mineur de base pour le nouveau groupe de disques.
Attribuez ce nouveau code mineur au groupe de disques.
# vxdg reminor diskgroup base-minor-number |
Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.
L'exemple suivant illustre l'utilisation des codes mineurs 16000-16002 et 4000-4001. La commande vxdg reminor permet d'attribuer un nouveau code mineur de base 5000 au nouveau groupe de périphériques de disques.
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* /global/.devices/node@nodeid/dev/vx/dsk/dg1 brw------- 1 root root 56,16000 Oct 7 11:32 dg1v1 brw------- 1 root root 56,16001 Oct 7 11:32 dg1v2 brw------- 1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/node@nodeid/dev/vx/dsk/dg2 brw------- 1 root root 56,4000 Oct 7 11:32 dg2v1 brw------- 1 root root 56,4001 Oct 7 11:32 dg2v2 # vxdg reminor dg3 5000 |
Cette procédure utilise l'utilitaire scsetup(1M) pour enregistrer le groupe de disques associé VxVM en tant que groupe de périphériques de disques Sun Cluster.
une fois un groupe de périphériques de disques enregistré dans le cluster, n'importez ou ne déplacez jamais un groupe de disques VxVM à l'aide des commandes VxVM. Si vous modifiez le volume ou le groupe de disques VxVM, suivez la procédure SPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager) pour enregistrer les modifications de la configuration du groupe de périphériques de disques. Cette procédure permet d'assurer que l'espace de noms global est à l'état approprié.
Pour enregistrer un groupe de périphériques de disques VxVM , les conditions suivantes doivent être remplies :
Vous devez avoir les privilèges de superutilisateur sur un nœud du cluster.
Vous devez connaître le nom du groupe de disques VxVM à enregistrer comme groupe de périphériques de disques.
Vous devez définir l'ordre de préférence pour la maîtrise du groupe de périphériques de disques par les nœuds.
Vous devez disposer d'un nombre souhaité de nœuds secondaires pour le groupe de périphériques de disques.
Lorsque vous définissez l'ordre de préférence, vous devez également indiquer si vous souhaitez que le groupe de périphériques de disques revienne au nœud préféré lorsque celui-ci rejoint le cluster après avoir été arrêté.
Pour de plus amples informations sur les préférences de nœuds et les options de rétablissement, reportez-vous au document scconf(1M).
Les nœuds de cluster non principaux (de rechange) deviennent secondaires selon l'ordre de préférence du nœud. Le nombre par défaut de secondaires pour un groupe de périphériques est normalement défini sur un. Ce paramètre par défaut minimise la dégradation des performances causée par un contrôle principal de plusieurs nœuds secondaires au cours du fonctionnement normal. Par exemple, sur un cluster à quatre nœuds, le comportement par défaut configure un nœud principal, un nœud secondaire et deux nœuds de rechange. Reportez-vous également à la section SPARC : Configuration du nombre souhaité de nœuds secondaires (VERITAS Volume Manager).
Devenez superutilisateur sur un nœud du cluster.
Lancez l'utilitaire scsetup.
# scsetup |
Le menu principal apparaît.
Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Device groups and volumes).
Le menu Device Groups apparaît.
Pour enregistrer un groupe de périphériques de disques VxVM , entrez 1 (Register a VxVM disk group as a device group).
Suivez les instructions et entrez le nom du groupe de disques VxVM à enregistrer comme groupe de périphériques de disques Sun Cluster.
Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server/Real Application Clusters, vous n'enregistrez pas les groupes de disques partagés dans la structure du cluster. Utilisez la fonction VxVM du cluster, décrite dans le document VERITAS Volume Manager Administrator's Reference Guide.
Si vous rencontrez l'erreur suivante alors que vous tentez d'enregistrer le groupe de périphériques de disques, redonnez un code mineur au groupe de périphériques de disques.
scconf: Failed to add device group - in use |
Pour redonner un code mineur au groupe de périphériques de disques, suivez la procédure SPARC : Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager). Cette procédure vous permet d'affecter un nouveau code mineur n'entrant pas en conflit avec un code mineur utilisé par un groupe de périphériques de disques existant.
Vérifiez que le groupe de périphériques de disques est enregistré et en ligne.
Si le groupe de périphériques de disques est correctement enregistré, les informations relatives au nouveau groupe de périphériques de disques s'affichent lorsque vous utilisez la commande suivante :
# scstat -D |
Si vous modifiez les informations de configuration d'un groupe de disques ou d'un volume VxVM déjà enregistré dans le cluster, vous devez synchroniser le groupe de périphériques de disques à l'aide de la commande scsetup(1M). Ces modifications de configuration comprennent l'ajout ou la suppression de volumes, ainsi que la modification de groupe, de propriétaire ou d'autorisations de volumes existants. Le réenregistrement après des modifications de configuration assure que l'espace de noms global est à l'état correct. Reportez-vous à la section Mise à jour de l'espace de noms de périphériques globaux.
L'exemple suivant montre la commande scconf générée par scsetup lors de l'enregistrement d'un groupe de périphériques de disques VxVM (dg1), ainsi que l'étape de vérification. Cet exemple suppose que le groupe de disques VxVM et le volume sont créés au préalable.
# scsetup scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2 # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg1 phys-schost-1 phys-schost-2 -- Device Group Status -- Device Group Status ------------ ------ Device group status: dg1 Online |
Pour créer un système de fichiers de cluster dans le groupe de périphériques de disques VxVM, consultez la section Ajout d'un système de fichiers de cluster .
En cas de problème avec le code mineur, consultez la section SPARC : Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager).
Lorsque vous modifiez une configuration pour un groupe de disque ou volume VxVM il est nécessaire d'enregistrer les modifications pour le groupe de périphériques de disques Sun Cluster. L'enregistrement permet d'assurer que l'espace de noms global est dans l'état qui convient.
Devenez superutilisateur sur un nœud du cluster.
Exécutez l'utilitaire scsetup(1M).
# scsetup |
Le menu principal apparaît.
Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Device groups and volumes).
Le menu Device Groups apparaît.
Pour enregistrer des modifications de configuration, entrez 2 (Synchroniser les données sur le volume d'un groupe de périphériques VxVM).
Suivez les instructions et entrez le groupe de disques VxVM dont la configuration a été modifiée.
L'exemple suivant montre la commande scconf générée par scsetup lors de l'enregistrement d'un groupe de périphériques de disques VxVM modifié (dg1). Cet exemple suppose que le groupe de disques VxVM et le volume sont créés au préalable.
# scsetup scconf -c -D name=dg1,sync |
La propriété numsecondaries définit le nombre de nœuds d'un groupe de périphériques qui peuvent contrôler le groupe en cas d'échec du nœud principal. Le nombre par défaut de nœuds secondaires pour les services de périphériques est un. La valeur peut être définie sur n'importe quel nombre entier compris entre un et le nombre de nœuds fournisseurs non principaux opérationnels dans le groupe de périphériques.
Ce paramètre est un facteur important dans l'équilibrage des performances et de la disponibilité des clusters. Par exemple, l'augmentation du nombre souhaité de nœuds secondaires accroît les chances de survie du groupe de périphériques face à plusieurs pannes survenant simultanément au sein d'un cluster. L'augmentation du nombre de nœuds secondaires réduit également les performances régulièrement au cours du fonctionnement normal. Un plus petit nombre de nœuds secondaires entraîne généralement une meilleure performance, mais réduit la disponibilité. Cependant, un plus grand nombre de nœuds secondaires n'entraîne pas toujours une meilleure disponibilité du système de fichiers ou du groupe de périphériques en question. Pour de plus amples informations, reportez-vous au Chapitre 3, Notions-clés destinées aux administrateurs système et aux développeurs d’applications du Guide des notions fondamentales de Sun Cluster pour SE Solaris.
Devenez superutilisateur sur un nœud du cluster.
Exécutez l'utilitaire scsetup(1M).
# scsetup |
Le menu principal apparaît.
Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Device groups and volumes).
Le menu Device Groups apparaît.
Pour modifier les propriétés clé d'un groupe de périphériques, entrez 6 (Change key properties of a device group).
Le menu Change Key Properties apparaît.
Pour modifier le nombre souhaité de nœuds secondaires, entrez 2 (Change the numsecondaries property).
Suivez les instructions et entrez le nombre souhaité de nœuds secondaires à configurer pour le groupe de périphériques de disques. Une fois une valeur adéquate saisie, la commande scconf correspondante est exécutée. Par la suite, un journal est imprimé et l'utilisateur revient sur le menu précédent.
Validez la configuration du groupe de périphériques à l'aide de la commande scconf -p.
# scconf -p | grep Device Device group name: dg-schost-1 Device group type: VxVM Device group failback enabled: yes Device group node list: phys-schost-1,phys-schost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
si vous modifiez des informations de configuration d'un groupe de disques ou d'un volume VxVM, vous devez réenregistrer le groupe de périphériques de disques via la commande scsetup. Ces modifications de configuration comprennent l'ajout ou la suppression de volumes, ainsi que la modification de groupe, de propriétaire ou d'autorisations de volumes existants. Le réenregistrement après des modifications de configuration assure que l'espace de noms global est à l'état correct. Reportez-vous à la section Mise à jour de l'espace de noms de périphériques globaux.
Vérifiez le nœud principal et le statut du groupe de périphériques de disques.
# scstat -D |
L'exemple suivant montre la commande scconf générée par scsetup lors de la configuration du nombre souhaité de nœuds secondaires pour un groupe de périphériques (diskgrp1). Pour en savoir plus sur la manière de modifier le nombre souhaité de nœuds secondaires après avoir créé un groupe de périphériques, consultez la section Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques.
# scconf -a -D type=vxvm,name=diskgrp1,nodelist=host1:host2:host3\ ,preferenced=true,failback=enabled,numsecondaries=2 |
Après avoir supprimé le volume du groupe de périphériques de disques, vous devez enregistrer les modifications de la configuration du groupe de périphériques de disques par la procédure SPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).
Devenez superutilisateur sur un nœud du cluster.
Déterminez le nœud principal et le statut du groupe de périphériques de disques.
# scstat -D |
Si le groupe de périphériques de disques est hors ligne, mettez-le en ligne.
# scswitch -z -D disk-device-group -h node |
Effectue le transfert.
Définit le groupe de périphériques à transférer.
Indique le nom du nœud qui doit devenir le nouveau nœud principal. Ce nœud devient le nouveau nœud principal.
À partir du nœud principal (celui qui est actuellement maître du groupe de périphériques de disques), supprimez le volume VxVM dans le groupe de disques.
# vxedit -g diskgroup -rf rm volume |
Indique le groupe de disques VxVM qui contient le volume.
Supprime le volume indiqué. L'option -r rend l'opération récursive. L'option -f est requise pour supprimer un volume activé.
Vous devez enregistrer les modifications de configuration apportées au groupe de périphériques de disques afin de mettre à jour l'espace de noms global. Pour ce faire, utilisez scsetup(1M).
Reportez-vous à la section SPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).
Si vous supprimez un groupe de périphériques de disques Sun Cluster le groupe de disques VxVM correspondant sera déplacé et non supprimé. Toutefois, même si le groupe de disques VxVM existe toujours, il ne peut être utilisé dans le cluster que s'il est à nouveau enregistré.
Cette procédure fait appel à l'utilitaire scsetup(1M) pour supprimer un groupe de disques VxVM et annuler son enregistrement comme groupe de périphériques de disques Sun Cluster.
Devenez superutilisateur sur un nœud du cluster.
Mettez le groupe de périphériques de disques hors ligne.
# scswitch -F -D disk-device-group |
Met le groupe de périphériques de disques hors ligne.
Définit le groupe de périphériques à mettre hors ligne.
Lancez l'utilitaire scsetup.
Le menu principal apparaît.
# scsetup |
Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).
Le menu Device Groups apparaît.
Pour annuler l'enregistrement d'un groupe de disques VxVM, entrez 3 (Unregister a VxVM device group).
Suivez les instructions et indiquez le groupe de disques VxVM dont vous souhaitez annuler l'enregistrement.
L'exemple suivant illustre la mise hors ligne du groupe de périphériques de disques VxVM dg1, ainsi que la commande scconf générée par scsetup lors de la suppression et de l'annulation de l'enregistrement du groupe de périphériques de disques.
# scswitch -F -D dg1 # scsetup scconf -r -D name=dg1 |
Cette procédure permet d'ajouter un nœud à un groupe de périphériques de disques à l'aide de l'utilitaire scsetup(1M).
Les conditions d'ajout d'un nœud à un groupe de périphériques de disques VxVM sont les suivantes :
Vous devez avoir les privilèges de superutilisateur sur un nœud du cluster.
Vous devez connaître le nom du groupe de périphériques VxVM auquel sera ajouté le nœud.
Vous devez disposer du nom ou de l'ID des nœuds à ajouter.
Devenez superutilisateur sur un nœud du cluster.
À l'invite, entrez la commande scsetup.
# scsetup |
Le menu principal apparaît.
Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Device groups and volumes).
Le menu Device Groups apparaît.
Pour ajouter un nœud à un groupe de périphériques de disques VxVM, entrez 4 (Ajouter un nœud à un groupe de périphériques VxVM).
Suivez les instructions et entrez le nom du groupe de périphériques et du nœud.
Vérifiez que le nœud a bien été ajouté.
Consultez les informations de groupe de périphériques relatives au nouveau disque, affichées à l'aide de la commande suivante :
# scconf -p |
L'exemple suivant illustre la commande scconf générée par scsetup lors de l'ajout d'un nœud (phys-schost-3) à un groupe de périphériques de disques VxVM (dg1), ainsi que la procédure de vérification.
# scsetup scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3 # scconf -p Device group name: dg1 Device group type: VXVM Device group failback enabled: yes Device group node list: phys-schost-1, phys-schost-3 |
Cette procédure permet de supprimer un nœud de cluster de la liste des nœuds principaux potentiels dans un groupe de périphériques de disques (groupe de disques) VERITAS Volume Manager (VxVM).
Vérifiez si le nœud fait toujours partie du groupe et si le groupe est un groupe de périphériques VxVM.
Le type de groupe de périphériques VxVM indique un groupe de périphériques de disques VxVM.
phys-schost-1% scconf -pv | grep '(global-galileo)' (global-galileo) Device group type: VxVM (global-galileo) Device group failback enabled: no (global-galileo) Device group node list: phys-schost-1, phys-schost-2 (global-galileo) Diskset name: global-galileo phys-schost-1% |
Devenez superutilisateur sur un nœud étant actuellement membre de cluster.
Exécutez la commande scsetup(1M).
# scsetup |
Le menu principal apparaît.
Pour reconfigurer un groupe de périphériques de disques, entrez 4 (Device groups and volumes).
Pour supprimer le nœud du groupe de périphériques de disques VxVM, entrez 5 (Supprimer un nœud d'un groupe de périphériques VxVM).
Suivez les indications à l'écran pour supprimer le nœud du cluster du groupe de périphériques de disques. Vous devrez fournir des informations sur les points suivants :
groupe de périphérique VxVM ;
Nom du nœud
Vérifiez que le nœud a bien été supprimé du (des) groupe(s) de périphériques de disques VxVM.
# scconf -p | grep Device |
Cet exemple montre la suppression du nœud qui a pour nom phys-schost-1 du groupe de périphériques de disques dg1 VxVM.
[Determine the VxVM disk device group for the node:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group diskset name: dg1 [Become superuser and execute the scsetup utility:] # scsetup Select Device groups and volumes>Remove a node from a VxVM device group. Answer the questions when prompted. You will need the following information. You Will Need: Example: VxVM device group name dg1 node names phys-schost-1 [Verify that the scconf command executed properly:] scconf -r -D name=dg1,nodelist=phys-schost-1 Command completed successfully. Quit the scsetupDevice Groups Menu and Main Menu. [Verify that the node was removed:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-2 Device group diskset name: dg1 |
Cette procédure permet de supprimer un nœud de cluster dans la liste des nœuds principaux potentiels d'un groupe de périphériques de disques (groupe de disques) VERITAS Volume Manager (VxVM).
Utilisez cette procédure pour supprimer un nœud de cluster de la liste de nœuds principaux potentiels d'un groupe de périphériques de disques bruts.
Devenez superutilisateur sur un nœud du cluster autre que le nœud à supprimer.
Identifiez les groupes de périphériques de disques connectés au nœud en cours de suppression.
Recherchez le nom du nœud dans l'entrée Device group node list.
# scconf -pvv | grep nodename | grep "Device group node list" |
Déterminez quels groupes de périphériques de disques identifiés à l'étape 2 sont des groupes de périphériques de disques bruts.
Les groupes d'unités de disques brutes appartiennent au type de groupe d'unités Disk ou Local_Disk.
# scconf -pvv | grep group-type |
Désactivez les propriétés localonly de chaque groupe d'unités de disques brutes Local_Disk.
# scconf -c -D name=rawdisk-device-group,localonly=false |
Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).
Vérifiez que vous avez bien désactivé la propriété localonly de tous les groupes de périphériques de disques bruts connectés au nœud en cours de suppression.
Le type de groupe d'unités Disk indique que la propriété localonly est désactivée pour le groupe d'unités de disques brutes.
# scconf -pvv | grep group-type |
Supprimez le nœud de tous les groupes de périphériques de disques bruts identifiés à l'Étape 3.
Cette opération doit être effectuée pour chaque groupe de périphériques de disques bruts connecté au nœud à supprimer.
# scconf -r -D name=rawdisk-device-group,nodelist=nodename |
Cet exemple montre comment supprimer un nœud (phys-schost-2) d'un groupe de périphériques de disques bruts. Toutes les commandes sont exécutées à partir d'un autre nœud du cluster (phys-schost-1).
[Identify the disk device groups connected to the node being removed:] phys-schost-1# scconf -pvv | grep phys-schost-2 | grep "Device group node list" (dsk/d4) Device group node list: phys-schost-2 (dsk/d2) Device group node list: phys-schost-1, phys-schost-2 (dsk/d1) Device group node list: phys-schost-1, phys-schost-2 [Identify the raw disk device groups:] phys-schost-1# scconf -pvv | grep Disk (dsk/d4) Device group type: Local_Disk (dsk/d8) Device group type: Local_Disk [Disable the localonly flag for each local disk on the node:] phys-schost-1# scconf -c -D name=dsk/d4,localonly=false [Verify that the localonly flag is disabled:] phys-schost-1# scconf -pvv | grep Disk (dsk/d4) Device group type: Disk (dsk/d8) Device group type: Local_Disk [Remove the node from all raw disk device groups:] phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2 |
La méthode qui permet d'établir la propriété principale d'un groupe de périphériques de disques consiste à configurer un attribut de préférence de propriété appelé preferenced. Si cet attribut n'est pas défini, le propriétaire principal d'un groupe de périphériques de disques n'en ayant pas autrement est le premier nœud qui tente d'accéder à un disque de ce groupe. Toutefois, si cet attribut est défini, vous devez spécifier l'ordre dans lequel vous préférez que les nœuds tentent d'établir la propriété.
Si vous désactivez l'attribut preferenced, vous désactivez automatiquement l'attribut failback. Toutefois, si vous tentez d'activer ou de réactiver l'attribut preferenced , vous pouvez soit activer, soit désactiver l'attribut failback.
Si l'attribut preferenced est activé ou réactivé, vous êtes invité à rétablir l'ordre des nœuds dans la liste des préférences de propriétaire principal.
Cette procédure fait appel à scsetup(1M) pour activer ou désactiver l'attribut preferenced et l'attribut failback pour les groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager ou VxVM.
Pour exécuter cette procédure, vous devez connaître le nom du groupe de périphériques de disques pour lequel vous changez les valeurs des attributs.
Devenez superutilisateur sur un nœud du cluster.
Exécutez la commande scsetup.
Le menu principal apparaît.
# scsetup |
Pour utiliser des groupes de périphériques de disques, entrez 4 (Volumes et groupes de périphériques).
Le menu Device Groups apparaît.
Pour modifier les propriétés clés d'un groupe de périphériques, entrez 6 (Change key properties of a VxVM or Solstice DiskSuite/Solaris Volume Manager device group).
Le menu Change Key Properties apparaît.
Pour modifier la propriété d'un groupe de périphériques, entrez 1 (Modifier les propriétés de prédilection et/ou de rétablissement).
Suivez les instructions pour définir les options preferenced et failback d'un groupe d'unités.
Vérifiez que les attributs du groupe de périphériques de disques ont bien été changés.
Consultez les informations de groupe de périphériques, affichées à l'aide de la commande suivante.
# scconf -p |
L'exemple suivant montre la commande scconf générée par l'utilitaire scsetup lorsqu'il définit les attributs d'un groupe de périphériques de disques (dg-schost-1).
# scconf -c -Dname=dg-schost-1,nodelist=phys-schost-1:phys-schost-2, \ preferenced=true,failback=enabled,numsecondaries=1 # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS Device group failback enabled: yes Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
Le nombre par défaut de nœuds secondaires pour un groupe de périphériques est défini sur un. Ce paramètre spécifie le nombre de nœuds au sein d'un groupe de périphériques pouvant devenir le propriétaire principal du groupe si le nœud principal connaît une défaillance. Le nombre souhaité de valeurs secondaires peut être défini sur n'importe quel nombre entier compris entre un et le nombre de nœuds fournisseurs non principaux dans le groupe de périphériques.
Si la propriété numsecondaries est modifiée, des nœuds secondaires sont ajoutés au groupe de périphériques ou en sont supprimés, si la modification entraîne un défaut d'assortiment entre le nombre réel et le nombre souhaité.
Cette procédure utilise scsetup(1M) pour activer ou désactiver la propriété numsecondaries des groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager ou VxVM. Pour de plus amples informations sur les options du groupe de périphériques de disques disponibles lors de la configuration d'un périphérique, reportez-vous aux documents scconf_dg_rawdisk(1M), scconf_dg_sds(1M), scconf_dg_svm(1M) et scconf_dg_vxvm(1M).
Devenez superutilisateur sur un nœud du cluster.
Exécutez l'utilitaire scsetup.
# scsetup |
Le menu principal apparaît.
Pour utiliser des groupes de périphériques de disques, entrez 5 (Device groups and volumes).
Le menu Device Groups apparaît.
Pour modifier les propriétés clé d'un groupe de périphériques, entrez 6 (Change key properties of a device group).
Le menu Change Key Properties apparaît.
Pour modifier le nombre souhaité de nœuds secondaires, entrez 2 (Change the numsecondaries property).
Suivez les instructions et entrez le nombre souhaité de nœuds secondaires à configurer pour le groupe de périphériques de disques. Après qu'une valeur adéquate a été saisie, la commande scconf correspondante est exécutée, un journal est imprimé et l'utilisateur revient sur le menu précédent.
Vérifiez que l'attribut du groupe de périphériques de disques a bien été changé.
Consultez les informations de groupe de périphériques s'affichant à l'aide de la commande suivante :
# scconf -p |
L'exemple suivant montre la commande scconf générée par scsetup lors de la configuration du nombre souhaité de nœuds secondaires pour un groupe de périphériques (dg-schost-1). Cet exemple suppose que le groupe de disques et le volume sont créés au préalable.
# scconf -c -D name=phys-host-1,nodelist=phys-schost-1:phys-schost-2,phys-schost-3 \ preferenced=true,failback=enabled,numsecondaries=1 # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-1, phys-scost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
L'exemple suivant utilise une valeur de chaîne nulle pour configurer le nombre de nœuds secondaires par défaut. Le groupe de périphériques sera configuré pour utiliser la valeur par défaut, même si la valeur par défaut change.
# scconf -c -D name=diskgrp1, nodelist=host1:host2:host3, \ preferenced=false,failback=enabled,numsecondaries= # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-1, phost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
Vous n'avez pas besoin d'être superutilisateur pour afficher la configuration.
Utilisez l'une des méthodes de la liste suivante.
Utilisation de l'interface de SunPlex Manager.
Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Utilisation de scstat(1M).
% scstat -D |
Utilisation de scconf(1M).
% scconf -p |
L'utilisation de la commande scstat -D affiche les informations suivantes :
-- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: phys-schost-2 - - Device group servers: phys-schost-1 phys-schost-2 phys-schost-3 Device group servers: phys-schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: phys-schost-2 Offline Device group status: phys-schost-1 Online Device group status: phys-schost-3 Offline |
Lorsque vous utilisez la commande scconf, prenez connaissance des informations répertoriées sous les groupes de périphériques.
# scconf -p ... Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-2, phys-schost-3 Device group diskset name: dg-schost-1 |
Cette procédure permet également de faire démarrer (mettre en ligne) un groupe de périphériques inactif.
Vous pouvez également utiliser l'interface graphique utilisateur de SunPlex Manager pour mettre en ligne un groupe de périphériques inactif ou transférer le nœud principal d'un groupe de périphériques. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Devenez superutilisateur sur un nœud du cluster.
Utilisez scswitch(1M) pour changer le nœud principal d'un groupe de périphériques de disques.
# scswitch -z -D disk-device-group -h node |
Effectue le transfert.
Définit le groupe de périphériques à transférer.
Indique le nom du nœud qui doit devenir le nouveau nœud principal. Ce nœud devient le nouveau nœud principal.
Vérifiez que le groupe de périphériques de disques est bien passé au nouveau nœud principal.
Si le groupe de périphériques de disques est correctement enregistré, les informations relatives au nouveau groupe de périphériques de disques s'affichent lorsque vous utilisez la commande suivante :
# scstat -D |
L'exemple suivant montre comment changer de nœud principal pour un groupe de périphériques de disques et vérifier que la modification a réussi.
# scswitch -z -D dg-schost-1 -h phys-schost-1 # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 -- Device Group Status -- Device Group Status ------------ ------ Device group status: dg-schost-1 Online |
La mise à l'état de maintenance d'un groupe de périphériques de disques empêche que ce groupe de périphériques ne soit automatiquement mis en ligne à chaque accès à un de ses périphériques. Placez un groupe de périphériques à l'état de maintenance lorsque vous terminez des procédures de réparation qui exigent l'acceptation de toute activité d'E/S jusqu'à la fin de la réparation. La mise à l'état de maintenance d'un groupe de périphériques contribue également à éviter la perte de données en empêchant un groupe de périphériques de disques d'être mis en ligne sur un nœud alors que l'ensemble de disques ou le groupe de disques est en cours de réparation sur un autre nœud.
pour pouvoir mettre à l'état de maintenance un groupe de périphériques, vous devez bloquer tout accès à ses périphériques et démonter tous les systèmes de fichiers qui en dépendent.
Mettez le groupe de périphériques à l'état de maintenance.
# scswitch -m -D disk-device-group |
Si la procédure de réparation exécutée exige la propriété d'un jeu ou d'un groupe de disques, importez celui-ci manuellement.
Pour Solstice DiskSuite/Solaris Volume Manager :
# metaset -C take -f -s diskset |
Pour définir la propriété d'un jeu de disques Solstice DiskSuite/Solaris Volume Manager, vous devez impérativement utiliser la commande metaset -C take lorsque le groupe de périphériques est au statut de maintenance. L'utilisation de metaset -t met le groupe de périphériques en ligne et vous en accorde la propriété. Si vous importez un groupe de disques VxVM, utilisez l'indicateur -t lors de l'importation du groupe de disques. Cet indicateur évite l'importation automatique du groupe de disques en cas de réinitialisation de ce nœud.
Pour VERITAS Volume Manager :
# vxdg -t import disk-group-name |
Achevez la procédure de réparation requise.
Libérez la propriété de l'ensemble de disques ou du groupe de disques.
avant de sortir un groupe de périphériques de disques de l'état de maintenance, vous devez libérer la propriété du jeu de disques ou du groupe de disques. Si vous ne le faites pas, vous risquez de perdre des données.
Pour Solstice DiskSuite/Solaris Volume Manager :
# metaset -C release -s diskset |
Pour VERITAS Volume Manager :
# vxdg deport disk-group-name |
Mettez le groupe de périphériques de disques en ligne.
# scswitch -z -D disk-device-group -h node |
L'exemple suivant montre comment placer le groupe d'unités de disque dg-schost-1 à l'état de maintenance et l'en sortir.
[Place the disk device group in maintenance state.] # scswitch -m -D dg-schost-1 [If needed, manually import the disk set or disk group.] For Solstice DiskSuite/Solaris Volume Manager: # metaset -C take -f -s dg-schost-1 For VERITAS Volume Manager: # vxdg -t import dg1 [Complete all necessary repair procedures.] [Release ownership.] For Solstice DiskSuite/Solaris Volume Manager: # metaset -C release -s dg-schost-1 For VERITAS Volume Manager: # vxdg deport dg1 [Bring the disk device group online.] # scswitch -z -D dg-schost-1 -h phys-schost-1 |
Le système de fichiers du cluster est un système de fichiers globalement disponible qui peut être lu et est accessible à partir de n'importe quel nœud du cluster.
Tableau 4–3 Plan des tâches : Administration des systèmes de fichiers d'un cluster
Tâche |
Pour les instructions, voir... |
---|---|
Ajout de systèmes de fichiers de cluster après l'installation initiale de Sun Cluster - Utilisez les commandes newfs(1M) et mkdir | |
Suppression d'un système de fichiers de cluster - Utilisez les commandes fuser(1M) et umount(1M) | |
Vérification de la cohérence des points de montage globaux d'un cluster sur les différents nœuds - Utilisez la commande sccheck(1M) |
Effectuez cette tâche pour chaque système de fichiers de cluster créé après l'installation initiale de Sun Cluster.
Assurez-vous d'avoir indiqué le nom correct du périphérique de disques. La création d'un système de fichiers de cluster détruit toutes les données présentes sur les disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.
Pour ajouter un système de fichiers de cluster supplémentaire, les conditions suivantes doivent être remplies :
Vous devez avoir les privilèges de superutilisateur sur un nœud du cluster.
Volume manager doit être installé et configuré sur le cluster.
Vous devez disposer d'un groupe de périphériques (Solstice DiskSuite/Solaris Volume Manager ou VxVM) ou d'une tranche de disque en mode bloc où créer le système de fichiers du cluster.
Si vous avez utilisé SunPlex Manager pour installer des services de données, un ou plusieurs systèmes de fichiers du cluster existent déjà si le nombre de disques partagés existants était suffisant pour y créer ces systèmes.
Devenez superutilisateur sur un nœud du cluster.
pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.
Créez un système de fichiers à l'aide de la commande newfs.
la commande newfs n'est valide que pour la création de systèmes de fichiers UFS. Pour créer un système de fichiers VxFS, suivez les procédures décrites dans la documentation de votre VxFS.
# newfs raw-disk-device |
Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.
Si votre gestionnaire de volume est … |
Un périphérique de disques peut porter le nom … |
Description |
---|---|---|
Solstice DiskSuite/Solaris Volume Manager |
/dev/md/oracle/rdsk/d1 |
Périphériques de disques bruts d1 dans le jeu de disques oracle. |
SPARC : VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Périphériques de disques bruts vol01 dans le groupe de disques oradg. |
Aucun |
/dev/global/rdsk/d1s3 |
Unité de disque brute de tranche de bloc d1s3. |
Sur chaque nœud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.
Un point de montage est requis sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.
pour vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers de cluster, disponibles globalement, des systèmes de fichiers locaux.
# mkdir -p /global/device-group mountpoint |
Nom du répertoire correspondant au nom du groupe de périphériques contenant le périphérique en question.
Nom du répertoire sur lequel vous devez monter le système de fichiers du cluster.
Sur chaque nœud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.
Utilisez les options de montage obligatoires suivantes.
l'option logging est requise pour tous les systèmes de fichiers de cluster.
Journalisation UFS Solaris – utilisez les options de montage global,logging. Pour de plus amples informations sur les options de montage UFS, reportez-vous à la page de manuel mount_ufs(1M).
l'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de cluster UFS. Si vous indiquez syncdir, vous êtes assuré d'un comportement du système de fichiers conforme à POSIX. Dans le cas contraire, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. En effet, le fait de ne pas spécifier syncdir, peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir, la situation d'espace insuffisant ne se présente qu'à la fermeture d'un fichier. Les cas dans lesquels vous risquez d'avoir des problèmes si vous n'indiquez pas syncdir sont rares. tandis qu'avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.
Métapériphérique Trans ou volume de transaction Solstice DiskSuite/Solaris Volume Manager– utilisez l'option de montage global (n'utilisez pas l'option de montage logging). Pour de plus amples informations sur la configuration du métapériphérique Trans et des volumes de transaction, reportez-vous à votre documentation Solstice DiskSuite/Solaris Volume Manager.
Les volumes de transaction sont programmés pour être supprimés du système d'exploitation Solaris dans une prochaine version de Solaris. Solaris UFS logging, disponible depuis la version 8 de Solaris, fournit les mêmes capacités mais des performances supérieures, ainsi que des exigences moindres en termes de dépassement et d'administration de système.
Consignation VxFS – utilisez les options de montage global, et log. Reportez-vous à la page man mount_vxfs accompagnant le logiciel VxFS pour de plus amples informations.
Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.
Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.
Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.
Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.
Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs qu'une fois que phys-schost-1 a démarré et monté /global/oracle.
Reportez-vous à la page de manuel vfstab(4) pour de plus amples informations.
À partir d'un nœud quelconque du cluster, vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds de la grappe.
# sccheck |
Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.
À partir de n'importe quel nœud du cluster, montez le système de fichiers du cluster.
# mount /global/device-group mountpoint |
Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.
Vous pouvez utiliser la commande df ou mount pour afficher la liste des systèmes de fichiers montés.
Pour gérer un système de fichiers de cluster VxFS en environnement Sun Cluster, exécutez les commandes administratives à partir du nœud principal sur lequel est monté le système de fichiers du cluster VxFS.
L'exemple suivant crée un système de fichiers UFS sur le métapériphérique Solstice DiskSuite/Solaris Volume Manager ou le volume /dev/md/oracle/rdsk/d1.
# newfs /dev/md/oracle/rdsk/d1 ... [on each node:] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [save and exit] [on one node:] # sccheck # mount /dev/md/oracle/dsk/d1 /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2001 |
Pour supprimer un système de fichiers de cluster, il suffit de le démonter. Si vous souhaitez également supprimer ou effacer les données, retirez du système le périphérique de disques sous-jacent (ou le métapériphérique ou volume).
Les systèmes de fichiers de cluster sont automatiquement démontés lors de l'arrêt du système qui survient lorsque vous exécutez scshutdown(1M) pour arrêter l'ensemble du cluster. Lorsque vous exécutez la commande shutdown, qui arrête seulement un nœud individuel, le système de fichiers de cluster n'est pas démonté. Si, toutefois, le nœud arrêté est le seul nœud connecté au disque, toute tentative d'accès au système de fichiers du cluster sur ce disque entraîne une erreur.
Pour démonter des systèmes de fichiers de cluster, les conditions suivantes doivent être remplies :
Vous devez avoir les privilèges de superutilisateur sur un nœud du cluster.
Le système de fichiers ne doit pas être actif. Un système de fichiers est considéré actif si un utilisateur se trouve dans un répertoire du système, ou si un programme a ouvert l'un des fichiers du système. L'utilisateur ou le programme peut utiliser n'importe quel nœud du cluster.
Devenez superutilisateur sur un nœud du cluster.
Déterminez quels sont les systèmes de fichiers de cluster montés.
# mount -v |
Sur chaque nœud, répertoriez tous les processus utilisant le système de fichiers du cluster afin de déterminer quels seront ceux que vous allez arrêter.
# fuser -c [ -u ] mountpoint |
Indique les fichiers qui sont des points de montage pour les systèmes de fichiers et répertorie tous les fichiers de ces systèmes de fichiers montés.
(Facultatif) Affiche le nom d'utilisateur correspondant à chaque ID de processus.
Indique le nom du système de fichiers du cluster dont vous souhaitez arrêter les processus.
Sur chaque nœud, arrêtez tous les processus pour le système de fichiers du cluster.
Utilisez la méthode de votre choix pour arrêter les processus. Si nécessaire, utilisez la commande suivante pour forcer l'arrêt des processus associés au système de fichiers du cluster :
# fuser -c -k mountpoint |
Une commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers du cluster.
Sur chaque nœud, vérifiez qu'aucun processus n'utilise le système de fichiers.
# fuser -c mountpoint |
Démontez le système de fichiers à partir d'un seul nœud.
# umount mountpoint |
Indique le nom du système de fichiers du cluster à démonter. Il peut s'agir du nom du répertoire dans lequel le système de fichiers du cluster est monté ou du chemin d'accès au nom du périphérique du système de fichiers.
(Facultatif) Modifiez le fichier /etc/vfstab afin d'effacer l'entrée correspondant au système de fichiers du cluster en cours de suppression.
Effectuez cette opération sur chaque nœud de cluster comportant une entrée pour ce système de fichiers dans le fichier /etc/vfstab.
(Facultatif) Supprimez le périphérique de disque group/metadevice/volume/plex .
Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.
L'exemple suivant supprime un système de fichiers de cluster UFS monté sur le périphérique Solstice DiskSuite/Solaris Volume Manager ou le volume/dev/md/oracle/rdsk/d1.
# mount -v ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles # fuser -c /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c -k /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c /global/oracle/d1 /global/oracle/d1: # umount /global/oracle/d1 (on each node, remove the highlighted entry:) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [Save and exit.] |
pour supprimer les données du système de fichiers du cluster, vous devez supprimer le périphérique sous-jacent. Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.
L'utilitaire sccheck(1M) vérifie la syntaxe des entrées des systèmes de fichiers du cluster dans le fichier /etc/vfstab . Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.
exécutez la commande sccheck si vous avez apporté à la configuration du cluster des modifications ayant une incidence sur les périphériques ou les composants de gestion des volumes, par exemple la suppression d'un système de fichiers du cluster.
Devenez superutilisateur sur un nœud du cluster.
Vérifiez les montages globaux du cluster.
# sccheck |
Les commandes d'administration du contrôle de chemins de disques (CCD) vous permettent de recevoir les notifications d'échecs secondaires de chemins de disques. Les procédures de cette rubrique vous permettront d'exécuter les tâches administratives associées au contrôle de chemins de disques. Pour obtenir des informations générales sur le démon de contrôle des chemins de disques, reportez-vous au Chapitre 3, Notions-clés destinées aux administrateurs système et aux développeurs d’applications du Guide des notions fondamentales de Sun Cluster pour SE Solaris. Reportez-vous à la page de manuel scdpm(1M) pour obtenir une description des options de commandes de scdpm et des commandes connexes. Reportez-vous à la page de manuel syslogd(1M) pour les erreurs enregistrées rapportées par le démon.
les chemins de disques sont automatiquement ajoutés à la liste de contrôle lorsque des périphériques d'E/S sont ajoutés à un nœud à l'aide des commandes scgdevs ou scdidadm. Le contrôle de chemins de disques est également automatiquement désactivé lorsque des périphériques sont supprimés d'un nœud à l'aide des commandes Sun Cluster.
Tâche |
Instructions |
---|---|
Contrôler un chemin de disque à l'aide de la commande scdpm | |
Désactiver le contrôle d'un chemin de disque à l'aide de la commande scdpm | |
Imprimer le statut des chemins de disques erronés pour un nœud à l'aide de la commande scdpm | |
Activer ou désactiver le contrôle de chemins de disques à l'aide de scdpm -f |
Les procédures de la rubrique suivante utilisent la commande scdpm avec l'argument du chemin de disque. Celui-ci est toujours constitué d'un nom de nœud et d'un nom de disque. Le nom de nœud n'est pas requis et est défini par défaut sur all s'il n'est pas spécifié. Le tableau suivant décrit les conventions utilisées pour les noms de chemins de disques.
l'utilisation du nom de chemin de disque global est fortement recommandé, car il est cohérent dans l'intégralité du cluster. Le nom de chemin de disque UNIX ne l'est pas, le chemin de disque UNIX d'un disque peut varier d'un nœud de cluster à l'autre. Il peut par exemple être c1t0d0 sur un nœud, et c2t0d0 sur un autre. Si vous utilisez des noms de chemins de disques UNIX, utilisez la commande scdidadm -L pour les mapper sur les noms de chemins de disques globaux avant d'utiliser des commandes de CCD. Reportez-vous à la page de manuel scdidadm(1M).
Type de nom |
Exemple de nom de chemin de disque |
Description |
---|---|---|
Chemin de disque global |
phys-schost-1:/dev/did/dsk/d1 |
Chemin de disque d1 sur le nœud phys-schost-1 |
all:d1 |
Chemin de disque d1 sur tous les nœuds du cluster |
|
Chemin de disque UNIX |
phys-schost-1:/dev/rdsk/c0t0d0s0 |
Chemin de disque c0t0d0s0 sur le nœud phys-schost-1 |
phys-schost-1:all |
Tous les chemins de disques sur tous les nœuds du cluster |
Exécutez cette tâche pour effectuer le contrôle des chemins de disques dans votre cluster.
DPM n'est pas pris en charge sur les nœuds qui exécutent des versions antérieures à Sun Cluster 3.1 10/03. N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.
Devenez superutilisateur sur un nœud du cluster.
Contrôlez un chemin de disque à l'aide de la commande scdpm.
# scdpm -m node:disk path |
Reportez-vous aux conventions des noms des arguments de node:disk path.
Assurez-vous que le chemin de disque est contrôlé.
# scdpm -p node:all |
L'exemple suivant illustre le contrôle du chemin de disque schost-1:/dev/did/rdsk/d1 à partir d'un seul nœud. Sur le nœud schost-1, seul le démon de CCD effectue le contrôle du chemin d'accès au disque /dev/did/dsk/d1.
# scdpm -m schost-1:d1 # scdpm -p schost-1:d1 schost-1:/dev/did/dsk/d1 Ok |
L'exemple suivant illustre le contrôle du chemin de disque schost-1:/dev/did/dsk/d1 à partir de tous les nœuds. Le CCD démarre sur tous les nœuds pour lesquels /dev/did/dsk/d1 constitue un chemin valide.
# scdpm -m all:/dev/did/dsk/d1 # scdpm -p schost-1:d1 schost-1:/dev/did/dsk/d1 Ok |
L'exemple suivant illustre la procédure forçant le démon à relire la configuration du disque à partir du CCR, et imprimant les chemins de disques contrôlés et leurs statuts.
# scdpm -m all:all # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d5 Unmonitored schost-2:/dev/did/dsk/d6 Ok |
Cette procédure permet de désactiver le contrôle d'un chemin de disque.
DPM n'est pas pris en charge sur les noeuds qui exécutent des versions antérieures à Sun Cluster 3.1 logiciel 10/03. N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.
Devenez superutilisateur sur un nœud du cluster.
Déterminez l'état du chemin de disque dont le contrôle doit être désactivé.
# scdpm -p [all:] disk path |
Imprime une liste détaillée des statuts en cours d'un chemin de disque donné
Affiche tous les chemins de disques contrôlés et non contrôlés
Sur chaque nœud, désactivez le contrôle des chemins de disques appropriés.
# scdpm -u node:disk path |
Reportez-vous au Tableau 4–5 pour connaître les conventions d'appellation de l'argument node:disk path.
L'exemple suivant illustre la désactivation du contrôle du chemin de disque schost-2:/dev/did/rdsk/d1 et l'impression des chemins de disques et de leurs statuts pour l'ensemble du cluster.
# scdpm -u schost-2:/dev/did/rdsk/d1 # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d1 Unmonitored schost-2:/dev/did/dsk/d6 Ok |
La procédure suivante permet d'imprimer les chemins de disques erronés pour un cluster.
DPM n'est pas pris en charge sur les nœuds qui exécutent des versions antérieures à Sun Cluster 3.1 logiciel 10/03. N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.
Devenez superutilisateur sur un nœud du cluster.
Imprimez les chemins de disques erronés dans l'ensemble du cluster.
# scdpm -p -F node:disk path |
Reportez-vous au Tableau 4–5 pour connaître les conventions d'appellation de l'argument node:disk path.
La procédure suivante permet d'imprimer les chemins de disques erronés pour l'intégralité d'un cluster.
# scdpm -p -F [all:]all schost-1:/dev/did/dsk/d4 Fail schost-1:/dev/did/dsk/d3 Fail schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Fail schost-2:/dev/did/dsk/d5 Fail schost-2:/dev/did/dsk/d6 Fail |
La procédure suivante permet d'effectuer ou de désactiver le contrôle de chemins de disques à partir d'un fichier. Le fichier doit répertorier les commandes de contrôle ou de désactivation du contrôle, les noms des nœuds et les noms des chemins de disques. Les champs du fichier doivent être séparés par une colonne. Formatez chaque liste en suivant l'exemple.
syntax in command file: [u,m] [node|all]:<[/dev/did/rdsk/]d- | [/dev/rdsk/]c-t-d- | all> command file entry u schost-1:/dev/did/rdsk/d5 m schost-2:all |
DPM n'est pas pris en charge sur les nœuds qui exécutent des versions antérieures à Sun Cluster 3.1 logiciel 10/03. N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.
Devenez superutilisateur sur un nœud du cluster.
Contrôlez les chemins de disques à partir d'un fichier.
# scdpm -f filename |
Vérifiez les chemins de disques avec statuts pour le cluster.
# scdpm -p all:all |
L'exemple suivant illustre le contrôle ou la désactivation du contrôle de chemins de disques à partir d'un fichier.
# scdpm -f schost_config # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d5 Unmonitored schost-2:/dev/did/dsk/d6 Ok |