Ce chapitre décrit les procédures d'administration des éléments ayant une incidence sur l'ensemble du cluster.
Les procédures décrites dans ce chapitre sont les suivantes :
Utilisation de l'authentification des nouveaux nœuds du cluster
Suppression d'un nœud de la configuration logicielle du cluster
Désinstallation du logiciel Sun Cluster d'un nœud de cluster
Tâche |
Pour les instructions, voir... |
---|---|
Modifier le nom du cluster | |
Obtenir une liste des ID des nœuds et des noms correspondants | |
Permettre ou interdire d'ajouter de nouveaux nœuds au cluster |
Utilisation de l'authentification des nouveaux nœuds du cluster |
Modifier l'heure d'un cluster à l'aide du protocole NTP (Network Time Protocol) | |
Arrêter un nœud à l'invite ok de la mémoire PROM OpenBoot sur un système SPARC ou un sous-système d'amorçage sur un système x86 | |
Modifier le nom d'hôte privé | |
Mettre un nœud de cluster à l'état de maintenance | |
Sortir un nœud de cluster de l'état de maintenance | |
Ajouter un nœud à un cluster | |
Supprimer un nœud d'un cluster |
Suppression d'un nœud de la configuration logicielle du cluster |
Si nécessaire, vous pouvez modifier le nom du cluster après l'installation initiale.
Devenez superutilisateur sur un nœud du cluster.
Entrez la commande scsetup.
# scsetup |
Le menu principal apparaît.
Pour changer le nom du cluster, tapez 8 (Other cluster properties).
Le menu Autres propriétés du cluster apparaît.
Choisissez une option dans le menu et suivez les instructions qui apparaissent à l'écran.
L'exemple suivant montre la commande scconf(1M) générée à partir de l'utilitaire scsetup(1M) pour changer le nom du nouveau cluster, dromedary.
# scconf -c -C cluster=dromedary |
Lors de l'installation de Sun Cluster, chaque nœud se voit automatiquement attribuer un ID de nœud unique. Cet ID est attribué au nœud en fonction de son ordre d'arrivée dans le cluster. Une fois attribué, il ne peut être modifié. L'ID de nœud est souvent utilisé dans les messages d'erreur pour identifier le nœud de cluster concerné. Suivez la procédure indiquée ci-après pour déterminer la correspondance entre les ID et les noms de nœuds.
Il n'est pas nécessaire d'être superutilisateur pour afficher les informations de configuration.
Utilisez la commande scconf(1M) pour accéder aux informations de configuration du cluster.
% scconf -pv | grep "Node ID" |
L'exemple suivant montre l'attribution des ID aux nœuds.
% scconf -pv | grep “Node ID” (phys-schost-1) Node ID: 1 (phys-schost-2) Node ID: 2 (phys-schost-3) Node ID: 3 |
Sun Cluster vous permet de déterminer si de nouveaux nœuds peuvent s'ajouter au cluster et, le cas échéant, avec quel type d'authentification. Vous pouvez permettre à tout nouveau nœud de s'ajouter au cluster via le réseau public, interdire aux nouveaux nœuds de se joindre au cluster ou spécifier les nœuds pouvant s'ajouter au cluster. Les nouveaux nœuds peuvent être authentifiés en utilisant soit le mode d'authentification UNIX standard, soit le mode d'authentification Diffie-Hellman (DES). Si vous sélectionnez le mode DES, vous devez également configurer toutes les clés de cryptage requises pour que des nœuds puissent s'ajouter au cluster. Pour de plus amples informations, reportez-vous aux pages de manuel keyserv(1M) et publickey(4).
Devenez superutilisateur sur un nœud du cluster.
Exécutez l'utilitaire scsetup(1M).
# scsetup |
Le menu principal apparaît.
Pour utiliser l'authentification de cluster, entrez 7 (New nodes).
Le menu Nouveaux nœuds apparaît.
Choisissez une option dans le menu et suivez les instructions qui apparaissent à l'écran.
L'exemple suivant montre la commande scconf générée à partir de l'utilitaire scsetup pour empêcher les nouvelles machines de s'ajouter au cluster.
# scconf -a -T node=. |
L'exemple suivant montre la commande scconf générée par l'utilitaire scsetup pour autoriser toutes les nouvelles machines à s'ajouter au cluster.
# scconf -r -T all |
L'exemple suivant montre la commande scconf générée à partir de l'utilitaire scsetup pour autoriser une machine donnée à s'ajouter au cluster.
# scconf -a -T node=phys-schost-4 |
L'exemple suivant montre la commande scconf générée à partir de l'utilitaire scsetup pour activer l'authentification UNIX standard pour les nouveaux nœuds s'ajoutant au cluster.
# scconf -c -T authtype=unix |
L'exemple suivant montre la commande scconf générée à partir de l'utilitaire scsetup pour activer l'authentification DES pour les nouveaux nœuds s'ajoutant au cluster.
# scconf -c -T authtype=des |
lorsque vous utilisez le mode d'authentification DES, vous devez également configurer toutes les clés de cryptage requises pour que des nœuds puissent s'ajouter au cluster. Pour de plus amples informations, reportez-vous aux pages man keyserv(1M) and publickey(4).
Sun Cluster utilise le protocole NTP (Network Time Protocol) pour maintenir la synchronisation horaire entre les différents nœuds du cluster. Les réglages au niveau du cluster se font automatiquement selon les besoins lorsque des nœuds se synchronisent. Pour de plus amples informations, reportez-vous aux documents Guide des notions fondamentales de Sun Cluster pour SE Solaris et Network Time Protocol User's Guide.
lorsque vous utilisez le protocole NTP, ne tentez pas de régler l'heure du cluster alors que celui-ci est actif : évitez d'utiliser les commandes date(1), rdate(1M), xntpd(1M) ou svcadm(1M) de manière interactive ou dans les scripts cron(1M).
Devenez superutilisateur sur un nœud du cluster.
Arrêtez le cluster.
# scshutdown -g0 -y |
Vérifiez que le nœud apparaît à l'invite ok ou Select (b)oot or (i)nterpreter sur l'écran des paramètres d'initialisation courants.
Initialisez le nœud en mode non-cluster à l'aide de la commande boot(1M) ou b avec l'option -x.
SPARC :
ok boot -x |
x86 :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
Sur un seul nœud, exécutez la commande date pour définir l'heure.
# date HHMM.SS |
Sur les autres machines, synchronisez l'heure avec celle de ce nœud en exécutant la commande rdate(1M).
# rdate hostname |
Initialisez chaque nœud pour redémarrer le cluster.
# reboot |
Vérifiez que le changement d'heure est effectif sur tous les nœuds du cluster.
Sur chaque nœud, exécutez la commande date.
# date |
Suivez la procédure indiquée ci-après si vous devez configurer ou modifier les paramètres de la mémoire PROM OpenBoot.
Connectez-vous au port du concentrateur de terminaux.
# telnet tc_name tc_port_number |
Indique le nom du concentrateur de terminaux.
Indique le numéro du port sur le concentrateur de terminaux. Les numéros de port varient en fonction de la configuration. En général, les ports 2 et 3 (5002 et 5003) sont utilisés pour le premier cluster installé sur un site.
Arrêtez le nœud de manière progressive, en utilisant la commande scswitch(1M) pour évacuer les groupes de périphériques de disques ou de ressources, puis la commande shutdown.
# scswitch -S -h node[,...] # shutdown -g0 -y -i0 |
n'utilisez pas send brk sur une console de cluster pour arrêter un nœud de cluster.
Exécutez les commandes OBP.
Suivez cette procédure pour modifier le nom d'hôte privé d'un nœud du cluster après l'installation.
Des noms d'hôtes privés par défaut sont attribués durant l'installation initiale du cluster. Le nom d'hôte privé par défaut apparaît sous la forme clusternode< ID_nœud>-priv, par exemple : clusternode3-priv . Ne changez un nom d'hôte privé que si ce nom est déjà utilisé dans le domaine.
ne tentez pas d'attribuer des adresses IP à de nouveaux noms d'hôtes privés. Elles sont attribuées par le logiciel du cluster.
Sur tous les nœuds du cluster, désactivez toutes les ressources de services de données ou autres applications pouvant masquer des noms d'hôtes privés.
# scswitch -n -j resource1, resource2 |
Parmi les applications que vous désactiverez, n'oubliez pas :
Les services HA-DNS et HA-NFS, s'ils sont configurés.
Toute application configurée pour utiliser le nom d'hôte privé (par une configuration personnalisée).
toute application en cours d'utilisation par des clients sur l'interconnexion privée.
Pour de plus amples informations sur l'utilisation de la commande scswitch, reportez-vous à la page de manuel scswitch(1M) et au document Sun Cluster Data Services Planning and Administration Guide for Solaris OS
Arrêtez le démon NTP (Network Time Protocol) sur chaque nœud du cluster.
Si vous utilisez Solaris 8 ou Solaris 9, utilisez la commande xntpd pour arrêter le démon NTP (Network Time Protocol). Pour de plus amples informations sur le démon NTP, reportez-vous à la page de manuel xntpd(1M).
# /etc/init.d/xntpd.cluster stop |
Si vous utilisez Solaris 10, utilisez la commande svcadm pour arrêter le démon NTP (Network Time Protocol). Pour de plus amples informations sur le démon NTP, reportez-vous à la page de manuel svcadm(1M).
# svcadm disable ntp |
Exécutez l'utilitaire scsetup(1M) pour modifier le nom d'hôte privé du nœud concerné.
Vous ne devez effectuer cette opération qu'à partir d'un seul nœud du cluster.
lorsque vous sélectionnez un nouveau nom d'hôte privé, assurez-vous que ce nom est unique pour le nœud du cluster.
Sélectionnez 5, Noms d'hôte privés, dans le menu principal.
Sélectionnez 1, Change a Private Hostname, dans le menu Private Hostnames.
Répondez aux questions posées. Un message vous demandera le nom du nœud dont vous modifiez le nom d'hôte privé (clusternode < nodeid>-priv) et le nouveau nom d'hôte privé.
Videz la mémoire cache du service de noms.
Effectuez cette opération sur chaque nœud du cluster. Les applications et autres services de données du cluster ne tenteront ainsi plus d'accéder à l'ancien nom d'hôte privé.
# nscd -i hosts |
Éditez le fichier ntp.conf.cluster sur chaque nœud pour changer le nom de l'hôte privé.
Utilisez pour ce faire votre outil d'édition favori.
Si ce n'est pas fait au moment de l'installation, pensez également à supprimer les noms des nœuds configurés ; le modèle par défaut est préconfiguré avec seize nœuds. Généralement, le fichier ntp.conf.cluster est identique sur tous les nœuds de cluster.
Vérifiez que vous pouvez contacter le nouveau nom d'hôte privé avec ping à partir de tous les nœuds du cluster.
Relancez le démon NTP.
Effectuez cette opération sur chaque nœud du cluster.
Si vous utilisez Solaris 8 ou Solaris 9, utilisez la commande xntpd pour redémarrer le démon NTP.
# /etc/init.d/xntpd.cluster start |
Si vous utilisez Solaris 10, utilisez la commande svcadm pour redémarrer le démon NTP.
# svcadm enable ntp |
Activez toutes les ressources de service de données et d'autres applications qui ont été désactivées à l'Étape 1.
# scswitch -e -j resource1, resource2 |
Pour de plus amples informations sur l'utilisation de la commande scswitch, reportez-vous à la page de manuel scswitch et au document Sun Cluster Data Services Planning and Administration Guide for Solaris OS .
Dans l'exemple suivant, le nom d'hôte privé clusternode2-priv est remplacé par clusternode4-priv, sur le nœud phys-schost-2 .
[Disable all applications and data services as necessary. ] phys-schost-1# /etc/init.d/xntpd stop phys-schost-1# scconf -p | grep node ... Cluster nodes: phys-schost-1 phys-schost-2 phys- schost-3 Cluster node name: phys-schost-1 Node private hostname: clusternode1-priv Cluster node name: phys-schost-2 Node private hostname: clusternode2-priv Cluster node name: phys-schost-3 Node private hostname: clusternode3-priv ... phys-schost-1# scsetup phys-schost-1# nscd -i hosts phys-schost-1# vi /etc/inet/ntp.conf ... peer clusternode1-priv peer clusternode4-priv peer clusternode3-priv phys-schost-1# ping clusternode4-priv phys-schost-1# /etc/init.d/xntpd start [Enable all applications and data services disabled at the beginning of the procedure. ] |
Vous devez mettre un nœud de cluster à l'état de maintenance lorsque vous le mettez hors fonction pour une période prolongée. Ainsi, il n'est pas compté dans le quorum au cours de sa maintenance. Pour mettre un nœud de cluster à l'état de maintenance, vous devez d'abord l'arrêter à l'aide des commandes scswitch(1M) et shutdown(1M).
utilisez la commande shutdown de Solaris pour arrêter un nœud individuel. N'utilisez la commande scshutdown que pour arrêter un cluster entier.
Lorsqu'un nœud de cluster est mis hors fonction et à l'état de maintenance, tous les périphériques de quorum comportant des ports d'accès à ce nœud voient leur nombre de voix diminuer d'une unité. Ce nombre est à nouveau augmenté de 1 pour le nœud et les périphériques de quorum lorsque le nœud quitte le mode maintenance et est remis en ligne.
Pour mettre un nœud de cluster à l'état de maintenance, vous devez utiliser la commande scconf(1M). Vous ne pouvez pas effectuer cette opération avec l'utilitaire scsetup(1M).
Devenez superutilisateur sur le nœud à mettre à l'état de maintenance.
Évacuez tous les groupes de ressources et les groupes de périphériques de disques du nœud.
# scswitch -S -h node[,...] |
Évacue tous les services de périphériques et tous les groupes de ressources du nœud spécifié.
Indique le nœud dont vous changez les groupes de ressources et groupes de périphériques.
Arrêtez le nœud que vous avez évacué.
# shutdown -g0 -y -i0 |
Devenez superutilisateur sur un autre nœud du cluster et mettez le nœud arrêté à l'Étape 3 à l'état de maintenance.
# scconf -c -q node=node,maintstate |
Indique le format de modification de la commande scconf.
Gère les options de quorum.
Indique le nom ou l'ID du nœud à modifier.
Fait passer le nœud à l'état de maintenance.
Vérifiez que le nœud du cluster est bien à l'état de maintenance.
# scstat -q |
L'état du nœud en maintenance doit être Statut hors ligne et la valeur 0 (zéro) doit figurer en face des votes de quorum Présent et Possible.
L'exemple suivant illustre la mise à l'état de maintenance un nœud de cluster et la vérification du résultat. L'affichage généré par scstat -q montre que la valeur Votes du nœud de phys-schost-1 est bien 0 (zéro) et que le statut du nœud est bien défini sur hors ligne. Le Récapitulatif du quorum devrait également présenter un nombre de voix réduit. Selon votre configuration, Quorum Votes by Device indique également peut-être que certains disques de quorum sont hors ligne.
[On the node to be put into maintenance state: ] phys-schost-1# scswitch -S -h phys-schost-1 phys-schost-1# shutdown -g0 -y -i0 [On another node in the cluster:] phys-schost-2# scconf -c -q node=phys-schost-1,maintstate phys-schost-2# scstat -q -- Quorum Summary -- Quorum votes possible: 3 Quorum votes needed: 2 Quorum votes present: 3 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 0 0 Offline Node votes: phys-schost-2 1 1 Online Node votes: phys-schost-3 1 1 Online -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d3s2 0 0 Offline Device votes: /dev/did/rdsk/d17s2 0 0 Offline Device votes: /dev/did/rdsk/d31s2 1 1 Online |
Pour remettre un nœud en ligne, reportez-vous à la section Retrait d'un nœud de l'état de maintenance.
La procédure suivante permet de remettre un nœud en ligne et de restaurer la valeur par défaut du nombre de voix de quorum. Pour les nœuds de cluster, il est de 1. Pour les périphériques de quorum, le nombre de voix de quorum par défaut est N -1, où N est le nombre de nœuds avec un nombre de voix non nul reliés par un port au périphérique de quorum.
Lorsqu'un nœud est placé à l'état de maintenance, son nombre de voix diminue d'une unité. Tous les périphériques de quorum configurés avec des ports connectés au nœud voient également leur nombre de voix de quorum diminué de 1. Lorsque le nombre de voix de quorum est réinitialisé et que le nœud quitte l'état de maintenance, le nombre de voix de quorum du nœud et du périphérique de quorum est augmenté d'une unité.
Exécutez cette procédure chaque fois qu'un nœud ou un périphérique de quorum quitte l'état de maintenance.
si vous ne spécifiez ni l'option globaldev, ni l'option node, le nombre de voix de quorum est réinitialisé pour l'ensemble du cluster.
Devenez superutilisateur sur n'importe quel nœud du cluster, à l'exception de celui qui est à l'état de maintenance.
Sortez-vous un nœud de l'état de maintenance dans un cluster à deux nœuds ?
Si vous utilisez le quorum, réinitialisez le nombre de voix de quorum à partir de n'importe quel nœud, à l'exception de celui qui est à l'état de maintenance.
Vous devez impérativement réinitialiser le nombre de voix de quorum à partir de n'importe quel nœud, à l'exception de celui qui est à l'état de maintenance, avant de réinitialiser le nœud, sinon celui-ci restera bloqué en attente du quorum.
# scconf -c -q node=node,reset |
Indique le format de modification de la commande scconf.
Gère les options de quorum.
Désigne le nom du nœud à réinitialiser, phys-schost-1 par exemple.
Indicateur de modification permettant de réinitialiser le quorum.
Réinitialisez le nœud que vous souhaitez sortir de l'état de maintenance.
Vérifiez le nombre de voix de quorum.
# scstat -q |
L'état du nœud qui vient de quitter l'état de maintenance devrait être online. Le nombre de voix adéquat doit figurer en face des votes de quorum Present et Possible.
L'exemple suivant illustre le rétablissement du nombre de voix de quorum par défaut pour un nœud de cluster et ses périphériques de quorum et la vérification du résultat de l'opération. L'affichage généré par la commande scstat -q donne 1 en face du nombre de voix de quorum, Node votes, du nœud phys-schost-1, dont l'état est online. Le Récapitulatif du quorum devrait également présenter une augmentation du nombre de voix.
phys-schost-2# scconf -c -q node=phys-schost-1,reset |
Sur phys-schost-1 :
SPARC :
ok boot -x |
x86 :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
phys-schost-1# scstat -q -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online Node votes: phys-schost-3 1 1 Online -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d3s2 1 1 Online Device votes: /dev/did/rdsk/d17s2 1 1 Online Device votes: /dev/did/rdsk/d31s2 1 1 Online |
Le tableau suivant répertorie les tâches à effectuer lors de l'ajout d'un nœud à un cluster existant. Pour que la procédure soit correcte, ces tâches doivent être effectuées dans l'ordre indiqué.
Tableau 7–2 Plan des tâches : ajout d'un nœud à un cluster existant
Tâche |
Pour les instructions, voir... |
---|---|
Installer l'adaptateur hôte sur le nœud et vérifier que les interconnexions de cluster peuvent prendre en charge le nouveau nœud |
Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS |
Ajouter un emplacement de stockage partagé |
Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS |
Ajouter le nœud à la liste des nœuds autorisés - Utiliser la commande scsetup. | |
Installer et configurer du logiciel sur le nouveau nœud de cluster - Installer le système d'exploitation Solaris et le logiciel Sun Cluster. - Configurer le nœud en tant qu'élément du cluster |
Le tableau suivant répertorie les tâches à effectuer pour supprimer un nœud d'un cluster existant. Pour que la procédure soit correcte, ces tâches doivent être effectuées dans l'ordre indiqué.
n'utilisez pas cette procédure si votre cluster exécute une configuration OPS. À ce stade, supprimer un nœud d'une configuration OPS pourrait entraîner une défaillance des nœuds au redémarrage.
Tâche |
Pour les instructions, voir... |
---|---|
Évacuer tous les groupes de ressources et groupes de périphériques de disques du nœud à supprimer - Utilisez la commande scswitch(1M) |
# scswitch -S -h nœud_origine |
Supprimer le nœud de tous les groupes de ressources - Utilisez la commande scrgadm(1M) |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
Supprimer un nœud de tous les groupes de périphériques de disques - Utilisez les commandes scconf(1M), metaset(1M) et scsetup(1M) |
SPARC : suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager) SPARC : suppression d'un nœud d'un groupe de périphériques de disques bruts Attention : si le nombre de nœuds secondaires souhaité est configuré sur 2 ou plus, ramenez-le à 1. |
Supprimer tous les périphériques de quorum connectés. - Utilisez scsetup. |
Attention : ne supprimez pas le périphérique de quorum si vous supprimez un nœud d'un cluster à deux nœuds.
Suppression d'un périphérique de quorum
Veuillez noter que bien que vous deviez supprimer le périphérique de quorum avant de supprimer l'unité de stockage, vous pouvez rajouter le périphérique de quorum immédiatement après. |
Supprimer tous les périphériques de stockage connectés du nœud. - Utilisez les commandes devfsadm(1M), scdidadm(1M). |
Attention : ne supprimez pas le périphérique de quorum si vous supprimez un nœud d'un cluster à deux nœuds. Suppression de connectivité entre un tableau et un nœud unique dans un cluster doté d'une connectivité de plus de deux nœuds |
Ajouter de nouveau les périphériques de quorum (uniquement aux nœuds devant rester dans le cluster) - Utilisez la commande scconf -a -q globaldev=d[n],node= node1,node=node2 | |
Mettre le nœud en cours de suppression à l'état de maintenance - Utilisez les commandes scswitch(1M), shutdown(1M) et scconf(1M). | |
Supprimer toutes les connexions de transport logique (câbles et adaptateurs de transport) du nœud à supprimer. - Utilisez scsetup. | |
Supprimer tous les périphériques de quorum connectés au nœud en cours de suppression - Utiliser scsetup, scconf(1M). | |
Supprimer le nœud de la configuration logicielle du cluster - Utilisez scconf(1M). |
Suppression d'un nœud de la configuration logicielle du cluster |
Avant d'ajouter une machine à un cluster existant, vous devez vous assurer que le nœud est équipé de tout le matériel et de tous les logiciels nécessaires et que ceux-ci sont correctement installés et configurés.
Pour de plus amples informations sur l'installation matérielle, reportez-vous au document Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS ou à la documentation matérielle fournie avec votre serveur.
Cette procédure permet à un ordinateur de s'installer dans un cluster en ajoutant son nom de nœud à la liste des nœuds autorisés pour ce cluster.
Pour effectuer cette procédure, vous devez être superutilisateur sur un nœud déjà membre d'un cluster.
Assurez-vous d'avoir exécuté toutes les tâches de configuration et d'installation matérielles nécessaires répertoriées dans la liste des tâches de la section Ajout et suppression d'un nœud de cluster.
Entrez la commande scsetup.
# scsetup |
Le menu principal apparaît.
Pour accéder au menu New nodes, entrez 7 dans le menu principal.
Pour modifier la liste des nœuds autorisés, entrez 3 dans le menu Nouveaux nœuds et indiquez le nom d'une machine autorisée à s'ajouter.
Suivez les indications pour ajouter le nœud au cluster. Vous devez indiquer le nom du nœud à ajouter.
Vérifiez que la tâche a bien été exécutée.
L'utilitaire scsetup affiche un message “ La commande a été exécutée avec succès ” s'il est parvenu à accomplir la tâche sans erreur.
Quittez l'utilitaire scsetup.
Installez et configurez le logiciel sur le nouveau nœud de cluster.
Utilisez scinstall ou JumpStartTM pour installer et configurer le nouveau nœud, conformément aux procédures du document Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Pour empêcher toute autre machine de s'ajouter au cluster, tapez 1 dans le menu New Nodes.
Suivez les invites de scsetup. Cette option indique au cluster d'ignorer toutes les demandes provenant, à travers le réseau public, de toute nouvelle machine tentant de s'ajouter au cluster.
L'exemple suivant montre comment ajouter un nœud phys-schost-3 à la liste des nœuds autorisés d'un cluster existant.
[Become superuser and execute the scsetup utility.] # scsetup Select New nodes>Specify the name of a machine which may add itself. Answer the questions when prompted. Verify that the scconf command completed successfully. scconf -a -T node=phys-schost-3 Command completed successfully. Select Prevent any new machines from being added to the cluster. Quit the scsetup New Nodes Menu and Main Menu. [Install the cluster software.] |
Pour obtenir une liste globale des tâches pour l'ajout d'un nœud de cluster, consultez le Tableau 7–2, “Liste des tâches : ajout d'un nœud de cluster ».
Pour ajouter un nœud à un groupe de ressources existant, reportez-vous au document Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Cette procédure vous permet de supprimer un nœud du cluster.
Assurez-vous d'avoir exécuté toutes les tâches nécessaires répertoriées dans la liste des tâches “Suppression d'un nœud de cluster” de la section Ajout et suppression d'un nœud de cluster.
assurez-vous d'avoir supprimé le nœud de tous les groupes de ressources, groupes de périphériques de disques et configurations de périphérique de quorum et de l'avoir mis en état de maintenance avant de poursuivre avec cette procédure.
Devenez superutilisateur sur un nœud du cluster autre que le nœud à supprimer.
Supprimez le nœud du cluster.
# scconf -r -h node=node-name |
Vérifiez que le nœud a bien été supprimé en utilisant scstat(1M)
# scstat -n |
Souhaitez-vous désinstaller le logiciel Sun Cluster du nœud supprimé ?
Si oui, passez à la section Désinstallation du logiciel Sun Cluster d'un nœud de cluster. Vous pouvez aussi réinstaller le logiciel Solaris sur le nœud.
Sinon, supprimez physiquement le nœud du cluster et supprimez les connexions matérielles comme décrit dans le document Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS.
Cet exemple montre comment supprimer un nœud (phys-schost-2) d'un cluster. Toutes les commandes sont exécutées à partir d'un autre nœud du cluster (phys-schost-1).
[Remove the node from the cluster:] phys-schost-1# scconf -r -h node=phys-schost-2 [Verify node removal:] phys-schost-1# scstat -n -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online |
Pour désinstaller le logiciel Sun Cluster du nœud supprimé, consultez la section Désinstallation du logiciel Sun Cluster d'un nœud de cluster
Pour connaître les procédures matérielles, consultez le document Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS.
Pour obtenir une liste générale des tâches relatives à la suppression d'un nœud de cluster, consultez le Tableau 7–3.
Pour ajouter un nœud à un cluster existant, reportez-vous à la section Ajout d'un nœud de cluster à la liste des nœuds autorisés.
Utilisez cette procédure pour dissocier un tableau de stockage d'un nœud de cluster unique, dans un cluster doté d'une connectivité à trois ou quatre nœuds.
Sauvegardez tous les tableaux de base de données, tous les services de données et tous les volumes liés au tableau de stockage que vous supprimez.
Définissez les groupes de ressources et groupes de périphériques fonctionnant sur le nœud à déconnecter.
# scstat |
Si nécessaire, sortez tous les groupes de ressources et les groupes de périphériques du nœud à déconnecter.
si votre cluster exécute le logiciel Oracle Parallel Server/Real Application Clusters, arrêtez l'instance de la base de données Oracle Parallel Server/Real Application Clusters s'exécutant sur le nœud avant de sortir les groupes de ce nœud. Pour obtenir des instructions, reportez-vous au document Oracle Database Administration Guide.
# scswitch -S -h from-node |
Mettez les groupes de périphériques à l'état de maintenance.
Pour la procédure d'acceptation de l'activité E/S vers les groupes de disques partagés Veritas, reportez-vous à votre documentation VxVM.
Pour connaître la procédure relative au placement d'un groupe de périphériques à l'état de maintenance, reportez-vous au Chapitre 7, Administration du cluster .
Supprimez le nœud des groupes de périphériques.
Si vous utilisez VxVM ou un disque en mode caractère, exécutez la commande scconf(1M) pour supprimer les groupes de périphériques.
Si vous utilisez Solstice DiskSuite, utilisez la commande metaset pour supprimer les groupes de périphériques.
Si le cluster exécute HAStorage ou HAStoragePlus, supprimez le nœud de la liste de nœuds du groupe de ressources.
# scrgadm -a -g resource-group -h nodelist |
Pour de plus amples informations sur la modification de la liste de nœuds d'un groupe de périphériques, reportez-vous au document Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
le type de ressources, le groupe de ressources et les noms de propriétés de ressources ne sont pas sensibles à la casse lors de l'exécution de scrgadm.
Si le tableau de stockage que vous supprimez est le dernier tableau de stockage connecté au nœud, déconnectez le câble fibre optique situé entre le nœud et le concentrateur ou le commutateur qui est connecté à ce tableau de stockage (dans le cas contraire, passez cette étape).
Souhaitez-vous supprimer l'adaptateur hôte du nœud que vous déconnectez ?
Si oui, fermez et déconnectez le nœud.
Sinon, passez à l'Étape 11.
Supprimez l'adaptateur hôte du nœud.
Pour de plus amples informations sur la procédure de retrait des adaptateurs hôte, reportez-vous à la documentation accompagnant vos nœuds.
Mettez le nœud sous tension sans lui laisser la possibilité de s'initialiser.
Initialisez le nœud en mode non-cluster.
SPARC :
ok boot -x |
x86 :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
le nœud doit être en mode non-cluster afin que vous puissiez supprimer le logiciel Oracle Parallel Server/Real Application Clusters à l'étape suivante. Dans le cas contraire, le nœud ne sait pas quoi faire, ce qui peut entraîner une perte de disponibilité des données.
SPARC : si le logiciel Oracle Parallel Server/Real Application Clusters a été installé, supprimez le progiciel Oracle Parallel Server/Real Application Clusters du nœud que vous déconnectez.
# pkgrm SUNWscucm |
si vous ne supprimez pas le logiciel Oracle Parallel Server/Real Application Clusters du nœud que vous avez déconnecté, le nœud ne saura pas quoi faire au moment de sa réintroduction dans le cluster et cela pourrait entraîner une perte de disponibilité des données.
Initialisez le nœud en mode cluster.
SPARC :
ok boot |
x86 :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
Sur le nœud, mettez à jour l'espace de noms du périphérique en mettant à jour les entrées /devices et /dev.
# devfsadm -C # scdidadm -C |
Remettez les groupes de périphériques en ligne.
Pour connaître les procédures relatives à la mise en ligne des groupes de disques partagés VERITAS, consultez votre documentation VERITAS Volume Manager.
Pour connaître la procédure relative à la mise en ligne du groupe de périphériques, consultez la procédure permettant de mettre un groupe de périphériques en état de maintenance.
Utilisez cette procédure pour désinstaller le logiciel Sun Cluster d'un nœud de cluster avant de le déconnecter d'une configuration de cluster pleinement définie. Vous pouvez utiliser cette procédure pour désinstaller des logiciels à partir du dernier nœud de cluster restant.
n'utilisez pas cette procédure pour désinstaller le logiciel Sun Cluster d'un nœud n'étant pas encore associé au cluster ou n'étant pas encore installé. Reportez-vous à la section “Procédure de désinstallation du logiciel Sun Cluster pour corriger les problèmes d'installation” du document Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Assurez-vous d'avoir correctement effectué toutes les tâches préalables énumérées dans la description des tâches pour la suppression d'un nœud de cluster.
Reportez-vous à la section Ajout et suppression d'un nœud de cluster.
assurez-vous de la suppression effective du nœud de tous les groupes de ressources, groupes de périphériques et configurations de périphériques de quorum, faites-le passer à l'état de maintenance et supprimez-le du cluster avant de poursuivre avec cette procédure.
Devenez superutilisateur sur un élément actif du cluster autre que le nœud à désinstaller.
À partir du membre actif du cluster, ajoutez le nœud à désinstaller à la liste d'authentification des nœuds du cluster.
# scconf -a -T node=nodename |
Ajouter
Spécifie les options d'authentification
Spécifie le nom du nœud à ajouter à la liste d'authentification
Vous pouvez aussi employer l'utilitaire scsetup(1M). Pour connaître les procédures à suivre, reportez-vous à la section Ajout d'un nœud de cluster à la liste des nœuds autorisés.
Devenez superutilisateur du nœud à désinstaller.
Réinitialisez le nœud en mode non-cluster.
SPARC :
# shutdown -g0 -y -i0ok boot -x |
x86 :
# shutdown -g0 -y -i0 ... <<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
Dans le fichier /etc/vfstab, supprimez toutes les entrées de systèmes de fichiers montés globalement sauf les montages globaux /global/.devices.
Désinstallez le logiciel Sun Cluster du nœud.
Exécutez la commande à partir d'un répertoire n'étant pas associé à aucun des modules Sun Cluster.
# cd / # scinstall -r |
Pour de plus amples informations, reportez-vous à la page de manuel scinstall(1M). Si la commande scinstall renvoie des messages d'erreur, reportez-vous à la section Entrées de système de fichiers de cluster non supprimées.
Déconnectez, le cas échéant, les câbles de transport et de jonction des autres périphériques de cluster.
Si le nœud désinstallé est connecté à un périphérique de stockage utilisant une interface parallèle SCSI, installez un terminateur SCSI sur le connecteur SCSI ouvert du périphérique de stockage après avoir déconnecté les câbles de transport.
Si le nœud désinstallé est connecté à un périphérique de stockage utilisant des interfaces Fibre Channel, aucune terminaison n'est nécessaire.
Reportez-vous à la documentation envoyée avec votre adaptateur hôte et votre serveur pour les procédures de déconnexion.
Suivez cette procédure pour corriger les messages d'erreur dans les rubriques précédentes.
Essayez de rattacher le nœud au cluster.
# boot |
Le nœud a-t-il été correctement rattaché au cluster ?
Sinon, passez à l'Étape 3.
Si c'est le cas, exécutez les étapes suivantes pour supprimer le nœud des groupes de périphériques de disques.
Si le nœud a été correctement rattaché au cluster, supprimez le nœud du (des) groupe(s) de périphériques de disques restant(s).
Suivez les procédures de la section Suppression d'un nœud de tous les groupes de périphériques de disques.
Après avoir supprimé le nœud de tous les groupes de périphériques de disques, revenez à la section Désinstallation du logiciel Sun Cluster d'un nœud de cluster et répétez la procédure.
Si le nœud n'a pu être rattaché au cluster, renommer le fichier /etc/cluster/ccr du nœud en choisissant le nom que vous désirez, par exemple, ccr.old.
# mv /etc/cluster/ccr /etc/cluster/ccr.old |
Revenez à la section Désinstallation du logiciel Sun Cluster d'un nœud de cluster et répétez la procédure.
Cette rubrique décrit les messages d'erreur susceptibles d'apparaître lorsque vous exécutez la commande scinstall -r ainsi que les actions correctives à effectuer.
Le message d'erreur suivant indique que les systèmes de fichiers de cluster sont toujours référencés dans le fichier vfstab du nœud supprimé.
Verifying that no unexpected global mounts remain in /etc/vfstab ... failed scinstall: global-mount1 is still configured as a global mount. scinstall: global-mount1 is still configured as a global mount. scinstall: /global/dg1 is still configured as a global mount. scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |
Pour corriger cette erreur, revenez à la section Désinstallation du logiciel Sun Cluster d'un nœud de cluster et répétez la procédure. Assurez-vous d'avoir correctement exécuté l'Étape 6 de la procédure avant de relancer la commande scinstall - r.
Ces messages d'erreur indiquent que le nœud supprimé est toujours listé dans un groupe de périphériques de disques.
Verifying that no device services still reference this node ... failed scinstall: This node is still configured to host device service " service". scinstall: This node is still configured to host device service " service2". scinstall: This node is still configured to host device service " service3". scinstall: This node is still configured to host device service " dg1". scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |