Guide d'administration système de Sun Cluster pour SE Solaris

Chapitre 7 Administration du cluster

Ce chapitre décrit les procédures d'administration des éléments ayant une incidence sur l'ensemble du cluster.

Les procédures décrites dans ce chapitre sont les suivantes :

Administration du cluster : présentation

Tableau 7–1 Liste des tâches : Administration du cluster

Tâche 

Pour les instructions, voir... 

Modifier le nom du cluster 

Modification du nom du cluster

Obtenir une liste des ID des nœuds et des noms correspondants 

Correspondance entre l'ID d'un nœud et le nom d'un nœud

Permettre ou interdire d'ajouter de nouveaux nœuds au cluster 

Utilisation de l'authentification des nouveaux nœuds du cluster

Modifier l'heure d'un cluster à l'aide du protocole NTP (Network Time Protocol) 

Réinitialisation de l'heure dans un cluster

Arrêter un nœud à l'invite ok de la mémoire PROM OpenBoot sur un système SPARC ou un sous-système d'amorçage sur un système x86

SPARC : accès à la mémoire PROM OpenBoot (OBP) sur un nœud

Modifier le nom d'hôte privé 

Modification du nom d'hôte privé

Mettre un nœud de cluster à l'état de maintenance 

Mise à l'état de maintenance d'un nœud

Sortir un nœud de cluster de l'état de maintenance 

Retrait d'un nœud de l'état de maintenance

Ajouter un nœud à un cluster 

Ajout d'un nœud de cluster à la liste des nœuds autorisés

Supprimer un nœud d'un cluster 

Suppression d'un nœud de la configuration logicielle du cluster

ProcedureModification du nom du cluster

Si nécessaire, vous pouvez modifier le nom du cluster après l'installation initiale.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Entrez la commande scsetup.


    # scsetup
    

    Le menu principal apparaît.

  3. Pour changer le nom du cluster, tapez 8 (Other cluster properties).

    Le menu Autres propriétés du cluster apparaît.

  4. Choisissez une option dans le menu et suivez les instructions qui apparaissent à l'écran.


Exemple 7–1 Changement du nom du cluster

L'exemple suivant montre la commande scconf(1M) générée à partir de l'utilitaire scsetup(1M) pour changer le nom du nouveau cluster, dromedary.


# scconf -c -C cluster=dromedary

ProcedureCorrespondance entre l'ID d'un nœud et le nom d'un nœud

Lors de l'installation de Sun Cluster, chaque nœud se voit automatiquement attribuer un ID de nœud unique. Cet ID est attribué au nœud en fonction de son ordre d'arrivée dans le cluster. Une fois attribué, il ne peut être modifié. L'ID de nœud est souvent utilisé dans les messages d'erreur pour identifier le nœud de cluster concerné. Suivez la procédure indiquée ci-après pour déterminer la correspondance entre les ID et les noms de nœuds.

Il n'est pas nécessaire d'être superutilisateur pour afficher les informations de configuration.

Étape

    Utilisez la commande scconf(1M) pour accéder aux informations de configuration du cluster.


    % scconf -pv | grep "Node ID"
    

Exemple 7–2 Association du nom et de l'ID du nœud

L'exemple suivant montre l'attribution des ID aux nœuds.


% scconf -pv | grep “Node ID”
(phys-schost-1) Node ID:                    1
(phys-schost-2) Node ID:                    2
(phys-schost-3) Node ID:                    3

ProcedureUtilisation de l'authentification des nouveaux nœuds du cluster

Sun Cluster vous permet de déterminer si de nouveaux nœuds peuvent s'ajouter au cluster et, le cas échéant, avec quel type d'authentification. Vous pouvez permettre à tout nouveau nœud de s'ajouter au cluster via le réseau public, interdire aux nouveaux nœuds de se joindre au cluster ou spécifier les nœuds pouvant s'ajouter au cluster. Les nouveaux nœuds peuvent être authentifiés en utilisant soit le mode d'authentification UNIX standard, soit le mode d'authentification Diffie-Hellman (DES). Si vous sélectionnez le mode DES, vous devez également configurer toutes les clés de cryptage requises pour que des nœuds puissent s'ajouter au cluster. Pour de plus amples informations, reportez-vous aux pages de manuel keyserv(1M) et publickey(4).

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Exécutez l'utilitaire scsetup(1M).


    # scsetup
    

    Le menu principal apparaît.

  3. Pour utiliser l'authentification de cluster, entrez 7 (New nodes).

    Le menu Nouveaux nœuds apparaît.

  4. Choisissez une option dans le menu et suivez les instructions qui apparaissent à l'écran.


Exemple 7–3 Prévention de l'ajout de toute nouvelle machine au cluster

L'exemple suivant montre la commande scconf générée à partir de l'utilitaire scsetup pour empêcher les nouvelles machines de s'ajouter au cluster.


# scconf -a -T node=.


Exemple 7–4 Autorisation de l'ajout au cluster de toutes les nouvelles machines

L'exemple suivant montre la commande scconf générée par l'utilitaire scsetup pour autoriser toutes les nouvelles machines à s'ajouter au cluster.


# scconf -r -T all


Exemple 7–5 Autorisation de l'ajout d'une nouvelle machine au cluster

L'exemple suivant montre la commande scconf générée à partir de l'utilitaire scsetup pour autoriser une machine donnée à s'ajouter au cluster.


# scconf -a -T node=phys-schost-4


Exemple 7–6 Activation de l'authentification UNIX standard

L'exemple suivant montre la commande scconf générée à partir de l'utilitaire scsetup pour activer l'authentification UNIX standard pour les nouveaux nœuds s'ajoutant au cluster.


# scconf -c -T authtype=unix


Exemple 7–7 Activation de l'authentication DES

L'exemple suivant montre la commande scconf générée à partir de l'utilitaire scsetup pour activer l'authentification DES pour les nouveaux nœuds s'ajoutant au cluster.


# scconf -c -T authtype=des

lorsque vous utilisez le mode d'authentification DES, vous devez également configurer toutes les clés de cryptage requises pour que des nœuds puissent s'ajouter au cluster. Pour de plus amples informations, reportez-vous aux pages man keyserv(1M) and publickey(4).


ProcedureRéinitialisation de l'heure dans un cluster

Sun Cluster utilise le protocole NTP (Network Time Protocol) pour maintenir la synchronisation horaire entre les différents nœuds du cluster. Les réglages au niveau du cluster se font automatiquement selon les besoins lorsque des nœuds se synchronisent. Pour de plus amples informations, reportez-vous aux documents Guide des notions fondamentales de Sun Cluster pour SE Solaris et Network Time Protocol User's Guide.


Attention – Attention –

lorsque vous utilisez le protocole NTP, ne tentez pas de régler l'heure du cluster alors que celui-ci est actif : évitez d'utiliser les commandes date(1), rdate(1M), xntpd(1M) ou svcadm(1M) de manière interactive ou dans les scripts cron(1M).


Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Arrêtez le cluster.


    # scshutdown -g0 -y
    
  3. Vérifiez que le nœud apparaît à l'invite ok ou Select (b)oot or (i)nterpreter sur l'écran des paramètres d'initialisation courants.

  4. Initialisez le nœud en mode non-cluster à l'aide de la commande boot(1M) ou b avec l'option -x.

    • SPARC :


      ok boot -x
      
    • x86 :


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      
  5. Sur un seul nœud, exécutez la commande date pour définir l'heure.


    # date HHMM.SS
    
  6. Sur les autres machines, synchronisez l'heure avec celle de ce nœud en exécutant la commande rdate(1M).


    # rdate hostname
    
  7. Initialisez chaque nœud pour redémarrer le cluster.


    # reboot
    
  8. Vérifiez que le changement d'heure est effectif sur tous les nœuds du cluster.

    Sur chaque nœud, exécutez la commande date.


    # date
    

ProcedureSPARC : accès à la mémoire PROM OpenBoot (OBP) sur un nœud

Suivez la procédure indiquée ci-après si vous devez configurer ou modifier les paramètres de la mémoire PROM OpenBoot.

Étapes
  1. Connectez-vous au port du concentrateur de terminaux.


    # telnet tc_name tc_port_number
    
    nom_ct

    Indique le nom du concentrateur de terminaux.

    tc_port_number

    Indique le numéro du port sur le concentrateur de terminaux. Les numéros de port varient en fonction de la configuration. En général, les ports 2 et 3 (5002 et 5003) sont utilisés pour le premier cluster installé sur un site.

  2. Arrêtez le nœud de manière progressive, en utilisant la commande scswitch(1M) pour évacuer les groupes de périphériques de disques ou de ressources, puis la commande shutdown.


    # scswitch -S -h node[,...]
    # shutdown -g0 -y -i0
    

    Attention – Attention –

    n'utilisez pas send brk sur une console de cluster pour arrêter un nœud de cluster.


  3. Exécutez les commandes OBP.

ProcedureModification du nom d'hôte privé

Suivez cette procédure pour modifier le nom d'hôte privé d'un nœud du cluster après l'installation.

Des noms d'hôtes privés par défaut sont attribués durant l'installation initiale du cluster. Le nom d'hôte privé par défaut apparaît sous la forme clusternode< ID_nœud>-priv, par exemple : clusternode3-priv . Ne changez un nom d'hôte privé que si ce nom est déjà utilisé dans le domaine.


Attention – Attention –

ne tentez pas d'attribuer des adresses IP à de nouveaux noms d'hôtes privés. Elles sont attribuées par le logiciel du cluster.


Étapes
  1. Sur tous les nœuds du cluster, désactivez toutes les ressources de services de données ou autres applications pouvant masquer des noms d'hôtes privés.


    # scswitch -n -j resource1, resource2
    

    Parmi les applications que vous désactiverez, n'oubliez pas :

    • Les services HA-DNS et HA-NFS, s'ils sont configurés.

    • Toute application configurée pour utiliser le nom d'hôte privé (par une configuration personnalisée).

    • toute application en cours d'utilisation par des clients sur l'interconnexion privée.

    Pour de plus amples informations sur l'utilisation de la commande scswitch, reportez-vous à la page de manuel scswitch(1M) et au document Sun Cluster Data Services Planning and Administration Guide for Solaris OS

  2. Arrêtez le démon NTP (Network Time Protocol) sur chaque nœud du cluster.

    • Si vous utilisez Solaris 8 ou Solaris 9, utilisez la commande xntpd pour arrêter le démon NTP (Network Time Protocol). Pour de plus amples informations sur le démon NTP, reportez-vous à la page de manuel xntpd(1M).


      # /etc/init.d/xntpd.cluster stop
      
    • Si vous utilisez Solaris 10, utilisez la commande svcadm pour arrêter le démon NTP (Network Time Protocol). Pour de plus amples informations sur le démon NTP, reportez-vous à la page de manuel svcadm(1M).


      # svcadm disable ntp
      
  3. Exécutez l'utilitaire scsetup(1M) pour modifier le nom d'hôte privé du nœud concerné.

    Vous ne devez effectuer cette opération qu'à partir d'un seul nœud du cluster.


    Remarque –

    lorsque vous sélectionnez un nouveau nom d'hôte privé, assurez-vous que ce nom est unique pour le nœud du cluster.


  4. Sélectionnez 5, Noms d'hôte privés, dans le menu principal.

  5. Sélectionnez 1, Change a Private Hostname, dans le menu Private Hostnames.

    Répondez aux questions posées. Un message vous demandera le nom du nœud dont vous modifiez le nom d'hôte privé (clusternode < nodeid>-priv) et le nouveau nom d'hôte privé.

  6. Videz la mémoire cache du service de noms.

    Effectuez cette opération sur chaque nœud du cluster. Les applications et autres services de données du cluster ne tenteront ainsi plus d'accéder à l'ancien nom d'hôte privé.


    # nscd -i hosts
    
  7. Éditez le fichier ntp.conf.cluster sur chaque nœud pour changer le nom de l'hôte privé.

    Utilisez pour ce faire votre outil d'édition favori.

    Si ce n'est pas fait au moment de l'installation, pensez également à supprimer les noms des nœuds configurés ; le modèle par défaut est préconfiguré avec seize nœuds. Généralement, le fichier ntp.conf.cluster est identique sur tous les nœuds de cluster.

  8. Vérifiez que vous pouvez contacter le nouveau nom d'hôte privé avec ping à partir de tous les nœuds du cluster.

  9. Relancez le démon NTP.

    Effectuez cette opération sur chaque nœud du cluster.

    • Si vous utilisez Solaris 8 ou Solaris 9, utilisez la commande xntpd pour redémarrer le démon NTP.


      # /etc/init.d/xntpd.cluster start
      
    • Si vous utilisez Solaris 10, utilisez la commande svcadm pour redémarrer le démon NTP.


      # svcadm enable ntp
      
  10. Activez toutes les ressources de service de données et d'autres applications qui ont été désactivées à l'Étape 1.


    # scswitch -e -j resource1, resource2
    

    Pour de plus amples informations sur l'utilisation de la commande scswitch, reportez-vous à la page de manuel scswitch et au document Sun Cluster Data Services Planning and Administration Guide for Solaris OS .


Exemple 7–8 Changement du nom d'hôte privé

Dans l'exemple suivant, le nom d'hôte privé clusternode2-priv est remplacé par clusternode4-priv, sur le nœud phys-schost-2 .


[Disable all applications and data services as necessary.
]
phys-schost-1# /etc/init.d/xntpd stop
phys-schost-1# scconf -p | grep node
 ...
 Cluster nodes:                  phys-schost-1 phys-schost-2 phys-
 schost-3
 Cluster node name:                                 phys-schost-1
  Node private hostname:                           clusternode1-priv
 Cluster node name:                                 phys-schost-2
  Node private hostname:                           clusternode2-priv
 Cluster node name:                                 phys-schost-3
  Node private hostname:                           clusternode3-priv
 ...
phys-schost-1# scsetup
phys-schost-1# nscd -i hosts
phys-schost-1# vi /etc/inet/ntp.conf
 ...
 peer clusternode1-priv
 peer clusternode4-priv
 peer clusternode3-priv
phys-schost-1# ping clusternode4-priv
phys-schost-1# /etc/init.d/xntpd start
[Enable all applications and data services disabled at the beginning of the procedure.
]

ProcedureMise à l'état de maintenance d'un nœud

Vous devez mettre un nœud de cluster à l'état de maintenance lorsque vous le mettez hors fonction pour une période prolongée. Ainsi, il n'est pas compté dans le quorum au cours de sa maintenance. Pour mettre un nœud de cluster à l'état de maintenance, vous devez d'abord l'arrêter à l'aide des commandes scswitch(1M) et shutdown(1M).


Remarque –

utilisez la commande shutdown de Solaris pour arrêter un nœud individuel. N'utilisez la commande scshutdown que pour arrêter un cluster entier.


Lorsqu'un nœud de cluster est mis hors fonction et à l'état de maintenance, tous les périphériques de quorum comportant des ports d'accès à ce nœud voient leur nombre de voix diminuer d'une unité. Ce nombre est à nouveau augmenté de 1 pour le nœud et les périphériques de quorum lorsque le nœud quitte le mode maintenance et est remis en ligne.

Pour mettre un nœud de cluster à l'état de maintenance, vous devez utiliser la commande scconf(1M). Vous ne pouvez pas effectuer cette opération avec l'utilitaire scsetup(1M).

Étapes
  1. Devenez superutilisateur sur le nœud à mettre à l'état de maintenance.

  2. Évacuez tous les groupes de ressources et les groupes de périphériques de disques du nœud.


    # scswitch -S -h node[,...]
    
    -S

    Évacue tous les services de périphériques et tous les groupes de ressources du nœud spécifié.

    -h nœud[,...]

    Indique le nœud dont vous changez les groupes de ressources et groupes de périphériques.

  3. Arrêtez le nœud que vous avez évacué.


    # shutdown -g0 -y -i0
    
  4. Devenez superutilisateur sur un autre nœud du cluster et mettez le nœud arrêté à l'Étape 3 à l'état de maintenance.


    # scconf -c -q node=node,maintstate
    
    -c

    Indique le format de modification de la commande scconf.

    -q

    Gère les options de quorum.

    node=nœud

    Indique le nom ou l'ID du nœud à modifier.

    maintstate

    Fait passer le nœud à l'état de maintenance.

  5. Vérifiez que le nœud du cluster est bien à l'état de maintenance.


    # scstat -q
    

    L'état du nœud en maintenance doit être Statut hors ligne et la valeur 0 (zéro) doit figurer en face des votes de quorum Présent et Possible.


Exemple 7–9 Mise à l'état de maintenance d'un nœud du cluster

L'exemple suivant illustre la mise à l'état de maintenance un nœud de cluster et la vérification du résultat. L'affichage généré par scstat -q montre que la valeur Votes du nœud de phys-schost-1 est bien 0 (zéro) et que le statut du nœud est bien défini sur hors ligne. Le Récapitulatif du quorum devrait également présenter un nombre de voix réduit. Selon votre configuration, Quorum Votes by Device indique également peut-être que certains disques de quorum sont hors ligne.


[On the node to be put into maintenance state:
]
phys-schost-1# scswitch -S -h phys-schost-1
phys-schost-1# shutdown -g0 -y -i0

[On another node in the cluster:]
phys-schost-2# scconf -c -q node=phys-schost-1,maintstate
phys-schost-2# scstat -q

-- Quorum Summary --
  Quorum votes possible:      3
  Quorum votes needed:        2
  Quorum votes present:       3

-- Quorum Votes by Node --
                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1       0        0       Offline
  Node votes:       phys-schost-2       1        1       Online
  Node votes:       phys-schost-3       1        1       Online

-- Quorum Votes by Device --
                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d3s2  0        0       Offline
  Device votes:     /dev/did/rdsk/d17s2 0        0       Offline
  Device votes:     /dev/did/rdsk/d31s2 1        1       Online

Voir aussi

Pour remettre un nœud en ligne, reportez-vous à la section Retrait d'un nœud de l'état de maintenance.

ProcedureRetrait d'un nœud de l'état de maintenance

La procédure suivante permet de remettre un nœud en ligne et de restaurer la valeur par défaut du nombre de voix de quorum. Pour les nœuds de cluster, il est de 1. Pour les périphériques de quorum, le nombre de voix de quorum par défaut est N -1, où N est le nombre de nœuds avec un nombre de voix non nul reliés par un port au périphérique de quorum.

Lorsqu'un nœud est placé à l'état de maintenance, son nombre de voix diminue d'une unité. Tous les périphériques de quorum configurés avec des ports connectés au nœud voient également leur nombre de voix de quorum diminué de 1. Lorsque le nombre de voix de quorum est réinitialisé et que le nœud quitte l'état de maintenance, le nombre de voix de quorum du nœud et du périphérique de quorum est augmenté d'une unité.

Exécutez cette procédure chaque fois qu'un nœud ou un périphérique de quorum quitte l'état de maintenance.


Attention – Attention –

si vous ne spécifiez ni l'option globaldev, ni l'option node, le nombre de voix de quorum est réinitialisé pour l'ensemble du cluster.


Étapes
  1. Devenez superutilisateur sur n'importe quel nœud du cluster, à l'exception de celui qui est à l'état de maintenance.

  2. Sortez-vous un nœud de l'état de maintenance dans un cluster à deux nœuds ?

  3. Si vous utilisez le quorum, réinitialisez le nombre de voix de quorum à partir de n'importe quel nœud, à l'exception de celui qui est à l'état de maintenance.

    Vous devez impérativement réinitialiser le nombre de voix de quorum à partir de n'importe quel nœud, à l'exception de celui qui est à l'état de maintenance, avant de réinitialiser le nœud, sinon celui-ci restera bloqué en attente du quorum.


    # scconf -c -q node=node,reset
    
    -c

    Indique le format de modification de la commande scconf.

    -q

    Gère les options de quorum.

    node=nœud

    Désigne le nom du nœud à réinitialiser, phys-schost-1 par exemple.

    reset

    Indicateur de modification permettant de réinitialiser le quorum.

  4. Réinitialisez le nœud que vous souhaitez sortir de l'état de maintenance.

  5. Vérifiez le nombre de voix de quorum.


    # scstat -q
    

    L'état du nœud qui vient de quitter l'état de maintenance devrait être online. Le nombre de voix adéquat doit figurer en face des votes de quorum Present et Possible.


Exemple 7–10 Réactivation d'un nœud et réinitialisation du nombre de voix de quorum

L'exemple suivant illustre le rétablissement du nombre de voix de quorum par défaut pour un nœud de cluster et ses périphériques de quorum et la vérification du résultat de l'opération. L'affichage généré par la commande scstat -q donne 1 en face du nombre de voix de quorum, Node votes, du nœud phys-schost-1, dont l'état est online. Le Récapitulatif du quorum devrait également présenter une augmentation du nombre de voix.


phys-schost-2# scconf -c -q node=phys-schost-1,reset

Sur phys-schost-1 :


phys-schost-1# scstat -q

-- Quorum Summary --

  Quorum votes possible:      6
  Quorum votes needed:        4
  Quorum votes present:       6

-- Quorum Votes by Node --

                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1       1        1       Online

  Node votes:       phys-schost-2       1        1       Online
  Node votes:       phys-schost-3       1        1       Online

-- Quorum Votes by Device --

                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d3s2  1        1       Online
  Device votes:     /dev/did/rdsk/d17s2 1        1       Online
  Device votes:     /dev/did/rdsk/d31s2 1        1       Online

Ajout et suppression d'un nœud de cluster

Le tableau suivant répertorie les tâches à effectuer lors de l'ajout d'un nœud à un cluster existant. Pour que la procédure soit correcte, ces tâches doivent être effectuées dans l'ordre indiqué.

Tableau 7–2 Plan des tâches : ajout d'un nœud à un cluster existant

Tâche 

Pour les instructions, voir... 

Installer l'adaptateur hôte sur le nœud et vérifier que les interconnexions de cluster peuvent prendre en charge le nouveau nœud 

Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS

Ajouter un emplacement de stockage partagé 

Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS

Ajouter le nœud à la liste des nœuds autorisés 

   - Utiliser la commande scsetup.

Ajout d'un nœud de cluster à la liste des nœuds autorisés

Installer et configurer du logiciel sur le nouveau nœud de cluster 

   - Installer le système d'exploitation Solaris et le logiciel Sun Cluster. 

   - Configurer le nœud en tant qu'élément du cluster 

Chapitre 2, Installation et configuration du logiciel Sun Cluster du Guide d’installation du logiciel Sun Cluster pour SE Solaris

Le tableau suivant répertorie les tâches à effectuer pour supprimer un nœud d'un cluster existant. Pour que la procédure soit correcte, ces tâches doivent être effectuées dans l'ordre indiqué.


Attention – Attention –

n'utilisez pas cette procédure si votre cluster exécute une configuration OPS. À ce stade, supprimer un nœud d'une configuration OPS pourrait entraîner une défaillance des nœuds au redémarrage.


Tableau 7–3 Plan des tâches : suppression d'un nœud de cluster (5/02)

Tâche 

Pour les instructions, voir... 

Évacuer tous les groupes de ressources et groupes de périphériques de disques du nœud à supprimer 

   - Utilisez la commande scswitch(1M)

# scswitch -S -h nœud_origine

Supprimer le nœud de tous les groupes de ressources 

   - Utilisez la commande scrgadm(1M)

Sun Cluster Data Services Planning and Administration Guide for Solaris OS

Supprimer un nœud de tous les groupes de périphériques de disques 

   - Utilisez les commandes scconf(1M), metaset(1M) et scsetup(1M)

Suppression d'un nœud d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

SPARC : suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager)

SPARC : suppression d'un nœud d'un groupe de périphériques de disques bruts

Attention : si le nombre de nœuds secondaires souhaité est configuré sur 2 ou plus, ramenez-le à 1.

Supprimer tous les périphériques de quorum connectés. 

   - Utilisez scsetup.

Attention : ne supprimez pas le périphérique de quorum si vous supprimez un nœud d'un cluster à deux nœuds.

 

Suppression d'un périphérique de quorum

 

Veuillez noter que bien que vous deviez supprimer le périphérique de quorum avant de supprimer l'unité de stockage, vous pouvez rajouter le périphérique de quorum immédiatement après. 

Supprimer tous les périphériques de stockage connectés du nœud.  

  - Utilisez les commandes devfsadm(1M), scdidadm(1M).

Attention : ne supprimez pas le périphérique de quorum si vous supprimez un nœud d'un cluster à deux nœuds. Suppression de connectivité entre un tableau et un nœud unique dans un cluster doté d'une connectivité de plus de deux nœuds

Ajouter de nouveau les périphériques de quorum (uniquement aux nœuds devant rester dans le cluster) 

  - Utilisez la commande scconf -a -q globaldev=d[n],node= node1,node=node2

scconf(1M)

Mettre le nœud en cours de suppression à l'état de maintenance 

   - Utilisez les commandes scswitch(1M), shutdown(1M) et scconf(1M).

Mise à l'état de maintenance d'un nœud

Supprimer toutes les connexions de transport logique (câbles et adaptateurs de transport) du nœud à supprimer. 

   - Utilisez scsetup.

Suppression d'un câble de transport de cluster, d'un adaptateur de transport et d'une jonction de transport

Supprimer tous les périphériques de quorum connectés au nœud en cours de suppression 

   - Utiliser scsetup, scconf(1M).

Suppression du dernier périphérique de quorum d'un cluster

Supprimer le nœud de la configuration logicielle du cluster 

   - Utilisez scconf(1M).

Suppression d'un nœud de la configuration logicielle du cluster

ProcedureAjout d'un nœud de cluster à la liste des nœuds autorisés

Avant d'ajouter une machine à un cluster existant, vous devez vous assurer que le nœud est équipé de tout le matériel et de tous les logiciels nécessaires et que ceux-ci sont correctement installés et configurés.

Pour de plus amples informations sur l'installation matérielle, reportez-vous au document Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS ou à la documentation matérielle fournie avec votre serveur.

Cette procédure permet à un ordinateur de s'installer dans un cluster en ajoutant son nom de nœud à la liste des nœuds autorisés pour ce cluster.

Pour effectuer cette procédure, vous devez être superutilisateur sur un nœud déjà membre d'un cluster.

Étapes
  1. Assurez-vous d'avoir exécuté toutes les tâches de configuration et d'installation matérielles nécessaires répertoriées dans la liste des tâches de la section Ajout et suppression d'un nœud de cluster.

  2. Entrez la commande scsetup.


    # scsetup
    

    Le menu principal apparaît.

  3. Pour accéder au menu New nodes, entrez 7 dans le menu principal.

  4. Pour modifier la liste des nœuds autorisés, entrez 3 dans le menu Nouveaux nœuds et indiquez le nom d'une machine autorisée à s'ajouter.

    Suivez les indications pour ajouter le nœud au cluster. Vous devez indiquer le nom du nœud à ajouter.

  5. Vérifiez que la tâche a bien été exécutée.

    L'utilitaire scsetup affiche un message “ La commande a été exécutée avec succès ” s'il est parvenu à accomplir la tâche sans erreur.

  6. Quittez l'utilitaire scsetup.

  7. Installez et configurez le logiciel sur le nouveau nœud de cluster.

    Utilisez scinstall ou JumpStartTM pour installer et configurer le nouveau nœud, conformément aux procédures du document Guide d’installation du logiciel Sun Cluster pour SE Solaris.

  8. Pour empêcher toute autre machine de s'ajouter au cluster, tapez 1 dans le menu New Nodes.

    Suivez les invites de scsetup. Cette option indique au cluster d'ignorer toutes les demandes provenant, à travers le réseau public, de toute nouvelle machine tentant de s'ajouter au cluster.


Exemple 7–11 Ajout d'un nœud de cluster à la liste des nœuds autorisés

L'exemple suivant montre comment ajouter un nœud phys-schost-3 à la liste des nœuds autorisés d'un cluster existant.


[Become superuser and execute the scsetup utility.]
# scsetup
Select New nodes>Specify the name of a machine which may add itself.
Answer the questions when prompted.
Verify that the scconf command completed successfully.
 
scconf -a -T node=phys-schost-3
 
    Command completed successfully.
Select Prevent any new machines from being added to the cluster.
Quit the scsetup New Nodes Menu and Main Menu.
[Install the cluster software.]

Voir aussi

Pour obtenir une liste globale des tâches pour l'ajout d'un nœud de cluster, consultez le Tableau 7–2, “Liste des tâches : ajout d'un nœud de cluster ».

Pour ajouter un nœud à un groupe de ressources existant, reportez-vous au document Sun Cluster Data Services Planning and Administration Guide for Solaris OS.

ProcedureSuppression d'un nœud de la configuration logicielle du cluster

Cette procédure vous permet de supprimer un nœud du cluster.

Étapes
  1. Assurez-vous d'avoir exécuté toutes les tâches nécessaires répertoriées dans la liste des tâches “Suppression d'un nœud de cluster” de la section Ajout et suppression d'un nœud de cluster.


    Remarque –

    assurez-vous d'avoir supprimé le nœud de tous les groupes de ressources, groupes de périphériques de disques et configurations de périphérique de quorum et de l'avoir mis en état de maintenance avant de poursuivre avec cette procédure.


  2. Devenez superutilisateur sur un nœud du cluster autre que le nœud à supprimer.

  3. Supprimez le nœud du cluster.


    # scconf -r -h node=node-name
    
  4. Vérifiez que le nœud a bien été supprimé en utilisant scstat(1M)


    # scstat -n
    
  5. Souhaitez-vous désinstaller le logiciel Sun Cluster du nœud supprimé ?


Exemple 7–12 Retrait d'un nœud de la configuration logicielle du cluster

Cet exemple montre comment supprimer un nœud (phys-schost-2) d'un cluster. Toutes les commandes sont exécutées à partir d'un autre nœud du cluster (phys-schost-1).


[Remove the node from the cluster:]
phys-schost-1# scconf -r -h node=phys-schost-2
[Verify node removal:]
phys-schost-1# scstat -n
-- Cluster Nodes --
                    Node name           Status
                    ---------           ------
  Cluster node:     phys-schost-1       Online

Voir aussi

Pour désinstaller le logiciel Sun Cluster du nœud supprimé, consultez la section Désinstallation du logiciel Sun Cluster d'un nœud de cluster

Pour connaître les procédures matérielles, consultez le document Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS.

Pour obtenir une liste générale des tâches relatives à la suppression d'un nœud de cluster, consultez le Tableau 7–3.

Pour ajouter un nœud à un cluster existant, reportez-vous à la section Ajout d'un nœud de cluster à la liste des nœuds autorisés.

ProcedureSuppression de connectivité entre un tableau et un nœud unique dans un cluster doté d'une connectivité de plus de deux nœuds

Utilisez cette procédure pour dissocier un tableau de stockage d'un nœud de cluster unique, dans un cluster doté d'une connectivité à trois ou quatre nœuds.

Étapes
  1. Sauvegardez tous les tableaux de base de données, tous les services de données et tous les volumes liés au tableau de stockage que vous supprimez.

  2. Définissez les groupes de ressources et groupes de périphériques fonctionnant sur le nœud à déconnecter.


    # scstat
    
  3. Si nécessaire, sortez tous les groupes de ressources et les groupes de périphériques du nœud à déconnecter.


    Caution (SPARC only) – Caution (SPARC only) –

    si votre cluster exécute le logiciel Oracle Parallel Server/Real Application Clusters, arrêtez l'instance de la base de données Oracle Parallel Server/Real Application Clusters s'exécutant sur le nœud avant de sortir les groupes de ce nœud. Pour obtenir des instructions, reportez-vous au document Oracle Database Administration Guide.



    # scswitch -S -h from-node
    
  4. Mettez les groupes de périphériques à l'état de maintenance.

    Pour la procédure d'acceptation de l'activité E/S vers les groupes de disques partagés Veritas, reportez-vous à votre documentation VxVM.

    Pour connaître la procédure relative au placement d'un groupe de périphériques à l'état de maintenance, reportez-vous au Chapitre 7, Administration du cluster .

  5. Supprimez le nœud des groupes de périphériques.

    • Si vous utilisez VxVM ou un disque en mode caractère, exécutez la commande scconf(1M) pour supprimer les groupes de périphériques.

    • Si vous utilisez Solstice DiskSuite, utilisez la commande metaset pour supprimer les groupes de périphériques.

  6. Si le cluster exécute HAStorage ou HAStoragePlus, supprimez le nœud de la liste de nœuds du groupe de ressources.


    # scrgadm -a -g resource-group -h nodelist 
    

    Pour de plus amples informations sur la modification de la liste de nœuds d'un groupe de périphériques, reportez-vous au document Sun Cluster Data Services Planning and Administration Guide for Solaris OS.


    Remarque –

    le type de ressources, le groupe de ressources et les noms de propriétés de ressources ne sont pas sensibles à la casse lors de l'exécution de scrgadm.


  7. Si le tableau de stockage que vous supprimez est le dernier tableau de stockage connecté au nœud, déconnectez le câble fibre optique situé entre le nœud et le concentrateur ou le commutateur qui est connecté à ce tableau de stockage (dans le cas contraire, passez cette étape).

  8. Souhaitez-vous supprimer l'adaptateur hôte du nœud que vous déconnectez ?

    • Si oui, fermez et déconnectez le nœud.

    • Sinon, passez à l'Étape 11.

  9. Supprimez l'adaptateur hôte du nœud.

    Pour de plus amples informations sur la procédure de retrait des adaptateurs hôte, reportez-vous à la documentation accompagnant vos nœuds.

  10. Mettez le nœud sous tension sans lui laisser la possibilité de s'initialiser.

  11. Initialisez le nœud en mode non-cluster.

    • SPARC :


      ok boot -x
      
    • x86 :


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      

    Caution (SPARC only) – Caution (SPARC only) –

    le nœud doit être en mode non-cluster afin que vous puissiez supprimer le logiciel Oracle Parallel Server/Real Application Clusters à l'étape suivante. Dans le cas contraire, le nœud ne sait pas quoi faire, ce qui peut entraîner une perte de disponibilité des données.


  12. SPARC : si le logiciel Oracle Parallel Server/Real Application Clusters a été installé, supprimez le progiciel Oracle Parallel Server/Real Application Clusters du nœud que vous déconnectez.


    # pkgrm SUNWscucm 
    

    Caution (SPARC only) – Caution (SPARC only) –

    si vous ne supprimez pas le logiciel Oracle Parallel Server/Real Application Clusters du nœud que vous avez déconnecté, le nœud ne saura pas quoi faire au moment de sa réintroduction dans le cluster et cela pourrait entraîner une perte de disponibilité des données.


  13. Initialisez le nœud en mode cluster.

    • SPARC :


      ok boot
      
    • x86 :


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b
      
  14. Sur le nœud, mettez à jour l'espace de noms du périphérique en mettant à jour les entrées /devices et /dev.


    # devfsadm -C 
    # scdidadm -C
    
  15. Remettez les groupes de périphériques en ligne.

    Pour connaître les procédures relatives à la mise en ligne des groupes de disques partagés VERITAS, consultez votre documentation VERITAS Volume Manager.

    Pour connaître la procédure relative à la mise en ligne du groupe de périphériques, consultez la procédure permettant de mettre un groupe de périphériques en état de maintenance.

ProcedureDésinstallation du logiciel Sun Cluster d'un nœud de cluster

Utilisez cette procédure pour désinstaller le logiciel Sun Cluster d'un nœud de cluster avant de le déconnecter d'une configuration de cluster pleinement définie. Vous pouvez utiliser cette procédure pour désinstaller des logiciels à partir du dernier nœud de cluster restant.


Remarque –

n'utilisez pas cette procédure pour désinstaller le logiciel Sun Cluster d'un nœud n'étant pas encore associé au cluster ou n'étant pas encore installé. Reportez-vous à la section “Procédure de désinstallation du logiciel Sun Cluster pour corriger les problèmes d'installation” du document Guide d’installation du logiciel Sun Cluster pour SE Solaris.


Étapes
  1. Assurez-vous d'avoir correctement effectué toutes les tâches préalables énumérées dans la description des tâches pour la suppression d'un nœud de cluster.

    Reportez-vous à la section Ajout et suppression d'un nœud de cluster.


    Remarque –

    assurez-vous de la suppression effective du nœud de tous les groupes de ressources, groupes de périphériques et configurations de périphériques de quorum, faites-le passer à l'état de maintenance et supprimez-le du cluster avant de poursuivre avec cette procédure.


  2. Devenez superutilisateur sur un élément actif du cluster autre que le nœud à désinstaller.

  3. À partir du membre actif du cluster, ajoutez le nœud à désinstaller à la liste d'authentification des nœuds du cluster.


    # scconf -a -T node=nodename
    
    -a

    Ajouter

    -T

    Spécifie les options d'authentification

    node=nom_nœud

    Spécifie le nom du nœud à ajouter à la liste d'authentification

    Vous pouvez aussi employer l'utilitaire scsetup(1M). Pour connaître les procédures à suivre, reportez-vous à la section Ajout d'un nœud de cluster à la liste des nœuds autorisés.

  4. Devenez superutilisateur du nœud à désinstaller.

  5. Réinitialisez le nœud en mode non-cluster.

    • SPARC :


      # shutdown -g0 -y -i0ok boot -x
      
    • x86 :


      # shutdown -g0 -y -i0
      ...
                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      
  6. Dans le fichier /etc/vfstab, supprimez toutes les entrées de systèmes de fichiers montés globalement sauf les montages globaux /global/.devices.

  7. Désinstallez le logiciel Sun Cluster du nœud.

    Exécutez la commande à partir d'un répertoire n'étant pas associé à aucun des modules Sun Cluster.


    # cd /
    # scinstall -r
    

    Pour de plus amples informations, reportez-vous à la page de manuel scinstall(1M). Si la commande scinstall renvoie des messages d'erreur, reportez-vous à la section Entrées de système de fichiers de cluster non supprimées.

  8. Déconnectez, le cas échéant, les câbles de transport et de jonction des autres périphériques de cluster.

    1. Si le nœud désinstallé est connecté à un périphérique de stockage utilisant une interface parallèle SCSI, installez un terminateur SCSI sur le connecteur SCSI ouvert du périphérique de stockage après avoir déconnecté les câbles de transport.

      Si le nœud désinstallé est connecté à un périphérique de stockage utilisant des interfaces Fibre Channel, aucune terminaison n'est nécessaire.

    2. Reportez-vous à la documentation envoyée avec votre adaptateur hôte et votre serveur pour les procédures de déconnexion.

ProcedureCorrection des messages d'erreur

Suivez cette procédure pour corriger les messages d'erreur dans les rubriques précédentes.

Étapes
  1. Essayez de rattacher le nœud au cluster.


    # boot
    
  2. Le nœud a-t-il été correctement rattaché au cluster ?

    • Sinon, passez à l'Étape 3.

    • Si c'est le cas, exécutez les étapes suivantes pour supprimer le nœud des groupes de périphériques de disques.

    1. Si le nœud a été correctement rattaché au cluster, supprimez le nœud du (des) groupe(s) de périphériques de disques restant(s).

      Suivez les procédures de la section Suppression d'un nœud de tous les groupes de périphériques de disques.

    2. Après avoir supprimé le nœud de tous les groupes de périphériques de disques, revenez à la section Désinstallation du logiciel Sun Cluster d'un nœud de cluster et répétez la procédure.

  3. Si le nœud n'a pu être rattaché au cluster, renommer le fichier /etc/cluster/ccr du nœud en choisissant le nom que vous désirez, par exemple, ccr.old.


    # mv /etc/cluster/ccr /etc/cluster/ccr.old
    
  4. Revenez à la section Désinstallation du logiciel Sun Cluster d'un nœud de cluster et répétez la procédure.

Dépannage d'une désinstallation de nœud

Cette rubrique décrit les messages d'erreur susceptibles d'apparaître lorsque vous exécutez la commande scinstall -r ainsi que les actions correctives à effectuer.

Entrées de système de fichiers de cluster non supprimées

Le message d'erreur suivant indique que les systèmes de fichiers de cluster sont toujours référencés dans le fichier vfstab du nœud supprimé.


Verifying that no unexpected global mounts remain in /etc/vfstab ... failed
scinstall:  global-mount1 is still configured as a global mount.
scinstall:  global-mount1 is still configured as a global mount.
scinstall:  /global/dg1 is still configured as a global mount.
 
scinstall:  It is not safe to uninstall with these outstanding errors.
scinstall:  Refer to the documentation for complete uninstall instructions.
scinstall:  Uninstall failed.

Pour corriger cette erreur, revenez à la section Désinstallation du logiciel Sun Cluster d'un nœud de cluster et répétez la procédure. Assurez-vous d'avoir correctement exécuté l'Étape 6 de la procédure avant de relancer la commande scinstall - r.

Listage non supprimé dans le groupe de périphériques de disques

Ces messages d'erreur indiquent que le nœud supprimé est toujours listé dans un groupe de périphériques de disques.


Verifying that no device services still reference this node ... failed
scinstall:  This node is still configured to host device service "
service".
scinstall:  This node is still configured to host device service "
service2".
scinstall:  This node is still configured to host device service "
service3".
scinstall:  This node is still configured to host device service "
dg1".
 
scinstall:  It is not safe to uninstall with these outstanding errors.          
scinstall:  Refer to the documentation for complete uninstall instructions.
scinstall:  Uninstall failed.