Guide d'installation du logiciel Sun Cluster pour SE Solaris

Chapitre 3 Établissement du cluster

Ce chapitre décrit des procédures d'établissement d'un cluster ou d'un nœud. Les procédures décrites dans ce chapitre sont les suivantes :

Établissement d'un cluster ou d'un nœud

Cette rubrique explique comment établir un cluster ou ajouter un nœud à un cluster existant. Avant d'effectuer ces tâches, vérifiez que l'installation des packages de logiciels pour le système d'exploitation Solaris, la structure Sun Cluster et d'autres produits est conforme aux instructions de la rubrique Installation du logiciel.


Remarque –

Vous pouvez aussi déployer le plug-in Sun Cluster afin que Sun N1TM Service Provisioning System crée un cluster à plusieurs nœuds ou ajoute un nœud à un cluster existant. Suivez les instructions de la documentation fournie avec le plug-in. Vous pouvez également accéder à ces informations sur .


Le plan ci-dessous répertorie les tâches à effectuer. Effectuez les procédures dans l'ordre indiqué.

Tableau 3–1 Liste des tâches : Établissement du cluster

Méthode 

Instructions 

1. Utilisez l'une des méthodes suivantes pour établir un cluster ou ajouter un nœud à un cluster existant : 

  • (Nouveaux clusters uniquement) Utilisez l'utilitaire scinstall pour établir le cluster.

Procédure de configuration du logiciel Sun Cluster sur tous les noeuds (scinstall)

  • (Nouveaux clusters uniquement) Utilisez un fichier de configuration XML pour établir le cluster.

Procédure de configuration du logiciel Sun Cluster sur tous les noeuds (XML)

  • (Nouveaux clusters ou nœuds ajoutés) Définissez un serveur d'installation JumpStart. Créez ensuite une archive flash du système installé. Enfin, utilisez l'option JumpStart scinstall pour installer l'archive flash sur chaque nœud et créer le cluster.

Installation de Solaris et du logiciel Sun Cluster (JumpStart)

  • (Nœuds ajoutés uniquement) Utilisez la commande clsetup pour ajouter le nouveau nœud à la liste de nœuds autorisés du cluster. Si nécessaire, configurez également l'interconnexion du cluster et reconfigurez la plage d'adresses réseau privé.

    Configurez le logiciel Sun Cluster sur un nouveau nœud à l'aide de l'utilitaire scinstall ou d'un fichier de configuration XML.

Procédure de préparation du cluster pour d'autres nœuds de cluster

Procédure de modification de la configuration de réseau privé lors de l'ajout de nœuds ou de réseaux privés

Procédure de configuration du logiciel Sun Cluster sur d'autres noeuds du cluster (scinstall)

Procédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (XML)

2. Si vous avez ajouté un nœud à un cluster, mettez à jour les informations de configuration de quorum. 

Procédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster

3. Affectez les votes de quorum et supprimez le cluster du mode d'installation (si nécessaire). 

Configuration des périphériques de quorum

4. Validez la configuration de quorum. 

Vérification de la configuration de quorum et du mode d'installation

5. (Facultatif) Modifiez le nom d'hôte privé d'un nœud.

Modification des noms d'hôtes privés

6. Créez ou modifiez le fichier de configuration NTP s'il n'est pas déjà configuré. 

Configuration du protocole NTP (Network Time Protocol)

7. Si vous utilisez un gestionnaire de volume, installez le logiciel de gestion de volume. 

Chapitre 4, Configuration du logiciel Solaris Volume Manager ou Chapitre 5, Installation et configuration de VERITAS Volume Manager

8. Créez des systèmes de fichiers de cluster ou des systèmes de fichiers locaux à haut niveau de disponibilité. 

Création de systèmes de fichiers de cluster ou Enabling Highly Available Local File Systems du Sun Cluster Data Services Planning and Administration Guide for Solaris OS

9. (Facultatif) SPARC : Configurez Sun Management Center pour contrôler le cluster.

SPARC : installation du module Sun Cluster pour Sun Management Center

10. Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données. 

Sun Cluster Data Services Planning and Administration Guide for Solaris OS

Documentation fournie avec le logiciel d'application 

11. Faites un enregistrement de référence de la configuration de cluster. 

How to Record Diagnostic Data of the Cluster Configuration

ProcedureProcédure de configuration du logiciel Sun Cluster sur tous les noeuds (scinstall)

Effectuez cette procédure à partir d'un nœud du cluster pour configurer le logiciel Sun Cluster sur tous les nœuds du cluster.


Remarque –

Cette procédure utilise la forme interactive de la commande scinstall. Pour utiliser les formes non interactives de la commande scinstall, par exemple pour le développement de scripts d'installation, reportez-vous à la page du manuel scinstall(1M).

Vérifiez que les packages Sun Cluster sont installés sur le nœud, soit manuellement soit en utilisant la forme du mode silencieux du programme installer de Java ES avant d'exécuter la commande scinstall. Pour de plus amples informations sur l'exécution du programme installer de Java ES à partir d'un script d'installation, reportez-vous au Chapitre 5, Installing in Silent Mode du Sun Java Enterprise System 5 Installation Guide for UNIX.


Avant de commencer

Effectuez les tâches suivantes :

Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :

  1. Si vous avez désactivé la configuration à distance pendant l'installation de Sun Cluster, réactivez-la.

    Activez l' shell distant (rsh(1M)) ou shell sécurisé (ssh(1)) accès pour le superutilisateur à tous les nœuds de cluster.

  2. Si vous utilisez des commutateurs dans l'interconnexion privée de votre nouveau cluster, assurez-vous que le protocole NDP (Neighbor Discovery Protocol) est désactivé.

    Suivez les procédures décrites dans la documentation afin que vos commutateurs déterminent si NDP est activé et qu'ils le désactivent le cas échéant.

    Pendant la configuration du cluster, le logiciel vérifie qu'il n'y a pas de trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé pendant la vérification du trafic de l'interconnexion privée, le logiciel considère que l'interconnexion n'est pas privée et la configuration du cluster est interrompue. C'est pourquoi le protocole NDP doit être désactivé pendant la création du cluster.

    Une fois le cluster établi, vous pouvez ré-activer le protocole NDP sur les commutateurs d'interconnexion privée, si vous souhaitez utiliser cette fonctionnalité.

  3. Prenez le rôle de superutilisateur sur le nœud de cluster à partir duquel vous souhaitez configurer le cluster.

  4. Lancez l'utilitaire scinstall.


    phys-schost# /usr/cluster/bin/scinstall
    
  5. Saisissez ce numéro d'option pour Créer un cluster ou Ajouter un nœud de cluster, puis appuyez sur la touche Retour.


     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  1
    

    Le menu Nouveau cluster et Nœud de cluster apparaît.

  6. Saisissez le numéro d'option pour Créer un cluster et appuyez sur la touche Retour.

    Le menu Standard ou Personnalisé apparaît.

  7. Saisissez le numéro d'option correspondant à Typique ou à Personnalisé, puis appuyez sur la touche Retour.

    L'écran Créer un cluster apparaît. Lisez les configurations requises, puis appuyez sur Ctrl+D pour continuer.

  8. Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.

    L'utilitaire scinstall installe et configure tous les nœuds du cluster, puis redémarre le cluster. Le cluster est établi une fois que tous ses noeuds ont été correctement réinitialisés. Les informations relatives à l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log.N.

  9. Pour Solaris 10 OS, vérifiez sur chaque nœud que les services multiutilisateur de SMF (Service Management Facility) sont en ligne.

    Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. Prenez le rôle de superutilisateur sur un nœud.

  11. Vérifiez que tous les noeuds ont rejoint la grappe.


    phys-schost# clnode status
    

    Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page clnode(1CL) du manuel.

  12. (Facultatif) Activer la réinitialisation automatique du nœud en cas d'échec de tous les chemins de disque contrôlés.

    1. Activez la fonctionnalité de réinitialisation automatique.


      phys-schost# clnode set -p reboot_on_path_failure=enabled 
      
      -p

      Indique la propriété à définir.

      reboot_on_path_failure=enable

      Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.

    2. Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  13. Si vous envisagez d'utiliser Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, assurez-vous que le système de fichiers loopback (LOFS) est désactivé.

    Pour désactiver le LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.


    exclude:lofs

    La modification apportée au fichier /etc/system est effective après une réinitialisation du système.


    Remarque –

    Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : Si vous choisissez d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, vous devez apporter l'une des modifications de configuration suivantes.

    Toutefois, si vous configurez des zones non globales dans votre cluster, vous devez activer le LOFS sur tous les nœuds du cluster. Si Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité doit coexister avec le LOFS, utilisez une autre solution que la désactivation du LOFS.

    • Désactivez le LOFS.

    • Désactivez le démon automountd.

    • Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.


    Reportez-vous à Système de fichier Loopback dans le manuel Guide d'administration système : Périphériques et systèmes de fichiers (Solaris 9 ou Solaris 10) pour plus d'informations sur les systèmes de fichiers loopback.


Exemple 3–1 Configuration du logiciel Sun Cluster sur tous les nœuds

L'exemple suivant montre les messages d'état de scinstall enregistrés alors que scinstall termine les tâches de configuration sur le cluster à deux nœuds, schost. Pour installer le cluster depuis phys-schost-1, l'utilitaire scinstall est exécuté en mode typique. L'autre nœud de cluster est phys-schost-2. Les adaptateurs s'appellent qfe2 et qfe3. Par ailleurs, la sélection automatique d'un périphérique de quorum est activée.


  Installation and Configuration

    Log file - /var/cluster/logs/install/scinstall.log.24747

    Testing for "/globaldevices" on "phys-schost-1" … done
    Testing for "/globaldevices" on "phys-schost-2" … done
    Checking installation status … done

    The Sun Cluster software is already installed on "phys-schost-1".
    The Sun Cluster software is already installed on "phys-schost-2".
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:qfe2  switch1  phys-schost-2:qfe2
        phys-schost-1:qfe3  switch2  phys-schost-2:qfe3

    Completed discovery of the cluster transport configuration.

    Started sccheck on "phys-schost-1".
    Started sccheck on "phys-schost-2".

    sccheck completed with no errors or warnings for "phys-schost-1".
    sccheck completed with no errors or warnings for "phys-schost-2".

    Removing the downloaded files … done

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

Rebooting …

Erreurs fréquentes

Configuration non réussie : si un ou plusieurs nœuds ne parviennent pas à fusionner avec le cluster ou si des informations de configuration incorrectes ont été indiquées, essayez tout d'abord d'exécuter de nouveau cette procédure. Si cela ne permet pas de corriger le problème, effectuez la procédure de la section Annulation de la configuration du logiciel Sun Cluster pour corriger les problèmes d'installation sur chaque nœud incorrectement configuré pour le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages Sun Cluster. Ensuite, exécutez de nouveau cette procédure.

Étapes suivantes

ProcedureProcédure de configuration du logiciel Sun Cluster sur tous les noeuds (XML)

Suivez cette procédure pour configurer un nouveau cluster à l'aide d'un fichier XML de configuration du cluster. Le nouveau cluster peut être une duplication d'un cluster existant exécutant le logiciel Sun Cluster 3.2 2/08.

Cette procédure configure les composants de cluster suivants :

Avant de commencer

Effectuez les tâches suivantes :

  1. Veillez à ce que le logiciel Sun Cluster 3.2 2/08 ne soit pas déjà configuré sur chaque éventuel nœud de cluster.

    1. Prenez le rôle de superutilisateur sur un éventuel nœud à configurer dans le nouveau cluster.

    2. Déterminez si le logiciel Sun Cluster est déjà configuré sur l'éventuel nœud.


      phys-schost# /usr/sbin/clinfo -n
      
      • Si la commande renvoie le message suivant, passez à l'étape c.


        clinfo: node is not configured as part of acluster: Operation not applicable

        Ce message indique que le logiciel Sun Cluster n'est pas encore configuré sur l'éventuel nœud.

      • Si la commande renvoie le numéro ID du nœud, ne suivez pas cette procédure.

        Le renvoi d'un ID de nœud indique que le logiciel Sun Cluster est déjà configuré sur le nœud.

        Si le cluster exécute une version antérieure du logiciel Sun Cluster et que vous souhaitez installer le logiciel Sun Cluster 3.2 2/08, suivez alors les procédures de mise à niveau décrites dans le manuel Sun Cluster Upgrade Guide for Solaris OS.

    3. Répétez les étapes a et b sur chaque éventuel autre nœud à configurer dans le nouveau cluster.

      Si le logiciel Sun Cluster n'est encore configuré sur aucun nœud éventuel de cluster, passez à l'étape 2.

  2. Si vous utilisez des commutateurs dans l'interconnexion privée de votre nouveau cluster, assurez-vous que le protocole NDP (Neighbor Discovery Protocol) est désactivé.

    Suivez les procédures décrites dans la documentation afin que vos commutateurs déterminent si NDP est activé et qu'ils le désactivent le cas échéant.

    Pendant la configuration du cluster, le logiciel vérifie qu'il n'y a pas de trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé pendant la vérification du trafic de l'interconnexion privée, le logiciel considère que l'interconnexion n'est pas privée et la configuration du cluster est interrompue. C'est pourquoi le protocole NDP doit être désactivé pendant la création du cluster.

    Une fois le cluster établi, vous pouvez ré-activer le protocole NDP sur les commutateurs d'interconnexion privée, si vous souhaitez utiliser cette fonctionnalité.

  3. Si vous dupliquez un cluster existant qui exécute le logiciel Sun Cluster 3.2 2/08, utilisez un nœud de ce cluster pour créer un fichier XML de configuration du cluster.

    1. Prenez le rôle de superutilisateur sur un membre actif du cluster à dupliquer.

    2. Exportez les informations de configuration du cluster existant dans un fichier.


      phys-schost# cluster export -o clconfigfile
      
      -o

      Indique la destination de sortie.

      clconfigfile

      Le nom du fichier XML de configuration du cluster. Le nom de fichier spécifié peut être un fichier existant ou un nouveau créé par la commande.

      Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).

    3. Copiez le fichier de configuration dans l'éventuel nœud à partir duquel vous configurerez le nouveau cluster.

      Vous pouvez stocker le fichier dans un quelconque répertoire accessible aux autres hôtes que vous configurerez comme des nœuds de cluster.

  4. Prenez le rôle de superutilisateur sur l'éventuel nœud à partir duquel vous configurerez le nouveau cluster.

  5. Si nécessaire, modifiez le fichier XML de configuration du cluster.

    1. Ouvrez le fichier XML de configuration du cluster pour l'éditer.

      • Si vous dupliquez un cluster existant, ouvrez le fichier créé à l'aide de la commande cluster export.

      • Si vous ne dupliquez pas un cluster existant, créez un nouveau fichier.

        Basez le fichier sur la hiérarchie d'éléments illustrée à la page de manuel clconfiguration(5CL). Vous pouvez stocker le fichier dans un quelconque répertoire accessible aux autres hôtes que vous configurerez comme des nœuds de cluster.

    2. Modifiez les valeurs des éléments XML pour reproduire la configuration du cluster à créer.

      • Pour établir un cluster, les composants suivants doivent comporter des valeurs valides dans le fichier XML de configuration du cluster :

        • Nom du cluster

        • Nœuds de cluster

        • Transport des clusters

      • Le cluster est créé en supposant que la partition /globaldevices existe sur chaque nœud configuré en tant que nœud de cluster. L'espace de noms de périphériques globaux est créé sur cette partition. Pour utiliser un autre nom de système de fichiers sur lequel créer les périphériques globaux, ajoutez la propriété suivante à l'élément <propertyList> de chaque nœud ne comportant pas de partition nommée /globaldevices.


        …
          <nodeList>
            <node name="node" id="N">
              <propertyList>
        …
                <property name="globaldevfs" value="/filesystem-name"/>
        …
              </propertyList>
            </node>
        …
      • Si vous modifiez des informations de configuration exportées d'un cluster existant, certaines valeurs à modifier pour reproduire le nouveau cluster, comme des noms de nœuds, sont utilisées dans les définitions de plusieurs objets de cluster.

      Reportez-vous à la page de manuel clconfiguration(5CL) pour plus d'informations sur la structure et le contenu du fichier XML de configuration du cluster.

  6. Validez le fichier XML de configuration du cluster.


    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile
    

    Reportez-vous à la page de manuel xmllint(1) pour plus d'informations.

  7. Créez le cluster à partir de l'éventuel nœud contenant le fichier XML de configuration du cluster.


    phys-schost# cluster create -i clconfigfile
    
    -i clconfigfile

    Indique le nom du fichier XML de configuration du cluster à utiliser comme source d'entrée.

  8. Pour Solaris 10 OS, vérifiez sur chaque nœud que les services multiutilisateur de SMF (Service Management Facility) sont en ligne.

    Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. Prenez le rôle de superutilisateur sur un nœud.

  10. Vérifiez que tous les noeuds ont rejoint la grappe.


    phys-schost# clnode status
    

    Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page clnode(1CL) du manuel.

  11. Si nécessaire, installez les patchs requis pour prendre en charge le logiciel Sun Cluster.

    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la rubrique Patches and Required Firmware Levels du manuel Sun Cluster 3.2 2/08 Release Notes for Solaris OS.

  12. Si vous envisagez d'utiliser Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, assurez-vous que le système de fichiers loopback (LOFS) est désactivé.

    Pour désactiver le LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.


    exclude:lofs

    La modification apportée au fichier /etc/system est effective après une réinitialisation du système.


    Remarque –

    Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : Si vous choisissez d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, vous devez apporter l'une des modifications de configuration suivantes.

    Toutefois, si vous configurez des zones non globales dans votre cluster, vous devez activer le LOFS sur tous les nœuds du cluster. Si Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité doit coexister avec le LOFS, utilisez une autre solution que la désactivation du LOFS.

    • Désactivez le LOFS.

    • Désactivez le démon automountd.

    • Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.


    Reportez-vous à Système de fichier Loopback dans le manuel Guide d'administration système : Périphériques et systèmes de fichiers (Solaris 9 ou Solaris 10) pour plus d'informations sur les systèmes de fichiers loopback.

  13. Pour dupliquer des informations de quorum d'un cluster existant, configurez le périphérique de quorum à l'aide du fichier XML de configuration du cluster.

    Vous devez configurer un périphérique de quorum si vous avez créé un cluster à deux nœuds. Si vous avez choisi de ne pas utiliser le fichier XML de configuration du cluster pour créer un périphérique de quorum requis, reportez-vous alors à la rubrique Configuration des périphériques de quorum.

    1. Si vous utilisez un serveur de quorum comme périphérique de quorum, vérifiez que le serveur de quorum est configuré et en cours d'exécution.

      Suivez les instructions de Comment installer et configurer le logiciel de serveur de quorum.

    2. Si vous utilisez un périphérique réseau NAS comme périphérique de quorum, vérifiez que le périphérique NAS est configuré et en cours d'exécution.

      1. Lisez les exigences d'utilisation d'un périphérique NAS comme périphérique de quorum.

        Reportez-vous à Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS.

      2. Suivez les instructions de la documentation de votre périphérique pour configurer le périphérique NAS.

    3. Vérifiez que les informations de configuration du quorum dans le fichier XML de configuration du cluster donnent des valeurs valides pour le cluster créé.

    4. Si vous apportez des modifications au fichier XML de configuration du cluster, validez le fichier.


      phys-schost# xmllint --valid --noout clconfigfile
      
    5. Configurez le périphérique de quorum.


      phys-schost# clquorum add -i clconfigfile devicename
      
      devicename

      Indique le nom du périphérique à définir comme étant de quorum.

  14. Retirez le cluster du mode d'installation.


    phys-schost# clquorum reset
    
  15. Interdisez l'accès à la configuration des clusters par les ordinateurs qui ne sont pas des membres configurés du cluster.


    phys-schost# claccess deny-all
    
  16. (Facultatif) Activez la réinitialisation de nœud automatique en cas d'échec de tous les chemins de disques contrôlés.

    1. Activez la fonctionnalité de réinitialisation automatique.


      phys-schost# clnode set -p reboot_on_path_failure=enabled 
      
      -p

      Indique la propriété à définir.

      reboot_on_path_failure=enable

      Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.

    2. Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Exemple 3–2 Configuration du logiciel Sun Cluster sur tous les nœuds à l'aide d'un fichier XML

L'exemple suivant duplique la configuration de cluster et la configuration de quorum d'un cluster à deux nœuds existant vers un nouveau cluster à deux nœuds. Le nouveau cluster est installé avec Solaris 10 et n'est pas configuré avec des zones non globales. La configuration du cluster est exportée du nœud de cluster existant, phys-oldhost-1, vers le fichier XML de configuration du cluster clusterconf.xml. Les noms de nœuds du nouveau cluster sont phys-newhost-1 et phys-newhost-2. Le périphérique configuré en tant que périphérique de quorum dans le nouveau cluster est d3.

Le nom d'invite phys-newhost-N dans cet exemple indique que la commande est exécutée sur les deux nœuds de cluster.


phys-newhost-N# /usr/sbin/clinfo -n
clinfo : nœud non configuré comme faisant partie d'un cluster : Opération non applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copiez clusterconf.xml vers phys-newhost-1 et modifiez le fichier avec des valeurs valides
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
Aucune erreur trouvée
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server phys-newhost-N
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
La sortie a montré que les deux nœuds sont en ligne
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset

Erreurs fréquentes

Configuration non réussie : si un ou plusieurs nœuds ne parviennent pas à fusionner avec le cluster ou si des informations de configuration incorrectes ont été indiquées, essayez tout d'abord d'exécuter de nouveau cette procédure. Si cela ne permet pas de corriger le problème, effectuez la procédure de la section Annulation de la configuration du logiciel Sun Cluster pour corriger les problèmes d'installation sur chaque nœud incorrectement configuré pour le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages Sun Cluster. Ensuite, exécutez de nouveau cette procédure.

Étapes suivantes

Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.

Voir aussi

Une fois le cluster totalement établi, vous pouvez dupliquer la configuration des autres composants de cluster à partir du cluster existant. Si vous ne l'avez pas déjà fait, modifiez les valeurs des éléments XML à dupliquer pour reproduire la configuration du cluster auquel vous ajoutez le composant. Par exemple, si vous dupliquez des groupes de ressources, vérifiez que l'entrée <Liste de nœuds de groupe de ressources> contient les noms de nœuds valides pour le nouveau cluster et non les noms de nœuds du cluster que vous avez dupliqué sauf si les noms de nœuds sont identiques.

Pour dupliquer un composant de cluster, exécutez la sous-commande export de la commande orientée objet du composant de cluster à dupliquer. Pour plus d'informations sur la syntaxe de la commande et les options, reportez-vous à la page de manuel de l'objet de cluster à dupliquer. Le tableau ci-dessous répertorie les composants de cluster que vous pouvez créer à partir d'un fichier XML de configuration du cluster une fois le cluster établi ainsi que la page de manuel de la commande à utiliser pour dupliquer le composant.


Remarque –

Ce tableau indique les formes développées des commandes Sun Cluster. La plupart des commandes ont également une forme courte. À l'exception des formes des noms de commandes, les commandes sont identiques. Pour obtenir la liste des commandes et leurs formes courtes, reportez-vous à l'Annexe A, Sun Cluster Object-Oriented Commands du Sun Cluster System Administration Guide for Solaris OS.


Composant de cluster 

Page de manuel 

Instructions spéciales 

Groupes de périphériques : Solaris Volume Manager et VERITAS Volume Manager 

cldevicegroup(1CL)

Pour Solaris Volume Manager, créez tout d'abord les jeux de disques spécifiés dans le fichier XML de configuration du cluster. 

Pour VxVM, installez et configurez tout d'abord le logiciel VxVM et créez les groupes de disques spécifiés dans le fichier XML de configuration du cluster. 

Ressources 

clresource(1CL)

Vous pouvez utiliser l'option -a de la commande clresource, clressharedaddress ou clreslogicalhostname pour dupliquer le type et le groupe de ressources associés à la ressource que vous dupliquez.

Sinon, ajoutez tout d'abord le type et le groupe de ressources au cluster avant d'ajouter la ressource. 

Ressources d'adresse partagée 

clressharedaddress(1CL)

Ressources de nom d'hôte logique 

clreslogicalhostname(1CL)

Types de ressources 

clresourcetype(1CL)

Groupes de ressources 

clresourcegroup(1CL)

Périphériques NAS 

clnasdevice(1CL)

Vous devez tout d'abord configurer le périphérique NAS tel que décrit dans la documentation du périphérique. 

Hôtes SNMP 

clsnmphost(1CL)

La commande clsnmphost create -i nécessite que vous spécifiez un fichier de mot de passe utilisateur avec l'option -f.

Utilisateurs SNMP 

clsnmpuser(1CL)

 

Seuils de contrôle des ressources système sur des objets de cluster 

cltelemetryattribute(1CL)

 

ProcedureInstallation de Solaris et du logiciel Sun Cluster (JumpStart)

Cette procédure explique comment configurer et utiliser la méthode d'installation JumpStart personnalisée scinstall(1M). Cette méthode permet d'installer le système d'exploitation Solaris et le logiciel Sun Cluster sur tous les nœuds de cluster et d'établir le cluster. Vous pouvez aussi utiliser cette procédure pour ajouter de nouveaux noeuds à un cluster existant.

Avant de commencer

Effectuez les tâches suivantes :

Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :

  1. Configurez votre serveur d'installation JumpStart.

    Assurez-vous que le serveur d'installation JumpStart réponde aux exigences suivantes :

    • Le serveur d'installation est sur le sous-réseau des nœuds de cluster ou sur le serveur d'initialisation Solaris du sous-réseau utilisé par les nœuds de cluster.

    • Le serveur d'installation n'est pas lui-même un nœud de cluster.

    • Le serveur d'installation installe une version du système d'exploitation Solaris prise en charge par le logiciel Sun Cluster.

    • Un répertoire JumpStart personnalisé est prévu pour l'installation JumpStart du logiciel Sun Cluster. Ce répertoire jumpstart-dir doit répondre aux exigences suivantes :

      • Contenir une copie de l'utilitaire check.

      • Avoir été exporté de NFS pour être lu par le serveur d'installation JumpStart.

    • Chaque nouveau nœud de cluster est configuré comme un client d'installation JumpStart personnalisée utilisant le répertoire d'installation JumpStart personnalisée configuré pour l'installation de Sun Cluster.

    Suivez les instructions correspondant à votre plate-forme et version de système d'exploitation pour configurer le serveur d'installation JumpStart. Reportez-vous à Creating a Profile Server for Networked Systems du Solaris 9 9/04 Installation Guide ou à Creating a Profile Server for Networked Systems du Solaris 10 8/07 Installation Guide: Custom JumpStart and Advanced Installations.

    Reportez-vous également aux pages de manuel setup_install_server(1M) et add_install_client(1M).

  2. Si vous installez un nouveau nœud sur un cluster existant, ajoutez ce nœud à la liste des nœuds de cluster autorisés.

    1. Passez à un autre nœud de cluster actif et lancez l'utilitaire clsetup.

    2. Utilisez clsetup pour ajouter le nom du nouveau nœud à la liste des nœuds de cluster autorisés.

    Pour obtenir plus d'informations, reportez-vous à la rubrique How to Add a Node to the Authorized Node List du Sun Cluster System Administration Guide for Solaris OS.

  3. Sur un nœud de cluster ou une autre machine de la même plate-forme de serveur, installez le système d'exploitation Solaris et les patchs nécessaires (si requis).

    Si le logiciel Solaris est déjà installé sur le serveur, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.

    Suivez les procédures de la rubrique Installation du logiciel Solaris.

  4. Sur le système installé, installez le logiciel Sun Cluster et les patchs nécessaires si vous ne l'avez pas déjà fait.

    Suivez les procédures de la rubrique Comment installer les packages de logiciels de structure et de services de données Sun Cluster.

    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la rubrique Patches and Required Firmware Levels du manuel Sun Cluster 3.2 2/08 Release Notes for Solaris OS.

  5. Activez le démon conteneur d'agents communs pour qu'il démarre automatiquement à l'initialisation du système.


    machine# cacaoadm enable
    
  6. Sur le système installé, mettez à jour le fichier /etc/inet/ipnodes avec toutes les adresses IP publiques utilisées dans le cluster.

    Exécutez cette étape, que vous utilisiez ou non un service d'attribution de noms. Reportez-vous à la rubrique Adresses IP réseau public pour obtenir la liste des composants de Sun Cluster dont vous devez ajouter les adresses IP.

  7. Créez l'archive flash du système installé.


    machine# flarcreate -n name archive
    
    -n name

    Nom à donner à l'archive flash.

    archive

    Nom à donner à l'archive flash, avec le chemin complet. Par convention, le nom du fichier se termine par .flar.

    Suivez les procédures du manuel approprié :

  8. Vérifiez que l'archive Flash est exportée par NFS pour être lue par le serveur d'installation JumpStart.

    Reportez-vous à Gestion des systèmes de fichiers réseau (Présentation), dans le Guide d'administration système : Services réseau (Solaris 9 ou Solaris 10) pour plus d'informations sur le partage automatique de fichiers.

    Reportez-vous également aux pages de manuel share(1M) et dfstab(4).

  9. Connectez-vous en tant que superutilisateur à votre serveur d'installation JumpStart.

  10. Lancez l'utilitaire scinstall(1M) à partir du serveur d'installation JumpStart.

    Le chemin /export/suncluster/sc31/ est utilisé ici comme exemple de répertoire d'installation JumpStart créé. Dans le chemin, remplacez arch par sparc ou x86 (Solaris 10 uniquement) et remplacez ver par 9 pour Solaris 9 ou 10 pour Solaris 10.


    installserver# cd /export/suncluster/sc31/Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    installserver# ./scinstall
    

    Le menu principal scinstall s'affiche.

  11. Saisissez le numéro d'option pour Configurer un cluster avec un JumpStart à partir de ce serveur d'installation, puis appuyez sur la touche Retour.

    Cette option permet de configurer les scripts de fin JumpStart. JumpStart utilise ces scripts de fin pour installer le logiciel Sun Cluster.


     *** Main Menu ***
     
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node 
    
          * ?) Help with menu options
          * q) Quit
     
        Option:  2
    
  12. Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.

    La commande scinstall stocke vos informations de configuration et copie le fichier de la class par défaut autoscinstall.class dans le répertoire /jumpstart-dir/autoscinstall.d/3.2/. Ce fichier est similaire à celui de l'exemple ci-dessous.


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add
  13. Si nécessaire, apportez les ajustements nécessaires au fichier autoscinstall.class afin de configurer JumpStart pour qu'il installe l'archive flash.

    1. Modifiez les entrées pour qu'elles correspondent aux choix de configuration effectués lors de l'installation du système d'exploitation Solaris sur la machine de l'archive Flash ou lors de l'exécution de l'utilitaire scinstall.

      Si vous affectez par exemple la tranche 4 au système de fichiers de périphériques globaux et indiquez à scinstall que le nom du système de fichiers est /gdevs, vous modifiez l'entrée /globaldevices du fichier autoscinstall.class de la manière suivante :


      filesys         rootdisk.s4 512  /gdevs
    2. Modifiez les entrées du fichier autoscinstall.class.

      Entrée à remplacer 

      Entrée à ajouter 

      install_type

      initial_install

      install_type

      flash_install

      system_type

      standalone

      archive_location

      retrieval_type location

      Reportez-vous au mot-clé archive_location dans Solaris 9 9/04 Installation Guide ou Solaris 10 Installation Guide: Custom JumpStart and Advanced Installations pour obtenir des informations sur les valeurs valides de retrieval_type et de location en cas d'utilisation avec le mot-clé archive_location.

    3. Supprimez les entrées destinées à l'installation d'un package spécifique. Par exemple :


      cluster         SUNWCuser        add
      package         SUNWman          add
    4. Si votre installation requiert une configuration du logiciel Solaris supplémentaire, modifiez le fichier autoscinstall.class en fonction.

      Le fichier autoscinstall.class installe le groupe de logiciels Solaris utilisateur final (SUNWCuser).

    5. Si vous installez le End User Solaris Software Group (SUNWCuser ), ajoutez au fichier autoscinstall.class tous les packages de logiciels Solaris éventuellement nécessaires.

      Vous trouverez dans le tableau suivant la liste des packages Solaris nécessaires à la prise en charge de certaines fonctions Sun Cluster. Ces packages ne font pas partie du End User Solaris Software Group. Reportez-vous à la rubrique À propos des groupes de logiciels Solaris pour obtenir plus d'informations.

      Fonction 

      Packages Solaris requis 

      RSMAPI, Pilotes RSMRDT ou adaptateurs SCI-PCI (clusters sous SPARC uniquement) 

      SPARC : Solaris 9 : SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox

      Solaris 10 : SUNWrsm SUNWrsmo

      Sun Cluster Manager (anciennement SunPlexTM Manager)

      SUNWapchr SUNWapchu

    Vous pouvez modifier le fichier class de l'une des façons suivantes :

    • Éditez directement le fichier autoscinstall.class. Ces modifications s'appliquent à tous les noeuds de tous les clusters qui utilisent ce répertoire JumpStart personnalisé.

    • Mettez à jour le fichier rules pour qu'il indique le chemin d'autres profils, puis exécutez l'utilitaire check pour valider le fichier rules.

    Tant que les exigences d'allocation minimales de système de fichiers Sun Cluster sont respectées, Sun Cluster n'impose aucune restriction concernant les modifications apportées au profil d'installation du système d'exploitation Solaris. Reportez-vous à la rubrique Partitions du disque système pour connaître les procédures de partitionnement et les exigences de prise en charge du logiciel Sun Cluster.

    Pour plus d'informations sur les profils JumpStart, reportez-vous au Chapitre 26, Preparing Custom JumpStart Installations (Tasks) du Solaris 9 9/04 Installation Guide ou à Chapitre 3, Preparing Custom JumpStart Installations (Tasks) du Solaris 10 8/07 Installation Guide: Custom JumpStart and Advanced Installations.

  14. Pour installer les packages nécessaires pour l'une des fonctionnalités suivantes ou pour exécuter d'autres tâches post-installation, configurez votre propre script finish.

    • Interface de programmation d'application de mémoire partagée distante (RSMAPI)

    • Adaptateurs SCI-PCI pour l'interconnexion

    • Pilotes RSMRDT


    Remarque –

    L'utilisation du pilote RSMRDT est limitée aux clusters exécutant une configuration SCI Oracle9i version 2 avec RSM activé. Reportez-vous à la documentation utilisateur d'Oracle9i version 2 pour connaître les instructions d'installation et de configuration.


    Votre script de fin personnel s'exécute après le script de fin standard installé par la commande scinstall. Reportez-vous à la rubrique de préparation d'installations JumpStart personnalisées au Chapitre 26, Preparing Custom JumpStart Installations (Tasks) du Solaris 9 9/04 Installation Guide ou au Chapitre 3, Preparing Custom JumpStart Installations (Tasks) du Solaris 10 8/07 Installation Guide: Custom JumpStart and Advanced Installations pour obtenir des informations sur la création d'un script JumpStart finish.

    1. Vérifiez que tous les packages de dépendances Solaris sont installés par le fichier class par défaut.

      Reportez-vous à l'Étape 13.

    2. Nommez votre script de fin finish.

    3. Modifiez le script finish pour installer les packages de logiciels répertoriésci-dessous (prise en charge des fonctions à utiliser).

      Fonction 

      Packages Sun Cluster 3.2 2/08 supplémentaires à installer 

      RSMAPI 

      SUNWscrif

      Adaptateurs SCI-PCI 

      • Solaris 9: SUNWsci SUNWscid SUNWscidx

      • Solaris 10 : SUNWscir SUNWsci SUNWscidr SUNWscid

      Pilotes RSMRDT 

      SUNWscrdt

      • Installez les packages dans l'ordre indiqué dans le tableau.

      • Installez les packages à partir du répertoire Répertoire Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/, où arch est sparc ou x86 (Solaris 10 uniquement) et où ver est égal à 9 pour Solaris 9 ou 10 pour Solaris 10 .

    4. Effectuez toute modification nécessaire pour les autres tâches ultérieures à l'installation que vous souhaitez que le script finish effectue.

    5. Copiez votre script finish dans chaque répertoire jumpstart-dir/autoscinstall.d/nodes/node.

      Créez un répertoire node pour chaque nœud du cluster. Sinon, utilisez cette convention de dénomination pour créer des liens symboliques vers un script finish partagé.

  15. Quittez le serveur d'installation JumpStart.

  16. Si vous utilisez des commutateurs dans l'interconnexion privée de votre nouveau cluster, assurez-vous que le protocole NDP (Neighbor Discovery Protocol) est désactivé.

    Suivez les procédures décrites dans la documentation afin que vos commutateurs déterminent si NDP est activé et qu'ils le désactivent le cas échéant.

    Pendant la configuration du cluster, le logiciel vérifie qu'il n'y a pas de trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé pendant la vérification du trafic de l'interconnexion privée, le logiciel considère que l'interconnexion n'est pas privée et la configuration du cluster est interrompue. C'est pourquoi le protocole NDP doit être désactivé pendant la création du cluster.

    Une fois le cluster établi, vous pouvez ré-activer le protocole NDP sur les commutateurs d'interconnexion privée, si vous souhaitez utiliser cette fonctionnalité.

  17. Si vous utilisez une console d'administration pour le cluster, affichez un écran de console pour chaque noeud du cluster.

    • Si le logiciel Cluster Control Panel (CCP) est installé et configuré sur votre console d'administration, l'utilitaire cconsole(1M) vous permet d'afficher les écrans individuels de la console.

      En tant que superutilisateur, utilisez les commandes suivantes pour lancer l'utilitaire cconsole :


      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
      

      L'utilitaire cconsole ouvre également une fenêtre principale qui vous permet d'envoyer votre saisie à tous les écrans de console individuels en même temps.

    • Si vous n'utilisez pas l'utilitaire cconsole, connectez-vous aux consoles de chaque noeud individuellement.

  18. Arrêtez tous les noeuds.


    phys-schost# shutdown -g0 -y -i0
    
  19. Initialisez chaque nœud pour lancer l'installation JumpStart.

    • Sur les systèmes SPARC, procédez comme suit :


      ok boot net - install
      

      Remarque –

      entourez le tiret (-) de la commande d'un espace de chaque côté.


    • Sur les systèmes x86, procédez comme suit :

      1. Appuyez sur une touche pour lancer la séquence d'initialisation.


        Press any key to reboot.
        keystroke
        
      2. Dès que l'écran d'informations BIOS apparaît, appuyez immédiatement sur Echap+2 ou appuyez sur la touche F2.

        Une fois la séquence d'initialisation terminée, l'écran de l'utilitaire de configuration du BIOS apparaît.

      3. Dans la barre de menus de l'utilitaire de configuration du BIOS, accédez à l'élément de menu Boot.

        La liste des périphériques d'initialisation s'affiche.

      4. Accédez à l'IBA répertorié et connecté au même réseau que le serveur d'installation JumpStart PXE et amenez-le en première position dans l'ordre d'initialisation.

        Le chiffre le plus bas à droite des choix d'initialisation de l'IBA correspond au numéro de port Ethernet le plus bas. Le chiffre le plus élevé à droite des choix d'initialisation de l'IBA correspond au numéro de port Ethernet le plus élevé.

      5. Enregistrez votre modification et fermez le BIOS.

        La séquence d'initialisation recommence. Après un autre traitement, le menu GRUB apparaît.

      6. Sélectionnez immédiatement l'entrée Solaris JumpStart et appuyez sur Entrée.


        Remarque –

        Si l'entrée Solaris JumpStart est la seule répertoriée, vous pouvez également attendre l'expiration de l'écran de sélection. Si vous ne répondez pas dans les 30 secondes, le système poursuit automatiquement la séquence d'initialisation.



        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris_10 Jumpstart                                                    |
        |                                                                         |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Après un autre traitement, le menu du type d'installation apparaît.

      7. Dans le menu du type d'installation, saisissez immédiatement le numéro de menu de JumpStart personnalisé.


        Remarque –

        Si vous ne saisissez pas le numéro de JumpStart personnalisé avant 30 secondes, le système lance automatiquement l'installation interactive de Solaris.



              Select the type of installation you want to perform:
        
                 1 Solaris Interactive
                 2 Custom JumpStart
                 3 Solaris Interactive Text (Desktop session)
                 4 Solaris Interactive Text (Console session)
                 5 Apply driver updates
                 6 Single user shell
        
                 Enter the number of your choice.
        2
        

        JumpStart installe le système d'exploitation Solaris et le logiciel Sun Cluster sur tous les nœuds. Une fois l'installation terminée avec succès, chaque nœud est entièrement installé en tant que nouveau nœud de cluster. Les informations relatives à l'installation de Sun Cluster sont consignées dans le fichier /var/cluster/logs/install/scinstall.log. N.

      8. Lorsque l'écran du BIOS réapparaît, appuyez immédiatement sur Echap+2 ou sur la touche F2.


        Remarque –

        Si vous n'interrompez pas le BIOS à ce stade, il revient automatiquement au menu du type d'installation. Ici, si vous ne saisissez aucun choix pendant 30 secondes, le système lance automatiquement une installation interactive.


        Après un autre traitement, l'utilitaire de configuration du BIOS apparaît.

      9. Dans la barre de menus, accédez au menu Boot.

        La liste des périphériques d'initialisation s'affiche.

      10. Accédez à l'entrée Hard Drive et amenez-la en première position dans l'ordre d'initialisation.

      11. Enregistrez votre modification et fermez le BIOS.

        La séquence d'initialisation recommence. Aucune autre interaction avec le menu GRUB n'est nécessaire pour terminer l'initialisation en mode cluster.

  20. Pour Solaris 10 OS, vérifiez sur chaque nœud que les services multiutilisateur de SMF (Service Management Facility) sont en ligne.

    Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  21. Si vous installez un nouveau nœud sur un cluster existant, créez des points de montage sur le nouveau nœud pour tous les systèmes de fichiers de cluster existants.

    1. À partir d'un autre nœud actif du cluster, affichez les noms de tous les systèmes de fichiers de cluster.


      phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. Sur le noeud que vous ajoutez au cluster, créez un point de montage pour chaque système de fichiers du cluster.


      phys-schost-new# mkdir -p mountpoint
      

      Par exemple, si la commande mount renvoie le nom du système de fichiers /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le nœud ajouté au cluster.


      Remarque –

      Les points de montage deviennent actifs lorsque vous réinitialisez le cluster à l'Étape 25.


    3. Si VERITAS Volume Manager (VxVM) est installé sur des nœuds qui se trouvent déjà dans le cluster, affichez le numéro vxio sur chaque nœud installé avec VxVM.


      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
      
      • Assurez-vous que le même numéro vxio est utilisé pour chacun des nœuds installés avec VxVM.

      • Assurez-vous également que ce numéro est disponible pour chacun des nœuds installés sans VxVM.

      • Si le numéro vxio est déjà utilisé sur un noeud sur lequel VxVM n'est pas installé, enlevez-le de ce noeud. Modifiez l'entrée /etc/name_to_major pour utiliser un numéro différent.

  22. (Facultatif) Pour utiliser une reconfiguration dynamique sur des serveurs Sun Enterprise 10000, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.


    set kernel_cage_enable=1

    Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système. Reportez-vous au Sun Cluster System Administration Guide for Solaris OS pour connaître les procédures de reconfiguration dynamique dans une configuration Sun Cluster. Reportez-vous à la documentation de votre serveur pour de plus amples informations sur la reconfiguration dynamique.

  23. Si vous envisagez d'utiliser Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, assurez-vous que le système de fichiers loopback (LOFS) est désactivé.

    Pour désactiver le LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.


    exclude:lofs

    La modification apportée au fichier /etc/system est effective après une réinitialisation du système.


    Remarque –

    Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : Si vous choisissez d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, vous devez apporter l'une des modifications de configuration suivantes.

    Toutefois, si vous configurez des zones non globales dans votre cluster, vous devez activer le LOFS sur tous les nœuds du cluster. Si Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité doit coexister avec le LOFS, utilisez une autre solution que la désactivation du LOFS.

    • Désactivez le LOFS.

    • Désactivez le démon automountd.

    • Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.


    Reportez-vous à Système de fichier Loopback dans le manuel Guide d'administration système : Périphériques et systèmes de fichiers (Solaris 9 ou Solaris 10) pour plus d'informations sur les systèmes de fichiers loopback.

  24. x86 : Définissez le fichier d'initialisation par défaut.

    La définition de cette valeur vous permet de réinitialiser le nœud si vous n'avez accès à aucune invite de connexion.

    • Sur le système d'exploitation Solaris 9, définissez la valeur par défaut kadb.


      phys-schost# eeprom boot-file=kadb
      
    • Dans le SE Solaris 10, définissez la valeur par défaut sur kmdb dans le menu des paramètres d'initialisation GRUB.


      grub edit> kernel /platform/i86pc/multiboot kmdb
      
  25. Si une tâche effectuée demande une réinitialisation de cluster, suivez ces procédures.

    Les tâches suivantes demandent une réinitialisation :

    • Ajout d'un nouveau nœud à un cluster existant

    • Installation de patchs exigeant la réinitialisation d'un nœud ou d'un cluster

    • Modifications apportées à la configuration et qui demandent une réinitialisation pour prendre effet

    1. Prenez le rôle de superutilisateur sur un nœud.

    2. Arrêtez le cluster.


      phys-schost-1# cluster shutdown -y -g0 clustername
      

      Remarque –

      ne réinitialisez pas le premier nœud installé tant que le cluster n'a pas été arrêté. tant que le mode d'installation du cluster n'a pas été désactivé, seul le premier noeud installé, qui a établi le cluster, possède un vote de quorum. Dans un cluster établi encore en mode d'installation, s'il n'est pas fermé avant la réinitialisation du premier nœud installé, les autres nœuds ne peuvent pas obtenir de quorum. Alors tout le cluster se ferme.

      Les nœuds de cluster restent en mode d'installation jusqu'à la première exécution de la commande clsetup. Vous exécutez cette commande lors de la procédure Configuration des périphériques de quorum.


    3. Réinitialisez tous les noeuds du cluster.

      • Sur les systèmes SPARC, procédez comme suit :


        ok boot
        
      • Sur les systèmes x86, procédez comme suit :

        Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Solaris appropriée, puis appuyez sur Entrée. Le menu GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

    L'utilitaire scinstall installe et configure tous les nœuds du cluster, puis redémarre le cluster. Le cluster est établi une fois que tous ses noeuds ont été correctement réinitialisés. Les informations relatives à l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log.N.

  26. (Facultatif) Si vous n'avez pas effectué l'Étape 25 pour réinitialiser les nœuds, lancez le serveur Web Sun Java Web Console manuellement sur chaque nœud.


    phys-schost# smcwebserver start
    

    Pour plus d'informations, reportez-vous à la page de manuel smcwebserver(1M).

  27. Prenez le rôle de superutilisateur sur un nœud.

  28. Vérifiez que tous les noeuds ont rejoint la grappe.


    phys-schost# clnode status
    

    Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page clnode(1CL) du manuel.

  29. (Facultatif) Sur chaque nœud, activez la réinitialisation de nœud automatique en cas d'échec de tous les chemins de disques contrôlés.

    1. Activez la fonctionnalité de réinitialisation automatique.


      phys-schost# clnode set -p reboot_on_path_failure=enabled 
      
      -p

      Indique la propriété à définir.

      reboot_on_path_failure=enable

      Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.

    2. Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
Étapes suivantes

Si vous avez ajouté un nœud à un cluster à deux nœuds, reportez-vous à la rubrique Procédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster.

Sinon, reportez-vous à l'une des procédures suivantes.

Erreurs fréquentes

Option scinstall désactivée - Si un astérisque n'apparaît pas en regard de l'option JumpStart de la commande scinstall, cela signifie que l'option est désactivée. Cette condition indique que le paramétrage de JumpStart n'est pas terminé ou qu'il comporte une erreur. Pour corriger cette condition, commencez par quitter l'utilitaire scinstall. Répétez l' Étape 1 à Étape 14 pour corriger la configuration JumpStart, puis redémarrez l'utilitaire scinstall.

Messages d'erreur sur les nœuds inexistants - Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf, la commande scinstall installe un fichier ntp.conf par défaut. Le fichier par défaut est expédié avec des références au nombre maximum de nœuds possible. Par conséquent, le démon xntpd(1M) peut émettre des messages d'erreur sur certaines de ces références pendant l'initialisation. Vous pouvez ignorer ces messages sans risque. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) pour obtenir des informations sur la suppression de ces messages dans des conditions de cluster normales par ailleurs.

ProcedureProcédure de préparation du cluster pour d'autres nœuds de cluster

Suivez cette procédure sur des nœuds de cluster existants pour préparer le cluster à l'ajout de nœuds de cluster.

Avant de commencer

Effectuez les tâches suivantes :

  1. Si vous utilisez CCP (Cluster Control Panel), mettez à jour les fichiers de configuration sur la console administrative.

    1. Ajoutez à l'entrée de cluster du fichier /etc/clusters le nom du nœud que vous ajoutez.

    2. Ajoutez aux fichiers /etc/serialports une entrée avec le nom du nouveau nœud, le nom d'hôte du périphérique d'accès par console du nœud et le numéro de port.

  2. Ajoutez le nom du nouveau nœud à la liste de nœuds autorisés du cluster.

    1. Sur un nœud, devez superutilisateur.

    2. Lancez l'utilitaire clsetup.


      phys-schost# clsetup
      

      Le menu principal apparaît.

    3. Choisissez l'élément de menu Nouveaux nœuds.

    4. Choisissez l'élément de menu Spécifier le nom d'une machine autorisée à s'auto-ajouter.

    5. Suivez les indications pour ajouter le nom du noeud à la liste des machines reconnues.

      Une fois la tâche terminée sans erreur, l'utilitaire clsetup affiche le message La commande a été exécutée avec succès.

    6. Quittez l'utilitaire clsetup.

  3. Si vous ajoutez un nœud à un cluster à un nœud, vérifiez que deux interconnexions de cluster existent en affichant la configuration d'interconnexion.


    phys-schost# clinterconnect show
    

    Avant de pouvoir ajouter un nœud, vous devez avoir configuré au moins deux câbles ou deux adaptateurs.

    • Si le résultat indique des informations de configuration pour deux câbles ou deux adaptateurs, passez à l'Étape 4.

    • Si les informations de configuration pour les câbles ou les adaptateurs sont absentes ou partielles, configurez de nouvelles interconnexions de cluster.

      1. Sur un nœud, lancez l'utilitaire clsetup.


        phys-schost# clsetup
        
      2. Choisissez l'élément de menu Interconnexions de clusters.

      3. Choisissez l'élément de menu Ajouter un câble de transport.

        Suivez les instructions pour spécifier le nom du nœud à ajouter au cluster, le nom de l'adaptateur de transport et l'utilisation ou non d'un commutateur.

      4. Si nécessaire, répétez l'Étape c pour configurer une deuxième interconnexion de cluster.

      5. Une fois l'opération terminée, quittez l'utilitaire clsetup.

      6. Vérifiez que le cluster dispose de deux interconnexions configurées.


        phys-schost# clinterconnect show
        

        La sortie de la commande doit afficher des informations de configuration concernant au moins deux interconnexions de cluster.

  4. Vérifiez que la configuration de réseau privé peut prendre en charge les nœuds et les réseaux privés que vous ajoutez.

    1. Affichez le nombre maximum de nœuds et de réseaux privés que la configuration de réseau privé actuelle prend en charge.


      phys-schost# cluster show-netprops
      

      Le résultat est semblable à l'exemple suivant qui indique les valeurs par défaut :


      === Private Network ===                        
      
      private_netaddr:                                172.16.0.0
        private_netmask:                                255.255.248.0
        max_nodes:                                      64
        max_privatenets:                                10
    2. Déterminez si la configuration de réseau privé actuelle peut prendre en charge le plus grand nombre de nœuds, zones non globales incluses, et de réseaux privés.

Étapes suivantes

Configurez le logiciel Sun Cluster sur les nœuds de votre cluster. Reportez-vous à la rubrique Procédure de configuration du logiciel Sun Cluster sur d'autres noeuds du cluster (scinstall) ou à la rubrique Procédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (XML).

ProcedureProcédure de modification de la configuration de réseau privé lors de l'ajout de nœuds ou de réseaux privés

Effectuez cette tâche pour modifier la plage d'adresses IP privées du cluster afin d'accepter un plus grand nombre de nœuds ou de zones non globales, ou de réseaux privés ou une combinaison de ceux-ci. Vous pouvez suivre cette procédure pour diminuer la plage d'adresses IP privées.


Remarque –

Cette procédure nécessite l'arrêt complet du cluster.


Avant de commencer

Vérifiez que shell distant (rsh(1M)) ou shell sécurisé (ssh(1)) accès pour le superutilisateur est activé pour tous les nœuds de cluster.

  1. Devenez superutilisateur sur un noeud du cluster.

  2. À partir d'un nœud, lancez l'utilitaire clsetup.


    # clsetup
    

    Le menu principal clsetup s'affiche.

  3. Basculez chaque groupe de ressources hors ligne.

    Si le nœud contient des zones non globales, les groupes de ressources des zones sont également basculés hors ligne.

    1. Saisissez le numéro correspondant à l'option des groupes de ressources, puis appuyez sur la touche Retour.

      Le menu du groupe de ressources apparaît.

    2. Saisissez le numéro correspondant à l'option en ligne/hors ligne ou la commutation d'un groupe de ressources, puis appuyez sur la touche Retour.

    3. Suivez les instructions pour désactiver tous les groupes de ressources et les placer en mode sans gestion.

    4. Une fois tous les groupes de ressources désactivés, entrez q pour revenir au menu Groupe de ressources.

  4. Désactivez toutes les ressources du cluster.

    1. Saisissez le numéro correspondant à l'option d'activation/désactivation d'une ressource, puis appuyez sur la touche Retour.

    2. Choisissez une ressource à désactiver, puis suivez les directives fournies.

    3. Répétez l'étape précédente pour chaque ressource à désactiver.

    4. Une fois que toutes les ressources sont désactivées, entrez q pour revenir au menu Groupe de ressources.

  5. Quittez l'utilitaire clsetup.

  6. Vérifiez que toutes les ressources de tous les nœuds sont Hors ligne et que tous les groupes de ressources sont en mode Sans gestion.


    # cluster status -t resource,resourcegroup
    
    -t

    Limite la sortie à l'objet de cluster spécifié.

    ressource

    Spécifie les ressources.

    groupe de ressources

    Spécifie les groupes de ressources.

  7. Arrêtez le cluster depuis un noeud.


    # cluster shutdown -g0 -y
    
    -g

    Spécifie le temps d'attente en secondes.

    -y

    Empêche l'apparition de l'invite demandant de confirmer un arrêt avant l'émission.

  8. Réinitialisez chaque noeud en mode non-cluster.

    • Sur les systèmes SPARC, exécutez la commande suivante :


      ok boot -x
      
    • Sur les systèmes x86, exécutez les commandes suivantes :

      1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.

        Le menu GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +----------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                               |
        | Solaris failsafe                                                     |
        |                                                                      |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

      2. Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.

        L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot                                     |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.
      3. Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.


        [ Minimal BASH-like line editing is supported. For the first word, TAB
        lists possible command completions. Anywhere else TAB lists the possible
        completions of a device/filename. ESC at any time exits. ]
        
        grub edit> kernel /platform/i86pc/multiboot -x
        
      4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

        L'écran affiche la commande modifiée.


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot -x                                  |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.-
      5. Saisissez b pour initialiser le nœud en mode non cluster.


        Remarque –

        Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour choisir d'initialiser en mode non cluster, effectuez les étapes suivantes pour ajouter de nouveau l'option -x à la commande du paramètre d'initialisation du noyau.


  9. À partir d'un nœud, lancez l'utilitaire clsetup.

    S'il est exécuté en mode non cluster, l'utilitaire clsetup affiche le menu principal pour les opérations en mode non cluster.

  10. Saisissez le numéro correspondant à l'option de modification de la plage d'adresses IP, puis appuyez sur la touche Retour.

    L'utilitaire clsetup affiche la configuration de réseau privé actuelle, puis vous demande si vous souhaitez modifier cette configuration.

  11. Pour modifier l'adresse IP de réseau privé ou la plage d'adresses IP, tapez oui, puis appuyez sur la touche Retour.

    L'utilitaire clsetup affiche l'adresse IP de réseau privé par défaut, 172.16.0.0, puis vous demande si vous acceptez cette valeur par défaut.

  12. Modifiez ou acceptez l'adresse IP de réseau privé.

    • Pour accepter l'adresse IP de réseau privé par défaut et continuer en modifiant la plage d'adresses IP, saisissez oui, puis appuyez sur la touche Retour.

      L'utilitaire clsetup vous demande si vous souhaitez accepter le masque de réseau par défaut. Passez à l'étape suivante pour entrer votre réponse.

    • Pour modifier l'adresse IP de réseau privé par défaut, effectuez les sous-étapes suivantes.

      1. Saisissez non en réponse à la question de l'utilitaire clsetup portant sur l'acceptation de l'adresse par défaut, puis appuyez sur la touche Retour.

        L'utilitaire clsetup vous invite à saisir la nouvelle adresse IP de réseau privé.

      2. Saisissez la nouvelle adresse IP, puis appuyez sur la touche Retour.

        L'utilitaire clsetup affiche le masque de réseau par défaut, puis vous demande si vous acceptez le masque de réseau par défaut.

  13. Modifiez ou acceptez la plage d'adresses IP de réseau privé par défaut.

    Le masque de réseau par défaut est le 255.255.248.0. Cette plage d'adresses IP par défaut prend en charge un maximum de 64 nœuds et de 10 réseaux privés dans le cluster.

    • Pour accepter la plage d'adresses IP par défaut, saisissez oui, puis appuyez sur la touche Retour.

      Passez ensuite à l'étape suivante.

    • Pour modifier la plage d'adresses IP, effectuez les sous-étapes suivantes.

      1. Saisissez non en réponse à la question de l'utilitaire clsetup portant sur l'acceptation de la plage d'adresses par défaut, puis appuyez sur la touche Retour.

        Lorsque vous refusez le masque de réseau par défaut, l'utilitaire clsetup vous invite à saisir le nombre de nœuds et de réseaux privés que vous prévoyez de configurer dans le cluster.

      2. Saisissez le nombre de nœuds et de réseaux privés que vous prévoyez de configurer dans le cluster.

        À partir de ces chiffres, l'utilitaire clsetup calcule deux masques de réseau proposés :

        • Le premier masque de réseau est le masque de réseau minimum pour assurer la prise en charge des nœuds et réseaux privés spécifiés.

        • Le second masque de réseau prend en charge deux fois plus de nœuds et de réseaux privés que ce que vous avez indiqué afin de permettre une éventuelle augmentation ultérieure.

      3. Indiquez l'un des masques de réseau calculés ou indiquez un masque de réseau différent prenant en charge le nombre de nœuds et de réseaux privés souhaités.

  14. Saisissez oui lorsque l'utilitaire clsetup vous demande de continuer avec la mise à jour.

  15. Une fois l'opération terminée, quittez l'utilitaire clsetup.

  16. Réinitialisez chaque nœud dans le cluster.

    1. Arrêtez tous les noeuds.


      # shutdown -g0 -y
      
    2. Initialisez chaque nœud en mode cluster.

      • Sur les systèmes SPARC, procédez comme suit :


        ok boot
        
      • Sur les systèmes x86, procédez comme suit :

        Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Solaris appropriée, puis appuyez sur Entrée. Le menu GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

  17. À partir d'un nœud, lancez l'utilitaire clsetup.


    # clsetup
    

    Le menu principal clsetup s'affiche.

  18. Réactivez toutes les ressources désactivées.

    1. Saisissez le numéro correspondant à l'option des groupes de ressources, puis appuyez sur la touche Retour.

      Le menu du groupe de ressources apparaît.

    2. Saisissez le numéro correspondant à l'option d'activation/désactivation d'une ressource, puis appuyez sur la touche Retour.

    3. Choisissez une ressource à activer, puis suivez les directives fournies.

    4. Répétez cette opération pour chaque ressource désactivée.

    5. Une fois que toutes les ressources sont réactivées, entrez q pour revenir au menu Groupe de ressources.

  19. Remettez en ligne tous les groupes de ressources.

    Si le nœud contient des zones non globales, mettez en ligne les groupes de ressources présents dans ces zones.

    1. Saisissez le numéro correspondant à l'option en ligne/hors ligne ou la commutation d'un groupe de ressources, puis appuyez sur la touche Retour.

    2. Suivez les indications pour mettre chaque groupe de ressources en mode gestion et mettre en ligne le groupe de ressources.

  20. Une fois tous les groupes de ressources remis en ligne, quittez l'utilitaire clsetup.

    Entrez q pour sortir de chaque sous-menu ou appuyez sur Ctrl-C.

Étapes suivantes

Pour ajouter un nœud à un cluster existant, suivez l'une des procédures suivantes :

Pour créer une zone non globale sur un nœud de cluster, reportez-vous à la rubrique Configuration d'une zone non globale sur un nœud de cluster.

ProcedureProcédure de configuration du logiciel Sun Cluster sur d'autres noeuds du cluster (scinstall)

Effectuez cette procédure pour ajouter de nouveaux nœuds à un cluster existant. Pour ajouter un nœud à l'aide de JumpStart, effectuez plutôt les procédures de la rubrique Installation de Solaris et du logiciel Sun Cluster (JumpStart).


Remarque –

Cette procédure utilise la forme interactive de la commande scinstall. Pour utiliser les formes non interactives de la commande scinstall, par exemple pour le développement de scripts d'installation, reportez-vous à la page du manuel scinstall(1M).

Vérifiez que les packages Sun Cluster sont installés sur le nœud, soit manuellement soit en utilisant la forme du mode silencieux du programme installer de Java ES avant d'exécuter la commande scinstall. Pour de plus amples informations sur l'exécution du programme installer de Java ES à partir d'un script d'installation, reportez-vous au Chapitre 5, Installing in Silent Mode du Sun Java Enterprise System 5 Installation Guide for UNIX.


Avant de commencer

Effectuez les tâches suivantes :

Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :

  1. Prenez le rôle de superutilisateur sur le nœud de cluster à configurer.

  2. Lancez l'utilitaire scinstall.


    phys-schost-new# /usr/cluster/bin/scinstall
    

    Le menu principal scinstall s'affiche.

  3. Saisissez le numéro d'option pour Créer un cluster ou Ajouter un nœud de cluster et appuyez sur la touche Retour.


      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1
    

    Le menu Nouveau cluster et Nœud de cluster apparaît.

  4. Saisissez le numéro d'option pour Ajouter cet ordinateur en tant que nœud d'un cluster existant, puis appuyez sur la touche Retour.

  5. Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.

    L'utilitaire scinstall configure le nœud et le réinitialise sur le cluster.

  6. Retirez le DVD-ROM Sun Java Availability Suite du lecteur DVD-ROM\~;.

    1. Afin de vous assurer que le DVD-ROM\~; n'est pas utilisé, déplacez-vous sur un répertoire ne résidant pas sur le DVD-ROM\~;.

    2. Éjectez le DVD-ROM\~;.


      phys-schost# eject cdrom
      
  7. Répétez cette procédure sur tout autre noeud à ajouter au cluster jusqu'à ce que tous les noeuds supplémentaires soient entièrement configurés.

  8. Pour Solaris 10 OS, vérifiez sur chaque nœud que les services multiutilisateur de SMF (Service Management Facility) sont en ligne.

    Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. Dans un membre de cluster actif, empêchez l'association d'un autre nœud au cluster.


    phys-schost# claccess deny-all
    

    Vous pouvez aussi utiliser l'utilitaire clsetup. Reportez-vous à How to Add a Node to the Authorized Node List du Sun Cluster System Administration Guide for Solaris OS pour obtenir des procédures.

  10. Prenez le rôle de superutilisateur sur un nœud.

  11. Vérifiez que tous les noeuds ont rejoint la grappe.


    phys-schost# clnode status
    

    Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page clnode(1CL) du manuel.

  12. Vérifiez que tous les patchs nécessaires sont installés.


    phys-schost# showrev -p
    
  13. (Facultatif) Activez la réinitialisation de nœud automatique en cas d'échec de tous les chemins de disques contrôlés.

    1. Activez la fonctionnalité de réinitialisation automatique.


      phys-schost# clnode set -p reboot_on_path_failure=enabled 
      
      -p

      Indique la propriété à définir.

      reboot_on_path_failure=enable

      Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.

    2. Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  14. Si vous envisagez d'utiliser Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, assurez-vous que le système de fichiers loopback (LOFS) est désactivé.

    Pour désactiver le LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.


    exclude:lofs

    La modification apportée au fichier /etc/system est effective après une réinitialisation du système.


    Remarque –

    Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : Si vous choisissez d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, vous devez apporter l'une des modifications de configuration suivantes.

    Toutefois, si vous configurez des zones non globales dans votre cluster, vous devez activer le LOFS sur tous les nœuds du cluster. Si Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité doit coexister avec le LOFS, utilisez une autre solution que la désactivation du LOFS.

    • Désactivez le LOFS.

    • Désactivez le démon automountd.

    • Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.


    Reportez-vous à Système de fichier Loopback dans le manuel Guide d'administration système : Périphériques et systèmes de fichiers (Solaris 9 ou Solaris 10) pour plus d'informations sur les systèmes de fichiers loopback.


Exemple 3–3 Configuration du logiciel Sun Cluster sur un nœud supplémentaire

L'exemple suivant montre le nœud phys-schost-3 ajouté au cluster schost. Le noeud parrain est phys-schost-1.


*** Adding a Node to an Existing Cluster ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 
-m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2


Checking device to use for global devices file system ... done

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "qfe2" to the cluster configuration ... done
Adding adapter "qfe3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Copying the Common Agent Container keys from "phys-schost-1" ... done


Setting the node ID for "phys-schost-3" ... done (id=1)

Setting the major number for the "did" driver ... 
Obtaining the major number for the "did" driver from "phys-schost-1" ... done
"did" driver major number set to 300

Checking for global devices global file system ... done
Updating vfstab ... done

Verifying that NTP is configured ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... 
done

Adding clusternode entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done
The "local-mac-address?" parameter setting has been changed to "true".

Ensure network routing is disabled ... done

Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Rebooting ... 

Erreurs fréquentes

Configuration non réussie : si un ou plusieurs nœuds ne parviennent pas à fusionner avec le cluster ou si des informations de configuration incorrectes ont été indiquées, essayez tout d'abord d'exécuter de nouveau cette procédure. Si cela ne permet pas de corriger le problème, effectuez la procédure de la section Annulation de la configuration du logiciel Sun Cluster pour corriger les problèmes d'installation sur chaque nœud incorrectement configuré pour le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages Sun Cluster. Ensuite, exécutez de nouveau cette procédure.

Étapes suivantes

Si vous avez ajouté un nœud à un cluster existant qui utilise un périphérique de quorum, reportez-vous à la rubrique Procédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster.

Sinon, reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.

ProcedureProcédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (XML)

Suivez cette procédure pour configurer un nouveau nœud de cluster à l'aide d'un fichier XML de configuration du cluster. Le nouveau nœud peut être une duplication d'un nœud de cluster existant exécutant le logiciel Sun Cluster 3.2 2/08.

Cette procédure configure les composants de cluster suivants sur le nouveau nœud :

Avant de commencer

Effectuez les tâches suivantes :

  1. Vérifiez que le logiciel Sun Cluster n'est pas encore configuré sur l'éventuel nœud à ajouter à un cluster.

    1. Prenez le rôle de superutilisateur sur l'éventuel nœud.

    2. Déterminez si le logiciel Sun Cluster est configuré sur l'éventuel nœud.


      phys-schost-new# /usr/sbin/clinfo -n
      
      • En cas d'échec de la commande, reportez-vous à l'Étape 2.

        Le logiciel Sun Cluster n'est pas encore configuré sur le nœud. Vous pouvez ajouter l'éventuel nœud au cluster.

      • Si la commande renvoie un numéro d'ID de nœud, passez à l'Étape c.

        Le logiciel Sun Cluster est déjà configuré sur le nœud. Avant d'ajouter un nœud à un autre cluster, supprimez les informations de configuration du cluster existantes.

    3. Initialisez l'éventuel nœud en mode non cluster.

      • Sur les systèmes SPARC, exécutez la commande suivante :


        ok boot -x
        
      • Sur les systèmes x86, exécutez les commandes suivantes :

        1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.

          Le menu GRUB qui s'affiche est similaire à ce qui suit :


          GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
          +----------------------------------------------------------------------+
          | Solaris 10 /sol_10_x86                                               |
          | Solaris failsafe                                                     |
          |                                                                      |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press enter to boot the selected OS, 'e' to edit the
          commands before booting, or 'c' for a command-line.

          Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

        2. Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.

          L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :


          GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
          +----------------------------------------------------------------------+
          | root (hd0,0,a)                                                       |
          | kernel /platform/i86pc/multiboot                                     |
          | module /platform/i86pc/boot_archive                                  |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press 'b' to boot, 'e' to edit the selected command in the
          boot sequence, 'c' for a command-line, 'o' to open a new line
          after ('O' for before) the selected line, 'd' to remove the
          selected line, or escape to go back to the main menu.
        3. Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.


          [ Minimal BASH-like line editing is supported. For the first word, TAB
          lists possible command completions. Anywhere else TAB lists the possible
          completions of a device/filename. ESC at any time exits. ]
          
          grub edit> kernel /platform/i86pc/multiboot -x
          
        4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

          L'écran affiche la commande modifiée.


          GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
          +----------------------------------------------------------------------+
          | root (hd0,0,a)                                                       |
          | kernel /platform/i86pc/multiboot -x                                  |
          | module /platform/i86pc/boot_archive                                  |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press 'b' to boot, 'e' to edit the selected command in the
          boot sequence, 'c' for a command-line, 'o' to open a new line
          after ('O' for before) the selected line, 'd' to remove the
          selected line, or escape to go back to the main menu.-
        5. Saisissez b pour initialiser le nœud en mode non cluster.


          Remarque –

          Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour choisir d'initialiser en mode non cluster, effectuez les étapes suivantes pour ajouter de nouveau l'option -x à la commande du paramètre d'initialisation du noyau.


    4. Annulez la configuration du logiciel Sun Cluster de l'éventuel nœud.


      phys-schost-new# /usr/cluster/bin/clnode remove
      
  2. Si vous dupliquez un nœud exécutant le logiciel Sun Cluster 3.2 2/08, créez un fichier XML de configuration du cluster.

    1. Prenez le rôle de superutilisateur sur le nœud du cluster que vous souhaitez dupliquer.

    2. Exportez les informations de configuration du nœud existant dans un fichier.


      phys-schost# clnode export -o clconfigfile
      
      -o

      Indique la destination de sortie.

      clconfigfile

      Le nom du fichier XML de configuration du cluster. Le nom de fichier spécifié peut être un fichier existant ou un nouveau créé par la commande.

      Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

    3. Copiez le fichier XML de configuration du cluster dans l'éventuel nœud que vous configurerez comme nouveau nœud de cluster.

  3. Prenez le rôle de superutilisateur sur l'éventuel nœud.

  4. Si nécessaire, modifiez le fichier XML de configuration du cluster.

    1. Ouvrez le fichier XML de configuration du cluster pour l'éditer.

      • Si vous dupliquez un nœud de cluster existant, ouvrez le fichier créé à l'aide de la commande clnode export.

      • Si vous ne dupliquez pas un nœud de cluster existant, créez un nouveau fichier.

        Basez le fichier sur la hiérarchie d'éléments illustrée à la page de manuel clconfiguration(5CL). Vous pouvez stocker le fichier dans un quelconque répertoire.

    2. Modifiez les valeurs des éléments XML pour reproduire la configuration du nœud à créer.

      Reportez-vous à la page de manuel clconfiguration(5CL) pour plus d'informations sur la structure et le contenu du fichier XML de configuration du cluster.

  5. Validez le fichier XML de configuration du cluster.


    phys-schost-new# xmllint --valid --noout clconfigfile
    
  6. Configurez le nouveau nœud de cluster.


    phys-schost-new# clnode add -n sponsornode -i clconfigfile
    
    -n sponsornode

    Indique le nom d'un membre de cluster existant destiné à agir comme sponsor du nouveau nœud.

    -i clconfigfile

    Indique le nom du fichier XML de configuration du cluster à utiliser comme source d'entrée.

  7. (Facultatif) Activez la réinitialisation de nœud automatique en cas d'échec de tous les chemins de disques contrôlés.

    1. Activez la fonctionnalité de réinitialisation automatique.


      phys-schost# clnode set -p reboot_on_path_failure=enabled 
      
      -p

      Indique la propriété à définir.

      reboot_on_path_failure=enable

      Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.

    2. Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
Erreurs fréquentes

Configuration non réussie : si un ou plusieurs nœuds ne parviennent pas à fusionner avec le cluster ou si des informations de configuration incorrectes ont été indiquées, essayez tout d'abord d'exécuter de nouveau cette procédure. Si cela ne permet pas de corriger le problème, effectuez la procédure de la section Annulation de la configuration du logiciel Sun Cluster pour corriger les problèmes d'installation sur chaque nœud incorrectement configuré pour le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages Sun Cluster. Ensuite, exécutez de nouveau cette procédure.

Étapes suivantes

Si vous avez ajouté un nœud à un cluster qui utilise un périphérique de quorum, reportez-vous à la rubrique Procédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster.

Sinon, reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.

ProcedureProcédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster

Si vous avez ajouté un nœud à un cluster, vous devez mettre à jour les informations de configuration des périphériques de quorum, que ce soit des périphériques SCSI, NAS, un serveur de quorum ou une combinaison de ceux-ci. Pour cela, supprimez tous les périphériques de quorum et mettez à jour l'espace de noms de périphériques globaux. Facultativement, vous pouvez reconfigurer les périphériques de quorum que vous souhaitez continuer à utiliser. Ceci permet d'enregistrer le nouveau nœud avec chaque périphérique de quorum, qui peut alors recalculer son nombre de votes en fonction du nouveau nombre de nœuds du cluster.

Tout nouveau périphérique de quorum SCSI configuré sera défini sur des réservations SCSI-3.

Avant de commencer

Assurez-vous de l'installation du logiciel Sun Cluster sur le nœud ajouté.

  1. Prenez le rôle de superutilisateur sur un nœud du cluster.

  2. Affichez la configuration actuelle de quorum.

    Le résultat de la commande répertorie chaque périphérique de quorum et chaque nœud. L'exemple suivant montre le périphérique de quorum SCSI actuel, d3.


    phys-schost# clquorum list
    d3
    …
  3. Notez le nom de chaque périphérique de quorum répertorié.

  4. Supprimez le périphérique initial de quorum.

    Effectuez cette étape pour chaque périphérique de quorum configuré.


    phys-schost# clquorum remove devicename
    
    devicename

    Indique le nom du périphérique de quorum.

  5. Assurez-vous de la suppression de tous les périphériques initiaux de quorum.

    Si la suppression des périphériques de quorum réussit, aucun périphérique de quorum n'est répertorié.


    phys-schost# clquorum status
    
  6. Mettez à jour l'espace de noms de périphériques globaux.


    phys-schost# cldevice populate
    

    Remarque –

    Cette étape est nécessaire pour éviter un éventuel échec de nœud.


  7. Sur chaque nœud, vérifiez que la commande cldevice populate s'est exécutée convenablement avant d'ajouter un périphérique de quorum.

    La commande cldevice populate est exécutée à distance sur tous les nœuds, bien que la commande soit émise depuis un seul nœud. Pour savoir si la commande cldevice populate s'est exécutée convenablement, exécutez la commande suivante sur chaque nœud du cluster.


    phys-schost# ps -ef | grep scgdevs
    
  8. (Facultatif) Ajoutez un périphérique de quorum.

    Vous pouvez configurer le périphérique initialement défini comme étant de quorum ou choisir un autre périphérique partagé.

    1. (Facultatif) Si vous optez pour la dernière solution, affichez tous les périphériques contrôlés par le système.

      Dans le cas contraire, passez à l'Étape c.


      phys-schost# cldevice list -v
      

      Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0 
      …
    2. À partir du résultat, choisissez un périphérique partagé.

    3. Configurez-le comme périphérique de quorum.


      phys-schost# clquorum add -t type devicename
      
      -t type

      Indique le type du périphérique de quorum. Si cette option n'est pas spécifiée, le type par défaut scsi est utilisé.

    4. Répétez l'étape pour chaque périphérique de quorum à configurer.

    5. Vérifiez la configuration du nouveau quorum.


      phys-schost# clquorum list
      

      Le résultat doit répertorier chaque périphérique de quorum et chaque nœud.


Exemple 3–4 Mise à jour des périphériques de quorum SCSI après l'ajout d'un nœud à un cluster à deux nœuds

L'exemple suivant identifie le périphérique de quorum SCSI d'origine d2, le supprime, répertorie les périphériques partagés disponibles, met à jour l'espace de noms de périphériques globaux, configure d3 en tant que nouveau périphérique de quorum SCSI et vérifie le nouveau périphérique.


phys-schost# clquorum list
d2
phys-schost-1
phys-schost-2

phys-schost# clquorum remove d2
phys-schost# clquorum status
…
--- Quorum Votes by Device ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------
phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
…
d3                  phys-schost-2:/dev/rdsk/c1t1d0
d3                  phys-schost-1:/dev/rdsk/c1t1d0
…
phys-schost# cldevice populate
phys-schost# ps -ef - grep scgdevs
phys-schost# clquorum add d3
phys-schost# clquorum list
d3
phys-schost-1
phys-schost-2

Étapes suivantes

Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.

ProcedureConfiguration des périphériques de quorum


Remarque –

il est inutile de configurer les périphériques de quorum dans les circonstances suivantes :

Passez plutôt à la rubrique Vérification de la configuration de quorum et du mode d'installation.


Suivez cette procédure une seule fois, après la formation complète du cluster. Elle permet d'assigner des votes de quorum, puis de mettre le cluster hors mode d'installation.

Avant de commencer

Effectuez les préparations suivantes pour configurer un serveur de quorum ou un périphérique NAS en tant que périphérique de quorum.

  1. Pour utiliser un serveur de quorum en tant que périphérique de quorum, préparez le cluster pour qu'il communique avec le serveur de quorum.

    1. Modifiez le fichier de configuration du serveur de quorum /etc/scqsd/scqsd.conf.

      Lorsque vous installez le logiciel Sun Cluster, un fichier de configuration par défaut contenant des informations sur un serveur de quorum par défaut unique, /etc/scqsd/scqsd.conf, est créé. Chaque ligne du fichier /etc/scqsd/scqsd.conf est au format suivant :


      /usr/cluster/lib/sc/scqsd [-d quorumdirectory] [-i instancename] -p port
      
      /usr/cluster/lib/sc/scqsd

      Le chemin complet vers l'emplacement où vous avez installé le logiciel Sun Cluster. Cette valeur doit correspondre à /usr/cluster/lib/sc/scqsd.

      -d quorumdirectory

      Chemin vers le répertoire dans lequel le serveur de quorum peut stocker des données de quorum.

      Le traitement du serveur de quorum crée un fichier par cluster dans ce répertoire pour stocker les informations de quorum propres au cluster. Par défaut, la valeur de cette option est /var/scqsd. Ce répertoire doit être unique pour chaque serveur de quorum que vous configurez.

      -i instancename

      Nom d'instance unique que vous choisissez pour l'instance de serveur de quorum.

      -p port

      Numéro de port sur lequel le serveur de quorum écoute les requêtes du cluster. Le port par défaut est 9000.

      Les noms d'instances sont facultatifs. Si vous spécifiez un nom pour le serveur de quorum, il doit être unique sur tous les serveurs de quorum de votre système. Si vous choisissez d'omettre l'option de nom d'instance, vous devez faire référence au serveur de quorum à l'aide du port depuis lequel il écoute.

    2. Si le réseau public utilise la méthode variable-length subnetting, également appelée Classless Inter-Domain Routing (CIDR), modifiez les fichiers suivants sur chaque nœud.

      Si vous utilisez des sous-réseaux classful, tels que définis dans RFC 791, vous n'avez pas besoin de procéder à ces étapes.

      1. Ajoutez au fichier /etc/inet/netmasks une entrée pour chaque sous-réseau public que le cluster utilise.

        Ci-dessous un exemple d'entrée contenant une adresse IP de réseau public et un masque réseau :


        10.11.30.0	255.255.255.0
      2. Ajoutez netmask + broadcast + à l'entrée de nom d'hôte dans chaque fichier /etc/hostname.adapter.


        nodename netmask + broadcast +
        
    3. Assurez-vous que l'adresse IP du serveur de quorum est comprise dans le fichier /etc/inet/hosts ou /etc/inet/ipnodes sur chaque nœud du cluster.

    4. Si vous utilisez un service d'attribution de nom, assurez-vous que le serveur de quorum est compris dans les mappages nom/adresse.

  2. Prenez le rôle de superutilisateur sur un nœud.

  3. Pour utiliser un disque SCSI partagé en tant que périphérique de quorum, vérifiez la connexion aux nœuds de cluster et choisissez le périphérique à configurer.

    1. Depuis un nœud de cluster, affichez la liste de tous les périphériques contrôlés par le système.

      Vous n'avez pas besoin d'être connecté en tant que superutilisateur pour exécuter cette commande.


      phys-schost-1# cldevice list -v
      

      Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0
      …
    2. Vérifiez que le résultat contient toutes les connexions entre les nœuds de cluster et les périphériques de stockage.

    3. Déterminez le nom DID global de chaque disque partagé que vous allez configurer en tant que périphérique de quorum.


      Remarque –

      tous les disques partagés sélectionnés doivent être qualifiés pour être utilisés en tant que périphériques de quorum. Reportez-vous à la rubrique Périphériques de quorum pour obtenir plus d'informations sur le choix des périphériques de quorum.


      Utilisez le résultat scdidadm de l'Étape a pour identifier le périphérique (nom de chaque disque partagé à configurer en tant que périphérique de quorum). Par exemple, le résultat de l'Étape a indique que le périphérique global d2 est partagé par phys-schost-1 et phys-schost-2.

  4. Lancez l'utilitaire clsetup.


    phys-schost# clsetup
    

    L'écran Configuration initiale du cluster apparaît.


    Remarque –

    si le logiciel affiche le menu principal à la place de cet écran, cela signifie que la configuration initiale du cluster a déjà été effectuée avec succès. Passez à l'Étape 9.


  5. Répondez à l'invite Voulez-vous ajouter des disques de quorum ?.

    • Si votre cluster comporte deux nœuds, vous devez configurer au moins un périphérique de quorum partagé. Entrez Yes pour configurer un ou plusieurs périphériques de quorum.

    • Si votre cluster comporte trois nœuds ou plus, la configuration d'un périphérique de quorum est optionnelle.

      • Entrez No pour ne pas configurer d'autres périphériques de quorum. Passez ensuite à l'Étape 8.

      • Entrez Yes pour configurer d'autres périphériques de quorum. Procédez ensuite à l'Étape 6.

  6. Indiquez le type du périphérique à définir comme étant de quorum.

    Type de périphérique de quorum 

    Description 

    scsi

    Périphérique NAS Sun ou disque partagé SCSI 

    quorum_server

    Serveur de quorum 

    netapp_nas

    Périphérique NAS pour solution réseau 

  7. Indiquez le nom du périphérique à définir comme étant de quorum.

    • Pour un serveur de quorum, spécifiez également les informations suivantes :

      • L'adresse IP de l'hôte du serveur de quorum.

      • Le numéro de port utilisé par le serveur de quorum pour communiquer avec les nœuds de cluster.

    • Pour un périphérique NAS Network Appliance, indiquez également les informations suivantes :

      • Nom du périphérique NAS

      • LUN du périphérique NAS

  8. À l'invite Is it okay to reset "installmode"?, entrez Yes.

    Une fois que l'utilitaire clsetup a défini les configurations de quorum et le nombre de votes du cluster, le message L'initialisation du cluster est terminée s'affiche. L'utilitaire vous renvoie au Menu principal.

  9. Quittez l'utilitaire clsetup.

Étapes suivantes

Vérifiez la configuration du quorum et la désactivation du mode d'installation. Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.

Erreurs fréquentes

Traitement clsetup interrompu - Si le processus de configuration du quorum est interrompu ou échoue, réexécutez clsetup.

Changement du nombre de votes de quorum - Si vous augmentez/diminuez ultérieurement le nombre de raccordements de nœud à un périphérique de quorum, le nombre de votes de quorum n'est pas recalculé automatiquement. Vous pouvez redéfinir le nombre de votes de quorum approprié en supprimant chacun des périphériques de quorum, puis en les ajoutant de nouveau un par un. Lorsqu'il s'agit d'un cluster à deux nœuds, vous devez temporairement ajouter un nouveau périphérique de quorum avant de supprimer et de rajouter le périphérique d'origine. Supprimez ensuite le périphérique temporaire. Reportez-vous à la procédure “How to Modify a Quorum Device Node List” au Chapitre 6, Administering Quorum du Sun Cluster System Administration Guide for Solaris OS.

ProcedureVérification de la configuration de quorum et du mode d'installation

Cette procédure permet de vérifier que la configuration de quorum a réussi et que le mode d'installation du cluster est désactivé.

Vous n'avez pas besoin d'être un superutilisateur pour exécuter ces commandes.

  1. À partir d'un noeud quelconque, vérifiez la configuration de quorum des périphériques et des noeuds.


    phys-schost% clquorum list
    

    Le résultat répertorie chaque périphérique de quorum et chaque nœud.

  2. Dans n'importe quel nœud, vérifiez que le mode d'installation cluster est désactivé.


    phys-schost% cluster show -t global | grep installmode
      installmode:                                    disabled

    L'installation du cluster est terminée.

Étapes suivantes

Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.

Voir aussi

Procédez à la sauvegarde de votre configuration. Si vous effectuez une sauvegarde archivée de votre configuration de cluster, vous pourrez la récupérer plus facilement en cas de problème. Pour plus d'informations, reportez-vous à la section How to Back Up the Cluster Configuration du Sun Cluster System Administration Guide for Solaris OS.

ProcedureModification des noms d'hôtes privés

Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôtes privés par défaut (nœud de clusternodeid-priv) affectés lors de l'installation du logiciel Sun Cluster.


Remarque –

vous ne devez pas exécuter cette procédure après la configuration et le démarrage d'applications et des services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'hôte privé après renommage de celui-ci, entraînant ainsi des conflits de noms d'hôtes. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.


Effectuez cette procédure sur un nœud actif du cluster.

  1. Connectez-vous en tant que superutilisateur sur un noeud du cluster.

  2. Lancez l'utilitaire clsetup.


    phys-schost# clsetup
    

    Le menu principal clsetup s'affiche.

  3. Saisissez le numéro d'option pour les noms d'hôtes privés et appuyez sur la touche Retour.

    Le menu Nom d'hôte privé apparaît.

  4. Saisissez le numéro d'option pour Modifier un nom d'hôte privé et appuyez sur la touche Retour.

  5. Suivez les invites pour modifier le nom d'hôte privé.

    Répétez cette opération pour chaque nom d'hôte privé à modifier.

  6. Vérifiez les nouveaux noms d'hôtes privés.


    phys-schost# clnode show -t node | grep privatehostname
      privatehostname:                                clusternode1-priv
      privatehostname:                                clusternode2-priv
      privatehostname:                                clusternode3-priv
Étapes suivantes

Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.

ProcedureConfiguration du protocole NTP (Network Time Protocol)


Remarque –

si vous avez installé votre propre fichier /etc/inet/ntp.conf avant le logiciel Sun Cluster, vous n'êtes pas obligé d'effectuer cette procédure. Déterminez l'étape suivante :


Créez ou modifiez le fichier de configuration NTP après avoir effectué l'une des tâches suivantes :

Si vous avez ajouté un nœud à un cluster à un nœud, vous devez vérifier que le fichier de configuration NTP utilisé est copié sur le nœud de cluster initial et sur le nouveau.

la principale exigence lorsque vous configurez NTP, ou tout autre utilitaire de synchronisation, est que tous les noeuds de cluster soient synchronisés à la même heure. La précision de l'heure sur les nœuds individuels est secondaire par rapport à l'importance de la synchronisation de l'heure sur tous les nœuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.

Reportez-vous au Sun Cluster Concepts Guide for Solaris OS pour obtenir plus d'informations sur l'heure du cluster. Reportez-vous au fichier /etc/inet/ntp.cluster pour obtenir des directives supplémentaires sur la configuration de NTP pour configurer Sun Cluster.

  1. Connectez-vous en tant que superutilisateur sur un noeud du cluster.

  2. Si vous disposez d'un fichier /etc/inet/ntp.conf propre, copiez-le dans chaque nœud du cluster.

  3. Si vous n'installez pas votre propre fichier /etc/inet/ntp.conf, utilisez le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP.


    Remarque –

    ne renommez pas le fichier ntp.conf.cluster en tant que ntp.conf.


    Si /etc/inet/ntp.conf.cluster n'existe pas sur le nœud, il se peut que vous ayez un fichier /etc/inet/ntp.conf provenant d'une installation antérieure du logiciel Sun Cluster. Le logiciel Sun Cluster crée le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP si un fichier /etc/inet/ntp.conf n'est pas déjà présent sur le nœud. Dans ce cas, effectuez les modifications suivantes sur ce fichier ntp.conf.

    1. Utilisez l'éditeur de texte de votre choix pour ouvrir le fichier de configuration NTP à modifier sur un nœud de cluster.

    2. Assurez-vous qu'il existe une entrée pour le nom d'hôte privé de chaque noeud de cluster.

      Si vous avez modifié le nom d'hôte privé d'un noeud, veillez à ce que le fichier de configuration NTP contienne le nouveau nom d'hôte privé.

    3. Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.

    4. Copiez le fichier de configuration NTP sur tous les noeuds du cluster.

      Le contenu du fichier de configuration NTP doit être identique sur tous les noeuds du cluster.

  4. Arrêtez le démon NTP sur chaque nœud.

    Attendez la fin de la commande sur chaque nœud avant de passer à l'Étape 5.

    • SPARC : Sous Solaris 9, utilisez la commande suivante :


      phys-schost# /etc/init.d/xntpd stop
      
    • Sous Solaris 10, utilisez la commande suivante :


      phys-schost# svcadm disable ntp
      
  5. Redémarrez le démon NTP sur chaque noeud.

    • Si vous utilisez le fichier ntp.conf.cluster, exécutez la commande suivante :


      phys-schost# /etc/init.d/xntpd.cluster start
      

      Le script de démarrage xntpd.cluster recherche tout d'abord le fichier /etc/inet/ntp.conf.

      • Si le fichier ntp.conf existe, le script s'arrête immédiatement, sans lancer le démon NTP.

      • Si le fichier ntp.conf n'existe pas alors que ntp.conf.cluster existe, le script lance le démon NTP. Dans ce cas, le script utilise le fichier ntp.conf.cluster comme fichier de configuration NTP.

    • Si vous utilisez le fichier ntp.conf, exécutez une des commandes suivantes :

      • SPARC : Sous Solaris 9, utilisez la commande suivante :


        phys-schost# /etc/init.d/xntpd start
        
      • Sous Solaris 10, utilisez la commande suivante :


        phys-schost# svcadm enable ntp
        
Étapes suivantes

Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.

ProcedureHow to Record Diagnostic Data of the Cluster Configuration

Après avoir configuré le cluster et avant de le mettre en production, utilisez l'utilitaire Sun Explorer pour enregistrer des informations de référence sur le cluster. Ces données peuvent être utiles en cas de dépannage du cluster.

  1. Prenez le rôle de superutilisateur.

  2. Exécutez l'utilitaire explorer sur chaque nœud du cluster.

    Utilisez la commande appropriée pour votre plate-forme :

    Serveur 

    Commande 

    Sun Fire 3800 à 6800 

    # explorer -i -w default,scextended

    Sun Fire V1280 et E2900 

    # explorer -i -w default,1280extended

    Sun Fire T1000 et T2000 

    # explorer -i -w default,Tx000

    Sun Fire X4x00 et X8x00 

    # explorer -i -w default,ipmi

    Toutes les autres plates-formes 

    # explorer -i

    Pour plus d'informations, reportez-vous à la page de manuel explorer(1M) dans le répertoire /opt/SUNWexplo/man/man1m/ et au manuel Sun Explorer User’s Guide.

    Le fichier de sortie explorer est enregistré dans le répertoire /opt/SUNWexplo/output/ en tant que explorer.hostid.hostname-date.tar.gz.

  3. Enregistrez les fichiers dans un emplacement auquel vous avez accès si tout le cluster est en panne.

  4. Envoyez tous les fichiers explorer par courrier électronique à l'alias de la base de données Sun Explorer correspondant à votre situation géographique.

    Cette base de données rend votre fichier de sortie explorer accessible par l'assistance technique Sun si les données permettent d'établir le diagnostic d'un problème technique sur votre cluster.

    Emplacement 

    Adresse e-mail 

    Amérique du Nord, du Sud et Centrale (AMER) 

    explorer-database-americas@sun.com

    Europe, Moyen-Orient et Afrique (EMEA) 

    explorer-database-emea@sun.com

    Asie, Australie, Nouvelle-Zélande et Pacifique (APAC) 

    explorer-database-apac@sun.com