JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'installation du logiciel Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Planification de la configuration de Oracle Solaris Cluster

2.  Installation de logiciels sur des noeliguds de cluster global

3.  Établissement d'un cluster global

Établissement d'un nouveau cluster global ou d'un nouveau noeligud de cluster global

Configuration du logiciel Oracle Solaris Cluster sur tous les noeliguds (scinstall)

Configuration du logiciel Oracle Solaris Cluster sur tous les noeliguds (XML)

Installation de Solaris et Oracle Solaris Cluster (JumpStart)

Préparation du cluster pour les noeliguds supplémentaires du cluster global

Modification de la configuration du réseau privé lors de l'ajout de noeliguds ou de réseaux privés

Configuration du logiciel Oracle Solaris Cluster sur les noeliguds supplémentaires du cluster global (scinstall)

Configuration du logiciel Oracle Solaris Cluster sur les noeliguds supplémentaires du cluster global (XML)

Mise à jour des périphériques de quorum après l'ajout d'un noeligud au cluster global

Configuration des périphériques de quorum

Vérification de la configuration de quorum et du mode d'installation

Modification des noms d'hôte privés

Configuration de la répartition de la charge des groupes de ressources entre les noeliguds

Configuration des limites de charge d'un noeligud

Définition de la propriété d'un groupe de ressources

Définition des facteurs de charge d'un groupe de ressources

Définition du mode de préemption d'un groupe de ressources

Concentration de la charge sur un nombre restreint de noeliguds

Configuration du protocole NTP

Configuration de l'architecture IPsec sur l'interconnexion privée du cluster

Validation du cluster

Enregistrement des données de diagnostic de la configuration en cluster

4.  Configuration du logiciel Solaris Volume Manager

5.  Installation et configuration de Veritas Volume Manager

6.  Création d'un système de fichiers de cluster

7.  Création de zones non globales et de clusters de zones

8.  Installation du module Oracle Solaris Cluster sur Sun Management Center

9.  Désinstallation du logiciel à partir du cluster

A.  Fiches d'information sur l'installation et la configuration de Oracle Solaris Cluster

Index

Établissement d'un nouveau cluster global ou d'un nouveau nœud de cluster global

Cette section fournit les informations et les procédures nécessaires à l'établissement d'un nouveau cluster global ou l'ajout d'un nœud à un cluster existant. Les nœuds de cluster global peuvent être des machines physiques, des domaines d'E/S Sun Logical Domains (LDoms) (SPARC uniquement) ou des domaines invités LDoms. Un cluster peut résulter d'une combinaison de types de nœuds. Avant d'effectuer ces tâches, assurez-vous d'avoir installé les packages logiciels pour le SE Oracle Solaris, la structure Oracle Solaris Cluster et les autres produits décrits dans la section Installation du logiciel .

Les listes des tâches suivantes associent les tâches à effectuer pour un nouveau cluster global ou un nœud ajouté à un cluster global existant. Effectuez les procédures dans l’ordre dans lequel elles sont indiquées.

Tableau 3-1 Liste des tâches : établissement d'un nouveau cluster global

Méthode
Instructions
Utilisez l'une des méthodes suivantes pour établir un nouveau cluster global :
  • Utilisez l'utilitaire scinstall pour établir le cluster.
  • Utilisez un fichier de configuration XML pour établir le cluster.
  • Paramétrez un serveur d'installation JumpStart. Créez ensuite une archive flash du système installé. Enfin, utilisez l'option JumpStart scinstall pour installer l'archive flash sur chaque nœud et établir le cluster.
Assignez des votes de quorum et sortez le cluster du mode d'installation si cette opération n'a pas été déjà effectuée.
Validez la configuration du quorum.
(Facultatif) Modifiez le nom d'hôte privé d'un nœud.
Créez ou modifiez le fichier de configuration NTP, s'il n'est pas déjà configuré.
(Facultatif) Configurez IPsec pour sécuriser l'interconnexion privée.
Si vous utilisez un gestionnaire de volumes, installez le logiciel de gestion des volumes.
Créez des systèmes de fichiers du cluster ou des systèmes de fichiers locaux hautement disponibles selon le besoin.
(Facultatif) SPARC : configurez Sun Management Center pour contrôler le cluster.
Installez les applications tierces, enregistrez les types de ressources et configurez les groupes de ressources et les services de données.
Validez le cluster.
Conservez un enregistrement de base de la configuration finale du cluster.

Tableau 3-2 Liste des tâches : ajout d'un nœud à un cluster global existant

Méthode
Instructions
Utilisez la commande clsetup pour ajouter le nouveau nœud à la liste des nœuds autorisés du cluster. Si besoin est, configurez l'interconnexion de cluster et reconfigurez la plage d'adresses du réseau privé.
Reconfigurez l'interconnexion de cluster et la plage d'adresses de réseau privé pour prendre en compte le nœud ajouté, le cas échéant.
Utilisez l'une des méthodes suivantes pour ajouter un nœud à un cluster global existant :
  • Paramétrez un serveur d'installation JumpStart. Créez ensuite une archive flash du système installé. Enfin, utilisez l'option JumpStart scinstall pour installer l'archive flash sur chaque nœud à ajouter au cluster.
  • Configurez le logiciel Oracle Solaris Cluster sur le nouveau nœud à l'aide de l'utilitaire scinstall.
  • Configurez le logiciel Oracle Solaris Cluster sur le nouveau nœud d'un fichier de configuration XML.
Mettez à jour les informations de configuration de quorum.
Validez la configuration du quorum.
(Facultatif) Modifiez le nom d'hôte privé d'un nœud.
Modifiez la configuration NTP.
Si une architecture IPsec est configurée dans le cluster, configurez cette dernière sur le nœud ajouté.
Si vous utilisez un gestionnaire de volumes, installez le logiciel de gestion des volumes.
Créez des systèmes de fichiers du cluster ou des systèmes de fichiers locaux hautement disponibles selon le besoin.
(Facultatif) SPARC : si Sun Management Center est utilisé par le cluster, installez le logiciel Sun Management Center sur le nouveau nœud et configurez ce dernier afin de pouvoir le contrôler.
Installez les applications tierces, enregistrez les types de ressources et configurez les groupes de ressources et les services de données.
Validez le cluster.
Conservez un enregistrement de base de la configuration finale du cluster.

Configuration du logiciel Oracle Solaris Cluster sur tous les nœuds (scinstall)

Effectuez cette procédure à partir d'un nœud du cluster global pour configurer le logiciel Oracle Solaris Cluster sur tous les nœuds du cluster.


Remarque - Cette procédure utilise la forme interactive de la commande scinstall. Pour utiliser les formes non interactives de la commande scinstall, telles que celles utilisées lors du développement de scripts d'installation, reportez-vous à la page de manuel scinstall(1M).

Avant d'exécuter la commande scinstall, assurez-vous que les packages Oracle Solaris Cluster sont installés sur le nœud, soit manuellement, soit par le biais du mode silencieux du programme installer. Pour plus d'informations sur l'exécution du programme installer à partir d'un script d'installation, reportez-vous au Chapitre 5, Installing in Silent Mode du Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.


Avant de commencer

Effectuez les tâches suivantes :

Suivez ces directives pour utiliser l'utilitaire scinstall interactif dans cette procédure :

  1. Si vous avez désactivé la configuration à distance au cours de l'installation du logiciel Oracle Solaris Cluster, réactivez-la.

    Activez Accès au shell distant (rsh(1M)) ou shell sécurisé (ssh(1)) par le superutilisateur pour tous les nœuds de cluster.

  2. Si vous utilisez des commutateurs dans l'interconnexion privée de votre nouveau cluster, assurez-vous que le protocole NDP (Neighbor Discovery Protocol) est activé.

    Suivez les instructions de votre documentation concernant les commutateurs pour déterminer si le protocole NDP est activé et pour désactiver ce même protocole.

    Au cours de la configuration du cluster, le logiciel vérifie qu'il n'y a aucun trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé au moment où le trafic de l'interconnexion privée est vérifié, le logiciel supposera que l'interconnexion n'est pas privée et la configuration du cluster sera interrompue. Le protocole NDP doit donc être désactivé au cours de la création d'un cluster.

    Une fois le cluster créé, vous pouvez réactiver le protocole NDP sur les commutateurs d'interconnexion privée si vous souhaitez utiliser cette fonction.

  3. À partir d'un nœud du cluster, démarrez l'utilitaire scinstall.
    phys-schost# /usr/cluster/bin/scinstall
  4. Saisissez le numéro de l'option Create a New Cluster (Créer un nouveau cluster) ou Add a Cluster Node (Ajouter un nœud de cluster), puis appuyez sur la touche Entrée.
     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    Le menu New Cluster (Nouveau cluster) et Cluster Node (Nœud de cluster) s'affiche.

  5. Saisissez le numéro de l'option Create a New Cluster (Créer un nouveau cluster), puis appuyez sur la touche Entrée.

    Le menu Typical or Custom Mode (Mode Standard ou Personnalisé) apparaît.

  6. Saisissez le numéro de l'option appropriée pour effectuer une installation standard ou personnalisée, puis appuyez sur la touche Entrée.

    L'écran Create a New Cluster (Créer un nouveau cluster) s'affiche. Prenez connaissance des éléments requis, puis appuyez sur Ctrl+D pour continuer.

  7. Suivez les invites à l'écran pour répondre aux questions de la fiche de planification de la configuration.

    L'utilitaire scinstall installe et configure tous les nœuds de cluster, puis réinitialise le cluster. Le cluster est établi lorsque tous les nœuds ont été correctement initialisés dans le cluster. La sortie de l'installation de Oracle Solaris Cluster est consignée dans un fichier /var/cluster/logs/install/scinstall.log. N.

  8. Vérifiez au niveau de chaque nœud que les services multiutilisateurs Service Management Facility (SMF) sont en ligne.

    Si les services ne sont pas encore en ligne pour un nœud, attendez leur mise en ligne, puis passez à l'étape suivante.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. À partir d'un nœud, vérifiez que tous les nœuds ont été ajoutés au cluster.
    phys-schost# clnode status

    La sortie est similaire à l'exemple suivant.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

  10. (Facultatif) Activez la fonction de réinitialisation automatique du nœud.

    Cette fonction réinitialise automatiquement un nœud si tous les chemins de disque partagés et contrôlés échouent, à la condition qu'au moins un des disques soit accessible à partir d'un autre nœud du cluster.

    1. Activez la réinitialisation automatique.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Spécifie la propriété à définir.

      reboot_on_path_failure=enable

      Active la réinitialisation automatique de nœud si un échec se produit au niveau des chemins contrôlés de disque partagé.

    2. Vérifie que la réinitialisation automatique en cas d'échec de chemin de disque est activée.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  11. Si vous souhaitez utiliser Oracle Solaris Cluster HA pour NFS (HA pour NFS) sur un système de fichiers local hautement disponible, assurez-vous que le système de fichier en loopback (LOFS) est désactivé.

    Pour désactiver le système de fichiers loopback, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.

    exclude:lofs

    La modification du fichier /etc/system prend effet à la prochaine réinitialisation du système.


    Remarque - Le système de fichiers loopback ne peut pas être activé si vous utilisez HA pour NFS sur un système de fichiers local hautement disponible et si automountd est en cours d'exécution. Le système LOFS peut poser des problèmes de basculement pour HA pour NFS. Si vous choisissez d'ajouter HA pour NFS sur un système de fichiers local hautement disponible, vous devez modifier la configuration de l'une des façons suivantes.

    Cependant, si vous configurez des zones non globales dans votre cluster, vous devez activer le système de fichiers loopback sur tous les nœuds de cluster. Si HA pour NFS se trouve sur un système de fichiers local hautement disponible et doit coexister avec le système de fichiers loopback, utilisez l'une des autres solutions au lieu de désactiver le système de fichiers loopback.

    • Désactivez le système de fichiers loopback.

    • Désactivez le démon automountd.

    • Excluez du mappage de l'agent de montage automatique tous les fichiers faisant partie du système de fichiers local hautement disponible exporté par HA pour NFS. Ce choix vous permet de maintenir activés à la fois le système de fichiers loopback et le démon automountd.


    Pour plus d'informations sur le système de fichiers loopback, reportez-vous à la section The Loopback File System du System Administration Guide: Devices and File Systems.

Exemple 3-1 Configuration du logiciel Oracle Solaris Cluster sur tous les nœuds

L'exemple suivant illustre les messages de progression scinstall journalisés au fur et à mesure que scinstall effectue les tâches de configuration sur le cluster à deux nœuds, schost. Le cluster est installé à partir de phys-schost-1 à l’aide de l'utilitaire scinstall en mode standard. L'autre nœud de cluster est phys-schost-2. Les adaptateurs se nomment qfe2 et qfe3. La sélection automatique d'un périphérique de quorum est activée. Les deux nœuds utilisent la partition /globaldevices pour l'espace de noms des périphériques globaux.

  Installation and Configuration

    Log file - /var/cluster/logs/install/scinstall.log.24747

    Testing for "/globaldevices" on "phys-schost-1" … done
    Testing for "/globaldevices" on "phys-schost-2" … done
    Checking installation status … done

    The Sun Cluster software is already installed on "phys-schost-1".
    The Sun Cluster software is already installed on "phys-schost-2".
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:qfe2  switch1  phys-schost-2:qfe2
        phys-schost-1:qfe3  switch2  phys-schost-2:qfe3

    Completed discovery of the cluster transport configuration.

    Started cluster check on "phys-schost-1".
    Started cluster check on "phys-schost-2".

    cluster check completed with no errors or warnings for "phys-schost-1".
    cluster check completed with no errors or warnings for "phys-schost-2".

    Removing the downloaded files … done

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

Rebooting …

Erreurs fréquentes

Échec de configuration – Si un ou plusieurs nœuds ne peuvent rejoindre le cluster ou si de mauvaises informations de configuration ont été spécifiées, essayez d'abord d'exécuter à nouveau cette procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque nœud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels de Oracle Solaris Cluster. Relancez cette procédure.

Étapes suivantes

Si vous voulez configurer un périphérique de quorum dans votre cluster, reportez-vous à la section Configuration des périphériques de quorum.

Sinon, reportez-vous à la section Vérification de la configuration de quorum et du mode d'installation.

Configuration du logiciel Oracle Solaris Cluster sur tous les nœuds (XML)

Suivez cette procédure pour configurer un nouveau cluster global en utilisant un fichier XML de configuration de cluster. Le nouveau cluster peut être la copie d'un cluster existant exécutant le logiciel Oracle Solaris Cluster 3.3 5/11.

Cette procédure permet de configurer les composants de cluster suivants :

Avant de commencer

Effectuez les tâches suivantes :

  1. Assurez-vous que le logiciel Oracle Solaris Cluster 3.3 5/11 n'est pas déjà configuré sur chaque nœud potentiel du cluster.
    1. Connectez-vous en tant que superutilisateur sur un nœud potentiel que vous souhaitez configurer dans le nouveau cluster.
    2. Déterminez si le logiciel Oracle Solaris Cluster est déjà configuré sur le nœud potentiel.
      phys-schost# /usr/sbin/clinfo -n
      • Si la commande renvoie le message suivant, passez à l'étape c.
        clinfo: node is not configured as part of acluster: Operation not applicable

        Ce message indique que le logiciel Oracle Solaris Cluster n'est pas encore configuré sur le nœud potentiel.

      • Si la commande renvoie le numéro d'ID du nœud, n'effectuez pas cette procédure.

        Si un numéro d'ID est renvoyé, cela signifie que le logiciel Oracle Solaris Cluster est déjà configuré sur le nœud.

        Si le cluster exécute une ancienne version du logiciel Oracle Solaris Cluster et si vous souhaitez installer le logiciel Oracle Solaris Cluster 3.3 5/11, effectuez plutôt une mise à niveau selon la procédure décrite dans le Oracle Solaris Cluster Upgrade Guide.

    3. Répétez les étapes a et b sur les autres nœuds potentiels que vous souhaitez configurer dans le nouveau cluster.

      Si le logiciel Oracle Solaris Cluster n'est configuré sur aucun des autres nœuds potentiels du cluster, passez à l'étape 2.

  2. Si vous utilisez des commutateurs dans l'interconnexion privée de votre nouveau cluster, assurez-vous que le protocole NDP (Neighbor Discovery Protocol) est activé.

    Suivez les instructions de votre documentation concernant les commutateurs pour déterminer si le protocole NDP est activé et pour désactiver ce même protocole.

    Au cours de la configuration du cluster, le logiciel vérifie qu'il n'y a aucun trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé au moment où le trafic de l'interconnexion privée est vérifié, le logiciel supposera que l'interconnexion n'est pas privée et la configuration du cluster sera interrompue. Le protocole NDP doit donc être désactivé au cours de la création d'un cluster.

    Une fois le cluster créé, vous pouvez réactiver le protocole NDP sur les commutateurs d'interconnexion privée si vous souhaitez utiliser cette fonction.

  3. Si vous dupliquez un cluster existant exécutant le logiciel Oracle Solaris Cluster 3.3 5/11, utilisez un nœud de ce cluster pour créer un fichier XML de configuration en cluster.
    1. Connectez-vous en tant que superutilisateur sur un membre actif du cluster que vous souhaitez dupliquer.
    2. Exportez les informations de configuration du cluster existant vers un fichier.
      phys-schost# cluster export -o clconfigfile
      -o

      Spécifie la destination de la sortie.

      clconfigfile

      Nom du fichier XML de configuration en cluster. Le nom de fichier spécifié peut correspondre à un fichier existant ou un nouveau fichier que la commande créera.

      Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).

    3. Copiez le fichier de configuration vers le nœud potentiel à partir duquel vous souhaitez configurer le nouveau cluster.

      Vous pouvez stocker le fichier dans un répertoire accessible aux autres hôtes que vous allez configurer en tant que nœuds de cluster.

  4. Connectez-vous en tant que superutilisateur sur le nœud potentiel à partir duquel vous allez configurer le nouveau cluster.
  5. Modifiez le fichier XML de configuration en cluster selon le besoin.
    1. Ouvrez votre fichier XML de configuration en cluster en écriture.
      • Si vous dupliquez un cluster existant, ouvrez le fichier que vous avez créé avec la commande cluster export.
      • Si vous ne dupliquez pas un cluster existant, créez un nouveau fichier.

        Basez le fichier sur la hiérarchie d'éléments illustrée sur la page de manuel clconfiguration(5CL). Vous pouvez stocker le fichier dans un répertoire accessible aux autres hôtes que vous allez configurer en tant que nœuds de cluster.

    2. Modifiez les valeurs des éléments XML pour refléter la configuration en cluster que vous souhaitez créer.
      • Pour établir un cluster, les éléments suivants doivent avoir une valeur valide dans le fichier XML de configuration en cluster :

        • Nom du cluster

        • Nœuds de cluster

        • Transport intracluster

      • Le cluster est créé sur la supposition que la partition /globaldevices existe sur chaque nœud que vous configurez en tant que nœud de cluster. L'espace de noms des périphériques globaux est créé sur cette partition. Si vous avez besoin d'utiliser un autre nom de système de fichiers sur lequel créer les périphériques globaux, ajoutez la propriété suivante à l'élément <propertyList> pour chaque nœud ne disposant pas d'une partition nommée /globaldevices.

        …
          <nodeList>
            <node name="node" id="N">
              <propertyList>
        …
                <property name="globaldevfs" value="/filesystem-name">
        …
              </propertyList>
            </node>
        …

        Pour utiliser à la place un périphérique lofi pour l'espace de noms des périphériques globaux, définissez la valeur de la propriété globaldevfs sur lofi.

                <property name="globaldevfs" value="lofi">
      • Si vous modifiez les informations de configuration exportées depuis un cluster existant, certaines valeurs que vous devez modifier pour refléter le nouveau cluster (le nom des nœuds, par exemple) sont utilisées dans la définition de plus d'un objet de cluster.

      Reportez-vous à la page de manuel clconfiguration(5CL) pour plus d'informations concernant la structure et le contenu du fichier XML de configuration en cluster.

  6. Validez le fichier XML de configuration en cluster.
    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

    Pour plus d'informations, reportez-vous à la page de manuel xmllint(1).

  7. À partir du nœud potentiel qui contient le fichier XML de configuration en cluster, créez le cluster.
    phys-schost# cluster create -i clconfigfile
    -i clconfigfile

    Spécifie le nom du fichier XML de configuration en cluster à utiliser en tant que source de données en entrée.

  8. Vérifiez au niveau de chaque nœud que les services multiutilisateurs Service Management Facility (SMF) sont en ligne.

    Si les services ne sont pas encore en ligne pour un nœud, attendez leur mise en ligne, puis passez à l'étape suivante.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. À partir d'un nœud, vérifiez que tous les nœuds ont été ajoutés au cluster.
    phys-schost# clnode status

    La sortie est similaire à l'exemple suivant.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

  10. Installez les patchs nécessaires pour prendre en charge le logiciel Oracle Solaris Cluster si ce n'est déjà fait.

    Reportez-vous à la section Patchs et niveaux des microprogrammes requis du Notes de version d’Oracle Solaris Cluster 3.3 5/11 pour connaître l'emplacement des patchs et des instructions d'installation.

  11. Si vous souhaitez utiliser Oracle Solaris Cluster HA pour NFS (HA pour NFS) sur un système de fichiers local hautement disponible, assurez-vous que le système de fichier en loopback (LOFS) est désactivé.

    Pour désactiver le système de fichiers loopback, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.

    exclude:lofs

    La modification du fichier /etc/system prend effet à la prochaine réinitialisation du système.


    Remarque - Le système de fichiers loopback ne peut pas être activé si vous utilisez HA pour NFS sur un système de fichiers local hautement disponible et si automountd est en cours d'exécution. Le système LOFS peut poser des problèmes de basculement pour HA pour NFS. Si vous choisissez d'ajouter HA pour NFS sur un système de fichiers local hautement disponible, vous devez modifier la configuration de l'une des façons suivantes.

    Cependant, si vous configurez des zones non globales dans votre cluster, vous devez activer le système de fichiers loopback sur tous les nœuds de cluster. Si HA pour NFS se trouve sur un système de fichiers local hautement disponible et doit coexister avec le système de fichiers loopback, utilisez l'une des autres solutions au lieu de désactiver le système de fichiers loopback.

    • Désactivez le système de fichiers loopback.

    • Désactivez le démon automountd.

    • Excluez du mappage de l'agent de montage automatique tous les fichiers faisant partie du système de fichiers local hautement disponible exporté par HA pour NFS. Ce choix vous permet de maintenir activés à la fois le système de fichiers loopback et le démon automountd.


    Pour plus d'informations sur le système de fichiers loopback, reportez-vous à la section The Loopback File System du System Administration Guide: Devices and File Systems.

  12. Pour dupliquer les informations de quorum à partir d'un cluster existant, configurez le périphérique de quorum en utilisant le fichier XML de configuration en cluster.

    Si vous avez créé un cluster à deux nœuds, vous devez configurer un périphérique de quorum. Si vous avez choisi de ne pas utiliser le fichier XML de configuration en cluster pour créer un périphérique de quorum requis, reportez-vous à la section Configuration des périphériques de quorum.

    1. Si vous utilisez un serveur de quorum pour le périphérique de quorum, assurez-vous que le serveur de quorum est configuré et en cours d'exécution.

      Suivez les instructions de la section Installation et configuration du logiciel Serveur de quorum.

    2. Si vous utilisez un périphérique NAS pour le périphérique de quorum, assurez-vous que le périphérique NAS est configuré et opérationnel.
      1. Respectez les conditions requises pour l'utilisation d'un périphérique NAS en tant que périphérique de quorum.

        Reportez-vous à la section Oracle Solaris Cluster 3.3 With Network-Attached Storage Device Manual.

      2. Suivez les instructions de la documentation de votre périphérique pour configurer le périphérique NAS.
    3. Assurez-vous que les informations de configuration du quorum contenues dans le fichier XML de configuration en cluster correspondent à des valeurs valides pour le cluster que vous avez créé.
    4. Si vous avez apporté des modifications dans le fichier XML de configuration en cluster, validez le fichier.
      phys-schost# xmllint --valid --noout clconfigfile
    5. Configurez le périphérique de quorum.
      phys-schost# clquorum add -i clconfigfile devicename
      devicename

      Spécifie le nom du périphérique à configurer en tant que périphérique de quorum.

  13. Sortez le cluster du mode d'installation.
    phys-schost# clquorum reset
  14. Bloquez l'accès à la configuration en cluster aux machines qui ne sont pas des membres configurés du cluster.
    phys-schost# claccess deny-all
  15. (Facultatif) Activez la réinitialisation automatique des nœuds si tous les chemins de disque partagé échouent.
    1. Activez la réinitialisation automatique.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Spécifie la propriété à définir.

      reboot_on_path_failure=enable

      Active la réinitialisation automatique de nœud si un échec se produit au niveau des chemins contrôlés de disque partagé.

    2. Vérifie que la réinitialisation automatique en cas d'échec de chemin de disque est activée.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Exemple 3-2 Configuration du logiciel Oracle Solaris Cluster sur tous les nœuds par le biais d'un fichier XML

Dans l'exemple suivant, la configuration en cluster et la configuration du quorum sont dupliquées d'un cluster à deux nœuds existants vers un nouveau cluster à deux nœuds. Le nouveau cluster est installé avec le SE Solaris 10 et n'est pas configuré avec des zones non globales. La configuration en cluster est exportée à partir d'un nœud existant, phys-oldhost-1, vers le fichier XML de la configuration en cluster clusterconf.xml. Les noms de nœud du nouveau cluster sont phys-newhost-1 et phys-newhost-2. Le périphérique configuré en tant que périphérique de quorum dans le nouveau cluster est d3.

Le nom d'invite phys-newhost-N dans cet exemple indique que la commande est exécutée sur les deux nœuds de cluster.

phys-newhost-N# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
No errors are reported
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
Output shows that both nodes are online
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset

Erreurs fréquentes

Échec de configuration – Si un ou plusieurs nœuds ne peuvent rejoindre le cluster ou si de mauvaises informations de configuration ont été spécifiées, essayez d'abord d'exécuter à nouveau cette procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque nœud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels de Oracle Solaris Cluster. Relancez cette procédure.

Étapes suivantes

Reportez-vous à la section Vérification de la configuration de quorum et du mode d'installation.

Voir aussi

Une fois le cluster entièrement établi, vous pouvez dupliquer la configuration des autres composants de cluster à partir du cluster existant. Si ce n'est déjà fait, modifiez la valeur des éléments XML que vous souhaitez dupliquer pour refléter la configuration en cluster à laquelle vous ajoutez le composant. Par exemple, si vous dupliquez des groupes de ressources, assurez-vous que l'entrée <resourcegroupNodeList> contient des noms de nœud valides pour le nouveau cluster, et non le nom des nœuds du cluster que vous dupliquez, à moins que le nom des nœuds soit identique.

Pour dupliquer un composant de cluster, exécutez la sous-commande export de la commande orientée objet pour le composant de cluster que vous souhaitez dupliquer. Pour plus d'informations sur la syntaxe et les options de la commande, reportez-vous à la page de manuel de l'objet de cluster que vous souhaitez dupliquer. Le tableau suivant répertorie les composants de cluster que vous pouvez créer à partir d'un fichier XML de configuration en cluster une fois le cluster établi, et indique la page de manuel correspondant à la commande que vous utilisez pour dupliquer le composant.

Composant de cluster
Page de manuel
Instructions spécifiques
Groupes de périphériques : Solaris Volume Manager et Veritas Volume Manager
Pour Solaris Volume Manager, créez tout d'abord l'ensemble de disques que vous avez spécifié dans le fichier XML de configuration en cluster.

Pour VxVM, commencez par installer et configurer le logiciel VxVM, puis créez les groupes de disques que vous avez définis dans le fichier XML de configuration en cluster.

Ressources
Vous pouvez utiliser l'option -a des commandes clresource, clressharedaddress, ou clreslogicalhostname pour dupliquer également ce type de ressource et le groupe de ressources associé à la ressource que vous dupliquez.

Sinon, vous devez d'abord ajouter le type de ressource et le groupe de ressources au cluster avant d'ajouter la ressource.

Ressources d'adresses partagées
Ressources de noms d'hôtes logiques
Types de ressources
Groupes de ressources
Périphériques NAS
Vous devez d'abord configurer le périphérique NAS tel que décrit dans la documentation du périphérique.
Hôtes SNMP
La commande clsnmphost create -i requiert la spécification d'un fichier de mot de passe d'utilisateur avec l'option -f.
Utilisateurs SNMP
Seuils appliqués au contrôle des ressources système sur les objets de cluster

Installation de Solaris et Oracle Solaris Cluster (JumpStart)

Cette procédure décrit la procédure d’utilisation de la méthode d'installation JumpStart personnalisée scinstall(1M). Cette méthode installe à la fois le SE Solaris et le logiciel Oracle Solaris Cluster sur tous les nœuds du cluster global et établit le cluster. Vous pouvez également utiliser cette procédure pour ajouter de nouveaux nœuds à un cluster existant.

Avant de commencer

Effectuez les tâches suivantes :

Suivez ces directives pour utiliser l'utilitaire scinstall interactif dans cette procédure :

  1. Paramétrez votre serveur d'installation JumpStart.

    Assurez-vous que le serveur d'installation JumpStart respecte la configuration requise.

    • Le serveur d'installation se trouve sur le même sous-réseau que les nœuds de cluster, ou sur le serveur d'initialisation Solaris pour le sous-réseau que les nœuds de cluster utilisent.

    • Le serveur d'installation n'est pas un nœud de cluster.

    • Le serveur d'installation installe une version du SE Solaris pris en charge par le logiciel Oracle Solaris Cluster.

    • Un répertoire JumpStart personnalisé existe pour l'installation JumpStart du logiciel Oracle Solaris Cluster. Le répertoire jumpstart-dir doit respecter les conditions requises suivantes :

      • Contenir une copie de l'utilitaire check

      • Être exporté par NFS pour la lecture par le serveur JumpStart

    • Chaque nœud de cluster est configuré par un client d'installation JumpStart personnalisé utilisant le répertoire JumpStart personnalisé paramétré au cours de l'installation de Oracle Solaris Cluster.

    Suivez les instructions correspondant à votre plate-forme logicielle et à la version du système d'exploitation pour paramétrer le serveur d'installation JumpStart. Reportez-vous à la section Création d’un serveur de profils pour des systèmes en réseau du Guide d’installation de Solaris 10 10/09 : installations JumpStart personnalisées et avancées.

    Reportez-vous également aux pages de manuel setup_install_server(1M) et add_install_client(1M).

  2. Si vous installez un nouveau nœud sur un cluster existant, ajoutez le nœud à la liste des nœuds de clusters autorisés.
    1. Passez à un autre nœud de cluster actif et démarrez l'utilitaire clsetup.
    2. Choisissez l'utilitaire clsetup pour ajouter le nom du nouveau nœud à la liste des nœuds de cluster autorisés.

    Pour plus d'informations, reportez-vous à la section Ajout d’un nœud à la liste des nœuds autorisés du Guide d’administration système d’Oracle Solaris Cluster.

  3. Sur un nœud de cluster ou une machine de la même plate-forme de serveur, installez le SE Solaris et les patchs nécessaires, si ce n'est déjà fait.

    Si le logiciel Solaris est déjà installé sur le serveur, vous devez vous assurer que l'installation Solaris respecte les conditions requises pour le logiciel Oracle Solaris Cluster et tout autre logiciel que vous souhaitez installer sur le cluster. Reportez-vous à la section Installation du logiciel Solaris pour plus d'informations sur l'installation du logiciel Solaris en respectant la configuration requise par le logiciel Oracle Solaris Cluster.

    Suivez les procédures de la section Installation du logiciel Solaris.

  4. (Facultatif) SPARC : sur le système installé, installez le logiciel Sun Logical Domains (LDoms) et créez des domaines, le cas échéant.

    Suivez les procédures de la section SPARC : Installation du logiciel Sun Logical Domains et création de domaines.

  5. Sur le système installé, installez le logiciel Oracle Solaris Cluster et les patchs nécessaires, si ce n'est déjà fait.

    Suivez les procédures de la section Installation des logiciels de service de données et de structure Oracle Solaris Cluster.

    Reportez-vous à la section Patchs et niveaux des microprogrammes requis du Notes de version d’Oracle Solaris Cluster 3.3 5/11 pour connaître l'emplacement des patchs et des instructions d'installation.

  6. Activez le démarrage automatique à chaque initialisation du système du démon &CommonAgentContainer.
    machine# cacaoadm enable
  7. Sur le système installé, mettez à jour le fichier /etc/inet/hosts en indiquant toutes les adresses IP publiques utilisées dans le cluster.

    Effectuez cette étape, que vous utilisiez un service de nommage ou non. Reportez-vous à la section Adresses IP de réseau public pour connaître la liste des composants Oracle Solaris Cluster dont vous devez ajouter l'adresse IP.

  8. Sur le système installé, réinitialisez la Console Web Java Oracle à son état non configuré d'origine.

    La commande suivante supprime les informations de configuration de la console Web. Certaines de ces informations de configuration sont spécifiques au système installé. Vous devez supprimer ces informations avant de créer l'archive flash. Sinon, les informations de configuration transférées au nœud de cluster risquent d'empêcher la console Web de démarrer ou d'interagir correctement avec le nœud de cluster.

    # /usr/share/webconsole/private/bin/wcremove -i console

    Après avoir installé la console Web non configurée sur le nœud du cluster et démarré la console Web pour la première fois, la console Web s'exécute automatiquement dans sa configuration initiale et utilise les informations du nœud de cluster.

    Pour plus d'informations sur la commande wcremove, reportez-vous à la section Oracle Java Web Console User Identity du System Administration Guide: Basic Administration.

  9. Créez l'archive flash du système installé.

    Suivez les procédures décrites au Chapitre 3, Création d’archives Solaris Flash – Tâches du Guide d’installation de Solaris 10 10/09 : Archives Solaris Flash - Création et installation.

    machine# flarcreate -n name archive
    -n name

    Nom à donner à l'archive flash.

    archive

    Nom de fichier à donner à l'archive flash, avec le chemin complet. Par convention, le nom de fichier termine en .flar.

  10. Assurez-vous que l'archive flash est exportée par NFS pour lecture par le serveur d'installation JumpStart.

    Pour plus d'informations sur le partage automatique de fichiers, reportez-vous au Chapitre 4, Gestion des systèmes de fichiers NFS (présentation) du Guide d’administration système : Services réseau.

    Reportez-vous également aux pages de manuel share(1M) et dfstab(4).

  11. Connectez-vous en tant que superutilisateur sur le serveur d'installation JumpStart.
  12. Démarrez l'utilitaire scinstall(1M) à partir du serveur d'installation JumpStart.

    Dans le chemin du support, remplacez arch par sparc ou x86, et remplacez ver par 10 pour Solaris 10.

    installserver# cd /cdrom/cdrom0Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    
    installserver# ./scinstall

    Le menu principal scinstall s'affiche.

  13. Sélectionnez l'option de menu Configurer un cluster à relancer à partir de ce serveur d'installation.

    Cette option est utilisée pour configurer des scripts de fin JumpStart personnalisés. JumpStart utilise ces scripts de fin pour installer le logiciel Oracle Solaris Cluster.

     *** Main Menu ***
     
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node 
    
          * ?) Help with menu options
          * q) Quit
     
        Option:  2
  14. Suivez les invites à l'écran pour répondre aux questions de la fiche de planification de la configuration.

    La commande scinstall stocke vos informations de configuration et copie le fichier autoscinstall.class par défaut dans le répertoire /jumpstart-dir/autoscinstall.d/3.2/. Ce fichier est similaire à l'exemple suivant.

    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add
  15. Si nécessaire, modifiez le fichier autoscinstall.class afin que JumpStart installe l'archive flash.
    1. Apportez les modifications nécessaires aux entrées afin qu'elles soient conformes aux choix de configuration que vous avez faits lors de l'installation du SE Solaris sur la machine de l'archive flash ou lors de l'exécution de l'utilitaire scinstall.

      Par exemple, si vous avez assigné la tranche 4 pour le système de fichiers des périphériques globaux et spécifié à l'utilitaire scinstall que le nom du système de fichiers est /gdevs, vous devez modifier l'entrée /globaldevices du fichier autoscinstall.class de la façon suivante :

      filesys         rootdisk.s4 512  /gdevs
    2. Modifiez les entrées suivantes dans le fichier autoscinstall.class.
      Entrée existante à remplacer
      Nouvelle entrée à ajouter
      install_type
      initial_install
      install_type
      flash_install
      system_type
      standalone
      archive_location
      retrieval_type location

      Reportez-vous au mot-clé archive_location de la section Mot-clé archive_location du Guide d’installation de Solaris 10 10/09 : installations JumpStart personnalisées et avancées pour plus d'informations sur les valeurs possibles des entrées retrieval_type et location lorsqu'elles sont utilisées avec le mot-clé archive_location.

    3. Supprimez toutes les entrées qui entraîneraient l'installation d'un package spécifique, entre autres les entrées suivantes :
      cluster         SUNWCuser        add
      package         SUNWman          add
    4. Pour utiliser un périphérique lofi pour l'espace de noms des périphériques globaux, supprimez l'entrée filesys pour la partition /globaldevices.
    5. Si votre configuration requiert des logiciels Solaris supplémentaires, modifiez le fichier autoscinstall.class en conséquence.

      Le fichier autoscinstall.class installe le groupe de logiciels Solaris pour utilisateur final (SUNWCuser).

    6. Si vous installez le groupe de logiciels Solaris pour utilisateur final (SUNWCuser), ajoutez au fichier autoscinstall.class les packages logiciels Solaris supplémentaires dont vous avez besoin.

      Le tableau suivant répertorie les packages Solaris requis pour la prise en charge de certaines fonctions de Oracle Solaris Cluster. Ces packages ne sont pas inclus dans le groupe de logiciels Solaris pour utilisateur final. Pour plus d'informations, reportez-vous à la section Éléments à prendre en compte concernant le groupe de logiciels Oracle Solaris.


      Fonction
      Packages logiciels Solaris obligatoires
      scsnapshot
      SUNWp15u SUNWp15v SUNWp15p
      Oracle Solaris Cluster Manager
      SUNWapchr SUNWapchu

    Vous pouvez modifier le fichier class par défaut de l'une des façons suivantes :

    • Modifiez directement le fichier autoscinstall.class. Ces changements s'appliquent à tous les nœuds de tous les clusters utilisant ce répertoire JumpStart personnalisé.

    • Mettez à jour le fichier rules pour pointer vers d'autres profils, puis exécutez l'utilitaire check pour valider le fichier rules.

    Tant que le profil d'installation du SE Solaris respecte les conditions minimales d'allocation du système de fichiers Oracle Solaris Cluster, le logiciel Oracle Solaris Cluster n'applique aucune autre restriction concernant les modifications apportées au profil d'installation. Reportez-vous à la section Partitions de disque système pour connaître les directives de partitionnement et la configuration requise pour la prise en charge du logiciel Oracle Solaris Cluster.

    Pour plus d'informations concernant les profils JumpStart, reportez-vous au Chapitre 3, Préparation d’une installation JumpStart personnalisée – Tâches du Guide d’installation de Solaris 10 10/09 : installations JumpStart personnalisées et avancées.

  16. Pour effectuer d'autres tâches de post-installation, configurez votre propre script finish.

    Votre propre script de fin s'exécute après le script de fin standard installé par la commande scinstall. Pour plus d'informations sur la création d'un script de fin JumpStart, reportez-vous au Chapitre 3, Préparation d’une installation JumpStart personnalisée – Tâches du Guide d’installation de Solaris 10 10/09 : installations JumpStart personnalisées et avancées.

    1. Assurez-vous que les packages Solaris de dépendance seront installés par le fichier class par défaut.

      Reportez-vous à l'Étape 15.

    2. Nommez votre script de fin finish.
    3. Apportez les modifications nécessaires concernant les tâches de post-installation que le script finish doit effectuer.
    4. Copiez votre script finish dans chaque répertoire jumpstart-dir/autoscinstall.d/nodes/node.

      Créez un répertoire node pour chaque nœud du cluster. Ou utilisez cette convention de nommage pour créer des liens symboliques vers un script finish partagé.

  17. Quittez le serveur d'installation JumpStart.
  18. Si vous utilisez des commutateurs dans l'interconnexion privée de votre nouveau cluster, assurez-vous que le protocole NDP (Neighbor Discovery Protocol) est activé.

    Suivez les instructions de votre documentation concernant les commutateurs pour déterminer si le protocole NDP est activé et pour désactiver ce même protocole.

    Au cours de la configuration du cluster, le logiciel vérifie qu'il n'y a aucun trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé au moment où le trafic de l'interconnexion privée est vérifié, le logiciel supposera que l'interconnexion n'est pas privée et la configuration du cluster sera interrompue. Le protocole NDP doit donc être désactivé au cours de la création d'un cluster.

    Une fois le cluster créé, vous pouvez réactiver le protocole NDP sur les commutateurs d'interconnexion privée si vous souhaitez utiliser cette fonction.

  19. Si vous utilisez une console d'administration de cluster, ouvrez un écran de console pour chaque nœud du cluster.
    • Si le logiciel Cluster Control Panel (CCP) est installé et configuré sur votre console d'administration, utilisez l'utilitaire cconsole(1M) pour afficher les écrans de console individuels.

      En tant que superutilisateur, utilisez les commandes suivantes pour démarrer l'utilitaire cconsole :

      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

      L'utilitaire cconsole ouvre également une fenêtre principale à partir de laquelle vous pouvez envoyer vos données en entrée à toutes les fenêtres de console individuelles en même temps.

    • Si vous n'utilisez pas l'utilitaire cconsole, connectez-vous individuellement aux consoles de chaque nœud.
  20. Arrêtez chaque nœud.
    phys-schost# shutdown -g0 -y -i0
  21. Initialisez chaque nœud afin de lancer l'installation JumpStart.
    • Sur les systèmes SPARC, exécutez la commande suivante :
      ok boot net - install

      Remarque - Entourez le tiret (-) dans la commande par un espace de chaque côté.


    • Sur les systèmes x86, effectuez les actions suivantes :
      1. Appuyez sur n'importe quelle touche pour commencer la séquence d'initialisation.
        Press any key to reboot.
        keystroke
      2. Dès que l'écran d'information du BIOS s'affiche, appuyez immédiatement sur Esc+2 ou sur la touche F2.

        Une fois la séquence d'initialisation terminée, l'écran de l'utilitaire de paramétrage du BIOS s'affiche.

      3. Dans la barre de menu de l'utilitaire de paramétrage du BIOS, allez vers l'élément de menu Boot (Initialiser).

        La liste des périphériques d'initialisation s'affiche.

      4. Sélectionnez l'IBA répertorié connecté au même réseau que le serveur d'installation PXE JumpStart et déplacez-le en haut de l'ordre d'initialisation.

        Le numéro le plus petit situé à droite des choix d'initialisation IBA correspond au numéro de port Ethernet le plus petit. Le numéro le plus grand situé à droite des choix d'initialisation IBA correspond au numéro de port Ethernet le plus grand.

      5. Enregistrez vos modifications et quittez le BIOS.

        La séquence d'initialisation reprend. Après un temps de traitement, le menu GRUB s'affiche.

      6. Sélectionnez immédiatement l'entrée Solaris JumpStart, puis appuyez sur Entrée.

        Remarque - Si l'entrée Solaris JumpStart est la seule entrée répertoriée, vous avez également la possibilité d'attendre que l'écran de sélection se ferme de lui-même. Si vous ne répondez pas dans les 30 secondes, le système continue automatiquement la séquence d'initialisation.


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris_10 Jumpstart                                                    |
        |                                                                         |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Après un temps de traitement, le menu du type d'installation s'affiche.

      7. Dans le menu du type d'installation, saisissez immédiatement le numéro de menu correspondant à Custom JumpStart (Installation JumpStart personnalisée).

        Remarque - Si vous ne saisissez pas le numéro de l'option dans un délai de 30 secondes, le système commence automatiquement l'installation interactive de Solaris.


              Select the type of installation you want to perform:
        
                 1 Solaris Interactive
                 2 Custom JumpStart
                 3 Solaris Interactive Text (Desktop session)
                 4 Solaris Interactive Text (Console session)
                 5 Apply driver updates
                 6 Single user shell
        
                 Enter the number of your choice.
        2

        JumpStart installe le SE Solaris et le logiciel Oracle Solaris Cluster sur chaque nœud. Une fois l'installation terminée, chaque nœud est installé en tant que nouveau nœud du cluster. La sortie de l'installation de Oracle Solaris Cluster est consignée dans un fichier /var/cluster/logs/install/scinstall.log. N.

      8. Lorsque l'écran du BIOS s'affiche de nouveau, appuyez immédiatement sur Esc+2 ou sur la touche F2.

        Remarque - Si vous n'interrompez pas le BIOS à ce stade, vous êtes renvoyé automatiquement au menu du type d'installation. Si vous n'effectuez aucune saisie dans un délai de 30 secondes, le système lance automatiquement une installation avec interaction.


        Après un temps de traitement, l'utilitaire de paramétrage du BIOS s'affiche.

      9. Dans la barre de menu, sélectionnez le menu Boot (Initialisation)

        La liste des périphériques d'initialisation s'affiche.

      10. Sélectionnez l'entrée Hard Drive (Disque dur) et replacez-la en haut de l'ordre d'initialisation.
      11. Enregistrez vos modifications et quittez le BIOS.

        La séquence d'initialisation reprend. Aucune interaction supplémentaire avec le menu GRUB n'est nécessaire pour terminer l'initialisation en mode cluster.

  22. Vérifiez au niveau de chaque nœud que les services multiutilisateurs Service Management Facility (SMF) sont en ligne.

    Si les services ne sont pas encore en ligne pour un nœud, attendez leur mise en ligne, puis passez à l'étape suivante.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  23. Si vous installez un nouveau nœud dans un cluster existant, créez des points de montage sur le nouveau nœud pour tous les systèmes de fichiers du cluster existants.
    1. À partir d'un autre nœud actif du cluster, affichez le nom des systèmes de fichiers du cluster.
      phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
    2. Sur le nœud que vous avez ajouté au cluster, créez un point de montage pour chaque système de fichiers du cluster.
      phys-schost-new# mkdir -p mountpoint

      Par exemple, si le système de fichiers est renvoyé par la commande de montage est /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le nœud ajouté au cluster.


      Remarque - Les points de montage deviennent actifs après la réinitialisation du cluster au cours de l'Étape 28.


    3. Si Veritas Volume Manager (VxVM) est installé sur un nœud faisant déjà partie du cluster, affichez le nombre vxio sur chaque nœud sur lequel VxVM est installé.
      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
      • Assurez-vous que le même nombre vxio est utilisé sur chaque nœud sur lequel est installé VxVM.

      • Assurez-vous que le nombre vxio est disponible pour utilisation sur chaque nœud sur lequel VxVM n'est pas installé.

      • Si le nombre vxio est déjà utilisé sur un nœud sur lequel VxVM n'est pas installé, libérez le nombre sur ce nœud. Modifiez l'entrée /etc/name_to_major pour utiliser un nombre différent.

  24. (Facultatif) Pour utiliser la reconfiguration dynamique sur les serveurs Sun Enterprise 10000, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.
    set kernel_cage_enable=1

    Cette entrée sera effective à la prochaine réinitialisation du système. Le Guide d’administration système d’Oracle Solaris Cluster présente les procédures permettant d’exécuter des tâches de reconfiguration dynamique dans une configuration Oracle Solaris Cluster. Pour plus d’informations sur la reconfiguration dynamique, consultez la documentation du serveur.

  25. Si vous souhaitez utiliser Oracle Solaris Cluster HA pour NFS (HA pour NFS) sur un système de fichiers local hautement disponible, assurez-vous que le système de fichier en loopback (LOFS) est désactivé.

    Pour désactiver le système de fichiers loopback, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.

    exclude:lofs

    La modification du fichier /etc/system prend effet à la prochaine réinitialisation du système.


    Remarque - Le système de fichiers loopback ne peut pas être activé si vous utilisez HA pour NFS sur un système de fichiers local hautement disponible et si automountd est en cours d'exécution. Le système LOFS peut poser des problèmes de basculement pour HA pour NFS. Si vous choisissez d'ajouter HA pour NFS sur un système de fichiers local hautement disponible, vous devez modifier la configuration de l'une des façons suivantes.

    Cependant, si vous configurez des zones non globales dans votre cluster, vous devez activer le système de fichiers loopback sur tous les nœuds de cluster. Si HA pour NFS se trouve sur un système de fichiers local hautement disponible et doit coexister avec le système de fichiers loopback, utilisez l'une des autres solutions au lieu de désactiver le système de fichiers loopback.

    • Désactivez le système de fichiers loopback.

    • Désactivez le démon automountd.

    • Excluez du mappage de l'agent de montage automatique tous les fichiers faisant partie du système de fichiers local hautement disponible exporté par HA pour NFS. Ce choix vous permet de maintenir activés à la fois le système de fichiers loopback et le démon automountd.


    Pour plus d'informations sur le système de fichiers loopback, reportez-vous à la section The Loopback File System du System Administration Guide: Devices and File Systems.

  26. Si vous utilisez l'un des adaptateurs suivants pour l'interconnexion de cluster, annulez le commentaire de l'entrée correspondante dans le fichier /etc/system de chaque nœud.
    Adaptateur
    Entrée
    ipge
    set ipge:ipge_taskq_disable=1
    ixge
    set ixge:ixge_taskq_disable=1

    Cette entrée sera effective à la prochaine réinitialisation du système.

  27. x86 : définissez le fichier d'initialisation par défaut.

    Paramétrer cette valeur vous permet de réinitialiser le nœud s’il vous est impossible d’accéder à une invite de connexion.

    grub edit> kernel /platform/i86pc/multiboot kmdb
  28. Si vous effectuez une tâche requérant la réinitialisation du cluster, suivez ces étapes pour réinitialiser le cluster.

    Voici une liste non exhaustive des tâches requérant une réinitialisation :

    • Ajout d'un nouveau nœud à un cluster existant

    • Installation de patchs requérant la réinitialisation du nœud ou du cluster

    • Modifications de configuration requérant une réinitialisation pour devenir actives

    1. Connectez-vous à un nœud en tant que superutilisateur.
    2. Arrêtez le cluster.
      phys-schost-1# cluster shutdown -y -g0 clustername

      Remarque - Ne réinitialisez pas le nœud installé en premier dans le cluster tant que le cluster n'est pas arrêté. Tant que le mode d'installation du cluster est actif, seul le nœud installé en premier (celui qui a établi le cluster) dispose d'un vote de quorum. Dans un cluster établi encore en mode d'installation : si le cluster n'est pas arrêté avant la réinitialisation du premier nœud, les autres nœuds du cluster ne pourront pas obtenir le quorum. Le cluster entier est alors arrêté.

      Les nœuds du cluster restent en mode d'installation jusqu'à la première exécution de la commande clsetup. Cette commande est exécutée au cours de la procédure Configuration des périphériques de quorum.


    3. Réinitialisez chaque nœud du cluster.
      • Sur les systèmes SPARC, exécutez la commande suivante :
        ok boot
      • Sur les systèmes x86, exécutez la commande suivante :

        Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Solaris appropriée, puis appuyez sur Entrée. Le menu GRUB s'affiche comme suit :

        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Booting an x86 Based System by Using GRUB (Task Map) du System Administration Guide: Basic Administration.

    L'utilitaire scinstall installe et configure tous les nœuds de cluster, puis réinitialise le cluster. Le cluster est établi lorsque tous les nœuds ont été correctement initialisés dans le cluster. La sortie de l'installation de Oracle Solaris Cluster est consignée dans un fichier /var/cluster/logs/install/scinstall.log. N.

  29. (Facultatif) Si vous n'avez pas effectué l'Étape 28 pour réinitialiser les nœuds, démarrez manuellement le serveur Web de la Console Web Java Oracle sur chaque nœud.
    phys-schost# smcwebserver start

    Pour plus d'informations, reportez-vous à la page de manuel smcwebserver(1M).

  30. À partir d'un nœud, vérifiez que tous les nœuds ont été ajoutés au cluster.
    phys-schost# clnode status

    La sortie est similaire à l'exemple suivant.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

  31. (Facultatif) Sur chaque nœud, activez la réinitialisation automatique des nœuds si tous les chemins de disque partagé échouent.
    1. Activez la réinitialisation automatique.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Spécifie la propriété à définir.

      reboot_on_path_failure=enable

      Active la réinitialisation automatique de nœud si un échec se produit au niveau des chemins contrôlés de disque partagé.

    2. Vérifie que la réinitialisation automatique en cas d'échec de chemin de disque est activée.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Étapes suivantes

Si vous avez ajouté un nœud au cluster à deux nœuds, reportez-vous à la section Mise à jour des périphériques de quorum après l'ajout d'un noeligud au cluster global.

Sinon, reportez-vous à la procédure appropriée :

Erreurs fréquentes

Option scinstall désactivée – Si l'option JumpStart de la commande scinstall n'est pas précédée d'un astérisque, l'option est désactivée. Cette condition indique que l'installation JumpStart n'est pas terminée ou qu'une erreur s'est produite. Pour remédier à ce problème, arrêtez tout d'abord l'utilitaire scinstall. Répétez la procédure de l'Étape 1 à l'Étape 16 pour corriger l'installation JumpStart, puis redémarrez l'utilitaire scinstall.

Préparation du cluster pour les nœuds supplémentaires du cluster global

Suivez cette procédure pour les nœuds existants du cluster global afin de préparer le cluster à l'ajout de nouveaux nœuds.

Avant de commencer

Effectuez les tâches suivantes :

  1. Si vous utilisez le panneau de contrôle du cluster, mettez à jour les fichiers de configuration de la console d'administration.
    1. Ajoutez le nom du nœud que vous ajoutez à l'entrée de cluster du fichier /etc/clusters.
    2. Ajoutez dans les fichiers /etc/serialports une entrée contenant le nom du nouveau nœud, le nom d'hôte du périphérique d'accès à la console du nœud et le numéro de port.
  2. Ajoutez le nom du nouveau nœud à la liste des nœuds autorisés du cluster.
    1. Connectez-vous à un nœud en tant que superutilisateur.
    2. Lancez l'utilitaire clsetup.
      phys-schost# clsetup

      Le menu principal s'affiche.

    3. Choisissez l'option de menu Nouveaux nœuds.
    4. Choisissez l'option de menu Spécifier une machine pouvant s'auto-installer sur le cluster.
    5. Suivez les instructions des invites à l'écran pour ajouter le nom du nœud à la liste des machines reconnues.

      L'utilitaire clsetup affiche le message Command completed successfully si la tâche s'exécute sans erreur.

    6. Sortez de l'utilitaire clsetup.
  3. Si vous ajoutez un nœud à un cluster à nœud unique, affichez la configuration de l'interconnexion pour vous assurer que deux interconnexions de cluster existent déjà.
    phys-schost# clinterconnect show

    Pour pouvoir ajouter un nœud, vous devez disposez d'au moins deux câbles ou deux adaptateurs configurés.

    • Si la sortie affiche des informations de configuration pour deux câbles ou deux adaptateurs, passez à l'Étape 4.
    • Si la sortie n'affiche aucune information de configuration pour les câbles ou les adaptateurs ou affiche des informations de configuration uniquement pour un câble ou un adaptateur, configurez de nouvelles interconnexions de cluster.
      1. À partir d'un nœud, lancez l'utilitaire clsetup.
        phys-schost# clsetup
      2. Sélectionnez l'option de menu Interconnexion de clusters.
      3. Sélectionnez l'option de menu Ajouter un câble de transport.

        Suivez les instructions pour spécifier le nom du nœud à ajouter au cluster et le nom de l'adaptateur de transport et préciser si vous souhaitez utiliser un commutateur de transport ou non.

      4. Si besoin est, répétez l'Étape c pour configurer une seconde interconnexion de cluster.
      5. Une fois la configuration terminée, quittez l'utilitaire clsetup.
      6. Vérifiez que le cluster dispose à présent de deux interconnexions de cluster configurées.
        phys-schost# clinterconnect show

        La sortie de la commande devrait à présent afficher les informations de configuration d'au moins deux interconnexions de cluster.

  4. Assurez-vous que la configuration du réseau privé peut prendre en charge les nœuds et les réseaux privés que vous ajoutez.
    1. Affichez le nombre maximal de nœuds et de réseaux privés et les clusters de zones pris en charge par la configuration du réseau privé actuel.
      phys-schost# cluster show-netprops

      Vous obtenez une sortie similaire à ce qui suit :

      === Private Network ===                        
      
      private_netaddr:                                172.16.0.0
        private_netmask:                                255.255.240.0
        max_nodes:                                      64
        max_privatenets:                                10
        max_zoneclusters:                               12
    2. Déterminez si la configuration actuelle du réseau privé peut prendre en charge les nœuds supplémentaires, y compris les zones non globales et les réseaux privés.

Étapes suivantes

Configurez le logiciel Oracle Solaris Cluster sur tous les nouveaux nœuds du cluster. Reportez-vous à la section Configuration du logiciel Oracle Solaris Cluster sur les noeliguds supplémentaires du cluster global (scinstall) ou Configuration du logiciel Oracle Solaris Cluster sur les noeliguds supplémentaires du cluster global (XML).

Modification de la configuration du réseau privé lors de l'ajout de nœuds ou de réseaux privés

Effectuez cette tâche pour modifier la plage des adresses IP privées du cluster global afin de pallier une éventuelle augmentation dans un ou plusieurs des composants de cluster suivants :

Vous pouvez également utiliser cette procédure pour diminuer la plage des adresses IP privées.


Remarque - Cette procédure nécessite l'arrêt complet du cluster. Si vous avez besoin de modifier uniquement le masque de réseau, par exemple pour étendre la prise en charge de clusters de zones, ne suivez pas cette procédure. À la place, exécutez la commande suivante à partir d'un nœud du cluster global exécuté en mode cluster, afin de spécifier le nombre attendu de clusters de zones :

phys-schost# cluster set-netprops num_zoneclusters=N

Cette commande ne requiert pas l'arrêt du cluster.


Avant de commencer

Assurez-vous que Accès au shell distant (rsh(1M)) ou shell sécurisé (ssh(1)) par le superutilisateur est activé pour tous les nœuds de cluster.

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster.
  2. À partir d'un nœud, lancez l'utilitaire clsetup.
    # clsetup

    Le menu principal clsetup s'affiche.

  3. Mettez hors ligne chaque groupe de ressources.

    Si le nœud contient des zones non globales, tous les groupes de ressources de ces zones sont également mis hors ligne.

    1. Saisissez le nombre correspondant à l'option pour les groupes de ressources, puis appuyez sur la touche Entrée.

      Le menu Groupe de ressources s'affiche.

    2. Saisissez le numéro correspondant à l'option permettant de mettre en ligne ou hors ligne un groupe de ressources ou de basculer d'un groupe de ressources à un autre, puis appuyez sur la touche Entrée.
    3. Suivez les invites à l'écran pour mettre hors ligne tous les groupes de ressources et placez-les en mode sans gestion.
    4. Lorsque tous les groupes de ressources sont hors ligne, tapez q pour revenir au menu Groupe de ressources.
  4. Désactivez toutes les ressources du cluster.
    1. Saisissez le nombre correspondant à l'option d'activation/de désactivation d'une ressource, puis appuyez sur la touche Entrée.
    2. Choisissez la ressource à désactiver, puis suivez les instructions des invites.
    3. Répétez l'étape précédente pour chaque ressource à désactiver.
    4. Une fois toutes les ressources désactivées, tapez q pour revenir au menu Groupe de ressources.
  5. Sortez de l'utilitaire clsetup.
  6. Vérifiez que toutes les ressources de tous les nœuds sont Offline et que tous les groupes de ressources sont à l'état Unmanaged.
    # cluster status -t resource,resourcegroup
    -t

    Limite les données en sortie à l'objet de cluster spécifié.

    resource

    Définit les ressources.

    resourcegroup

    Définit les groupes de ressources.

  7. Arrêtez le cluster à partir d'un nœud.
    # cluster shutdown -g0 -y
    -g

    Définit le temps d'attente en secondes.

    -y

    Bloque l'affichage de l'invite vous demandant de confirmer l'arrêt.

  8. Initialisez chaque nœud en mode non cluster.
    • Sur les systèmes SPARC, exécutez la commande suivante :
      ok boot -x
    • Sur les systèmes x86, exécutez les commandes suivantes :
      1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée et saisissez e pour modifier les commandes.

        Le menu GRUB s'affiche comme suit :

        GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
        +----------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                               | 
        | Solaris failsafe                                                     |
        |                                                                      |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Booting an x86 Based System by Using GRUB (Task Map) du System Administration Guide: Basic Administration.

      2. Dans l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et tapez e pour modifier l'entrée.

        L'écran des paramètres d'initialisation GRUB est similaire à l'écran suivant :

        GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       | 
        | kernel /platform/i86pc/multiboot                                     | 
        | module /platform/i86pc/boot_archive                                  | 
        |+----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.
      3. Ajoutez -x à la commande pour que le système se réinitialise en mode non cluster.
        [ Minimal BASH-like line editing is supported. For the first word, TAB
        lists possible command completions. Anywhere else TAB lists the possible
        completions of a device/filename. ESC at any time exits. ]
        
        grub edit> kernel /platform/i86pc/multiboot -x
      4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

        L'écran affiche la commande modifiée.

        GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot -x                                  |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.-
      5. Saisissez b pour initialiser le nœud en mode non cluster.

        Remarque - Le changement apporté à la commande du paramètre d'initialisation du noyau s'annule à la réinitialisation du système. À la prochaine réinitialisation du nœud, celui-ci entrera en mode cluster. Pour une initialisation en mode non cluster, effectuez de nouveau ces étapes pour ajouter de nouveau l'option -x à la commande du paramètre d'initialisation du noyau.


  9. À partir d'un nœud, démarrez l'utilitaire clsetup.

    Si vous exécutez l'utilitaire clsetup en mode non-cluster, il affiche le menu principal relatif aux opérations correspondant à ce mode.

  10. Tapez le numéro correspondant à l'option Change IP Address Range (Modifier la plage d'adresses IP) et appuyez sur la touche Entrée.

    L'utilitaire clsetup affiche la configuration de réseau privé en cours, puis vous demande si vous souhaitez la modifier.

  11. Pour modifier l'adresse IP de réseau privé ou la plage d'adresses IP, saisissez yes (oui) et appuyez sur la touche Entrée.

    L'utilitaire clsetup affiche l'adresse IP de réseau privé par défaut, 172.16.0.0, et vous demande si vous l'acceptez.

  12. Modifiez ou acceptez l'adresse IP de réseau privé.
    • Pour l'accepter et passer à la modification de la plage d'adresses IP, saisissez yes, puis appuyez sur la touche Entrée.

      L'utilitaire clsetup vous demande si vous acceptez le masque de réseau par défaut. Passez à l'étape suivante pour saisir votre réponse.

    • Pour modifier l'adresse IP de réseau privé par défaut, effectuez les sous-étapes suivantes.
      1. Saisissez no (non) lorsque l'utilitaire clsetup vous demande si vous acceptez l'adresse par défaut, puis appuyez sur la touche Entrée.

        L'utilitaire clsetup vous invite à saisir la nouvelle adresse IP de réseau privé.

      2. Tapez la nouvelle adresse IP, puis appuyez sur la touche Entrée.

        L'utilitaire clsetup affiche le masque de réseau par défaut, puis vous demande si vous l'acceptez.

  13. Modifiez ou acceptez la plage d'adresses IP de réseau privé par défaut.

    Le masque de réseau par défaut est 255.255.240.0. Cette plage d'adresses IP par défaut prend en charge jusqu'à 64 nœuds, 12 clusters de zones et 10 réseaux privés dans le cluster.

    • Pour accepter la plage d'adresses IP par défaut, saisissez yes, puis appuyez sur la touche Entrée.

      Passez ensuite à l'étape suivante.

    • Pour modifier la plage d'adresses IP, effectuez les sous-étapes suivantes.
      1. Saisissez no lorsque l'utilitaire clsetup vous demande si vous acceptez la plage d'adresses par défaut, puis appuyez sur la touche Entrée.

        Si vous refusez le masque de réseau par défaut, l'utilitaire clsetup vous invite à indiquer le nombre de nœuds, de réseaux privés et de clusters de zones que vous prévoyez de configurer dans le cluster.

      2. Entrez le nombre de nœuds, de réseaux privés et de clusters de zones que vous prévoyez de configurer dans le cluster.

        En fonction des nombres saisis, l'utilitaire clsetup propose deux masques de réseau :

        • Le premier masque de réseau est celui qui est au minimum nécessaire à la prise en charge du nombre de nœuds, de réseaux privés et de clusters de zones que vous avez spécifié.

        • Le second masque de réseau prend en charge deux fois plus de nœuds, de réseaux privés et de clusters de zones par rapport au nombre que vous avez spécifié, et ce, en prévision d'une éventuelle augmentation.

      3. Spécifiez l'un des masques de réseau calculés ou un autre masque de réseau prenant en charge le nombre prévu de nœuds, de réseaux privés et de clusters de zones.
  14. Tapez yes lorsque l'utilitaire clsetup vous demande si vous souhaitez poursuivre la mise à jour.
  15. Lorsque vous avez terminé, fermez l'utilitaire clsetup.
  16. Réinitialisez de nouveau chaque nœud dans le cluster.
    1. Arrêtez chaque nœud.
      # shutdown -g0 -y
    2. Initialisez chaque nœud en mode cluster.
      • Sur les systèmes SPARC, exécutez la commande suivante :
        ok boot
      • Sur les systèmes x86, exécutez la commande suivante :

        Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Solaris appropriée, puis appuyez sur Entrée. Le menu GRUB s'affiche comme suit :

        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Booting an x86 Based System by Using GRUB (Task Map) du System Administration Guide: Basic Administration.

  17. À partir d'un nœud, lancez l'utilitaire clsetup.
    # clsetup

    Le menu principal clsetup s'affiche.

  18. Réactivez toutes les ressources désactivées.
    1. Saisissez le nombre correspondant à l'option pour les groupes de ressources, puis appuyez sur la touche Entrée.

      Le menu Groupe de ressources s'affiche.

    2. Saisissez le nombre correspondant à l'option d'activation/de désactivation d'une ressource, puis appuyez sur la touche Entrée.
    3. Choisissez la ressource à activer, puis suivez les instructions des invites.
    4. Répétez la procédure pour chaque ressource désactivée.
    5. Une fois toutes les ressources réactivées, tapez q pour revenir au menu Groupe de ressources.
  19. Remettez en ligne chaque groupe de ressources.

    Si le nœud contient des zones non globales, mettez également en ligne tous les groupes de ressources contenus dans ces zones.

    1. Saisissez le numéro correspondant à l'option permettant de mettre en ligne ou hors ligne un groupe de ressources ou de basculer d'un groupe de ressources à un autre, puis appuyez sur la touche Entrée.
    2. Suivez les instructions des invites pour passer chaque groupe de ressources en mode de gestion, puis mettez les groupes de ressources en ligne.
  20. Une fois tous les groupes de ressources de nouveau en ligne, quittez l'utilitaire clsetup.

    Tapez q pour fermer tous les sous-menus ou utilisez le raccourci Ctrl+C.

Étapes suivantes

Pour ajouter un nœud à un cluster existant, suivez l'une des procédures suivantes :

Pour créer une zone non globale sur un nœud de cluster, reportez-vous à la section Configuration d'une zone non globale sur un noeligud de cluster global.

Configuration du logiciel Oracle Solaris Cluster sur les nœuds supplémentaires du cluster global (scinstall)

Suivez cette procédure pour ajouter un nouveau nœud à un cluster global existant. Pour ajouter un nouveau nœud à l’aide de JumpStart, suivez les instructions de la section Installation de Solaris et Oracle Solaris Cluster (JumpStart).


Remarque - Cette procédure utilise la forme interactive de la commande scinstall. Pour utiliser les formes non interactives de la commande scinstall, telles que celles utilisées lors du développement de scripts d'installation, reportez-vous à la page de manuel scinstall(1M).

Avant d'exécuter la commande scinstall, assurez-vous que les packages Oracle Solaris Cluster sont installés sur le nœud, soit manuellement, soit par le biais du mode silencieux du programme installer. Pour plus d'informations sur l'exécution du programme installer à partir d'un script d'installation, reportez-vous au Chapitre 5, Installing in Silent Mode du Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.


Avant de commencer

Effectuez les tâches suivantes :

Suivez ces directives pour utiliser l'utilitaire scinstall interactif dans cette procédure :

  1. Connectez-vous en tant que superutilisateur au nœud de cluster à configurer.
  2. Lancez l'utilitaire scinstall.
    phys-schost-new# /usr/cluster/bin/scinstall

    Le menu principal scinstall s'affiche.

  3. Saisissez le numéro de l'option Create a New Cluster (Créer un nouveau cluster) ou Add a Cluster Node (Ajouter un nœud de cluster), puis appuyez sur la touche Entrée.
      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    Le menu New Cluster (Nouveau cluster) et Cluster Node (Nœud de cluster) s'affiche.

  4. Saisissez le numéro de l'option Add This Machine as a Node in an Existing Cluster (Ajouter cette machine en tant que nœud d'un cluster existant), puis appuyez sur la touche Entrée.
  5. Suivez les invites à l'écran pour répondre aux questions de la fiche de planification de la configuration.

    L'utilitaire scinstall configure le nœud et initialise le nœud dans le cluster.

  6. Retirez le DVD-ROM du lecteur DVD-ROM.
    1. Pour vous assurer que le DVD-ROM n'est pas en cours d'utilisation, placez-vous dans un répertoire qui ne réside PAS sur le DVD-ROM.
    2. Éjectez le DVD-ROM.
      phys-schost# eject cdrom
  7. Répétez cette procédure sur tous les nœuds à ajouter au cluster jusqu'à ce que tous les nœuds supplémentaires soient configurés.
  8. Vérifiez au niveau de chaque nœud que les services multiutilisateurs Service Management Facility (SMF) sont en ligne.

    Si les services ne sont pas encore en ligne pour un nœud, attendez leur mise en ligne, puis passez à l'étape suivante.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. À partir d'un membre du cluster actif, empêchez l'ajout d'autres nœuds au cluster.
    phys-schost# claccess deny-all

    Vous pouvez également utiliser l'utilitaire clsetup. Reportez-vous à la section Ajout d’un nœud à la liste des nœuds autorisés du Guide d’administration système d’Oracle Solaris Cluster pour connaître les procédures.

  10. À partir d'un nœud, vérifiez que tous les nœuds ont été ajoutés au cluster.
    phys-schost# clnode status

    La sortie est similaire à l'exemple suivant.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

  11. Vérifiez que tous les patchs nécessaires sont installés.
    phys-schost# showrev -p
  12. (Facultatif) Activez la réinitialisation automatique des nœuds si tous les chemins de disque partagé échouent.
    1. Activez la réinitialisation automatique.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Spécifie la propriété à définir.

      reboot_on_path_failure=enable

      Active la réinitialisation automatique de nœud si un échec se produit au niveau des chemins contrôlés de disque partagé.

    2. Vérifie que la réinitialisation automatique en cas d'échec de chemin de disque est activée.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  13. Si vous souhaitez utiliser Oracle Solaris Cluster HA pour NFS (HA pour NFS) sur un système de fichiers local hautement disponible, assurez-vous que le système de fichier en loopback (LOFS) est désactivé.

    Pour désactiver le système de fichiers loopback, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.

    exclude:lofs

    La modification du fichier /etc/system prend effet à la prochaine réinitialisation du système.


    Remarque - Le système de fichiers loopback ne peut pas être activé si vous utilisez HA pour NFS sur un système de fichiers local hautement disponible et si automountd est en cours d'exécution. Le système LOFS peut poser des problèmes de basculement pour HA pour NFS. Si vous choisissez d'ajouter HA pour NFS sur un système de fichiers local hautement disponible, vous devez modifier la configuration de l'une des façons suivantes.

    Cependant, si vous configurez des zones non globales dans votre cluster, vous devez activer le système de fichiers loopback sur tous les nœuds de cluster. Si HA pour NFS se trouve sur un système de fichiers local hautement disponible et doit coexister avec le système de fichiers loopback, utilisez l'une des autres solutions au lieu de désactiver le système de fichiers loopback.

    • Désactivez le système de fichiers loopback.

    • Désactivez le démon automountd.

    • Excluez du mappage de l'agent de montage automatique tous les fichiers faisant partie du système de fichiers local hautement disponible exporté par HA pour NFS. Ce choix vous permet de maintenir activés à la fois le système de fichiers loopback et le démon automountd.


    Pour plus d'informations sur le système de fichiers loopback, reportez-vous à la section The Loopback File System du System Administration Guide: Devices and File Systems.

Exemple 3-3 Configuration du logiciel Oracle Solaris Cluster sur un nœud supplémentaire

L'exemple suivant illustre le nœud phys-schost-3 ajouté au cluster schost. Le nœud de cautionnement est phys-schost-1.

*** Adding a Node to an Existing Cluster ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 
-m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2


Checking device to use for global devices file system ... done

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "qfe2" to the cluster configuration ... done
Adding adapter "qfe3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Copying the Common Agent Container keys from "phys-schost-1" ... done


Setting the node ID for "phys-schost-3" ... done (id=1)

Setting the major number for the "did" driver ... 
Obtaining the major number for the "did" driver from "phys-schost-1" ... done
"did" driver major number set to 300

Checking for global devices global file system ... done
Updating vfstab ... done

Verifying that NTP is configured ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... 
done

Adding clusternode entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done
The "local-mac-address?" parameter setting has been changed to "true".

Ensure network routing is disabled ... done

Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Rebooting ... 

Erreurs fréquentes

Échec de configuration – Si un ou plusieurs nœuds ne peuvent rejoindre le cluster ou si de mauvaises informations de configuration ont été spécifiées, essayez d'abord d'exécuter à nouveau cette procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque nœud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels de Oracle Solaris Cluster. Relancez cette procédure.

Étapes suivantes

Si vous avez ajouté un nœud à un cluster existant qui utilise un périphérique de quorum, reportez-vous à la section Mise à jour des périphériques de quorum après l'ajout d'un noeligud au cluster global.

Sinon, reportez-vous à la section Vérification de la configuration de quorum et du mode d'installation.

Configuration du logiciel Oracle Solaris Cluster sur les nœuds supplémentaires du cluster global (XML)

Suivez cette procédure pour configurer un nouveau nœud de cluster global en utilisant un fichier XML de configuration en cluster. Le nouveau nœud peut être la copie d'un nœud de cluster existant exécutant le logiciel Oracle Solaris Cluster 3.3 5/11.

Cette procédure configure les composants de cluster suivants sur le nouveau nœud :

Avant de commencer

Effectuez les tâches suivantes :

  1. Vérifiez que le logiciel Oracle Solaris Cluster n'est pas déjà configuré sur le nœud potentiel que vous souhaitez ajouter à un cluster.
    1. Connectez-vous en tant que superutilisateur au nœud potentiel.
    2. Déterminez si le logiciel Oracle Solaris Cluster est déjà configuré sur le nœud potentiel.
      phys-schost-new# /usr/sbin/clinfo -n
      • Si la commande échoue, passez à l'Étape 2.

        Le logiciel Oracle Solaris Cluster n'est pas encore configuré sur le nœud. Vous pouvez ajouter le nœud potentiel au cluster.

      • Si la commande renvoie le numéro d'ID d'un nœud, passez à l'Étape c.

        Le logiciel Oracle Solaris Cluster a déjà été configuré sur le nœud. Pour pouvoir ajouter le nœud à un cluster différent, vous devez supprimer les informations de configuration de cluster actuelles.

    3. Initialisez le nœud potentiel en mode non cluster.
      • Sur les systèmes SPARC, exécutez la commande suivante :
        ok boot -x
      • Sur les systèmes x86, exécutez les commandes suivantes :
        1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée et saisissez e pour modifier les commandes.

          Le menu GRUB s'affiche comme suit :

          GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
          +----------------------------------------------------------------------+
          | Solaris 10 /sol_10_x86                                               | 
          | Solaris failsafe                                                     |
          |                                                                      |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press enter to boot the selected OS, 'e' to edit the
          commands before booting, or 'c' for a command-line.

          Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Booting an x86 Based System by Using GRUB (Task Map) du System Administration Guide: Basic Administration.

        2. Dans l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et tapez e pour modifier l'entrée.

          L'écran des paramètres d'initialisation GRUB est similaire à l'écran suivant :

          GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
          +----------------------------------------------------------------------+
          | root (hd0,0,a)                                                       | 
          | kernel /platform/i86pc/multiboot                                     | 
          | module /platform/i86pc/boot_archive                                  | 
          |+----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press 'b' to boot, 'e' to edit the selected command in the
          boot sequence, 'c' for a command-line, 'o' to open a new line
          after ('O' for before) the selected line, 'd' to remove the
          selected line, or escape to go back to the main menu.
        3. Ajoutez -x à la commande pour que le système se réinitialise en mode non cluster.
          [ Minimal BASH-like line editing is supported. For the first word, TAB
          lists possible command completions. Anywhere else TAB lists the possible
          completions of a device/filename. ESC at any time exits. ]
          
          grub edit> kernel /platform/i86pc/multiboot -x
        4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

          L'écran affiche la commande modifiée.

          GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
          +----------------------------------------------------------------------+
          | root (hd0,0,a)                                                       |
          | kernel /platform/i86pc/multiboot -x                                  |
          | module /platform/i86pc/boot_archive                                  |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press 'b' to boot, 'e' to edit the selected command in the
          boot sequence, 'c' for a command-line, 'o' to open a new line
          after ('O' for before) the selected line, 'd' to remove the
          selected line, or escape to go back to the main menu.-
        5. Saisissez b pour initialiser le nœud en mode non cluster.

          Remarque - Le changement apporté à la commande du paramètre d'initialisation du noyau s'annule à la réinitialisation du système. À la prochaine réinitialisation du nœud, celui-ci entrera en mode cluster. Pour une initialisation en mode non cluster, effectuez de nouveau ces étapes pour ajouter de nouveau l'option -x à la commande du paramètre d'initialisation du noyau.


    4. Annulez la configuration du logiciel Oracle Solaris Cluster sur le nœud potentiel.
      phys-schost-new# /usr/cluster/bin/clnode remove
  2. Si vous dupliquez un nœud exécutant le logiciel Oracle Solaris Cluster 3.3 5/11, créez un fichier XML de configuration en cluster.
    1. Connectez-vous en tant que superutilisateur sur le nœud que vous souhaitez dupliquer.
    2. Exportez les informations de configuration du nœud existant vers un fichier.
      phys-schost# clnode export -o clconfigfile
      -o

      Spécifie la destination de la sortie.

      clconfigfile

      Nom du fichier XML de configuration en cluster. Le nom de fichier spécifié peut correspondre à un fichier existant ou un nouveau fichier que la commande créera.

      Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

    3. Copiez le fichier XML de configuration en cluster vers le nœud potentiel que vous allez configurer en tant que nouveau nœud de cluster.
  3. Connectez-vous en tant que superutilisateur au nœud potentiel.
  4. Modifiez le fichier de la configuration en cluster selon le besoin.
    1. Ouvrez votre fichier XML de configuration en cluster en écriture.
      • Si vous dupliquez un nœud de cluster existant, ouvrez le fichier que vous avez créé avec la commande clnode export.
      • Si vous ne dupliquez pas un nœud de cluster existant, créez un nouveau fichier.

        Basez le fichier sur la hiérarchie d'éléments illustrée sur la page de manuel clconfiguration(5CL). Vous pouvez stocker le fichier dans n'importe quel répertoire.

    2. Modifiez les valeurs des éléments XML pour refléter la configuration de nœud que vous souhaitez créer.

      Reportez-vous à la page de manuel clconfiguration(5CL) pour plus d'informations concernant la structure et le contenu du fichier XML de configuration en cluster.

  5. Validez le fichier XML de configuration en cluster.
    phys-schost-new# xmllint --valid --noout clconfigfile
  6. Configurez le nouveau nœud de cluster.
    phys-schost-new# clnode add -n sponsornode -i clconfigfile
    -n sponsornode

    Spécifie le nom d'un membre de cluster existant afin d'agir en tant que nœud de cautionnement pour le nouveau nœud.

    -i clconfigfile

    Spécifie le nom du fichier XML de configuration en cluster à utiliser en tant que source de données en entrée.

  7. (Facultatif) Activez la réinitialisation automatique des nœuds si tous les chemins de disque partagé échouent.
    1. Activez la réinitialisation automatique.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Spécifie la propriété à définir.

      reboot_on_path_failure=enable

      Active la réinitialisation automatique de nœud si un échec se produit au niveau des chemins contrôlés de disque partagé.

    2. Vérifie que la réinitialisation automatique en cas d'échec de chemin de disque est activée.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Erreurs fréquentes

Échec de configuration – Si un ou plusieurs nœuds ne peuvent rejoindre le cluster ou si de mauvaises informations de configuration ont été spécifiées, essayez d'abord d'exécuter à nouveau cette procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque nœud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels de Oracle Solaris Cluster. Relancez cette procédure.

Étapes suivantes

Si vous avez ajouté un nœud à un cluster qui utilise un périphérique de quorum, reportez-vous à la section Mise à jour des périphériques de quorum après l'ajout d'un noeligud au cluster global.

Sinon, reportez-vous à la section Vérification de la configuration de quorum et du mode d'installation.

Mise à jour des périphériques de quorum après l'ajout d'un nœud au cluster global

Si vous avez ajouté un nœud à un cluster global, vous devez mettre à jour les informations de configuration des périphériques de quorum, que vous utilisiez des disques partagés, des périphériques NAS, un serveur de quorum ou une combinaison de ces éléments. Pour cela, vous devez supprimer tous les périphériques de quorum et mettre à jour l'espace de noms des périphériques globaux. Vous pouvez facultativement reconfigurer les périphériques de quorum que vous souhaitez continuer à utiliser. Le nouveau nœud est alors enregistré avec chaque périphérique de quorum, qui peut ensuite recalculer le nombre de votes en fonction du nouveau nombre de nœuds dans le cluster.

Tout nouveau périphérique de quorum SCSI nouvellement configuré sera défini sur les réservations SCSI-3.

Avant de commencer

Assurez-vous que vous avez terminé l'installation du logiciel Oracle Solaris Cluster sur le nœud ajouté.

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster.
  2. Vérifiez que tous les nœuds de cluster sont en ligne.
    phys-schost# cluster status -t node
  3. Affichez la configuration actuelle du quorum.

    La sortie de la commande répertorie les périphériques de quorum et les nœuds. L'exemple de sortie suivant indique le périphérique de quorum SCSI actuel, d3.

    phys-schost# clquorum list
    d3
    …
  4. Notez le nom de chaque périphérique de quorum répertorié.
  5. Supprimez le périphérique de quorum d'origine.

    Effectuez cette étape pour chaque périphérique de quorum configuré.

    phys-schost# clquorum remove devicename
    devicename

    Spécifie le nom de périphérique de quorum.

  6. Vérifiez que tous les périphériques de quorum d'origine ont été supprimés.

    Si la suppression s'est correctement effectuée, aucun périphérique n'est répertorié.

    phys-schost# clquorum status
  7. Mettez à jour l'espace de noms des périphériques globaux.
    phys-schost# cldevice populate

    Remarque - Cette étape permet d'éviter d'éventuelles erreurs de nœud.


  8. Sur chaque nœud, vérifiez que l'exécution de la commande cldevice populate est terminée avant d'essayer d'ajouter un périphérique de quorum.

    La commande cldevice populate s'exécute à distance sur tous les nœuds, même si elle est lancée à partir d'un autre nœud. Pour savoir si la commande cldevice populate a terminé le traitement, exécutez la commande suivante sur chaque nœud du cluster.

    phys-schost# ps -ef | grep scgdevs
  9. (Facultatif) Ajoutez un périphérique de quorum.

    Vous pouvez configurer le périphérique configuré préalablement en tant de périphérique de quorum ou choisir un nouveau périphérique partagé à configurer.

    1. (Facultatif) Si vous souhaitez choisir un nouveau périphérique partagé à configurer en tant que périphérique de quorum, affichez tous les périphériques contrôlés par le système.

      Sinon, passez à l'Étape c.

      phys-schost# cldevice list -v

      La sortie est similaire à l'exemple suivant :

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0 
      …
    2. À partir de la sortie, sélectionnez un périphérique partagé à configurer en tant que périphérique de quorum.
    3. Configurez le périphérique partagé en tant que périphérique de quorum.
      phys-schost# clquorum add -t type devicename
      -t type

      Spécifiez le type de périphérique de quorum. Si cette option n'est pas spécifiée, le type par défaut shared_disk est utilisé.

    4. Répétez cette procédure pour chaque périphérique de quorum que vous souhaitez configurer.
    5. Vérifiez la nouvelle configuration de quorum.
      phys-schost# clquorum list

      La sortie répertorie les périphériques de quorum et les nœuds.

Exemple 3-4 Mise à jour des périphériques de quorum SCSI après l'ajout d'un nœud à un cluster à deux nœuds

L'exemple suivant identifie le périphérique de quorum SCSI d'origine d2, supprime ce périphérique de quorum, répertorie les périphériques partagés disponibles, met à jour l'espace de noms du périphérique global, configure d3 en tant que nouveau périphérique de quorum SCSI et vérifie le nouveau périphérique.

phys-schost# clquorum list
d2
phys-schost-1
phys-schost-2

phys-schost# clquorum remove d2
phys-schost# clquorum status
…
--- Quorum Votes by Device ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------

phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
…
d3                  phys-schost-2:/dev/rdsk/c1t1d0
d3                  phys-schost-1:/dev/rdsk/c1t1d0
…
phys-schost# cldevice populate
phys-schost# ps -ef - grep scgdevs
phys-schost# clquorum add d3
phys-schost# clquorum list
d3
phys-schost-1
phys-schost-2

Étapes suivantes

Reportez-vous à la section Vérification de la configuration de quorum et du mode d'installation.

Configuration des périphériques de quorum


Remarque - Il est inutile de configurer les périphériques de quorum dans les cas suivants :

Passez alors à la section Vérification de la configuration de quorum et du mode d'installation.


Effectuez cette procédure une seule fois, une fois le nouveau cluster entièrement défini. Suivez cette procédure pour assigner des votes de quorum et sortir le cluster du mode d'installation.

Avant de commencer

  1. Si les deux conditions suivantes s'appliquent, modifiez les entrées de fichier du masque de réseau pour le réseau public sur chaque nœud de cluster.
    • Vous voulez utiliser un serveur de quorum.

    • Le réseau public utilise un masque de sous-réseau de longueur variable, également appelé routage interdomaine sans classe (CIDR, Classless Inter-Domain Routing).

    Si vous utilisez un serveur de quorum mais que le réseau public utilise des sous-réseaux avec classe, tels que définis dans RFC 791, il est inutile d'effectuer cette étape.

    1. Ajoutez une entrée au fichier /etc/inet/netmasks pour chaque sous-réseau public que le cluster utilise.

      L'exemple d'entrée suivant contient une adresse IP et un masque de réseau public :

      10.11.30.0    255.255.255.0
    2. Ajoutez netmask + broadcast + à l'entrée de nom d'hôte dans chaque fichier /etc/hostname.adapter.
      nodename netmask + broadcast +
  2. Connectez-vous à un nœud en tant que superutilisateur.
  3. Vérifiez que tous les nœuds de cluster sont en ligne.
    phys-schost# cluster status -t node
  4. Pour utiliser un disque partagé en tant que périphérique de quorum, vérifiez la connectivité du périphérique aux nœuds de cluster et choisissez le périphérique à configurer.
    1. À partir d'un nœud du cluster, affichez la liste de tous les périphériques contrôlés par le système.

      Vous n'avez pas besoin de vous connecter en tant que superutilisateur pour exécuter cette commande.

      phys-schost-1# cldevice list -v

      La sortie est similaire à l'exemple suivant :

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0
      …
    2. Assurez-vous que la sortie affiche toutes les connexions entre les nœuds de cluster et les périphériques de stockage.
    3. Déterminez l'ID de périphérique global de chaque disque partagé que vous configurez en tant que périphérique de quorum.

      Remarque - Tous les disques partagés que vous choisissez doivent être adaptés à une utilisation en tant que périphérique de quorum. Reportez-vous à la section Périphériques de quorum pour plus d'informations sur le choix des périphériques de quorum.


      Basez-vous sur la sortie de la commande scdidadm exécutée à l'Étape a pour identifier l'ID de périphérique de chaque disque partagé que vous configurez en tant que périphérique de quorum. Par exemple, la sortie obtenue au cours de l'Étape a indique qu'un périphérique d3 est partagé par phys-schost-1 et phys-schost-2.

  5. Pour utiliser un disque partagé qui ne prend pas en charge le protocole SCSI, assurez-vous que la séparation est désactivée pour ce disque partagé.
    1. Affichez les paramètres de séparation pour le disque individuel.
      phys-schost# cldevice show device
      
      === DID Device Instances ===
      DID Device Name:                                      /dev/did/rdsk/dN
      …
        default_fencing:                                     nofencing
      • Si la séparation pour le disque est définie sur nofencing ou nofencing-noscrub, la séparation est désactivée pour ce disque. Passez à l'Étape 6.
      • Si la séparation pour le disque est définie sur pathcount ou scsi, désactivez la séparation pour le disque. Passez à l'Étape c.
      • Si la séparation pour le disque est définie sur global, déterminez si la séparation est également désactivée globalement. Passez à l'Étape b.

        Ou vous pouvez simplement désactiver la séparation pour le disque individuel. Le disque est alors ignoré quelle que soit la valeur de la propriété global_fencing. Passez à l'Étape c pour désactiver la séparation pour le disque individuel.

    2. Déterminez si la séparation doit être désactivée globalement ou non.
      phys-schost# cluster show -t global
      
      === Cluster ===
      Cluster name:                                         cluster
      …
         global_fencing:                                      nofencing
      • Si la séparation globale est définie sur nofencing ou nofencing-noscrub, la séparation est désactivée pour le disque partagé dont la propriété default_fencing est définie sur global. Passez à l'Étape 6.
      • Si la séparation globale est définie sur pathcount ou prefer3, désactivez la séparation pour le disque partagé. Passez à l'Étape c.

      Remarque - Si la propriété default_fencing du disque individuel est définie sur global, la séparation pour ce disque individuel est désactivée uniquement lorsque la propriété global_fencing du cluster est définie sur nofencing ou nofencing-noscrub. Si la propriété global_fencing est modifiée sur une valeur activant la séparation, la séparation devient active pour tous les disques dont la propriété default_fencing est définie sur global.


    3. Désactivez la séparation pour le disque partagé.
      phys-schost# cldevice set \
      -p default_fencing=nofencing-noscrub device
    4. Vérifiez que la séparation est à présent désactivée pour le disque partagé.
      phys-schost# cldevice show device
  6. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    L'écran Configuration initiale du cluster s'affiche.


    Remarque - Si le menu principal s'affiche à la place, cela signifie que la configuration initiale du cluster a déjà été exécutée. Passez à l'Étape 11.


  7. Répondez à l'invite Do you want to add any quorum disks? (Souhaitez-vous ajouter un disque de quorum ?)
    • Si votre cluster est un cluster à deux nœuds, vous devez configurer au moins un périphérique de quorum partagé. Saisissez Yes (Oui) pour configurer un ou plusieurs périphériques de quorum.
    • Si votre cluster comprend trois nœuds ou plus, la configuration du périphérique de quorum est facultative.
      • Saisissez No (Non) si vous ne souhaitez pas configurer davantage de périphériques de quorum. Passez ensuite à l'Étape 10.
      • Saisissez Yes (Oui) pour configurer d'autres périphériques de quorum. Passez ensuite à l'Étape 8.
  8. Spécifiez quel type de périphérique vous souhaitez configurer en tant que périphérique de quorum.
    Type de périphérique de quorum
    Description
    shared_disk
    Numéros LUN partagés issus des éléments suivants :
    • Disque SCSI partagé

    • Stockage SATA (Serial Attached Technology Attachment)

    • Sun NAS

    • Sun ZFS Storage Appliance

    quorum_server
    Serveur de quorum
    netapp_nas
    Network Appliance NAS
  9. Spécifiez le nom du périphérique à configurer en tant que périphérique de quorum.
    • Pour un serveur de quorum, veuillez fournir également les informations suivantes :

      • L'adresse IP de l'hôte du serveur de quorum

      • Le numéro de port utilisé par le serveur de quorum pour communiquer avec les nœuds de cluster

    • Pour un périphérique NAS pour solution réseau, spécifiez également les informations suivantes :

      • Le nom du périphérique NAS

      • L'ID d'unité logique du périphérique NAS

  10. À l'invite Acceptez-vous de réinitialiser le mode d'installation ?, saisissez Oui.

    Une fois que l'utilitaire clsetup a défini les configurations de quorum et les nombres de votes pour le cluster, le message L'initialisation du cluster est terminée s'affiche. L'utilitaire vous renvoie au menu principal.

  11. Sortez de l'utilitaire clsetup.

Étapes suivantes

Vérifiez la configuration de quorum et assurez-vous que le mode d'installation est désactivé. Reportez-vous à la section Vérification de la configuration de quorum et du mode d'installation.

Erreurs fréquentes

Traitement de la commande clsetup interrompu – Si le processus de configuration du quorum est interrompu ou échoue, exécutez à nouveau la commande clsetup.

Modifications du nombre de votes de quorum – Si vous augmentez/diminuez ultérieurement le nombre de raccordements de nœuds à un périphérique de quorum, le nombre de votes de quorum n'est pas automatiquement recalculé. Vous pouvez rétablir le nombre de votes de quorum en supprimant chaque périphérique de quorum, puis en les ajoutant de nouveau un à un à la configuration. Dans le cas d'un cluster à deux nœuds, ajoutez temporairement un nouveau périphérique de quorum avant de supprimer puis d'ajouter à nouveau le périphérique de quorum d'origine. Supprimez ensuite le périphérique de quorum temporaire. Reportez-vous à la procédure de modification de la liste de nœuds d'un périphérique de quorum décrite au Chapitre 6, Gestion de Quorum du Guide d’administration système d’Oracle Solaris Cluster.

Unreachable quorum device : si des messages s'affichent sur les nœuds de cluster indiquant qu'un périphérique de quorum est inaccessible ou si des nœuds de cluster échouent en générant le message CMM: Unable to acquire the quorum device, il est possible que le périphérique de quorum ou son chemin d'accès pose problème. Vérifiez que le périphérique de quorum et son chemin d'accès fonctionnent correctement.

Si le problème persiste, utilisez un autre périphérique de quorum. Si vous souhaitez utiliser le même périphérique de quorum, attribuez une valeur élevée au délai d'attente du quorum, comme suit :


Remarque - Pour Oracle RAC (Real Application Clusters) (&Oracle RAC;), ne modifiez pas le délai d'attente de quorum par défaut de 25 secondes. Dans certains scénarios split-brain, un délai d'attente supérieur pourrait entraîner l'échec du basculement d'Oracle RAC VIP en raison du dépassement du délai d'attente par la ressource VIP. Si le périphérique de quorum utilisé ne respecte pas le délai d'attente par défaut de 25 secondes, utilisez un autre périphérique de quorum.


Vérification de la configuration de quorum et du mode d'installation

Effectuez cette procédure pour vérifier que la configuration de quorum a été effectuée correctement (le cas échéant) et que le cluster n'est plus en mode d'installation.

Vous n'avez pas besoin de vous connecter en tant que superutilisateur pour exécuter ces commandes.

  1. À partir d'un nœud de cluster global, vérifiez la configuration du quorum du périphérique et du nœud.
    phys-schost% clquorum list

    La sortie répertorie les périphériques de quorum et les nœuds.

  2. À partir d'un nœud, vérifiez que le cluster n'est plus en mode d'installation.
    phys-schost% cluster show -t global | grep installmode
      installmode:                                    disabled

    L'installation et la création du cluster sont terminées.

Étapes suivantes

À partir de la liste suivante, déterminez la prochaine tâche à effectuer pour votre configuration en cluster. Si vous devez effectuer plus d'une tâche dans cette liste, respectez l'ordre dans lequel elles apparaissent.

Voir aussi

Effectuez une sauvegarde de votre configuration en cluster.

Une sauvegarde archivée de votre configuration en cluster facilite la récupération de celle-ci. Pour plus d'informations, reportez-vous à la section Sauvegarde de la configuration du cluster du Guide d’administration système d’Oracle Solaris Cluster.

Modification des noms d'hôte privés

Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôte privés par défaut, clusternodenodeid-priv, assignés au cours de l'installation du logiciel Oracle Solaris Cluster.


Remarque - N'effectuez pas cette procédure après que les applications et les services de données ont été configurés et démarrés. Sinon, une application ou un service de données risque de continuer à utiliser l'ancien nom d'hôte privé après que le nom d'hôte a été renommé, ce qui peut générer des conflits de nom d'hôte. Si une application ou un service de données sont en cours d'exécution, arrêtez-les avant d'effectuer cette procédure.


Effectuez cette procédure sur un nœud actif du cluster.

  1. Connectez-vous en tant que superutilisateur sur un nœud du cluster global.
  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal clsetup s'affiche.

  3. Saisissez le numéro d'option correspondant à Noms d'hôte privés, puis appuyez sur la touche Entrée.

    Le menu du nom d'hôte privé s'affiche.

  4. Saisissez le numéro d'option correspondant à Modifier un nom d'hôte privé, puis appuyez sur la touche Entrée.
  5. Suivez les invites à l'écran pour modifier le nom d'hôte privé.

    Répétez cette opération pour chaque nom d'hôte privé à modifier.

  6. Vérifiez les nouveaux noms d'hôte privés.
    phys-schost# clnode show -t node | grep privatehostname
      privatehostname:                                clusternode1-priv
      privatehostname:                                clusternode2-priv
      privatehostname:                                clusternode3-priv

Étapes suivantes

À partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Si vous devez effectuer plus d'une tâche dans cette liste, respectez l'ordre dans lequel elles apparaissent dans la liste.

Configuration de la répartition de la charge des groupes de ressources entre les nœuds

Vous pouvez activer la répartition automatique de la charge des groupes de ressources entre les nœuds ou les zones en définissant les limites de la charge. Les facteurs de charge assignés à des groupes de ressources correspondent aux limites de charge définies des nœuds.

Le comportement par défaut consiste à répartir la charge des groupes de ressources de façon équitable sur tous les nœuds disponibles. Chaque groupe de ressources démarre sur un nœud de sa liste de nœuds. Le gestionnaire de groupes de ressources choisit un nœud qui répond le mieux à la stratégie de répartition de la charge configurée. Étant donné que les groupes de ressources sont assignés aux nœuds par le gestionnaire de groupes de ressources, les facteurs de charge des groupes de ressources sur chaque nœud sont additionnés afin de calculer la charge totale. La charge totale est ensuite comparée aux limites de la charge de ce nœud.

Vous pouvez configurer des limites de charge dans un cluster global ou un cluster de zones.

Les facteurs que vous définissez pour contrôler la répartition de la charge sur chaque nœud comprennent les limites de la charge, la priorité du groupe de ressources et le mode de préemption. Dans le cluster global, vous pouvez définir la propriété Concentrate_load pour qu'elle sélectionne la stratégie préférée de répartition de la charge : cela permet de concentrer la charge des groupes de ressources sur le plus petit nombre de nœuds possible, sans pour autant dépasser les limites, ou de répartir la charge de la façon la plus équitable possible sur tous les nœuds disponibles. Le comportement par défaut consiste à répartir la charge des groupes de ressources. L'exécution de chaque groupe de ressources reste limitée aux nœuds de la liste de nœuds, peu importe le facteur de charge et les paramètres de limite de charge.


Remarque - Vous pouvez utiliser la ligne de commande, l'interface Oracle Solaris Cluster Manager ou l'utilitaire clsetup pour configurer la répartition de la charge des groupes de ressources. La procédure suivante explique comment configurer la répartition de la charge des groupes de ressources à l'aide de l'utilitaire clsetup. Pour obtenir des instructions sur l'utilisation de la ligne de commande pour effectuer ces procédures, reportez-vous à la section Configuration de limites de charge du Guide d’administration système d’Oracle Solaris Cluster.


Cette section contient les procédures suivantes :

Configuration des limites de charge d'un nœud

Chaque nœud ou zone de cluster peut avoir son propre ensemble de limites de charge. Les facteurs de charge assignés à des groupes de ressources correspondent aux limites de charge définies des nœuds. Vous pouvez définir des limites de charge dépassables ou de limites de charge fixes (qui ne peuvent pas être dépassées).

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster.
  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu de l'utilitaire clsetup s'affiche.

  3. Sélectionnez l'option de menu Autres tâches du cluster.

    Le menu Autres tâches du cluster s'affiche.

  4. Sélectionnez l'option permettant de gérer la répartition de la charge des groupes de ressources.

    Le menu de gestion de la répartition de la charge des groupes de ressources s'affiche.

  5. Sélectionnez l'option de menu Gérer Limites de charge.

    Le menu de gestion des limites de charge s'affiche.

  6. Saisissez yes et appuyez sur la touche Entrée pour continuer.
  7. Saisissez le numéro de l'option correspondant à l'opération à effectuer et appuyez sur la touche Entrée.

    Vous pouvez créer, modifier ou supprimer une limite de charge.

  8. Si vous avez choisi de créer une limite de charge, sélectionnez le numéro de l'option correspondant au nœud pour lequel vous souhaitez définir la limite de charge.

    Si vous voulez définir une limite de la charge sur un second nœud, sélectionnez le numéro de l'option correspondant au second nœud et appuyez sur la touche Entrée. Après avoir sélectionné tous les nœuds dont vous souhaitez configurer les limites de charge, saisissez la lettre q et appuyez sur la touche Entrée.

  9. Saisissez yes et appuyez sur la touche Entrée pour confirmer les nœuds sélectionnés à l'Étape 8.
  10. Saisissez le nom de la limite de charge et appuyez sur la touche Entrée.

    Par exemple, saisissez mem_load comme nom de la limite de charge.

  11. Saisissez yes ou no pour spécifier une valeur de limite dépassable et appuyez sur la touche Entrée.

    Si vous avez saisi le texte yes, entrez la valeur de limite dépassable et appuyez sur la touche Entrée.

  12. Saisissez yes ou no pour spécifier une valeur de limite fixe et appuyez sur la touche Entrée.

    Si vous avez saisi le texte yes, entrez la valeur de limite fixe et appuyez sur la touche Entrée.

  13. Saisissez yes et appuyez sur la touche Entrée pour créer la limite de charge.
  14. Saisissez yes pour procéder à la mise à jour et appuyez sur la touche Entrée.

    Le message La commande a été exécutée avec succès s'affiche, ainsi que les limites de charge dépassabe et fixe des nœuds sélectionnés. Appuyez sur la touche Entrée pour continuer.

  15. Vous pouvez modifier ou supprimer une limite de charge en suivant les invites de l'utilitaire clsetup.

    Revenez au menu précédent en saisissant la lettre q et en appuyant sur la touche Entrée.

Définition de la propriété d'un groupe de ressources

Vous pouvez assigner une priorité plus élevée à un groupe de ressources. De cette façon, les risques qu'il soit retiré d'un nœud sont réduits. Si les limites de charge sont dépassées, le système peut forcer la mise hors ligne de groupes de ressources dont la priorité est moins élevée.

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster.
  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu de l'utilitaire clsetup s'affiche.

  3. Sélectionnez l'option de menu Autres tâches du cluster.

    Le menu Autres tâches du cluster s'affiche.

  4. Sélectionnez l'option permettant de gérer la répartition de la charge des groupes de ressources.

    Le menu de gestion de la répartition de la charge des groupes de ressources s'affiche.

  5. Sélectionnez l'option de menu Définir Priorité par groupe de ressources.

    Le menu de définition de la priorité d'un groupe de ressources s'affiche.

  6. Saisissez yes et appuyez sur la touche Entrée.
  7. Saisissez l'option correspondant au groupe de ressources et appuyez sur la touche Entrée.

    La valeur de la priorité existante s'affiche. La valeur par défaut de la priorité est égale à 500.

  8. Saisissez la nouvelle valeur de la propriété et appuyez sur la touche Entrée.
  9. Saisissez yes pour confirmer et appuyez sur la touche Entrée.
  10. Appuyez sur la touche Entrée pour revenir au menu précédent.

    Le menu de gestion de la répartition de la charge des groupes de ressources s'affiche.

Définition des facteurs de charge d'un groupe de ressources

Un facteur de charge correspond à la valeur assignée à la charge sur une limite de charge. Les facteurs de charge sont assignés à un groupe de ressources. Ces derniers correspondent aux limites de charge définies des nœuds.

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster.
  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu de l'utilitaire clsetup s'affiche.

  3. Sélectionnez l'option de menu Autres tâches du cluster.

    Le menu Autres tâches du cluster s'affiche.

  4. Sélectionnez l'option permettant de gérer la répartition de la charge des groupes de ressources.

    Le menu de gestion de la répartition de la charge des groupes de ressources s'affiche.

  5. Sélectionnez l'option de menu Définir Facteurs de charge par groupe de ressources.

    Le menu de définition des facteurs de charge par groupe de ressources s'affiche.

  6. Saisissez yes et appuyez sur la touche Entrée.
  7. Saisissez le numéro de l'option correspondant au groupe de ressources et appuyez sur la touche Entrée.
  8. Saisissez le facteur de charge.

    Par exemple, vous pouvez définir un facteur de charge appelé mem_load sur le groupe de ressources sélectionné en saisissant : mem_load@50. Appuyez sur la combinaison de touches Ctrl+D lorsque vous avez terminé.

  9. Appuyez sur la touche Entrée pour procéder à la mise à jour.
  10. Appuyez sur la touche Entrée pour revenir au menu précédent.

    Le menu de gestion de la répartition de la charge des groupes de ressources s'affiche.

Définition du mode de préemption d'un groupe de ressources

La propriété preemption_mode détermine si un groupe de ressources sera préempté d'un nœud par un groupe de ressources dont la priorité est plus élevée en raison de la surcharge de ce nœud. La propriété indique le coût de déplacement d'un groupe de ressources d'un nœud vers un autre.

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster.
  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu de l'utilitaire clsetup s'affiche.

  3. Sélectionnez l'option de menu Autres tâches du cluster.

    Le menu Autres tâches du cluster s'affiche.

  4. Sélectionnez l'option permettant de gérer la répartition de la charge des groupes de ressources.

    Le menu de gestion de la répartition de la charge des groupes de ressources s'affiche.

  5. Sélectionnez l'option de menu Définir Mode de préemption par groupe de ressources.

    Le menu de définition du mode de préemption d'un groupe de ressources s'affiche.

  6. Saisissez yes et appuyez sur la touche Entrée pour continuer.
  7. Saisissez le numéro de l'option correspondant au groupe de ressources et appuyez sur la touche Entrée.

    Si le mode de préemption est défini pour le groupe de ressources, vous obtenez une sortie similaire à ce qui suit :

    The preemption mode property of "rg11" is currently set to the following: preemption mode:  Has_Cost
  8. Saisissez le numéro de l'option du mode de préemption souhaité et appuyez sur la touche Entrée.

    Les trois options possibles sont : Has_cost, No_cost ou Never.

  9. Saisissez yes pour procéder à la mise à jour et appuyez sur la touche Entrée.
  10. Appuyez sur la touche Entrée pour revenir au menu précédent.

    Le menu de gestion de la répartition de la charge des groupes de ressources s'affiche.

Concentration de la charge sur un nombre restreint de nœuds

Si vous définissez la propriété Concentrate_load sur False, le cluster répartit équitablement la charge des groupes de ressources sur tous les nœuds disponibles. Si vous définissez cette propriété sur True, le cluster tente de concentrer la charge des groupes de ressources sur le nombre de nœuds le plus petit possible sans dépasser les limites de charge. Par défaut, la propriété Concentrate_load est définie sur False. Vous pouvez définir la propriété Concentrate_load uniquement dans un cluster global. Vous ne pouvez pas définir cette propriété dans un cluster de zones. Dans un cluster de zones, le paramètre par défaut est toujours défini sur False.

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster.
  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu de l'utilitaire clsetup s'affiche.

  3. Sélectionnez l'option de menu Autres tâches du cluster.

    Le menu Autres tâches du cluster s'affiche.

  4. Sélectionnez l'option de menu Définir Concentration de charge du cluster.

    Le menu permettant de définir la propriété concentrate_load du cluster s'affiche.

  5. Saisissez yes et appuyez sur la touche Entrée.

    La valeur actuelle TRUE ou FALSE s'affiche.

  6. Saisissez yes pour modifier la valeur et appuyez sur la touche Entrée.
  7. Saisissez yes pour procéder à la mise à jour et appuyez sur la touche Entrée.
  8. Appuyez sur la touche Entrée pour revenir au menu précédent.

    Le menu Autres tâches du cluster s'affiche.

Configuration du protocole NTP


Remarque - Si vous avez installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Oracle Solaris Cluster, il est inutile d'effectuer cette procédure. Déterminez la prochaine étape.


Effectuez cette tâche pour créer ou modifier le fichier de configuration NTP après avoir effectué l'une des tâches suivantes :

Si vous avez ajouté un nœud à un cluster à nœud unique, vous devez vous assurer que le fichier de configuration NTP que vous utilisez est copié vers le nœud de cluster d'origine et vers le nouveau nœud.

  1. Connectez-vous en tant que superutilisateur sur un nœud du cluster.
  2. Si vous possédez votre propre fichier /etc/inet/ntp.conf, copiez-le sur chaque nœud du cluster.
  3. Si vous n'avez pas votre propre fichier /etc/inet/ntp.conf à installer, utilisez le fichier /etc/inet/ntp.conf.cluster en tant que fichier de configuration NTP.

    Remarque - Ne renommez pas le fichier ntp.conf.cluster en ntp.conf.


    Si le fichier /etc/inet/ntp.conf.cluster n'existe pas sur le nœud, il se peut que vous disposiez d'un fichier /etc/inet/ntp.conf provenant d'une installation antérieure du logiciel Oracle Solaris Cluster. Le logiciel Oracle Solaris Cluster crée le fichier /etc/inet/ntp.conf.cluster en tant que fichier de configuration NTP si un fichier /etc/inet/ntp.conf n'est pas déjà présent sur le nœud. Si tel est le cas, effectuez les modifications suivantes dans le fichier ntp.conf.

    1. Utilisez votre éditeur de texte préféré pour ouvrir et modifier le fichier de configuration NTP sur chaque nœud du cluster.
    2. Assurez-vous qu'une entrée existe pour le nom d'hôte privé de chaque nœud de cluster.

      Si vous avez modifié le nom d'hôte privé d'un nœud, assurez-vous que le fichier de configuration NTP contient le nouveau nom d'hôte privé.

    3. Si nécessaire, effectuez d'autres modifications pour respecter les conditions requises par NTP.
    4. Copiez le fichier de configuration NTP sur tous les nœuds du cluster.

      Le contenu du fichier de configuration NTP doit être identique sur tous les nœuds du cluster.

  4. Arrêtez le démon NTP sur chaque nœud.

    Attendez que la commande finisse de s'exécuter sur chaque nœud avant de passer à l'Étape 5.

    phys-schost# svcadm disable ntp
  5. Redémarrez le démon NTP sur chaque nœud.
    • Si vous utilisez le fichier ntp.conf.cluster, exécutez la commande suivante :
      phys-schost# /etc/init.d/xntpd.cluster start

      Le script de démarrage xntpd.cluster commence par chercher le fichier /etc/inet/ntp.conf.

      • Si le fichier ntp.conf existe, le script s'arrête immédiatement, sans démarrer le démon NTP.

      • Si le fichier ntp.conf n'existe pas mais que le fichier ntp.conf.cluster existe, le script démarre le démon NTP. Dans ce cas, le script utilise le fichier ntp.conf.cluster en tant que fichier de configuration NTP.

    • Si vous utilisez le fichier ntp.conf, exécutez l'une des commandes suivantes :
      phys-schost# svcadm enable ntp

Étapes suivantes

À partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Si vous devez effectuer plus d'une tâche dans cette liste, respectez l'ordre dans lequel elles apparaissent dans la liste.

Configuration de l'architecture IPsec sur l'interconnexion privée du cluster

Vous pouvez configurer l'architecture IP Security (IPsec) pour l'interface clprivnet afin de permettre une communication TCP/IP sécurisée sur l'interconnexion de cluster.

Pour plus d'informations sur IPsec, reportez-vous à Partie IV, IPsec du Guide d’administration système : services IP et à la page de manuel ipsecconf(1M). Pour plus d'information sur l'interface clprivnet, reportez-vous à la page de manuel clprivnet(7).

Effectuez cette procédure sur chaque nœud votant du cluster global sur lequel vous souhaitez configurer et utiliser IPsec.

  1. Connectez-vous en tant que superutilisateur.
  2. Sur chaque nœud, déterminez l'adresse IP de l'interface clprivnet du nœud.
    phys-schost# ifconfig clprivnet0
  3. Sur chaque nœud, configurez le fichier de stratégie /etc/inet/ipsecinit.conf et ajoutez des associations de sécurité entre chaque paire d'adresses IP d'interconnexion privée pour laquelle vous souhaitez utiliser IPsec.

    Suivez les instructions de la section Sécurisation du trafic entre deux systèmes à l’aide d’IPsec du Guide d’administration système : services IP. De plus, respectez les directives suivantes :

    • Assurez-vous que la valeur des paramètres de configuration pour ces adresses est cohérente sur tous les nœuds partenaires.

    • Configurez chaque stratégie en tant que ligne séparée du fichier de configuration.

    • Pour implémenter IPsec sans réinitialisation, suivez les instructions de l'exemple de procédure Securing Traffic With IPsec Without Rebooting (Sécurisation du trafic avec IPsec sans réinitialisation).

    Pour plus d'informations sur la stratégie sa unique, reportez-vous à la page de manuel ipsecconf(1M).

    1. Dans chaque fichier, ajoutez une entrée pour chaque adresse IP clprivnet du cluster pour utiliser IPsec.

      Incluez l'adresse IP clprivnet du nœud local.

    2. Si vous utilisez des cartes d'interface de réseau virtuel (VNIC), ajoutez également une entrée pour l'adresse IP de chaque interface physique utilisée par ces cartes.
    3. (Facultatif) Pour activer l'entrelacement des données sur tous les liens, incluez la règle sa unique à l'entrée.

      Cette fonction aide le pilote à utiliser de façon optimale la bande passante du réseau privé du cluster, ce qui permet d'obtenir une granularité élevée de distribution et une meilleure capacité de traitement. L'interface clprivnet utilise le SPI (Security Parameter Index, index de paramètre de sécurité) du paquet pour entrelacer le trafic.

  4. Sur chaque nœud, modifiez le fichier /etc/inet/ike/config pour définir le paramètre p2_idletime_secs.

    Ajoutez cette entrée aux règles de stratégie configurées pour les transports de cluster. Ce paramètre laisse le temps nécessaire à la régénération des associations de sécurité lorsqu'un nœud de cluster se réinitialise et limite la vitesse à laquelle un nœud réinitialisé peut rejoindre le cluster. Une valeur de 30 secondes est adéquate.

    phys-schost# vi /etc/inet/ike/config
    …
    {
        label "clust-priv-interconnect1-clust-priv-interconnect2"
    …
    p2_idletime_secs 30
    }
    …

Étapes suivantes

À partir de la liste suivante, déterminez la prochaine tâche à effectuer pour votre configuration en cluster. Si vous devez effectuer plus d'une tâche dans cette liste, respectez l'ordre dans lequel elles apparaissent dans la liste.

Si vous avez terminé toutes les tâches d'installation et de configuration logicielles et matérielles, vous pouvez également valider le cluster. Reportez-vous à la section Validation du cluster.

Validation du cluster

Une fois que vous avez effectué toutes les opérations de configuration du cluster, utilisez la commande cluster check pour valider la configuration et les fonctionnalités du cluster. Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).


Astuce - Pour toute référence future ou à des fins de dépannage, pour chaque validation que vous exécutez, utilisez l'option -o outputdir afin de spécifier un sous-répertoire pour les fichiers journaux. La réutilisation d'un nom de sous-répertoire existant supprimera tous les fichiers existant dans le sous-répertoire. Par conséquent, pour vous assurer que les fichiers journaux sont disponibles à des fins de référence ultérieure, spécifiez un nom de sous-répertoire unique pour chaque vérification de cluster que vous exécutez.


Avant de commencer

Assurez-vous que vous avez terminé l'installation et la configuration de tous les composants matériels et logiciels du cluster, y compris le microprogramme et les patchs.

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster.
  2. Assurez-vous de posséder les vérifications les plus récentes.

    Accédez à l'onglet Patches & Updates de la page My Oracle Support. En utilisant la recherche avancée, sélectionnez le produit Solaris Cluster et indiquez "check" dans le champ Description pour localiser les patchs de Oracle Solaris Cluster contenant les vérifications. Appliquez les patchs qui n'ont pas encore été installés sur votre cluster.

  3. Exécutez les vérifications de validation basiques.
    # cluster check -v -o outputdir
    -v

    Mode détaillé

    -o outputdir

    Redirige la sortie vers le sous-répertoire outputdir.

    La commande exécute tous les vérifications basiques disponibles. Aucune fonctionnalité du cluster n'est affectée.

  4. Exécutez les vérifications de validation interactives.
    # cluster check -v -k interactive -o outputdir
    -k interactive

    Indique l'exécution de vérifications de validation interactives.

    La commande exécute toutes les vérifications interactives disponibles et vous invite à entrer les informations nécessaires concernant le cluster. Aucune fonctionnalité du cluster n'est affectée.

  5. Exécutez les vérifications de validation fonctionnelle.
    1. Listez toutes les vérifications fonctionnelles disponibles en mode non détaillé.
      # cluster list-checks -k functional
    2. Identifiez quelles vérifications fonctionnelles exécutent des opérations risquant de compromettre la disponibilité des clusters ou des services dans un environnement de production.

      Par exemple, une vérification fonctionnelle peut déclencher une grave erreur de nœud ou un basculement vers un autre nœud.

      # cluster list-checks -v -C checkID
      -C checkID

      Spécifie une vérification spécifique.

    3. Si la vérification fonctionnelle que vous souhaitez réaliser peut interrompre le fonctionnement du cluster, assurez-vous que le cluster n'est pas dans l'environnement de production.
    4. Lancez la vérification fonctionnelle.
      # cluster check -v -k functional -C checkid -o outputdir
      -k functional

      Indique l'exécution de vérifications de validation fonctionnelle.

      Répondez aux invites générées par la vérification pour confirmer que la vérification doit s'exécuter, spécifiez les informations demandées et exécutez les opérations requises.

    5. Répétez l'Étape c et l'Étape d pour chaque vérification fonctionnelle restant à exécuter.

      Remarque - À des fins de suivi, spécifiez un nom de sous-répertoire outputdir unique pour chaque vérification exécutée. Si vous réutilisez un nom outputdir, la sortie de la nouvelle vérification écrase le contenu existant du sous-répertoire outputdir réutilisé.


Exemple 3-5 Création de listes de vérifications de validation interactives

L'exemple suivant permet de répertorier toutes les vérifications interactives qui peuvent être exécutées sur le cluster. L'exemple suivant montre un échantillon des vérifications possibles. Les vérifications disponibles varient selon la configuration.

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

Exemple 3-6 Exécution d'une vérification de validation fonctionnelle

L'exemple suivant permet d'abord d'afficher la liste détaillée des vérifications fonctionnelles. Une description détaillée de la vérification F6968101 est ensuite fournie, laquelle indique que la vérification aurait une incidence sur le fonctionnement des services du cluster. Le cluster est exclu de la production. La vérification fonctionnelle est ensuite exécutée et la sortie détaillée est consignée dans le sous-répertoire funct.test.F6968101.12Jan2011. L'exemple suivant montre un échantillon des vérifications possibles. Les vérifications disponibles varient selon la configuration.

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

Étapes suivantes

Avant de commencer à utiliser le cluster, effectuez un enregistrement de base de la configuration en cluster à des fins de diagnostic ultérieur. Reportez-vous à la section Enregistrement des données de diagnostic de la configuration en cluster.

Enregistrement des données de diagnostic de la configuration en cluster

Après avoir fini de configurer le cluster global mais avant de commencer à l'utiliser, utilisez l'utilitaire Oracle Explorer pour enregistrer des informations de base sur le cluster. Ces données pourront être utilisées en cas de problème ultérieur rencontré avec le cluster.

  1. Connectez-vous en tant que superutilisateur.
  2. Installez le logiciel Oracle Explorer, le cas échéant.

    Le composant Services Tools Bundle contient les packages Oracle Explorer SUNWexplo et SUNWexplu. Reportez-vous à la page http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html pour obtenir des informations sur le téléchargement du logiciel et sur son installation.

  3. Exécutez l'utilitaire explorer sur chaque nœud du cluster.

    Utilisez la commande appropriée pour votre plate-forme :


    Serveur
    Commande
    Sun Fire 3800 à 6800
    # explorer -i -w default,scextended
    Sun Fire V1280 et E2900
    # explorer -i -w default,1280extended
    Sun Fire T1000 et T2000
    # explorer -i -w default,Tx000
    Sun Fire X4x00 et X8x00
    # explorer -i -w default,ipmi
    Toutes les autres plates-formes
    # explorer -i

    Pour plus d'informations, reportez-vous à la page de manuel explorer(1M) dans le répertoire /opt/SUNWexplo/man/man1m/, ainsi qu'au Oracle Explorer User’s Guide.

    Le fichier de sortie explorer est enregistré dans le répertoire /opt/SUNWexplo/output/ sous le nom explorer.id-hôte.nom-hôte-date.tar.gz.

  4. Enregistrez les fichiers à un emplacement auquel vous pouvez accéder si le cluster entier est en panne.
  5. Envoyez tous les fichiers explorer par e-mail à l'alias de la base de données Oracle Explorer correspondant à votre pays.

    Si les données sont nécessaires au diagnostic d'un problème technique du cluster, cette base de données met à la disposition de l'équipe du support technique d'Oracle la sortie de la commande explorer.


    Emplacement
    Adresse e-mail
    Amérique du Nord, Amérique centrale et Amérique du Sud (AMER)
    explorer-database-americas@sun.com
    Europe, Moyen-Orient et Afrique (EMEA)
    explorer-database-emea@sun.com
    Asie, Australie, Nouvelle-Zélande et Pacifique (APAC)
    explorer-database-apac@sun.com

    Afin d'utiliser FTP ou HTTPS pour soumettre des fichiers Oracle Explorer, vous pouvez également suivre les procédures décrites dans Oracle Explorer User’s Guide.