JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'installation du logiciel Oracle Solaris Cluster     Oracle Solaris Cluster 4.1 (Français)
search filter icon
search icon

Informations document

Préface

1.  Planification de la configuration d'Oracle Solaris Cluster

2.  Installation de logiciels sur des noeuds de cluster global

3.  Etablissement d'un cluster global

Présentation de l'établissement d'un nouveau cluster ou noeud de cluster

Etablissement d'un nouveau cluster global ou d'un nouveau noeud de cluster global

Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds (scinstall)

Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds (scinstall)

Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds (XML)

Installation et configuration d'Oracle Solaris et du logiciel Oracle Solaris Cluster (programme d'installation automatisée)

Installation et configuration d'Oracle Solaris et du logiciel Oracle Solaris Cluster (programme d'installation automatisée)

Préparation du cluster pour les noeuds supplémentaires du cluster global

Modification de la configuration du réseau privé lors de l'ajout de noeuds ou de réseaux privés

Configuration du logiciel Oracle Solaris Cluster sur les noeuds supplémentaires de cluster global (scinstall)

Configuration du logiciel Oracle Solaris Cluster sur les noeuds supplémentaires du cluster global (scinstall)

Configuration du logiciel Oracle Solaris Cluster sur les noeuds supplémentaires du cluster global (fichier XML)

Mise à jour des périphériques de quorum après l'ajout d'un noeud au cluster global

Configuration des périphériques de quorum

Vérification de la configuration de quorum et du mode d'installation

Modification des noms d'hôtes privés

Configuration du protocole d'heure réseau (NTP)

Utilisation de votre propre fichier /etc/inet/ntp.conf

Installation du protocole NTP après l'ajout d'un noeud à un cluster à noeud unique

Mise à jour du protocole NTP après la modification d'un nom d'hôte privé

Validation du cluster

Enregistrement des données de diagnostic de la configuration en cluster

4.  Configuration du logiciel Solaris Volume Manager

5.  Création d'un système de fichiers de cluster

6.  Création de clusters de zones

7.  Désinstallation du logiciel à partir du cluster

Index

Etablissement d'un nouveau cluster global ou d'un nouveau noeud de cluster global

Cette section décrit l'établissement d'un nouveau cluster global ou l'ajout d'un noeud à un cluster existant. Les noeuds de cluster global peuvent être des machines physiques, des domaines d'E/S Oracle VM Server for SPARC ou des domaines invités Oracle VM Server for SPARC. Un cluster peut résulter d'une combinaison de types de noeuds. Avant d'effectuer ces tâches, assurez-vous d'avoir installé les packages logiciels pour le SE Oracle Solaris, la structure Oracle Solaris Cluster et les autres produits décrits dans la section Installation du logiciel.

Cette section contient les informations et procédures suivantes :

Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds (scinstall)

L'utilitaire scinstall s'exécute en deux modes d'installation, Standard ou Personnalisé. En cas d'installation standard du logiciel Oracle Solaris Cluster, scinstall spécifie automatiquement les valeurs de configuration par défaut suivantes.

Adresse du réseau privé

172.16.0.0

Masque de réseau du réseau privé

255.255.240.0

Adaptateurs de transport intracluster

Deux adaptateurs exactement

Commutateurs de transport intracluster

switch1 et switch2

Séparation globale

Activée

Sécurité de l'installation (DES)

Limitée

Complétez l'une des fiches d'information de configuration de cluster suivantes pour planifier votre installation en mode Standard ou Personnalisé :

Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds (scinstall)

Suivez cette procédure à partir d'un noeud du cluster global pour configurer le logiciel Oracle Solaris Cluster sur tous les noeuds du cluster.


Remarque - Cette procédure utilise la forme interactive de la commande scinstall. Pour plus d'informations sur l'utilisation des formes non interactives de la commande scinstall, par exemple lors du développement de scripts d'installation, reportez-vous à la page de manuel scinstall(1M).


Suivez ces directives pour exécuter l'utilitaire scinstall interactif dans cette procédure :

Avant de commencer

Effectuez les tâches suivantes :

  1. Si vous utilisez des commutateurs dans l'interconnexion privée de votre nouveau cluster, assurez-vous que le protocole NDP (Neighbor Discovery Protocol) est activé.

    Suivez les instructions de votre documentation concernant les commutateurs pour déterminer si le protocole NDP est activé et pour désactiver ce même protocole.

    Au cours de la configuration du cluster, le logiciel vérifie qu'il n'y a aucun trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé au moment où le trafic de l'interconnexion privée est vérifié, le logiciel supposera que l'interconnexion n'est pas privée et la configuration du cluster sera interrompue. Le protocole NDP doit donc être désactivé au cours de la création d'un cluster.

    Une fois le cluster créé, vous pouvez réactiver le protocole NDP sur les commutateurs d'interconnexion privée si vous souhaitez utiliser cette fonction.

  2. Sur chaque noeud à configurer dans un cluster, prenez le rôle root.

    Sinon, si le profil d'administrateur système est assigné à votre compte, émettez des commandes en tant qu'utilisateur sans rôle root via un shell de profil ou faites précéder les commandes de la commande pfexec.

  3. Assurez-vous que les wrappers TCP pour RPC sont désactivés sur tous les noeuds du cluster.

    Les wrappers TCP Oracle Solaris pour la fonction RPC empêchent la communication internodale requise pour la configuration du cluster.

    1. Sur chaque noeud, affichez l'état des wrappers TCP pour RPC.

      Les wrappers TCP sont activés si config/enable_tcpwrappers est défini sur true, comme indiqué dans la sortie de commande de l'exemple suivant.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. Si les wrappers TCP pour RPC sont activés sur un noeud, désactivez les wrappers TCP et actualisez le service bind RPC.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  4. Préparez les interfaces de réseau public.
    1. Créez des adresses IP statiques pour chaque interface de réseau public.
      # ipadm create-ip interface
      # ipadm create-addr -T static -a local=address/prefix-length addrobj

      Pour plus d'informations, reportez-vous à la section Configuration d’une interface IP du manuel Connexion de systèmes à l’aide d’une configuration réseau fixe dans Oracle Solaris 11.1.

    2. (Facultatif) Créez des groupes IPMP pour les interfaces de réseau public.

      Lors de la configuration initiale du cluster, à moins que des interfaces de réseau public IPv6 qui ne sont pas de type lien local existent dans le cluster, des groupes IPMP sont automatiquement créés en fonction des sous-réseaux correspondants. Ces groupes utilisent des sondes transitives pour la surveillance d'interface et aucune adresse de test n'est requise.

      Si ces groupes IPMP automatiquement créés ne répondent pas à vos besoins ou si des groupes IPMP ne seraient pas créés car votre configuration comprend une ou plusieurs interfaces de réseau public IPv6 qui ne sont pas de type lien local, effectuez l'une des opérations suivantes :

      • Créez les groupes IPMP dont vous avez besoin avant d'établir le cluster.
      • Une fois le cluster établi, utilisez la commande ipadm pour modifier les groupes IPMP.

      Pour plus d'informations, reportez-vous à la section Configuration de groupes IPMP du manuel Gestion des performances du réseau Oracle Solaris 11.1.

  5. A partir d'un noeud de cluster, démarrez l'utilitaire scinstall.
    phys-schost# scinstall
  6. Saisissez le numéro de l'option Create a New Cluster (Créer un nouveau cluster) ou Add a Cluster Node (Ajouter un noeud de cluster), puis appuyez sur la touche Entrée.
     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    Le menu New Cluster and Cluster Node (Nouveau cluster et Noeud de cluster) s'affiche.

  7. Saisissez le numéro de l'option Create a New Cluster (Créer un nouveau cluster), puis appuyez sur la touche Entrée.

    Le menu Typical or Custom Mode (Mode Standard ou Personnalisé) s'affiche.

  8. Saisissez le numéro de l'option appropriée pour effectuer une installation standard ou personnalisée, puis appuyez sur la touche Entrée.

    L'écran Create a New Cluster (Créer un nouveau cluster) s'affiche. Prenez connaissance des éléments requis, puis appuyez sur Ctrl+D pour continuer.

  9. Suivez les invites à l'écran pour répondre aux questions de la fiche de planification de la configuration.

    L'utilitaire scinstall installe et configure tous les noeuds de cluster, puis réinitialise le cluster. Le cluster est établi lorsque tous les noeuds ont été correctement initialisés dans le cluster. La sortie de l'installation d'Oracle Solaris Cluster est consignée dans un fichier /var/cluster/logs/install/scinstall.log.N.

  10. Vérifiez au niveau de chaque noeud que les services multiutilisateurs de l'utilitaire de gestion des services (SMF, Service Management Facility) sont en ligne.

    Si les services ne sont pas encore en ligne pour un noeud, attendez leur mise en ligne, puis passez à l'étape suivante.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  11. A partir d'un seul noeud, vérifiez que tous les noeuds ont rejoint le cluster.
    phys-schost# clnode status

    La sortie est similaire à l'exemple suivant.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

  12. Sortez le cluster du mode installmode.
    phys-schost# clquorum reset
  13. (Facultatif) Activez la fonction de réinitialisation automatique du noeud.

    Cette fonction réinitialise automatiquement un noeud si tous les chemins de disque partagés et contrôlés échouent, à la condition qu'au moins un des disques soit accessible à partir d'un autre noeud du cluster.


    Remarque - Lors de la configuration initiale, le contrôle de chemin de disque est activé par défaut pour tous les périphériques détectés.


    1. Activez la réinitialisation automatique.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Spécifie la propriété à définir.

      reboot_on_path_failure=enable

      Active la réinitialisation automatique de noeud si un échec se produit au niveau des chemins contrôlés de disque partagé.

    2. Vérifiez que la réinitialisation automatique en cas d'échec de chemin de disque est activée.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  14. Si vous prévoyez d'autoriser RPC à utiliser des wrappers TCP, ajoutez toutes les adresses IP clprivnet0 au fichier /etc/hosts.allow sur chaque noeud de cluster.

    Sans cet ajout au fichier /etc/hosts.allow, les wrappers TCP empêchent la communication internodale via RPC pour les utilitaires d'administration du cluster.

    1. Sur chaque noeud, affichez les adresses IP de tous les périphériques clprivnet0 situés sur le noeud.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. Sur chaque noeud du cluster, ajoutez au fichier /etc/hosts.allow les adresses IP de tous les périphériques clprivnet0 du cluster.
  15. Si vous prévoyez d'utiliser le service de données HA pour NFS (HA pour NFS) sur un système de fichiers local hautement disponible, excluez du mappage de l'agent de montage automatique tous les partages du système de fichiers local hautement disponible exporté par HA pour NFS.

    Pour plus d'informations sur le mappage de l'agent de montage automatique, reportez-vous à la section Tâches administratives impliquant des mappes du manuel Gestion de systèmes de fichiers réseau dans Oracle Solaris 11.1.

Exemple 3-1 Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds

L'exemple suivant illustre les messages de progression scinstall journalisés au fur et à mesure que scinstall effectue les tâches de configuration sur le cluster à deux noeuds, schost. Le cluster est installé à partir de phys-schost-1 à l'aide de l'utilitaire scinstall en mode standard. L'autre noeud de cluster est phys-schost-2. Les noms des adaptateurs sont net2 et net3. La sélection automatique d'un périphérique de quorum est activée.

    Log file - /var/cluster/logs/install/scinstall.log.24747

   Configuring global device using lofi on pred1: done
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:net2  switch1  phys-schost-2:net2
        phys-schost-1:net3  switch2  phys-schost-2:net3

    Completed discovery of the cluster transport configuration.

    Started cluster check on "phys-schost-1".
    Started cluster check on "phys-schost-2".

    cluster check completed with no errors or warnings for "phys-schost-1".
    cluster check completed with no errors or warnings for "phys-schost-2".

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

Erreurs fréquentes

Echec de la configuration – Si un ou plusieurs noeuds ne parviennent pas à rejoindre le cluster ou si des informations de configuration erronées ont été spécifiées, essayez tout d'abord de répéter la procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque noeud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels d'Oracle Solaris Cluster. Puis effectuez à nouveau cette procédure.

Étapes suivantes

Si vous voulez configurer un périphérique de quorum dans votre cluster, passez à la section Configuration des périphériques de quorum.

Sinon, passez à la section Vérification de la configuration de quorum et du mode d'installation.

Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds (XML)

Suivez cette procédure pour configurer un nouveau cluster global en utilisant un fichier XML de configuration de cluster. Le nouveau cluster peut être la copie d'un cluster existant exécutant le logiciel Oracle Solaris Cluster 4.1.

Cette procédure permet de configurer les composants de cluster suivants :

Avant de commencer

Effectuez les tâches suivantes :

  1. Assurez-vous que le logiciel Oracle Solaris Cluster 4.1 n'est pas encore configuré sur chaque noeud potentiel du cluster.
    1. Prenez le rôle root sur un noeud potentiel que vous souhaitez configurer dans le nouveau cluster.
    2. Déterminez si le logiciel Oracle Solaris Cluster est déjà configuré sur le noeud potentiel.
      phys-schost# /usr/sbin/clinfo -n
      • Si la commande renvoie le message suivant, passez à l'étape c.
        clinfo: node is not configured as part of acluster: Operation not applicable

        Ce message indique que le logiciel Oracle Solaris Cluster n'est pas encore configuré sur le noeud potentiel.

      • Si la commande renvoie le numéro d'ID du noeud, n'effectuez pas cette procédure.

        Si un ID de noeud est renvoyé, cela signifie que le logiciel Oracle Solaris Cluster est déjà configuré sur le noeud.

        Si le cluster exécute une ancienne version du logiciel Oracle Solaris Cluster et que vous souhaitez installer le logiciel Oracle Solaris Cluster 4.1, suivez plutôt les procédures de mise à niveau du Oracle Solaris Cluster Upgrade Guide .

    3. Répétez les étapes a et b sur les autres noeuds potentiels que vous souhaitez configurer dans le nouveau cluster.

      Si le logiciel Oracle Solaris Cluster n'est configuré sur aucun des noeuds potentiels du cluster, passez à l'étape 2.

  2. Assurez-vous que les wrappers TCP pour RPC sont désactivés sur tous les noeuds du cluster.

    Les wrappers TCP Oracle Solaris pour la fonction RPC empêchent la communication internodale requise pour la configuration du cluster.

    1. Sur chaque noeud, affichez l'état des wrappers TCP pour RPC.

      Les wrappers TCP sont activés si config/enable_tcpwrappers est défini sur true, comme indiqué dans la sortie de commande de l'exemple suivant.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. Si les wrappers TCP pour RPC sont activés sur un noeud, désactivez les wrappers TCP et actualisez le service bind RPC.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  3. Si vous utilisez des commutateurs dans l'interconnexion privée de votre nouveau cluster, assurez-vous que le protocole NDP (Neighbor Discovery Protocol) est activé.

    Suivez les instructions de votre documentation concernant les commutateurs pour déterminer si le protocole NDP est activé et pour désactiver ce même protocole.

    Au cours de la configuration du cluster, le logiciel vérifie qu'il n'y a aucun trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé au moment où le trafic de l'interconnexion privée est vérifié, le logiciel supposera que l'interconnexion n'est pas privée et la configuration du cluster sera interrompue. Le protocole NDP doit donc être désactivé au cours de la création d'un cluster.

    Une fois le cluster créé, vous pouvez réactiver le protocole NDP sur les commutateurs d'interconnexion privée si vous souhaitez utiliser cette fonction.

  4. Si vous dupliquez un cluster existant exécutant le logiciel Oracle Solaris Cluster 4.1, utilisez un noeud de ce cluster pour créer un fichier XML de configuration en cluster.
    1. Prenez le rôle root sur un membre actif du cluster que vous souhaitez dupliquer.
    2. Exportez les informations de configuration du cluster existant vers un fichier.
      phys-schost# cluster export -o clconfigfile
      -o

      Spécifie la destination de la sortie.

      clconfigfile

      Nom du fichier XML de configuration en cluster. Le nom de fichier spécifié peut correspondre à un fichier existant ou un nouveau fichier que la commande créera.

      Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).

    3. Copiez le fichier de configuration vers le noeud potentiel à partir duquel vous souhaitez configurer le nouveau cluster.

      Vous pouvez stocker le fichier dans un répertoire accessible aux autres hôtes que vous allez configurer en tant que noeuds de cluster.

  5. Prenez le rôle root sur le noeud potentiel à partir duquel vous allez configurer le nouveau cluster.
  6. Le cas échéant, modifiez ou créez le fichier XML de configuration en cluster.

    Incluez ou modifiez les valeurs des éléments XML pour refléter la configuration en cluster que vous souhaitez créer.

    • Si vous dupliquez un cluster existant, ouvrez le fichier que vous avez créé avec la commande cluster export.

    • Si vous ne dupliquez pas un cluster existant, créez un nouveau fichier.

      Basez le fichier sur la hiérarchie d'éléments illustrée sur la page de manuel clconfiguration(5CL). Vous pouvez stocker le fichier dans un répertoire accessible aux autres hôtes que vous allez configurer en tant que noeuds de cluster.

    • Pour établir un cluster, les éléments suivants doivent avoir une valeur valide dans le fichier XML de configuration en cluster :

      • Nom du cluster

      • Noeuds du cluster

      • Transport intracluster

    • Si vous modifiez les informations de configuration exportées depuis un cluster existant, certaines valeurs que vous devez modifier pour refléter le nouveau cluster (le nom des noeuds, par exemple) sont utilisées dans la définition de plus d'un objet de cluster.

    Reportez-vous à la page de manuel clconfiguration(5CL) pour plus d'informations sur la structure et le contenu du fichier XML de configuration en cluster.

  7. Validez le fichier XML de configuration en cluster.
    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

    Pour plus d'informations, reportez-vous à la page de manuel xmllint(1).

  8. A partir du noeud potentiel qui contient le fichier XML de configuration en cluster, créez le cluster.
    phys-schost# cluster create -i clconfigfile
    -i clconfigfile

    Spécifie le nom du fichier XML de configuration en cluster à utiliser en tant que source de données en entrée.

  9. Vérifiez au niveau de chaque noeud que les services multiutilisateurs de l'utilitaire de gestion des services (SMF, Service Management Facility) sont en ligne.

    Si les services ne sont pas encore en ligne pour un noeud, attendez leur mise en ligne, puis passez à l'étape suivante.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. A partir d'un seul noeud, vérifiez que tous les noeuds ont rejoint le cluster.
    phys-schost# clnode status

    La sortie est similaire à l'exemple suivant.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

  11. Effectuez toutes les mises à jour nécessaires du logiciel Oracle Solaris Cluster.

    Reportez-vous au Chapitre 11, Mise à jour du logiciel du manuel Guide d’administration système d’Oracle Solaris Cluster pour consulter des instructions d'installation.

  12. Si vous prévoyez d'autoriser RPC à utiliser des wrappers TCP, ajoutez toutes les adresses IP clprivnet0 au fichier /etc/hosts.allow sur chaque noeud de cluster.

    Sans cet ajout au fichier /etc/hosts.allow, les wrappers TCP empêchent la communication internodale via RPC pour les utilitaires d'administration du cluster.

    1. Sur chaque noeud, affichez les adresses IP de tous les périphériques clprivnet0 situés sur le noeud.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. Sur chaque noeud du cluster, ajoutez au fichier /etc/hosts.allow les adresses IP de tous les périphériques clprivnet0 du cluster.
  13. Si vous prévoyez d'utiliser le service de données HA pour NFS (HA pour NFS) sur un système de fichiers local hautement disponible, excluez du mappage de l'agent de montage automatique tous les partages du système de fichiers local hautement disponible exporté par HA pour NFS.

    Pour plus d'informations sur le mappage de l'agent de montage automatique, reportez-vous à la section Tâches administratives impliquant des mappes du manuel Gestion de systèmes de fichiers réseau dans Oracle Solaris 11.1.

  14. Pour dupliquer les informations de quorum à partir d'un cluster existant, configurez le périphérique de quorum en utilisant le fichier XML de configuration en cluster.

    Si vous avez créé un cluster à deux noeuds, vous devez configurer un périphérique de quorum. Si vous avez choisi de ne pas utiliser le fichier XML de configuration en cluster pour créer un périphérique de quorum requis, reportez-vous à la section Configuration des périphériques de quorum.

    1. Si vous utilisez un serveur de quorum pour le périphérique de quorum, assurez-vous que le serveur de quorum est configuré et en cours d'exécution.

      Suivez les instructions de la section Installation et configuration du logiciel Oracle Solaris Cluster Quorum Server.

    2. Si vous utilisez un périphérique NAS pour le périphérique de quorum, assurez-vous que le périphérique NAS est configuré et opérationnel.
      1. Respectez les conditions requises pour l'utilisation d'un périphérique NAS en tant que périphérique de quorum.

        Reportez-vous au Oracle Solaris Cluster With Network-Attached Storage Device Manual .

      2. Suivez les instructions de la documentation de votre périphérique pour configurer le périphérique NAS.
    3. Assurez-vous que les informations de configuration du quorum contenues dans le fichier XML de configuration en cluster correspondent à des valeurs valides pour le cluster que vous avez créé.
    4. Si vous avez apporté des modifications dans le fichier XML de configuration en cluster, validez le fichier.
      phys-schost# xmllint --valid --noout clconfigfile
    5. Configurez le périphérique de quorum.
      phys-schost# clquorum add -i clconfigfile device-name
      device-name

      Spécifie le nom du périphérique à configurer en tant que périphérique de quorum.

  15. Sortez le cluster du mode d'installation.
    phys-schost# clquorum reset
  16. Bloquez l'accès à la configuration en cluster aux machines qui ne sont pas des membres configurés du cluster.
    phys-schost# claccess deny-all
  17. (Facultatif) Activez la réinitialisation automatique des noeuds si tous les chemins de disque partagé échouent.

    Remarque - Lors de la configuration initiale, le contrôle de chemin de disque est activé par défaut pour tous les périphériques découverts.


    1. Activez la réinitialisation automatique.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Spécifie la propriété à définir.

      reboot_on_path_failure=enable

      Active la réinitialisation automatique de noeud si un échec se produit au niveau des chemins contrôlés de disque partagé.

    2. Vérifiez que la réinitialisation automatique en cas d'échec de chemin de disque est activée.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Exemple 3-2 Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds par le biais d'un fichier XML

Dans l'exemple suivant, la configuration en cluster et la configuration du quorum sont dupliquées d'un cluster à deux noeuds existants vers un nouveau cluster à deux noeuds. Le nouveau cluster est installé avec le SE Solaris 11.1. La configuration en cluster est exportée à partir d'un noeud existant (phys-oldhost-1) vers le fichier XML de la configuration en cluster clusterconf.xml. Les noms de noeud du nouveau cluster sont phys-newhost-1 et phys-newhost-2. Le périphérique configuré en tant que périphérique de quorum dans le nouveau cluster est d3.

Le nom d'invite phys-newhost-N dans cet exemple indique que la commande est exécutée sur les deux noeuds de cluster.

phys-newhost-N# /usr/sbin/clinfo -n
clinfo: node is not configured as part of a cluster: Operation not applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
No errors are reported
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
Output shows that both nodes are online
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset
Configuration de composants supplémentaires

Une fois le cluster entièrement établi, vous pouvez dupliquer la configuration des autres composants de cluster à partir du cluster existant. Si ce n'est déjà fait, modifiez la valeur des éléments XML que vous souhaitez dupliquer pour refléter la configuration en cluster à laquelle vous ajoutez le composant. Par exemple, si vous dupliquez des groupes de ressources, assurez-vous que l'entrée <resourcegroupNodeList> contient les noms de noeuds corrects du nouveau cluster, et non ceux du cluster que vous avez dupliqué, à moins que les noms de noeuds soient identiques.

Pour dupliquer un composant de cluster, exécutez la sous-commande export de la commande orientée objet pour le composant de cluster que vous souhaitez dupliquer. Pour plus d'informations sur la syntaxe et les options de la commande, reportez-vous à la page de manuel de l'objet de cluster que vous souhaitez dupliquer.

La liste suivante répertorie les composants de cluster que vous pouvez créer à partir d'un fichier XML de configuration de cluster une fois le cluster établi. La liste inclut la page de manuel de la commande que vous utilisez pour dupliquer le composant :

Erreurs fréquentes

Echec de la configuration – Si un ou plusieurs noeuds ne parviennent pas à rejoindre le cluster ou si des informations de configuration erronées ont été spécifiées, essayez tout d'abord de répéter la procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque noeud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels d'Oracle Solaris Cluster. Puis effectuez à nouveau cette procédure.

Étapes suivantes

Passez à la section Vérification de la configuration de quorum et du mode d'installation.

Installation et configuration d'Oracle Solaris et du logiciel Oracle Solaris Cluster (programme d'installation automatisée)

Lors de l'installation d'un cluster par le programme d'installation automatisée scinstall, vous pouvez choisir d'exécuter l'installation du logiciel Oracle Solaris de l'une des manières suivantes :

Reportez-vous à la section Installation avec le programme d’installation en mode texte du manuel Installation des systèmes Oracle Solaris 11.1 pour plus d'informations sur l'installation interactive du logiciel Oracle Solaris.

L'utilitaire scinstall s'exécute en deux modes d'installation, Standard ou Personnalisé. En cas d'installation standard du logiciel Oracle Solaris Cluster, scinstall spécifie automatiquement les valeurs de configuration par défaut suivantes.

Adresse du réseau privé

172.16.0.0

Masque de réseau du réseau privé

255.255.240.0

Adaptateurs de transport intracluster

Deux adaptateurs exactement

Commutateurs de transport intracluster

switch1 et switch2

Séparation globale

Activée

Sécurité de l'installation (DES)

Limitée

Complétez l'une des fiches d'information de configuration de cluster suivantes pour planifier votre installation en mode Standard ou Personnalisé :

Installation et configuration d'Oracle Solaris et du logiciel Oracle Solaris Cluster (programme d'installation automatisée)

Cette procédure décrit la configuration et l'utilisation de la méthode d'installation du programme d'installation automatisée personnalisé scinstall(1M). Cette méthode installe le SE Oracle Solaris et le logiciel de services de données et de structure Oracle Solaris Cluster sur tous les noeuds de cluster global en une seule opération et établit le cluster. Ces noeuds peuvent être des machines physiques, des domaines d'E/S Oracle VM Server for SPARC (SPARC uniquement), des domaines invités ou une combinaison de ces types de noeuds.


Remarque - Si vos ordinateurs clusterisés physiquement sont configurés avec Oracle VM Server for SPARC, installez le logiciel Oracle Solaris Cluster dans les domaines d'E/S ou les domaines invités uniquement.


Suivez ces directives pour exécuter l'utilitaire scinstall interactif dans cette procédure :

Avant de commencer

Effectuez les tâches suivantes :

  1. Configurez le serveur d'installation du programme d'installation automatisée (AI) et le serveur DHCP.

    Assurez-vous que le serveur d'installation AI remplit les conditions suivantes.

    • Le serveur d'installation est sur le même sous-réseau que les noeuds de cluster.

    • Le serveur d'installation n'est pas un noeud de cluster.

    • Le serveur d'installation exécute une version du SE Oracle Solaris prise en charge par le logiciel Oracle Solaris Cluster.

    • Chaque noeud de cluster est configuré en tant que client d'installation AI personnalisé utilisant le répertoire AI personnalisé que vous avez paramétré pour l'installation d'Oracle Solaris Cluster.

    Suivez les instructions correspondant à votre plate-forme logicielle et à la version du système d'exploitation pour paramétrer le serveur d'installation AI et le serveur DHCP. Reportez-vous au Chapitre 8, Configuration d’un serveur d’installation du manuel Installation des systèmes Oracle Solaris 11.1 et au manuel Utilisation de DHCP dans Oracle Solaris 11.1.

  2. Sur le serveur d'installation AI, prenez le rôle root.
  3. Sur le serveur d'installation AI, installez le package de prise en charge AI Oracle Solaris Cluster.
    1. Assurez-vous que les éditeurs solaris et ha-cluster sont valides.
      installserver# pkg publisher
      PUBLISHER        TYPE     STATUS   URI
      solaris          origin   online   solaris-repository
      ha-cluster       origin   online   ha-cluster-repository
    2. Installez le package de prise en charge AI du cluster.
      installserver# pkg install ha-cluster/system/install
  4. Sur le serveur d'installation AI, démarrez l'utilitaire scinstall.
    installserver# /usr/cluster/bin/scinstall

    Le menu principal scinstall s'affiche.

  5. Sélectionnez l'option de menu Install and Configure a Cluster From This Automated Installer Install Server (Installer et configurer un cluster à partir de ce serveur d'installation du programme d'installation automatisée).
     *** Main Menu ***
     
        Please select from one of the following (*) options:
    
          * 1) Install and configure a cluster from this Automated Installer install server
          * 2) Print release information for this Automated Installer install server 
    
          * ?) Help with menu options
          * q) Quit
     
        Option:  1
  6. Suivez les invites à l'écran pour répondre aux questions de la fiche de planification de la configuration.
  7. Pour effectuer toute autre tâche post-installation, configurez votre propre manifeste d'AI.

    Reportez-vous au Chapitre 13, Exécution d’un script personnalisé lors de la première initialisation du manuel Installation des systèmes Oracle Solaris 11.1.

  8. Quittez le serveur d'installation AI.
  9. Si vous utilisez une console d'administration de cluster, ouvrez un écran de console pour chaque noeud du cluster.
    • Si le logiciel pconsole est installé et configuré sur la console d'administration, exécutez l'utilitaire pconsole pour afficher les écrans de console individuels.

      En tant que rôle root, exécutez la commande suivante pour démarrer l'utilitaire pconsole :

      adminconsole# pconsole host[:port] […]  &

      L'utilitaire pconsole ouvre également une fenêtre principale à partir de laquelle vous pouvez envoyer vos données en entrée à toutes les fenêtres de console individuelles en même temps.

    • Si vous n'exécutez pas l'utilitaire pconsole, connectez-vous individuellement aux consoles de chaque noeud.
  10. Assurez-vous que les wrappers TCP pour RPC sont désactivés sur tous les noeuds du cluster.

    Les wrappers TCP Oracle Solaris pour la fonction RPC empêchent la communication internodale requise pour la configuration du cluster.

    1. Sur chaque noeud, affichez l'état des wrappers TCP pour RPC.

      Les wrappers TCP sont activés si config/enable_tcpwrappers est défini sur true, comme indiqué dans la sortie de commande de l'exemple suivant.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. Si les wrappers TCP pour RPC sont activés sur un noeud, désactivez les wrappers TCP et actualisez le service bind RPC.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  11. Arrêtez et initialisez chaque noeud pour démarrer l'installation AI.

    Le logiciel Oracle Solaris est installé avec la configuration par défaut.


    Remarque - Vous ne pouvez pas utiliser cette méthode si vous souhaitez personnaliser l'installation d'Oracle Solaris. Si vous choisissez l'installation interactive d'Oracle Solaris, le programme d'installation automatisée est ignoré et le logiciel Oracle Solaris Cluster n'est ni installé, ni configuré. Pour personnaliser Oracle Solaris lors de l'installation, suivez les instructions de la section Installation du logiciel Oracle Solaris, puis installez et configurez le cluster en suivant les instructions de la section Installation des packages logiciels de structure et de services de données Oracle Solaris Cluster.


    • SPARC :
      1. Arrêtez chaque noeud.
        phys-schost# shutdown -g0 -y -i0
      2. Initialisez le noeud à l'aide de la commande suivante
        ok boot net:dhcp - install

        Remarque - Entourez le tiret (-) dans la commande par un espace de chaque côté.


    • x86 :
      1. Réinitialisez le noeud.
        # reboot -p
      2. Lors de l'initialisation PXE, appuyez sur Ctrl+N.

        Le menu GRUB s'affiche.

      3. Sélectionnez immédiatement l'entrée Automated Install (Installation automatisée) et appuyez sur Entrée.

        Remarque - Si vous ne sélectionnez pas l'entrée Automated Install (Installation automatisée) dans les 20 secondes, l'installation se poursuit de façon interactive en mode texte, qui est la méthode par défaut, et le logiciel Oracle Solaris Cluster n'est ni installé, ni configuré.


        Sur chaque noeud, un nouvel environnement d'initialisation est créé et le programme d'installation automatisée installe le SE Oracle Solaris et le logiciel Oracle Solaris Cluster. Une fois l'installation terminée, chaque noeud est installé en tant que nouveau noeud du cluster. La sortie de l'installation d'Oracle Solaris Cluster est consignée dans un fichier /var/cluster/logs/install/scinstall.log. sur chaque noeud.

  12. Vérifiez au niveau de chaque noeud que les services multiutilisateurs de l'utilitaire de gestion des services (SMF, Service Management Facility) sont en ligne.

    Si les services ne sont pas encore en ligne pour un noeud, attendez leur mise en ligne, puis passez à l'étape suivante.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  13. Sur chaque noeud, activez l'environnement d'initialisation installé et effectuez l'initialisation en mode cluster.
    1. Activez l'environnement d'initialisation installé.
      # beadm activate BE-name
    2. Arrêtez le noeud.
      # shutdown -y -g0 -i0

      Remarque - N'utilisez pas les commandes reboot ou halt. Ces commandes n'activent pas un nouvel environnement d'initialisation.


    3. Initialisez le noeud en mode cluster.
  14. Si vous prévoyez d'utiliser le service de données HA pour NFS (HA pour NFS) sur un système de fichiers local hautement disponible, excluez du mappage de l'agent de montage automatique tous les partages du système de fichiers local hautement disponible exporté par HA pour NFS.

    Pour plus d'informations sur le mappage de l'agent de montage automatique, reportez-vous à la section Tâches administratives impliquant des mappes du manuel Gestion de systèmes de fichiers réseau dans Oracle Solaris 11.1.

  15. x86 : définissez le fichier d'initialisation par défaut.

    Paramétrer cette valeur vous permet de réinitialiser le noeud s'il vous est impossible d'accéder à une invite de connexion.

    grub edit> kernel /platform/i86pc/kernel/amd64/unix -B $ZFS-BOOTFS -k

    Pour plus d'informations, reportez-vous à la section Initialisation d’un système avec le débogueur de noyau activé (kmdb) du manuel Initialisation et arrêt d’Oracle Solaris sur les plates-formes x86 .

  16. Si vous effectuez une tâche requérant la réinitialisation du cluster, réinitialisez le cluster.

    Les tâches suivantes requièrent une réinitialisation :

    • Installation de mises à jour logicielles requérant une réinitialisation du noeud ou du cluster

    • Modifications de configuration requérant une réinitialisation pour devenir actives

    1. Sur un noeud, prenez le rôle root.
    2. Arrêtez le cluster.
      phys-schost-1# cluster shutdown -y -g0 cluster-name

      Remarque - Ne réinitialisez pas le noeud installé en premier dans le cluster tant que le cluster n'est pas arrêté. Tant que le mode d'installation du cluster est actif, seul le noeud installé en premier (celui qui a établi le cluster) dispose d'un vote de quorum. Dans un cluster établi encore en mode d'installation : si le cluster n'est pas arrêté avant la réinitialisation du premier noeud, les autres noeuds du cluster ne pourront pas obtenir le quorum. Le cluster entier est alors arrêté.

      Les noeuds du cluster restent en mode d'installation jusqu'à la première exécution de la commande clsetup. Cette commande est exécutée au cours de la procédure Configuration des périphériques de quorum.


    3. Réinitialisez chaque noeud du cluster.

    Le cluster est établi lorsque tous les noeuds ont été correctement initialisés dans le cluster. La sortie de l'installation d'Oracle Solaris Cluster est consignée dans le fichier /var/cluster/logs/install/scinstall.log.N.

  17. A partir d'un seul noeud, vérifiez que tous les noeuds ont rejoint le cluster.
    phys-schost# clnode status

    La sortie est similaire à l'exemple suivant.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

  18. Si vous prévoyez d'autoriser RPC à utiliser des wrappers TCP, ajoutez toutes les adresses IP clprivnet0 au fichier /etc/hosts.allow sur chaque noeud de cluster.

    Sans cet ajout au fichier /etc/hosts.allow, les wrappers TCP empêchent la communication internodale via RPC pour les utilitaires d'administration du cluster.

    1. Sur chaque noeud, affichez les adresses IP de tous les périphériques clprivnet0 situés sur le noeud.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. Sur chaque noeud du cluster, ajoutez au fichier /etc/hosts.allow les adresses IP de tous les périphériques clprivnet0 du cluster.
  19. (Facultatif) Sur chaque noeud, activez la réinitialisation automatique des noeuds si tous les chemins de disque partagé échouent.

    Remarque - Lors de la configuration initiale, le contrôle de chemin de disque est activé par défaut pour tous les périphériques découverts.


    1. Activez la réinitialisation automatique.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p
      Spécifie la propriété à définir.
      reboot_on_path_failure=enable

      Active la réinitialisation automatique de noeud si un échec se produit au niveau des chemins contrôlés de disque partagé.

    2. Vérifiez que la réinitialisation automatique en cas d'échec de chemin de disque est activée.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Étapes suivantes

1. Effectuez celles des procédures suivantes qui sont adaptées à la configuration de votre cluster.

2. Configurez le quorum, si ce n'est déjà fait, et effectuez les tâches post-installation.

Erreurs fréquentes

Option scinstall désactivée : si l'option AI de la commande scinstall n'est pas précédée d'un astérisque, l'option est désactivée. Cette condition indique que l'installation AI n'est pas terminée ou qu'une erreur s'est produite. Pour remédier à ce problème, arrêtez tout d'abord l'utilitaire scinstall. Répétez les étapes de l'Étape 1 à l'Étape 7 pour corriger l'installation AI, puis redémarrez l'utilitaire scinstall.

Préparation du cluster pour les noeuds supplémentaires du cluster global

Suivez cette procédure pour les noeuds existants du cluster global afin de préparer le cluster à l'ajout de nouveaux noeuds.

Avant de commencer

Effectuez les tâches suivantes :

  1. Ajoutez le nom du nouveau noeud à la liste des noeuds autorisés du cluster.
    1. Sur un noeud quelconque, prenez le rôle root.
    2. Démarrez l'utilitaire clsetup.
      phys-schost# clsetup

      Le menu principal s'affiche.

    3. Sélectionnez l'option de menu New Nodes (Nouveaux noeuds).
    4. Sélectionnez l'option de menu Specify the Name of a Machine Which May Add Itself (Spécifier le nom d'une machine autorisée à s'auto-ajouter).
    5. Suivez les instructions des invites à l'écran pour ajouter le nom du noeud à la liste des machines reconnues.

      L'utilitaire clsetup affiche le message Command completed successfully si la tâche s'exécute sans erreur.

    6. Quittez l'utilitaire clsetup.
  2. Si vous ajoutez un noeud à un cluster à noeud unique, affichez la configuration de l'interconnexion pour vous assurer que deux interconnexions de cluster existent déjà.
    phys-schost# clinterconnect show

    Pour pouvoir ajouter un noeud, vous devez disposez d'au moins deux câbles ou deux adaptateurs configurés.

    • Si la sortie affiche des informations de configuration pour deux câbles ou deux adaptateurs, passez à l'Étape 3.
    • Si la sortie n'affiche aucune information de configuration pour les câbles ou les adaptateurs ou affiche des informations de configuration uniquement pour un câble ou un adaptateur, configurez de nouvelles interconnexions de cluster.
      1. Sur un noeud, démarrez l'utilitaire clsetup.
        phys-schost# clsetup
      2. Sélectionnez l'option de menu Cluster Interconnect (Interconnexion de cluster).
      3. Sélectionnez l'option de menu Add a Transport Cable (Ajouter un câble de transport).

        Suivez les instructions pour spécifier le nom du noeud à ajouter au cluster et le nom de l'adaptateur de transport et préciser si vous souhaitez utiliser un commutateur de transport ou non.

      4. Si besoin est, répétez l'Étape c pour configurer une seconde interconnexion de cluster.
      5. Lorsque vous avez terminé, quittez l'utilitaire clsetup.
      6. Vérifiez que le cluster dispose à présent de deux interconnexions de cluster configurées.
        phys-schost# clinterconnect show

        La sortie de la commande devrait à présent afficher les informations de configuration d'au moins deux interconnexions de cluster.

  3. Assurez-vous que la configuration du réseau privé peut prendre en charge les noeuds et les réseaux privés que vous ajoutez.
    1. Affichez le nombre maximal de noeuds et de réseaux privés et les clusters de zones pris en charge par la configuration du réseau privé actuel.
      phys-schost# cluster show-netprops

      Vous obtenez une sortie similaire à ce qui suit :

      === Private Network ===                        
      
      private_netaddr:                                172.16.0.0
        private_netmask:                                255.255.240.0
        max_nodes:                                      64
        max_privatenets:                                10
        max_zoneclusters:                               12
    2. Déterminez si la configuration actuelle du réseau privé peut prendre en charge les noeuds supplémentaires, y compris les zones non globales et les réseaux privés.

Étapes suivantes

Configurez le logiciel Oracle Solaris Cluster sur tous les nouveaux noeuds du cluster. Passez aux sections Configuration du logiciel Oracle Solaris Cluster sur les noeuds supplémentaires du cluster global (scinstall) ou Configuration du logiciel Oracle Solaris Cluster sur les noeuds supplémentaires du cluster global (fichier XML).

Modification de la configuration du réseau privé lors de l'ajout de noeuds ou de réseaux privés

Effectuez cette tâche pour modifier la plage d'adresses IP privées du cluster global afin de pallier une éventuelle augmentation dans un ou plusieurs des composants de cluster suivants :

Vous pouvez également utiliser cette procédure pour réduire la plage d'adresses IP privées.


Remarque - Avec cette procédure, vous devez arrêter tout le cluster. Si vous avez besoin de modifier uniquement le masque de réseau, par exemple pour étendre la prise en charge de clusters de zones, ne suivez pas cette procédure. A la place, exécutez la commande suivante à partir d'un noeud du cluster global exécuté en mode cluster, afin de spécifier le nombre attendu de clusters de zones :

phys-schost# cluster set-netprops num_zoneclusters=N

Cette commande ne requiert pas l'arrêt du cluster.


  1. Prenez le rôle root sur un noeud du cluster.
  2. A partir d'un noeud, démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal clsetup s'affiche.

  3. Mettez hors ligne chaque groupe de ressources.
    1. Sélectionnez l'option de menu Resource Groups (Groupes de ressources).

      Le menu Resource Group (Groupe de ressources) s'affiche.

    2. Sélectionnez l'option de menu Online/Offline or Switchover a Resource Group (Connecter/déconnecter ou basculer un groupe de ressources).
    3. Suivez les invites à l'écran pour mettre hors ligne tous les groupes de ressources et placez-les en mode sans gestion.
    4. Lorsque tous les groupes de ressources sont hors ligne, tapez q pour revenir au menu Resource Group (Groupe de ressources).
  4. Désactivez toutes les ressources du cluster.
    1. Sélectionnez l'option de menu Enable/Disable a Resource (Activer/désactiver une ressource).
    2. Choisissez la ressource à désactiver, puis suivez les instructions des invites.
    3. Répétez l'étape précédente pour chaque ressource à désactiver.
    4. Une fois toutes les ressources désactivées, tapez q pour revenir au menu Resource Group (Groupe de ressources).
  5. Quittez l'utilitaire clsetup.
  6. Vérifiez que toutes les ressources de tous les noeuds sont Offline et que tous les groupes de ressources sont à l'état Unmanaged.
    # cluster status -t resource,resourcegroup
    -t

    Limite les données en sortie à l'objet de cluster spécifié.

    resource

    Définit les ressources.

    resourcegroup

    Définit les groupes de ressources.

  7. A partir d'un noeud, fermez le cluster.
    # cluster shutdown -g0 -y
    -g

    Définit le temps d'attente en secondes.

    -y

    Bloque l'affichage de l'invite vous demandant de confirmer l'arrêt.

  8. Initialisez chaque noeud en mode non-cluster.
    • SPARC :
      ok boot -x
    • x86 :
      1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Oracle Solaris appropriée et saisissez e pour modifier les commandes.

        Pour plus d'informations sur l'initialisation basée sur le GRUB, reportez-vous à la section Initialisation d’un système du manuel Initialisation et arrêt des systèmes Oracle Solaris 11.1.

      2. Dans l'écran des paramètres d'initialisation, utilisez les touches de direction pour sélectionner l'entrée du kernel et saisissez e pour modifier l'entrée.
      3. Ajoutez -x à la commande pour que le système se réinitialise en mode non-cluster.
      4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

        L'écran affiche la commande éditée.

      5. Saisissez l'option b pour initialiser le noeud en mode non-cluster.

        Remarque - Cette modification de la commande des paramètres d'initialisation du noyau ne sera pas prise en compte, lors de la prochaine initialisation du système. Lors de la prochaine initialisation du noeud, ce dernier sera initialisé en mode cluster. Pour une initialisation en mode non-cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.


  9. A partir d'un noeud, démarrez l'utilitaire clsetup.

    Si vous exécutez l'utilitaire clsetup en mode non-cluster, il affiche le menu principal relatif aux opérations correspondant à ce mode.

  10. Choisissez l'option de menu Change Network Addressing and Ranges for the Cluster Transport (Changez l'adressage et les plages réseau du transport intracluster).

    L'utilitaire clsetup affiche la configuration de réseau privé en cours, puis vous demande si vous souhaitez la modifier.

  11. Pour modifier l'adresse IP de réseau privé ou la plage d'adresses IP, saisissez yes et appuyez sur la touche Entrée.

    L'utilitaire clsetup affiche l'adresse IP de réseau privé par défaut, 172.16.0.0 et vous demande si vous l'acceptez.

  12. Modifiez ou acceptez l'adresse IP de réseau privé.
    • Pour l'accepter et passer à la modification de la plage d'adresses IP, saisissez yes et appuyez sur la touche Entrée.
    • Pour modifier l'adresse IP de réseau privé par défaut :
      1. Saisissez no (non) lorsque l'utilitaire clsetup vous demande si vous acceptez l'adresse par défaut, puis appuyez sur la touche Entrée.

        L'utilitaire clsetup vous invite à saisir la nouvelle adresse IP de réseau privé.

      2. Tapez la nouvelle adresse IP, puis appuyez sur la touche Entrée.

        L'utilitaire clsetup affiche le masque de réseau par défaut, puis vous demande si vous l'acceptez.

  13. Modifiez ou acceptez la plage d'adresses IP de réseau privé par défaut.

    Le masque de réseau par défaut est 255.255.240.0. Cette plage d'adresses IP par défaut prend en charge jusqu'à 64 noeuds, 12 clusters de zones et 10 réseaux privés dans le cluster.

    • Pour accepter la plage d'adresses IP par défaut, saisissez yes, puis appuyez sur la touche Entrée.
    • Pour modifier la plage d'adresses IP :
      1. Saisissez no lorsque l'utilitaire clsetup vous demande si vous acceptez la plage d'adresses par défaut, puis appuyez sur la touche Entrée.

        Si vous refusez le masque de réseau par défaut, l'utilitaire clsetup vous invite à indiquer le nombre de noeuds, de réseaux privés et de clusters de zones que vous prévoyez de configurer dans le cluster.

      2. Indiquez le nombre de noeuds, de réseaux privés et de clusters de zones que vous prévoyez de configurer dans le cluster.

        En fonction des nombres saisis, l'utilitaire clsetup propose deux masques de réseau :

        • Le premier masque de réseau est celui qui est au minimum nécessaire à la prise en charge du nombre de noeuds, de réseaux privés et de clusters de zones que vous avez spécifié.

        • Le second masque de réseau prend en charge deux fois plus de noeuds, de réseaux privés et de clusters de zones par rapport au nombre que vous avez spécifié, et ce, en prévision d'une éventuelle augmentation.

      3. Spécifiez l'un des masques de réseau calculés ou un autre masque de réseau prenant en charge le nombre prévu de noeuds, de réseaux privés et de clusters de zones.
  14. Tapez yes lorsque l'utilitaire clsetup vous demande si vous souhaitez poursuivre la mise à jour.
  15. Lorsque vous avez terminé, fermez l'utilitaire clsetup.
  16. Réinitialisez de nouveau chaque noeud dans le cluster.
    1. Arrêtez chaque noeud.
      # shutdown -g0 -y
    2. Initialisez chaque noeud en mode cluster.
  17. A partir d'un noeud, démarrez l'utilitaire clsetup.
    # clsetup

    Le menu principal clsetup s'affiche.

  18. Réactivez toutes les ressources désactivées.
    1. Sélectionnez l'option de menu Resource Groups (Groupes de ressources).

      Le menu Resource Group (Groupe de ressources) s'affiche.

    2. Sélectionnez l'option de menu Enable/Disable a Resource (Activer/désactiver une ressource).
    3. Choisissez la ressource à activer, puis suivez les instructions des invites.
    4. Répétez la procédure pour chaque ressource désactivée.
    5. Une fois toutes les ressources réactivées, tapez q pour revenir au menu Groupe de ressources.
  19. Remettez en ligne chaque groupe de ressources.

    Si le noeud contient des zones non globales, mettez également en ligne tous les groupes de ressources contenus dans ces zones.

    1. Sélectionnez l'option de menu Online/Offline or Switchover a Resource Group (Connecter/déconnecter ou basculer un groupe de ressources).
    2. Suivez les instructions des invites pour passer chaque groupe de ressources en mode de gestion, puis mettez les groupes de ressources en ligne.
  20. Une fois tous les groupes de ressources de nouveau en ligne, quittez l'utilitaire clsetup.

    Saisissez q pour fermer tous les sous-menus ou utilisez le raccourci Ctrl+C.

Étapes suivantes

Pour ajouter un noeud à un cluster existant, suivez l'une des procédures suivantes :

Configuration du logiciel Oracle Solaris Cluster sur les noeuds supplémentaires de cluster global (scinstall)

L'utilitaire scinstall s'exécute en deux modes d'installation, Standard ou Personnalisé. Pour l'installation Standard du logiciel Oracle Solaris Cluster, scinstall spécifie automatiquement les commutateurs de transport intracluster tels que switch1 et switch2.

Remplissez l'une des fiches de planification de la configuration : Reportez-vous aux sections Planification du SE Oracle Solaris et Planification de l'environnement Oracle Solaris Cluster pour connaître les directives de planification.

Configuration du logiciel Oracle Solaris Cluster sur les noeuds supplémentaires du cluster global (scinstall)

Suivez cette procédure pour ajouter un nouveau noeud à un cluster global existant. Pour ajouter un noeud à l'aide du programme d'installation automatisée, suivez les instructions de la section Installation et configuration d'Oracle Solaris et du logiciel Oracle Solaris Cluster (programme d'installation automatisée).


Remarque - Cette procédure utilise la forme interactive de la commande scinstall. Pour plus d'informations sur l'utilisation des formes non interactives de la commande scinstall, par exemple lors du développement de scripts d'installation, reportez-vous à la page de manuel scinstall(1M).


Suivez ces directives pour exécuter l'utilitaire scinstall interactif dans cette procédure :

Avant de commencer

Effectuez les tâches suivantes :

  1. Sur le noeud de cluster à configurer, prenez le rôle root.
  2. Assurez-vous que les wrappers TCP pour RPC sont désactivés sur tous les noeuds du cluster.

    Les wrappers TCP Oracle Solaris pour la fonction RPC empêchent la communication internodale requise pour la configuration du cluster.

    1. Sur chaque noeud, affichez l'état des wrappers TCP pour RPC.

      Les wrappers TCP sont activés si config/enable_tcpwrappers est défini sur true, comme indiqué dans la sortie de commande de l'exemple suivant.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. Si les wrappers TCP pour RPC sont activés sur un noeud, désactivez les wrappers TCP et actualisez le service bind RPC.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  3. Préparez les interfaces de réseau public.
    1. Créez des adresses IP statiques pour chaque interface de réseau public.
      # ipadm create-ip interface
      # ipadm create-addr -T static -a local=address/prefix-length addrobj

      Pour plus d'informations, reportez-vous à la section Configuration d’une interface IP du manuel Connexion de systèmes à l’aide d’une configuration réseau fixe dans Oracle Solaris 11.1.

    2. (Facultatif) Créez des groupes IPMP pour les interfaces de réseau public.

      Lors de la configuration initiale du cluster, à moins que des interfaces de réseau public IPv6 qui ne sont pas de type lien local existent dans le cluster, des groupes IPMP sont automatiquement créés en fonction des sous-réseaux correspondants. Ces groupes utilisent des sondes transitives pour la surveillance d'interface et aucune adresse de test n'est requise.

      Si ces groupes IPMP automatiquement créés ne répondent pas à vos besoins ou si des groupes IPMP ne seraient pas créés car votre configuration comprend une ou plusieurs interfaces de réseau public IPv6 qui ne sont pas de type lien local, effectuez l'une des opérations suivantes :

      • Créez les groupes IPMP dont vous avez besoin avant d'établir le cluster.
      • Une fois le cluster établi, utilisez la commande ipadm pour modifier les groupes IPMP.

      Pour plus d'informations, reportez-vous à la section Configuration de groupes IPMP du manuel Gestion des performances du réseau Oracle Solaris 11.1.

  4. Lancez l'utilitaire scinstall.
    phys-schost-new# /usr/cluster/bin/scinstall

    Le menu principal scinstall s'affiche.

  5. Saisissez le numéro de l'option Create a New Cluster (Créer un nouveau cluster) ou Add a Cluster Node (Ajouter un noeud de cluster), puis appuyez sur la touche Entrée.
      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    Le menu New Cluster and Cluster Node (Nouveau cluster et Noeud de cluster) s'affiche.

  6. Saisissez le numéro de l'option Add This Machine as a Node in an Existing Cluster (Ajouter cette machine en tant que noeud d'un cluster existant), puis appuyez sur la touche Entrée.
  7. Suivez les invites à l'écran pour répondre aux questions de la fiche de planification de la configuration.

    L'utilitaire scinstall configure le noeud et initialise le noeud dans le cluster.

  8. Répétez cette procédure sur tous les noeuds à ajouter au cluster jusqu'à ce que tous les noeuds supplémentaires soient configurés.
  9. Vérifiez au niveau de chaque noeud que les services multiutilisateurs de l'utilitaire de gestion des services (SMF, Service Management Facility) sont en ligne.

    Si les services ne sont pas encore en ligne pour un noeud, attendez leur mise en ligne, puis passez à l'étape suivante.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. A partir d'un membre du cluster actif, empêchez l'ajout d'autres noeuds au cluster.
    phys-schost# claccess deny-all

    Vous pouvez également exécuter l'utilitaire clsetup. Reportez-vous à la section Ajout d’un noeud à un cluster existant du manuel Guide d’administration système d’Oracle Solaris Cluster pour connaître les procédures.

  11. A partir d'un seul noeud, vérifiez que tous les noeuds ont rejoint le cluster.
    phys-schost# clnode status

    La sortie est similaire à l'exemple suivant.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

  12. Si des wrappers TCP sont utilisés dans le cluster, assurez-vous que les adresses IP clprivnet0 de tous les noeuds ajoutés sont ajoutées au fichier /etc/hosts.allow sur chaque noeud de cluster.

    Sans cet ajout au fichier /etc/hosts.allow, les wrappers TCP empêchent la communication internodale via RPC pour les utilitaires d'administration du cluster.

    1. Sur chaque noeud, affichez les adresses IP de tous les périphériques clprivnet0.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. Sur chaque noeud, modifiez le fichier /etc/hosts.allow et ajoutez les adresses IP de tous les périphériques clprivnet0 du cluster.
  13. Vérifiez que toutes les mises à jour logicielles nécessaires sont installées.
    phys-schost# pkg list
  14. (Facultatif) Activez la réinitialisation automatique des noeuds si tous les chemins de disque partagé échouent.

    Remarque - Lors de la configuration initiale, le contrôle de chemin de disque est activé par défaut pour tous les périphériques découverts.


    1. Activez la réinitialisation automatique.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Spécifie la propriété à définir.

      reboot_on_path_failure=enable

      Active la réinitialisation automatique de noeud si un échec se produit au niveau des chemins contrôlés de disque partagé.

    2. Vérifiez que la réinitialisation automatique en cas d'échec de chemin de disque est activée.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  15. Si vous prévoyez d'utiliser le service de données HA pour NFS (HA pour NFS) sur un système de fichiers local hautement disponible, excluez du mappage de l'agent de montage automatique tous les partages du système de fichiers local hautement disponible exporté par HA pour NFS.

    Pour plus d'informations sur le mappage de l'agent de montage automatique, reportez-vous à la section Tâches administratives impliquant des mappes du manuel Gestion de systèmes de fichiers réseau dans Oracle Solaris 11.1.

Exemple 3-3 Configuration du logiciel Oracle Solaris Cluster sur un noeud supplémentaire

L'exemple suivant illustre le noeud phys-schost-3 ajouté au cluster schost. Le noeud de cautionnement est phys-schost-1.

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "net2" to the cluster configuration ... done
Adding adapter "net3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Setting the node ID for "phys-schost-3" ... done (id=1)

Verifying the major number for the "did" driver from "phys-schost-1" ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... done

Adding cluster node entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done

Ensure network routing is disabled ... done
Network routing has been disabled on this node by creating /etc/notrouter.
Having a cluster node act as a router is not supported by Oracle Solaris Cluster.
Please do not re-enable network routing.
Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Log file - /var/cluster/logs/install/scinstall.log.6952

Rebooting ... 

Erreurs fréquentes

Echec de la configuration – Si un ou plusieurs noeuds ne parviennent pas à rejoindre le cluster ou si des informations de configuration erronées ont été spécifiées, essayez tout d'abord de répéter la procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque noeud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels d'Oracle Solaris Cluster. Puis effectuez à nouveau cette procédure.

Étapes suivantes

Si vous avez ajouté un noeud à un cluster existant qui utilise un périphérique de quorum, passez à la section Mise à jour des périphériques de quorum après l'ajout d'un noeud au cluster global.

Sinon, passez à la section Vérification de la configuration de quorum et du mode d'installation.

Configuration du logiciel Oracle Solaris Cluster sur les noeuds supplémentaires du cluster global (fichier XML)

Suivez cette procédure pour configurer un nouveau noeud de cluster global en utilisant un fichier XML de configuration en cluster. Le nouveau noeud peut être la copie d'un noeud de cluster existant exécutant le logiciel Oracle Solaris Cluster 4.1.

Cette procédure configure les composants de cluster suivants sur le nouveau noeud :

Avant de commencer

Effectuez les tâches suivantes :

  1. Vérifiez que le logiciel Oracle Solaris Cluster n'est pas déjà configuré sur le noeud potentiel que vous souhaitez ajouter à un cluster.
    1. Prenez le rôle root sur le noeud potentiel.
    2. Déterminez si le logiciel Oracle Solaris Cluster est configuré sur le noeud potentiel.
      phys-schost-new# /usr/sbin/clinfo -n
      • Si la commande échoue, passez à l'Étape 2.

        Le logiciel Oracle Solaris Cluster n'est pas encore configuré sur le noeud. Vous pouvez ajouter le noeud potentiel au cluster.

      • Si la commande renvoie un numéro d'ID de noeud, cela signifie que le logiciel Oracle Solaris Cluster est déjà configuré sur le noeud.

        Pour pouvoir ajouter le noeud à un cluster différent, vous devez supprimer les informations de configuration de cluster actuelles.

    3. Initialisez le noeud potentiel en mode non-cluster.
      • SPARC :
        ok boot -x
      • x86 :
        1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Oracle Solaris appropriée et saisissez e pour modifier les commandes.

          Pour plus d'informations sur l'initialisation basée sur le GRUB, reportez-vous à la section Initialisation d’un système du manuel Initialisation et arrêt des systèmes Oracle Solaris 11.1.

        2. Dans l'écran des paramètres d'initialisation, utilisez les touches de direction pour sélectionner l'entrée du kernel et saisissez e pour modifier l'entrée.
        3. Ajoutez -x à la commande pour que le système se réinitialise en mode non-cluster.
        4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

          L'écran affiche la commande éditée.

        5. Saisissez l'option b pour initialiser le noeud en mode non-cluster.

          Remarque - Cette modification de la commande des paramètres d'initialisation du noyau ne sera pas prise en compte, lors de la prochaine initialisation du système. Lors de la prochaine initialisation du noeud, ce dernier sera initialisé en mode cluster. Pour une initialisation en mode non-cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.


    4. Annulez la configuration du logiciel Oracle Solaris Cluster sur le noeud potentiel.
      phys-schost-new# /usr/cluster/bin/clnode remove
  2. Si vous dupliquez un noeud exécutant le logiciel Oracle Solaris Cluster 4.1, créez un fichier XML de configuration en cluster.
    1. Prenez le rôle root sur le noeud de cluster que vous souhaitez dupliquer.
    2. Exportez les informations de configuration du noeud existant vers un fichier.
      phys-schost# clnode export -o clconfigfile
      -o

      Spécifie la destination de la sortie.

      clconfigfile

      Nom du fichier XML de configuration en cluster. Le nom de fichier spécifié peut correspondre à un fichier existant ou un nouveau fichier que la commande créera.

      Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).

    3. Copiez le fichier XML de configuration en cluster vers le noeud potentiel que vous allez configurer en tant que nouveau noeud de cluster.
  3. Prenez le rôle root sur le noeud potentiel.
  4. Assurez-vous que les wrappers TCP pour RPC sont désactivés sur tous les noeuds du cluster.

    Les wrappers TCP Oracle Solaris pour la fonction RPC empêchent la communication internodale requise pour la configuration du cluster.

    1. Sur chaque noeud, affichez l'état des wrappers TCP pour RPC.

      Les wrappers TCP sont activés si config/enable_tcpwrappers est défini sur true, comme indiqué dans la sortie de commande de l'exemple suivant.

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. Si les wrappers TCP pour RPC sont activés sur un noeud, désactivez les wrappers TCP et actualisez le service bind RPC.
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  5. Le cas échéant, modifiez ou créez le fichier XML de configuration en cluster.
    • Si vous dupliquez un noeud de cluster existant, ouvrez le fichier que vous avez créé avec la commande clnode export.

    • Si vous ne dupliquez pas un noeud de cluster existant, créez un nouveau fichier.

      Basez le fichier sur la hiérarchie d'éléments illustrée à la page de manuel clconfiguration(5CL). Vous pouvez stocker le fichier dans n'importe quel répertoire.

    • Modifiez les valeurs des éléments XML pour refléter la configuration de noeud que vous souhaitez créer.

      Reportez-vous à la page de manuel clconfiguration(5CL) pour plus d'informations sur la structure et le contenu du fichier XML de configuration en cluster.

  6. Validez le fichier XML de configuration en cluster.
    phys-schost-new# xmllint --valid --noout clconfigfile
  7. Configurez le nouveau noeud de cluster.
    phys-schost-new# clnode add -n sponsor-node -i clconfigfile
    -n sponsor-node

    Spécifie le nom d'un membre de cluster existant afin d'agir en tant que noeud de cautionnement pour le nouveau noeud.

    -i clconfigfile

    Spécifie le nom du fichier XML de configuration en cluster à utiliser en tant que source de données en entrée.

  8. Si des wrappers TCP sont utilisés dans le cluster, assurez-vous que les adresses IP clprivnet0 de tous les noeuds ajoutés sont ajoutées au fichier /etc/hosts.allow sur chaque noeud de cluster.

    Sans cet ajout au fichier /etc/hosts.allow, les wrappers TCP empêchent la communication internodale via RPC pour les utilitaires d'administration du cluster.

    1. Sur chaque noeud, affichez les adresses IP de tous les périphériques clprivnet0.
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. Sur chaque noeud, modifiez le fichier /etc/hosts.allow et ajoutez les adresses IP de tous les périphériques clprivnet0 du cluster.
  9. (Facultatif) Activez la réinitialisation automatique des noeuds si tous les chemins de disque partagé échouent.

    Remarque - Lors de la configuration initiale, le contrôle de chemin de disque est activé par défaut pour tous les périphériques découverts.


    1. Activez la réinitialisation automatique.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Spécifie la propriété à définir.

      reboot_on_path_failure=enable

      Active la réinitialisation automatique de noeud si un échec se produit au niveau des chemins contrôlés de disque partagé.

    2. Vérifiez que la réinitialisation automatique en cas d'échec de chemin de disque est activée.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Erreurs fréquentes

Echec de la configuration – Si un ou plusieurs noeuds ne parviennent pas à rejoindre le cluster ou si des informations de configuration erronées ont été spécifiées, essayez tout d'abord de répéter la procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque noeud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels d'Oracle Solaris Cluster. Puis effectuez à nouveau cette procédure.

Étapes suivantes

Si vous avez ajouté un noeud à un cluster qui utilise un périphérique de quorum, passez à la section Mise à jour des périphériques de quorum après l'ajout d'un noeud au cluster global.

Sinon, passez à la section Vérification de la configuration de quorum et du mode d'installation.

Mise à jour des périphériques de quorum après l'ajout d'un noeud au cluster global

Si vous avez ajouté un noeud à un cluster global, vous devez mettre à jour les informations de configuration des périphériques de quorum, que vous utilisiez des disques partagés, des périphériques NAS, un serveur de quorum ou une combinaison de ces éléments. Pour cela, vous devez supprimer tous les périphériques de quorum et mettre à jour l'espace de noms des périphériques globaux. Vous pouvez facultativement reconfigurer les périphériques de quorum que vous souhaitez continuer à utiliser. Cette mise à jour enregistre le nouveau noeud auprès de chaque périphérique de quorum, qui peut ensuite recalculer le nombre de votes en fonction du nouveau nombre de noeuds dans le cluster.

Tout nouveau périphérique de quorum SCSI nouvellement configuré sera défini sur les réservations SCSI-3.

Avant de commencer

Assurez-vous que vous avez terminé l'installation du logiciel Oracle Solaris Cluster sur le noeud ajouté.

  1. Sur n'importe quel noeud du cluster, prenez le rôle root.
  2. Vérifiez que tous les noeuds de cluster sont en ligne.
    phys-schost# cluster status -t node
  3. Affichez la configuration actuelle du quorum.

    La sortie de la commande répertorie les périphériques de quorum et les noeuds. L'exemple de sortie suivant indique le périphérique de quorum SCSI actuel, d3.

    phys-schost# clquorum list
    d3
    …
  4. Notez le nom de chaque périphérique de quorum répertorié.
  5. Supprimez le périphérique de quorum d'origine.

    Effectuez cette étape pour chaque périphérique de quorum configuré.

    phys-schost# clquorum remove device-name
    device-name

    Spécifie le nom de périphérique de quorum.

  6. Vérifiez que tous les périphériques de quorum d'origine ont été supprimés.

    Si la suppression s'est correctement effectuée, aucun périphérique n'est répertorié.

    phys-schost# clquorum status
  7. Mettez à jour l'espace de noms des périphériques globaux.
    phys-schost# cldevice populate

    Remarque - Cette étape permet d'éviter d'éventuelles erreurs de noeud.


  8. Sur chaque noeud, vérifiez que l'exécution de la commande cldevice populate est terminée avant d'essayer d'ajouter un périphérique de quorum.

    La commande cldevice populate s'exécute à distance sur tous les noeuds, bien qu'elle soit émise à partir d'un seul noeud. Pour savoir si la commande cldevice populate a terminé le traitement, exécutez la commande suivante sur chaque noeud du cluster :

    phys-schost# ps -ef | grep scgdevs
  9. (Facultatif) Ajoutez un périphérique de quorum.

    Vous pouvez configurer le périphérique configuré préalablement en tant de périphérique de quorum ou choisir un nouveau périphérique partagé à configurer.

    1. (Facultatif) Si vous souhaitez choisir un nouveau périphérique partagé à configurer en tant que périphérique de quorum, affichez tous les périphériques contrôlés par le système et sélectionnez le périphérique partagé à partir de la sortie.
      phys-schost# cldevice list -v

      La sortie est similaire à l'exemple suivant :

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0 
      …
    2. Configurez le périphérique partagé en tant que périphérique de quorum.
      phys-schost# clquorum add -t type device-name
      -t type

      Spécifiez le type de périphérique de quorum. Si cette option n'est pas spécifiée, le type par défaut shared_disk est utilisé.

    3. Répétez cette procédure pour chaque périphérique de quorum que vous souhaitez configurer.
    4. Vérifiez la nouvelle configuration de quorum.
      phys-schost# clquorum list

      La sortie répertorie les périphériques de quorum et les noeuds.

Exemple 3-4 Mise à jour des périphériques de quorum SCSI après l'ajout d'un noeud à un cluster à deux noeuds

L'exemple suivant identifie le périphérique de quorum SCSI d'origine d2, supprime ce périphérique de quorum, répertorie les périphériques partagés disponibles, met à jour l'espace de noms du périphérique global, configure d3 en tant que nouveau périphérique de quorum SCSI et vérifie le nouveau périphérique.

phys-schost# clquorum list
d2
phys-schost-1
phys-schost-2

phys-schost# clquorum remove d2
phys-schost# clquorum status
…
--- Quorum Votes by Device ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------

phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
…
d3                  phys-schost-2:/dev/rdsk/c1t1d0
d3                  phys-schost-1:/dev/rdsk/c1t1d0
…
phys-schost# cldevice populate
phys-schost# ps -ef - grep scgdevs
phys-schost# clquorum add d3
phys-schost# clquorum list
d3
phys-schost-1
phys-schost-2

Étapes suivantes

Passez à la section Vérification de la configuration de quorum et du mode d'installation.

Configuration des périphériques de quorum


Remarque - Il est inutile de configurer les périphériques de quorum dans les cas suivants :

Si vous avez choisi la configuration de quorum automatique lorsque vous avez établi le cluster, n'effectuez pas cette procédure. Passez alors à la section Vérification de la configuration de quorum et du mode d'installation.


Suivez cette procédure une seule fois, quand le nouveau cluster est entièrement défini. Suivez cette procédure pour assigner des votes de quorum et sortir le cluster du mode d'installation.

Avant de commencer

  1. Si les deux conditions suivantes s'appliquent, assurez-vous que la longueur de préfixe correcte est définie pour les adresses de réseau public.
    • Vous voulez utiliser un serveur de quorum.

    • Le réseau public utilise un masque de sous-réseau de longueur variable, également appelé routage interdomaine sans classe (CIDR, Classless Inter-Domain Routing).

    # ipadm show-addr
        ADDROBJ           TYPE     STATE        ADDR
        lo0/v4            static   ok           127.0.0.1/8
        ipmp0/v4          static   ok           10.134.94.58/24 

    Remarque - Si vous utilisez un serveur de quorum mais que le réseau public utilise des sous-réseaux avec classe, tels que définis dans RFC 791, il est inutile d'effectuer cette étape.


  2. Sur un noeud, prenez le rôle root.

    Sinon, si le profil d'administrateur système est assigné à votre compte, émettez des commandes en tant qu'utilisateur sans rôle root via un shell de profil ou faites précéder les commandes de la commande pfexec.

  3. Vérifiez que tous les noeuds de cluster sont en ligne.
    phys-schost# cluster status -t node
  4. Pour utiliser un disque partagé en tant que périphérique de quorum, vérifiez la connectivité du périphérique aux noeuds de cluster et choisissez le périphérique à configurer.
    1. A partir d'un noeud du cluster, affichez la liste de tous les périphériques contrôlés par le système.

      Vous n'avez pas besoin d'être connecté en tant que rôle root pour exécuter cette commande.

      phys-schost-1# cldevice list -v

      La sortie est similaire à l'exemple suivant :

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0
      …
    2. Assurez-vous que la sortie affiche toutes les connexions entre les noeuds de cluster et les périphériques de stockage.
    3. Déterminez l'ID de périphérique global de chaque disque partagé que vous configurez en tant que périphérique de quorum.

      Remarque - Tous les disques partagés que vous choisissez doivent être adaptés à une utilisation en tant que périphérique de quorum. Reportez-vous à la section Périphériques de quorum pour plus d'informations sur le choix des périphériques de quorum.


      Basez-vous sur la sortie de la commande cldevice exécutée à l'Étape a pour identifier l'ID de périphérique de chaque disque partagé que vous configurez en tant que périphérique de quorum. Par exemple, la sortie obtenue au cours de l'Étape a indique qu'un périphérique global d3 est partagé par phys-schost-1 et phys-schost-2.

  5. Pour utiliser un disque partagé qui ne prend pas en charge le protocole SCSI, assurez-vous que la séparation est désactivée pour ce disque partagé.
    1. Affichez les paramètres de séparation pour le disque individuel.
      phys-schost# cldevice show device
      
      === DID Device Instances ===
      DID Device Name:                                      /dev/did/rdsk/dN
      …
        default_fencing:                                     nofencing
      • Si la séparation pour le disque est définie sur nofencing ou nofencing-noscrub, la séparation est désactivée pour ce disque. Passez à l'Étape 6.
      • Si la séparation pour le disque est définie sur pathcount ou scsi, désactivez la séparation pour le disque. Passez à l'Étape c.
      • Si la séparation pour le disque est définie sur global, déterminez si la séparation est également désactivée globalement. Passez à l'Étape b.

        Vous pouvez simplement désactiver la séparation pour le disque individuel. Le disque est alors ignoré quelle que soit la valeur de la propriété global_fencing. Passez à l'Étape c pour désactiver la séparation pour le disque individuel.

    2. Déterminez si la séparation doit être désactivée globalement ou non.
      phys-schost# cluster show -t global
      
      === Cluster ===
      Cluster name:                                         cluster
      …
         global_fencing:                                      nofencing
      • Si la séparation globale est définie sur nofencing ou nofencing-noscrub, la séparation est désactivée pour le disque partagé dont la propriété default_fencing est définie sur global. Passez à l'Étape 6.
      • Si la séparation globale est définie sur pathcount ou prefer3, désactivez la séparation pour le disque partagé. Passez à l'Étape c.

      Remarque - Si la propriété default_fencing du disque individuel est définie sur global, la séparation pour ce disque individuel est désactivée uniquement lorsque la propriété global_fencing du cluster est définie sur nofencing ou nofencing-noscrub. Si la propriété global_fencing est modifiée sur une valeur activant la séparation, la séparation devient active pour tous les disques dont la propriété default_fencing est définie sur global.


    3. Désactivez la séparation pour le disque partagé.
      phys-schost# cldevice set \
      -p default_fencing=nofencing-noscrub device
    4. Vérifiez que la séparation est à présent désactivée pour le disque partagé.
      phys-schost# cldevice show device
  6. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    L'écran Configuration initiale du cluster s'affiche.


    Remarque - Si le menu principal s'affiche à la place, cela signifie que la configuration initiale du cluster a déjà été exécutée. Passez à l'Étape 11.


  7. Indiquez si vous souhaitez ajouter des disques de quorum.
    • Si votre cluster est un cluster à deux noeuds, vous devez configurer au moins un périphérique de quorum partagé. Saisissez Yes (Oui) pour configurer un ou plusieurs périphériques de quorum.
    • Si votre cluster comprend trois noeuds ou plus, la configuration du périphérique de quorum est facultative.
      • Saisissez No (Non) si vous ne souhaitez pas configurer davantage de périphériques de quorum. Passez ensuite à l'Étape 10.
      • Saisissez Yes (Oui) pour configurer d'autres périphériques de quorum.
  8. Spécifiez quel type de périphérique vous souhaitez configurer en tant que périphérique de quorum.
    Type de périphérique de quorum
    Description
    shared_disk
    LUN partagé à partir des éléments suivants :
    • Disque SCSI partagé

    • Serial Attached Technology Attachment (SATA) de stockage

    • Sun ZFS Storage Appliance

    quorum_server
    Serveur de quorum
  9. Indiquez le nom du périphérique à configurer en tant que périphérique de quorum et fournissez toutes les informations supplémentaires nécessaires.
    • Pour un serveur de quorum, veuillez fournir également les informations suivantes :

      • L'adresse IP de l'hôte du serveur de quorum

      • Le numéro de port utilisé par le serveur de quorum pour communiquer avec les noeuds de cluster

  10. Entrez Yes pour vérifier que vous pouvez réinitialiser installmode.

    Une fois que l'utilitaire clsetup a défini les configurations de quorum et les nombres de votes pour le cluster, le message Cluster initialization is complete (L'initialisation du cluster est terminée) s'affiche. L'utilitaire vous renvoie au menu principal.

  11. Quittez l'utilitaire clsetup.

Étapes suivantes

Vérifiez la configuration de quorum et assurez-vous que le mode d'installation est désactivé. Passez à la section Vérification de la configuration de quorum et du mode d'installation.

Erreurs fréquentes

Traitement de la commande clsetup interrompu : si le processus de configuration du quorum est interrompu ou échoue, exécutez à nouveau la commande clsetup.

Modifications du nombre de votes de quorum : si vous augmentez/diminuez ultérieurement le nombre de raccordements de noeuds à un périphérique de quorum, le nombre de votes de quorum n'est pas automatiquement recalculé. Vous pouvez rétablir le nombre de votes de quorum en supprimant chaque périphérique de quorum, puis en les ajoutant de nouveau un à un à la configuration. Pour un cluster à deux noeuds, ajoutez temporairement un nouveau périphérique de quorum avant la suppression et l'ajout du périphérique de quorum d'origine. Supprimez ensuite le périphérique de quorum temporaire. Reportez-vous à la procédure de modification de la liste de noeuds d'un périphérique de quorum décrite au Chapitre 6, Gestion du quorum du manuel Guide d’administration système d’Oracle Solaris Cluster.

Périphérique de quorum inaccessible : si des messages s'affichent sur les noeuds de cluster indiquant qu'un périphérique de quorum est inaccessible ou si des noeuds de cluster échouent en générant le message CMM: Unable to acquire the quorum device, il est possible que le périphérique de quorum ou son chemin d'accès pose problème. Vérifiez que le périphérique de quorum et son chemin d'accès fonctionnent correctement.

Si le problème persiste, utilisez un autre périphérique de quorum. Si vous souhaitez utiliser le même périphérique de quorum, attribuez une valeur élevée au délai d'attente du quorum, comme suit :


Remarque - Pour Oracle Real Application Clusters (Oracle RAC), ne modifiez pas le délai d'attente par défaut du quorum fixé à 25 secondes. Dans certains scénarios split-brain, un délai d'attente supérieur pourrait entraîner l'échec du basculement d'Oracle RAC VIP en raison du dépassement du délai d'attente par la ressource VIP. Si le périphérique de quorum utilisé ne respecte pas le délai d'attente par défaut de 25 secondes, utilisez un autre périphérique de quorum.


Vérification de la configuration de quorum et du mode d'installation

Suivez cette procédure pour vérifier que la configuration de quorum a été effectuée correctement et que le cluster n'est plus en mode d'installation.

Il n'est pas nécessaire d'assumer le rôle root pour exécuter ces commandes.

  1. A partir d'un noeud de cluster global, vérifiez la configuration du quorum du périphérique et du noeud.
    phys-schost$ clquorum list

    La sortie répertorie les périphériques de quorum et les noeuds.

  2. A partir d'un noeud, vérifiez que le cluster n'est plus en mode d'installation.
    phys-schost$ cluster show -t global | grep installmode
      installmode:                                    disabled

    L'installation et la création du cluster sont terminées.

Étapes suivantes

A partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Respectez l'ordre d'affichage des tâches de cette liste si vous devez en effectuer plusieurs.

Voir aussi

Effectuez une sauvegarde de votre configuration en cluster.

Une sauvegarde archivée de votre configuration en cluster facilite la récupération de celle-ci. Pour plus d'informations, reportez-vous à la section Sauvegarde de la configuration du cluster du manuel Guide d’administration système d’Oracle Solaris Cluster.

Modification des noms d'hôtes privés

Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôtes privés par défaut (clusternodenodeID-priv) assignés au cours de l'installation du logiciel Oracle Solaris Cluster.


Remarque - N'effectuez pas cette procédure après que les applications et les services de données ont été configurés et démarrés. Sinon, une application ou un service de données risque de continuer à utiliser l'ancien nom d'hôte privé après que le nom d'hôte a été renommé, ce qui peut générer des conflits de nom d'hôte. Si une application ou un service de données sont en cours d'exécution, arrêtez-les avant d'effectuer cette procédure.


Suivez cette procédure sur un noeud actif du cluster.

  1. Prenez le rôle root sur le noeud de cluster global.
  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal clsetup s'affiche.

  3. Saisissez le numéro d'option correspondant à Noms d'hôtes privés, puis appuyez sur la touche Entrée.

    Le menu du nom d'hôte privé s'affiche.

  4. Saisissez le numéro d'option correspondant à Change a Node Private Hostname (Modifier le nom d'hôte privé d'un noeud), puis appuyez sur la touche Entrée.
  5. Suivez les invites à l'écran pour modifier le nom d'hôte privé.

    Répétez cette opération pour chaque nom d'hôte privé à modifier.

  6. Vérifiez les nouveaux noms d'hôtes privés.
    phys-schost# clnode show -t node | grep privatehostname
      privatehostname:                                clusternode1-priv
      privatehostname:                                clusternode2-priv
      privatehostname:                                clusternode3-priv

Étapes suivantes

Mettez à jour la configuration NTP avec les noms d'hôtes privés modifiés. Passez à la section Mise à jour du protocole NTP après la modification d'un nom d'hôte privé.

Configuration du protocole d'heure réseau (NTP)

Cette section contient les procédures suivantes :

Utilisation de votre propre fichier /etc/inet/ntp.conf


Remarque - Si vous avez installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Oracle Solaris Cluster, il est inutile d'effectuer cette procédure. Passez à la section Validation du cluster.


  1. Prenez le rôle root sur un noeud de cluster.
  2. Ajoutez votre fichier /etc/inet/ntp.conf à chaque noeud du cluster.
  3. Sur chaque noeud, déterminez l'état du service NTP.
    phys-schost# svcs svc:/network/ntp:default
  4. Démarrez le démon NTP sur chaque noeud.
    • Si le service NTP est disabled (désactivé), activez le service.
      phys-schost# svcadm enable svc:/network/ntp:default
    • Si le service NTP est online (en ligne), redémarrez le service.
      phys-schost# svcadm restart svc:/network/ntp:default

Étapes suivantes

A partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Respectez l'ordre d'affichage des tâches de cette liste si vous devez en effectuer plusieurs.

Installation du protocole NTP après l'ajout d'un noeud à un cluster à noeud unique

Lorsque vous avez ajouté un noeud à un cluster à noeud unique, vous devez vous assurer que le fichier de configuration NTP que vous utilisez est copié vers le noeud de cluster d'origine et vers le nouveau noeud.

  1. Prenez le rôle root sur un noeud de cluster.
  2. Copiez les fichiers /etc/inet/ntp.conf et /etc/inet/ntp.conf.sc à partir du noeud ajouté au noeud de cluster d'origine.

    Ces fichiers ont été créés sur le noeud ajouté lorsqu'il a été configuré avec le cluster.

  3. Sur le noeud de cluster d'origine, créez un lien symbolique nommé /etc/inet/ntp.conf.include pointant vers le fichier /etc/inet/ntp.conf.sc.
    phys-schost# ln -s /etc/inet/ntp.conf.sc /etc/inet/ntp.conf.include
  4. Sur chaque noeud, déterminez l'état du service NTP.
    phys-schost# svcs svc:/network/ntp:default
  5. Démarrez le démon NTP sur chaque noeud.
    • Si le service NTP est disabled (désactivé), activez le service.
      phys-schost# svcadm enable svc:/network/ntp:default
    • Si le service NTP est online (en ligne), redémarrez le service.
      phys-schost# svcadm restart svc:/network/ntp:default

Étapes suivantes

A partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Respectez l'ordre d'affichage des tâches de cette liste si vous devez en effectuer plusieurs.

Mise à jour du protocole NTP après la modification d'un nom d'hôte privé

  1. Prenez le rôle root sur un noeud de cluster.
  2. Sur chaque noeud du cluster, mettez à jour le fichier /etc/inet/ntp.conf.sc avec le nom d'hôte privé modifié.
  3. Sur chaque noeud, déterminez l'état du service NTP.
    phys-schost# svcs svc:/network/ntp:default
  4. Démarrez le démon NTP sur chaque noeud.
    • Si le service NTP est disabled (désactivé), activez le service.
      phys-schost# svcadm enable svc:/network/ntp:default
    • Si le service NTP est online (en ligne), redémarrez le service.
      phys-schost# svcadm restart svc:/network/ntp:default

Étapes suivantes

A partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Respectez l'ordre d'affichage des tâches de cette liste si vous devez en effectuer plusieurs.

Validation du cluster

Après avoir effectué toutes les opérations de configuration du cluster, exécutez la commande cluster check pour valider la configuration et les fonctionnalités du cluster. Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).


Astuce - Pour toute référence future ou à des fins de dépannage, pour chaque validation que vous exécutez, utilisez l'option -o outputdir afin de spécifier un sous-répertoire pour les fichiers journaux. La réutilisation d'un nom de sous-répertoire existant supprimera tous les fichiers existant dans le sous-répertoire. Par conséquent, pour vous assurer que les fichiers journaux sont disponibles à des fins de référence ultérieure, spécifiez un nom de sous-répertoire unique pour chaque vérification de cluster que vous exécutez.


Avant de commencer

Assurez-vous que vous avez terminé l'installation et la configuration de tous les composants matériels et logiciels du cluster, y compris le microprogramme et les mises à jour logicielles.

  1. Prenez le rôle root sur un noeud du cluster.
  2. Assurez-vous de posséder les vérifications les plus récentes.
    1. Accédez à l'onglet Patches & Updates de la page My Oracle Support.
    2. Dans la recherche avancée, sélectionnez le produit Solaris Cluster et tapez check dans le champ de texte Description.

      La recherche détecte les mises à jour d'Oracle Solaris Cluster contenant des vérifications.

    3. Appliquez toutes les mises à jour du logiciel qui ne sont pas déjà installées sur votre cluster.
  3. Exécutez les vérifications de validation basiques.
    phys-schost# cluster check -v -o outputdir
    -v

    Mode détaillé.

    -o outputdir

    Redirige la sortie vers le sous-répertoire outputdir.

    La commande exécute tous les vérifications basiques disponibles. Aucune fonctionnalité du cluster n'est affectée.

  4. Exécutez les vérifications de validation interactives.
    phys-schost# cluster check -v -k interactive -o outputdir
    -k interactive

    Indique l'exécution de vérifications de validation interactives.

    La commande exécute toutes les vérifications interactives disponibles et vous invite à entrer les informations nécessaires concernant le cluster. Aucune fonctionnalité du cluster n'est affectée.

  5. Exécutez les vérifications de validation fonctionnelle.
    1. Listez toutes les vérifications fonctionnelles disponibles en mode non détaillé.
      phys-schost# cluster list-checks -k functional
    2. Identifiez quelles vérifications fonctionnelles exécutent des opérations risquant de compromettre la disponibilité des clusters ou des services dans un environnement de production.

      Par exemple, une vérification fonctionnelle peut déclencher une grave erreur de noeud ou un basculement vers un autre noeud.

      phys-schost# cluster list-checks -v -C check-ID
      -C check-ID

      Spécifie une vérification spécifique.

    3. Si la vérification fonctionnelle que vous souhaitez réaliser peut interrompre le fonctionnement du cluster, assurez-vous que le cluster n'est pas dans l'environnement de production.
    4. Lancez la vérification fonctionnelle.
      phys-schost# cluster check -v -k functional -C check-ID -o outputdir
      -k functional

      Indique l'exécution de vérifications de validation fonctionnelle.

      Répondez aux invites générées par la vérification pour confirmer que la vérification doit s'exécuter, spécifiez les informations demandées et exécutez les opérations requises.

    5. Répétez l'Étape c et l'Étape d pour chaque vérification fonctionnelle restant à exécuter.

      Remarque - A des fins de suivi, spécifiez un nom de sous-répertoire outputdir unique pour chaque vérification exécutée. Si vous réutilisez un nom outputdir, la sortie de la nouvelle vérification écrase le contenu existant du sous-répertoire outputdir réutilisé.


Exemple 3-5 Création de listes de vérifications de validation interactives

L'exemple suivant permet de répertorier toutes les vérifications interactives qui peuvent être exécutées sur le cluster. L'exemple suivant montre un échantillon des vérifications possibles. Les vérifications disponibles varient selon la configuration.

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

Exemple 3-6 Exécution d'une vérification de validation fonctionnelle

L'exemple suivant permet d'abord d'afficher la liste détaillée des vérifications fonctionnelles. Une description détaillée de la vérification F6968101 est ensuite fournie, laquelle indique que la vérification aurait une incidence sur le fonctionnement des services du cluster. Le cluster est exclu de la production. La vérification fonctionnelle est ensuite exécutée et la sortie détaillée est consignée dans le sous-répertoire funct.test.F6968101.12Jan2011. L'exemple suivant montre un échantillon des vérifications possibles. Les vérifications disponibles varient selon la configuration.

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

Étapes suivantes

Avant de commencer à utiliser le cluster, effectuez un enregistrement de base de la configuration en cluster à des fins de diagnostic ultérieur. Passez à la section Enregistrement des données de diagnostic de la configuration en cluster.

Enregistrement des données de diagnostic de la configuration en cluster

Après avoir fini de configurer le cluster global mais avant de commencer à l'utiliser, utilisez l'utilitaire Oracle Explorer pour enregistrer des informations de base sur le cluster. Ces données pourront être utilisées si vous avez besoin de dépanner le cluster à l'avenir.

  1. Prenez le rôle root.
  2. S'il n'est pas déjà installé, installez le logiciel Oracle Explorer.

    Le composant Services Tools Bundle contient les packages Oracle Explorer SUNWexplo et SUNWexplu. Reportez-vous à la page http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html pour obtenir des informations sur le téléchargement du logiciel et sur son installation.

  3. Exécutez l'utilitaire explorer sur chaque noeud du cluster.

    Utilisez la commande appropriée pour votre plate-forme. Par exemple, pour collecter des informations sur un serveur Sun Fire T1000 d'Oracle, exécutez la commande suivante :

    # explorer -i -w default,Tx000

    Pour plus d'informations, reportez-vous à la page de manuel explorer(1M) dans le répertoire /opt/SUNWexplo/man/man1m/ et au Oracle Explorer Data Collector User's Guide disponible via la remarque 1153444.1 sur My Oracle Support :

    https://support.oracle.com

    Le fichier de sortie explorer est enregistré dans le répertoire /opt/SUNWexplo/output/ sous le nom explorer.id-hôte.nom-hôte-date.tar.gz.

  4. Enregistrez les fichiers à un emplacement auquel vous pouvez accéder si le cluster entier est en panne.
  5. Envoyez tous les fichiers explorer à la base de données Oracle Explorer correspondant à votre pays.

    Suivez les procédures du Oracle Explorer Data Collector User's Guide pour soumettre les fichiers Oracle Explorer via FTP ou HTTPS.

    Si les données sont nécessaires au diagnostic d'un problème technique du cluster, cette base de données met à la disposition de l'équipe du support technique d'Oracle la sortie de la commande explorer.