Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'installation du logiciel Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Français) |
1. Planification de la configuration d'Oracle Solaris Cluster
2. Installation de logiciels sur des noeuds de cluster global
3. Etablissement d'un cluster global
Etablissement d'un nouveau cluster global ou d'un nouveau noeud de cluster global
Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds (scinstall)
Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds (XML)
Installation et configuration d'Oracle Solaris et du logiciel Oracle Solaris Cluster (JumpStart)
Préparation du cluster pour les noeuds supplémentaires du cluster global
Modification de la configuration du réseau privé lors de l'ajout de noeuds ou de réseaux privés
Mise à jour des périphériques de quorum après l'ajout d'un noeud au cluster global
Configuration des périphériques de quorum
Vérification de la configuration de quorum et du mode d'installation
Modification des noms d'hôtes privés
Configuration de la répartition de la charge de groupe de ressources entre les noeuds
Configuration des limites de charge d'un noeud
Définition d'une priorité pour un groupe de ressources
Définition des facteurs de charge pour un groupe de ressources
Définition du mode préemption pour un groupe de ressources
Concentration de la charge sur un nombre restreint de noeuds du cluster
Configuration du protocole d'heure réseau (NTP)
Configuration de l'architecture IP Security (IPsec) sur l'interconnexion privée de cluster
Enregistrement des données de diagnostic de la configuration en cluster
4. Configuration du logiciel Solaris Volume Manager
5. Création d'un système de fichiers de cluster
6. Création de zones et de clusters de zones non globaux
Cette section fournit les informations et les procédures nécessaires à l'établissement d'un nouveau cluster global ou l'ajout d'un noeud à un cluster existant. Les noeuds de cluster global peuvent être des machines physiques, des domaines d'E/S Oracle VM Server for SPARC (SPARC uniquement) ou des domaines invités Oracle VM Server for SPARC (SPARC uniquement). Un cluster peut résulter d'une combinaison de types de noeuds. Avant d'effectuer ces tâches, assurez-vous d'avoir installé les packages logiciels pour le SE Oracle Solaris, la structure Oracle Solaris Cluster et les autres produits décrits dans la section Installation du logiciel.
Les listes des tâches suivantes associent les tâches à effectuer pour un nouveau cluster global ou un noeud ajouté à un cluster global existant. Effectuez les procédures dans l'ordre dans lequel elles sont indiquées.
Liste des tâches : établissement d'un nouveau cluster global
Liste des tâches : ajout d'un noeud à un cluster global existant
Tableau 3-1 Liste des tâches : établissement d'un nouveau cluster global
|
Tableau 3-2 Liste des tâches : ajout d'un noeud à un cluster global existant
|
Suivez cette procédure à partir d'un noeud du cluster global pour configurer le logiciel Oracle Solaris Cluster sur tous les noeuds du cluster.
Remarque - Cette procédure utilise la forme interactive de la commande scinstall. Pour utiliser des formes non interactives de la commande scinstall, par exemple lors du développement de scripts d'installation, reportez-vous à la page de manuel scinstall(1M).
Assurez-vous que les packages logiciels Oracle Solaris Cluster sont installés sur le noeud (manuellement ou à l'aide du programme installer en mode silencieux) avant d'exécuter la commande scinstall. Pour plus d'informations sur l'exécution du programme installer depuis un script d'installation, reportez-vous au Chapitre 5, Installing in Silent Mode du manuel Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.
Avant de commencer
Effectuez les tâches suivantes :
Assurez-vous que le SE Oracle Solaris est installé de façon à prendre en charge le logiciel Oracle Solaris Cluster.
Si le logiciel Oracle Solaris est déjà installé sur le noeud, il faut vérifier que l'installation Oracle Solaris respecte les conditions requises pour le logiciel Oracle Solaris Cluster et tout autre logiciel que vous prévoyez d'installer sur le cluster. Reportez-vous à la section Installation du logiciel Oracle Solaris pour plus d'informations sur une installation du logiciel Oracle Solaris conforme à la configuration requise par le logiciel Oracle Solaris Cluster.
SPARC : Si vous configurez des domaines d'E/S Oracle VM Server for SPARC ou des domaines invités en tant que noeuds de cluster, assurez-vous que le logiciel Oracle VM Server for SPARC est installé sur chaque machine physique et que les domaines respectent la configuration requise par Oracle Solaris Cluster. Reportez-vous à la section SPARC : Installation du logiciel Oracle VM Server for SPARC et création de domaines.
Assurez-vous que les packages logiciels Oracle Solaris Cluster et les patchs sont installés sur chaque noeud. Reportez-vous à la section Installation des packages logiciels de structure et de services de données Oracle Solaris Cluster.
Déterminez le mode souhaité de l'utilitaire scinstall (Standard ou Personnalisé).
En cas d'installation standard du logiciel Oracle Solaris Cluster, scinstall spécifie automatiquement les valeurs de configuration par défaut suivantes.
|
Complétez l'une des fiches d'information de configuration de cluster suivantes, selon que vous exécutez l'utilitaire scinstall en mode Standard ou Personnalisé.
Fiche d'information du mode standard – Si vous utilisez le mode Standard et acceptez toutes les valeurs par défaut, remplissez la fiche d'information suivante.
|
Fiche d'information en mode personnalisé – Si vous utilisez le mode Personnalisé et personnalisez les données de configuration, remplissez la fiche d'information suivante.
Remarque - Si vous installez un cluster à noeud unique, l'utilitaire scinstall assigne automatiquement l'adresse et le masque de réseau du réseau privé par défaut, même si le cluster n'utilise pas un réseau privé.
|
Suivez ces directives pour exécuter l'utilitaire scinstall interactif dans cette procédure :
L'utilitaire interactif scinstall utilise la mémoire tampon lors de vos saisies clavier. Pour cette raison, n'appuyez pas sur la touche Entrée plus d'une fois si l'écran du menu ne s'affiche pas immédiatement.
Sauf en cas d'indication contraire, vous pouvez utiliser le raccourci Ctrl+D pour revenir soit au début d'une série de questions connexes, soit au menu principal.
Les réponses par défaut ou les réponses données aux cours des sessions précédentes s'affichent entre crochets ([ ]) à la fin de la question. Appuyez sur Entrée pour utiliser la réponse entre crochets sans la retaper.
Activez Accès au shell distant (rsh(1M)) ou au shell sécurisé (ssh(1)) pour le superutilisateur pour tous les noeuds.
Suivez les instructions de votre documentation concernant les commutateurs pour déterminer si le protocole NDP est activé et pour désactiver ce même protocole.
Au cours de la configuration du cluster, le logiciel vérifie qu'il n'y a aucun trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé au moment où le trafic de l'interconnexion privée est vérifié, le logiciel supposera que l'interconnexion n'est pas privée et la configuration du cluster sera interrompue. Le protocole NDP doit donc être désactivé au cours de la création d'un cluster.
Une fois le cluster créé, vous pouvez réactiver le protocole NDP sur les commutateurs d'interconnexion privée si vous souhaitez utiliser cette fonction.
phys-schost# /usr/cluster/bin/scinstall
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1
Le menu New Cluster and Cluster Node s'affiche.
Le menu Typical or Custom Mode s'affiche.
L'écran Create a New Cluster s'affiche. Prenez connaissance des éléments requis, puis appuyez sur Ctrl+D pour continuer.
L'utilitaire scinstall installe et configure tous les noeuds de cluster, puis réinitialise le cluster. Le cluster est établi lorsque tous les noeuds ont été correctement initialisés dans le cluster. La sortie de l'installation d'Oracle Solaris Cluster est consignée dans un fichier /var/cluster/logs/install/scinstall.log.N.
Si les services ne sont pas encore en ligne pour un noeud, attendez leur mise en ligne, puis passez à l'étape suivante.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# clnode status
La sortie est similaire à l'exemple suivant.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
Cette fonction réinitialise automatiquement un noeud si tous les chemins de disque partagés et contrôlés échouent, à la condition qu'au moins un des disques soit accessible à partir d'un autre noeud du cluster.
Remarque - Lors de la configuration initiale, le contrôle de chemin de disque est activé par défaut pour tous les périphériques détectés.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Spécifie la propriété à définir.
Active la réinitialisation automatique de noeud si un échec se produit au niveau des chemins de disque partagé contrôlés.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Pour désactiver LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque noeud du cluster.
exclude:lofs
La modification apportée au fichier /etc/system est appliquée après la prochaine réinitialisation du système.
Remarque - Vous ne pouvez pas activer LOFS si vous utilisez HA pour NFS sur un système de fichiers local hautement disponible et si vous exécutez automountd. LOFS peut entraîner des problèmes de commutation pour HA pour NFS. Si vous choisissez d'ajouter HA pour NFS sur un système de fichiers local hautement disponible, vous devez apporter l'une des modifications de configuration suivantes.
Cependant, si vous configurez les zones non globales dans votre cluster, vous devez activer LOFS sur tous les noeuds de cluster. Si HA pour NFS doit coexister avec LOFS sur un système de fichiers local hautement disponible, utilisez l'une des autres solutions au lieu de désactiver LOFS.
Désactivez LOFS.
Désactivez le démon automountd.
Excluez du mappage de l'agent de montage automatique tous les fichiers faisant partie du système de fichiers local hautement disponible exporté par HA pour NFS. Cette option vous permet de conserver les deux LOFS et le démon automountd activés.
Pour plus d'informations relatives aux systèmes de fichiers loopback, reportez-vous à la section The Loopback File System du manuel System Administration Guide: Devices and File Systems.
Exemple 3-1 Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds
L'exemple suivant illustre les messages de progression scinstall journalisés au fur et à mesure que scinstall effectue les tâches de configuration sur le cluster à deux noeuds, schost. Le cluster est installé à partir de phys-schost-1 à l'aide de l'utilitaire scinstall en mode standard. L'autre noeud de cluster est phys-schost-2. Les noms d'adaptateur sont bge2 et bge3. La sélection automatique d'un périphérique de quorum est activée.
Installation and Configuration Log file - /var/cluster/logs/install/scinstall.log.24747 Configuring global device using lofi on phys-schost-1: done Starting discovery of the cluster transport configuration. The Oracle Solaris Cluster software is already installed on "phys-schost-1". The Oracle Solaris Cluster software is already installed on "phys-schost-2". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:bge2 switch1 phys-schost-2:bge2 phys-schost-1:bge3 switch2 phys-schost-2:bge3 Completed discovery of the cluster transport configuration. Started cluster check on "phys-schost-1". Started cluster check on "phys-schost-2". cluster check completed with no errors or warnings for "phys-schost-1". cluster check completed with no errors or warnings for "phys-schost-2". Removing the downloaded files … done Configuring "phys-schost-2" … done Rebooting "phys-schost-2" … done Configuring "phys-schost-1" … done Rebooting "phys-schost-1" … Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting …
Erreurs fréquentes
Echec de la configuration – Si un ou plusieurs noeuds ne parviennent pas à rejoindre le cluster ou si des informations de configuration erronées ont été spécifiées, essayez tout d'abord de répéter la procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque noeud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels d'Oracle Solaris Cluster. Suivez une nouvelle fois cette procédure.
Étapes suivantes
Si vous avez installé un cluster à noeud unique, la création du cluster est terminée. Passez à la section Création de systèmes de fichiers de cluster pour installer le logiciel de gestion du volume et configurer le cluster.
Si vous avez installé un cluster à noeuds multiples et choisi la configuration automatique du quorum, la configuration post-installation est terminée. Passez à la section Vérification de la configuration de quorum et du mode d'installation.
Si vous avez installé un cluster à noeuds multiples et refusé la configuration automatique du quorum, procédez à la configuration post-installation. Passez à la section Configuration des périphériques de quorum.
Si vous voulez configurer un périphérique de quorum dans votre cluster, passez à la section Configuration des périphériques de quorum.
Sinon, passez à la section Vérification de la configuration de quorum et du mode d'installation.
Suivez cette procédure pour configurer un nouveau cluster global en utilisant un fichier XML de configuration de cluster. Le nouveau cluster peut être la copie d'un cluster existant exécutant le logiciel Oracle Solaris Cluster 3.3 3/13.
Cette procédure permet de configurer les composants de cluster suivants :
Nom du cluster
Appartenance du noeud de cluster
Interconnexion de cluster
Périphériques globaux
Avant de commencer
Effectuez les tâches suivantes :
Assurez-vous que le SE Oracle Solaris est installé de façon à prendre en charge le logiciel Oracle Solaris Cluster.
Si le logiciel Oracle Solaris est déjà installé sur le noeud, il faut vérifier que l'installation Oracle Solaris respecte les conditions requises pour le logiciel Oracle Solaris Cluster et tout autre logiciel que vous prévoyez d'installer sur le cluster. Reportez-vous à la section Installation du logiciel Oracle Solaris pour plus d'informations sur une installation du logiciel Oracle Solaris conforme à la configuration requise par le logiciel Oracle Solaris Cluster.
Assurez-vous que le SE Oracle Solaris est installé de façon à prendre en charge le logiciel Oracle Solaris Cluster.
Si le logiciel Oracle Solaris est déjà installé sur le noeud, il faut vérifier que l'installation Oracle Solaris respecte les conditions requises pour le logiciel Oracle Solaris Cluster et tout autre logiciel que vous prévoyez d'installer sur le cluster. Reportez-vous à la section Installation du logiciel Oracle Solaris pour plus d'informations sur une installation du logiciel Oracle Solaris conforme à la configuration requise par le logiciel Oracle Solaris Cluster.
SPARC : Si vous configurez des domaines d'E/S Oracle VM Server for SPARC ou des domaines invités en tant que noeuds de cluster, assurez-vous que le logiciel Oracle VM Server for SPARC est installé sur chaque machine physique et que les domaines respectent la configuration requise par Oracle Solaris Cluster. Reportez-vous à la section SPARC : Installation du logiciel Oracle VM Server for SPARC et création de domaines.
Assurez-vous que le logiciel et les patchs Oracle Solaris Cluster 3.3 3/13 sont installés sur chaque noeud à configurer. Reportez-vous à la section Installation des packages logiciels de structure et de services de données Oracle Solaris Cluster.
phys-schost# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
Ce message indique que le logiciel Oracle Solaris Cluster n'est pas encore configuré sur le noeud potentiel.
Si un ID de noeud est renvoyé, cela signifie que le logiciel Oracle Solaris Cluster est déjà configuré sur le noeud.
Si le cluster exécute une ancienne version du logiciel Oracle Solaris Cluster et que vous souhaitez installer le logiciel Oracle Solaris Cluster 3.3 3/13, suivez plutôt les procédures de mise à niveau du Oracle Solaris Cluster Upgrade Guide .
Si le logiciel Oracle Solaris Cluster n'est configuré sur aucun des noeuds potentiels du cluster, passez à l'étape 2.
Suivez les instructions de votre documentation concernant les commutateurs pour déterminer si le protocole NDP est activé et pour désactiver ce même protocole.
Au cours de la configuration du cluster, le logiciel vérifie qu'il n'y a aucun trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé au moment où le trafic de l'interconnexion privée est vérifié, le logiciel supposera que l'interconnexion n'est pas privée et la configuration du cluster sera interrompue. Le protocole NDP doit donc être désactivé au cours de la création d'un cluster.
Une fois le cluster créé, vous pouvez réactiver le protocole NDP sur les commutateurs d'interconnexion privée si vous souhaitez utiliser cette fonction.
phys-schost# cluster export -o clconfigfile
Spécifie la destination de la sortie.
Nom du fichier XML de configuration en cluster. Le nom de fichier spécifié peut correspondre à un fichier existant ou un nouveau fichier que la commande créera.
Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).
Vous pouvez stocker le fichier dans un répertoire accessible aux autres hôtes que vous allez configurer en tant que noeuds de cluster.
Basez le fichier sur la hiérarchie d'éléments illustrée sur la page de manuel clconfiguration(5CL). Vous pouvez stocker le fichier dans un répertoire accessible aux autres hôtes que vous allez configurer en tant que noeuds de cluster.
Pour établir un cluster, les éléments suivants doivent avoir une valeur valide dans le fichier XML de configuration en cluster :
Nom du cluster
Noeuds du cluster
Transport intracluster
Par défaut, le cluster est créé avec l'espace de noms des périphériques globaux configuré sur un périphérique lofi. En revanche, si vous devez utiliser un système de fichiers dédié sur lequel créer les périphériques globaux, ajoutez la propriété suivante à l'élément <propertyList> pour chaque noeud qui utilisera une partition au lieu d'un périphérique lofi.
… <nodeList> <node name="node" id="N"> <propertyList> … <property name="globaldevfs" value="/filesystem-name"> … </propertyList> </node> …
Si vous modifiez les informations de configuration exportées depuis un cluster existant, certaines valeurs que vous devez modifier pour refléter le nouveau cluster (le nom des noeuds, par exemple) sont utilisées dans la définition de plus d'un objet de cluster.
Reportez-vous à la page de manuel clconfiguration(5CL) pour plus d'informations sur la structure et le contenu du fichier XML de configuration en cluster.
phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile
Pour plus d'informations, reportez-vous à la page de manuel xmllint(1).
phys-schost# cluster create -i clconfigfile
Spécifie le nom du fichier XML de configuration en cluster à utiliser en tant que source de données en entrée.
Si les services ne sont pas encore en ligne pour un noeud, attendez leur mise en ligne, puis passez à l'étape suivante.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# clnode status
La sortie est similaire à l'exemple suivant.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
Pour localiser les patchs et les instructions d'installation, reportez-vous à la section Patchs et niveaux de microprogramme requis du manuel Notes de version d’Oracle Solaris Cluster 3.3 3/13.
Pour désactiver LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque noeud du cluster.
exclude:lofs
La modification apportée au fichier /etc/system est appliquée après la prochaine réinitialisation du système.
Remarque - Vous ne pouvez pas activer LOFS si vous utilisez HA pour NFS sur un système de fichiers local hautement disponible et si vous exécutez automountd. LOFS peut entraîner des problèmes de commutation pour HA pour NFS. Si vous choisissez d'ajouter HA pour NFS sur un système de fichiers local hautement disponible, vous devez apporter l'une des modifications de configuration suivantes.
Cependant, si vous configurez les zones non globales dans votre cluster, vous devez activer LOFS sur tous les noeuds de cluster. Si HA pour NFS doit coexister avec LOFS sur un système de fichiers local hautement disponible, utilisez l'une des autres solutions au lieu de désactiver LOFS.
Désactivez LOFS.
Désactivez le démon automountd.
Excluez du mappage de l'agent de montage automatique tous les fichiers faisant partie du système de fichiers local hautement disponible exporté par HA pour NFS. Cette option vous permet de conserver les deux LOFS et le démon automountd activés.
Pour plus d'informations relatives aux systèmes de fichiers loopback, reportez-vous à la section The Loopback File System du manuel System Administration Guide: Devices and File Systems.
Si vous avez créé un cluster à deux noeuds, vous devez configurer un périphérique de quorum. Si vous avez choisi de ne pas utiliser le fichier XML de configuration en cluster pour créer un périphérique de quorum requis, reportez-vous à la section Configuration des périphériques de quorum.
Suivez les instructions de la section Installation et configuration du logiciel Quorum Server.
Reportez-vous au guide Oracle Solaris Cluster 3.3 3/13 With Network-Attached Storage Device Manual.
phys-schost# xmllint --valid --noout clconfigfile
phys-schost# clquorum add -i clconfigfile devicename
Spécifie le nom du périphérique à configurer en tant que périphérique de quorum.
phys-schost# clquorum reset
phys-schost# claccess deny-all
Remarque - Lors de la configuration initiale, le contrôle de chemin de disque est activé par défaut pour tous les périphériques découverts.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Spécifie la propriété à définir.
Active la réinitialisation automatique de noeud si un échec se produit au niveau des chemins de disque partagé contrôlés.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Exemple 3-2 Configuration du logiciel Oracle Solaris Cluster sur tous les noeuds par le biais d'un fichier XML
Dans l'exemple suivant, la configuration en cluster et la configuration du quorum sont dupliquées d'un cluster à deux noeuds existants vers un nouveau cluster à deux noeuds. Le nouveau cluster est installé avec le SE Oracle Solaris 10 et n'est pas configuré avec les zones non globales. La configuration en cluster est exportée à partir du noeud de cluster existant (phys-oldhost-1) vers le fichier XML de configuration du cluster clusterconf.xml. Les noms de noeud du nouveau cluster sont phys-newhost-1 et phys-newhost-2. Le périphérique configuré en tant que périphérique de quorum dans le nouveau cluster est d3.
Le nom d'invite phys-newhost-N dans cet exemple indique que la commande est exécutée sur les deux noeuds de cluster.
phys-newhost-N# /usr/sbin/clinfo -n clinfo: node is not configured as part of acluster: Operation not applicable phys-oldhost-1# cluster export -o clusterconf.xml Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values phys-newhost-1# xmllint --valid --noout clusterconf.xml No errors are reported phys-newhost-1# cluster create -i clusterconf.xml phys-newhost-N# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default phys-newhost-1# clnode status Output shows that both nodes are online phys-newhost-1# clquorum add -i clusterconf.xml d3 phys-newhost-1# clquorum reset
Erreurs fréquentes
Echec de la configuration – Si un ou plusieurs noeuds ne parviennent pas à rejoindre le cluster ou si des informations de configuration erronées ont été spécifiées, essayez tout d'abord de répéter la procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque noeud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels d'Oracle Solaris Cluster. Suivez une nouvelle fois cette procédure.
Étapes suivantes
Passez à la section Vérification de la configuration de quorum et du mode d'installation.
Voir aussi
Une fois le cluster entièrement établi, vous pouvez dupliquer la configuration des autres composants de cluster à partir du cluster existant. Si ce n'est déjà fait, modifiez la valeur des éléments XML que vous souhaitez dupliquer pour refléter la configuration en cluster à laquelle vous ajoutez le composant. Par exemple, si vous dupliquez des groupes de ressources, assurez-vous que l'entrée <resourcegroupNodeList> contient les noms de noeuds corrects du nouveau cluster, et non ceux du cluster que vous avez dupliqué, à moins que les noms de noeuds soient identiques.
Pour dupliquer un composant de cluster, exécutez la sous-commande export de la commande orientée objet pour le composant de cluster que vous souhaitez dupliquer. Pour plus d'informations sur la syntaxe et les options de la commande, reportez-vous à la page de manuel de l'objet de cluster que vous souhaitez dupliquer. Le tableau suivant répertorie les composants de cluster que vous pouvez créer à partir d'un fichier XML de configuration après l'établissement du cluster et la page de manuel correspondant à la commande que vous exécutez pour dupliquer le composant.
|
Cette procédure décrit la configuration et l'utilisation de la méthode d'installation JumpStart personnalisée scinstall(1M). Cette méthode installe le SE Oracle Solaris et le logiciel Oracle Solaris Cluster sur tous les noeuds du cluster global et établit le cluster. Vous pouvez également suivre cette procédure pour ajouter de nouveaux noeuds à un cluster existant.
Avant de commencer
Effectuez les tâches suivantes :
Assurez-vous que le paramétrage matériel est terminé et vérifiez les connexions avant d'installer le logiciel Oracle Solaris. Reportez-vous à la documentation du matériel Oracle Solaris Cluster et de vos serveurs et périphériques de stockage pour plus de détails sur la configuration du matériel.
Déterminez l'adresse Ethernet de chaque noeud du cluster.
Si vous utilisez un service de noms, assurez-vous que les informations suivantes sont ajoutées aux services de noms par le biais desquels les clients accèdent aux services de cluster. La section Adresses IP du réseau public propose des directives de planification. Pour plus d'informations sur l'utilisation des services de noms d'Oracle Solaris, consultez la documentation d'administration système d'Oracle Solaris.
Mappages adresse vers nom pour tous les noms d'hôtes publics et les adresses logiques
Adresse IP et nom d'hôte du serveur d'installation JumpStart
Assurez-vous que la planification de la configuration du cluster est terminée. La section Préparation de l'installation du logiciel de cluster contient la configuration requise et des directives.
Sur le serveur à partir duquel vous allez créer l'archive Flash, assurez-vous que tous les logiciels, patchs et microprogrammes du SE Oracle Solaris nécessaires pour prendre en charge Oracle Solaris Cluster sont installés.
Si le logiciel Oracle Solaris est déjà installé sur le serveur, il faut vérifier que l'installation Oracle Solaris respecte les conditions requises pour le logiciel Oracle Solaris Cluster et tout autre logiciel que vous prévoyez d'installer sur le cluster. Reportez-vous à la section Installation du logiciel Oracle Solaris pour plus d'informations sur une installation du logiciel Oracle Solaris conforme à la configuration requise par le logiciel Oracle Solaris Cluster.
SPARC : Si vous configurez des domaines d'E/S Oracle VM Server for SPARC ou des domaines invités en tant que noeuds de cluster, assurez-vous que le logiciel Oracle VM Server for SPARC est installé sur chaque machine physique et que les domaines respectent la configuration requise par Oracle Solaris Cluster. Reportez-vous à la section SPARC : Installation du logiciel Oracle VM Server for SPARC et création de domaines.
Assurez-vous que les packages de logiciels et les patchs Oracle Solaris Cluster sont installés sur le serveur à partir duquel vous allez créer l'archive Flash. Reportez-vous à la section Installation des packages logiciels de structure et de services de données Oracle Solaris Cluster.
Déterminez le mode souhaité de l'utilitaire scinstall (Standard ou Personnalisé). En cas d'installation standard du logiciel Oracle Solaris Cluster, scinstall spécifie automatiquement les valeurs de configuration par défaut suivantes.
|
Complétez l'une des fiches d'information de configuration de cluster suivantes, selon que vous exécutez l'utilitaire scinstall en mode Standard ou Personnalisé. Reportez-vous à la section Planification de l'environnement Oracle Solaris Cluster pour obtenir des directives de planification.
Fiche d'information du mode standard – Si vous utilisez le mode Standard et acceptez toutes les valeurs par défaut, remplissez la fiche d'information suivante.
|
Fiche d'information en mode personnalisé – Si vous utilisez le mode Personnalisé et personnalisez les données de configuration, remplissez la fiche d'information suivante.
Remarque - Si vous installez un cluster à noeud unique, l'utilitaire scinstall reprend automatiquement l'adresse et le masque de réseau du réseau privé par défaut, même si le cluster n'utilise pas un réseau privé.
|
Suivez ces directives pour exécuter l'utilitaire scinstall interactif dans cette procédure :
L'utilitaire interactif scinstall utilise la mémoire tampon lors de vos saisies clavier. Pour cette raison, n'appuyez pas sur la touche Entrée plus d'une fois si l'écran du menu ne s'affiche pas immédiatement.
Sauf en cas d'indication contraire, vous pouvez utiliser le raccourci Ctrl+D pour revenir soit au début d'une série de questions connexes, soit au menu principal.
Les réponses par défaut ou les réponses données aux cours des sessions précédentes s'affichent entre crochets ([ ]) à la fin de la question. Appuyez sur Entrée pour utiliser la réponse entre crochets sans la retaper.
Assurez-vous que le serveur d'installation JumpStart remplit les conditions suivantes.
Le serveur d'installation est sur le même sous-réseau que les noeuds de cluster ou sur le serveur d'initialisation Oracle Solaris pour le sous-réseau utilisé par les noeuds de cluster.
Le serveur d'installation n'est pas un noeud de cluster.
Le serveur d'installation installe une version du SE Oracle Solaris prise en charge par le logiciel Oracle Solaris Cluster.
Un répertoire JumpStart personnalisé existe pour une installation JumpStart du logiciel Oracle Solaris Cluster. Ce répertoire jumpstart-dir doit répondre aux conditions suivantes :
Contenir une copie de l'utilitaire check.
Etre un export NFS que peut lire le serveur d'installation JumpStart.
Chaque noeud de cluster est configuré en tant que client d'installation JumpStart utilisant le répertoire JumpStart personnalisé que vous avez paramétré pour l'installation d'Oracle Solaris Cluster.
Suivez les instructions correspondant à votre plate-forme logicielle et à la version du système d'exploitation pour paramétrer le serveur d'installation JumpStart. Reportez-vous à la section Création d’un serveur de profils pour des systèmes en réseau du manuel Guide d’installation d’Oracle Solaris 10 1/13 : Installations JumpStart.
Reportez-vous également aux pages de manuel setup_install_server(1M) et add_install_client(1M).
Pour plus d'informations, reportez-vous à la section Ajout d’un noeud à un cluster existant du manuel Guide d’administration système d’Oracle Solaris Cluster.
Si le logiciel Oracle Solaris est déjà installé sur le serveur, il faut vérifier que l'installation Oracle Solaris respecte les conditions requises pour le logiciel Oracle Solaris Cluster et tout autre logiciel que vous prévoyez d'installer sur le cluster. Reportez-vous à la section Installation du logiciel Oracle Solaris pour plus d'informations sur une installation du logiciel Oracle Solaris conforme à la configuration requise par le logiciel Oracle Solaris Cluster.
Suivez les procédures de la section Installation du logiciel Oracle Solaris.
Suivez les procédures de la section SPARC : Installation du logiciel Oracle VM Server for SPARC et création de domaines.
Suivez les procédures de la section Installation des packages logiciels de structure et de services de données Oracle Solaris Cluster.
Pour localiser les patchs et les instructions d'installation, reportez-vous à la section Patchs et niveaux de microprogramme requis du manuel Notes de version d’Oracle Solaris Cluster 3.3 3/13.
machine# cacaoadm enable
Effectuez cette étape, que vous utilisiez ou non un service de noms. Reportez-vous à la section Adresses IP du réseau public pour obtenir la liste des composants Oracle Solaris Cluster dont vous devez ajouter les adresses IP.
La commande suivante supprime les informations de configuration de la console Web. Une partie des informations de configuration est spécifique au système installé. Il faut supprimer ces informations avant de créer l'archive Flash. Dans le cas contraire, les informations de configuration transférées sur le noeud de cluster peuvent empêcher la console Web de démarrer ou d'interagir correctement avec le noeud de cluster.
# /usr/share/webconsole/private/bin/wcremove -i console
Après l'installation de la console Web non configurée sur le noeud de cluster et son démarrage initial, la console exécute automatiquement sa configuration initiale et utilise les informations du noeud de cluster.
Pour plus d'informations sur la commande wcremove, reportez-vous à la section Identité de l’utilisateur d’Oracle Java Web Console du manuel Administration d’Oracle Solaris : Administration de base.
Suivez les procédures du Chapitre 3, Création d’archives Archive Flash (tâches) du manuel Guide d’installation d’Oracle Solaris 10 1/13 : Archives Flash (création et installation).
machine# flarcreate -n name archive
Nom à donner à l'archive Flash.
Nom de fichier à donner à l'archive Flash, avec le chemin d'accès complet. Par convention, le nom du fichier se termine par .flar.
Pour plus d'informations sur le partage automatique de fichiers, reportez-vous au Chapitre 4, Gestion des systèmes de fichiers NFS (présentation) du manuel Guide d’administration système : Services réseau.
Reportez-vous également aux pages de manuel share(1M) et dfstab(4).
Dans le chemin du média, remplacez arch par sparc ou x86 et remplacez ver par 10 pour Oracle Solaris 10.
installserver# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/ \ Solaris_ver/Tools/ installserver# ./scinstall
Le menu principal de scinstall s'affiche.
Cette option permet de configurer des scripts de fin JumpStart personnalisés. JumpStart exécute ces scripts de fin pour installer le logiciel Oracle Solaris Cluster.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 2
La commande scinstall stocke vos informations de configuration et copie le fichier class par défaut autoscinstall.class dans le répertoire /jumpstart-dir /autoscinstall.d/3.2/. Ce fichier est semblable à l'exemple suivant.
install_type initial_install system_type standalone partitioning explicit filesys rootdisk.s0 free / filesys rootdisk.s1 750 swap filesys rootdisk.s3 512 /globaldevices filesys rootdisk.s7 20 cluster SUNWCuser add package SUNWman add
Si nécessaire, modifiez les entrées pour qu'elles correspondent aux choix de configuration que vous avez effectués lors de l'installation du SE Oracle Solaris sur l'archive Flash ou lorsque vous avez exécuté l'utilitaire scinstall.
|
Reportez-vous à la section Mot-clé archive_location du manuel Guide d’installation d’Oracle Solaris 10 1/13 : Installations JumpStart pour plus d'informations sur les valeurs valides pour les entrées retrieval_type et location lorsqu'elles sont utilisées avec le mot-clé archive_location.
cluster SUNWCuser add package SUNWman add
Le fichier autoscinstall.class installe le groupe de logiciels Oracle Solaris Utilisateur final (SUNWCuser).
Le tableau suivant répertorie les packages Oracle Solaris requis pour prendre en charge certaines fonctionnalités d'Oracle Solaris Cluster. Ces packages ne sont pas inclus dans le groupe de logiciels Oracle Solaris Utilisateur final. Pour plus d'informations, reportez-vous à la section Considérations relatives aux groupes de logiciels Oracle Solaris.
|
Vous pouvez modifier le fichier class par défaut de l'une des manières suivantes :
Modifiez le fichier autoscinstall.class directement. Ces modifications sont appliquées à tous les noeuds de tous les clusters qui utilisent ce répertoire JumpStart personnalisé.
Mettez à jour le fichier rules pour qu'il pointe vers d'autres profils, puis exécutez l'utilitaire check pour valider le fichier rules.
Tant que le profil d'installation du SE Oracle répond à un minimum de conditions requises en matière d'allocation de système de fichiers Oracle Solaris Cluster, le logiciel Oracle Solaris Cluster n'impose pas de restrictions sur d'autres modifications du profil d'installation. Reportez-vous à la section Partitions de disque système pour des directives de partitionnement et des conditions requises pour prendre en charge le logiciel Oracle Solaris Cluster.
Pour plus d'informations sur les profils JumpStart, reportez-vous au Chapitre 3, Préparation d’une installation JumpStart (tâches) du manuel Guide d’installation d’Oracle Solaris 10 1/13 : Installations JumpStart.
Votre propre script de fin s'exécute après le script de fin standard installé par la commande scinstall. Reportez-vous au Chapitre 3, Préparation d’une installation JumpStart (tâches) du manuel Guide d’installation d’Oracle Solaris 10 1/13 : Installations JumpStart pour plus d'informations sur la création d'un script de fin JumpStart.
Reportez-vous à l'Étape 15.
Créez un répertoire node pour chaque noeud du cluster. Vous pouvez également respecter cette convention de nommage pour créer des liens symboliques vers un script finish partagé.
Suivez les instructions de votre documentation concernant les commutateurs pour déterminer si le protocole NDP est activé et pour désactiver ce même protocole.
Au cours de la configuration du cluster, le logiciel vérifie qu'il n'y a aucun trafic sur l'interconnexion privée. Si NDP envoie des packages à un adaptateur privé au moment où le trafic de l'interconnexion privée est vérifié, le logiciel supposera que l'interconnexion n'est pas privée et la configuration du cluster sera interrompue. Le protocole NDP doit donc être désactivé au cours de la création d'un cluster.
Une fois le cluster créé, vous pouvez réactiver le protocole NDP sur les commutateurs d'interconnexion privée si vous souhaitez utiliser cette fonction.
En tant que superutilisateur, exécutez les commandes suivantes pour démarrer l'utilitaire cconsole :
adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
L'utilitaire cconsole ouvre également une fenêtre principale à partir de laquelle vous pouvez envoyer vos données en entrée à toutes les fenêtres de console individuelles en même temps.
phys-schost# shutdown -g0 -y -i0
ok boot net - install
Remarque - Entourez le tiret (-) dans la commande par un espace de chaque côté.
Press any key to reboot. keystroke
Au terme de la séquence d'initialisation, l'écran de l'utilitaire de configuration du BIOS s'affiche.
La liste des périphériques d'initialisation s'affiche.
Le plus petit nombre à droite des choix d'initialisation IBA correspond au numéro de port Ethernet le plus faible. Le plus grand nombre à droite des choix d'initialisation IBA correspond au numéro de port Ethernet le plus élevé.
La séquence d'initialisation démarre à nouveau. Après d'autres traitements, le menu GRUB s'affiche.
Remarque - Si l'entrée Oracle Solaris JumpStart est la seule entrée répertoriée, vous pouvez également patienter jusqu'au délai d'expiration de l'écran de sélection. Si vous ne répondez pas dans les 30 secondes, le système poursuit automatiquement la séquence d'initialisation.
Après d'autres traitements, le menu du type d'installation s'affiche.
Remarque - Si vous ne tapez pas le numéro de l'installation JumpStart personnalisée avant le terme du délai d'attente de 30 secondes, le système lance automatiquement l'installation interactive d'Oracle Solaris.
JumpStart installe le SE Oracle Solaris et le logiciel Oracle Solaris Cluster sur chaque noeud. Une fois l'installation terminée, chaque noeud est installé en tant que nouveau noeud de cluster. La sortie de l'installation d'Oracle Solaris Cluster est consignée dans un fichier /var/cluster/logs/install/scinstall.log. N.
Remarque - Si vous n'interrompez pas le BIOS à ce stade, il revient automatiquement au menu du type d'installation. A ce moment, si aucun choix n'est saisi dans les 30 secondes, le système commence automatiquement une installation interactive.
Après d'autres traitements, l'utilitaire de configuration du BIOS s'affiche.
La liste des périphériques d'initialisation s'affiche.
La séquence d'initialisation démarre à nouveau. Aucune autre interaction avec le menu GRUB n'est nécessaire pour terminer l'initialisation en mode cluster.
Si les services ne sont pas encore en ligne pour un noeud, attendez leur mise en ligne, puis passez à l'étape suivante.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
phys-schost-new# mkdir -p mountpoint
Par exemple, si un nom de système de fichiers renvoyé par la commande de montage est /global/dg-schost-1, exécutez mkdir - p /global/dg-schost-1 sur le noeud à ajouter au cluster.
Remarque - Les points de montage deviennent actifs après la réinitialisation du cluster à l'Étape 27.
Pour désactiver LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque noeud du cluster.
exclude:lofs
La modification apportée au fichier /etc/system est appliquée après la prochaine réinitialisation du système.
Remarque - Vous ne pouvez pas activer LOFS si vous utilisez HA pour NFS sur un système de fichiers local hautement disponible et si vous exécutez automountd. LOFS peut entraîner des problèmes de commutation pour HA pour NFS. Si vous choisissez d'ajouter HA pour NFS sur un système de fichiers local hautement disponible, vous devez apporter l'une des modifications de configuration suivantes.
Cependant, si vous configurez les zones non globales dans votre cluster, vous devez activer LOFS sur tous les noeuds de cluster. Si HA pour NFS doit coexister avec LOFS sur un système de fichiers local hautement disponible, utilisez l'une des autres solutions au lieu de désactiver LOFS.
Désactivez LOFS.
Désactivez le démon automountd.
Excluez du mappage de l'agent de montage automatique tous les fichiers faisant partie du système de fichiers local hautement disponible exporté par HA pour NFS. Cette option vous permet de conserver les deux LOFS et le démon automountd activés.
Pour plus d'informations relatives aux systèmes de fichiers loopback, reportez-vous à la section The Loopback File System du manuel System Administration Guide: Devices and File Systems.
|
Cette entrée sera effective à la prochaine réinitialisation du système.
Paramétrer cette valeur vous permet de réinitialiser le noeud s'il vous est impossible d'accéder à une invite de connexion.
grub edit> kernel /platform/i86pc/multiboot kmdb
Voici certaines des tâches nécessitant une réinitialisation :
Ajout d'un nouveau noeud à un cluster existant
Installation de patchs imposant la réinitialisation du noeud ou du cluster
Modifications de configuration requérant une réinitialisation pour devenir actives
phys-schost-1# cluster shutdown -y -g0 clustername
Remarque - Ne réinitialisez pas le noeud installé en premier dans le cluster tant que le cluster n'est pas arrêté. Tant que le mode d'installation du cluster est actif, seul le noeud installé en premier (celui qui a établi le cluster) dispose d'un vote de quorum. Dans un cluster établi encore en mode d'installation : si le cluster n'est pas arrêté avant la réinitialisation du premier noeud, les autres noeuds du cluster ne pourront pas obtenir le quorum. Le cluster entier est alors arrêté.
Les noeuds du cluster restent en mode d'installation jusqu'à la première exécution de la commande clsetup. Cette commande est exécutée au cours de la procédure Configuration des périphériques de quorum.
ok boot
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée.
Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Initialisation d’un système x86 à l’aide de GRUB (liste des tâches) du manuel Administration d’Oracle Solaris : Administration de base.
L'utilitaire scinstall installe et configure tous les noeuds de cluster, puis réinitialise le cluster. Le cluster est établi lorsque tous les noeuds ont été correctement initialisés dans le cluster. La sortie de l'installation d'Oracle Solaris Cluster est consignée dans un fichier /var/cluster/logs/install/scinstall.log.N.
phys-schost# smcwebserver start
Pour plus d'informations, reportez-vous à la page de manuel smcwebserver(1M).
phys-schost# clnode status
La sortie est similaire à l'exemple suivant.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
Remarque - Lors de la configuration initiale, le contrôle de chemin de disque est activé par défaut pour tous les périphériques découverts.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Spécifie la propriété à définir.
Active la réinitialisation automatique de noeud si un échec se produit au niveau des chemins de disque partagé contrôlés.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Étapes suivantes
Si vous avez ajouté un noeud à un cluster à deux noeuds, passez à la section Mise à jour des périphériques de quorum après l'ajout d'un noeud au cluster global.
Sinon, passez à la procédure appropriée :
Si vous avez installé un cluster à noeuds multiples et choisi la configuration automatique du quorum, la configuration post-installation est terminée. Passez à la section Vérification de la configuration de quorum et du mode d'installation.
Si vous avez installé un cluster à noeuds multiples et refusé la configuration automatique du quorum, procédez à la configuration post-installation. Passez à la section Configuration des périphériques de quorum.
Si vous avez ajouté un noeud à un cluster existant qui utilise un périphérique de quorum, passez à la section Mise à jour des périphériques de quorum après l'ajout d'un noeud au cluster global.
Si vous avez ajouté un nouveau noeud à un cluster existant n'utilisant pas de périphérique de quorum, vérifiez l'état du cluster. Passez à la section Vérification de la configuration de quorum et du mode d'installation.
Si vous avez installé un cluster à noeud unique, la création du cluster est terminée. Passez à la section Création de systèmes de fichiers de cluster pour installer le logiciel de gestion du volume et configurer le cluster.
Erreurs fréquentes
Option scinstall désactivée – Si l'option JumpStart de la commande scinstall n'est pas précédée d'un astérisque, l'option est désactivée. Cette condition indique que l'installation JumpStart n'est pas terminée ou qu'une erreur s'est produite. Pour remédier à ce problème, arrêtez tout d'abord l'utilitaire scinstall. Répétez les procédures de l'Étape 1 à l'Étape 16 pour corriger l'installation JumpStart, puis redémarrez l'utilitaire scinstall.
Suivez cette procédure pour les noeuds existants du cluster global afin de préparer le cluster à l'ajout de nouveaux noeuds.
Avant de commencer
Effectuez les tâches suivantes :
Assurez-vous que le matériel nécessaire est installé.
Assurez-vous que l'adaptateur de l'hôte est installé sur le nouveau noeud. Reportez-vous au guide Oracle Solaris Cluster 3.3 3/13 Hardware Administration Manual .
Vérifiez que toute interconnexion de cluster existante peut prendre en charge le nouveau noeud. Reportez-vous au guide Oracle Solaris Cluster 3.3 3/13 Hardware Administration Manual .
Assurez-vous qu'un stockage supplémentaire est installé. Reportez-vous au manuel de stockage Oracle Solaris Cluster approprié.
phys-schost# clsetup
Le menu principal s'affiche.
L'utilitaire clsetup affiche le message Command completed successfully si la tâche s'exécute sans erreur.
phys-schost# clinterconnect show
Pour pouvoir ajouter un noeud, vous devez disposez d'au moins deux câbles ou deux adaptateurs configurés.
phys-schost# clsetup
Suivez les instructions pour spécifier le nom du noeud à ajouter au cluster et le nom de l'adaptateur de transport et préciser si vous souhaitez utiliser un commutateur de transport ou non.
phys-schost# clinterconnect show
La sortie de la commande devrait à présent afficher les informations de configuration d'au moins deux interconnexions de cluster.
phys-schost# cluster show-netprops
Vous obtenez une sortie similaire à ce qui suit :
=== Private Network === private_netaddr: 172.16.0.0 private_netmask: 255.255.240.0 max_nodes: 64 max_privatenets: 10 max_zoneclusters: 12
Passez à la section Configuration du logiciel Oracle Solaris Cluster sur les noeuds supplémentaires du cluster global (scinstall).
Passez à la section Modification de la configuration du réseau privé lors de l'ajout de noeuds ou de réseaux privés. Il faut arrêter le cluster pour modifier la plage d'adresses IP privées. Pour cela, vous devez mettre hors ligne tous les groupes de ressources, désactivez toutes les ressources du cluster et effectuez une réinitialisation en mode non-cluster.
Étapes suivantes
Configurez le logiciel Oracle Solaris Cluster sur tous les nouveaux noeuds du cluster. Passez aux sections Configuration du logiciel Oracle Solaris Cluster sur les noeuds supplémentaires du cluster global (scinstall) ou Configuration du logiciel Oracle Solaris Cluster sur des noeuds supplémentaires de cluster global (XML).
Effectuez cette tâche pour modifier la plage d'adresses IP privées du cluster global afin de pallier une éventuelle augmentation dans un ou plusieurs des composants de cluster suivants :
Le nombre de noeuds ou de zones non globales
Le nombre de réseaux privés
Le nombre de clusters de zones
Vous pouvez également suivre cette procédure pour réduire la plage d'adresses IP privées.
Remarque - Cette procédure requiert l'arrêt de l'ensemble du cluster. Si vous avez besoin de modifier uniquement le masque de réseau, par exemple pour étendre la prise en charge de clusters de zones, ne suivez pas cette procédure. A la place, exécutez la commande suivante à partir d'un noeud du cluster global exécuté en mode cluster, afin de spécifier le nombre attendu de clusters de zones :
phys-schost# cluster set-netprops num_zoneclusters=N
Cette commande ne requiert pas l'arrêt du cluster.
Avant de commencer
Assurez-vous que Accès au shell distant (rsh(1M)) ou au shell sécurisé (ssh(1)) pour le superutilisateur est activé pour tous les noeuds de cluster.
# clsetup
Le menu principal de clsetup s'affiche.
Si le noeud contient des zones non globales, les groupes de ressources dans les zones sont également mis hors ligne.
Le menu Resource Group s'affiche.
# cluster status -t resource,resourcegroup
Limite les données en sortie à l'objet de cluster spécifié.
Définit les ressources.
Définit les groupes de ressources.
# cluster shutdown -g0 -y
Définit le temps d'attente en secondes.
Bloque l'affichage de l'invite vous demandant de confirmer l'arrêt.
ok boot -x
Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Initialisation d’un système x86 à l’aide de GRUB (liste des tâches) du manuel Administration d’Oracle Solaris : Administration de base.
L'écran affiche la commande éditée.
Remarque - Cette modification de la commande des paramètres d'initialisation du noyau ne sera pas prise en compte, lors de la prochaine initialisation du système. Lors de la prochaine initialisation du noeud, ce dernier sera initialisé en mode cluster. Pour une initialisation en mode non-cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.
Si vous exécutez l'utilitaire clsetup en mode non-cluster, il affiche le menu principal relatif aux opérations correspondant à ce mode.
L'utilitaire clsetup affiche la configuration de réseau privé en cours, puis vous demande si vous souhaitez la modifier.
L'utilitaire clsetup affiche l'adresse IP de réseau privé par défaut, 172.16.0.0, et vous demande si vous l'acceptez.
L'utilitaire clsetup vous demande si vous acceptez le masque de réseau par défaut. Passez à l'étape suivante pour saisir votre réponse.
L'utilitaire clsetup vous invite à saisir la nouvelle adresse IP de réseau privé.
L'utilitaire clsetup affiche le masque de réseau par défaut, puis vous demande si vous l'acceptez.
Le masque de réseau par défaut est 255.255.240.0. Cette plage d'adresses IP par défaut prend en charge jusqu'à 64 noeuds, 12 clusters de zones et 10 réseaux privés dans le cluster.
Passez ensuite à l'étape suivante.
Si vous refusez le masque de réseau par défaut, l'utilitaire clsetup vous invite à indiquer le nombre de noeuds, de réseaux privés et de clusters de zones que vous prévoyez de configurer dans le cluster.
En fonction des nombres saisis, l'utilitaire clsetup propose deux masques de réseau :
Le premier masque de réseau est celui qui est au minimum nécessaire à la prise en charge du nombre de noeuds, de réseaux privés et de clusters de zones que vous avez spécifié.
Le second masque de réseau prend en charge deux fois plus de noeuds, de réseaux privés et de clusters de zones par rapport au nombre que vous avez spécifié, et ce, en prévision d'une éventuelle augmentation.
# shutdown -g0 -y
ok boot
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée.
Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Initialisation d’un système x86 à l’aide de GRUB (liste des tâches) du manuel Administration d’Oracle Solaris : Administration de base.
# clsetup
Le menu principal de clsetup s'affiche.
Le menu Resource Group s'affiche.
Si le noeud contient des zones non globales, mettez également en ligne tous les groupes de ressources contenus dans ces zones.
Appuyez sur la touche q pour fermer tous les sous-menus ou utilisez le raccourci Ctrl+C.
Étapes suivantes
Pour ajouter un noeud à un cluster existant, suivez l'une des procédures suivantes :
Pour créer une zone non globale sur un noeud de cluster, passez à la section Configuration d'une zone non globale sur un noeud de cluster global.
Suivez cette procédure pour ajouter un nouveau noeud à un cluster global existant. Pour ajouter un nouveau noeud par le biais de JumpStart, suivez plutôt les procédures de la section Installation et configuration d'Oracle Solaris et du logiciel Oracle Solaris Cluster (JumpStart).
Remarque - Cette procédure utilise la forme interactive de la commande scinstall. Pour utiliser des formes non interactives de la commande scinstall, par exemple lors du développement de scripts d'installation, reportez-vous à la page de manuel scinstall(1M).
Assurez-vous que les packages logiciels Oracle Solaris Cluster sont installés sur le noeud (manuellement ou à l'aide du programme installer en mode silencieux) avant d'exécuter la commande scinstall. Pour plus d'informations sur l'exécution du programme installer depuis un script d'installation, reportez-vous au Chapitre 5, Installing in Silent Mode du manuel Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.
Avant de commencer
Effectuez les tâches suivantes :
Assurez-vous que le SE Oracle Solaris est installé de façon à prendre en charge le logiciel Oracle Solaris Cluster.
Si le logiciel Oracle Solaris est déjà installé sur le noeud, il faut vérifier que l'installation Oracle Solaris respecte les conditions requises pour le logiciel Oracle Solaris Cluster et tout autre logiciel que vous prévoyez d'installer sur le cluster. Reportez-vous à la section Installation du logiciel Oracle Solaris pour plus d'informations sur une installation du logiciel Oracle Solaris conforme à la configuration requise par le logiciel Oracle Solaris Cluster.
SPARC : Si vous configurez des domaines d'E/S Oracle VM Server for SPARC ou des domaines invités en tant que noeuds de cluster, assurez-vous que le logiciel Oracle VM Server for SPARC est installé sur chaque machine physique et que les domaines respectent la configuration requise par Oracle Solaris Cluster. Reportez-vous à la section SPARC : Installation du logiciel Oracle VM Server for SPARC et création de domaines.
Assurez-vous que les packages logiciels Oracle Solaris Cluster et les patchs sont installés sur le noeud. Reportez-vous à la section Installation des packages logiciels de structure et de services de données Oracle Solaris Cluster.
Assurez-vous que le cluster est préparé pour l'ajout du nouveau noeud. Reportez-vous à la section Préparation du cluster pour les noeuds supplémentaires du cluster global.
Déterminez le mode souhaité de l'utilitaire scinstall (Standard ou Personnalisé). En cas d'installation standard du logiciel Oracle Solaris Cluster, scinstall spécifie automatiquement les valeurs de configuration par défaut suivantes.
|
Remplissez l'une des fiches de planification de la configuration : Reportez-vous aux sections Planification du SE Oracle Solaris et Planification de l'environnement Oracle Solaris Cluster pour connaître les directives de planification.
Fiche d'information du mode standard – Si vous utilisez le mode Standard et acceptez toutes les valeurs par défaut, remplissez la fiche d'information suivante.
|
Fiche d'information en mode personnalisé – Si vous utilisez le mode Personnalisé et personnalisez les données de configuration, remplissez la fiche d'information suivante.
|
Suivez ces directives pour exécuter l'utilitaire scinstall interactif dans cette procédure :
L'utilitaire interactif scinstall utilise la mémoire tampon lors de vos saisies clavier. Pour cette raison, n'appuyez pas sur la touche Entrée plus d'une fois si l'écran du menu ne s'affiche pas immédiatement.
Sauf en cas d'indication contraire, vous pouvez utiliser le raccourci Ctrl+D pour revenir soit au début d'une série de questions connexes, soit au menu principal.
Les réponses par défaut ou les réponses données aux cours des sessions précédentes s'affichent entre crochets ([ ]) à la fin de la question. Appuyez sur Entrée pour utiliser la réponse entre crochets sans la retaper.
phys-schost-new# /usr/cluster/bin/scinstall
Le menu principal de scinstall s'affiche.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1
Le menu New Cluster and Cluster Node s'affiche.
L'utilitaire scinstall configure le noeud et initialise le noeud dans le cluster.
phys-schost# eject cdrom
Si les services ne sont pas encore en ligne pour un noeud, attendez leur mise en ligne, puis passez à l'étape suivante.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# claccess deny-all
Vous pouvez également exécuter l'utilitaire clsetup. Reportez-vous à la section Ajout d’un noeud à un cluster existant du manuel Guide d’administration système d’Oracle Solaris Cluster pour connaître les procédures.
phys-schost# clnode status
La sortie est similaire à l'exemple suivant.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
phys-schost# showrev -p
Remarque - Lors de la configuration initiale, le contrôle de chemin de disque est activé par défaut pour tous les périphériques découverts.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Spécifie la propriété à définir.
Active la réinitialisation automatique de noeud si un échec se produit au niveau des chemins de disque partagé contrôlés.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Pour désactiver LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque noeud du cluster.
exclude:lofs
La modification apportée au fichier /etc/system est appliquée après la prochaine réinitialisation du système.
Remarque - Vous ne pouvez pas activer LOFS si vous utilisez HA pour NFS sur un système de fichiers local hautement disponible et si vous exécutez automountd. LOFS peut entraîner des problèmes de commutation pour HA pour NFS. Si vous choisissez d'ajouter HA pour NFS sur un système de fichiers local hautement disponible, vous devez apporter l'une des modifications de configuration suivantes.
Cependant, si vous configurez les zones non globales dans votre cluster, vous devez activer LOFS sur tous les noeuds de cluster. Si HA pour NFS doit coexister avec LOFS sur un système de fichiers local hautement disponible, utilisez l'une des autres solutions au lieu de désactiver LOFS.
Désactivez LOFS.
Désactivez le démon automountd.
Excluez du mappage de l'agent de montage automatique tous les fichiers faisant partie du système de fichiers local hautement disponible exporté par HA pour NFS. Cette option vous permet de conserver les deux LOFS et le démon automountd activés.
Pour plus d'informations relatives aux systèmes de fichiers loopback, reportez-vous à la section The Loopback File System du manuel System Administration Guide: Devices and File Systems.
Exemple 3-3 Configuration du logiciel Oracle Solaris Cluster sur un noeud supplémentaire
L'exemple suivant illustre le noeud phys-schost-3 ajouté au cluster schost. Le noeud de cautionnement est phys-schost-1.
*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 PST 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=bge2 -A trtype=dlpi,name=bge3 -m endpoint=:bge2,endpoint=switch1 -m endpoint=:bge3,endpoint=switch2 Checking device to use for global devices file system ... done Adding node "phys-schost-3" to the cluster configuration ... done Adding adapter "bge2" to the cluster configuration ... done Adding adapter "bge3" to the cluster configuration ... done Adding cable to the cluster configuration ... done Adding cable to the cluster configuration ... done Copying the config from "phys-schost-1" ... done Copying the postconfig file from "phys-schost-1" if it exists ... done Copying the Common Agent Container keys from "phys-schost-1" ... done Setting the node ID for "phys-schost-3" ... done (id=1) Setting the major number for the "did" driver ... Obtaining the major number for the "did" driver from "phys-schost-1" ... done "did" driver major number set to 300 Checking for global devices global file system ... done Updating vfstab ... done Verifying that NTP is configured ... done Initializing NTP configuration ... done Updating nsswitch.conf ... done Adding clusternode entries to /etc/inet/hosts ... done Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files Updating "/etc/hostname.hme0". Verifying that power management is NOT configured ... done Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done The "local-mac-address?" parameter setting has been changed to "true". Ensure network routing is disabled ... done Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done Updating file ("hosts") on node phys-schost-1 ... done Rebooting ...
Erreurs fréquentes
Echec de la configuration – Si un ou plusieurs noeuds ne parviennent pas à rejoindre le cluster ou si des informations de configuration erronées ont été spécifiées, essayez tout d'abord de répéter la procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque noeud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels d'Oracle Solaris Cluster. Suivez une nouvelle fois cette procédure.
Étapes suivantes
Si vous avez ajouté un noeud à un cluster existant qui utilise un périphérique de quorum, passez à la section Mise à jour des périphériques de quorum après l'ajout d'un noeud au cluster global.
Sinon, passez à la section Vérification de la configuration de quorum et du mode d'installation.
Suivez cette procédure pour configurer un nouveau noeud de cluster global en utilisant un fichier XML de configuration en cluster. Le nouveau noeud peut être la copie d'un noeud de cluster existant exécutant le logiciel Oracle Solaris Cluster 3.3 3/13.
Cette procédure configure les composants de cluster suivants sur le nouveau noeud :
Appartenance du noeud de cluster
Interconnexion de cluster
Périphériques globaux
Avant de commencer
Effectuez les tâches suivantes :
Assurez-vous que le SE Oracle Solaris est installé de façon à prendre en charge le logiciel Oracle Solaris Cluster.
Si le logiciel Oracle Solaris est déjà installé sur le noeud, il faut vérifier que l'installation Oracle Solaris respecte les conditions requises pour le logiciel Oracle Solaris Cluster et tout autre logiciel que vous prévoyez d'installer sur le cluster. Reportez-vous à la section Installation du logiciel Oracle Solaris pour plus d'informations sur une installation du logiciel Oracle Solaris conforme à la configuration requise par le logiciel Oracle Solaris Cluster.
SPARC : Si vous configurez des domaines d'E/S Oracle VM Server for SPARC ou des domaines invités en tant que noeuds de cluster, assurez-vous que le logiciel Oracle VM Server for SPARC est installé sur chaque machine physique et que les domaines respectent la configuration requise par Oracle Solaris Cluster. Reportez-vous à la section SPARC : Installation du logiciel Oracle VM Server for SPARC et création de domaines.
Assurez-vous que les packages logiciels Oracle Solaris Cluster et tous les patchs nécessaires sont installés sur le noeud. Reportez-vous à la section Installation des packages logiciels de structure et de services de données Oracle Solaris Cluster.
Assurez-vous que le cluster est préparé pour l'ajout du nouveau noeud. Reportez-vous à la section Préparation du cluster pour les noeuds supplémentaires du cluster global.
phys-schost-new# /usr/sbin/clinfo -n
Le logiciel Oracle Solaris Cluster n'est pas encore configuré sur le noeud. Vous pouvez ajouter le noeud potentiel au cluster.
Le logiciel Oracle Solaris Cluster est déjà configuré sur le noeud. Pour pouvoir ajouter le noeud à un cluster différent, vous devez supprimer les informations de configuration de cluster actuelles.
ok boot -x
Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Initialisation d’un système x86 à l’aide de GRUB (liste des tâches) du manuel Administration d’Oracle Solaris : Administration de base.
L'écran affiche la commande éditée.
Remarque - Cette modification de la commande des paramètres d'initialisation du noyau ne sera pas prise en compte, lors de la prochaine initialisation du système. Lors de la prochaine initialisation du noeud, ce dernier sera initialisé en mode cluster. Pour une initialisation en mode non-cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.
phys-schost-new# /usr/cluster/bin/clnode remove
phys-schost# clnode export -o clconfigfile
Spécifie la destination de la sortie.
Nom du fichier XML de configuration en cluster. Le nom de fichier spécifié peut correspondre à un fichier existant ou un nouveau fichier que la commande créera.
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
Basez le fichier sur la hiérarchie d'éléments illustrée sur la page de manuel clconfiguration(5CL). Vous pouvez stocker le fichier dans n'importe quel répertoire.
Reportez-vous à la page de manuel clconfiguration(5CL) pour plus d'informations sur la structure et le contenu du fichier XML de configuration en cluster.
phys-schost-new# xmllint --valid --noout clconfigfile
phys-schost-new# clnode add -n sponsornode -i clconfigfile
Spécifie le nom d'un membre de cluster existant afin d'agir en tant que noeud de cautionnement pour le nouveau noeud.
Spécifie le nom du fichier XML de configuration en cluster à utiliser en tant que source de données en entrée.
Remarque - Lors de la configuration initiale, le contrôle de chemin de disque est activé par défaut pour tous les périphériques découverts.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Spécifie la propriété à définir.
Active la réinitialisation automatique de noeud si un échec se produit au niveau des chemins de disque partagé contrôlés.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Erreurs fréquentes
Echec de la configuration – Si un ou plusieurs noeuds ne parviennent pas à rejoindre le cluster ou si des informations de configuration erronées ont été spécifiées, essayez tout d'abord de répéter la procédure. Si le problème persiste, effectuez la procédure de la section Annulation de la configuration du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation sur chaque noeud mal configuré afin de le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages logiciels d'Oracle Solaris Cluster. Suivez une nouvelle fois cette procédure.
Étapes suivantes
Si vous avez ajouté un noeud à un cluster qui utilise un périphérique de quorum, passez à la section Mise à jour des périphériques de quorum après l'ajout d'un noeud au cluster global.
Sinon, passez à la section Vérification de la configuration de quorum et du mode d'installation.
Si vous avez ajouté un noeud à un cluster global, il faut mettre à jour les informations de configuration des périphériques de quorum, que vous utilisiez des disques partagés, des périphériques NAS, un serveur de quorum ou une combinaison de ces éléments. Pour cela, vous devez supprimer tous les périphériques de quorum et mettre à jour l'espace de noms des périphériques globaux. Vous pouvez facultativement reconfigurer les périphériques de quorum que vous souhaitez continuer à utiliser. Cela enregistre le nouveau noeud auprès de chaque périphérique de quorum, qui peut ensuite recalculer le nombre de votes en fonction du nouveau nombre de noeuds dans le cluster.
Tout nouveau périphérique de quorum SCSI nouvellement configuré sera défini sur les réservations SCSI-3.
Avant de commencer
Assurez-vous que vous avez terminé l'installation du logiciel Oracle Solaris Cluster sur le noeud ajouté.
phys-schost# cluster status -t node
La sortie de la commande répertorie les périphériques de quorum et les noeuds. L'exemple de sortie suivant indique le périphérique de quorum SCSI actuel, d3.
phys-schost# clquorum list d3 …
Effectuez cette étape pour chaque périphérique de quorum configuré.
phys-schost# clquorum remove devicename
Spécifie le nom de périphérique de quorum.
Si la suppression s'est correctement effectuée, aucun périphérique n'est répertorié.
phys-schost# clquorum status
phys-schost# cldevice populate
Remarque - Cette étape permet d'éviter d'éventuelles erreurs de noeud.
La commande cldevice populate s'exécute à distance sur tous les noeuds, bien qu'elle soit émise à partir d'un seul noeud. Pour savoir si la commande cldevice populate a terminé le traitement, exécutez la commande suivante sur chaque noeud du cluster.
phys-schost# ps -ef | grep scgdevs
Vous pouvez configurer le périphérique configuré préalablement en tant de périphérique de quorum ou choisir un nouveau périphérique partagé à configurer.
Dans le cas contraire, passez à l'Étape c.
phys-schost# cldevice list -v
La sortie est similaire à l'exemple suivant :
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 …
phys-schost# clquorum add -t type devicename
Spécifiez le type de périphérique de quorum. Si cette option n'est pas spécifiée, le type par défaut shared_disk est utilisé.
phys-schost# clquorum list
La sortie répertorie les périphériques de quorum et les noeuds.
Exemple 3-4 Mise à jour des périphériques de quorum SCSI après l'ajout d'un noeud à un cluster à deux noeuds
L'exemple suivant identifie le périphérique de quorum SCSI d'origine d2, supprime ce périphérique de quorum, répertorie les périphériques partagés disponibles, met à jour l'espace de noms du périphérique global, configure d3 en tant que nouveau périphérique de quorum SCSI et vérifie le nouveau périphérique.
phys-schost# clquorum list d2 phys-schost-1 phys-schost-2 phys-schost# clquorum remove d2 phys-schost# clquorum status … --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- … d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … phys-schost# cldevice populate phys-schost# ps -ef - grep scgdevs phys-schost# clquorum add d3 phys-schost# clquorum list d3 phys-schost-1 phys-schost-2
Étapes suivantes
Passez à la section Vérification de la configuration de quorum et du mode d'installation.
Remarque - Il est inutile de configurer les périphériques de quorum dans les cas suivants :
Vous avez opté pour la configuration automatique du quorum lors de la configuration du logiciel Oracle Solaris Cluster.
Vous avez installé un cluster global à noeud unique.
Vous avez ajouté un noeud à un cluster global existant et suffisamment de votes de quorum ont été assignés.
Passez alors à la section Vérification de la configuration de quorum et du mode d'installation.
Suivez cette procédure une seule fois, quand le nouveau cluster est entièrement défini. Suivez cette procédure pour assigner des votes de quorum et sortir le cluster du mode d'installation.
Avant de commencer
Effectuez les préparations suivantes pour configurer un serveur de quorum ou un périphérique NAS en tant que périphérique de quorum.
Serveurs de quorum – Pour configurer un serveur de quorum en tant que périphérique de quorum, procédez comme suit :
Installez le logiciel Quorum Server sur la machine hôte du serveur de quorum et démarrez le serveur de quorum. Pour plus d'informations sur l'installation et le démarrage du serveur de quorum, reportez-vous à la section Installation et configuration du logiciel Quorum Server.
Assurez-vous que les commutateurs réseau directement connectés aux noeuds du cluster remplissent un des critères suivants :
Le commutateur prend en charge le protocole RSTP (Rapid Spanning Tree Protocol).
Le mode de port rapide est activé sur le commutateur.
Une de ces fonctions est nécessaire pour assurer la communication immédiate entre les noeuds du cluster et le serveur de quorum. Si cette communication est significativement retardée par le commutateur, le cluster interprète cette prévention de communication comme une perte du serveur du périphérique de quorum.
Ayez à disposition les informations suivantes :
Un nom à assigner au périphérique de quorum configuré
L'adresse IP de la machine hôte du serveur de quorum
Le numéro de port du serveur de quorum
Périphériques NAS – Pour configurer un périphérique NAS (network-attached storage, stockage connecté au réseau) en tant que périphérique de quorum, installez le matériel et le logiciel du périphérique NAS. Reportez-vous au guide Oracle Solaris Cluster 3.3 3/13 With Network-Attached Storage Device Manual et à la documentation de votre périphérique pour connaître la configuration requise et les procédures d'installation du matériel et du logiciel NAS.
Vous voulez utiliser un serveur de quorum.
Le réseau public utilise un masque de sous-réseau de longueur variable, également appelé routage interdomaine sans classe (CIDR, Classless Inter-Domain Routing).
Si vous disposez d'un serveur de quorum mais que le réseau public utilise des sous-réseaux avec classes, tels que définis dans le document RFC 791, inutile de suivre cette étape.
Voici un exemple d'entrée contenant une adresse IP et un masque de réseau public :
10.11.30.0 255.255.255.0
nodename netmask + broadcast +
phys-schost# cluster status -t node
Vous n'avez pas besoin de vous connecter en tant que superutilisateur pour exécuter cette commande.
phys-schost-1# cldevice list -v
La sortie est similaire à l'exemple suivant :
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 …
Remarque - Tous les disques partagés que vous choisissez doivent être adaptés à une utilisation en tant que périphérique de quorum. Reportez-vous à la section Périphériques de quorum pour plus d'informations sur le choix des périphériques de quorum.
Basez-vous sur la sortie de la commande scdidadm exécutée à l'Étape a pour identifier l'ID de périphérique de chaque disque partagé que vous configurez en tant que périphérique de quorum. Par exemple, la sortie obtenue au cours de l'Étape a indique qu'un périphérique global d3 est partagé par phys-schost-1 et phys-schost-2.
phys-schost# cldevice show device === DID Device Instances === DID Device Name: /dev/did/rdsk/dN … default_fencing: nofencing …
Vous pouvez simplement désactiver la séparation pour le disque individuel. Le disque est alors ignoré quelle que soit la valeur de la propriété global_fencing. Passez à l'Étape c pour désactiver la séparation pour le disque individuel.
phys-schost# cluster show -t global === Cluster === Cluster name: cluster … global_fencing: nofencing …
Remarque - Si la propriété default_fencing du disque individuel est définie sur global, la séparation pour ce disque individuel est désactivée uniquement lorsque la propriété global_fencing du cluster est définie sur nofencing ou nofencing-noscrub. Si la propriété global_fencing est modifiée sur une valeur activant la séparation, la séparation devient active pour tous les disques dont la propriété default_fencing est définie sur global.
phys-schost# cldevice set \ -p default_fencing=nofencing-noscrub device
phys-schost# cldevice show device
phys-schost# clsetup
L'écran Configuration initiale du cluster s'affiche.
Remarque - Si le menu principal s'affiche à la place, cela signifie que la configuration initiale du cluster a déjà été exécutée. Passez à l'Étape 11.
|
Pour un serveur de quorum, veuillez fournir également les informations suivantes :
L'adresse IP de l'hôte du serveur de quorum
Le numéro de port utilisé par le serveur de quorum pour communiquer avec les noeuds de cluster
Une fois que l'utilitaire clsetup a défini les configurations de quorum et les nombres de votes pour le cluster, le message Cluster initialization is complete s'affiche. L'utilitaire vous renvoie au menu principal.
Étapes suivantes
Vérifiez la configuration de quorum et assurez-vous que le mode d'installation est désactivé. Passez à la section Vérification de la configuration de quorum et du mode d'installation.
Erreurs fréquentes
Traitement clsetup interrompu - Si le processus de configuration du quorum est interrompu ou échoue, exécutez à nouveau la commande clsetup.
Modifications du nombre de votes de quorum – Si vous augmentez/diminuez ultérieurement le nombre de raccordements de noeuds à un périphérique de quorum, le nombre de votes de quorum n'est pas automatiquement recalculé. Vous pouvez rétablir le nombre de votes de quorum en supprimant chaque périphérique de quorum, puis en les ajoutant de nouveau un à un à la configuration. Pour un cluster à deux noeuds, ajoutez temporairement un nouveau périphérique de quorum avant la suppression et l'ajout du périphérique de quorum d'origine. Supprimez ensuite le périphérique de quorum temporaire. Reportez-vous à la procédure de modification de la liste de noeuds d'un périphérique de quorum décrite au Chapitre 6, Gestion du quorum du manuel Guide d’administration système d’Oracle Solaris Cluster.
Périphérique de quorum inaccessible – Si des messages s'affichent sur les noeuds de cluster indiquant qu'un périphérique de quorum est inaccessible ou si des noeuds de cluster subissent une défaillance en générant le message CMM: Unable to acquire the quorum device, il est possible que le périphérique de quorum ou son chemin d'accès pose problème. Vérifiez que le périphérique de quorum et son chemin d'accès fonctionnent correctement.
Si le problème persiste, utilisez un autre périphérique de quorum. Si vous souhaitez utiliser le même périphérique de quorum, attribuez une valeur élevée au délai d'attente du quorum, comme suit :
Remarque - Pour Oracle Real Application Clusters (Oracle RAC), ne modifiez pas le délai d'attente par défaut du quorum fixé à 25 secondes. Dans certains scénarios split-brain, un délai d'attente supérieur pourrait entraîner l'échec du basculement d'Oracle RAC VIP en raison du dépassement du délai d'attente par la ressource VIP. Si le périphérique de quorum utilisé ne respecte pas le délai d'attente par défaut de 25 secondes, utilisez un autre périphérique de quorum.
1. Connectez-vous en tant que superutilisateur.
2. Sur chaque noeud du cluster, modifiez le fichier /etc/system en tant que superutilisateur pour définir une valeur de délai d'attente plus élevée.
L'exemple suivant montre comment fixer le délai d'attente à 700 secondes.
phys-schost# vi /etc/system … set cl_haci:qd_acquisition_timer=700
3. A partir d'un noeud, arrêtez le cluster.
phys-schost-1# cluster shutdown -g0 -y
4. Réinitialisez chaque noeud dans le cluster.
Les modifications apportées au fichier /etc/system sont initialisées après le redémarrage.
Suivez cette procédure pour vérifier que la configuration de quorum a été effectuée correctement et, si le quorum a été configuré, que le cluster n'est plus en mode d'installation.
Vous n'avez pas besoin de vous connecter en tant que superutilisateur pour exécuter ces commandes.
phys-schost% clquorum list
La sortie répertorie les périphériques de quorum et les noeuds.
phys-schost% cluster show -t global | grep installmode installmode: disabled
L'installation et la création du cluster sont terminées.
Étapes suivantes
A partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Respectez l'ordre d'affichage des tâches de cette liste si vous devez en effectuer plusieurs.
Si vous souhaitez modifier un nom d'hôte privé, passez à la section Modification des noms d'hôtes privés.
Si vous n'avez pas déjà installé votre propre fichier /etc/inet/ntp.conf avant l'installation du logiciel Oracle Solaris Cluster, installez ou créez le fichier de configuration NTP. Accédez à la section Configuration du protocole d'heure réseau (NTP).
Si vous souhaitez configurer IPsec sur l'interconnexion privée, accédez à la section Configuration de l'architecture IP Security (IPsec) sur l'interconnexion privée de cluster.
Pour configurer le logiciel Solaris Volume Manager, reportez-vous au Chapitre 4, Configuration du logiciel Solaris Volume Manager.
Si vous souhaitez créer des systèmes de fichiers de cluster, passez à la section Création de systèmes de fichiers de cluster.
Pour créer des zones non globales sur un noeud, passez à la section Création d'une zone non globale sur un noeud de cluster global.
Installez les applications tierces, enregistrez les types de ressources et configurez les groupes de ressources et les services de données. Pour plus d'informations, reportez-vous à la documentation fournie avec le logiciel de l'application et au Oracle Solaris Cluster Data Services Planning and Administration Guide.
Avant de commencer à utiliser le cluster, effectuez un enregistrement de base de la configuration en cluster à des fins de diagnostic ultérieur. Passez à la section Enregistrement des données de diagnostic de la configuration en cluster.
Voir aussi
Effectuez une sauvegarde de votre configuration en cluster.
Une sauvegarde archivée de votre configuration en cluster facilite la récupération de celle-ci. Pour plus d'informations, reportez-vous à la section Sauvegarde de la configuration du cluster du manuel Guide d’administration système d’Oracle Solaris Cluster.
Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôtes privés par défaut (clusternodenodeid -priv) assignés au cours de l'installation du logiciel Oracle Solaris Cluster.
Remarque - N'effectuez pas cette procédure après que les applications et les services de données ont été configurés et démarrés. Sinon, une application ou un service de données risque de continuer à utiliser l'ancien nom d'hôte privé après que le nom d'hôte a été renommé, ce qui peut générer des conflits de nom d'hôte. Si une application ou un service de données sont en cours d'exécution, arrêtez-les avant d'effectuer cette procédure.
Suivez cette procédure sur un noeud actif du cluster.
phys-schost# clsetup
Le menu principal de clsetup s'affiche.
Le menu du nom d'hôte privé s'affiche.
Répétez cette opération pour chaque nom d'hôte privé à modifier.
phys-schost# clnode show -t node | grep privatehostname privatehostname: clusternode1-priv privatehostname: clusternode2-priv privatehostname: clusternode3-priv
Étapes suivantes
A partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Respectez l'ordre d'affichage des tâches de cette liste si vous devez en effectuer plusieurs.
Si vous n'avez pas déjà installé votre propre fichier /etc/inet/ntp.conf avant l'installation du logiciel Oracle Solaris Cluster, installez ou créez le fichier de configuration NTP. Accédez à la section Configuration du protocole d'heure réseau (NTP).
Si vous souhaitez configurer IPsec sur l'interconnexion privée, accédez à la section Configuration de l'architecture IP Security (IPsec) sur l'interconnexion privée de cluster.
Pour configurer le logiciel Solaris Volume Manager, reportez-vous au Chapitre 4, Configuration du logiciel Solaris Volume Manager.
Si vous souhaitez créer des systèmes de fichiers de cluster, passez à la section Création de systèmes de fichiers de cluster.
Pour créer des zones non globales sur un noeud, passez à la section Création d'une zone non globale sur un noeud de cluster global.
Installez les applications tierces, enregistrez les types de ressources et configurez les groupes de ressources et les services de données. Pour plus d'informations, reportez-vous à la documentation fournie avec le logiciel de l'application et au Oracle Solaris Cluster Data Services Planning and Administration Guide.
Avant de commencer à utiliser le cluster, effectuez un enregistrement de base de la configuration en cluster à des fins de diagnostic ultérieur. Passez à la section Enregistrement des données de diagnostic de la configuration en cluster.
Vous pouvez activer la répartition automatique de la charge de groupe de ressources entre des noeuds ou des zones en définissant des limites de charge. Les facteurs de charge assignés à des groupes de ressources correspondent aux limites de charge définies des noeuds.
Le comportement par défaut est la répartition uniforme de la charge de groupe de ressources entre tous les noeuds disponibles. Chaque groupe de ressources est lancé sur un noeud à partir de sa liste de noeuds. Le Resource Group Manager (RGM) choisit un noeud qui satisfait au mieux la stratégie de répartition de charge configurée. Etant donné que les groupes de ressources sont assignés aux noeuds par le gestionnaire de groupes de ressources, les facteurs de charge des groupes de ressources sur chaque noeud sont additionnés afin de calculer la charge totale. La charge totale est ensuite comparée aux limites de la charge de ce noeud.
Vous pouvez configurer des limites de charge dans un cluster global ou un cluster de zones.
Les facteurs que vous définissez pour contrôler la répartition de la charge sur chaque noeud inclut des limites de charge, une priorité de groupe de ressources et un mode préemption. Dans le cluster global, vous pouvez définir la propriété Concentrate_load pour choisir la stratégie de répartition de charge préférée : concentrer la charge de groupe de ressources sur un nombre de noeuds le plus restreint possible sans dépasser les limites de charge ou répartir la charge le plus uniformément possible sur tous les noeuds disponibles. Le comportement par défaut est de répartir la charge de groupe de ressources. Chaque groupe de ressources est toujours limité à l'exécution des seuls noeuds de sa liste des noeuds, sans tenir compte du facteur de charge et des paramètres de limite de charge.
Remarque - Vous pouvez configurer la répartition de la charge pour les groupes de ressources dans la ligne de commande, l'interface du gestionnaire Oracle Solaris Cluster ou l'utilitaire clsetup. La procédure suivante indique comment configurer la répartition de la charge pour les groupes de ressources dans l'utilitaire clsetup. Pour obtenir des instructions sur l'utilisation de la ligne de commande afin d'exécuter ces procédures, reportez-vous à la section Configuration de limites de charge du manuel Guide d’administration système d’Oracle Solaris Cluster.
Cette section contient les procédures suivantes :
Définition des facteurs de charge pour un groupe de ressources
Concentration de la charge sur un nombre restreint de noeuds du cluster
Chaque noeud ou zone de cluster peut disposer de son propre ensemble de limites de charge. Les facteurs de charge assignés à des groupes de ressources correspondent aux limites de charge définies des noeuds. Vous pouvez définir des limites de charge souples (qui peuvent être dépassées) ou limites de charge strictes (qui ne peuvent pas être dépassées).
phys-schost# clsetup
Le menu clsetup s'affiche.
Le menu répertoriant les autres tâches de cluster s'affiche.
Le menu répertoriant les options de gestion de la répartition de la charge du groupe de ressources s'affiche.
Le menu de gestion des limites de charge s'affiche.
Vous pouvez créer, modifier ou supprimer une limite de charge.
Si vous souhaitez définir une limite de charge sur un deuxième noeud, sélectionnez le numéro de l'option correspondant au deuxième noeud et appuyez sur la touche Entrée. Une fois que vous avez sélectionné tous les noeuds sur lesquels vous souhaitez configurer des limites de charge, saisissez q et appuyez sur la touche Entrée.
Par exemple, saisissez mem_load comme nom d'une limite de charge.
Si vous avez saisi yes, saisissez la valeur de limite souple et appuyez sur Entrée.
Si vous avez saisi yes, saisissez la valeur de limite stricte et appuyez sur Entrée.
Le message Command completed successfully s'affiche, accompagné des limites de charge souple et stricte pour les noeuds sélectionnés. Appuyez sur la touche Entrée pour continuer.
Revenez au menu précédent en saisissant q et en appuyant sur la touche Entrée.
Vous pouvez assigner une priorité plus élevée à un groupe de ressources. De cette façon, les risques qu'il soit retiré d'un noeud sont réduits. Si les limites de charge sont dépassées, la mise hors ligne des groupes de ressources dont la priorité est faible peut être forcée.
phys-schost# clsetup
Le menu clsetup s'affiche.
Le menu répertoriant les autres tâches de cluster s'affiche.
Le menu répertoriant les options de gestion de la répartition de la charge du groupe de ressources s'affiche.
Le menu de définition de la priorité d'un groupe de ressources s'affiche.
La valeur de la priorité existante s'affiche. La valeur de priorité par défaut est 500.
Le menu répertoriant les options de gestion de la répartition de la charge du groupe de ressources s'affiche.
Un facteur de charge est une valeur que vous affectez à la charge sur une limite de charge. Les facteurs de charge sont affectés à un groupe de ressources et ils correspondent aux limites de charge définies des noeuds.
phys-schost# clsetup
Le menu clsetup s'affiche.
Le menu répertoriant les autres tâches de cluster s'affiche.
Le menu répertoriant les options de gestion de la répartition de la charge du groupe de ressources s'affiche.
Le menu de définition des facteurs de charge d'un groupe de ressources s'affiche.
Par exemple, vous pouvez définir un facteur de charge nommé mem_load sur le groupe de ressources sélectionné en saisissant mem_load@50. Appuyez sur Ctrl-D lorsque vous avez terminé.
Le menu répertoriant les options de gestion de la répartition de la charge du groupe de ressources s'affiche.
La propriété preemption_mode détermine si un groupe de ressources peut être devancé par un groupe de ressources à priorité supérieure en cas de surcharge sur un noeud. Cette propriété indique le coût du déplacement d'un groupe de ressources d'un noeud à un autre.
phys-schost# clsetup
Le menu clsetup s'affiche.
Le menu répertoriant les autres tâches de cluster s'affiche.
Le menu répertoriant les options de gestion de la répartition de la charge du groupe de ressources s'affiche.
Le menu de définition du mode préemption d'un groupe de ressources s'affiche.
Si le mode préemption du groupe de ressources est défini, il s'affiche ainsi :
The preemption mode property of "rg11" is currently set to the following: preemption mode: Has_Cost
Les trois choix sont Has_cost , No_cost ou Never.
Le menu répertoriant les options de gestion de la répartition de la charge du groupe de ressources s'affiche.
Si vous définissez la propriété Concentrate_load sur False, le cluster répartit les charges de groupe de ressources uniformément sur tous les noeuds disponibles. Si vous la définissez sur True, le cluster tente de concentrer la charge de groupe de ressources sur le moins de noeuds possible sans dépasser les limites de charge. Par défaut, la propriété Concentrate_load est définie sur False. Vous pouvez définir la propriété Concentrate_load uniquement dans un cluster global (et non dans un cluster de zones). Dans un cluster de zones, le paramètre par défaut est toujours False.
phys-schost# clsetup
Le menu clsetup s'affiche.
Le menu répertoriant les autres tâches de cluster s'affiche.
Le menu de définition de la propriété de concentration de charge du cluster s'affiche.
La valeur actuelle TRUE ou FALSE s'affiche.
Le menu répertoriant les autres tâches de cluster s'affiche.
Remarque - Si vous avez installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Oracle Solaris Cluster, inutile de suivre cette procédure. Déterminez l'étape suivante :
Effectuez cette tâche pour créer ou modifier le fichier de configuration NTP après l'exécution de l'une des tâches suivantes :
Installation du logiciel Oracle Solaris Cluster
Ajout d'un noeud à un cluster global existant
Modification du nom d'hôte privé d'un noeud dans le cluster global
Lorsque vous avez ajouté un noeud à un cluster à noeud unique, il faut vérifier que le fichier de configuration NTP que vous utilisez est copié vers le noeud de cluster d'origine et vers le nouveau noeud.
Remarque - Ne renommez pas le fichier ntp.conf.cluster avec le nom ntp.conf.
Si le fichier /etc/inet/ntp.conf.cluster n'existe pas sur le noeud, vous pouvez avoir un fichier /etc/inet/ntp.conf issu d'une installation précédente du logiciel Oracle Solaris Cluster. Le logiciel Oracle Solaris Cluster crée le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP en l'absence de fichier /etc/inet/ntp.conf sur le noeud. Dans ce cas, apportez plutôt les modifications suivantes à ce fichier ntp.conf.
Si vous avez changé le nom d'hôte privé d'un noeud, vérifiez que le fichier de configuration NTP contient le nouveau nom d'hôte privé.
Le contenu du fichier de configuration NTP doit être identique sur tous les noeuds du cluster.
Attendez que la commande se termine avec succès sur chaque noeud avant de passer à l'Étape 5.
phys-schost# svcadm disable ntp
phys-schost# /etc/init.d/xntpd.cluster start
Le script de démarrage xntpd.cluster recherche d'abord le fichier/etc/inet/ntp.conf.
Si le fichier ntp.conf existe, le script se ferme immédiatement sans démarrer le démon NTP.
Si le fichier ntp.conf n'existe pas mais que le fichier ntp.conf.cluster existe, le script démarre le démon NTP. Dans ce cas, il utilise le fichier ntp.conf.cluster comme fichier de configuration NTP.
phys-schost# svcadm enable ntp
Étapes suivantes
A partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Respectez l'ordre d'affichage des tâches de cette liste si vous devez en effectuer plusieurs.
Si vous souhaitez configurer IPsec sur l'interconnexion privée, accédez à la section Configuration de l'architecture IP Security (IPsec) sur l'interconnexion privée de cluster.
Pour configurer le logiciel Solaris Volume Manager, reportez-vous au Chapitre 4, Configuration du logiciel Solaris Volume Manager.
Si vous souhaitez créer des systèmes de fichiers de cluster, passez à la section Création de systèmes de fichiers de cluster.
Pour créer des zones non globales sur un noeud, passez à la section Création d'une zone non globale sur un noeud de cluster global.
Installez les applications tierces, enregistrez les types de ressources et configurez les groupes de ressources et les services de données. Pour plus d'informations, reportez-vous à la documentation fournie avec le logiciel de l'application et au Oracle Solaris Cluster Data Services Planning and Administration Guide.
Avant de commencer à utiliser le cluster, effectuez un enregistrement de base de la configuration en cluster à des fins de diagnostic ultérieur. Passez à la section Enregistrement des données de diagnostic de la configuration en cluster.
Vous pouvez configurer l'architecture IP Security (IPsec) pour l'interface clprivnet dans le but de sécuriser la communication TCP/IP sur l'interconnexion de cluster.
Pour plus d'informations sur IPsec, reportez-vous à la Partie IV, IPsec du manuel Administration d’Oracle Solaris : Services IP et à la page de manuel ipsecconf(1M). Pour plus d'informations sur l'interface clprivnet, reportez-vous à la page de manuel clprivnet(7).
Suivez cette procédure sur chaque noeud votant du cluster global que vous voulez configurer pour qu'il utilise IPsec.
phys-schost# ifconfig clprivnet0
Suivez les instructions de la section Sécurisation du trafic entre deux systèmes à l’aide d’IPsec du manuel Administration d’Oracle Solaris : Services IP. En outre, respectez les directives suivantes :
Assurez-vous que les valeurs des paramètres de configuration pour ces adresses sont cohérentes sur tous les noeuds partenaires.
Configurez chaque stratégie sur une ligne séparée dans le fichier de configuration.
Pour mettre en oeuvre IPsec sans réinitialisation, suivez les instructions de la procédure Sécurisation du trafic avec IPsec sans réinitialisation.
Pour plus d'informations sur la stratégie sa unique, reportez-vous à la page de manuel ipsecconf(1M).
Incluez l'adresse IP clprivnet du noeud local.
Cette fonctionnalité permet au pilote d'optimiser l'utilisation de la bande passante du réseau privé de cluster, qui offre un haut degré de granularité de distribution et une amélioration du débit. L'interface clprivnet utilise l'index de paramètres de sécurité (SPI) du paquet pour entrelacer le trafic.
Ajoutez cette entrée dans les règles de stratégie configurées pour les transports intracluster. Ce paramètre permet aux associations de sécurité de se régénérer lorsqu'un noeud de cluster se réinitialise, et limite la vitesse de rattachement d'un noeud réinitialisé au cluster. Une valeur égale à 30 secondes semble appropriée.
phys-schost# vi /etc/inet/ike/config … { label "clust-priv-interconnect1-clust-priv-interconnect2" … p2_idletime_secs 30 } …
Étapes suivantes
A partir de la liste suivante, choisissez la tâche à effectuer s'appliquant à la configuration de votre cluster. Respectez l'ordre d'affichage des tâches de cette liste si vous devez en effectuer plusieurs.
Pour configurer le logiciel Solaris Volume Manager, reportez-vous au Chapitre 4, Configuration du logiciel Solaris Volume Manager.
Si vous souhaitez créer des systèmes de fichiers de cluster, passez à la section Création de systèmes de fichiers de cluster.
Pour créer des zones non globales sur un noeud, passez à la section Création d'une zone non globale sur un noeud de cluster global.
Installez les applications tierces, enregistrez les types de ressources et configurez les groupes de ressources et les services de données. Pour plus d'informations, reportez-vous à la documentation fournie avec le logiciel de l'application et au Oracle Solaris Cluster Data Services Planning and Administration Guide.
Dans le cas contraire, si vous avez exécuté toutes les tâches d'installation et de configuration du matériel et du logiciel, validez le cluster. Passez à la section Validation du cluster.
Après avoir effectué toutes les opérations de configuration du cluster, exécutez la commande cluster check pour valider la configuration et les fonctionnalités du cluster. Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).
Astuce - Pour toute référence future ou à des fins de dépannage, pour chaque validation que vous exécutez, utilisez l'option -o outputdir afin de spécifier un sous-répertoire pour les fichiers journaux. La réutilisation d'un nom de sous-répertoire existant supprimera tous les fichiers existant dans le sous-répertoire. Par conséquent, pour vous assurer que les fichiers journaux sont disponibles à des fins de référence ultérieure, spécifiez un nom de sous-répertoire unique pour chaque vérification de cluster que vous exécutez.
Avant de commencer
Assurez-vous que vous avez terminé l'installation et la configuration de tous les composants matériels et logiciels du cluster, y compris le microprogramme et les patchs.
Accédez à l'onglet Patches & Updates de la page My Oracle Support. A l'aide de la recherche avancée, sélectionnez “Solaris Cluster” en tant que produit et spécifiez “check” dans le champ de description pour localiser les patchs Oracle Solaris Cluster qui contiennent des vérifications. Appliquez tous les patchs qui ne sont pas déjà installés sur votre cluster.
# cluster check -v -o outputdir
Mode détaillé
Redirige la sortie vers le sous-répertoire outputdir.
La commande exécute tous les vérifications basiques disponibles. Aucune fonctionnalité du cluster n'est affectée.
# cluster check -v -k interactive -o outputdir
Indique l'exécution de vérifications de validation interactives.
La commande exécute toutes les vérifications interactives disponibles et vous invite à entrer les informations nécessaires concernant le cluster. Aucune fonctionnalité du cluster n'est affectée.
# cluster list-checks -k functional
Par exemple, une vérification fonctionnelle peut déclencher une grave erreur de noeud ou un basculement vers un autre noeud.
# cluster list-checks -v -C checkID
Spécifie une vérification spécifique.
# cluster check -v -k functional -C checkid -o outputdir
Indique l'exécution de vérifications de validation fonctionnelle.
Répondez aux invites générées par la vérification pour confirmer que la vérification doit s'exécuter, spécifiez les informations demandées et exécutez les opérations requises.
Remarque - A des fins de suivi, spécifiez un nom de sous-répertoire outputdir unique pour chaque vérification exécutée. Si vous réutilisez un nom outputdir, la sortie de la nouvelle vérification écrase le contenu existant du sous-répertoire outputdir réutilisé.
Exemple 3-5 Création de listes de vérifications de validation interactives
L'exemple suivant permet de répertorier toutes les vérifications interactives qui peuvent être exécutées sur le cluster. L'exemple suivant montre un échantillon des vérifications possibles. Les vérifications disponibles varient selon la configuration.
# cluster list-checks -k interactive Some checks might take a few moments to run (use -v to see progress)... I6994574 : (Moderate) Fix for GLDv3 interfaces on cluster transport vulnerability applied?
Exemple 3-6 Exécution d'une vérification de validation fonctionnelle
L'exemple suivant permet d'abord d'afficher la liste détaillée des vérifications fonctionnelles. Une description détaillée de la vérification F6968101 est ensuite fournie, laquelle indique que la vérification aurait une incidence sur le fonctionnement des services du cluster. Le cluster est exclu de la production. La vérification fonctionnelle est ensuite exécutée et la sortie détaillée est consignée dans le sous-répertoire funct.test.F6968101.12Jan2011. L'exemple suivant montre un échantillon des vérifications possibles. Les vérifications disponibles varient selon la configuration.
# cluster list-checks -k functional F6968101 : (Critical) Perform resource group switchover F6984120 : (Critical) Induce cluster transport network failure - single adapter. F6984121 : (Critical) Perform cluster shutdown F6984140 : (Critical) Induce node panic … # cluster list-checks -v -C F6968101 F6968101: (Critical) Perform resource group switchover Keywords: SolarisCluster3.x, functional Applicability: Applicable if multi-node cluster running live. Check Logic: Select a resource group and destination node. Perform '/usr/cluster/bin/clresourcegroup switch' on specified resource group either to specified node or to all nodes in succession. Version: 1.2 Revision Date: 12/10/10 Take the cluster out of production # cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011 F6968101 initializing... initializing xml output... loading auxiliary data... starting check run... pschost1, pschost2, pschost3, pschost4: F6968101.... starting: Perform resource group switchover ============================================================ >>> Functional Check <<< 'Functional' checks exercise cluster behavior. It is recommended that you do not run this check on a cluster in production mode.' It is recommended that you have access to the system console for each cluster node and observe any output on the consoles while the check is executed. If the node running this check is brought down during execution the check must be rerun from this same node after it is rebooted into the cluster in order for the check to be completed. Select 'continue' for more details on this check. 1) continue 2) exit choice: 1 ============================================================ >>> Check Description <<< … Follow onscreen directions
Étapes suivantes
Avant de commencer à utiliser le cluster, effectuez un enregistrement de base de la configuration en cluster à des fins de diagnostic ultérieur. Passez à la section Enregistrement des données de diagnostic de la configuration en cluster.
Après avoir fini de configurer le cluster global mais avant de commencer à l'utiliser, utilisez l'utilitaire Oracle Explorer pour enregistrer des informations de base sur le cluster. Ces données peuvent être utilisées en cas de dépannage ultérieur du cluster.
Le composant Services Tools Bundle contient les packages Oracle Explorer SUNWexplo et SUNWexplu. Reportez-vous à la page http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html pour obtenir des informations sur le téléchargement du logiciel et sur son installation.
Utilisez la commande appropriée pour votre plate-forme. Par exemple, pour collecter des informations sur un serveur Sun Fire T1000 d'Oracle, exécutez la commande suivante :
# explorer -i -w default,Tx000
Pour plus d'informations, reportez-vous à la page de manuel explorer(1M) dans le répertoire /opt/SUNWexplo/man/man1m/ et au Oracle Explorer Data Collector User’s Guide disponible via la remarque 1153444.1 sur My Oracle Support :
Le fichier de sortie explorer est enregistré dans le répertoire /opt/SUNWexplo/output/ sous le nom explorer. hostid.hostname-date.tar.gz.
Suivez les procédures du manuel Oracle Explorer Data Collector User's Guide pour soumettre les fichiers Oracle Explorer via FTP ou HTTPS.
Si les données sont nécessaires au diagnostic d'un problème technique du cluster, cette base de données met à la disposition de l'équipe du support technique d'Oracle la sortie de la commande explorer.