Ce chapitre décrit des procédures d'établissement d'un cluster ou d'un nœud. Les procédures décrites dans ce chapitre sont les suivantes :
Procédure de configuration du logiciel Sun Cluster sur tous les noeuds (scinstall)
Procédure de configuration du logiciel Sun Cluster sur tous les noeuds (XML)
Installation de Solaris et du logiciel Sun Cluster (JumpStart)
Procédure de préparation du cluster pour d'autres nœuds de cluster
Procédure de configuration du logiciel Sun Cluster sur d'autres noeuds du cluster (scinstall)
Procédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (XML)
Procédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster
Vérification de la configuration de quorum et du mode d'installation
Cette rubrique explique comment établir un cluster ou ajouter un nœud à un cluster existant. Avant d'effectuer ces tâches, vérifiez que l'installation des packages de logiciels pour le système d'exploitation Solaris, de la structure Sun Cluster et d'autres produits est conforme aux instructions de la rubrique Installation du logiciel.
Le plan ci-dessous répertorie les tâches à effectuer. Effectuez les procédures dans l'ordre indiqué.
Tableau 3–1 Liste des tâches : Établissement du cluster
Méthode |
Instructions |
---|---|
1. Utilisez l'une des méthodes suivantes pour établir un cluster ou ajouter un nœud à un cluster existant : |
|
|
Procédure de configuration du logiciel Sun Cluster sur tous les noeuds (scinstall) |
|
Procédure de configuration du logiciel Sun Cluster sur tous les noeuds (XML) |
|
Installation de Solaris et du logiciel Sun Cluster (JumpStart) |
|
Procédure de préparation du cluster pour d'autres nœuds de cluster Procédure de configuration du logiciel Sun Cluster sur d'autres noeuds du cluster (scinstall) Procédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (XML) |
2. Si vous avez ajouté un nœud à un cluster, mettez à jour les informations de configuration de quorum. |
Procédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster |
3. Affectez les votes de quorum et supprimez le cluster du mode d'installation (si nécessaire). | |
4. Validez la configuration de quorum. |
Vérification de la configuration de quorum et du mode d'installation |
5. (Facultatif) Modifiez le nom d'hôte privé d'un nœud. | |
6. Créez ou modifiez le fichier de configuration NTP s'il n'est pas déjà configuré. |
Effectuez cette procédure à partir d'un nœud du cluster pour configurer le logiciel Sun Cluster sur tous les nœuds du cluster.
Cette procédure utilise la forme interactive de la commande scinstall. Pour utiliser les formes non interactives de la commande scinstall, par exemple pour le développement de scripts d'installation, reportez-vous à la page du manuel scinstall(1M).
Vérifiez que les packages Sun Cluster sont installés sur le nœud, soit manuellement soit en utilisant la forme du mode silencieux du programme installer de Java ES avant d'exécuter la commande scinstall. Pour de plus amples informations sur l'exécution du programme installer de Java ES à partir d'un script d'installation, reportez-vous au Chapitre 5, Installing in Silent Mode du Sun Java Enterprise System 5 Installation Guide for UNIX.
Effectuez les tâches suivantes :
Vérifiez que la version de Solaris installée prend en charge le logiciel Sun Cluster.
Si le logiciel Solaris est déjà installé sur le noeud, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.
Vérifiez que les packages Sun Cluster et les patchs sont installés sur le nœud. Reportez-vous à la rubrique Installation de la structure de Sun Cluster et des packages du logiciel du service de données .
Déterminez le mode d'exécution de l'utilitaire scinstall (typique ou personnalisé). Pour l'installation typique de Sun Cluster, scinstall spécifie automatiquement la configuration par défaut suivante :
Composant |
Valeur par défaut |
---|---|
Adresse de réseau privé |
172.16.0.0 |
Masque de réseau privé |
255.255.248.0 |
Adaptateurs de transport intracluster |
Exactement deux adaptateurs |
Commutateurs de transport de cluster |
commutateur1 et commutateur2 |
Nom du système de fichiers des périphériques globaux |
/globaldevices |
Sécurité de l'installation (DES) |
Limitée |
Renseignez la fiche de configuration de cluster correspondant au mode d'exécution de l'utilitaire scinstall (typique ou personnalisé).
Feuille de travail Mode Standard : si vous utilisez ce mode et acceptez tous les paramètres par défaut, remplissez la feuille de travail suivante.
Feuille de travail Mode Personnalisé : si vous prévoyez d'utiliser ce mode pour personnaliser les données de configuration, remplissez la feuille de travail suivante.
Si vous installez un cluster à un nœud, l'utilitaire scinstall attribue automatiquement l'adresse réseau privé et le masque de sous-réseau par défaut, même si le cluster n'utilise pas de réseau privé.
Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :
L'utilitaire scinstall mémorise toutes les frappes au clavier. Par conséquent, n'appuyez qu'une seule fois sur la touche Entrée, même si l'écran de menu suivant n'apparaît pas immédiatement.
Sauf indication contraire, vous pouvez appuyer sur Ctrl-D pour revenir au début d'une série de questions connexes ou au menu principal.
Les réponses par défaut ou les réponses issues de sessions antérieures sont affichées entre crochets ([ ]) à la fin des questions. Appuyez sur Retour pour entrer la réponse figurant entre crochets sans avoir à la saisir.
Si vous avez désactivé la configuration à distance pendant l'installation de Sun Cluster, réactivez-la.
Activez l' Shell distant (rsh(1M)) ou shell sécurisé (ssh(1)) Accès pour le superutilisateur à tous les nœuds de cluster.
Prenez le rôle de superutilisateur sur le nœud de cluster à partir duquel vous souhaitez configurer le cluster.
Lancez l'utilitaire scinstall.
phys-schost# /usr/cluster/bin/scinstall |
Saisissez le numéro correspondant à l'option de création d'un cluster ou d'ajout d'un nœud de cluster, puis appuyez sur la touche Retour.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1 |
Le menu Nouveau cluster et Nœud de cluster apparaît.
Saisissez le numéro correspondant à l'option de création d'un cluster, puis appuyez sur la touche Retour.
Le menu Standard ou Personnalisé apparaît.
Saisissez le numéro correspondant à l'option Standard ou Personnalisé, puis appuyez sur la touche Retour.
L'écran Créer un cluster apparaît. Lisez les exigences, puis appuyez sur Ctrl+D pour continuer.
Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.
L'utilitaire scinstall installe et configure tous les nœuds du cluster, puis redémarre le cluster. Le cluster est établi une fois que tous ses noeuds ont été correctement réinitialisés. Les informations relatives à l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log.N.
Pour Solaris 10, vérifiez sur chaque nœud que les services multiutilisateur de SMF (Service Management Facility) sont en ligne.
Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Prenez le rôle de superutilisateur sur un nœud.
Vérifiez que tous les noeuds ont rejoint la grappe.
phys-schost# clnode status |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
(Facultatif) Activez la réinitialisation de nœud automatique en cas d'échec de tous les chemins de disques contrôlés.
Activez la fonctionnalité de réinitialisation automatique.
phys-schost# clnode set -p reboot_on_path_failure=enabled |
Indique la propriété à définir.
Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.
Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
Si vous envisagez d'utiliser Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, assurez-vous que le système de fichiers loopback (LOFS) est désactivé.
Pour désactiver le LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.
exclude:lofs |
La modification apportée au fichier /etc/system est effective après une réinitialisation du système.
Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS. Si vous choisissez d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, vous devez apporter l'une des modifications de configuration suivantes.
Toutefois, si vous configurez des zones non globales dans votre cluster, vous devez activer le LOFS sur tous les nœuds du cluster. Si Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité doit coexister avec le LOFS, utilisez une autre solution que la désactivation du LOFS.
Désactivez le LOFS.
Désactivez le démon automountd.
Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.
Reportez-vous à la rubrique The Loopback File System du System Administration Guide: Devices and File System (Solaris 9 ou Solaris 10) pour plus d'informations sur les systèmes de fichiers.
L'exemple suivant montre les messages d'état de scinstall enregistrés alors que scinstall termine les tâches de configuration sur le cluster à deux nœuds, schost. Pour installer le cluster depuis phys-schost-1, l'utilitaire scinstall est exécuté en mode standard. L'autre nœud de cluster est phys-schost-2. Les adaptateurs s'appellent qfe2 et qfe3. Par ailleurs, la sélection automatique d'un périphérique de quorum est activée.
Installation and Configuration Log file - /var/cluster/logs/install/scinstall.log.24747 Testing for "/globaldevices" on "phys-schost-1" … done Testing for "/globaldevices" on "phys-schost-2" … done Checking installation status … done The Sun Cluster software is already installed on "phys-schost-1". The Sun Cluster software is already installed on "phys-schost-2". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:qfe2 switch1 phys-schost-2:qfe2 phys-schost-1:qfe3 switch2 phys-schost-2:qfe3 Completed discovery of the cluster transport configuration. Started sccheck on "phys-schost-1". Started sccheck on "phys-schost-2". sccheck completed with no errors or warnings for "phys-schost-1". sccheck completed with no errors or warnings for "phys-schost-2". Removing the downloaded files … done Configuring "phys-schost-2" … done Rebooting "phys-schost-2" … done Configuring "phys-schost-1" … done Rebooting "phys-schost-1" … Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting … |
Configuration non réussie : si un ou plusieurs nœuds ne parviennent pas à fusionner avec le cluster ou si des informations de configuration incorrectes ont été indiquées, essayez tout d'abord d'exécuter de nouveau cette procédure. Si cela ne permet pas de corriger le problème, effectuez la procédure de la section Annulation de la configuration du logiciel Sun Cluster pour corriger les problèmes d'installation sur chaque nœud incorrectement configuré pour le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages Sun Cluster. Ensuite, exécutez de nouveau cette procédure.
Si vous avez installé un cluster mononœud, l'installation du cluster est terminée. Rendez-vous à la section Création de systèmes de fichiers de cluster pour installer le gestionnaire de volumes et configurer le cluster.
Si vous avez installé un cluster à nœuds multiples et choisi une configuration de quorum automatique, la configuration après installation est terminée. Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.
Si vous avez installé un cluster à nœuds multiples et refusé une configuration de quorum automatique, procédez à la configuration après installation. Reportez-vous à la rubrique Configuration des périphériques de quorum.
Suivez cette procédure pour configurer un nouveau cluster à l'aide d'un fichier XML de configuration du cluster. Le nouveau cluster peut être une duplication d'un cluster existant exécutant le logiciel Sun Cluster 3.2.
Cette procédure configure les composants de cluster suivants :
Nom du cluster
Appartenance au nœud de cluster
interconnexion de clusters ;
Périphériques globaux
Effectuez les tâches suivantes :
Vérifiez que la version de Solaris installée prend en charge le logiciel Sun Cluster.
Si le logiciel Solaris est déjà installé sur le noeud, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.
Vérifiez que la version de Solaris installée prend en charge le logiciel Sun Cluster.
Si le logiciel Solaris est déjà installé sur le noeud, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.
Veillez à ce que le logiciel Sun Cluster 3.2 et les patchs soient installés sur chaque nœud que vous allez configurer. Reportez-vous à la rubrique Installation de la structure de Sun Cluster et des packages du logiciel du service de données .
Veillez à ce que le logiciel Sun Cluster 3.2 ne soit pas déjà configuré sur chaque éventuel nœud de cluster.
Prenez le rôle de superutilisateur sur un éventuel nœud à configurer dans le nouveau cluster.
Déterminez si le logiciel Sun Cluster 3.2 est déjà configuré sur l'éventuel nœud.
phys-schost# /usr/sbin/clinfo -n |
Si la commande renvoie le message suivant, passez à l'étape c.
clinfo: node is not configured as part of acluster: Operation not applicable |
Ce message indique que le logiciel Sun Cluster n'est pas encore configuré sur l'éventuel nœud.
Si la commande renvoie le numéro ID du nœud, ne suivez pas cette procédure.
Le renvoi d'un ID de nœud indique que le logiciel Sun Cluster est déjà configuré sur le nœud.
Si le cluster exécute une version antérieure du logiciel Sun Cluster et que vous souhaitez installer le logiciel Sun Cluster 3.2, suivez alors les procédures de mise à niveau au Chapitre 8, Mise à niveau du logiciel Sun Cluster.
Répétez les étapes a et b sur chaque éventuel autre nœud à configurer dans le nouveau cluster.
Si un logiciel Sun Cluster 3.2 n'est pas déjà configuré sur l'un des éventuels nœuds de cluster, passez à l'étape 2.
Si vous dupliquez un cluster existant qui exécute le logiciel Sun Cluster 3.2, utilisez un nœud de ce cluster pour créer un fichier XML de configuration du cluster.
Prenez le rôle de superutilisateur sur un membre actif du cluster à dupliquer.
Exportez les informations de configuration du cluster existant dans un fichier.
phys-schost# cluster export -o clconfigfile |
Indique la destination de sortie.
Le nom du fichier XML de configuration du cluster. Le nom de fichier spécifié peut être un fichier existant ou un nouveau créé par la commande.
Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).
Copiez le fichier de configuration dans l'éventuel nœud à partir duquel vous configurerez le nouveau cluster.
Vous pouvez stocker le fichier dans un quelconque répertoire accessible aux autres hôtes que vous configurerez comme des nœuds de cluster.
Prenez le rôle de superutilisateur sur l'éventuel nœud à partir duquel vous configurerez le nouveau cluster.
Si nécessaire, modifiez le fichier XML de configuration du cluster.
Ouvrez le fichier XML de configuration du cluster pour l'éditer.
Si vous dupliquez un cluster existant, ouvrez le fichier créé à l'aide de la commande cluster export.
Si vous ne dupliquez pas un cluster existant, créez un nouveau fichier.
Basez le fichier sur la hiérarchie d'éléments illustrée à la page de manuel clconfiguration(5CL). Vous pouvez stocker le fichier dans un quelconque répertoire accessible aux autres hôtes que vous configurerez comme des nœuds de cluster.
Modifiez les valeurs des éléments XML pour reproduire la configuration du cluster à créer.
Pour établir un cluster, les composants suivants doivent comporter des valeurs valides dans le fichier XML de configuration du cluster :
Nom du cluster
Nœuds de cluster
Transport des clusters
Le cluster est créé en supposant que la partition /globaldevices existe sur chaque nœud configuré en tant que nœud de cluster. L'espace de noms de périphériques globaux est créé sur cette partition. Pour utiliser un autre nom de système de fichiers sur lequel créer les périphériques globaux, ajoutez la propriété suivante à l'élément <propertyList> de chaque nœud ne comportant pas de partition nommée /globaldevices.
… <nodeList> <node name="node" id="N"> <propertyList> … <property name="globaldevfs" value="/filesystem-name"/> … </propertyList> </node> … |
Si vous modifiez des informations de configuration exportées d'un cluster existant, certaines valeurs à modifier pour reproduire le nouveau cluster, comme des noms de nœuds, sont utilisées dans les définitions de plusieurs objets de cluster.
Reportez-vous à la page de manuel clconfiguration(5CL) pour plus d'informations sur la structure et le contenu du fichier XML de configuration du cluster.
Validez le fichier XML de configuration du cluster.
phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile |
Reportez-vous à la page de manuel xmllint(1) pour plus d'informations.
Créez le cluster à partir de l'éventuel nœud contenant le fichier XML de configuration du cluster.
phys-schost# cluster create -i clconfigfile |
Indique le nom du fichier XML de configuration du cluster à utiliser comme source d'entrée.
Pour Solaris 10, vérifiez sur chaque nœud que les services multiutilisateur de SMF (Service Management Facility) sont en ligne.
Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Prenez le rôle de superutilisateur sur un nœud.
Vérifiez que tous les noeuds ont rejoint la grappe.
phys-schost# clnode status |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
Si nécessaire, installez les patchs requis pour prendre en charge le logiciel Sun Cluster.
Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la section Patchs et niveaux des micrologiciels requis du Notes de version de Sun Cluster 3.2 pour SE Solaris.
Si vous envisagez d'utiliser Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, assurez-vous que le système de fichiers loopback (LOFS) est désactivé.
Pour désactiver le LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.
exclude:lofs |
La modification apportée au fichier /etc/system est effective après une réinitialisation du système.
Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS. Si vous choisissez d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, vous devez apporter l'une des modifications de configuration suivantes.
Toutefois, si vous configurez des zones non globales dans votre cluster, vous devez activer le LOFS sur tous les nœuds du cluster. Si Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité doit coexister avec le LOFS, utilisez une autre solution que la désactivation du LOFS.
Désactivez le LOFS.
Désactivez le démon automountd.
Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.
Reportez-vous à la rubrique The Loopback File System du System Administration Guide: Devices and File System (Solaris 9 ou Solaris 10) pour plus d'informations sur les systèmes de fichiers.
Pour dupliquer des informations de quorum d'un cluster existant, configurez le périphérique de quorum à l'aide du fichier XML de configuration du cluster.
Vous devez configurer un périphérique de quorum si vous avez créé un cluster à deux nœuds. Si vous avez choisi de ne pas utiliser le fichier XML de configuration du cluster pour créer un périphérique de quorum requis, reportez-vous alors à la rubrique Configuration des périphériques de quorum.
Si vous utilisez un serveur de quorum comme périphérique de quorum, vérifiez que le serveur de quorum est configuré et en cours d'exécution.
Suivez les instructions de la rubrique Sun Cluster Quorum Server User’s Guide.
Si vous utilisez un périphérique réseau NAS comme périphérique de quorum, vérifiez que le périphérique NAS est configuré et en cours d'exécution.
Lisez les exigences d'utilisation d'un périphérique NAS comme périphérique de quorum.
Reportez-vous à la rubrique Requirements, Recommendations, and Restrictions for Network Appliance NAS Devices du Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS.
Suivez les instructions de la documentation de votre périphérique pour configurer le périphérique NAS.
Vérifiez que les informations de configuration du quorum dans le fichier XML de configuration du cluster donnent des valeurs valides pour le cluster créé.
Si vous apportez des modifications au fichier XML de configuration du cluster, validez le fichier.
phys-schost# xmllint --valid --noout clconfigfile |
Configurez le périphérique de quorum.
phys-schost# clquorum add -i clconfigfile devicename |
Indique le nom du périphérique à définir comme étant de quorum.
Retirez le cluster du mode d'installation.
phys-schost# clquorum reset |
(Facultatif) Activez la réinitialisation de nœud automatique en cas d'échec de tous les chemins de disques contrôlés.
Activez la fonctionnalité de réinitialisation automatique.
phys-schost# clnode set -p reboot_on_path_failure=enabled |
Indique la propriété à définir.
Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.
Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
L'exemple suivant duplique la configuration de cluster et la configuration de quorum d'un cluster à deux nœuds existant vers un nouveau cluster à deux nœuds. Le nouveau cluster est installé avec Solaris 10 et n'est pas configuré avec des zones non globales. La configuration du cluster est exportée du nœud de cluster existant, phys-oldhost-1, vers le fichier XML de configuration du cluster clusterconf.xml. Les noms de nœuds du nouveau cluster sont phys-newhost-1 et phys-newhost-2. Le périphérique configuré en tant que périphérique de quorum dans le nouveau cluster est d3.
Le nom d'invite phys-newhost-N dans cet exemple indique que la commande est exécutée sur les deux nœuds de cluster.
phys-newhost-N# /usr/sbin/clinfo -n clinfo: node is not configured as part of acluster: Operation not applicable phys-oldhost-1# cluster export -o clusterconf.xml Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values phys-newhost-1# xmllint --valid --noout clusterconf.xml No errors are reported phys-newhost-1# cluster create -i clusterconf.xml phys-newhost-N# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default phys-newhost-1# clnode status Output shows that both nodes are online phys-newhost-1# clquorum add -i clusterconf.xml d3 phys-newhost-1# clquorum reset |
Configuration non réussie : si un ou plusieurs nœuds ne parviennent pas à fusionner avec le cluster ou si des informations de configuration incorrectes ont été indiquées, essayez tout d'abord d'exécuter de nouveau cette procédure. Si cela ne permet pas de corriger le problème, effectuez la procédure de la section Annulation de la configuration du logiciel Sun Cluster pour corriger les problèmes d'installation sur chaque nœud incorrectement configuré pour le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages Sun Cluster. Ensuite, exécutez de nouveau cette procédure.
Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.
Une fois le cluster totalement établi, vous pouvez dupliquer la configuration des autres composants de cluster à partir du cluster existant. Si vous ne l'avez pas déjà fait, modifiez les valeurs des éléments XML à dupliquer pour reproduire la configuration du cluster auquel vous ajoutez le composant. Par exemple, si vous dupliquez des groupes de ressources, vérifiez que l'entrée <Liste de nœuds de groupe de ressources> contient les noms de nœuds valides pour le nouveau cluster et non les noms de nœuds du cluster que vous avez dupliqué sauf si les noms de nœuds sont identiques.
Pour dupliquer un composant de cluster, exécutez la sous-commande export de la commande orientée objet du composant de cluster à dupliquer. Pour plus d'informations sur la syntaxe de la commande et les options, reportez-vous à la page de manuel de l'objet de cluster à dupliquer. Le tableau ci-dessous répertorie les composants de cluster que vous pouvez créer à partir d'un fichier XML de configuration du cluster une fois le cluster établi ainsi que la page de manuel de la commande à utiliser pour dupliquer le composant.
Ce tableau indique les formes développées des commandes Sun Cluster. La plupart des commandes ont également une forme courte. À l'exception des formes des noms de commandes, les commandes sont identiques. Pour obtenir la liste des commandes et leurs formes courtes, reportez-vous à l'Annexe A, Sun Cluster Object-Oriented Commands du Sun Cluster System Administration Guide for Solaris OS.
Composant de cluster |
Page de manuel |
Instructions spéciales |
---|---|---|
Groupes de périphériques : Solaris Volume Manager et VERITAS Volume Manager |
Pour Solaris Volume Manager, créez tout d'abord les jeux de disques spécifiés dans le fichier XML de configuration du cluster. Pour VxVM, installez et configurez tout d'abord le logiciel VxVM et créez les groupes de disques spécifiés dans le fichier XML de configuration du cluster. |
|
Ressources |
Vous pouvez utiliser l'option -a de la commande clresource, clressharedaddress ou clreslogicalhostname pour dupliquer le type et le groupe de ressources associés à la ressource que vous dupliquez. Sinon, ajoutez tout d'abord le type et le groupe de ressources au cluster avant d'ajouter la ressource. |
|
Ressources d'adresse partagée | ||
Ressources de nom d'hôte logique | ||
Types de ressources | ||
Groupes de ressources | ||
Périphériques NAS |
Vous devez tout d'abord configurer le périphérique NAS tel que décrit dans la documentation du périphérique. |
|
Hôtes SNMP |
La commande clsnmphost create -i nécessite que vous spécifiez un fichier de mot de passe utilisateur avec l'option -f. |
|
Utilisateurs SNMP | ||
Seuils de contrôle des ressources système sur des objets de cluster |
Cette procédure explique comment configurer et utiliser la méthode d'installation JumpStart personnalisée scinstall(1M). Cette méthode installe à la fois le système d'exploitation Solaris et le logiciel Sun Cluster sur tous les nœuds de cluster et établit le cluster. Vous pouvez aussi utiliser cette procédure pour ajouter de nouveaux noeuds à un cluster existant.
Effectuez les tâches suivantes :
Avant d'installer le logiciel Solaris, assurez-vous que l'installation du matériel est terminée et vérifiez les connexions. Reportez-vous au manuel approprié de la Sun Cluster Hardware Administration Collection, ainsi qu'à la documentation de votre serveur et de votre périphérique de stockage pour de plus amples informations sur la procédure de configuration du matériel.
Déterminez l'adresse Ethernet de chaque nœud de cluster.
Si nécessaire, vérifiez que les informations ci-dessous sont ajoutées à tous les services d'attribution de noms utilisés par les clients pour accéder aux services de cluster. Reportez-vous à la rubrique Adresses IP réseau public pour des procédures de planification. Consultez votre administrateur système Solaris pour obtenir des informations sur l'utilisation des services d'attribution de nom Solaris.
correspondances adresse/nom pour tous les noms d'hôtes publics et les adresses logiques ;
adresse IP et nom d'hôte du serveur d'installation JumpStart.
Vérifiez que la planification de configuration de votre cluster est achevée et complète. Reportez-vous à la rubrique Préparation de l'installation du logiciel de cluster pour connaître les exigences et les procédures.
Sur le serveur destiné à la création de l'archive Flash, assurez-vous de l'installation du système d'exploitation Solaris, des patchs et des microprogrammes nécessaires pour la prise en charge du logiciel Sun Cluster.
Si le logiciel Solaris est déjà installé sur le serveur, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.
Vérifiez que les patchs et les packages Sun Cluster sont installés sur le serveur destiné à la création de l'archive Flash. Reportez-vous à la rubrique Installation de la structure de Sun Cluster et des packages du logiciel du service de données .
Déterminez le mode d'exécution de l'utilitaire scinstall (typique ou personnalisé). Pour l'installation typique de Sun Cluster, scinstall spécifie automatiquement la configuration par défaut suivante :
Composant |
Valeur par défaut |
---|---|
Adresse de réseau privé |
172.16.0.0 |
Masque de réseau privé |
255.255.248.0 |
Adaptateurs de transport intracluster |
Exactement deux adaptateurs |
Commutateurs de transport de cluster |
commutateur1 et commutateur2 |
Nom du système de fichiers des périphériques globaux |
/globaldevices |
Sécurité de l'installation (DES) |
Limitée |
Renseignez la fiche de configuration de cluster correspondant au mode d'exécution de l'utilitaire scinstall (typique ou personnalisé). Reportez-vous à la rubrique Planification de l'environnement Sun Cluster pour connaître les procédures de planification.
Feuille de travail Mode Standard : si vous utilisez ce mode et acceptez tous les paramètres par défaut, remplissez la feuille de travail suivante.
Feuille de travail Mode Personnalisé : si vous prévoyez d'utiliser ce mode pour personnaliser les données de configuration, remplissez la feuille de travail suivante.
Si vous installez un cluster à un nœud, l'utilitaire scinstall utilise automatiquement l'adresse réseau privé et le masque de sous-réseau par défaut, même si le cluster n'utilise pas de réseau privé.
Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :
L'utilitaire scinstall mémorise toutes les frappes au clavier. Par conséquent, n'appuyez qu'une seule fois sur la touche Entrée, même si l'écran de menu suivant n'apparaît pas immédiatement.
Sauf indication contraire, vous pouvez appuyer sur Ctrl-D pour revenir au début d'une série de questions connexes ou au menu principal.
Les réponses par défaut ou les réponses issues de sessions antérieures sont affichées entre crochets ([ ]) à la fin des questions. Appuyez sur Retour pour entrer la réponse figurant entre crochets sans avoir à la saisir.
Configurez votre serveur d'installation JumpStart.
Assurez-vous que le serveur d'installation JumpStart réponde aux exigences suivantes :
Le serveur d'installation est sur le sous-réseau des nœuds de cluster ou sur le serveur d'initialisation Solaris du sous-réseau utilisé par les nœuds de cluster.
Le serveur d'installation n'est pas lui-même un nœud de cluster.
Le serveur d'installation installe une version du système d'exploitation Solaris prise en charge par le logiciel Sun Cluster.
Un répertoire JumpStart personnalisé est prévu pour l'installation JumpStart du logiciel Sun Cluster. Ce répertoire jumpstart-dir doit répondre aux exigences suivantes :
Contenir une copie de l'utilitaire check.
Avoir été exporté de NFS pour être lu par le serveur d'installation JumpStart.
Chaque nouveau nœud de cluster est configuré comme un client d'installation JumpStart personnalisée utilisant le répertoire d'installation JumpStart personnalisée configuré pour l'installation de Sun Cluster.
Suivez les instructions correspondant à votre plate-forme et version de système d'exploitation pour configurer le serveur d'installation JumpStart. Reportez-vous à la rubrique Creating a Profile Server for Networked Systems du Solaris 9 9/04 Installation Guide ou à la rubrique Création d’un serveur de profils pour les systèmes en réseau du Guide d’installation Solaris 10 : Installation JumpStart personnalisée et installation avancée.
Reportez-vous également aux pages de manuel setup_install_server(1M) et add_install_client(1M).
Si vous installez un nouveau nœud sur un cluster existant, ajoutez ce nœud à la liste des nœuds de cluster autorisés.
Passez à un autre nœud de cluster actif et lancez l'utilitaire clsetup.
Utilisez clsetup pour ajouter le nom du nouveau nœud à la liste des nœuds de cluster autorisés.
Pour plus d'informations, reportez-vous à la rubrique How to Add a Node to the Authorized Node List du Sun Cluster System Administration Guide for Solaris OS.
Sur un nœud de cluster ou une autre machine de la même plate-forme de serveur, installez le système d'exploitation Solaris et les patchs nécessaires (si requis).
Si le logiciel Solaris est déjà installé sur le serveur, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.
Suivez les procédures de la rubrique Installation du logiciel Solaris.
Sur le système installé, installez le logiciel Sun Cluster et les patchs nécessaires si vous ne l'avez pas déjà fait.
Suivez les procédures de la rubrique Installation de la structure de Sun Cluster et des packages du logiciel du service de données .
Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la section Patchs et niveaux des micrologiciels requis du Notes de version de Sun Cluster 3.2 pour SE Solaris.
Activez le démon conteneur d'agents communs pour démarrer automatiquement à l'initialisation du système.
machine# cacaoadm enable |
Sur le système installé, mettez à jour le fichier /etc/inet/ipnodes avec toutes les adresses IP publiques utilisées dans le cluster.
Exécutez cette étape, que vous utilisiez ou non un service d'attribution de noms. Reportez-vous à la rubrique Adresses IP réseau public pour obtenir la liste des composants Sun Cluster dont les adresses IP sont à ajouter.
Créez l'archive flash du système installé.
machine# flarcreate -n name archive |
Nom à donner à l'archive flash.
Nom à donner à l'archive flash, avec le chemin complet. Par convention, le nom du fichier se termine par .flar.
Suivez les procédures du manuel approprié :
Vérifiez que l'archive Flash est exportée par NFS pour être lue par le serveur d'installation JumpStart.
Reportez-vous au chapitre Managing Network File Systems (Overview), du System Administration Guide: Network Services (Solaris 9 ou Solaris 10) pour plus d'informations sur le partage automatique de fichiers.
Reportez-vous également aux pages de manuel share(1M) et dfstab(4).
Connectez-vous en tant que superutilisateur à votre serveur d'installation JumpStart.
Lancez l'utilitaire scinstall(1M) à partir du serveur d'installation JumpStart.
Le chemin /export/suncluster/sc31/ est utilisé ici comme exemple de répertoire d'installation JumpStart créé. Dans le chemin, remplacez arch par sparc ou x86 (Solaris 10 uniquement) et remplacez ver par 9 pour Solaris 9 ou 10 pour Solaris 10.
installserver# cd /export/suncluster/sc31/Solaris_arch/Product/sun_cluster/ \ Solaris_ver/Tools/ installserver# ./scinstall |
Le menu principal scinstall s'affiche.
Saisissez le numéro correspondant à l'option de configuration via JumpStart d'un cluster à partir de ce serveur d'installation, puis appuyez sur la touche Retour.
Cette option permet de configurer les scripts de fin JumpStart. JumpStart utilise ces scripts de fin pour installer le logiciel Sun Cluster.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 2 |
Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.
La commande scinstall stocke vos informations de configuration et copie le fichier class par défaut autoscinstall.class dans le répertoire /jumpstart-dir/autoscinstall.d/3.2/. Ce fichier est similaire à celui de l'exemple ci-dessous.
install_type initial_install system_type standalone partitioning explicit filesys rootdisk.s0 free / filesys rootdisk.s1 750 swap filesys rootdisk.s3 512 /globaldevices filesys rootdisk.s7 20 cluster SUNWCuser add package SUNWman add |
Si nécessaire, modifiez le fichier autoscinstall.class pour que JumpStart installe l'archive Flash.
Modifiez les entrées pour qu'elles correspondent aux choix de configuration effectués lors de l'installation du système d'exploitation Solaris sur la machine de l'archive Flash ou lors de l'exécution de l'utilitaire scinstall.
Si vous affectez par exemple la tranche 4 au système de fichiers de périphériques globaux et indiquez à scinstall que le nom du système de fichiers est /gdevs, vous modifiez l'entrée /globaldevices du fichier autoscinstall.class de la manière suivante :
filesys rootdisk.s4 512 /gdevs |
Modifiez les entrées du fichier autoscinstall.class.
Entrée à remplacer |
Entrée à ajouter |
||
---|---|---|---|
install_type |
initial_install |
install_type |
flash_install |
system_type |
standalone |
archive_location |
retrieval_type location |
Reportez-vous au mot-clé archive_location dans le Solaris 9 9/04 Installation Guide ou au Solaris 10 Installation Guide: Custom JumpStart and Advanced Installations pour plus d'informations sur les valeurs valides de retrieval_type et de location si utilisés avec le mot-clé archive_location.
Supprimez les entrées destinées à l'installation d'un package spécifique. Par exemple :
cluster SUNWCuser add package SUNWman add |
Si votre installation requiert une configuration du logiciel Solaris supplémentaire, modifiez le fichier autoscinstall.class en fonction.
Le fichier autoscinstall.class installe le groupe de logiciels Solaris utilisateur final (SUNWCuser).
Si vous installez le groupe de logiciels Solaris utilisateur final (SUNWCuser), ajoutez au fichier autoscinstall.class tout package Solaris supplémentaire nécessaire.
Vous trouverez dans le tableau suivant la liste des packages Solaris nécessaires à la prise en charge de certaines fonctions Sun Cluster. Ces packages ne font pas partie du End User Solaris Software Group. Reportez-vous à la rubrique À propos des groupes de logiciels Solaris pour obtenir plus d'informations.
Fonctionnalité |
Packages Solaris requis |
---|---|
RSMAPI, Pilotes RSMRDT ou adaptateurs SCI-PCI (clusters sous SPARC uniquement) |
SPARC : Solaris 9 : SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox Solaris 10 : SUNWrsm SUNWrsmo |
SUNWapchr SUNWapchu |
Vous pouvez modifier le fichier class de l'une des façons suivantes :
Éditez directement le fichier autoscinstall.class. Ces modifications s'appliquent à tous les noeuds de tous les clusters qui utilisent ce répertoire JumpStart personnalisé.
Mettez à jour le fichier rules pour qu'il indique le chemin d'autres profils, puis exécutez l'utilitaire check pour valider le fichier rules.
Tant que les exigences d'allocation minimales de système de fichiers Sun Cluster sont respectées, Sun Cluster n'impose aucune restriction concernant les modifications apportées au profil d'installation du système d'exploitation Solaris. Reportez-vous à la rubrique Partitions du disque système pour connaître les procédures de partitionnement et les exigences de prise en charge du logiciel Sun Cluster.
Pour plus d'informations sur les profils JumpStart, reportez-vous au Chapitre 26, Preparing Custom JumpStart Installations (Tasks) du Solaris 9 9/04 Installation Guide ou au Chapitre 6, Préparation d’une installation JumpStart personnalisée – Tâches du Guide d’installation Solaris 10 : Installation JumpStart personnalisée et installation avancée.
Pour installer des packages nécessaires aux fonctions suivantes ou pour effectuer d'autres tâches post-installation, configurez votre propre script de fin.
Interface de programmation d'application de mémoire partagée distante (RSMAPI)
Adaptateurs SCI-PCI pour l'interconnexion
Pilotes RSMRDT
L'utilisation du pilote RSMRDT est limitée aux clusters exécutant une configuration SCI Oracle9i version 2 avec RSM activé. Reportez-vous à la documentation utilisateur d'Oracle9i version 2 pour connaître les instructions d'installation et de configuration.
Votre script de fin personnel s'exécute après le script de fin standard installé par la commande scinstall. Reportez-vous à la rubrique de préparation d'installations JumpStart personnalisées dans le Chapitre 26, Preparing Custom JumpStart Installations (Tasks) du Solaris 9 9/04 Installation Guide ou dans le Chapitre 6, Préparation d’une installation JumpStart personnalisée – Tâches du Guide d’installation Solaris 10 : Installation JumpStart personnalisée et installation avancée pour plus d'informations sur la création d'un script de fin JumpStart.
Vérifiez que tous les packages de dépendances Solaris sont installés par le fichier class par défaut.
Reportez-vous à l'Étape 13.
Nommez votre script de fin finish.
Modifiez le script finish pour installer les packages logiciels répertoriés dans le tableau suivant et qui prennent en charge les fonctions que vous souhaitez utiliser.
Installez les packages dans l'ordre indiqué dans le tableau.
Installez les packages à partir du répertoire Répertoire Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ , où arch est sparc ou x86 (Solaris 10 uniquement) et où ver est 9 pour Solaris 9 ou 10 pour Solaris 10 .
Effectuez toute modification nécessaire pour les autres tâches ultérieures à l'installation que vous souhaitez que le script finish effectue.
Copiez votre script finish dans chaque répertoire jumpstart-dir/autoscinstall.d/nodes/node.
Créez un répertoire node pour chaque nœud du cluster. Sinon, utilisez cette convention de dénomination pour créer des liens symboliques vers un script finish partagé.
Quittez le serveur d'installation JumpStart.
Si vous utilisez une console d'administration pour le cluster, affichez un écran de console pour chaque nœud du cluster.
Si le logiciel Cluster Control Panel (CCP) est installé et configuré sur votre console d'administration, utilisez l'utilitaire cconsole(1M) pour afficher les écrans individuels de la console.
En tant que superutilisateur, utilisez les commandes suivantes pour lancer l'utilitaire cconsole :
adminconsole# /opt/SUNWcluster/bin/cconsole clustername & |
L'utilitaire cconsole ouvre également une fenêtre principale qui vous permet d'envoyer votre saisie à tous les écrans de console individuels en même temps.
Si vous n'utilisez pas l'utilitaire cconsole, connectez-vous aux consoles de chaque noeud individuellement.
Arrêtez tous les noeuds.
phys-schost# shutdown -g0 -y -i0 |
Initialisez chaque nœud pour lancer l'installation JumpStart.
Sur les systèmes SPARC, procédez comme suit :
ok boot net - install |
entourez le tiret (-) de la commande d'un espace de chaque côté.
Sur les systèmes x86, procédez comme suit :
Appuyez sur une touche pour lancer la séquence d'initialisation.
Press any key to reboot. keystroke |
Dès que l'écran d'informations BIOS apparaît, appuyez immédiatement sur Echap+2 ou appuyez sur la touche F2.
Une fois la séquence d'initialisation terminée, l'écran de l'utilitaire de configuration du BIOS apparaît.
Dans la barre de menus de l'utilitaire de configuration du BIOS, accédez à l'élément de menu Boot.
La liste des périphériques d'initialisation s'affiche.
Accédez à l'IBA répertorié et connecté au même réseau que le serveur d'installation JumpStart PXE et amenez-le en première position dans l'ordre d'initialisation.
Le chiffre le plus bas à droite des choix d'initialisation de l'IBA correspond au numéro de port Ethernet le plus bas. Le chiffre le plus élevé à droite des choix d'initialisation de l'IBA correspond au numéro de port Ethernet le plus élevé.
Enregistrez votre modification et fermez le BIOS.
La séquence d'initialisation recommence. Après un autre traitement, le menu GRUB apparaît.
Sélectionnez immédiatement l'entrée Solaris JumpStart et appuyez sur Entrée.
Si l'entrée Solaris JumpStart est la seule répertoriée, vous pouvez également attendre l'expiration de l'écran de sélection. Si vous ne répondez pas dans les 30 secondes, le système poursuit automatiquement la séquence d'initialisation.
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris_10 Jumpstart | | | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Après un autre traitement, le menu du type d'installation apparaît.
Dans le menu du type d'installation, saisissez immédiatement le numéro de menu de JumpStart personnalisé.
Si vous ne saisissez pas le numéro de JumpStart personnalisé avant 30 secondes, le système lance automatiquement l'installation interactive de Solaris.
Select the type of installation you want to perform: 1 Solaris Interactive 2 Custom JumpStart 3 Solaris Interactive Text (Desktop session) 4 Solaris Interactive Text (Console session) 5 Apply driver updates 6 Single user shell Enter the number of your choice. 2 |
JumpStart installe le système d'exploitation Solaris et le logiciel Sun Cluster sur tous les nœuds. Une fois l'installation terminée avec succès, chaque nœud est entièrement installé en tant que nouveau nœud de cluster. Les informations relatives à l'installation de Sun Cluster sont consignées dans le fichier /var/cluster/logs/install/scinstall.log. N.
Lorsque l'écran du BIOS réapparaît, appuyez immédiatement sur Echap+2 ou sur la touche F2.
Si vous n'interrompez pas le BIOS à ce stade, il revient automatiquement au menu du type d'installation. Ici, si vous ne saisissez aucun choix pendant 30 secondes, le système lance automatiquement une installation interactive.
Après un autre traitement, l'utilitaire de configuration du BIOS apparaît.
Dans la barre de menus, accédez au menu Boot.
La liste des périphériques d'initialisation s'affiche.
Accédez à l'entrée Hard Drive et amenez-la en première position dans l'ordre d'initialisation.
Enregistrez votre modification et fermez le BIOS.
La séquence d'initialisation recommence. Aucune autre interaction avec le menu GRUB n'est nécessaire pour terminer l'initialisation en mode cluster.
Pour Solaris 10, vérifiez sur chaque nœud que les services multiutilisateur de SMF (Service Management Facility) sont en ligne.
Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Si vous installez un nouveau nœud sur un cluster existant, créez des points de montage sur le nouveau nœud pour tous les systèmes de fichiers de cluster existants.
À partir d'un autre nœud actif du cluster, affichez les noms de tous les systèmes de fichiers de cluster.
phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}' |
Sur le noeud que vous ajoutez au cluster, créez un point de montage pour chaque système de fichiers du cluster.
phys-schost-new# mkdir -p mountpoint |
Par exemple, si la commande mount renvoie le nom du système de fichiers /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le nœud ajouté au cluster.
les points de montage deviennent actifs lorsque vous réinitialisez le cluster à l'Étape 24 .
Si VERITAS Volume Manager (VxVM) est installé sur des nœuds qui se trouvent déjà dans le cluster, affichez le numéro vxio sur chaque nœud installé avec VxVM.
phys-schost# grep vxio /etc/name_to_major vxio NNN |
Assurez-vous que le même numéro vxio est utilisé pour chacun des nœuds installés avec VxVM.
Assurez-vous également que ce numéro est disponible pour chacun des nœuds installés sans VxVM.
Si le numéro vxio est déjà utilisé sur un noeud sur lequel VxVM n'est pas installé, enlevez-le de ce noeud. Modifiez l'entrée /etc/name_to_major pour utiliser un numéro différent.
(Facultatif) Pour utiliser une reconfiguration dynamique sur des serveurs Sun Enterprise 10000, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.
set kernel_cage_enable=1 |
Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système. Reportez-vous au Sun Cluster System Administration Guide for Solaris OS pour connaître les procédures de reconfiguration dynamique dans une configuration Sun Cluster. Reportez-vous à la documentation de votre serveur pour de plus amples informations sur la reconfiguration dynamique.
Si vous envisagez d'utiliser Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, assurez-vous que le système de fichiers loopback (LOFS) est désactivé.
Pour désactiver le LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.
exclude:lofs |
La modification apportée au fichier /etc/system est effective après une réinitialisation du système.
Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS. Si vous choisissez d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, vous devez apporter l'une des modifications de configuration suivantes.
Toutefois, si vous configurez des zones non globales dans votre cluster, vous devez activer le LOFS sur tous les nœuds du cluster. Si Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité doit coexister avec le LOFS, utilisez une autre solution que la désactivation du LOFS.
Désactivez le LOFS.
Désactivez le démon automountd.
Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.
Reportez-vous à la rubrique The Loopback File System du System Administration Guide: Devices and File System (Solaris 9 ou Solaris 10) pour plus d'informations sur les systèmes de fichiers.
x86 : Paramétrez le fichier d'initialisation par défaut.
La définition de cette valeur vous permet de réinitialiser le nœud si vous n'avez accès à aucune invite de connexion.
Si une tâche effectuée demande une réinitialisation de cluster, suivez ces procédures.
Les tâches suivantes demandent une réinitialisation :
Ajout d'un nouveau nœud à un cluster existant
Installation de patchs exigeant la réinitialisation d'un nœud ou d'un cluster
Modifications apportées à la configuration et qui demandent une réinitialisation pour prendre effet
Prenez le rôle de superutilisateur sur un nœud.
Arrêtez le cluster.
phys-schost-1# cluster shutdown -y -g0 clustername |
ne réinitialisez pas le premier nœud installé tant que le cluster n'a pas été arrêté. tant que le mode d'installation du cluster n'a pas été désactivé, seul le premier noeud installé, qui a établi le cluster, possède un vote de quorum. Si un cluster établi encore en mode d'installation n'est pas fermé avant la réinitialisation du premier nœud installé, les autres nœuds ne peuvent pas obtenir de quorum. Alors tout le cluster se ferme.
Les nœuds de cluster restent en mode d'installation jusqu'à la première exécution de la commande clsetup. Vous exécutez cette commande lors de la procédure Configuration des périphériques de quorum.
Réinitialisez tous les noeuds du cluster.
Sur les systèmes SPARC, procédez comme suit :
ok boot |
Sur les systèmes x86, procédez comme suit :
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Solaris appropriée, puis appuyez sur Entrée. Le menu GRUB qui s'affiche est similaire à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.
L'utilitaire scinstall installe et configure tous les nœuds du cluster, puis redémarre le cluster. Le cluster est établi une fois que tous ses noeuds ont été correctement réinitialisés. Les informations relatives à l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log.N.
(Facultatif) Si vous n'avez pas effectué l'Étape 24 pour réinitialiser les nœuds, lancez le serveur Web Sun Java Web Console manuellement sur chaque nœud.
phys-schost# smcwebserver start |
Pour plus d'informations, reportez-vous à la page de manuel smcwebserver(1M).
Prenez le rôle de superutilisateur sur un nœud.
Vérifiez que tous les noeuds ont rejoint la grappe.
phys-schost# clnode status |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
(Facultatif) Sur chaque nœud, activez la réinitialisation de nœud automatique en cas d'échec de tous les chemins de disques contrôlés.
Activez la fonctionnalité de réinitialisation automatique.
phys-schost# clnode set -p reboot_on_path_failure=enabled |
Indique la propriété à définir.
Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.
Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
Si vous avez ajouté un nœud à un cluster à deux nœuds, reportez-vous à la rubrique Procédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster.
Sinon, reportez-vous à l'une des procédures suivantes.
Si vous avez installé un cluster à nœuds multiples et choisi une configuration de quorum automatique, la configuration après installation est terminée. Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.
Si vous avez installé un cluster à nœuds multiples et refusé une configuration de quorum automatique, procédez à la configuration après installation. Reportez-vous à la rubrique Configuration des périphériques de quorum.
Si vous avez ajouté un nœud à un cluster existant qui utilise un périphérique de quorum, reportez-vous à la rubrique Procédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster.
Si vous avez ajouté un nœud à un cluster existant qui n'utilise pas de périphérique de quorum, vérifiez l'état du cluster. Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.
Si vous avez installé un cluster mononœud, l'installation du cluster est terminée. Rendez-vous à la section Création de systèmes de fichiers de cluster pour installer le gestionnaire de volumes et configurer le cluster.
Option scinstall désactivée : si un astérisque n'apparaît pas en regard de l'option JumpStart de la commande scinstall, cela signifie que l'option est désactivée. Cette condition indique que le paramétrage de JumpStart n'est pas terminé ou qu'il comporte une erreur. Pour corriger cette condition, commencez par quitter l'utilitaire scinstall. Répétez l'Étape 1 à l'Étape 14 pour corriger la configuration JumpStart, puis redémarrez l'utilitaire scinstall.
Messages d'erreur sur les nœuds inexistants : si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf, la commande scinstall installe un fichier ntp.conf par défaut. Ce fichier est expédié avec des références au nombre maximum de nœuds. Par conséquent, le démon xntpd(1M) peut émettre des messages d'erreur sur certaines de ces références pendant l'initialisation. Vous pouvez ignorer ces messages sans risque. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) pour obtenir des informations sur la suppression de ces messages dans des conditions de cluster normales par ailleurs.
Suivez cette procédure sur des nœuds de cluster existants pour préparer le cluster à l'ajout de nœuds de cluster.
Effectuez les tâches suivantes :
Vérifiez que tout le matériel nécessaire est bien installé.
Vérifiez que l'adaptateur de l'hôte est installé sur le nouveau nœud. Reportez-vous au Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS.
Vérifiez que toute interconnexion de cluster peut prendre en charge le nouveau nœud. Reportez-vous au Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS.
Vérifiez que vous disposez d'espace de stockage supplémentaire. Reportez-vous au manuel approprié de la documentation Sun Cluster 3.1 - 3.2 Hardware Administration Collection.
Si vous utilisez CCP (Cluster Control Panel), mettez à jour les fichiers de configuration sur la console administrative.
Ajoutez le nom du nouveau nœud à la liste de nœuds autorisés du cluster.
Sur un nœud, devez superutilisateur.
Lancez l'utilitaire clsetup.
phys-schost# clsetup |
Le menu principal apparaît.
Choisissez l'élément de menu Nouveaux nœuds.
Choisissez l'élément de menu Spécifier le nom d'une machine autorisée à s'auto-ajouter.
Suivez les indications pour ajouter le nom du noeud à la liste des machines reconnues.
Une fois la tâche terminée sans erreur, l'utilitaire clsetup affiche le message La commande a été exécutée avec succès.
Quittez l'utilitaire clsetup.
Si vous ajoutez un nœud à un cluster à un nœud, vérifiez que deux interconnexions de cluster existent en affichant la configuration d'interconnexion.
phys-schost# clinterconnect show |
Avant de pouvoir ajouter un nœud, vous devez avoir configuré au moins deux câbles ou deux adaptateurs.
Si le résultat indique des informations de configuration pour deux câbles ou deux adaptateurs, passez à l'Étape 4.
Si le résultat n'indique aucune information de configuration de câbles ou d'adaptateurs, ou indique des informations de configuration pour un seul câble ou adaptateur, configurez de nouvelles interconnexions de cluster.
Sur un nœud, lancez l'utilitaire clsetup.
phys-schost# clsetup |
Choisissez l'élément de menu Interconnexions de clusters.
Choisissez l'élément de menu Ajouter un câble de transport.
Suivez les instructions pour spécifier le nom du nœud à ajouter au cluster, le nom de l'adaptateur de transport et l'utilisation ou non d'un commutateur.
Si nécessaire, répétez l'Étape c pour configurer une deuxième interconnexion de cluster.
Une fois l'opération terminée, quittez l'utilitaire clsetup.
Vérifiez que le cluster dispose de deux interconnexions configurées.
phys-schost# clinterconnect show |
La sortie de la commande doit afficher des informations de configuration concernant au moins deux interconnexions de cluster.
Vérifiez que la configuration de réseau privé peut prendre en charge les nœuds et les réseaux privés que vous ajoutez.
Affichez le nombre maximum de nœuds et de réseaux privés que la configuration de réseau privé actuelle prend en charge.
phys-schost# cluster show-netprops |
Le résultat est semblable à l'exemple suivant qui indique les valeurs par défaut :
=== Private Network === private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 |
Déterminez si la configuration de réseau privé actuelle peut prendre en charge le plus grand nombre de nœuds, zones non globales incluses, et de réseaux privés.
Si la plage d'adresses IP actuelles suffit, vous pouvez installer le nouveau nœud.
Reportez-vous à la rubrique Procédure de configuration du logiciel Sun Cluster sur d'autres noeuds du cluster (scinstall).
Sinon, reconfigurez la plage d'adresses IP privées.
Reportez-vous à la rubrique Procédure de modification de la configuration de réseau privé lors de l'ajout de nœuds ou de réseaux privés. Vous devez arrêter le cluster pour modifier la plage d'adresses IP privées. Ceci suppose la mise hors ligne de chaque groupe de ressources en désactivant toutes les ressources du cluster, puis en réinitialisant en mode non cluster avant de reconfigurer la plage d'adresses IP.
Configurez le logiciel Sun Cluster sur les nœuds de votre cluster. Reportez-vous à la rubrique Procédure de configuration du logiciel Sun Cluster sur d'autres noeuds du cluster (scinstall) ou à la rubrique Procédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (XML).
Effectuez cette tâche pour modifier la plage d'adresses IP privées du cluster afin d'accepter un plus grand nombre de nœuds ou de zones non globales, ou de réseaux privés ou une combinaison de ceux-ci. Vous pouvez suivre cette procédure pour diminuer la plage d'adresses IP privées.
Cette procédure nécessite l'arrêt complet du cluster.
Devenez superutilisateur sur un noeud du cluster.
À partir d'un nœud, lancez l'utilitaire clsetup.
# clsetup |
Le menu principal clsetup s'affiche.
Basculez chaque groupe de ressources hors ligne.
Si le nœud contient des zones non globales, les groupes de ressources des zones sont également basculés hors ligne.
Saisissez le numéro correspondant à l'option des groupes de ressources, puis appuyez sur la touche Retour.
Le menu du groupe de ressources apparaît.
Saisissez le numéro correspondant à l'option en ligne/hors ligne ou la commutation d'un groupe de ressources, puis appuyez sur la touche Retour.
Suivez les instructions pour désactiver tous les groupes de ressources et les placer en mode sans gestion.
Une fois tous les groupes de ressources désactivés, entrez q pour revenir au menu Groupe de ressources.
Désactivez toutes les ressources du cluster.
Saisissez le numéro correspondant à l'option d'activation/désactivation d'une ressource, puis appuyez sur la touche Retour.
Choisissez une ressource à désactiver, puis suivez les directives fournies.
Répétez l'étape précédente pour chaque ressource à désactiver.
Une fois que toutes les ressources sont désactivées, entrez q pour revenir au menu Groupe de ressources.
Quittez l'utilitaire clsetup.
Vérifiez que toutes les ressources de tous les nœuds sont Hors ligne et que tous les groupes de ressources sont en mode Sans gestion.
# cluster status -t resource,resourcegroup |
Limite la sortie à l'objet de cluster spécifié.
Spécifie les ressources.
Spécifie les groupes de ressources.
Arrêtez le cluster depuis un noeud.
# cluster shutdown -g0 -y |
Spécifie le temps d'attente en secondes.
Empêche l'apparition de l'invite demandant de confirmer un arrêt avant l'émission.
Réinitialisez chaque noeud en mode non-cluster.
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot -x |
Sur les systèmes x86, exécutez les commandes suivantes :
Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.
Le menu GRUB qui s'affiche est similaire à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.
Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.
L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu. |
Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x |
Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.
L'écran affiche la commande modifiée.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.- |
Saisissez b pour initialiser le nœud en mode non cluster.
Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour effectuer un démarrage en mode non-cluster, exécutez à nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.
À partir d'un nœud, lancez l'utilitaire clsetup.
S'il est exécuté en mode non cluster, l'utilitaire clsetup affiche le menu principal pour les opérations en mode non cluster.
Saisissez le numéro correspondant à l'option de modification de la plage d'adresses IP, puis appuyez sur la touche Retour.
L'utilitaire clsetup affiche la configuration de réseau privé actuelle, puis vous demande si vous souhaitez modifier cette configuration.
Pour modifier l'adresse IP de réseau privé ou la plage d'adresses IP, tapez oui, puis appuyez sur la touche Retour.
L'utilitaire clsetup affiche l'adresse IP de réseau privé par défaut, 172.16.0.0, puis vous demande si vous acceptez cette valeur par défaut.
Modifiez ou acceptez l'adresse IP de réseau privé.
Pour accepter l'adresse IP de réseau privé par défaut et continuer en modifiant la plage d'adresses IP, saisissez oui, puis appuyez sur la touche Retour.
L'utilitaire clsetup vous demande si vous souhaitez accepter le masque de réseau par défaut. Passez à l'étape suivante pour entrer votre réponse.
Pour modifier l'adresse IP de réseau privé par défaut, effectuez les sous-étapes suivantes.
Saisissez non en réponse à la question de l'utilitaire clsetup portant sur l'acceptation de l'adresse par défaut, puis appuyez sur la touche Retour.
L'utilitaire clsetup vous invite à saisir la nouvelle adresse IP de réseau privé.
Saisissez la nouvelle adresse IP, puis appuyez sur la touche Retour.
L'utilitaire clsetup affiche le masque de réseau par défaut, puis vous demande si vous acceptez le masque de réseau par défaut.
Modifiez ou acceptez la plage d'adresses IP de réseau privé par défaut.
Le masque de réseau par défaut est le 255.255.248.0. Cette plage d'adresses IP par défaut prend en charge un maximum de 64 nœuds et de 10 réseaux privés dans le cluster.
Pour accepter la plage d'adresses IP par défaut, saisissez oui, puis appuyez sur la touche Retour.
Passez ensuite à l'étape suivante.
Pour modifier la plage d'adresses IP, effectuez les sous-étapes suivantes.
Saisissez non en réponse à la question de l'utilitaire clsetup portant sur l'acceptation de la plage d'adresses par défaut, puis appuyez sur la touche Retour.
Lorsque vous refusez le masque de réseau par défaut, l'utilitaire clsetup vous invite à saisir le nombre de nœuds et de réseaux privés que vous prévoyez de configurer dans le cluster.
Saisissez le nombre de nœuds et de réseaux privés que vous prévoyez de configurer dans le cluster.
À partir de ces chiffres, l'utilitaire clsetup calcule deux masques de réseau proposés :
Le premier masque de réseau est le masque de réseau minimum pour assurer la prise en charge des nœuds et réseaux privés spécifiés.
Le second masque de réseau prend en charge deux fois plus de nœuds et de réseaux privés que ce que vous avez indiqué afin de permettre une éventuelle augmentation ultérieure.
Indiquez l'un des masques de réseau calculés ou indiquez un masque de réseau différent prenant en charge le nombre de nœuds et de réseaux privés souhaités.
Saisissez oui lorsque l'utilitaire clsetup vous demande de continuer avec la mise à jour.
Une fois l'opération terminée, quittez l'utilitaire clsetup.
Réinitialisez chaque nœud dans le cluster.
Arrêtez tous les noeuds.
# shutdown -g0 -y |
Initialisez chaque nœud en mode cluster.
Sur les systèmes SPARC, procédez comme suit :
ok boot |
Sur les systèmes x86, procédez comme suit :
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Solaris appropriée, puis appuyez sur Entrée. Le menu GRUB qui s'affiche est similaire à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.
À partir d'un nœud, lancez l'utilitaire clsetup.
# clsetup |
Le menu principal clsetup s'affiche.
Réactivez toutes les ressources désactivées.
Saisissez le numéro correspondant à l'option des groupes de ressources, puis appuyez sur la touche Retour.
Le menu du groupe de ressources apparaît.
Saisissez le numéro correspondant à l'option d'activation/désactivation d'une ressource, puis appuyez sur la touche Retour.
Choisissez une ressource à activer, puis suivez les directives fournies.
Répétez cette opération pour chaque ressource désactivée.
Une fois que toutes les ressources sont réactivées, entrez q pour revenir au menu Groupe de ressources.
Remettez en ligne tous les groupes de ressources.
Si le nœud contient des zones non globales, mettez en ligne les groupes de ressources présents dans ces zones.
Une fois tous les groupes de ressources remis en ligne, quittez l'utilitaire clsetup.
Entrez q pour sortir de chaque sous-menu ou appuyez sur Ctrl-C.
Pour ajouter un nœud à un cluster existant, suivez l'une des procédures suivantes :
Procédure de configuration du logiciel Sun Cluster sur d'autres noeuds du cluster (scinstall)
Installation de Solaris et du logiciel Sun Cluster (JumpStart)
Procédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (XML)
Pour créer une zone non globale sur un nœud de cluster, reportez-vous à la rubrique Configuration d'une zone non globale sur un nœud de cluster.
Effectuez cette procédure pour ajouter de nouveaux nœuds à un cluster existant. Pour ajouter un nœud à l'aide de JumpStart, effectuez plutôt les procédures de la rubrique Installation de Solaris et du logiciel Sun Cluster (JumpStart).
Cette procédure utilise la forme interactive de la commande scinstall. Pour utiliser les formes non interactives de la commande scinstall, par exemple pour le développement de scripts d'installation, reportez-vous à la page du manuel scinstall(1M).
Vérifiez que les packages Sun Cluster sont installés sur le nœud, soit manuellement soit en utilisant la forme du mode silencieux du programme installer de Java ES avant d'exécuter la commande scinstall. Pour de plus amples informations sur l'exécution du programme installer de Java ES à partir d'un script d'installation, reportez-vous au Chapitre 5, Installing in Silent Mode du Sun Java Enterprise System 5 Installation Guide for UNIX.
Effectuez les tâches suivantes :
Vérifiez que la version de Solaris installée prend en charge le logiciel Sun Cluster.
Si le logiciel Solaris est déjà installé sur le noeud, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.
Vérifiez que les packages Sun Cluster et les patchs sont installés sur le nœud. Reportez-vous à la rubrique Installation de la structure de Sun Cluster et des packages du logiciel du service de données .
Vérifiez que le cluster est préparé pour l'ajout d'un nouveau nœud. Reportez-vous à la rubrique Procédure de préparation du cluster pour d'autres nœuds de cluster.
Déterminez le mode d'exécution de l'utilitaire scinstall (typique ou personnalisé). Pour l'installation typique de Sun Cluster, scinstall spécifie automatiquement la configuration par défaut suivante :
Composant |
Valeur par défaut |
---|---|
Commutateurs de transport de cluster |
commutateur1 et commutateur2 |
Nom du système de fichiers des périphériques globaux |
/globaldevices |
Renseignez la fiche de configuration appropriée. Reportez-vous aux rubriques Planification du SE Solaris et Planification de l'environnement Sun Cluster pour connaître les procédures de planification.
Feuille de travail Mode Standard : si vous utilisez ce mode et acceptez tous les paramètres par défaut, remplissez la feuille de travail suivante.
Feuille de travail Mode Personnalisé : si vous prévoyez d'utiliser ce mode pour personnaliser les données de configuration, remplissez la feuille de travail suivante.
Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :
L'utilitaire scinstall mémorise toutes les frappes au clavier. Par conséquent, n'appuyez qu'une seule fois sur la touche Entrée, même si l'écran de menu suivant n'apparaît pas immédiatement.
Sauf indication contraire, vous pouvez appuyer sur Ctrl-D pour revenir au début d'une série de questions connexes ou au menu principal.
Les réponses par défaut ou les réponses issues de sessions antérieures sont affichées entre crochets ([ ]) à la fin des questions. Appuyez sur Retour pour entrer la réponse figurant entre crochets sans avoir à la saisir.
Prenez le rôle de superutilisateur sur le nœud de cluster à configurer.
Lancez l'utilitaire scinstall.
phys-schost-new# /usr/cluster/bin/scinstall |
Le menu principal scinstall s'affiche.
Saisissez le numéro correspondant à l'option de création d'un cluster ou d'ajout d'un nœud de cluster, puis appuyez sur la touche Retour.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1 |
Le menu Nouveau cluster et Nœud de cluster apparaît.
Saisissez le numéro correspondant à l'option d'ajout de cette machine en tant que nœud dans un cluster existant, puis appuyez sur la touche Retour.
Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.
L'utilitaire scinstall configure le nœud et le réinitialise sur le cluster.
Retirez le DVD-ROM Sun Java Availability Suite du lecteur DVD-ROM\~;.
Répétez cette procédure sur tout autre noeud à ajouter au cluster jusqu'à ce que tous les noeuds supplémentaires soient entièrement configurés.
Pour Solaris 10, vérifiez sur chaque nœud que les services multiutilisateur de SMF (Service Management Facility) sont en ligne.
Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Dans un membre de cluster actif, empêchez l'association d'un autre nœud au cluster.
phys-schost# claccess deny-all |
Vous pouvez aussi utiliser l'utilitaire clsetup. Reportez-vous à la rubrique How to Add a Node to the Authorized Node List du Sun Cluster System Administration Guide for Solaris OS pour connaître les procédures.
Prenez le rôle de superutilisateur sur un nœud.
Vérifiez que tous les noeuds ont rejoint la grappe.
phys-schost# clnode status |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
Vérifiez que tous les patchs nécessaires sont installés.
phys-schost# showrev -p |
(Facultatif) Activez la réinitialisation de nœud automatique en cas d'échec de tous les chemins de disques contrôlés.
Activez la fonctionnalité de réinitialisation automatique.
phys-schost# clnode set -p reboot_on_path_failure=enabled |
Indique la propriété à définir.
Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.
Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
Si vous envisagez d'utiliser Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, assurez-vous que le système de fichiers loopback (LOFS) est désactivé.
Pour désactiver le LOFS, ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster.
exclude:lofs |
La modification apportée au fichier /etc/system est effective après une réinitialisation du système.
Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS. Si vous choisissez d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité, vous devez apporter l'une des modifications de configuration suivantes.
Toutefois, si vous configurez des zones non globales dans votre cluster, vous devez activer le LOFS sur tous les nœuds du cluster. Si Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité doit coexister avec le LOFS, utilisez une autre solution que la désactivation du LOFS.
Désactivez le LOFS.
Désactivez le démon automountd.
Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.
Reportez-vous à la rubrique The Loopback File System du System Administration Guide: Devices and File System (Solaris 9 ou Solaris 10) pour plus d'informations sur les systèmes de fichiers.
L'exemple suivant montre le nœud phys-schost-3 ajouté au cluster schost. Le noeud parrain est phys-schost-1.
*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 PST 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 -m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2 Checking device to use for global devices file system ... done Adding node "phys-schost-3" to the cluster configuration ... done Adding adapter "qfe2" to the cluster configuration ... done Adding adapter "qfe3" to the cluster configuration ... done Adding cable to the cluster configuration ... done Adding cable to the cluster configuration ... done Copying the config from "phys-schost-1" ... done Copying the postconfig file from "phys-schost-1" if it exists ... done Copying the Common Agent Container keys from "phys-schost-1" ... done Setting the node ID for "phys-schost-3" ... done (id=1) Setting the major number for the "did" driver ... Obtaining the major number for the "did" driver from "phys-schost-1" ... done "did" driver major number set to 300 Checking for global devices global file system ... done Updating vfstab ... done Verifying that NTP is configured ... done Initializing NTP configuration ... done Updating nsswitch.conf ... done Adding clusternode entries to /etc/inet/hosts ... done Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files Updating "/etc/hostname.hme0". Verifying that power management is NOT configured ... done Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done The "local-mac-address?" parameter setting has been changed to "true". Ensure network routing is disabled ... done Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done Updating file ("hosts") on node phys-schost-1 ... done Rebooting ... |
Configuration non réussie : si un ou plusieurs nœuds ne parviennent pas à fusionner avec le cluster ou si des informations de configuration incorrectes ont été indiquées, essayez tout d'abord d'exécuter de nouveau cette procédure. Si cela ne permet pas de corriger le problème, effectuez la procédure de la section Annulation de la configuration du logiciel Sun Cluster pour corriger les problèmes d'installation sur chaque nœud incorrectement configuré pour le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages Sun Cluster. Ensuite, exécutez de nouveau cette procédure.
Si vous avez ajouté un nœud à un cluster existant qui utilise un périphérique de quorum, reportez-vous à la rubrique Procédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster.
Sinon, reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.
Suivez cette procédure pour configurer un nouveau nœud de cluster à l'aide d'un fichier XML de configuration du cluster. Le nouveau nœud peut être une duplication d'un nœud de cluster existant exécutant le logiciel Sun Cluster 3.2.
Cette procédure configure les composants de cluster suivants sur le nouveau nœud :
Appartenance au nœud de cluster
interconnexion de clusters ;
Périphériques globaux
Effectuez les tâches suivantes :
Vérifiez que la version de Solaris installée prend en charge le logiciel Sun Cluster.
Si le logiciel Solaris est déjà installé sur le noeud, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.
Vérifiez que les packages du logiciel Sun Cluster et les patchs nécessaires sont installés sur le nœud. Reportez-vous à la rubrique Installation de la structure de Sun Cluster et des packages du logiciel du service de données .
Vérifiez que le cluster est préparé pour l'ajout d'un nouveau nœud. Reportez-vous à la rubrique Procédure de préparation du cluster pour d'autres nœuds de cluster.
Vérifiez que le logiciel Sun Cluster 3.2 n'est pas déjà configuré sur l'éventuel nœud à ajouter à un cluster.
Prenez le rôle de superutilisateur sur l'éventuel nœud.
Déterminez si le logiciel Sun Cluster 3.2 est configuré sur l'éventuel nœud.
phys-schost-new# /usr/sbin/clinfo -n |
En cas d'échec de la commande, reportez-vous à l'Étape 2.
Le logiciel Sun Cluster 3.2 n'est pas encore configuré sur le nœud. Vous pouvez ajouter l'éventuel nœud au cluster.
Si la commande renvoie un numéro d'ID de nœud, passez à l'Étape c.
Le logiciel Sun Cluster est déjà configuré sur le nœud. Avant d'ajouter un nœud à un autre cluster, supprimez les informations de configuration du cluster existantes.
Initialisez l'éventuel nœud en mode non cluster.
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot -x |
Sur les systèmes x86, exécutez les commandes suivantes :
Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.
Le menu GRUB qui s'affiche est similaire à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.
Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.
L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu. |
Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x |
Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.
L'écran affiche la commande modifiée.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.- |
Saisissez b pour initialiser le nœud en mode non cluster.
Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour effectuer un démarrage en mode non-cluster, exécutez à nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.
Annulez la configuration du logiciel Sun Cluster de l'éventuel nœud.
phys-schost-new# /usr/cluster/bin/clnode remove |
Si vous dupliquez un nœud exécutant le logiciel Sun Cluster 3.2, créez un fichier XML de configuration du cluster.
Prenez le rôle de superutilisateur sur le nœud du cluster que vous souhaitez dupliquer.
Exportez les informations de configuration du nœud existant dans un fichier.
phys-schost# clnode export -o clconfigfile |
Indique la destination de sortie.
Le nom du fichier XML de configuration du cluster. Le nom de fichier spécifié peut être un fichier existant ou un nouveau créé par la commande.
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
Copiez le fichier XML de configuration du cluster dans l'éventuel nœud que vous configurerez comme nouveau nœud de cluster.
Prenez le rôle de superutilisateur sur l'éventuel nœud.
Si nécessaire, modifiez le fichier XML de configuration du cluster.
Ouvrez le fichier XML de configuration du cluster pour l'éditer.
Si vous dupliquez un nœud de cluster existant, ouvrez le fichier créé à l'aide de la commande clnode export.
Si vous ne dupliquez pas un nœud de cluster existant, créez un nouveau fichier.
Basez le fichier sur la hiérarchie d'éléments illustrée à la page de manuel clconfiguration(5CL). Vous pouvez stocker le fichier dans un quelconque répertoire.
Modifiez les valeurs des éléments XML pour reproduire la configuration du nœud à créer.
Reportez-vous à la page de manuel clconfiguration(5CL) pour plus d'informations sur la structure et le contenu du fichier XML de configuration du cluster.
Validez le fichier XML de configuration du cluster.
phys-schost-new# xmllint --valid --noout clconfigfile |
Configurez le nouveau nœud de cluster.
phys-schost-new# clnode add -n sponsornode -i clconfigfile |
Indique le nom d'un membre de cluster existant destiné à agir comme sponsor du nouveau nœud.
Indique le nom du fichier XML de configuration du cluster à utiliser comme source d'entrée.
(Facultatif) Activez la réinitialisation de nœud automatique en cas d'échec de tous les chemins de disques contrôlés.
Activez la fonctionnalité de réinitialisation automatique.
phys-schost# clnode set -p reboot_on_path_failure=enabled |
Indique la propriété à définir.
Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.
Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
Configuration non réussie : si un ou plusieurs nœuds ne parviennent pas à fusionner avec le cluster ou si des informations de configuration incorrectes ont été indiquées, essayez tout d'abord d'exécuter de nouveau cette procédure. Si cela ne permet pas de corriger le problème, effectuez la procédure de la section Annulation de la configuration du logiciel Sun Cluster pour corriger les problèmes d'installation sur chaque nœud incorrectement configuré pour le supprimer de la configuration du cluster. Il n'est pas nécessaire de désinstaller les packages Sun Cluster. Ensuite, exécutez de nouveau cette procédure.
Si vous avez ajouté un nœud à un cluster qui utilise un périphérique de quorum, reportez-vous à la rubrique Procédure de mise à jour de périphériques de quorum après l'ajout d'un nœud à un cluster.
Sinon, reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.
Si vous avez ajouté un nœud à un cluster, vous devez mettre à jour les informations de configuration des périphériques de quorum, que ce soit des périphériques SCSI, NAS, un serveur de quorum ou une combinaison de ceux-ci. Pour cela, supprimez tous les périphériques de quorum et mettez à jour l'espace de noms de périphériques globaux. Facultativement, vous pouvez reconfigurer les périphériques de quorum que vous souhaitez continuer à utiliser. Ceci permet d'enregistrer le nouveau nœud avec chaque périphérique de quorum, qui peut alors recalculer son nombre de votes en fonction du nouveau nombre de nœuds du cluster.
Tout nouveau périphérique de quorum SCSI configuré sera défini sur des réservations SCSI-3.
Assurez-vous de l'installation du logiciel Sun Cluster sur le nœud ajouté.
Prenez le rôle de superutilisateur sur un nœud du cluster.
Affichez la configuration actuelle de quorum.
Le résultat de la commande répertorie chaque périphérique de quorum et chaque nœud. L'exemple suivant montre le périphérique de quorum SCSI actuel, d3.
phys-schost# clquorum list d3 … |
Notez le nom de chaque périphérique de quorum répertorié.
Supprimez le périphérique initial de quorum.
Effectuez cette étape pour chaque périphérique de quorum configuré.
phys-schost# clquorum remove devicename |
Indique le nom du périphérique de quorum.
Assurez-vous de la suppression de tous les périphériques initiaux de quorum.
Si la suppression des périphériques de quorum réussit, aucun périphérique de quorum n'est répertorié.
phys-schost# clquorum status |
Mettez à jour l'espace de noms de périphériques globaux.
phys-schost# cldevice populate |
Cette étape est nécessaire pour éviter un éventuel échec de nœud.
Sur chaque nœud, vérifiez que la commande cldevice populate s'est exécutée convenablement avant d'ajouter un périphérique de quorum.
La commande cldevice populate est exécutée à distance sur tous les nœuds, bien que la commande soit émise depuis un seul nœud. Pour savoir si la commande cldevice populate s'est exécutée convenablement, exécutez la commande suivante sur chaque nœud du cluster.
phys-schost# ps -ef | grep scgdevs |
(Facultatif) Ajoutez un périphérique de quorum.
Vous pouvez configurer le périphérique initialement défini comme étant de quorum ou choisir un autre périphérique partagé.
(Facultatif) Si vous optez pour la dernière solution, affichez tous les périphériques contrôlés par le système.
Dans le cas contraire, passez à l'Étape c.
phys-schost# cldevice list -v |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … |
À partir du résultat, choisissez un périphérique partagé.
Configurez-le comme périphérique de quorum.
phys-schost# clquorum add -t type devicename |
Indique le type du périphérique de quorum. Si cette option n'est pas spécifiée, le type par défaut scsi est utilisé.
Répétez l'étape pour chaque périphérique de quorum à configurer.
Vérifiez la configuration du nouveau quorum.
phys-schost# clquorum list |
Le résultat doit répertorier chaque périphérique de quorum et chaque nœud.
L'exemple suivant identifie le périphérique de quorum SCSI d'origine d2, le supprime, répertorie les périphériques partagés disponibles, met à jour l'espace de noms de périphériques globaux, configure d3 en tant que nouveau périphérique de quorum SCSI et vérifie le nouveau périphérique.
phys-schost# clquorum list d2 phys-schost-1 phys-schost-2 phys-schost# clquorum remove d2 phys-schost# clquorum status … --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- … d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … phys-schost# cldevice populate phys-schost# ps -ef - grep scgdevs phys-schost# clquorum add d3 phys-schost# clquorum list d3 phys-schost-1 phys-schost-2 |
Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.
il est inutile de configurer les périphériques de quorum dans les circonstances suivantes :
Vous avez choisi la configuration de quorum automatique au cours de la configuration du logiciel Sun Cluster.
Vous avez installé un cluster à nœud unique.
Vous avez ajouté un nœud à un cluster existant et un nombre suffisant de votes de quorum est déjà assigné.
Passez plutôt à la rubrique Vérification de la configuration de quorum et du mode d'installation.
Suivez cette procédure une seule fois, après la formation complète du cluster. Elle permet d'assigner des votes de quorum, puis de mettre le cluster hors mode d'installation.
Effectuez les préparations suivantes pour configurer un serveur de quorum ou un périphérique NAS en tant que périphérique de quorum.
Pour configurer un serveur de quorum en tant que périphérique de quorum, procédez comme suit :
Installez le logiciel Serveur de quorum Sun Cluster sur la machine hôte du serveur de quorum et démarrez le serveur de quorum. Pour plus d'informations sur l'installation et le démarrage du serveur de quorum, reportez-vous au Sun Cluster Quorum Server User’s Guide.
Veillez à ce que les commutateurs réseau directement connectés aux nœuds du cluster répondent aux critères suivants :
Le commutateur prend en charge le protocole RSTP (Rapid Spanning Tree Protocol).
Le mode de port rapide est activé sur le commutateur.
L'une de ces fonctions est nécessaire pour assurer la communication immédiate entre les nœuds du cluster et le serveur de quorum. Si cette communication est retardée de manière significative par le commutateur, le cluster interprète cet obstacle à la communication comme une perte du périphérique de quorum.
Ayez à disposition les informations suivantes :
Un nom à attribuer au périphérique de quorum configuré.
L'adresse IP de la machine hôte du serveur de quorum.
Le numéro de port du serveur de quorum.
Pour configurer un périphérique de stockage réseau Network Appliance (NAS) en tant que périphérique de quorum, procédez comme suit :
Installez le matériel et le logiciel du périphérique NAS. Reportez-vous au Chapitre 1, Installing and Maintaining Network Appliance Network-Attached Storage Devices in a Sun Cluster Environment du Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS et à la documentation de votre périphérique pour connaître les exigences et procédures d'installation du matériel et logiciel NAS.
Ayez à disposition les informations suivantes :
Nom du périphérique NAS
LUN du périphérique NAS
Pour obtenir plus d'informations sur la création et la configuration d'un périphérique NAS ou d'un LUN Network Appliance, reportez-vous à la documentation Network Appliance suivante. Les documents ci-après se trouvent également à l'adresse suivante : http://now.netapp.com.
Tâche |
Documentation Network Appliance |
---|---|
Configuration d'un périphérique NAS |
System Administration File Access Management Guide |
Configuration d'un LUN |
Host Cluster Tool for Unix Installation Guide |
Installation du logiciel ONTAP |
Software Setup Guide, Upgrade Guide |
Exportation des volumes du cluster |
Data ONTAP Storage Management Guide |
Installation des packages du logiciel de prise en charge NAS sur les nœuds de cluster |
Rendez-vous sur le site http://now.netapp.com. Accédez à la page de téléchargement des logiciels, puis téléchargez le document Host Cluster Tool for Unix Installation Guide. |
Pour utiliser un serveur de quorum en tant que périphérique de quorum, préparez le cluster à communiquer avec le serveur de quorum.
Si le réseau public utilise des sous-réseaux à longueur variable, méthode appelée également CIDR (Classless Inter-Domain Routing, routage inter-domaine sans classe), modifiez les fichiers suivants sur chaque nœud.
Si vous utilisez des sous-réseaux à classes, comme défini dans la norme RFC 791, il n'est pas nécessaire d'exécuter ces étapes.
Ajoutez au fichier /etc/inet/netmasks une entrée pour chaque sous-réseau public utilisé par le cluster.
Ci-après figure un exemple d'entrée contenant une adresse IP de réseau public et un masque de réseau :
10.11.30.0 255.255.255.0 |
Ajoutez netmask + broadcast + à l'entrée du nom d'hôte dans chaque fichier /etc/hostname.adapter.
nodename netmask + broadcast + |
Veillez à ce que l'adresse IP du serveur de quorum figure dans le fichier /etc/inet/hosts ou /etc/inet/ipnodes sur chaque nœud du cluster.
Si vous utilisez un service d'attribution de noms, veillez à ce que le serveur de quorum figure dans les mappages nom-adresse.
Prenez le rôle de superutilisateur sur un nœud.
Pour utiliser un disque SCSI partagé en tant que périphérique de quorum, vérifiez la connexion aux nœuds de cluster et choisissez le périphérique à configurer.
Sur un nœud du cluster, affichez une liste de tous les périphériques vérifiés par le système.
Vous n'avez pas besoin d'être connecté en tant que superutilisateur pour exécuter cette commande.
phys-schost-1# cldevice list -v |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
DID Device Full Device Path ---------- ---------------- d1 pcircinus1:/dev/rdsk/c0t0d0 d2 pcircinus1:/dev/rdsk/c0t6d0 d3 pcircinus2:/dev/rdsk/c1t1d0 d3 pcircinus1:/dev/rdsk/c1t1d0 … |
Vérifiez que le résultat contient toutes les connexions entre les nœuds de cluster et les périphériques de stockage.
Déterminez le nom de l'ID de périphérique (IDP) global de chaque disque partagé que vous allez configurer en tant que périphérique de quorum.
tous les disques partagés sélectionnés doivent être qualifiés pour être utilisés en tant que périphériques de quorum. Reportez-vous à la rubrique Périphériques de quorum pour obtenir plus d'informations sur le choix des périphériques de quorum.
Utilisez le résultat scdidadm de l'Étape a pour identifier le périphérique (nom de chaque disque partagé à configurer en tant que périphérique de quorum). Par exemple, le résultat de l'Étape a indique que le périphérique global d2 est partagé par phys-schost-1 et phys-schost-2.
phys-schost# clsetup |
L'écran Configuration initiale du cluster apparaît.
si le logiciel affiche le menu principal à la place de cet écran, cela signifie que la configuration initiale du cluster a déjà été effectuée avec succès. Passez à l'Étape 9.
Répondez à l'invite Voulez-vous ajouter des disques de quorum ?.
Indiquez le type du périphérique à définir comme étant de quorum.
Indiquez le nom du périphérique à définir comme étant de quorum.
Pour un serveur de quorum, spécifiez également les informations suivantes :
L'adresse IP de l'hôte du serveur de quorum.
Le numéro de port utilisé par le serveur de quorum pour communiquer avec les nœuds de cluster.
Pour un périphérique NAS Network Appliance, indiquez également les informations suivantes :
Nom du périphérique NAS
LUN du périphérique NAS
À l'invite Acceptez-vous de réinitialiser installmode ?, entrez Yes.
Une fois que l'utilitaire clsetup a défini les configurations de quorum et le nombre de votes du cluster, le message L'initialisation du cluster est terminée. s'affiche. L'utilitaire vous renvoie au Menu principal.
Quittez l'utilitaire clsetup.
Vérifiez la configuration du quorum et la désactivation du mode d'installation. Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation.
Traitement clsetup interrompu : si le processus de configuration du quorum est interrompu ou échoue, réexécutez clsetup.
Changement du nombre de votes de quorum - Si vous augmentez/diminuez ultérieurement le nombre de raccordements de nœud à un périphérique de quorum, le nombre de votes de quorum n'est pas recalculé automatiquement. Vous pouvez redéfinir le nombre de votes de quorum approprié en supprimant chacun des périphériques de quorum, puis en les ajoutant de nouveau un par un. Lorsqu'il s'agit d'un cluster à deux nœuds, vous devez temporairement ajouter un nouveau périphérique de quorum avant de supprimer et de rajouter le périphérique d'origine. Supprimez ensuite le périphérique temporaire. Reportez-vous à la procédure de modification de la liste de nœuds d'un périphérique de quorum au Chapitre 6, Administering Quorum du Sun Cluster System Administration Guide for Solaris OS.
Cette procédure permet de vérifier que la configuration de quorum a réussi et que le mode d'installation du cluster est désactivé.
Vous n'avez pas besoin d'être un superutilisateur pour exécuter ces commandes.
À partir d'un noeud quelconque, vérifiez la configuration de quorum des périphériques et des noeuds.
phys-schost% clquorum list |
Le résultat répertorie chaque périphérique de quorum et chaque nœud.
Dans tous les nœuds, vérifiez que le mode d'installation cluster est désactivé.
phys-schost% cluster show -t global | grep installmode installmode: disabled |
L'installation du cluster est terminée.
Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.
Si vous souhaitez changer un nom d'hôte privé, reportez-vous à la rubrique Modification des noms d'hôtes privés.
Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol).
Pour installer un gestionnaire de volumes, reportez-vous au Chapitre 4, Configuration du logiciel Solaris Volume Manager et au Chapitre 5, Installation et configuration de VERITAS Volume Manager pour installer un logiciel de gestion de volumes.
Si vous avez ajouté un nouveau nœud à un cluster utilisant VxVM, vous devez effectuer l'une des tâches suivantes :
installer VxVM sur ce nœud ou
modifier le fichier /etc/name_to_major de ce nœud à des fins de coexistence avec VxVM.
Suivez les procédures de la section Installation du logiciel VERITAS Volume Manager pour effectuer l'une de ces tâches requises.
Pour créer des fichiers de système de cluster, reportez-vous à la rubrique Création de systèmes de fichiers de cluster.
Pour créer des zones non globales sur un nœud, reportez-vous à la rubrique Création d'une zone non globale sur un nœud de cluster.
SPARC : pour surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center.
Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Procédez à la sauvegarde de votre configuration de cluster.
Si vous effectuez une sauvegarde archivée de votre configuration de cluster, vous pourrez la récupérer plus facilement en cas de problème.
Pour plus d'informations, reportez-vous à la section How to Back Up the Cluster Configuration du Sun Cluster System Administration Guide for Solaris OS.
Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôtes privés par défaut (nœud de clusternodeid-priv) affectés lors de l'installation du logiciel Sun Cluster.
vous ne devez pas exécuter cette procédure après la configuration et le démarrage d'applications et des services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'hôte privé après renommage de celui-ci, entraînant ainsi des conflits de noms d'hôtes. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.
Effectuez cette procédure sur un nœud actif du cluster.
Connectez-vous en tant que superutilisateur sur un noeud du cluster.
phys-schost# clsetup |
Le menu principal clsetup s'affiche.
Saisissez le numéro correspondant à l'option des noms d'hôtes privés, puis appuyez sur la touche Retour.
Le menu Nom d'hôte privé apparaît.
Saisissez le numéro correspondant à l'option de modification d'un nom d'hôte privé, puis appuyez sur la touche Retour.
Suivez les invites pour modifier le nom d'hôte privé.
Répétez cette opération pour chaque nom d'hôte privé à modifier.
Vérifiez les nouveaux noms d'hôtes privés.
phys-schost# clnode show -t node | grep privatehostname privatehostname: clusternode1-priv privatehostname: clusternode2-priv privatehostname: clusternode3-priv |
Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.
Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol).
Pour installer un gestionnaire de volumes, reportez-vous au Chapitre 4, Configuration du logiciel Solaris Volume Manager et au Chapitre 5, Installation et configuration de VERITAS Volume Manager pour installer un logiciel de gestion de volumes.
Si vous avez ajouté un nouveau nœud à un cluster utilisant VxVM, vous devez effectuer l'une des tâches suivantes :
installer VxVM sur ce nœud ou
modifier le fichier /etc/name_to_major de ce nœud à des fins de coexistence avec VxVM.
Suivez les procédures de la section Installation du logiciel VERITAS Volume Manager pour effectuer l'une de ces tâches requises.
Pour créer des fichiers de système de cluster, reportez-vous à la rubrique Création de systèmes de fichiers de cluster.
Pour créer des zones non globales sur un nœud, reportez-vous à la rubrique Création d'une zone non globale sur un nœud de cluster.
SPARC : pour surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center.
Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
si vous avez installé votre propre fichier /etc/inet/ntp.conf avant le logiciel Sun Cluster, vous n'êtes pas obligé d'effectuer cette procédure. Déterminez l'étape suivante :
Créez ou modifiez le fichier de configuration NTP après avoir effectué l'une des tâches suivantes :
Installez le logiciel Sun Cluster.
Ajoutez un nœud à un cluster existant.
Changez le nom d'hôte privé d'un nœud de cluster.
Si vous avez ajouté un nœud à un cluster à un nœud, vous devez vérifier que le fichier de configuration NTP utilisé est copié sur le nœud de cluster initial et sur le nouveau.
la principale exigence lorsque vous configurez NTP, ou tout autre utilitaire de synchronisation, est que tous les noeuds de cluster soient synchronisés à la même heure. La précision de l'heure sur les nœuds individuels est secondaire par rapport à l'importance de la synchronisation de l'heure sur tous les nœuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.
Reportez-vous au Sun Cluster Concepts Guide for Solaris OS pour obtenir plus d'informations sur l'heure du cluster. Reportez-vous au fichier /etc/inet/ntp.cluster pour obtenir des recommandations supplémentaires sur la configuration de NTP pour configurer Sun Cluster.
Connectez-vous en tant que superutilisateur sur un noeud du cluster.
Si vous disposez d'un fichier /etc/inet/ntp.conf propre, copiez-le dans chaque nœud du cluster.
Si vous n'installez pas votre propre fichier /etc/inet/ntp.conf, utilisez le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP.
ne renommez pas le fichier ntp.conf.cluster en tant que ntp.conf.
Si /etc/inet/ntp.conf.cluster n'existe pas sur le nœud, il se peut que vous ayez un fichier /etc/inet/ntp.conf provenant d'une installation antérieure du logiciel Sun Cluster. Le logiciel Sun Cluster crée le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP si un fichier /etc/inet/ntp.conf n'est pas déjà présent sur le nœud. Dans ce cas, effectuez les modifications suivantes sur ce fichier ntp.conf.
Utilisez l'éditeur de texte de votre choix pour ouvrir le fichier de configuration NTP à modifier sur un nœud de cluster.
Assurez-vous qu'il existe une entrée pour le nom d'hôte privé de chaque noeud de cluster.
Si vous avez modifié le nom d'hôte privé d'un noeud, veillez à ce que le fichier de configuration NTP contienne le nouveau nom d'hôte privé.
Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.
Copiez le fichier de configuration NTP sur tous les noeuds du cluster.
Le contenu du fichier de configuration NTP doit être identique sur tous les noeuds du cluster.
Arrêtez le démon NTP sur chaque nœud.
Attendez la fin de la commande sur chaque nœud avant de passer à l'Étape 5.
SPARC : Sous Solaris 9, utilisez la commande suivante :
phys-schost# /etc/init.d/xntpd stop |
Sous Solaris 10, utilisez la commande suivante :
phys-schost# svcadm disable ntp |
Redémarrez le démon NTP sur chaque noeud.
Si vous utilisez le fichier ntp.conf.cluster, exécutez la commande suivante :
phys-schost# /etc/init.d/xntpd.cluster start |
Le script de démarrage xntpd.cluster recherche tout d'abord le fichier /etc/inet/ntp.conf.
Si le fichier ntp.conf existe, le script s'arrête immédiatement, sans lancer le démon NTP.
Si le fichier ntp.conf n'existe pas alors que ntp.conf.cluster existe, le script lance le démon NTP. Dans ce cas, le script utilise le fichier ntp.conf.cluster comme fichier de configuration NTP.
Si vous utilisez le fichier ntp.conf, exécutez l'une des commandes suivantes :
SPARC : Sous Solaris 9, utilisez la commande suivante :
phys-schost# /etc/init.d/xntpd start |
Sous Solaris 10, utilisez la commande suivante :
phys-schost# svcadm enable ntp |
Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.
Pour installer un gestionnaire de volumes, reportez-vous au Chapitre 4, Configuration du logiciel Solaris Volume Manager et au Chapitre 5, Installation et configuration de VERITAS Volume Manager pour installer un logiciel de gestion de volumes.
Si vous avez ajouté un nouveau nœud à un cluster utilisant VxVM, vous devez effectuer l'une des tâches suivantes :
installer VxVM sur ce nœud ou
modifier le fichier /etc/name_to_major de ce nœud à des fins de coexistence avec VxVM.
Suivez les procédures de la section Installation du logiciel VERITAS Volume Manager pour effectuer l'une de ces tâches requises.
Pour créer des fichiers de système de cluster, reportez-vous à la rubrique Création de systèmes de fichiers de cluster.
Pour créer des zones non globales sur un nœud, reportez-vous à la rubrique Création d'une zone non globale sur un nœud de cluster.
SPARC : pour surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center.
Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.