Ce chapitre fournit des procédures pour l'installation et la configuration de votre cluster. Vous pouvez aussi utiliser ces procédures pour ajouter un nouveau nœud à un cluster existant. Ce chapitre comporte également les procédures de désinstallation de certains logiciels de cluster.
Ce chapitre comprend les rubriques suivantes :
Cette rubrique fournit des informations et des procédures d'installation du logiciel sur les nœuds du cluster.
Le plan des tâches ci-dessous répertorie les procédures d'installation du logigiel sur un ou plusieurs nœuds de cluster. Effectuez les procédures dans l'ordre indiqué.
Tableau 2–1 Plan des tâches : Installation du logiciel
Tâche |
Instructions |
---|---|
1. Planification de la disposition de votre cluster et préparation à l'installation du logiciel. | |
2. (Facultatif) Installation du logiciel CCP (Cluster Control Panel) sur la console administrative. |
Procédure d'installation du logiciel Cluster Control Panel sur une console administrative |
3. Installation du système d'exploitation Solaris sur tous les nœuds. | |
4. (Facultatif) SPARC : installation de Sun StorEdge Traffic Manager. | |
5. (Facultatif) SPARC : installation de Système de fichiers VERITAS. |
SPARC : installation du logiciel Système de fichiers VERITAS |
6. Installation des packages Sun Cluster et des services de données Java System de Sun sous Solaris 8 ou Solaris 9. | |
7. Définition du chemin d'accès aux répertoires. | |
8. Ajout de clusters ou de nœuds. |
Avant de commencer à installer le logiciel, effectuez les préparations suivantes :
Vérifiez que la version de Sun Cluster prend en charge le matériel et le logiciel choisis pour la configuration de votre cluster.
Contactez votre représentant commercial Sun pour obtenir les dernières informations sur les configurations de cluster prises en charge.
Consultez les manuels suivants pour obtenir des informations qui vous aideront à planifier la configuration de votre cluster et à préparer votre stratégie d'installation.
Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris : restrictions, patchs et autres informations de dernière minute.
Sun Cluster 3.0-3.1 Release Notes Supplement : documentation après diffusion présentant d'autres restrictions, de nouveaux patchs, de nouvelles fonctions et d'autres informations de dernière minute. Ce document est régulièrement mis à jour et publié en ligne sur le site Internet suivant :
Présentation de Sun Cluster pour SE Solaris et Guide des notions fondamentales de Sun Cluster pour SE Solaris : présentation de Sun Cluster.
Guide d'installation du logiciel Sun Cluster pour SE Solaris (ce manuel) : recommandations en matière de planification et procédures d'installation et de configuration de Solaris, de Sun Cluster et du logiciel de gestion des volumes.
Sun Cluster Data Services Planning and Administration Guide for Solaris OS : recommandations en matière de planification et procédures d'installation et de configuration des services de données.
Ayez sous la main toute la documentation connexe, y compris celle de tiers.
Voici une liste partielle de la documentation produit dont vous pourriez avoir besoin comme référence pendant l'installation du cluster :
Les SE Solaris
logiciel Solstice DiskSuite ou Solaris Volume Manager ;
logiciel Sun StorEdge QFS ;
SPARC : VERITAS Volume Manager
SPARC : Sun Management Center ;
applications de fournisseurs tiers.
Planifiez la configuration de votre cluster.
planifiez complètement l'installation de votre cluster. Identifiez les exigences de tous les services de données et des produits tiers avant de commencer l'installation de Solaris et de Sun Cluster. Le non-respect de cette consigne peut entraîner des erreurs d'installation qui nécessiteraient la réinstallation complète des logiciels Solaris et Sun Cluster.
Par exemple, l'option Oracle Real Application Clusters Guard de Oracle Real Application Clusters impose certaines exigences aux noms d'hôtes utilisés dans le cluster. Sun Cluster HA pour SAP impose également certaines exigences. Vous devez prendre connaissance de ces contraintes avant de procéder à l'installation du logiciel Sun Cluster, les noms d'hôtes ne pouvant être modifiés après l'installation.
Notez également que l'utilisation de Oracle Real Application Clusters et de Sun Cluster HA pour SAP n'est pas prise en charge par les clusters basés sur x86.
Suivez la procédure de planification du Chapitre 1, Planification de la configuration Sun Cluster et du document Sun Cluster Data Services Planning and Administration Guide for Solaris OS pour déterminer le mode d'installation et de configuration de votre cluster.
Remplissez les fiches relatives à la structure du cluster et à la configuration des services de données mentionnées dans les recommandations en matière de planification. Utilisez les fiches remplies comme référence durant l'installation et la configuration.
Procurez-vous tous les patchs nécessaires pour votre configuration de cluster.
Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.
Copiez les patchs requis pour Sun Cluster dans un répertoire unique.
Ce dernier doit se trouver dans un système de fichiers accessible à tous les nœuds. Le répertoire des patchs par défaut est le suivant : /var/cluster/patches.
une fois que vous avez installé le logiciel Solaris sur un nœud, vous pouvez afficher le fichier /etc/release pour voir quelle est la version exacte du logiciel Solaris installée.
(Facultatif) Si vous utilisez le programme d'installation SunPlex, vous pouvez créer un fichier de liste des patchs.
Si vous indiquez un fichier de liste des patchs, le programme d'installation SunPlex installe seulement les patchs indiqués dans celui-ci. Pour plus d'informations sur la création d'un fichier de liste des patchs, reportez-vous à la page de manuel patchadd(1M).
Notez le chemin du répertoire de patchs.
Si vous souhaitez utiliser le logiciel Cluster Control Panel pour connecter une console administrative à vos nœuds de cluster, reportez-vous à la rubrique Procédure d'installation du logiciel Cluster Control Panel sur une console administrative .
Dans le cas contraire, choisissez la méthode d'installation Solaris à utiliser.
Si vous envisagez d'installer Sun Cluster à l'aide de l'utilitaire scinstall(1M) (méthode à base de texte) ou du programme d'installation SunPlex (utilisation d'une interface utilisateur graphique), commencez par suivre la procédure de la rubrique Installation du logiciel Solaris .
Si vous envisagez d'installer Solaris et Sun Cluster simultanément (méthode JumpStart), reportez-vous à la rubrique Installation de Solaris et du logiciel Sun Cluster (JumpStart) .
vous n'êtes pas obligé d'utiliser une console administrative. Si vous n'en utilisez pas, effectuez les tâches administratives à partir d'un nœud désigné dans le cluster.
Cette procédure explique comment installer le logiciel CCP (Cluster Control Panel) sur une console administrative. Le CCP offre une interface unique de lancement des outils cconsole(1M), ctelnet(1M) et crlogin(1M). Chacun de ces outils fournit une connexion à fenêtres multiples à un ensemble de nœuds, ainsi qu'une fenêtre ordinaire. Vous pouvez utiliser la fenêtre ordinaire pour envoyer simultanément des entrées vers tous les nœuds.
Vous pouvez utiliser n'importe quel ordinateur de bureau fonctionnant avec le système d'exploitation Solaris 8 ou Solaris 9 en tant que console administrative. Vous pouvez également utiliser la console administrative comme serveur de documentation. Si vous utilisez Sun Cluster sur un système SPARC, vous pouvez également utiliser la console administrative comme console Sun Management Center ou comme serveur. Reportez-vous à la documentation de Sun Management Center pour obtenir des informations sur l'installation du logiciel Sun Management Center. Reportez-vous au manuel Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris pour obtenir plus d'informations sur l'installation de la documentation Sun Cluster.
Assurez-vous qu'une version du système d'exploitation Solaris prise en charge ainsi que des patchs Solaris sont installés sur la console administrative. Toutes les plates-formes requièrent au minimum le End User Solaris Software Group.
Devenez superutilisateur de la console administrative.
Insérez le CD 2 de Sun Cluster dans le lecteur de CD de la console administrative.
Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il soit configuré pour gérer les périphériques de CD-ROM, il monte automatiquement le CD-ROM sur le répertoire /cdrom/cdrom0/.
Déplacez-vous sur répertoire Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/, où arch représente sparc ou x86 et ver correspond à 8 pour Solaris 8, 9 pour Solaris 9 ou 10 pour Solaris 10 .
# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ |
Installez le package SUNWccon.
# pkgadd -d . SUNWccon |
(Facultatif) Installez le package SUNWscman.
# pkgadd -d . SUNWscman |
L'installation du package SUNWscman sur la console administrative vous permet de visualiser les pages man de Sun Cluster à partir de la console administrative, avant d'installer le logiciel Sun Cluster sur les nœuds de cluster.
(Facultatif) Installez les packages de documentation Sun Cluster.
si vous n'installez pas la documentation sur votre console administrative, vous pouvez toujours visualiser la documentation HTML ou PDF directement à partir du CD. Utilisez un navigateur Web pour afficher le fichier Solaris_arch/Product/sun_cluster/index.html du CD 2 de Sun Cluster (arch représente sparc ou x86).
Déterminez si le package SUNWsdocs est installé sur la console administrative.
# pkginfo | grep SUNWsdocs application SUNWsdocs Documentation Navigation for Solaris 9 |
Dans la négative, vous devez l'installer avant les packages de documentation.
Sélectionnez les packages de documentation Sun Cluster à installer.
Les collections de documentation suivantes sont disponibles aux formats HTML et PDF :
Titre |
Nom du package HTML |
Nom du package PDF |
---|---|---|
Collection Logiciel Sun Cluster 3.1 9/04 pour SE Solaris (édition pour plate-forme SPARC) |
SUNWscsdoc |
SUNWpscsdoc |
Collection Logiciel Sun Cluster 3.1 9/04 pour SE Solaris (édition pour plate-forme x86) |
SUNWscxdoc |
SUNWpscxdoc |
Collection Matériel Sun Cluster 3.x pour SE Solaris (édition pour plate-forme SPARC) |
SUNWschw |
SUNWpschw |
Collection Matériel Sun Cluster 3.x pour SE Solaris (édition pour plate-forme x86) |
SUNWscxhw |
SUNWpscxhw |
Collection Référence Sun Cluster 3.1 9/04 pour SE Solaris |
SUNWscref |
SUNWpscref |
Installez le package SUNWsdocs si nécessaire, ainsi que les packages de documentation Sun Cluster de votre choix.
tous les packages de documentation dépendent du package SUNWsdocs. Avant d'installer un package de documentation, vous devez avoir installé SUNWsdocs sur le système.
# pkgadd -d . SUNWsdocs pkg-list |
Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.
# eject cdrom |
Créez un fichier /etc/clusters sur la console administrative.
Ajoutez à ce fichier le nom de votre cluster et le nom de nœud physique de chaque nœud du cluster.
# vi /etc/clusters clustername node1 node2 |
Reportez-vous à la page de manuel /opt/SUNWcluster/bin/clusters(4) pour obtenir plus d'informations.
Créez un fichier /etc/serialports.
Ajoutez dans ce fichier une entrée pour chaque nœud du cluster. Indiquez le nom du nœud physique, le nom de l'hôte du périphérique d'accès par console et le numéro du port. Le concentrateur de terminal (CT), le SSP (System Service Processor) et le contrôleur de système Sun Fire sont des exemples de périphériques d'accès par console.
# vi /etc/serialports node1 ca-dev-hostname port node2 ca-dev-hostname port |
Noms physiques des nœuds du cluster.
Nom d'hôte du périphérique d'accès par console.
Numéro du port série
Pour créer un fichier /etc/serialports, tenez compte des instructions spéciales suivantes :
Pour un contrôleur de système Sun Fire 15000, utilisez le numéro 23 de port telnet(1) en tant que numéro de port série de chaque entrée.
Pour tous ces périphériques d'accès par console, utilisez le numéro de port série telnet, et non le numéro de port physique. Pour déterminer le numéro de port série telnet, ajoutez 5000 au numéro de port physique. Par exemple, si le numéro d'un port physique est 6, le numéro du port série telnet correspondant est 5006.
Pour les serveurs Sun Enterprise 10000, reportez-vous à la page de manuel /opt/SUNWcluster/bin/serialports(4) pour obtenir des informations spécifiques.
(Facultatif) Par commodité, définissez le chemin d'accès aux répertoires sur la console administrative.
# /opt/SUNWcluster/bin/ccp & |
Cliquez sur le bouton cconsole, crlogin, ou ctelnet de la fenêtre CCP pour lancer cet outil. Vous pouvez également lancer chacun de ces outils directement. Par exemple, pour démarrer ctelnet, entrez la commande suivante :
# /opt/SUNWcluster/bin/ctelnet & |
Reportez-vous à la procédure de connexion distante à Sun Cluster de la rubrique Prémices de l’administration du cluster du Guide d’administration système de Sun Cluster pour SE Solaris pour obtenir plus d'informations sur l'utilisation de CCP. Reportez-vous également à la page de manuel ccp(1M).
Déterminez si le système d'exploitation Solaris répond aux exigences d'installation de Sun Cluster.
Dans l'affirmative, reportez-vous à la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Si le système d'exploitation Solaris ne répond pas aux exigences d'installation de Sun Cluster, installez-le, reconfigurez-le ou réinstallez-le si nécessaire. Reportez-vous à la rubrique Planification du SE Solaris pour obtenir des informations sur les exigences d'installation de Sun Cluster sous Solaris. Pour connaître les procédures d'installation, reportez-vous à la rubrique Installation du logiciel Solaris .
Suivez ces procédures pour installer Solaris sur chaque nœud de cluster ou sur le nœud maître en créant des archives Flash pour JumpStart. Reportez-vous à la rubrique Installation de Solaris et du logiciel Sun Cluster (JumpStart) pour obtenir plus d'informations sur l'installation JumpStart d'un cluster.
pour gagner du temps, vous pouvez installer le système d'exploitation Solaris sur tous les nœuds à la fois.
Si les nœuds sont déjà installés avec le système d'exploitation Solaris mais que vous ne remplissez pas les exigences d'installation de Sun Cluster, vous devrez probablement réinstaller le logiciel Solaris. Veillez à suivre les étapes de cette procédure pour garantir le succès de l'installation du logiciel Sun Cluster. Reportez-vous à la rubrique Planification du SE Solaris pour obtenir des informations sur le partitionnement requis du disque racine et sur d'autres exigences d'installation de Sun Cluster.
Effectuez les tâches suivantes :
Avant d'installer le logiciel Solaris, assurez-vous que l'installation du matériel est terminée et vérifiez les connexions. Reportez-vous au manuel approprié de la Sun Cluster Hardware Administration Collection ainsi qu'à la documentation de votre serveur et de votre périphérique de stockage pour de plus amples informations.
Vérifiez que la planification de configuration de votre cluster est achevée et complète. Reportez-vous à la rubrique Préparation de l'installation du logiciel de cluster pour connaître les exigences et les procédures.
Renseignez la Fiche de travail de configuration des systèmes de fichiers locaux.
Si vous utilisez un service de noms, ajoutez des correspondances adresse-nom pour toutes les adresses logiques et tous les noms d'hôtes publics dans tous les services d'attribution de noms utilisés par les clients pour accéder aux services de cluster. Reportez-vous à la rubrique Adresses IP pour connaître les procédures de planification. Consultez votre administrateur système Solaris pour obtenir des informations sur l'utilisation des services de noms Solaris.
Si vous utilisez une console administrative au niveau du cluster, ouvrez un écran de console pour chaque nœud du cluster.
Si le logiciel Cluster Control Panel (CCP) est installé et configuré sur la console administrative, servez-vous de l'utilitaire cconsole(1M) pour afficher les écrans de console individuels.
Utilisez la commande suivante pour démarrer l'utilitaire cconsole :
# /opt/SUNWcluster/bin/cconsole clustername & |
L'utilitaire cconsole ouvre également une fenêtre principale qui vous permet d'envoyer votre saisie à tous les écrans de console individuels en même temps.
Si vous n'utilisez pas l'utilitaire cconsole, connectez-vous à la console de chaque nœud individuellement.
Installez le système d'exploitation Solaris comme indiqué dans la documentation d'installation de Solaris.
vous devez installer la même version du système d'exploitation Solaris sur tous les nœuds du cluster.
Vous pouvez utiliser toutes les méthodes normalement utilisées lors de l'installation de Solaris, Pendant l'installation du logiciel Solaris, effectuez les opérations suivantes :
Installez au minimum le End User Solaris Software Group.
pour éviter d'avoir à installer manuellement les packages Solaris, installez la prise en charge Entire Solaris Software Group Plus OEM.
Reportez-vous à la rubrique À propos des groupes de logiciels Solaris pour obtenir des informations sur les exigences supplémentaires du logiciel Solaris.
Choisissez Disposition manuelle pour configurer les systèmes de fichiers.
Créez un système de fichiers d'au moins 512 Mo à utiliser par le sous-système du périphérique global.
Si vous envisagez d'utiliser le programme d'installation SunPlex pour installer le logiciel Sun Cluster, vous devez créer le système de fichiers avec un nom de point de montage /globaldevices. Ce point de montage est celui que scinstall utilise par défaut.
un système de fichiers global-devices est nécessaire à la réussite de l’installation du logiciel Sun Cluster.
Indiquez que la taille de la tranche 7 est au moins égale à 20 Mo.
Si vous envisagez d'utiliser le programme d'installation SunPlex pour installer le logiciel Solstice DiskSuite (Solaris 8) ou configurer le logiciel Solaris Volume Manager (Solaris 9 ou Solaris 10), montez également ce système de fichiers sur /sds.
si vous envisagez d'utiliser le programme d'installation SunPlex pour installer Sun Cluster HA pour NFS ou Sun Cluster HA pour Apache, le programme d'installation SunPlex doit également installer le logiciel Solstice DiskSuite (Solaris 8) ou configurer le logiciel Solaris Volume Manager (Solaris 9 ou Solaris 10).
Créez tout autre partitionnement nécessaire de système de fichiers. Pour ce faire, suivez la procédure de la rubrique Partitions du disque système .
Afin de vous faciliter le travail d'administration, définissez le même mot de passe superutilisateur sur chaque nœud.
Si vous ajoutez un nœud à un cluster existant, préparez ce dernier afin qu'il accepte ce nœud.
Sur tout élément actif du cluster, démarrez l'utilitaire scsetup(1M).
# scsetup |
Le menu principal apparaît.
Choisissez l'élément de menu Nouveaux nœuds.
Choisissez l'élément de menu Spécifier le nom d'une machine autorisée à s'auto-ajouter.
Suivez les instructions pour ajouter le nom du nœud à la liste des machines reconnues.
Une fois la tâche terminée sans erreur, l'utilitaire scsetup imprime le message Command completed successfully.
Quittez l'utilitaire scsetup.
Dans le nœud de cluster actif, affichez les noms de tous les systèmes de fichiers du cluster.
% mount | grep global | egrep -v node@ | awk '{print $1}' |
Créez un point de montage sur le nouveau nœud pour chaque système de fichiers du cluster.
% mkdir -p mountpoint |
Si la commande de montage vous renvoie, par exemple, le nom de système de fichiers /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le nœud ajouté au cluster.
Si vous ajoutez un nœud et si VxVM existe sur tous les nœuds de cluster, effectuez les tâches suivantes.
Assurez-vous que le même numéro vxio est utilisé pour les nœuds installés avec VxVM.
# grep vxio /etc/name_to_major vxio NNN |
Assurez-vous également que ce numéro est disponible pour chacun des nœuds installés sans VxVM.
Si le numéro vxio est déjà utilisé sur un nœud non-VxVM, utilisez-en un autre pour l'entrée /etc/name_to_major.
Si vous avez installé le End User Solaris Software Group, utilisez la commande pkgadd pour installer manuellement tout autre package Solaris nécessaire.
Les packages Solaris suivants sont requis pour la prise en charge de certaines fonctions Sun Cluster.
Installez les packages en respectant l'ordre donné dans le tableau suivant.
Fonctionnalité |
Packages Solaris requis |
---|---|
RSMAPI, Pilotes RSMRDT ou adaptateurs SCI-PCI (clusters sous SPARC uniquement) |
Solaris 8 ou Solaris 9 : SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox Solaris 10 : SUNWrsm SUNWrsmo |
Le gestionnaire SunPlex |
SUNWapchr SUNWapchu |
Pour le système d'exploitation Solaris 8 ou Solaris 9, utilisez la commande suivante :
# pkgadd -d . packages |
Pour le système d'exploitation Solaris 10, utilisez la commande suivante :
# pkgadd -G -d . packages |
Vous ne devez ajouter ces packages que dans la zone globale. L'option -G ajoute les packages dans la zone en cours uniquement. Elle ne permet pas aux packages de se propager dans une éventuelle zone non globale existante ou créée ultérieurement.
Installez tous les patchs Solaris requis ainsi que les patchs/ microprogrammes du matériel, notamment ceux de baie de stockage. Téléchargez également tout microprogramme inclus dans les patchs du matériel.
Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.
x86 : Paramétrez le fichier d'initialisation par défaut sur kadb.
# eeprom boot-file=kadb |
La définition de cette valeur vous permet de réinitialiser le nœud si vous n'avez accès à aucune invite de connexion.
Mettez à jour le fichier /etc/inet/hosts sur chaque nœud avec toutes les adresses IP utilisées dans le cluster.
Exécutez cette étape, que vous utilisiez ou non un service d'attribution de noms. Reportez-vous à la rubrique Adresses IP pour obtenir la liste des composants Sun Cluster dont les adresses IP sont à ajouter.
Si vous utilisez les adaptateurs ce pour l'interconnexion de cluster, ajoutez l'entrée suivante dans le fichier /etc/system.
set ce:ce_taskq_disable=1 |
Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système.
(Facultatif) Sur les serveurs Sun Enterprise 10000, définissez le fichier /etc/system pour utiliser la reconfiguration dynamique.
Ajoutez l'entrée suivante dans le fichier /etc/system de chaque nœud de cluster :
set kernel_cage_enable=1 |
Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système. Reportez-vous à la documentation de votre serveur pour de plus amples informations sur la reconfiguration dynamique.
Si vous envisagez d'utiliser le logiciel de multiacheminement Sun, reportez-vous à la rubrique SPARC : Installation du logiciel de multiacheminement Sun .
Si vous envisagez d'installer VxFS, reportez-vous à la rubrique SPARC : installation du logiciel Système de fichiers VERITAS.
Sinon, installez les packages Sun Cluster. Voir Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Reportez-vous au Guide d’administration système de Sun Cluster pour SE Solaris pour connaître les procédures de reconfiguration dynamique dans une configuration Sun Cluster.
Cette procédure à effectuer sur chaque nœud de cluster permet d'installer et de configurer le logiciel de multiacheminement Sun pour le stockage Fiber Channel (FC). Le logiciel de multiacheminement gère plusieurs entrées-sorties du périphérique de stockage de cluster partagé.
Sous Solaris 8 ou Solaris 9, vous installez et configurez le logiciel Sun StorEdge Traffic Manager.
Sous Solaris 10, vous activez la fonction de multiacheminement du système d'exploitation installée par défaut.
Effectuez les tâches suivantes :
Vérifiez que la version de Solaris installée prend en charge le logiciel Sun Cluster.
Si le logiciel Solaris est déjà installé sur le nœud, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.
Pour Solaris 8 ou Solaris 9, gardez à disposition les packages des logiciels, les patchs et la documentation sur les logiciels Sun StorEdge Traffic Manager et Sun StorEdge SAN Foundation. Consultez la page http://www.sun.com/products-n-solutions/hardware/docs/ pour accéder à la documentation.
Pour Solaris 10, gardez à disposition le Solaris Fibre Channel Storage Configuration and Multipathing Administration Guideque vous trouverez à l'adresse http://docs.sun.com/source/819-0139/.
Prenez le rôle de superutilisateur.
Pour Solaris 8 ou Solaris 9, installez le logiciel Sun StorEdge Traffic Manager et tous les patchs nécessaires sur chaque nœud.
Pour connaître la procédure d'installation du logiciel Sun StorEdge Traffic Manager, reportez-vous au Sun StorEdge Traffic Manager Installation and Configuration Guide depuis la page http://www.sun.com/products-n-solutions/hardware/docs/.
Afin d'obtenir la liste des patchs requis pour le logiciel Sun StorEdge Traffic Manager, reportez-vous aux Sun StorEdge Traffic Manager Software Release Notes depuis la page http://www.sun.com/storage/san/.
Activez la fonction de multiacheminement.
Pour Solaris 8 ou 9, remplacez la valeur de mpxio-disable par no.
Modifiez cette entrée dans le fichier /kernel/drv/scsi_vhci.conf de chaque nœud.
set mpxio-disable=no |
Pour Solaris 10, exécutez la commande ci-dessous sur chaque nœud.
si le logiciel Sun Cluster est installé, n'effectuez pas cette opération. L'exécution de la commande stmsboot sur un nœud de cluster actif risque de mettre les services Solaris en état de maintenance. À la place, suivez les instructions d'exécution de stmsboot dans un environnement Sun Cluster de la page de manuel stmsboot(1M).
# /usr/sbin/stmsboot -e |
Active le multiacheminement Solaris
Reportez-vous à la page de manuel stmsboot(1M) pour obtenir plus d'informations.
Pour Solaris 8 ou Solaris 9, déterminez si la version de votre logiciel Sun StorEdge SAN Foundation prend en charge votre baie de stockage.
Dans la négative, ajoutez les entrées nécessaires dans le fichier /kernel/drv/scsi_vhci.conf de chaque nœud. Pour obtenir plus d'informations, reportez-vous aux notes de version de votre périphérique de stockage.
Sous Solaris 8 ou Solaris 9, arrêtez chaque nœud et effectuez une reconfiguration au démarrage.
La reconfiguration au démarrage entraîne la création de liens et de fichiers de périphériques Solaris.
# shutdown -y -g0 -i0 ok boot -r |
Après avoir effectué la reconfiguration au démarrage sur tous les nœuds, exécutez les autres tâches nécessaires à la définition de votre baie de stockage.
Reportez-vous aux instructions de la Sun Cluster Hardware Administration Collection pour obtenir plus d'informations sur l'installation de votre baie de stockage.
Si l'installation du logiciel de multiacheminement intervient après celle de Sun Cluster sur le cluster, la mise à jour des mappages DID sera probablement nécessaire. Pour régénérer l'espace de noms DID, exécutez les commandes ci-dessous sur chaque nœud de cluster.
# scdidadm -C# scdidadm -r(Solaris 8 ou 9 uniquement) # cfgadm -c configure# scgdevs
Reportez-vous aux pages de manuel scdidadm(1M) et scgdevs(1M) pour obtenir plus d'informations.
Si vous envisagez d'installer VxFS, reportez-vous à la rubrique SPARC : installation du logiciel Système de fichiers VERITAS.
Sinon, installez les packages Sun Cluster. Reportez-vous à la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Effectuez cette procédure sur chaque nœud de cluster.
Suivez les procédures du guide d'installation de VxFS pour installer le logiciel VxFS sur chaque nœud du cluster.
Installez tous les patchs Sun Cluster nécessaires à la prise en charge de VxFS.
Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.
Dans le fichier /etc/system de chaque nœud, définissez les valeurs suivantes.
set rpcmod:svc_default_stksize=0x8000 set lwp_default_stksize=0x6000 |
Ces changements seront pris en compte à la prochaine réinitialisation du système.
Le logiciel Sun Cluster nécessite un paramètre rpcmod:svc_default_stksize minimum de 0x8000. Étant donné que l'installation de VxFS définit la valeur de la variable rpcmod:svc_default_stksize sur 0x4000, vous devez la définir sur 0x8000 manuellement une fois l'installation de VxFS terminée.
De plus, vous devez définir la variable lwp_default_stksize dans le fichier /etc/system pour remplacer la valeur 0x4000 par défaut de VxFS.
Installez les packages Sun Cluster. Reportez-vous à la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Cette procédure permet d'utiliser le programme Sun JavaTM Enterprise System (Java ES) installer pour effectuer une ou plusieurs des tâches suivantes :
Installer des packages du logiciel de structure Sun Cluster sur chaque nœud du cluster.
Installer le logiciel de structure Sun Cluster sur le nœud maître en créant des archives Flash pour JumpStart. Reportez-vous à la rubrique Installation de Solaris et du logiciel Sun Cluster (JumpStart) pour obtenir plus d'informations sur l'installation JumpStart d'un cluster.
Installer les services de données Sun Java System sous Solaris 8 ou Solaris 9 à partir du CD 2 de Sun Cluster.
n'utilisez pas cette procédure pour installer les types suivants de packages de services de données :
Services de données Solaris 10 du CD 2 de Sun Cluster. Dans ce cas, suivez les procédures de la rubrique Installation des packages du logiciel de service de données (pkgadd) .
Services de données du CD Sun Cluster Agents. Dans ce cas, suivez les procédures de la rubrique Installation des packages du logiciel de service de données (scinstall).
Pour les services de données Solaris 8 ou Solaris 9 du CD Sun Cluster Agents, vous pouvez alternativement suivre les procédures de la rubrique Installation des packages du logiciel de service de données (Web Start installer) .
Effectuez les tâches suivantes :
Vérifiez que la version de Solaris installée prend en charge le logiciel Sun Cluster.
Si le logiciel Solaris est déjà installé sur le nœud, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.
Ayez à disposition les deux CD de Sun Cluster.
(Facultatif) Pour utiliser le programme installer avec une IUG, vérifiez que l'environnement du nœud de cluster à installer est défini pour afficher l'interface utilisateur graphique.
% xhost + % setenv DISPLAY nodename:0.0 |
Devenez superutilisateur du nœud de cluster à installer.
Insérez le CD 1 de Sun Cluster dans le lecteur.
Placez-vous dans le répertoire du programme installer du CD-ROM.
# cd /cdrom/cdrom0/Solaris_arch/ |
Dans le répertoire Solaris_arch/, arch représente sparc ou x86.
Lancez le programme Java ES installer.
# ./installer |
Pour installer le logiciel de structure Sun Cluster et les services de données sur le nœud, suivez les instructions à l'écran.
À l'invite, choisissez de configurer le logiciel de structure Sun Cluster ultérieurement.
Un fois l'installation terminée, vous pouvez visualiser tous les journaux d'installation disponibles. Reportez-vous au Sun Java Enterprise System 2005Q5 Installation Guide pour obtenir plus d'informations sur l'utilisation du programme Java ES installer.
Installez des packages supplémentaires si vous envisagez d'utiliser l'une des fonctions suivantes.
Interface de programmation d'application de mémoire partagée distante (RSMAPI)
Adaptateurs SCI-PCI pour l'interconnexion
Pilotes RSMRDT
L'utilisation du pilote RSMRDT est limitée aux clusters exécutant une configuration SCI Oracle9i version 2 avec RSM activé. Reportez-vous à la documentation utilisateur d'Oracle9i version 2 pour connaître les instructions d'installation et de configuration.
Déterminez quels packages vous devez installer.
Le tableau suivant répertorie les packages Sun Cluster 3.1 8/05 requis par chaque fonctionnalité, classés selon l'ordre d'installation obligatoire de chaque groupe de packages. Le programme installer de Java ES n'installe pas automatiquement ces packages.
Installez les packages en respectant l'ordre donné dans le tableau suivant.
Insérez le CD 2 de Sun Cluster, si ce n'est déjà fait.
Passez au répertoire Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/, où arch représente sparc ou x86 et ver correspond à 8 pour Solaris 8, 9 pour Solaris 9 ou 10 pour Solaris 10 .
# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ |
Installez les autres packages.
# pkgadd -d . packages |
Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.
# eject cdrom |
Vérifiez que le répertoire /usr/java/ est un lien symbolique vers la version minimum ou la dernière version du logiciel Java.
Le logiciel Sun Cluster demande au moins la version 1.4.2_03 du logiciel Java.
Identifiez le répertoire auquel /usr/java/ est associé par lien symbolique.
# ls -l /usr/java lrwxrwxrwx 1 root other 9 Apr 19 14:05 /usr/java -> /usr/j2se/ |
Identifiez la ou les versions installées du logiciel Java.
L'exemple suivant présente les commandes que vous pouvez utiliser pour afficher les versions connexes du logiciel Java.
# /usr/j2se/bin/java -version # /usr/java1.2/bin/java -version # /usr/jdk/jdk1.5.0_01/bin/java -version |
Si le répertoire /usr/java/ n'est pas associé par un lien symbolique à une version prise en charge du logiciel Java, recréez le lien symbolique.
L'exemple suivant présente la création d'un lien symbolique vers le répertoire /usr/j2se/ contenant le logiciel Java 1.4.2_03.
# rm /usr/java # ln -s /usr/j2se /usr/java |
Si vous installez le logiciel du système de fichiers Sun StorEdge QFS, suivez les procédures d'installation initiale du Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.
Sinon, reportez-vous à la rubrique Configuration de l'environnement racine pour configurer l'environnement racine.
dans une configuration Sun Cluster, les fichiers d'initialisation utilisateur appropriés doivent vérifier qu'ils s'exécutent dans un shell interactif avant de tenter d'envoyer la sortie au terminal. Sinon, vous risquez d'obtenir un comportement inattendu ou des interférences avec les services de données. Reportez-vous au Customizing a User's Work Environment du System Administration Guide, Volume 1 (Solaris 8) ou du System Administration Guide: Basic Administration (Solaris 9 or Solaris 10) pour obtenir plus d'informations.
Suivez cette procédure sur chaque nœud du cluster.
Connectez-vous en tant que superutilisateur sur un nœud du cluster.
Modifiez les entrées PATH et MANPATH dans le fichier .cshrc ou .profile.
Définissez la variable PATH pour qu'elle comprenne /usr/sbin/ et /usr/cluster/bin/.
Définissez la variable MANPATH pour qu'elle comprenne /usr/cluster/man/.
Pour obtenir plus d'informations sur les autres chemins de fichier à définir, reportez-vous à la documentation du gestionnaire de volumes et à celle des autres applications.
(Facultatif) Pour faciliter le travail d'administration, définissez le même mot de passe de superutilisateur sur chaque nœud.
Configurez le logiciel Sun Cluster sur les nœuds de votre cluster. Voir Établissement du cluster.
Cette rubrique explique comment établir un cluster ou ajouter un nœud à un cluster existant. Avant d'effectuer ces tâches, vérifiez que l'installation des packages de logiciels pour le système d'exploitation Solaris, de la structure Sun Cluster et d'autres produits est conforme aux instructions de la rubrique Installation du logiciel .
Le plan ci-dessous répertorie les tâches à effectuer. Effectuez les procédures dans l'ordre indiqué.
Tableau 2–2 Plan des tâches : Établissement du cluster
Méthode |
Instructions |
---|---|
1. Utilisez l'une des méthodes suivantes pour établir un cluster ou ajouter un nœud à un cluster existant : |
|
|
Procédure de configuration du logiciel Sun Cluster sur tous les nœuds (scinstall) |
|
Installation de Solaris et du logiciel Sun Cluster (JumpStart) |
|
Utilisation du programme d'installation SunPlex pour la configuration du logiciel Sun Cluster Configuration du logiciel Sun Cluster (programme d'installation SunPlex) |
|
Procédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (scinstall) |
2. (Oracle Real Application Clusters uniquement) Si vous avez ajouté un nœud à un cluster de deux nœuds exécutant Support Sun Cluster pour Oracle Real Application Clusters et utilisant un disque SCSI partagé comme périphérique de quorum, mettez à jour les réservations SCSI. | |
3. Installez les packages du logiciel de services de données. |
Installation des packages du logiciel de service de données (pkgadd) Installation des packages du logiciel de service de données (scinstall) Installation des packages du logiciel de service de données (Web Start installer) |
4. Affectez les votes de quorum et supprimez le cluster du mode d'installation (si nécessaire). | |
5. Validez la configuration de quorum. |
Vérification de la configuration de quorum et du mode d'installation |
6. Configurez le cluster. |
Effectuez cette procédure à partir d'un nœud du cluster pour configurer le logiciel Sun Cluster sur tous les nœuds du cluster.
Effectuez les tâches suivantes :
Vérifiez que l'environnement d'exploitation Solaris est installé et prendra en charge le logiciel Sun Cluster.
Si Solaris est déjà installé sur le nœud, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Pour obtenir plus d'informations sur l'installation du logiciel Solaris en fonction de la configuration requise par le produit Sun Cluster, reportez-vous à la section Installation du logiciel Solaris .
Vérifiez que les packages Sun Cluster sont installés sur le nœud. Reportez-vous à la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Déterminez le mode d'exécution de l'utilitaire scinstall (typique ou personnalisé). Pour l'installation typique de Sun Cluster, scinstall spécifie automatiquement la configuration par défaut suivante :
Composant |
Valeur par défaut |
---|---|
Adresse de réseau privé |
172.16.0.0 |
Masque de réseau privé |
255.255.0.0 |
Jonctions de transport intracluster |
switch1 et switch2 |
Nom du système de fichiers des périphériques globaux |
/globaldevices |
Sécurité de l'installation (DES) |
Limitée |
Répertoire de patchs Solaris et Sun Cluster |
/var/cluster/patches/ |
Renseignez la fiche de configuration de cluster correspondant au mode d'exécution de l'utilitaire scinstall (typique ou personnalisé).
Mode Typique - Si vous utilisez ce mode et acceptez tous les paramètres par défaut, remplissez la fiche suivante.
Composant |
Description/Exemple |
Réponse |
|
---|---|---|---|
Nom du cluster |
Quel est le nom du cluster que vous souhaitez établir ? | ||
Nœuds de cluster |
Quels sont les noms des autres nœuds de cluster prévus dans la configuration initiale du cluster ? | ||
Câbles et adaptateurs de transport intracluster |
Quels sont les noms des deux adaptateurs de transport intracluster attachant le nœud à l'interconnexion privée ? |
Première
|
Deuxième
|
S'agira-t-il d'un adaptateur de transport intracluster dédié ? |
Oui|Non |
Oui|Non |
|
Dans la négative, quel est l'ID VLAN de cet adaptateur ? | |||
Configuration d'un quorum (cluster à deux nœuds uniquement) |
Voulez-vous désactiver la sélection automatique de périphérique de quorum ? (Répondez Oui si un éventuel périphérique de stockage partagé n'est pas autorisé à être un périphérique de quorum ou si vous souhaitez définir un périphérique NAS Network Appliance comme périphérique de quorum.) |
Oui | Non |
|
Validation |
Souhaitez-vous interrompre l'installation en cas d'erreur de sccheck ? (sccheck vérifie que les exigences de préconfiguration sont respectées) |
Oui | Non |
Mode Personnalisé : si vous prévoyez d'utiliser ce mode pour personnaliser les données de configuration, remplissez la fiche suivante.
Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :
L'utilitaire scinstall mémorise toutes les frappes au clavier. Par conséquent, n'appuyez qu'une seule fois sur la touche Entrée, même si l'écran de menu suivant n'apparaît pas immédiatement.
Sauf indication contraire, vous pouvez appuyer sur Ctrl-D pour revenir au début d'une série de questions connexes ou au menu principal.
Les réponses par défaut ou les réponses issues de sessions antérieures sont affichées entre crochets ([ ]) à la fin des questions. Appuyez sur Retour pour entrer la réponse figurant entre crochets sans avoir à la saisir.
Si vous avez désactivé la configuration distante au cours de l'installation du logiciel Sun Cluster, réactivez-la.
Activez l' accès du superutilisateur par shell distant (rsh(1M)) ou par shell sécurisé (ssh(1)) à tous les nœuds de cluster.
(Facultatif) Pour installer des patchs à l'aide de l'utilitaire scinstall(1M), téléchargez-les dans un répertoire de patchs.
Si vous installez le cluster en mode typique, placez les patchs à installer dans un répertoire appelé "/var/cluster/patches/" ou "/var/patches/".
En mode Typique, la commande scinstall contrôle les patchs dans ces deux répertoires.
Si aucun de ces répertoires n'existe, aucun patch n'est ajouté.
Si les deux répertoires existent, seuls les patchs contenus dans /var/cluster/patches/ sont ajoutés.
Si vous installez le cluster en mode personnalisé, indiquez le chemin d'accès au répertoire de patchs. Ainsi, vous n'avez pas à utiliser les répertoires de patchs recherchés par scinstall en mode typique.
Vous pouvez ajouter un fichier de liste des patchs dans le répertoire de patchs. Par défaut, le nom de ce fichier est le suivant : patchlist. Reportez-vous à la page de manuel patchadd(1M) pour obtenir des informations sur la création d'un fichier de liste des patchs.
Devenez superutilisateur sur le nœud du cluster à partir duquel vous envisagez de configurer le cluster.
Lancez l'utilitaire scinstall.
# /usr/cluster/bin/scinstall |
Dans le menu principal, sélectionnez l'option Installation d'un cluster ou d'un nœud de cluster.
*** Main Menu *** Please select from one of the following (*) options: * 1) Install a cluster or cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Add support for new data services to this cluster node 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1 |
Dans le menu principal, choisissez l'option Installer tous les nœuds d'un nouveau cluster.
Dans le menu du type d'installation, choisissez le mode typique ou personnalisé.
Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.
L'utilitaire scinstall installe et configure tous les nœuds du cluster, puis redémarre le cluster. Le cluster est établi une fois tous ses nœuds correctement réinitialisés. Les informations relatives à l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log.N.
Pour Solaris 10, vérifiez que les services multiutilisateur pour SMF sont en ligne sur chaque nœud.
Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.
# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
À partir d'un nœud, vérifiez que tous les nœuds ont rejoint le cluster.
Exécutez la commande scstat(1M) pour afficher la liste des nœuds du cluster. Vous n'avez pas besoin d'être superutilisateur pour exécuter cette commande.
% scstat -n |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
Si nécessaire, installez les patchs requis pour prendre en charge le logiciel Sun Cluster.
Pour réactiver le système de fichiers loopback (LOFS), supprimez l'entrée suivante du fichier /etc/system de chaque nœud du cluster.
exclude:lofs |
La réactivation du LOFS prendra effet après le prochain redémarrage du système.
Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : si vous activez le LOFS et décidez ensuite d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local hautement disponible, vous devez effectuer l'une des opérations suivantes :
Replacez l'entrée exclude:lofs dans le fichier /etc/system sur chaque nœud du cluster et redémarrez chaque nœud. Cette modification désactivera le LOFS.
Désactivez le démon automountd.
Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.
Pour plus d'informations sur les systèmes de fichiers loopback, reportez-vous au chapitre Types of File Systems du document System Administration Guide, Volume 1 (Solaris 8) ou au chapitre The Loopback File System du document System Administration Guide: Devices and File Systems (Solaris 9 ou Solaris 10).
L'exemple suivant montre les messages d'état de scinstall enregistrés alors que scinstall termine les tâches de configuration sur le cluster à deux nœuds, schost. Pour installer le cluster depuis phys-schost-1, l'utilitaire scinstall est exécuté en mode typique. L'autre nœud de cluster est phys-schost-2. Les adaptateurs s'appellent qfe2 et qfe3. Par ailleurs, la sélection automatique d'un périphérique de quorum est activée.
Installation and Configuration Log file - /var/cluster/logs/install/scinstall.log.24747 Testing for "/globaldevices" on "phys-schost-1" … done Testing for "/globaldevices" on "phys-schost-2" … done Checking installation status … done The Sun Cluster software is already installed on "phys-schost-1". The Sun Cluster software is already installed on "phys-schost-2". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:qfe2 switch1 phys-schost-2:qfe2 phys-schost-1:qfe3 switch2 phys-schost-2:qfe3 Completed discovery of the cluster transport configuration. Started sccheck on "phys-schost-1". Started sccheck on "phys-schost-2". sccheck completed with no errors or warnings for "phys-schost-1". sccheck completed with no errors or warnings for "phys-schost-2". Removing the downloaded files … done Configuring "phys-schost-2" … done Rebooting "phys-schost-2" … done Configuring "phys-schost-1" … done Rebooting "phys-schost-1" … Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting … |
Si vous souhaitez installer des services de données, consultez la procédure correspondant au service à installer et à la version de Solaris utilisée :
CD 2 de Sun Cluster (services de données Sun Java System) |
CD Sun Cluster Agents (autres services de données) |
|||
---|---|---|---|---|
Procédure |
Solaris 8 ou 9 |
Solaris10 |
Solaris 8 ou 9 |
Solaris10 |
X | ||||
Installation des packages du logiciel de service de données (pkgadd) |
X | |||
Installation des packages du logiciel de service de données (scinstall) |
X |
X |
||
Installation des packages du logiciel de service de données (Web Start installer) |
X |
Sinon, reportez-vous à l'une des procédures suivantes.
Si vous avez installé un cluster mononœud, l'installation du cluster est terminée. Passez à la section Configuration du cluster pour installer le gestionnaire de volumes et configurer le cluster.
Si vous avez installé un cluster à nœuds multiples et choisi une configuration de quorum automatique, la configuration après installation est terminée. Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .
Si vous avez installé un cluster à nœuds multiples et refusé une configuration de quorum automatique, procédez à la configuration après installation. Reportez-vous à la rubrique Configuration des périphériques de quorum .
Vous ne pouvez plus modifier l'adresse et le masque de réseau privé une fois le traitement de scinstall terminé. Si vous devez utiliser une adresse ou un masque de réseau privé différent et si le nœud est toujours en mode d'installation, suivez la procédure de la rubrique Désinstallation du logiciel Sun Cluster pour corriger les problèmes d'installation , puis celles de Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) . Réinstallez le logiciel et utilisez les informations correctes pour configurer le nœud.
Cette procédure explique comment configurer et utiliser la méthode d'installation JumpStart personnalisée scinstall(1M). Cette méthode installe à la fois le système d'exploitation Solaris et le logiciel Sun Cluster sur tous les nœuds du cluster en une seule opération et établit le cluster. Vous pouvez aussi utiliser cette procédure pour ajouter de nouveaux nœuds à un cluster existant.
Effectuez les tâches suivantes :
Avant d'installer le logiciel Solaris, assurez-vous que l'installation du matériel est terminée et vérifiez les connexions. Reportez-vous au manuel approprié de la Sun Cluster Hardware Administration Collection, ainsi qu'à la documentation de votre serveur et de votre périphérique de stockage pour de plus amples informations sur la procédure de configuration du matériel.
Déterminez l'adresse Ethernet de chaque nœud de cluster.
Si nécessaire, vérifiez que les informations ci-dessous sont ajoutées à tous les services d'attribution de noms utilisés par les clients pour accéder aux services de cluster. Reportez-vous à la rubrique Adresses IP pour connaître les procédures de planification. Consultez votre administrateur système Solaris pour obtenir des informations sur l'utilisation des services de noms Solaris.
correspondances adresse/nom pour tous les noms d'hôtes publics et les adresses logiques ;
adresse IP et nom d'hôte du serveur JumpStart.
Vérifiez que la planification de configuration de votre cluster est achevée et complète. Reportez-vous à la rubrique Préparation de l'installation du logiciel de cluster pour connaître les exigences et les procédures.
Sur le serveur destiné à la création de l'archive Flash, assurez-vous de l'installation du système d'exploitation Solaris, des patchs et des microprogrammes nécessaires pour la prise en charge du logiciel Sun Cluster.
Si le logiciel Solaris est déjà installé sur le serveur, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Reportez-vous à la rubrique Installation du logiciel Solaris pour obtenir plus d'informations sur les exigences de Sun Cluster.
Vérifiez que les patchs et les packages Sun Cluster sont installés sur le serveur destiné à la création de l'archive Flash. Reportez-vous à la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Determinez le mode d'exécution de l'utilitaire scinstall (typique ou personnalisé). Pour l'installation typique de Sun Cluster, scinstall spécifie automatiquement la configuration par défaut suivante :
Composant |
Valeur par défaut |
---|---|
Adresse de réseau privé |
172.16.0.0 |
Masque de réseau privé |
255.255.0.0 |
Jonctions de transport intracluster |
switch1 et switch2 |
Nom du système de fichiers des périphériques globaux |
/globaldevices |
Sécurité de l'installation (DES) |
Limitée |
Répertoire de patchs Solaris et Sun Cluster |
/var/cluster/patches |
Renseignez la fiche appropriée. Reportez-vous à la rubrique Planification de l'environnement Sun Cluster pour connaître les procédures de planification.
Mode Typique - Si vous utilisez ce mode et acceptez tous les paramètres par défaut, remplissez la fiche suivante.
Composant |
Description/Exemple |
Réponse |
|
---|---|---|---|
Répertoire JumpStart |
Quel est le nom du répertoire JumpStart à utiliser ? | ||
Nom du cluster |
Quel est le nom du cluster que vous souhaitez établir ? | ||
Nœuds de cluster |
Quels sont les noms des nœuds de cluster prévus pour la configuration initiale du cluster ? | ||
Câbles et adaptateurs de transport intracluster |
Premier nom de nœud : | ||
Adaptateurs de transport : |
Première
|
Deuxième
|
|
S'agira-t-il d'un adaptateur de transport intracluster dédié ? |
Oui|Non |
Oui|Non |
|
Dans la négative, quel est l'ID VLAN de cet adaptateur ? | |||
Chaque nœud supplémentaire |
Nom du nœud : | ||
Adaptateurs de transport : |
Première
|
Deuxième
|
|
Configuration d'un quorum (cluster à deux nœuds uniquement) |
Voulez-vous désactiver la sélection automatique de périphérique de quorum ? (Répondez Oui si un éventuel périphérique de stockage partagé n'est pas autorisé à être un périphérique de quorum ou si vous souhaitez définir un périphérique NAS Network Appliance comme périphérique de quorum.) |
Oui|Non |
Oui|Non |
Mode Personnalisé : si vous prévoyez d'utiliser ce mode pour personnaliser les données de configuration, remplissez la fiche suivante.
Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :
L'utilitaire scinstall mémorise toutes les frappes au clavier. Par conséquent, n'appuyez qu'une seule fois sur la touche Entrée, même si l'écran de menu suivant n'apparaît pas immédiatement.
Sauf indication contraire, vous pouvez appuyer sur Ctrl-D pour revenir au début d'une série de questions connexes ou au menu principal.
Les réponses par défaut ou les réponses issues de sessions antérieures sont affichées entre crochets ([ ]) à la fin des questions. Appuyez sur Retour pour entrer la réponse figurant entre crochets sans avoir à la saisir.
Configurez le serveur d'installation JumpStart.
Suivez les instructions correspondant à votre plate-forme.
Plate-forme Solaris |
Instructions |
---|---|
SPARC |
Reportez-vous au manuel adéquat pour en savoir plus sur la configuration d'un serveur d'installation JumpStart :
Reportez-vous également aux pages de manuel setup_install_server(1M) et add_install_client(1M). |
x86 |
Reportez-vous au Solaris 9 Software Installation From a PXE Server du Sun Fire V60x and Sun Fire V65x Server Solaris Operating Environment Installation Guide pour connaître la procédure de configuration d'un serveur Dynamic Host Configuration Protocol (DHCP) JumpStart et d'un réseau Solaris destiné aux installations PXE (Preboot Execution Environment). |
Assurez-vous que le serveur d'installation JumpStart réponde aux exigences suivantes :
Le serveur d'installation est sur le sous-réseau des nœuds de cluster ou sur le serveur d'initialisation Solaris du sous-réseau utilisé par les nœuds de cluster.
Le serveur d'installation n'est pas lui-même un nœud de cluster.
Le serveur d'installation installe une version du système d'exploitation Solaris prise en charge par le logiciel Sun Cluster.
Un répertoire d'installation JumpStart personnalisée est prévu pour l'installation JumpStart du logiciel Sun Cluster. Ce répertoire rép_jumpstart doit contenir une copie de l'utilitaire check(1M). Il doit également être exporté par NFS pour être lu par le serveur d'installation JumpStart .
Chaque nouveau nœud de cluster est configuré comme un client d'installation JumpStart personnalisée utilisant le répertoire d'installation JumpStart personnalisée configuré pour l'installation de Sun Cluster.
Si vous installez un nouveau nœud sur un cluster existant, ajoutez ce nœud à la liste des nœuds de cluster autorisés.
Passez à un autre nœud de cluster actif et lancez l'utilitaire scsetup(1M).
Utilisez scsetup pour ajouter le nom du nouveau nœud à la liste des nœuds de cluster autorisés.
Pour obtenir plus d'informations, reportez-vous à la rubrique Ajout d’un nœud de cluster à la liste des nœuds autorisés du Guide d’administration système de Sun Cluster pour SE Solaris.
Sur un nœud de cluster ou une autre machine de la même plate-forme de serveur, installez le système d'exploitation Solaris (si nécessaire).
Suivez les procédures de la rubrique Installation du logiciel Solaris .
Sur le système installé, installez le logiciel Sun Cluster (si nécessaire).
Suivez les procédures de la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Définissez le démon conteneur d'agents communs pour qu'il se lance automatiquement au démarrage du système.
# cacaoadm enable |
Sur le système installé, installez les patchs requis pour prendre en charge le logiciel Sun Cluster.
Sur le système installé, mettez à jour le fichier /etc/inet/hosts avec toutes les adresses IP utilisées dans le cluster.
Exécutez cette étape, que vous utilisiez ou non un service d'attribution de noms. Reportez-vous à la rubrique Adresses IP pour obtenir la liste des composants Sun Cluster dont les adresses IP sont à ajouter.
Pour Solaris 10, mettez à jour le fichier /etc/inet/ipnodes avec toutes les adresses IP utilisées dans le cluster.
Exécutez cette étape, que vous utilisiez ou non un service d'attribution de noms.
Créez l'archive flash du système installé.
# flarcreate -n name archive |
Nom à donner à l'archive flash.
Nom à donner à l'archive flash, avec le chemin complet. Par convention, le nom du fichier se termine par .flar.
Suivez les procédures du manuel approprié :
Vérifiez que l'archive Flash est exportée par NFS pour être lue par le serveur d'installation JumpStart.
Reportez-vous au Solaris NFS Environment du System Administration Guide, Volume 3 (Solaris 8) ou au Managing Network File Systems (Overview), du System Administration Guide: Network Services (Solaris 9 ou Solaris 10) pour obtenir plus d'informations sur le partage automatique de fichiers.
Reportez-vous également aux pages de manuel share(1M) et dfstab(4).
Lancez l'utilitaire scinstall(1M) à partir du serveur d'installation JumpStart.
Le chemin /export/suncluster/sc31 est utilisé ici comme exemple de répertoire d'installation créé. Dans le chemin d'accès au CD-ROM, remplacez arch par sparc ou x86 et ver par 8 (Solaris 8), 9 (Solaris 9) ou 10 (Solaris 10).
# cd /export/suncluster/sc31/Solaris_arch/Product/sun_cluster/ \ Solaris_ver/Tools/ # ./scinstall |
Dans le menu principal, sélectionnez l'option de menu (Configurer un cluster à relancer à partir de ce serveur d'installation).
Cette option permet de configurer les scripts de fin JumpStart. JumpStart utilise ces scripts de fin pour installer le logiciel Sun Cluster.
*** Main Menu *** Please select from one of the following (*) options: * 1) Install a cluster or cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Add support for new data services to this cluster node 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 2 |
Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.
La commande scinstall stocke les informations de configuration et copie le fichier autoscinstall.class (fichier class par défaut) dans le répertoire jumpstart-dir/autoscinstall.d/3.1/. Ce fichier est similaire à celui de l'exemple ci-dessous.
install_type initial_install system_type standalone partitioning explicit filesys rootdisk.s0 free / filesys rootdisk.s1 750 swap filesys rootdisk.s3 512 /globaldevices filesys rootdisk.s7 20 cluster SUNWCuser add package SUNWman add |
Modifiez le fichier autoscinstall.class pour que JumpStart installe l'archive Flash.
Modifiez les entrées pour qu'elles correspondent aux choix de configuration effectués lors de l'installation du système d'exploitation Solaris sur la machine de l'archive Flash ou lors de l'exécution de l'utilitaire scinstall.
Si vous affectez par exemple la tranche 4 au système de fichiers de périphériques globaux et indiquez à scinstall que le nom du système de fichiers est /gdevs, vous modifiez l'entrée /globaldevices du fichier autoscinstall.class de la manière suivante :
filesys rootdisk.s4 512 /gdevs |
Modifiez les entrées du fichier autoscinstall.class.
Entrée à remplacer |
Entrée à ajouter |
||
---|---|---|---|
install_type |
initial_install |
install_type |
flash_install |
system_type |
standalone |
archive_location |
retrieval_type location |
Reportez-vous au archive_location Keyword du Solaris 8 Advanced Installation Guide, Solaris 9 9/04 Installation Guide ou à la rubrique Solaris 10 Installation Guide: Custom JumpStart and Advanced Installations pour obtenir plus d'informations sur les valeurs correctes de retrieval_type et de location lorsqu'elles sont utilisées avec le mot-clé archive_location.
Supprimez les entrées destinées à l'installation d'un package spécifique. Par exemple :
cluster SUNWCuser add package SUNWman add |
Si vous n'avez pas encore installé les patchs sur le système concerné par l'archive Flash, définissez les répertoires de patchs Solaris.
si vous avez spécifié un répertoire de patchs à l'aide de l'utilitaire scinstall, les patchs figurant dans les répertoires de patchs Solaris ne sont pas installés.
Créez les répertoires jumpstart-dir/autoscinstall.d/nodes/node/patches/ exportés par NFS pour être lus par le serveur d'installation JumpStart.
Créez un répertoire pour chaque nœud du cluster, où nœud est le nom du nœud du cluster. Sinon, utilisez cette convention de dénomination pour créer des liens symboliques avec un répertoire de patchs partagé.
# mkdir jumpstart-dir/autoscinstall.d/nodes/node/patches/ |
Placez des copies de tous les patchs Solaris dans chacun de ces répertoires.
Placez dans chacun de ces répertoires des copies des patchs liés au matériel devant être installés suite à l'installation du logiciel Solaris.
Si vous utilisez une console administrative au niveau du cluster, ouvrez un écran de console pour chaque nœud du cluster.
Si le logiciel Cluster Control Panel (CCP) est installé et configuré sur la console administrative, servez-vous de l'utilitaire cconsole(1M) pour afficher les écrans de console individuels.
Utilisez la commande suivante pour démarrer l'utilitaire cconsole :
# /opt/SUNWcluster/bin/cconsole clustername & |
L'utilitaire cconsole ouvre également une fenêtre principale qui vous permet d'envoyer votre saisie à tous les écrans de console individuels en même temps.
Si vous n'utilisez pas l'utilitaire cconsole, connectez-vous à la console de chaque nœud individuellement.
Arrêtez tous les nœuds.
# shutdown -g0 -y -i0 |
Initialisez chaque nœud pour lancer l'installation JumpStart.
Sur les systèmes SPARC, procédez comme suit :
ok boot net - install |
entourez le tiret (-) de la commande d'un espace de chaque côté.
Sur les systèmes x86, procédez comme suit :
Lorsque l'écran d'informations du BIOS s'affiche, appuyez sur la touche Échap.
L'écran de sélection du périphérique d'initialisation apparaît.
Dans la liste appropriée, choisissez l'IBA connecté au réseau du serveur d'installation PXE JumpStart.
Le chiffre le plus bas à droite des choix d'initialisation de l'IBA correspond au numéro de port Ethernet le plus bas. Le chiffre le plus élevé à droite des choix d'initialisation de l'IBA correspond au numéro de port Ethernet le plus élevé.
Le nœud est réinitialisé et l'assistant de configuration de périphériques s'affiche.
Dans l'écran d'initialisation de Solaris, choisissez Net.
À l'invite suivante, choisissez JumpStart personnalisée et appuyez sur Entrée.
Select the type of installation you want to perform: 1 Solaris Interactive 2 Custom JumpStart Enter the number of your choice followed by the <ENTER> key. If you enter anything else, or if you wait for 30 seconds, an interactive installation will be started. |
À l'invite, répondez aux questions et suivez les instructions affichées à l'écran.
JumpStart installe le système d'exploitation Solaris et le logiciel Sun Cluster sur tous les nœuds. Une fois l'installation terminée avec succès, chaque nœud est entièrement installé en tant que nouveau nœud de cluster. Les informations sur l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log. N.
Pour Solaris 10, vérifiez que les services multiutilisateur pour SMF sont en ligne sur chaque nœud.
Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.
# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Si vous installez un nouveau nœud sur un cluster existant, créez des points de montage sur le nouveau nœud pour tous les systèmes de fichiers de cluster existants.
À partir d'un autre nœud actif du cluster, affichez les noms de tous les systèmes de fichiers de cluster.
% mount | grep global | egrep -v node@ | awk '{print $1}' |
Sur le nœud que vous ajoutez au cluster, créez un point de montage pour chaque système de fichiers du cluster.
% mkdir -p mountpoint |
Par exemple, si la commande mount renvoie le nom du système de fichiers /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le nœud ajouté au cluster.
les points de montage deviennent actifs lorsque vous réinitialisez le cluster à l'Étape 24 .
Si VERITAS Volume Manager (VxVM) est installé sur des nœuds qui se trouvent déjà dans le cluster, affichez le numéro vxio sur chaque nœud installé avec VxVM.
# grep vxio /etc/name_to_major vxio NNN |
Assurez-vous que le même numéro vxio est utilisé pour chacun des nœuds installés avec VxVM.
Assurez-vous également que ce numéro est disponible pour chacun des nœuds installés sans VxVM.
Si le numéro vxio est déjà utilisé sur un nœud sur lequel VxVM n'est pas installé, enlevez-le de ce nœud. Modifiez l'entrée /etc/name_to_major pour utiliser un numéro différent.
(Facultatif) Pour utiliser la reconfiguration dynamique sur les serveurs Sun Enterprise 10000, ajoutez l'entrée suivante au fichier /etc/system. Ajoutez-la à chaque nœud du cluster.
set kernel_cage_enable=1 |
Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système. Reportez-vous au Guide d’administration système de Sun Cluster pour SE Solaris pour connaître les procédures de reconfiguration dynamique dans une configuration Sun Cluster. Reportez-vous à la documentation de votre serveur pour de plus amples informations sur la reconfiguration dynamique.
Pour réactiver le système de fichiers loopback (LOFS), supprimez l'entrée suivante du fichier /etc/system de chaque nœud du cluster.
exclude:lofs |
La réactivation du LOFS prendra effet après le prochain redémarrage du système.
Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : si vous activez le LOFS et décidez ensuite d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local hautement disponible, vous devez effectuer l'une des opérations suivantes :
Replacez l'entrée exclude:lofs dans le fichier /etc/system sur chaque nœud du cluster et redémarrez chaque nœud. Cette modification désactivera le LOFS.
Désactivez le démon automountd.
Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.
Pour plus d'informations sur les systèmes de fichiers loopback, reportez-vous au chapitre Types of File Systems du document System Administration Guide, Volume 1 (Solaris 8) ou au chapitre The Loopback File System du document System Administration Guide: Devices and File Systems (Solaris 9 ou Solaris 10).
x86 : Paramétrez le fichier d'initialisation par défaut sur kadb.
# eeprom boot-file=kadb |
La définition de cette valeur vous permet de réinitialiser le nœud si vous n'avez accès à aucune invite de connexion.
Si une tâche effectuée demande une réinitialisation de cluster, suivez ces procédures.
Les tâches suivantes demandent une réinitialisation :
Ajout d'un nouveau nœud à un cluster existant
Installation de patchs exigeant la réinitialisation d'un nœud ou d'un cluster
Modifications apportées à la configuration et qui demandent une réinitialisation pour prendre effet
Arrêtez le cluster depuis un nœud.
# scshutdown |
ne réinitialisez pas le premier nœud installé tant que le cluster n'a pas été arrêté. tant que le mode d'installation du cluster n'a pas été désactivé, seul le premier nœud installé, qui a établi le cluster, possède un vote de quorum. Dans un cluster établi encore en mode d'installation, s'il n'est pas fermé avant la réinitialisation du premier nœud installé, les autres nœuds ne peuvent pas obtenir de quorum. Alors tout le cluster se ferme.
Les nœuds de cluster restent en mode d'installation jusqu'à ce que vous exécutiez la commande scsetup(1M). Vous exécutez cette commande lors de la procédure Configuration des périphériques de quorum .
Réinitialisez tous les nœuds du cluster.
Sur les systèmes SPARC, procédez comme suit :
ok boot |
Sur les systèmes x86, procédez comme suit :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
L'utilitaire scinstall installe et configure tous les nœuds du cluster, puis redémarre le cluster. Le cluster est établi une fois tous ses nœuds correctement réinitialisés. Les informations relatives à l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log.N.
Si vous avez ajouté un nœud à un cluster à deux nœuds, reportez-vous à la rubrique Mise à jour des réservations SCSI après ajout d'un nœud.
Si vous souhaitez installer des services de données, consultez la procédure correspondant au service à installer et à la version de Solaris utilisée :
CD 2 de Sun Cluster (services de données Sun Java System) |
CD Sun Cluster Agents (autres services de données) |
|||
---|---|---|---|---|
Procédure |
Solaris 8 ou 9 |
Solaris10 |
Solaris 8 ou 9 |
Solaris10 |
X | ||||
Installation des packages du logiciel de service de données (pkgadd) |
X | |||
Installation des packages du logiciel de service de données (scinstall) |
X |
X |
||
Installation des packages du logiciel de service de données (Web Start installer) |
X |
Sinon, reportez-vous à la procédure appropriée :
Si vous avez installé un cluster mononœud, l'installation du cluster est terminée. Passez à la section Configuration du cluster pour installer le gestionnaire de volumes et configurer le cluster.
Si vous avez ajouté un nœud à un cluster existant, vérifiez l'état de celui-ci. Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .
Si vous avez installé un cluster à nœuds multiples et choisi une configuration de quorum automatique, la configuration après installation est terminée. Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .
Si vous avez installé un cluster à nœuds multiples et refusé une configuration de quorum automatique, procédez à la configuration après installation. Reportez-vous à la rubrique Configuration des périphériques de quorum .
Si vous avez ajouté un nœud à un cluster d'un ou de plus de deux nœuds, reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .
Option scinstall désactivée : si l'option JumpStart de la commande scinstall n'est pas précédée d'un astérisque, elle est désactivée. Cette condition indique que le paramétrage de JumpStart n'est pas terminé ou qu'il comporte une erreur. Pour corriger cette condition, commencez par quitter l'utilitaire scinstall. Répétez l'Étape 1 à l'Étape 10 pour corriger l'installation JumpStart, puis relancez l'utilitaire scinstall.
messages d'erreur sur les nœuds inexistants : si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf, la commande scinstall installe un fichier ntp.conf par défaut. Ce fichier est expédié avec des références au nombre de nœuds maximum possible. Par conséquent, le démon xntpd(1M) peut émettre des messages d'erreur sur certaines de ces références pendant l'initialisation. Vous pouvez ignorer ces messages sans risque. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) pour obtenir des informations sur la suppression de ces messages dans des conditions de cluster normales par ailleurs.
Modification de l'adresse de réseau privé : vous ne pouvez pas modifier le masque et l'adresse de réseau privé après le traitement de scinstall. Si vous devez utiliser une adresse ou un masque de réseau privé différent et si le nœud est toujours en mode d'installation, suivez la procédure de la rubrique Désinstallation du logiciel Sun Cluster pour corriger les problèmes d'installation . Répétez ensuite cette procédure pour réinstaller et reconfigurer le nœud avec les informations correctes.
N'utilisez pas cette méthode de configuration pour :
Configurer un cluster mononœud ; suivez plutôt la procédure de la section Procédure de configuration du logiciel Sun Cluster sur tous les nœuds (scinstall) .
Utiliser une adresse IP ou un masque de réseau privé différents des éléments proposés par défaut. Le programme d'installation SunPlex utilise automatiquement l'adresse IP (172.16.0.0) et le masque de réseau (255.255.0.0) privé par défaut. Suivez plutôt la procédure de la section Procédure de configuration du logiciel Sun Cluster sur tous les nœuds (scinstall) .
Configurer des adaptateurs compatibles avec le marquage de VLAN ou avec SCI-PCI pour le transport intracluster ; suivez plutôt la procédure de la section Procédure de configuration du logiciel Sun Cluster sur tous les nœuds (scinstall) .
Ajouter un nouveau nœud à un cluster existant ; suivez plutôt les procédures des sections Procédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (scinstall) ou Installation de Solaris et du logiciel Sun Cluster (JumpStart) .
Cette rubrique permet d'utiliser le programme d'installation SunPlex, module d'installation du gestionnaire SunPlex, pour établir un cluster. Vous pouvez également utiliser le programme d'installation SunPlex pour installer ou configurer un ou plusieurs des produits logiciels supplémentaires suivants :
Solstice DiskSuite (sous Solaris 8 seulement). Une fois le logiciel Solstice DiskSuite installé, le programme d'installation SunPlex configure jusqu'à trois méta-ensembles et les métapériphériques correspondants. Le programme d'installation SunPlex crée et monte également des systèmes de fichiers de cluster pour chaque méta-ensemble.
Solaris Volume Manager (sur Solaris 9 ou Solaris 10 seulement). Le programme d'installation SunPlex configure jusqu'à trois volumes Solaris Volume Manager. Le programme d'installation SunPlex crée et monte également des systèmes de fichiers de cluster pour chaque volume. Le logiciel Solaris Volume Manager est déjà installé dans le cadre de l'installation du logiciel Solaris.
Service de données Sun Cluster HA pour NFS.
Service de données Sun Cluster HA pour Apache évolutif.
Le tableau suivant répertorie les exigences d'installation du programme d'installation SunPlex pour ces produits supplémentaires.
Tableau 2–3 Conditions d'utilisation du programme d'installation SunPlex pour l'installation du logiciel
Les adresses IP de test que vous proposez doivent remplir les conditions suivantes :
Les adresses IP de test de tous les adaptateurs du même groupe de multiacheminement doivent appartenir au même sous-réseau IP.
Les adresses IP de test ne doivent pas être utilisées par des applications normales car elles ne sont pas hautement disponibles.
Le tableau suivant répertorie le nom de chaque méta-ensemble et le point de montage du système de fichiers de cluster créés par le programme d'installation SunPlex. Le nombre de méta-ensembles et de points de montage créés par le programme d'installation SunPlex dépend du nombre de disques partagés connectés au nœud. Par exemple, si un nœud est connecté à quatre disques partagés, le programme d'installation SunPlex crée les méta-ensembles mirror-1 et mirror-2. Cependant, le programme d'installation SunPlex ne crée pas le méta-ensemble mirror-3 car le nœud ne dispose pas de suffisamment de disques partagés pour créer un troisième méta-ensemble.
Tableau 2–4 Méta-ensembles créés par le programme d'installation SunPlex
Disques partagés |
Nom du méta-ensemble |
Point de montage du système de fichiers de cluster |
Objet |
---|---|---|---|
Première paire |
mirror-1 |
/global/mirror-1 |
Service de données Sun Cluster HA pour NFS ou Sun Cluster HA pour Apache évolutif, ou les deux |
Deuxième paire |
mirror-2 |
/global/mirror-2 |
Inutilisé |
Troisième paire |
mirror-3 |
/global/mirror-3 |
Inutilisé |
Le programme d'installation SunPlex installe les packages Solstice DiskSuite, même si le cluster ne répond pas aux exigences minimales requises en matière de disques partagés. Cependant, sans le nombre de disques partagés requis, le programme d'installation SunPlex ne peut pas configurer les méta-ensembles, les métapériphériques ou les volumes. Par conséquent, il ne peut pas configurer les systèmes de fichiers de cluster requis pour la création des instances du service de données.
Pour une question de sécurité, le programme d'installation SunPlex ne reconnaît qu'un nombre limité de caractères. Les autres caractères sont éliminés sans avertissement lorsque les formulaires HTML sont soumis au serveur du programme d'installation SunPlex. Voici les caractères acceptés par le programme d'installation SunPlex :
()+,-./0-9:=@A-Z^_a-z{|}~ |
Ce filtre peut engendrer des problèmes dans deux domaines :
Saisie du mot de passe pour les services Sun JavaTM System : si le mot de passe contient des caractères inhabituels, leur non-reconnaissance entraîne l'un des problèmes suivants.
Le mot de passe a moins de huit caractères et par conséquent échoue.
L'application est configurée avec un mot de passe différent de celui prévu par l'utilisateur.
Localisation : les autres jeux de caractères, les caractères accentués ou les caractères asiatiques par exemple, ne sont pas valables pour la saisie.
Cette procédure permet d'utiliser le programme d'installation SunPlex pour configurer le logiciel Sun Cluster et installer les patchs sur tous les nœuds du cluster, en une seule opération. Elle sert également à installer le logiciel et les patchs Solstice DiskSuite (Solaris 8) et à configurer les jeux de disques Solstice DiskSuite ou Solaris Volume Manager en miroir.
N'utilisez pas cette méthode de configuration pour :
Configurer un cluster mononœud ; suivez plutôt la procédure de la section Procédure de configuration du logiciel Sun Cluster sur tous les nœuds (scinstall) .
Utiliser une adresse IP ou un masque de réseau privé différents des éléments proposés par défaut. Le programme d'installation SunPlex utilise automatiquement l'adresse IP (172.16.0.0) et le masque de réseau (255.255.0.0) privé par défaut. Suivez plutôt la procédure de la section Procédure de configuration du logiciel Sun Cluster sur tous les nœuds (scinstall) .
Configurer des adaptateurs compatibles avec le marquage de VLAN ou avec SCI-PCI pour le transport intracluster ; suivez plutôt la procédure de la section Procédure de configuration du logiciel Sun Cluster sur tous les nœuds (scinstall) .
Ajouter un nouveau nœud à un cluster existant ; suivez plutôt les procédures des sections Procédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (scinstall) ou Installation de Solaris et du logiciel Sun Cluster (JumpStart) .
Le processus d'installation peut prendre de 30 minutes à deux heures, voire davantage. La durée réelle dépend du nombre de nœuds du cluster, des services de données que vous avez choisi d'installer et du nombre de disques de la configuration de votre cluster.
Effectuez les tâches suivantes :
Assurez-vous que la configuration du cluster correspond bien à celle requise pour pouvoir utiliser le programme d'installation SunPlex en vue d'installer le logiciel. Reportez-vous à la rubrique Utilisation du programme d'installation SunPlex pour la configuration du logiciel Sun Cluster pour connaître les restrictions et les exigences d'installation.
Vérifiez que l'environnement d'exploitation Solaris est installé et prendra en charge le logiciel Sun Cluster.
Si Solaris est déjà installé sur le nœud, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Pour obtenir plus d'informations sur l'installation du logiciel Solaris en fonction de la configuration requise par le produit Sun Cluster, reportez-vous à la section Installation du logiciel Solaris .
Vérifiez que les packages et les patchs du logiciel Apache sont installés sur le nœud.
# pkginfo SUNWapchr SUNWapchu SUNWapchd |
Si nécessaire, installez les packages manquants du logiciel Apache depuis le CD 2 du logiciel Solaris.
Vérifiez que les packages Sun Cluster sont installés sur le nœud. Reportez-vous à la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Si vous envisagez d'utiliser le mot de passe root pour accéder au programme d'installation SunPlex ou au gestionnaire SunPlex, vérifiez qu'il est le même sur chaque nœud de cluster. Au besoin, utilisez la commande chkey(1) pour mettre à jour la combinaison de touches RPC. Reportez-vous à la page de manuel chkey(1).
Si vous prévoyez d'installer Sun Cluster HA pour NFS ou Sun Cluster HA pour Apache, vérifiez que la configuration de cluster répond à toutes exigences requises. Reportez-vous à la rubrique Utilisation du programme d'installation SunPlex pour la configuration du logiciel Sun Cluster .
Renseignez la fiche de configuration suivante. Reportez-vous aux rubriques Planification du SE Solaris et Planification de l'environnement Sun Cluster pour connaître les procédures de planification. Reportez-vous au document Sun Cluster Data Services Planning and Administration Guide for Solaris OS pour connaître les directives de planification des services de données.
Préparez des chemins de système de fichiers vers une image du CD de chaque produit logiciel que vous prévoyez d'installer.
Suivez ces instructions pour préparer les chemins d'accès aux systèmes de fichiers :
Placez chaque image du CD à un endroit accessible par chaque nœud.
Assurez-vous que les images du CD sont accessibles à tous les nœuds du cluster à partir du même chemin de système de fichiers. Ces chemins peuvent désigner un ou plusieurs des emplacements suivants :
lecteurs de CD exportés vers le réseau depuis des machines extérieures au cluster ;
systèmes de fichiers exportés sur des machines extérieures au cluster ;
images de CD copiées vers des systèmes de fichiers locaux sur chaque nœud du cluster. Le système de fichiers local doit utiliser le même nom sur chaque nœud.
x86 : déterminez si vous utilisez le navigateur Netscape NavigatorTM ou Microsoft Internet Explorer sur votre console administrative.
x86 : Assurez-vous que le plug-in Java est installé et fonctionne correctement sur votre console administrative.
Démarrez le navigateur Netscape sur la console administrative que vous utilisez pour vous connecter au cluster.
Dans le menu Aide, choisissez About Plug-ins.
Vérifiez que le plug-in Java figure bien dans la liste.
Téléchargez le plug-in Java le plus récent à l'adresse http://java.sun.com/products/plugin.
Installez-le sur votre console administrative.
Créez un lien symbolique au plug-in.
% cd ~/.netscape/plugins/ % ln -s /usr/j2se/plugin/i386/ns4/javaplugin.so . |
Passez à l'Étape 5.
x86 : Assurez-vous que Java 2 Platform, Standard Edition (J2SE) pour Windows est installé est fonctionne sur votre console administrative.
Sur votre bureau Microsoft Windows, cliquez sur Démarrer, puis sur Paramètres, puis sur Panneau de configuration.
La fenêtre Panneau de configuration apparaît.
Vérifiez que le plug-in Java y figure.
Dans la négative, passez à l'Étape c.
Dans l'affirmative, double-cliquez sur le plug-in Java dans le panneau de configuration. Lorsque la fenêtre du panneau de configuration s'ouvre, cliquez sur l'onglet About.
Téléchargez la version la plus récente de J2SE pour Windows à l'adresse http://java.sun.com/j2se/downloads.html.
Installez le logiciel J2SE pour Windows sur votre console administrative.
Redémarrez le système sur lequel tourne votre console administrative.
Le panneau de configuration de J2SE pour Windows est activé.
Si des patchs sont requis pour la prise en charge du logiciel Sun Cluster ou Solstice DiskSuite, déterminez comment les installer.
Pour installer manuellement tous les patchs avant d'utiliser le programme d'installation SunPlex, exécutez la commande patchadd.
Pour utiliser le programme d'installation SunPlex pour l'installation des patchs, copiez ces derniers dans un même répertoire.
Vérifiez que le répertoire de patchs répond aux exigences suivantes :
Ce répertoire se trouve dans un système de fichiers disponible pour chaque nœud.
Ce répertoire ne doit contenir qu'une seule version de chaque patch. Si le répertoire de patchs contient plusieurs versions du même patch, le programme d'installation SunPlex ne peut pas déterminer l'ordre de dépendance des patchs.
Les patchs ne sont pas compressés.
Lancez un navigateur à partir de la console administrative ou de toute autre machine extérieure au cluster.
Désactivez le proxy web du navigateur.
La fonctionnalité d'installation du programme d'installation SunPlex est incompatible avec les proxies Web.
Assurez-vous que le cache disque et le cache mémoire sont activés.
La taille de ces caches doit être supérieure à 0.
Dans le navigateur, connectez-vous au port 3000 de l'un des nœuds du cluster.
https://node:3000 |
L'écran d'installation de Sun Cluster s'affiche dans la fenêtre du navigateur.
si le programme d'installation SunPlex affiche l'écran d'installation des services de données au lieu de l'écran d'installation du logiciel Sun Cluster , cela signifie que Sun Cluster est déjà installé et configuré sur ce nœud. Vérifiez que le nom du nœud dans l'URL est bien le nom du nœud de cluster à installer.
Si le navigateur affiche une fenêtre de certification d'un nouveau site, suivez les instructions à l'écran pour accepter le certificat.
Connectez-vous en tant que superutilisateur.
Dans l'écran d'installation de Sun Cluster, vérifiez que le cluster satisfait les exigences d'utilisation du programme d'installation SunPlex répertoriées.
Si toutes les exigences sont rencontrées, cliquez sur Suivant pour passer à l'écran suivant.
Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.
Cliquez sur Begin Installation pour lancer le processus d'installation.
Pour utiliser le programme d'installation SunPlex, effectuez la procédure suivante :
ne fermez pas la fenêtre du navigateur et ne modifiez pas l'URL en cours d'installation.
Si le navigateur affiche une fenêtre de certification d'un nouveau site, suivez les instructions à l'écran pour accepter le certificat.
Si le navigateur demande des informations de connexion, tapez l'ID superutilisateur et le mot de passe correspondant au nœud auquel vous vous connectez.
Le programme d'installation SunPlex installe et configure tous les nœuds du cluster, et réinitialise ce dernier. Le cluster est établi une fois que tous ses nœuds ont été correctement réinitialisés. Les informations relatives à l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log.N.
Durant l'installation, l'écran affiche de brefs messages concernant l'état de l'installation du cluster. Une fois l'installation et la configuration terminées, le navigateur affiche l'interface de surveillance et d'administration du cluster.
Les informations sur l'installation du programme d'installation SunPlex sont conservées dans le fichier /var/cluster/spm/messages. Les informations sur l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log. N.
À partir d'un nœud, vérifiez que tous les nœuds ont rejoint le cluster.
Exécutez la commande scstat(1M) pour afficher la liste des nœuds du cluster. Vous n'avez pas besoin d'être superutilisateur pour exécuter cette commande.
% scstat -n |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
Vérifiez les affectations de quorum et modifiez-les si nécessaire.
Si votre cluster comporte trois nœuds ou plus, la configuration d'un périphérique de quorum est facultative. L'attribution de votes de quorum aux périphériques de quorum par le programme d'installation SunPlex dépend de la disponibilité des disques partagés requis. Utilisez le gestionnaire SunPlex pour désigner des périphériques de quorum et réaffecter les votes au sein du cluster. Reportez-vous au Chapitre 5, Administration du quorum du Guide d’administration système de Sun Cluster pour SE Solaris pour plus d'informations.
Pour réactiver le système de fichiers loopback (LOFS), supprimez l'entrée suivante du fichier /etc/system de chaque nœud du cluster.
exclude:lofs |
La réactivation du LOFS prendra effet après le prochain redémarrage du système.
Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : si vous activez le LOFS et décidez ensuite d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local hautement disponible, vous devez effectuer l'une des opérations suivantes :
Replacez l'entrée exclude:lofs dans le fichier /etc/system sur chaque nœud du cluster et redémarrez chaque nœud. Cette modification désactivera le LOFS.
Désactivez le démon automountd.
Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.
Pour plus d'informations sur les systèmes de fichiers loopback, reportez-vous au chapitre Types of File Systems du document System Administration Guide, Volume 1 (Solaris 8) ou au chapitre The Loopback File System du document System Administration Guide: Devices and File Systems (Solaris 9 ou Solaris 10).
Si vous souhaitez installer des services de données, consultez la procédure correspondant au service à installer et à la version de Solaris utilisée :
CD 2 de Sun Cluster (services de données Sun Java System) |
CD Sun Cluster Agents (autres services de données) |
|||
---|---|---|---|---|
Procédure |
Solaris 8 ou 9 |
Solaris10 |
Solaris 8 ou 9 |
Solaris10 |
X | ||||
Installation des packages du logiciel de service de données (pkgadd) |
X | |||
Installation des packages du logiciel de service de données (scinstall) |
X |
X |
||
Installation des packages du logiciel de service de données (Web Start installer) |
X |
Sinon, reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .
vous ne pouvez plus modifier l'adresse et le masque de réseau privé une fois le traitement de scinstall terminé. Si vous devez utiliser une adresse ou un masque de réseau privé différent et si le nœud est toujours en mode d'installation, suivez la procédure de la rubrique Désinstallation du logiciel Sun Cluster pour corriger les problèmes d'installation . Répétez ensuite cette procédure pour réinstaller et reconfigurer le nœud avec les informations correctes.
Effectuez cette procédure pour ajouter de nouveaux nœuds à un cluster existant. Pour ajouter un nœud à l'aide de JumpStart, effectuez plutôt les procédures de la rubrique Installation de Solaris et du logiciel Sun Cluster (JumpStart) .
Effectuez les tâches suivantes :
Vérifiez que tout le matériel nécessaire est bien installé.
Vérifiez que l'adaptateur de l'hôte est installé sur le nouveau nœud. Reportez-vous au Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS.
Vérifiez que toute interconnexion de cluster peut prendre en charge le nouveau nœud. Reportez-vous au Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS.
Vérifiez que vous disposez d'espace de stockage supplémentaire. Consultez le manuel approprié dans la Sun Cluster 3.x Hardware Administration Collection.
Vérifiez que l'environnement d'exploitation Solaris est installé et prendra en charge le logiciel Sun Cluster.
Si Solaris est déjà installé sur le nœud, vous devez vous assurer que son installation correspond à la configuration minimale requise par le logiciel Sun Cluster et les autres logiciels que vous prévoyez d'installer sur votre cluster. Pour obtenir plus d'informations sur l'installation du logiciel Solaris en fonction de la configuration requise par le produit Sun Cluster, reportez-vous à la section Installation du logiciel Solaris .
Vérifiez que les packages Sun Cluster sont installés sur le nœud. Reportez-vous à la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Determinez le mode d'exécution de l'utilitaire scinstall (typique ou personnalisé). Pour l'installation typique de Sun Cluster, scinstall spécifie automatiquement la configuration par défaut suivante :
Composant |
Valeur par défaut |
---|---|
Jonctions de transport intracluster |
switch1 et switch2 |
Nom du système de fichiers des périphériques globaux |
/globaldevices |
Répertoire de patchs Solaris et Sun Cluster |
/var/cluster/patches |
Renseignez la fiche de configuration appropriée. Reportez-vous aux rubriques Planification du SE Solaris et Planification de l'environnement Sun Cluster pour connaître les procédures de planification.
Mode Typique - Si vous utilisez ce mode et acceptez tous les paramètres par défaut, remplissez la fiche suivante.
Mode Personnalisé : si vous prévoyez d'utiliser ce mode pour personnaliser les données de configuration, remplissez la fiche suivante.
Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :
L'utilitaire scinstall mémorise toutes les frappes au clavier. Par conséquent, n'appuyez qu'une seule fois sur la touche Entrée, même si l'écran de menu suivant n'apparaît pas immédiatement.
Sauf indication contraire, vous pouvez appuyer sur Ctrl-D pour revenir au début d'une série de questions connexes ou au menu principal.
Les réponses par défaut ou les réponses issues de sessions antérieures sont affichées entre crochets ([ ]) à la fin des questions. Appuyez sur Retour pour entrer la réponse figurant entre crochets sans avoir à la saisir.
Si vous ajoutez ce nœud à un cluster d'un nœud, vérifiez que deux inteconnexions de cluster existent en affichant la configuration d'interconnexion.
# scconf -p | grep cable # scconf -p | grep adapter |
Avant de pouvoir ajouter un nœud, vous devez avoir configuré au moins deux câbles ou deux adaptateurs.
Si des informations de configuration s'affichent pour deux câbles ou deux adaptateurs, passez à l'Étape 2.
Si les informations de configuration sont absentes ou partielles, configurez de nouvelles interconnexions de cluster.
Sur le nœud de cluster existant, démarrez l'utilitaire scsetup(1M).
# scsetup |
Choisissez l'élément de menu Interconnexions de clusters.
Choisissez l'élément de menu Ajouter un câble de transport.
Suivez les instructions pour spécifier le nœud du nœud à ajouter au cluster, le nom de l'adaptateur de transport et l'utilisation ou non d'une jonction de transport.
Si nécessaire, répétez l'Étape c pour configurer une deuxième interconnexion de cluster.
Une fois l'opération terminée, quittez l'utilitaire scsetup.
Vérifiez que le cluster dispose de deux interconnexions configurées.
# scconf -p | grep cable # scconf -p | grep adapter |
La sortie de la commande doit afficher des informations de configuration concernant au moins deux interconnexions de cluster.
Si vous ajoutez le nœud à un cluster existant, vous devez l'ajouter à la liste des nœuds autorisés du cluster.
Sur tout élément actif du cluster, démarrez l'utilitaire scsetup(1M).
# scsetup |
Le menu principal apparaît.
Choisissez l'élément de menu Nouveaux nœuds.
Choisissez l'élément de menu Spécifier le nom d'une machine autorisée à s'auto-ajouter.
Suivez les instructions pour ajouter le nom du nœud à la liste des machines reconnues.
Une fois la tâche terminée sans erreur, l'utilitaire scsetup imprime le message Command completed successfully.
Quittez l'utilitaire scsetup.
Devenez superutilisateur du nœud de cluster à configurer.
Lancez l'utilitaire scinstall.
# /usr/cluster/bin/scinstall |
Dans le menu principal, sélectionnez l'option Installation d'un cluster ou d'un nœud de cluster.
*** Main Menu *** Please select from one of the following (*) options: * 1) Install a cluster or cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Add support for new data services to this cluster node 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1 |
À partir du menu Installation, choisissez l'élément Ajouter cette machine en tant que nœud d'un cluster existant.
Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.
L'utilitaire scinstall configure le nœud et le réinitialise sur le cluster.
Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.
# eject cdrom |
Si nécessaire, installez les patchs requis pour prendre en charge le logiciel Sun Cluster.
Répétez cette procédure sur tout autre nœud à ajouter au cluster jusqu'à ce que tous les nœuds supplémentaires soient entièrement configurés.
Pour Solaris 10, vérifiez que les services multiutilisateur pour SMF sont en ligne sur chaque nœud.
Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.
# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Empêchez tout autre nœud de rejoindre le cluster à partir d'un élément actif du cluster.
# /usr/cluster/bin/scconf -a -T node=. |
Spécifie la forme d'ajout de la commande
Spécifie les options d'authentification
Ajoute un point (.) au nom du nœud devant figurer dans la liste d'authentification, pour empêcher tout autre nœud de s'ajouter au cluster.
Vous pouvez également utiliser l'utilitaire scsetup(1M). Reportez-vous à la rubrique Ajout d’un nœud de cluster à la liste des nœuds autorisés du Guide d’administration système de Sun Cluster pour SE Solaris pour connaître les procédures.
À partir d'un nœud, vérifiez que tous les nœuds ont rejoint le cluster.
Exécutez la commande scstat(1M) pour afficher la liste des nœuds du cluster. Vous n'avez pas besoin d'être superutilisateur pour exécuter cette commande.
% scstat -n |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
Pour réactiver le système de fichiers loopback (LOFS), supprimez l'entrée suivante du fichier /etc/system de chaque nœud du cluster.
exclude:lofs |
La réactivation du LOFS prendra effet après le prochain redémarrage du système.
Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : si vous activez le LOFS et décidez ensuite d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local hautement disponible, vous devez effectuer l'une des opérations suivantes :
Replacez l'entrée exclude:lofs dans le fichier /etc/system sur chaque nœud du cluster et redémarrez chaque nœud. Cette modification désactivera le LOFS.
Désactivez le démon automountd.
Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.
Pour plus d'informations sur les systèmes de fichiers loopback, reportez-vous au chapitre Types of File Systems du document System Administration Guide, Volume 1 (Solaris 8) ou au chapitre The Loopback File System du document System Administration Guide: Devices and File Systems (Solaris 9 ou Solaris 10).
L'exemple suivant montre le nœud phys-schost-3 ajouté au cluster schost. Le nœud de cautionnement est phys-schost-1.
*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 PST 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 -m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2 Checking device to use for global devices file system ... done Adding node "phys-schost-3" to the cluster configuration ... done Adding adapter "qfe2" to the cluster configuration ... done Adding adapter "qfe3" to the cluster configuration ... done Adding cable to the cluster configuration ... done Adding cable to the cluster configuration ... done Copying the config from "phys-schost-1" ... done Copying the postconfig file from "phys-schost-1" if it exists ... done Copying the Common Agent Container keys from "phys-schost-1" ... done Setting the node ID for "phys-schost-3" ... done (id=1) Setting the major number for the "did" driver ... Obtaining the major number for the "did" driver from "phys-schost-1" ... done "did" driver major number set to 300 Checking for global devices global file system ... done Updating vfstab ... done Verifying that NTP is configured ... done Initializing NTP configuration ... done Updating nsswitch.conf ... done Adding clusternode entries to /etc/inet/hosts ... done Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files Updating "/etc/hostname.hme0". Verifying that power management is NOT configured ... done Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done The "local-mac-address?" parameter setting has been changed to "true". Ensure network routing is disabled ... done Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done Updating file ("hosts") on node phys-schost-1 ... done Rebooting ... |
Déterminez l'étape suivante :
Si vous avez ajouté un élément à un cluster de deux nœuds, reportez-vous à la rubrique Mise à jour des réservations SCSI après ajout d'un nœud.
Si vous souhaitez installer des services de données, consultez la procédure correspondant au service à installer et à la version de Solaris utilisée :
CD 2 de Sun Cluster (services de données Sun Java System) |
CD Sun Cluster Agents (autres services de données) |
|||
---|---|---|---|---|
Procédure |
Solaris 8 ou 9 |
Solaris10 |
Solaris 8 ou 9 |
Solaris10 |
X | ||||
Installation des packages du logiciel de service de données (pkgadd) |
X | |||
Installation des packages du logiciel de service de données (scinstall) |
X |
X |
||
Installation des packages du logiciel de service de données (Web Start installer) |
X |
Sinon, reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .
Lorsque vous augmentez ou réduisez le nombre de liaisons entre des nœuds et un périphérique de quorum, le cluster ne recalcule pas automatiquement le nombre de votes de quorum. Pour rétablir le vote correct, exécutez l'utilitaire scsetup pour supprimer chaque périphérique de quorum et l'ajouter à nouveau à la configuration. Chargez-vous d'un périphérique de quorum à la fois.
Si le cluster ne comporte qu'un seul périphérique de quorum, configurez-en un deuxième avant de supprimer puis d'ajouter à nouveau le périphérique initial. Supprimez, ensuite, le deuxième périphérique de quorum pour rétablir la configuration initiale du cluster.
Si vous avez ajouté un nœud à un cluster de deux nœuds utilisant un ou plusieurs disques SCSI partagés comme périphériques de quorum, vous devez mettre à jour la réservation de groupe persistante. Pour ce faire, supprimez les périphériques de quorum dotés des réservations SCSI-2. Si vous les ajoutez à nouveau, les périphériques de quorum récemment configurés seront dotés des réservations SCSI-3.
Assurez-vous de l'installation du logiciel Sun Cluster sur le nœud ajouté.
Devenez superutilisateur sur un nœud du cluster.
Affichez la configuration actuelle de quorum.
L'exemple suivant montre l'état du périphérique de quorum d3.
# scstat -q |
Notez le nom de chaque périphérique de quorum répertorié.
Supprimez le périphérique initial de quorum.
Effectuez cette étape pour chaque périphérique de quorum configuré.
# scconf -r -q globaldev=devicename |
Supprime.
Indique le nom du périphérique de quorum.
Assurez-vous de la suppression de tous les périphériques initiaux de quorum.
# scstat -q |
(Facultatif) Ajoute un périphérique de quorum SCSI.
Vous pouvez configurer le périphérique initialement défini comme étant de quorum ou choisir un autre périphérique partagé.
(Facultatif) Si vous optez pour la dernière solution, affichez tous les périphériques contrôlés par le système.
Dans le cas contraire, passez à l'Étape c.
# scdidadm -L |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … |
À partir du résultat, choisissez un périphérique partagé.
Configurez-le comme périphérique de quorum.
# scconf -a -q globaldev=devicename |
Ajoute.
Répétez l'étape pour chaque périphérique de quorum à configurer.
Si vous avez procédé à l'ajout, vérifiez la nouvelle configuration de quorum.
# scstat -q |
Chaque nouveau périphérique de quorum doit être Online et avoir un vote affecté.
L'exemple suivant identifie le périphérique initial de quorum d2, montre sa suppression, répertorie les périphériques partagés disponibles et présente la configuration de d3 comme nouveau périphérique de quorum.
(List quorum devices) # scstat -q … -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d2s2 1 1 Online (Remove the original quorum device) # scconf -r -q globaldev=d2 (Verify the removal of the original quorum device) # scstat -q … -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ (List available devices) # scdidadm -L … 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … (Add a quorum device) # scconf -a -q globaldev=d3 (Verify the addition of the new quorum device) # scstat -q … -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d3s2 2 2 Online |
Si vous souhaitez installer des services de données, consultez la procédure correspondant au service à installer et à la version de Solaris utilisée :
CD 2 de Sun Cluster (services de données Sun Java System) |
CD Sun Cluster Agents (autres services de données) |
|||
---|---|---|---|---|
Procédure |
Solaris 8 ou 9 |
Solaris10 |
Solaris 8 ou 9 |
Solaris10 |
X | ||||
Installation des packages du logiciel de service de données (pkgadd) |
X | |||
Installation des packages du logiciel de service de données (scinstall) |
X |
X |
||
Installation des packages du logiciel de service de données (Web Start installer) |
X |
Sinon, reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .
Cette procédure permet d'installer les services de données Solaris 10 du CD 2 de Sun Cluster. Le CD 2 de Sun Cluster contient les services de données pour les applications Sun Java System. Pour installer les packages, le programme pkgadd(1M) est utilisé. Effectuez cette procédure sur chaque nœud de cluster où exécuter un service de données déterminé.
ne l'utilisez pas pour les types suivants de packages de services de données :
Services de données Solaris 8/Solaris 9 du CD 2 de Sun Cluster. Dans ce cas, suivez les procédures d'installation de la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Services de données Solaris 10 du CD Sun Cluster Agents. Dans ce cas, suivez les procédures d'installation de la rubrique Installation des packages du logiciel de service de données (scinstall). Le programme Web Start installer du CD Sun Cluster Agents n'est pas compatible avec Solaris 10.
Devenez superutilisateur sur le nœud de cluster.
Insérez le CD 2 de Sun Cluster dans le lecteur.
Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il soit configuré pour gérer les périphériques de CD-ROM, il monte automatiquement le CD-ROM sur le répertoire /cdrom/cdrom0/.
Passez sur le répertoire Solaris_arch/Product/sun_cluster_agents/Solaris_10/Packages/ (arch représente sparc ou x86).
# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster_agents/ \ Solaris_10/Packages/ |
Installez les packages de services de données sur la zone globale.
# pkgadd -G -d . [packages] |
Ajoute les packages uniquement dans la zone en cours (vous ne devez ajouter les packages Sun Cluster que dans la zone globale). Elle ne permet pas aux packages de se propager dans une éventuelle zone non globale.
Spécifie l'emplacement d'installation des packages.
(Facultatif) Spécifie le nom d'un ou de plusieurs packages à installer. En l'absence de nom de package, le programme pkgadd affiche une liste de sélection de tous les packages disponibles pour l'installation.
Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.
# eject cdrom |
Installez tous les patchs des services de données installés.
Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.
Sauf indication contraire dans les instructions fournies avec un patch particulier, il n'est pas nécessaire de réinitialiser le système après l'installation de patchs des services de données de Sun Cluster. Si une instruction de patch requiert une réinitialisation, suivez les étapes suivantes :
Depuis un nœud, arrêtez le cluster à l'aide de la commande scshutdown(1M).
Réinitialisez tous les nœuds du cluster.
tant que le mode d'installation du cluster n'a pas été désactivé, seul le premier nœud installé, qui a établi le cluster, possède un vote de quorum. Dans le cadre d'un cluster à nœuds multiples établi et toujours en mode d'installation, si le cluster n'est pas fermé avant que le premier nœud installé ne soit réinitialisé, les autres nœuds du cluster ne peuvent pas obtenir le quorum. Alors tout le cluster se ferme.
Si vous avez choisi une configuration de quorum automatique lors de l'installation de Sun Cluster ou utilisé le programme d'installation SunPlex pour installer le logiciel Sun Cluster, l'utilitaire d'installation affecte automatiquement des votes de quorum et supprime le cluster du mode installation lors de la réinitialisation. Dans le cas contraire, les nœuds de cluster restent en mode installation jusqu'à l'exécution de la commande scsetup(1M) de la procédure Configuration des périphériques de quorum .
Si vous avez installé un cluster mononœud, l'installation du cluster est terminée. Passez à la section Configuration du cluster pour installer le gestionnaire de volumes et configurer le cluster.
Si vous avez ajouté un nœud à un cluster existant, vérifiez l'état de ce dernier. Passez à la section Vérification de la configuration de quorum et du mode d'installation .
Si, au cours de l'installation d'un cluster multinœud à l'aide de Sun Cluster, vous avez choisi de configurer le quorum manuellement, effectuez la procédure post-installation. Passez à la section Configuration des périphériques de quorum .
Si, au cours de l'installation d'un cluster multinœud à l'aide de Sun Cluster, vous avez opté pour la configuration automatique du quorum, la configuration post-installation est terminée. Passez à la section Vérification de la configuration de quorum et du mode d'installation .
Si vous avez installé un cluster multinœud à l'aide du programme d'installation SunPlex, la configuration post-installation est terminée. Passez à la section Vérification de la configuration de quorum et du mode d'installation .
Cette procédure permet d'installer les services de données du CD Sun Cluster Agents (version Sun Cluster 3.1 8/05). Elle s'appuie sur l'utilitaire scinstall interactif pour installer les packages. Effectuez cette procédure sur chaque nœud de cluster où exécuter un service de données déterminé.
ne l'utilisez pas pour les types suivants de packages de services de données :
Services de données Solaris 10 du CD 2 de Sun Cluster. Dans ce cas, suivez les procédures d'installation de la rubrique Installation des packages du logiciel de service de données (pkgadd) .
Services de données Solaris 8/Solaris 9 du CD 2 de Sun Cluster. Dans ce cas, suivez les procédures d'installation de la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Vous n'avez pas besoin d'effectuer cette procédure si vous avez utilisé le programme d'installation SunPlex pour installer Sun Cluster HA pour NFS et/ou Sun Cluster HA pour Apache et si vous n'envisagez pas d'installer d'autres services de données. Dans ce cas, reportez-vous à la rubrique Configuration des périphériques de quorum .
Pour installer les packages de services de données Sun Cluster 3.1 10/03 ou version antérieure, vous pouvez également utiliser le programme Web Start installer. Reportez-vous à la rubrique Installation des packages du logiciel de service de données (Web Start installer) .
Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :
L'utilitaire scinstall mémorise toutes les frappes au clavier. Par conséquent, n'appuyez qu'une seule fois sur la touche Entrée, même si l'écran de menu suivant n'apparaît pas immédiatement.
Sauf indication contraire, vous pouvez appuyer sur Ctrl-D pour revenir au début d'une série de questions connexes ou au menu principal.
Les réponses par défaut ou les réponses issues de sessions antérieures sont affichées entre crochets ([ ]) à la fin des questions. Appuyez sur Retour pour entrer la réponse figurant entre crochets sans avoir à la saisir.
Devenez superutilisateur sur le nœud de cluster.
Insérez le CD Sun Cluster Agents dans le lecteur de CD du nœud.
Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il soit configuré pour gérer les périphériques de CD-ROM, il monte automatiquement le CD-ROM sur le répertoire /cdrom/cdrom0/.
Déplacez-vous sur le répertoire où est monté le CD.
# cd /cdrom/cdrom0/ |
Lancez l'utilitaire scinstall(1M).
# scinstall |
À partir du menu principal, choisissez l'élément Ajouter la prise en charge de nouveaux services de données à ce nœud de cluster.
Suivez les invites pour sélectionner les services de données à installer.
Vous devez installer le même ensemble de packages de services de données sur chaque nœud. Cette condition s'applique même s'il n'est pas prévu qu'un nœud héberge des ressources pour un service de données installé.
Après l'installation des services de données, quittez l'utilitaire scinstall.
Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.
# eject cdrom |
Installez les patchs des services de données de Sun Cluster.
Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.
Sauf indication contraire dans les instructions fournies avec un patch particulier, il n'est pas nécessaire de réinitialiser le système après l'installation de patchs des services de données de Sun Cluster. Si une instruction de patch requiert une réinitialisation, suivez les étapes suivantes :
Depuis un nœud, arrêtez le cluster à l'aide de la commande scshutdown(1M).
Réinitialisez tous les nœuds du cluster.
tant que le mode d'installation du cluster n'a pas été désactivé, seul le premier nœud installé, qui a établi le cluster, possède un vote de quorum. Dans le cadre d'un cluster à nœuds multiples établi et toujours en mode d'installation, si le cluster n'est pas fermé avant que le premier nœud installé ne soit réinitialisé, les autres nœuds du cluster ne peuvent pas obtenir le quorum. Cette impossibilité d'obtenir le quorum provoque la fermeture totale du cluster.
Si vous avez choisi une configuration de quorum automatique lors de l'installation de Sun Cluster ou utilisé le programme d'installation SunPlex pour installer le logiciel Sun Cluster, l'utilitaire d'installation affecte automatiquement des votes de quorum et supprime le cluster du mode installation lors de la réinitialisation. Dans le cas contraire, les nœuds de cluster restent en mode installation jusqu'à l'exécution de la commande scsetup(1M) de la procédure Configuration des périphériques de quorum .
Si vous avez installé un cluster mononœud, l'installation du cluster est terminée. Passez à la section Configuration du cluster pour installer le gestionnaire de volumes et configurer le cluster.
Si vous avez ajouté un nœud à un cluster existant, vérifiez l'état de ce dernier. Passez à la section Vérification de la configuration de quorum et du mode d'installation .
Si, au cours de l'installation d'un cluster multinœud à l'aide de Sun Cluster, vous avez choisi de configurer le quorum manuellement, effectuez la procédure post-installation. Passez à la section Configuration des périphériques de quorum .
Si, au cours de l'installation d'un cluster multinœud à l'aide de Sun Cluster, vous avez opté pour la configuration automatique du quorum, la configuration post-installation est terminée. Passez à la section Vérification de la configuration de quorum et du mode d'installation .
Si vous avez installé un cluster multinœud à l'aide du programme d'installation SunPlex, la configuration post-installation est terminée. Passez à la section Vérification de la configuration de quorum et du mode d'installation .
Cette procédure permet d'installer les services de données Solaris 8/Solaris 9 du CD Sun Cluster Agents. Elle s'appuie sur le programme Web Start installer du CD-ROM pour installer les packages. Effectuez cette procédure sur chaque nœud de cluster où exécuter un service de données déterminé.
ne l'utilisez pas pour les types suivants de packages de services de données :
Services de données Solaris 10 du CD Sun Cluster Agents. Dans ce cas, suivez les procédures d'installation de la rubrique Installation des packages du logiciel de service de données (scinstall). Le programme Web Start installer du CD Sun Cluster Agents n'est pas compatible avec Solaris 10.
Services de données Solaris 10 du CD 2 de Sun Cluster. Dans ce cas, suivez les procédures d'installation de la rubrique Installation des packages du logiciel de service de données (pkgadd) .
Services de données Solaris 8/Solaris 9 du CD 2 de Sun Cluster. Dans ce cas, suivez les procédures d'installation de la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .
Vous n'avez pas besoin d'effectuer cette procédure si vous avez utilisé le programme d'installation SunPlex pour installer Sun Cluster HA pour NFS et/ou Sun Cluster HA pour Apache et si vous n'envisagez pas d'installer d'autres services de données. Dans ce cas, reportez-vous à la rubrique Configuration des périphériques de quorum .
Pour installer les services de données de Sun Cluster 3.1 10/03 ou version antérieure, vous pouvez également suivre la procédure de la rubrique Installation des packages du logiciel de service de données (scinstall).
Vous pouvez exécuter le programme installer à l'aide d'une interface de ligne de commande (ILC) ou d'une interface utilisateur graphique (IUG). Le contenu et l'ordre des instructions des deux méthodes sont identiques. Pour plus d'informations sur le programme installer, reportez-vous à la page de manuel installer(1M).
Si vous envisagez d'utiliser le programme installer avec une IUG, assurez-vous que la variable d'environnement DISPLAY
est définie.
Devenez superutilisateur sur le nœud de cluster.
Insérez le CD Sun Cluster Agents dans le lecteur.
Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il soit configuré pour gérer les périphériques de CD-ROM, il monte automatiquement le CD-ROM sur le répertoire /cdrom/cdrom0/.
Placez-vous dans le répertoire du programme installer du CD-ROM.
# cd /cdrom/cdrom0/Solaris_arch/ |
Dans le répertoire Solaris_arch/, arch représente sparc ou x86.
Lancez le programme Web Start installer.
# ./installer |
À l'invite, sélectionnez le type d'installation.
Consultez les notes de version de Sun Cluster pour obtenir la liste des langues disponibles pour chacun des services de données.
À l'invite, sélectionnez la version localisée à installer.
Suivez les instructions à l'écran pour installer les packages du service de données sur le nœud.
Une fois l'installation terminée, le programme installer fournit un résumé de l'installation permettant de consulter les journaux créés par le programme pendant l'installation. Ces journaux sont situés dans le répertoire /var/sadm/install/logs/.
Quittez le programme installer.
Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.
# eject cdrom |
Installez les patchs des services de données de Sun Cluster.
Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.
Sauf indication contraire dans les instructions fournies avec un patch particulier, il n'est pas nécessaire de réinitialiser le système après l'installation de patchs des services de données de Sun Cluster. Si une instruction de patch requiert une réinitialisation, suivez les étapes suivantes :
Depuis un nœud, arrêtez le cluster à l'aide de la commande scshutdown(1M).
Réinitialisez tous les nœuds du cluster.
tant que le mode d'installation du cluster n'a pas été désactivé, seul le premier nœud installé, qui a établi le cluster, possède un vote de quorum. Dans le cadre d'un cluster à nœuds multiples établi et toujours en mode d'installation, si le cluster n'est pas fermé avant que le premier nœud installé ne soit réinitialisé, les autres nœuds du cluster ne peuvent pas obtenir le quorum. Alors tout le cluster se ferme.
Si vous avez choisi une configuration de quorum automatique lors de l'installation de Sun Cluster ou utilisé le programme d'installation SunPlex pour installer le logiciel Sun Cluster, l'utilitaire d'installation affecte automatiquement des votes de quorum et supprime le cluster du mode installation lors de la réinitialisation. Dans le cas contraire, les nœuds de cluster restent en mode installation jusqu'à l'exécution de la commande scsetup(1M) de la procédure Configuration des périphériques de quorum .
Si vous avez installé un cluster mononœud, l'installation du cluster est terminée. Passez à la section Configuration du cluster pour installer le gestionnaire de volumes et configurer le cluster.
Si vous avez ajouté un nœud à un cluster existant, vérifiez l'état de ce dernier. Passez à la section Vérification de la configuration de quorum et du mode d'installation .
Si, au cours de l'installation d'un cluster multinœud à l'aide de Sun Cluster, vous avez choisi de configurer le quorum manuellement, effectuez la procédure post-installation. Passez à la section Configuration des périphériques de quorum .
Si, au cours de l'installation d'un cluster multinœud à l'aide de Sun Cluster, vous avez opté pour la configuration automatique du quorum, la configuration post-installation est terminée. Passez à la section Vérification de la configuration de quorum et du mode d'installation .
Si vous avez installé un cluster multinœud à l'aide du programme d'installation SunPlex, la configuration post-installation est terminée. Passez à la section Vérification de la configuration de quorum et du mode d'installation .
il est inutile de configurer les périphériques de quorum dans les circonstances suivantes :
Vous avez choisi la configuration de quorum automatique au cours de la configuration du logiciel Sun Cluster.
Vous avez utilisé le programme d'installation SunPlex pour installer le cluster. Le programme d'installation SunPlex affecte des votes de quorum et désactive le mode d'installation du cluster à votre place.
Vous avez installé un cluster à nœud unique.
Vous avez ajouté un nœud à un cluster existant et un nombre suffisant de votes de quorum est déjà assigné.
Passez plutôt à la rubrique Vérification de la configuration de quorum et du mode d'installation .
Suivez cette procédure une seule fois, après la formation complète du cluster. Elle permet d'assigner des votes de quorum, puis de mettre le cluster hors mode d'installation.
Si vous envisagez de définir un périphérique NAS (Network Attached Storage) Network Appliance comme étant de quorum, procédez de la manière suivante :
Installez le matériel et le logiciel du périphérique NAS. Reportez-vous au Chapitre 1, Installing and Maintaining Network Appliance Network-Attached Storage Devices in a Sun Cluster Environment du Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS et à la documentation fournie avec votre périphérique pour connaître les exigences et les procédures d'installation du matériel et du logiciel du périphérique NAS.
Ayez à disposition les informations suivantes :
Nom du périphérique NAS
LUN du périphérique NAS
Pour obtenir plus d'informations sur la création et la configuration d'un périphérique NAS ou d'un LUN Network Appliance, reportez-vous à la documentation Network Appliance suivante. Les documents ci-après se trouvent également à l'adresse suivante : http://now.netapp.com.
Configuration d'un périphérique NAS
System Administration File Access Management Guide
Configuration d'un LUN
Host Cluster Tool for Unix Installation Guide
Installation du logiciel ONTAP
Software Setup Guide, Upgrade Guide
Exportation des volumes du cluster
Data ONTAP Storage Management Guide
Installation des packages du logiciel de prise en charge NAS sur les nœuds de cluster
Rendez-vous sur le site http://now.netapp.com. Accédez à la page de téléchargement des logiciels, puis téléchargez le document Host Cluster Tool for Unix Installation Guide.
Si vous souhaitez utiliser un disque SCSI partagé en tant que périphérique de quorum, vérifiez la connexion aux nœuds de cluster et choisissez le périphérique à configurer.
Depuis un nœud de cluster, affichez la liste de tous les périphériques contrôlés par le système.
Vous n'avez pas besoin d'être connecté en tant que superutilisateur pour exécuter cette commande.
% scdidadm -L |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … |
Vérifiez que le résultat contient toutes les connexions entre les nœuds de cluster et les périphériques de stockage.
Déterminez le nom de l'ID de périphérique (IDP) global de chaque disque partagé que vous allez configurer en tant que périphérique de quorum.
tous les disques partagés sélectionnés doivent être qualifiés pour être utilisés en tant que périphériques de quorum. Reportez-vous à la rubrique Périphériques de quorum pour obtenir plus d'informations sur le choix des périphériques de quorum.
Utilisez le résultat scdidadm de l'Étape a pour identifier le périphérique (nom de chaque disque partagé à configurer en tant que périphérique de quorum). Par exemple, le résultat de l'Étape a indique que le périphérique global d2 est partagé par phys-schost-1 et phys-schost-2.
Devenez superutilisateur sur un nœud du cluster.
Lancez l'utilitaire scsetup(1M).
# scsetup |
L'écran Configuration initiale du cluster apparaît.
si le logiciel affiche le menu principal à la place de cet écran, cela signifie que la configuration initiale du cluster a déjà été effectuée avec succès. Passez à l'Étape 8.
Répondez à l'invite Voulez-vous ajouter des disques de quorum ?.
Indiquez le type du périphérique à définir comme étant de quorum.
Indiquez le nom du périphérique à définir comme étant de quorum.
Pour un périphérique NAS Network Appliance, indiquez également les informations suivantes :
Nom du périphérique NAS
LUN du périphérique NAS
À l'invite Is it okay to reset "installmode"?, entrez Yes.
Une fois que l'utilitaire scsetup a défini les configurations de quorum et que le vote est pris en compte par le cluster, le message L'initialisation du cluster est terminée. s'affiche. L'utilitaire vous renvoie au Menu principal.
Quittez l'utilitaire scsetup.
Vérifiez la configuration du quorum et la désactivation du mode d'installation. Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .
Traitement scsetup interrompu : si l'installation de quorum est interrompue ou a échoué, réexécutez scsetup.
Changement du nombre de votes de quorum : si vous augmentez/diminuez ultérieurement le nombre de raccordements de nœud à un périphérique de quorum, le nombre de votes de quorum n'est pas recalculé automatiquement. Vous pouvez redéfinir le nombre de votes de quorum approprié en supprimant chacun des périphériques de quorum, puis en les ajoutant de nouveau un par un. Lorsqu'il s'agit d'un cluster à deux nœuds, vous devez temporairement ajouter un nouveau périphérique de quorum avant de supprimer et de rajouter le périphérique d'origine. Supprimez ensuite le périphérique temporaire. Reportez-vous à la procédure de modification d'une liste de nœuds de périphérique de quorum du Chapitre 5, Administration du quorum du Guide d’administration système de Sun Cluster pour SE Solaris.
Cette procédure permet de vérifier que la configuration de quorum a réussi et que le mode d'installation du cluster est désactivé.
À partir d'un nœud quelconque, vérifiez la configuration de quorum des périphériques et des nœuds.
% scstat -q |
Depuis tout nœud, vérifiez que le mode d'installation du cluster est désactivé.
Vous n'avez pas besoin d'être un superutilisateur pour exécuter cette commande.
% scconf -p | grep "install mode" Cluster install mode: disabled |
L'installation du cluster est terminée.
Reportez-vous à la rubrique Configuration du cluster pour installer le logiciel de gestion des volumes et effectuer d'autres tâches de configuration sur le cluster ou sur un nouveau nœud.
si vous avez ajouté un nœud à un cluster qui utilise VxVM, vous devez effectuer la procédure de la section SPARC : Installation du logiciel VERITAS Volume Manager afin :
d'installer VxVM sur ce nœud ou
de modifier le fichier /etc/name_to_major de ce nœud à des fins de coexistence avec VxVM.
Cette rubrique permet de configurer les logiciels installés sur le cluster ou sur un nouveau nœud. Avant de commencer ces tâches, vérifiez que vous avez effectué les tâches suivantes :
Installation de packages de logiciels pour le système d'exploitation Solaris, la structure Sun Cluster et d'autres produits conformément à la rubrique Installation du logiciel
Établissement d'un cluster ou ajout d'un nœud conformément à la rubrique Établissement du cluster
Le tableau suivant répertorie les tâches à effectuer pour configurer votre cluster. Effectuez les procédures dans l'ordre indiqué.
si vous avez ajouté un nœud à un cluster qui utilise VxVM, vous devez effectuer la procédure de la section SPARC : Installation du logiciel VERITAS Volume Manager afin :
d'installer VxVM sur ce nœud ou
de modifier le fichier /etc/name_to_major de ce nœud à des fins de coexistence avec VxVM.
Tâche |
Instructions |
---|---|
1. Installez et configurez le logiciel de gestion des volumes : |
|
|
Chapitre 3, Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager Documentation Solstice DiskSuite ou Solaris Volume Manager |
|
Chapitre 4, SPARC : Installation et configuration de VERITAS Volume Manager Documentation VERITAS Volume Manager |
2. Créez et montez les systèmes de fichiers de cluster. | |
3. (Installations Solaris 8 ou programme d'installation SunPlex) Créez les groupes multi-acheminement sur réseau IP pour chaque adaptateur de réseau public non configuré dans un groupe Multiacheminement sur réseau IP. | |
4. (Facultatif) Modifiez le nom d'hôte privé d'un nœud. | |
5. Créez ou modifiez le fichier de configuration NTP. | |
6. (Facultatif) SPARC : installez le module Sun Cluster pour le logiciel Sun Management Center |
SPARC : installation du module Sun Cluster pour Sun Management Center Documentation Sun Management Center |
7. Installez les applications tierces, puis configurez les applications, les services de données et les groupes de ressources. |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS Documentation des applications de fournisseurs tiers |
Suivez cette procédure pour chaque système de fichiers de cluster à créer. Contrairement à un système de fichiers local, un système de fichiers de cluster est accessible à partir de n'importe quel nœud du cluster. Si vous avez utilisé le programme d'installation SunPlex pour installer les services de données, il se peut que le programme d'installation SunPlex ait déjà créé un ou plusieurs systèmes de fichiers de cluster.
toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'indiquer le nom correct du périphérique de disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.
Effectuez les tâches suivantes :
Assurez-vous que le logiciel de gestion des volumes est installé et configuré. Pour connaître les procédures d'installation du gestionnaire de volumes, reportez-vous à la rubrique Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager ou SPARC : Installation et configuration du logiciel VxVM .
Déterminez les options de montage à utiliser pour chaque système de fichiers de cluster à créer. Respectez les exigences et les restrictions des options de montage Sun Cluster décrites dans les tableaux ci-dessous.
Options de montage pour les systèmes de fichiers de cluster UFS
Reportez-vous à la page de manuel mount_ufs(1M) pour obtenir plus d'informations sur les options de montage UFS.
Paramètres de montage pour systèmes de fichiers partagés Sun StorEdge QFS
Paramètre de montage |
Description |
---|---|
shared |
Requis. Cette option indique qu'il s'agit d'un système de fichiers partagés, qui est de ce fait visible par tous les nœuds du cluster. |
vérifiez que les paramètres du fichier /etc/vfstab sont compatibles avec ceux du fichier /etc/opt/SUNWsamfs/samfs.cmd. Les paramètres du fichier /etc/vfstab remplacent ceux du fichier /etc/opt/SUNWsamfs/samfs.cmd.
Reportez-vous à la page de manuel mount_samfs(1M) pour obtenir plus d'informations sur les paramètres de montage QFS.
Certains services de données tels que Support Sun Cluster pour Oracle Real Application Clusters possèdent d'autres exigences et directives concernant les paramètres de montage QFS. Reportez-vous à votre manuel de service de données pour connaître ces exigences.
un paramètre de montage /etc/vfstab n'active pas la consignation. Par ailleurs, Sun Cluster ne nécessite pas de consignation pour les systèmes de fichiers partagés QFS.
Options de montage pour les systèmes de fichiers de cluster VxFS
Option de montage |
Description |
---|---|
global |
Requise. Cette option rend le système de fichiers globalement visible de tous les nœuds du cluster. |
log |
Requise. Cette option active la consignation. |
Reportez-vous à la page de manuel sur mount_vxfs et à la rubrique Administration de systèmes de fichiers de cluster : présentation du Guide d’administration système de Sun Cluster pour SE Solaris pour obtenir plus d'informations sur les options de montage VxFS.
Devenez superutilisateur sur un nœud du cluster.
pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.
Créez un système de fichiers.
Pour un système de fichiers UFS, utilisez la commande newfs(1M).
# newfs raw-disk-device |
Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.
Gestionnaire de volumes |
Exemple de nom de périphériques de disque |
Description |
---|---|---|
Solstice DiskSuite ou Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
Périphérique de disque brut d1 dans l'ensemble de disques nfs |
SPARC : VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Périphérique de disque brut vol01 dans le groupe de disques oradg |
Aucun |
/dev/global/rdsk/d1s3 |
Périphérique de disque brut d1s3 |
Pour un système de fichiers Sun StorEdge QFS, suivez les procédures de définition de configuration du Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.
SPARC : pour un système de fichiers Système de fichiers VERITAS (VxFS), suivez les instructions des procédures fournies dans la documentation de VxFS.
Sur chaque nœud, créez un répertoire de montage pour le système de fichiers de cluster.
Vous devez créer un point de montage sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.
Afin de vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.
# mkdir -p /global/device-group/mountpoint/ |
Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique.
Nom du répertoire sur lequel le système de fichiers du cluster doit être monté.
Sur chaque nœud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.
Reportez-vous à la page de manuel vfstab(4) pour obtenir plus d'informations.
Dans chacune des entrées, indiquez les options de montage requises pour le type de système de fichiers utilisé.
n'utilisez pas l'option de montage logging pour les trans-métapériphériques Solstice DiskSuite ou les volumes transactionnels Solaris Volume Manager. Les trans-métapériphériques et volumes transactionnels fournissent leur propre consignation.
En outre, Solaris Volume Manager Journalisation de volumes de transaction (anciennement Solstice DiskSuite Journalisation de trans-métapériphériques) sera supprimée du système d'exploitation Solaris dans une version à venir. La Journalisation UFS Solaris offre les mêmes possibilités mais avec des performances optimales, ainsi que des conditions d'administration système et une surcharge allégées.
Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.
Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.
Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.
Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.
Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle/ et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs/ qu'une fois que phys-schost-1 a démarré et monté /global/oracle/.
Sur un nœud du cluster, exécutez l'utilitaire sccheck(1M).
L'utilitaire sccheck vérifie que le point de montage existe. Il vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds du cluster.
# sccheck |
Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.
Montez le système de fichiers de cluster.
# mount /global/device-group/mountpoint/ |
Pour UFS et QFS, montez le système de fichiers de cluster à partir de n'importe quel nœud.
SPARC : pour VxFS, montez le système de fichiers de cluster à partir du maître actuel de device-group pour avoir l'assurance que ce système se monte correctement. En outre, démontez un système de fichiers VxFS du maître actuel du groupe-périphériques afin de garantir un démontage correct du système de fichiers.
pour gérer un système de fichiers de cluster VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du nœud principal sur lequel le système de fichiers de cluster VxFS est monté.
Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.
Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.
L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.
# newfs /dev/md/oracle/rdsk/d1 … (on each node) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |
Si vous avez installé le logiciel Sun Cluster sous Solaris 8 ou utilisé le programme d'installation SunPlex pour installer le cluster, reportez-vous à la rubrique Configuration des groupes Multiacheminement sur réseau IP .
Si vous souhaitez changer un nom d'hôte privé, reportez-vous à la rubrique Modification des noms d'hôtes privés .
Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) .
SPARC : si vous souhaitez surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .
Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Suivez les procédures du document Sun Cluster Data Services Planning and Administration Guide for Solaris OS et de la documentation fournie avec votre logiciel d'application.
Effectuez cette tâche sur chaque nœud du cluster. Si vous avez utilisé le programme d'installation SunPlex pour installer Sun Cluster HA pour Apache ou Sun Cluster HA pour NFS, le programme d'installation SunPlex a configuré les groupes Multiacheminement sur réseau IP pour les adaptateurs de réseau public utilisés par les services de données. Vous devez en configurer pour les autres adaptateurs de réseau public.
tous les adaptateurs de réseau public doivent appartenir à un groupe Multiacheminement sur réseau IP.
Tenez la Fiche de travail relative aux réseaux publics renseignée à votre disposition.
Configurez les groupes Multiacheminement sur réseau IP.
Suivez les procédures du Deploying Network Multipathing du IP Network Multipathing Administration Guide (Solaris 8), de la rubrique Configuring Multipathing Interface Groups du System Administration Guide: IP Services (Solaris 9) ou de la rubrique Configuring IPMP Groups du System Administration Guide: IP Services (Solaris 10).
Tenez compte de ces exigences supplémentaires pour configurer les groupes Multiacheminement sur réseau IP dans une configuration Sun Cluster :
Chaque adaptateur de réseau public doit appartenir à un groupe de multi-acheminement.
Dans les types de groupe de multiacheminement suivants, vous devez configurer une adresse IP de test pour chaque adaptateur du groupe :
Sous Solaris 8, chacun des adaptateurs de chacun des groupes de multiacheminement nécessite une adresse IP de test.
Sous Solaris 9 ou Solaris 10, seuls les groupes de multiacheminement comprenant deux adaptateurs ou plus nécessitent des adresses IP de test. Si un groupe de multi-acheminement contient un seul adaptateur, vous n'avez pas besoin de configurer une adresse IP de test.
Les adresses IP de test de tous les adaptateurs du même groupe de multiacheminement doivent appartenir au même sous-réseau IP.
Les adresses IP de test ne doivent pas être utilisées par des applications normales car elles ne sont pas hautement disponibles.
Dans le fichier /etc/default/mpathd, la valeur de TRACK_INTERFACES_ONLY_WITH_GROUPS doit être yes.
Le nom d'un groupe de multiacheminement ne fait l'objet d'aucune exigence ni restriction.
Si vous souhaitez changer un nom d'hôte privé, reportez-vous à la rubrique Modification des noms d'hôtes privés .
Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) .
Si vous utilisez Sun Cluster sur un système SPARC et que vous souhaitez vous servir de Sun Management Center pour contrôler le cluster, installez le module Sun Cluster pour Sun Management Center. Reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .
Dans le cas contraire, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Suivez les procédures du document Sun Cluster Data Services Planning and Administration Guide for Solaris OS et de la documentation fournie avec votre logiciel d'application.
Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôtes privés par défaut (clusternodenodeid-priv) affectés lors de l'installation du logiciel Sun Cluster.
vous ne devez pas exécuter cette procédure après la configuration et le démarrage d'applications et des services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'hôte privé après renommage de celui-ci, entraînant ainsi des conflits de noms d'hôtes. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.
Effectuez cette procédure sur un nœud actif du cluster.
Devenez superutilisateur sur un nœud du cluster.
Lancez l'utilitaire scsetup(1M).
# scsetup |
Dans le menu principal, sélectionnez l'option Noms d'hôte privés.
Dans le menu Noms d'hôte privés, sélectionnez l'option Modifier un nom d'hôte privé.
Suivez les invites pour modifier le nom d'hôte privé.
Répétez cette opération pour chaque nom d'hôte privé à modifier.
Vérifiez les nouveaux noms d'hôtes privés.
# scconf -pv | grep "private hostname" (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) .
SPARC : si vous souhaitez surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .
Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
si vous avez installé votre propre fichier /etc/inet/ntp.conf avant le logiciel Sun Cluster, vous n'êtes pas obligé d'effectuer cette procédure. Déterminez l'étape suivante :
SPARC : si vous souhaitez surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .
Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Créez ou modifiez le fichier de configuration NTP après avoir effectué l'une des tâches suivantes :
Installez le logiciel Sun Cluster.
Ajoutez un nœud à un cluster existant.
Changez le nom d'hôte privé d'un nœud de cluster.
Si vous avez ajouté un nœud à un cluster d'un nœud, vous devez vérifier que le fichier de configuration NTP utilisé est copié sur le nœud de cluster initial et sur le nouveau.
la principale exigence lorsque vous configurez NTP, ou tout autre utilitaire de synchronisation, est que tous les nœuds de cluster soient synchronisés à la même heure. La précision de l'heure sur les nœuds individuels est secondaire par rapport à l'importance de la synchronisation de l'heure sur tous les nœuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.
Reportez-vous au Guide des notions fondamentales de Sun Cluster pour SE Solaris pour obtenir plus d'informations sur l'heure du cluster. Reportez-vous au fichier /etc/inet/ntp.cluster pour obtenir des directives supplémentaires sur la configuration de NTP pour configurer Sun Cluster.
Connectez-vous en tant que superutilisateur sur un nœud du cluster.
Si vous disposez de votre propre fichier, copiez-le sur chaque nœud de cluster.
Si vous n'installez pas votre propre fichier /etc/inet/ntp.conf, utilisez le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP.
ne renommez pas le fichier ntp.conf.cluster en tant que ntp.conf.
Si /etc/inet/ntp.conf.cluster n'existe pas sur le nœud, il se peut que vous ayez un fichier /etc/inet/ntp.conf provenant d'une installation antérieure du logiciel Sun Cluster. Le logiciel Sun Cluster crée le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP si un fichier /etc/inet/ntp.conf n'est pas déjà présent sur le nœud. Dans ce cas, effectuez les modifications suivantes sur ce fichier ntp.conf.
Utilisez l'éditeur de texte de votre choix pour ouvrir le fichier /etc/inet/ntp.conf.cluster à modifier sur un nœud de cluster.
Assurez-vous qu'il existe une entrée pour le nom d'hôte privé de chaque nœud de cluster.
Si vous avez modifié le nom d'hôte privé d'un nœud, veillez à ce que le fichier de configuration NTP contienne le nouveau nom d'hôte privé.
Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.
Copiez le fichier de configuration NTP sur tous les nœuds du cluster.
Le contenu du fichier de configuration NTP doit être identique sur tous les nœuds du cluster.
Arrêtez le démon NTP sur chaque nœud.
Avant de passer à l' Étape 6, attendez que la commande soit exécutée sur chaque nœud.
Pour le système d'exploitation Solaris 8 ou Solaris 9, utilisez la commande suivante :
# /etc/init.d/xntpd stop |
Pour le système d'exploitation Solaris 10, utilisez la commande suivante :
# svcadm disable ntp |
Redémarrez le démon NTP sur chaque nœud.
Si vous utilisez le fichier ntp.conf.cluster, exécutez la commande ci-dessous.
# /etc/init.d/xntpd.cluster start |
Le script de démarrage xntpd.cluster recherche tout d'abord le fichier /etc/inet/ntp.conf.
Si le fichier ntp.conf existe, le script s'arrête immédiatement, sans lancer le démon NTP.
Si le fichier ntp.conf n'existe pas alors que ntp.conf.cluster existe, le script lance le démon NTP. Dans ce cas, le script utilise le fichier ntp.conf.cluster comme fichier de configuration NTP.
Si vous utilisez le fichier ntp.conf, exécutez l'une des commandes suivantes :
Pour le système d'exploitation Solaris 8 ou Solaris 9, utilisez la commande suivante :
# /etc/init.d/xntpd start |
Pour le système d'exploitation Solaris 10, utilisez la commande suivante :
# svcadm enable ntp |
SPARC : pour surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .
Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Cette rubrique permet d'installer le logiciel du module Sun Cluster pour Sun Management Center.
Le module Sun Cluster pour Sun Management Center vous permet d'utiliser Sun Management Center pour contrôler le cluster. Le tableau suivant répertorie les tâches à effectuer pour installer le logiciel du module Sun Cluster pour Sun Management Center.
Tableau 2–6 Plan des tâches : installation du module Sun Cluster pour Sun Management Center
Tâche |
Instructions |
---|---|
1. Installez le serveur Sun Management Center, le serveur d'aide, l'agent et les packages de console. |
Documentation Sun Management Center SPARC : Configuration minimale requise pour la surveillance de Sun Cluster |
2. Installez les packages du module Sun Cluster. |
SPARC : installation du module Sun Cluster pour Sun Management Center |
3. Lancez le serveur Sun Management Center, la console et les processus d'agent. | |
4. Ajoutez chaque nœud de cluster comme objet hôte d'agent Sun Management Center. |
SPARC : Ajout d'un nœud de cluster en tant qu'objet hôte d'agent de Sun Management Center |
5. Chargez le module Sun Cluster pour commencer à surveiller le cluster. |
Le module Sun Cluster utilisé avec Sun Management Center sert à surveiller une configuration Sun Cluster. Effectuez les tâches suivantes avant d'installer les packages des modules Sun Cluster.
Espace nécessaire : assurez-vous de disposer de 25 Mo d'espace sur chaque nœud du cluster pour les packages des modules Sun Cluster.
installation Sun Management Center : suivez les procédures d'installation de la documentation fournie avec votre Sun Management Center.
La configuration Sun Cluster nécessite également les éléments suivants :
Installez le package d'agent Sun Management Center sur chaque nœud de cluster.
Lorsque vous installez Sun Management Center sur une machine agent (nœud de cluster), choisissez d'utiliser 161 par défaut pour le port de communication de l'agent (SNMP) ou un autre numéro. Ce numéro de port permet au serveur de communiquer avec cet agent. Notez le numéro de port choisi pour l'utiliser ultérieurement lors de la configuration du cluster pour la surveillance.
Reportez-vous à la documentation d'installation Sun Management Center pour obtenir des informations sur le choix d'un numéro de port SNMP.
Installez le serveur Sun Management Center, le serveur d'aide et les packages de console sur des nœuds non-cluster.
Si vous disposez d'une console administrative ou d'une autre machine dédiée, vous pouvez exécuter le processus de la console sur la console administrative et le processus du serveur sur une machine distincte. Cette approche optimise les performances de Sun Management Center.
Navigateur Web : vérifiez que Sun Management Center prend en charge le navigateur Web utilisé pour la connexion à Sun Management Center. Certaines fonctions, telles que l'aide en ligne, risquent de ne pas être disponibles sur des navigateurs non pris en charge. Reportez-vous à la documentation fournie avec votre Sun Management Center pour obtenir des informations sur les navigateurs Web pris en charge et les exigences de configuration.
Suivez cette procédure pour installer le serveur et le serveur d'aide du module Sun Cluster.
les packages de l'agent du module de Sun Cluster (SUNWscsal et SUNWscsam) ont déjà été ajoutés aux nœuds de cluster lors de l'installation du logiciel Sun Cluster.
Vérifiez que tous les packages Sun Management Center de base sont installés sur les machines appropriées. Cette tâche comprend l'installation des packages de l'agent Sun Management Center sur chaque nœud de cluster. Reportez-vous à la documentation de Sun Management Center pour connaître les instructions d'installation.
Sur la machine serveur, installez le package du serveur du module de Sun Cluster, SUNWscssv.
Prenez le rôle de superutilisateur.
Insérez le CD 2 de Sun Cluster pour la plate-forme SPARC dans le lecteur.
Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il soit configuré pour gérer les périphériques de CD-ROM, il monte automatiquement le CD-ROM sur le répertoire /cdrom/cdrom0/.
Passez sur le répertoire Solaris_sparc/Product/sun_cluster/Solaris_ver/Packages/ (ver représente 8 pour Solaris 8, 9 pour Solaris 9 ou 10 pour Solaris 10).
# cd /cdrom/cdrom0/Solaris_sparc/Product/sun_cluster/Solaris_ver/Packages/ |
Installez le package du serveur de module de Sun Cluster.
# pkgadd -d . SUNWscssv |
Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.
# eject cdrom |
Sur le serveur d'aide Sun Management Center 3.0 ou Sun Management Center 3.5, installez le package SUNWscshl du module Sun Cluster.
Procédez comme à l'étape précédente.
Installez les patchs du module de Sun Cluster.
Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.
Lancez Sun Management Center. Reportez-vous à la rubrique SPARC : Démarrage de Sun Management Center .
Suivez cette procédure pour démarrer les processus du serveur, de l'agent et de la console de Sun Management Center.
En tant que superutilisateur, démarrez le processus du serveur de Sun Management Center sur la machine serveur de Sun Management Center.
Le répertoire d'installation du logiciel Sun Management Center est install-dir. Par défaut, il représente /opt.
# /install-dir/SUNWsymon/sbin/es-start -S |
En tant que superutilisateur, sur chaque machine agent (nœud de cluster) de Sun Management Center, démarrez le processus de l'agent de Sun Management Center.
# /install-dir/SUNWsymon/sbin/es-start -a |
Sur chaque Sun Management Center machine agent (nœud de cluster), veillez à ce que le démon scsymon_srv fonctionne.
# ps -ef | grep scsymon_srv |
Si un nœud de cluster ne fonctionne pas encore avec le démon scsymon_srv, démarrez le démon sur ce nœud.
# /usr/cluster/lib/scsymon/scsymon_srv |
Sur la machine de la console de Sun Management Center (console administrative), démarrez la console de Sun Management Center.
Vous n'avez pas besoin d'être superutilisateur pour faire démarrer le processus de la console.
% /install-dir/SUNWsymon/sbin/es-start -c |
Ajoutez un nœud de cluster en tant qu'objet hôte surveillé. Reportez-vous à la rubrique SPARC : Ajout d'un nœud de cluster en tant qu'objet hôte d'agent de Sun Management Center .
Suivez cette procédure pour créer un objet hôte d'agent de Sun Management Center pour un nœud de cluster.
Connectez-vous à Sun Management Center.
Reportez-vous à la documentation fournie avec votre Sun Management Center.
Dans la fenêtre principale de Sun Management Center, sélectionnez un domaine dans la liste déroulante des domaines administratifs de Sun Management Center.
Ce domaine comprendra l'objet hôte d'agent de Sun Management Center que vous créez. Pendant l'installation du logiciel Sun Management Center, un domaine par défaut a été créé automatiquement. Vous pouvez utiliser ce domaine, sélectionner un domaine existant ou en créer un nouveau.
Reportez-vous à la documentation de Sun Management Center pour de plus amples informations sur la création de domaines Sun Management Center.
Sélectionnez Edit⇒Create an Objectdans le menu déroulant.
Cliquez sur l'onglet Node.
Dans la liste déroulante Monitor Via, sélectionnez Sun Management Center Agent - Host.
Indiquez le nom du nœud de cluster (par exemple phys-schost-1) dans les zones de texte Node Label et Hostname.
Laissez la zone de texte IP vide. La zone de texte Description est facultative.
Dans la zone de texte Port, tapez le numéro de port que vous avez choisi lors de l'installation de l'agent de Sun Management Center.
Cliquez sur OK.
Un objet hôte d'agent de Sun Management Center est créé dans le domaine.
Chargez le module de Sun Cluster. Reportez-vous à la rubrique SPARC : Chargement du module Sun Cluster .
il suffit d'un seul objet hôte du nœud de cluster pour utiliser la surveillance du module Sun Cluster et ses fonctions de configuration pour tout le cluster. Cependant, si ce nœud de cluster devient indisponible, la connexion au cluster par cet objet hôte devient également indisponible. Il vous faudra alors un autre objet hôte du nœud de cluster pour vous reconnecter au cluster.
Suivez cette procédure pour lancer la surveillance du cluster.
Dans la fenêtre principale de Sun Management Center, cliquez avec le bouton droit sur l'icône d'un nœud de cluster.
Le menu déroulant s'affiche.
Sélectionnez Load Module.
La fenêtre Load Module répertorie chaque module Sun Management Center disponible et son état de chargement.
Choisissez Sun Cluster: Not Loaded et cliquez sur OK.
La fenêtre Module Loader présente les paramètres courants du module sélectionné.
Cliquez sur OK.
Après quelques instants, le module est chargé. Une icône Sun Cluster s'affiche dans la fenêtre Details.
Assurez-vous du chargement du module Sun Cluster.
Sous la catégorie Operating System, développez la sous-arborescence de Sun Cluster en procédant de l'une des manières suivantes :
Dans la hiérarchie de l'arborescence située dans la partie gauche de la fenêtre, placez le curseur sur l'icône du module Sun Cluster et appuyez une fois sur le bouton de gauche de la souris.
Dans la vue de la topologie située dans la partie droite de la fenêtre, placez le curseur sur l'icône du module Sun Cluster et appuyez deux fois sur le bouton gauche de la souris.
Reportez-vous à l'aide en ligne du module Sun Cluster pour obtenir des informations sur l'utilisation des fonctionnalités de celui-ci.
Pour afficher l'aide en ligne d'un élément du module Sun Cluster, placez le curseur sur cet élément, puis cliquez avec le bouton droit et sélectionnez l'option d'aide du menu contextuel.
Pour accéder à la page d'accueil de l'aide en ligne du module Sun Cluster, placez le curseur sur l'icône des informations de cluster, puis cliquez avec le bouton droit et sélectionnez l'option d'aide du menu contextuel.
Pour consulter directement la page d'accueil du module Sun Cluster, lancez le navigateur en cliquant sur le bouton d'aide de Sun Management Center, puis accédez à l'adresse suivante (install-dir représente le répertoire d'installation du logiciel Sun Management Center) :
file:/install-dir/SUNWsymon/lib/locale/C/help/main.top.html
le bouton Help du navigateur Sun Management Center accède à l'aide en ligne de Sun Management Center, mais pas aux sujets spécifiques au module Sun Cluster.
Reportez-vous à l'aide en ligne et à la documentation de Sun Management Center pour de plus amples informations sur l'utilisation de Sun Management Center.
Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Cette rubrique propose les procédures de désinstallation et de suppression du logiciel Sun Cluster :
Exécutez cette procédure si le nœud installé ne peut rejoindre le cluster ou si vous devez corriger les informations de configuration, par exemple celles des adaptateurs de transport ou de l'adresse de réseau privé.
si le nœud est déjà associé au cluster et n'est plus en mode d'installation (voir Étape 2 de la rubrique Vérification de la configuration de quorum et du mode d'installation ), ne suivez pas cette procédure. Reportez-vous plutôt à la rubrique Ajout et suppression d’un nœud de cluster du Guide d’administration système de Sun Cluster pour SE Solaris pour connaître la procédure de désinstallation de Sun Cluster d'un nœud de cluster.
Essayez de réinstaller le nœud. Vous pouvez corriger certaines installations ayant échoué en répétant l'installation du logiciel Sun Cluster sur le nœud.
Ajoutez le nœud à désinstaller dans la liste d'authentification du cluster.
Si vous désinstallez un cluster à nœud unique, passez à l'Étape 2.
Devenez superutilisateur sur un élément actif du cluster autre que le nœud que vous allez désinstaller.
Indiquez le nom du nœud à ajouter dans la liste d'authentification.
# /usr/cluster/bin/scconf -a -T node=nodename |
Ajouter
Spécifie les options d'authentification
Spécifie le nom du nœud à ajouter à la liste d'authentification
Pour effectuer cette tâche, vous pouvez également exécuter l'utilitaire scsetup(1M). Reportez-vous à la rubrique Ajout d’un nœud de cluster à la liste des nœuds autorisés du Guide d’administration système de Sun Cluster pour SE Solaris pour connaître les procédures.
Devenez superutilisateur sur le nœud que vous souhaitez désinstaller.
Fermez-le.
# shutdown -g0 -y -i0 |
Réinitialisez le nœud en mode non-cluster.
Sur les systèmes SPARC, procédez comme suit :
ok boot -x |
Sur les systèmes x86, procédez comme suit :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
Déplacez-vous sur un autre répertoire, tel que le répertoire root (/), ne contenant aucun fichier provenant des packages Sun Cluster.
# cd / |
Désinstallez le logiciel Sun Cluster du nœud.
# /usr/cluster/bin/scinstall -r |
Reportez-vous à la page de manuel scinstall(1M) pour obtenir plus d'informations.
Réinstallez et reconfigurez le logiciel Sun Cluster sur le nœud.
Reportez-vous au Tableau 2–1 pour obtenir la liste des tâches d'installation et leur ordre d'exécution.
Suivez cette procédure sur chaque nœud du cluster.
Vérifiez qu'aucune application n'utilise le pilote RSMRDT avant d'effectuer cette procédure.
Devenez superutilisateur sur le nœud sur lequel vous souhaitez désinstaller le package SUNWscrdt.
Désinstallez le package SUNWscrdt.
# pkgrm SUNWscrdt |
Cette procédure s'applique au pilote encore chargé en mémoire après la procédure Désinstallation du package SUNWscrdt.
Lancez l'utilitaire adb.
# adb -kw |
Définissez la variable de noyau clifrsmrdt_modunload_ok sur 1.
physmem NNNN clifrsmrdt_modunload_ok/W 1 |
Quittez l'utilitaire adb en appuyant sur Control-D.
Recherchez les ID des modules clif_rsmrdt et rsmrdt.
# modinfo | grep rdt |
Déchargez le module clif_rsmrdt.
Vous devez décharger le module clif_rsmrdt avant le module rsmrdt.
# modunload -i clif_rsmrdt_id |
Spécifie l'ID numérique du module en cours de déchargement.
Déchargez le module rsmrdt.
# modunload -i rsmrdt_id |
Spécifie l'ID numérique du module en cours de déchargement.
Vérifiez que le module est bien déchargé.
# modinfo | grep rdt |
L'exemple suivant affiche les informations sur la console une fois le pilote RSMRDT déchargé manuellement.
# adb -kw physmem fc54 clifrsmrdt_modunload_ok/W 1 clifrsmrdt_modunload_ok: 0x0 = 0x1 ^D # modinfo | grep rsm 88 f064a5cb 974 - 1 rsmops (RSMOPS module 1.1) 93 f08e07d4 b95 - 1 clif_rsmrdt (CLUSTER-RSMRDT Interface module) 94 f0d3d000 13db0 194 1 rsmrdt (Reliable Datagram Transport dri) # modunload -i 93 # modunload -i 94 # modinfo | grep rsm 88 f064a5cb 974 - 1 rsmops (RSMOPS module 1.1) # |
Si la commande modunload échoue, cela signifie que des applications utilisent probablement actuellement le pilote. Fermez les applications avant d'exécuter à nouveau la commande modunload.