Le présent chapitre fournit une description du service de gestion de réseau public (PNM) de Sun Cluster, ainsi que des directives permettant d'ajouter ou de remplacer des composants d'interface réseau. La liste ci-dessous présente les sujets abordés dans le chapitre.
Le service PNM de Sun Clustera recours à la surveillance des défaillances et à la reprise pour empêcher la perte de disponibilité des noeuds provoquée par une seule panne d'adaptateur réseau ou de câble. Le service PNM effectue la surveillance des défaillances au niveau du noeud local ou dans la grappe toute entière et vérifie l'état des noeuds, des adaptateurs réseau, des câbles et du trafic sur le réseau. La fonction de reprise du service PNM utilise des ensembles d'adaptateurs réseau, appelés groupes de sauvegarde, pour assurer la redondance des connexions entre un noeud de grappe et le réseau public. La surveillance des défaillances et la reprise travaillent de concert pour garantir la disponibilité des services.
Vous devez activer le service PNM si votre système est configuré avec des services de données HD ; ces services de données dépendent de la surveillance des défaillances par le service PNM. Lorsqu'un service de données HD éprouve un problème de disponibilité, il interroge le service PNM par l'intermédiaire de la structure de la grappe pour savoir si le problème est lié aux connexions du réseau public. Si tel est le cas, les services de données attendent que le service de gestion PNM ait résolu le problème. Si le réseau public n'est pas à l'origine du problème, les services de données font appel à leur propre mécanisme de reprise.
Le module de gestion PNM, SUNWpnm, est installé lors de la première installation du logiciel Sun Cluster. Les commandes associées au service PNM sont :
pnmset(1M)- Configure le service PNM avant ou après la configuration de la grappe et vérifie la conformité de la configuration existante du service.
pnmstat(1M)- Vérifie l'état du réseau et des adaptateurs.
pnmconf(1M)- Affiche la configuration et l'état des interfaces réseau du service PNM.
pnmrtop(1M)- Affiche le nom du groupe de sauvegarde ou le pseudonyme de l'adaptateur réseau (p. ex., nafo1) associé au nom réel de l'adaptateur réseau (p. ex., hme2) spécifié dans la commande.
pnmptor(1M)- Affiche le nom réel de l'adaptateur réseau (p. ex., hme2) associé au pseudonyme d'adaptateur réseau ou au nom du groupe de sauvegarde (p. ex., nafo1) spécifié dans la commande.
pnmd(1M)- Démon PNM.
Pour de plus amples renseignements, consultez les pages de manuel pertinentes.
Le service PNM surveille l'état du réseau public et des adaptateurs réseau associés à chaque noeud de la grappe et signale les cas suspects ou les erreurs. Lorsqu'il détecte l'absence de réponse d'un adaptateur réseau principal (celui par qui transitent les données en provenance ou à destination du noeud), le service PNM commute le service de réseau de ce noeud vers un adaptateur réseau en état de marche dans le groupe de sauvegarde. Il effectue ensuite certaines vérifications pour déterminer si l'adaptateur réseau ou le réseau lui-même est à l'origine de la défaillance.
Si l'adaptateur est défectueux, le service PNM envoie des messages d'erreur au fichier syslog(3) ; le gestionnaire de grappe détecte à son tour ces messages et les affiche par l'intermédiaire d'une IUG. Une fois réparé, l'adaptateur est testé puis réintégré dans le groupe de sauvegarde lors de la prochaine reconfiguration de la grappe. Si c'est le groupe d'adaptateurs réseau de sauvegarde tout entier qui tombe en panne, la structure Sun Cluster commande une reprise du noeud pour maintenir la disponibilité. Si une erreur se produit mais qu'elle dépasse le cadre de contrôle du service PNM, par exemple lorsqu'un sous-réseau entier tombe en panne, la reprise et la reconfiguration s'effectuent normalement.
Le service PNM fonctionne en deux modes de surveillance : gestion de grappe active et gestion de grappe inactive. Il est en mode de gestion de grappe active lorsque la grappe est fonctionnelle. Dans ce cas, il utilise la base de données de configuration de grappe (BCG) pour surveiller l'état du réseau (pour de plus amples renseignements sur la BCG, consultez le chapitre d'aperçu du Sun Cluster 2.2 Software Installation Guide). Le service PNM utilise la BCG pour faire la distinction entre une panne de réseau public et une panne d'adaptateur réseau local. Voir Annexe B pour obtenir d'autres informations sur la reprise des hôtes logiques provoqué par une défaillance du réseau public.
Le service PNM passe en mode de gestion de grappe inactive lorsque la grappe n'est pas fonctionnelle. Dans ce mode, il ne peut se servir de la BCG et est donc incapable de faire la distinction entre une panne d'adaptateur réseau et une défaillance du réseau lui-même. En mode de gestion de grappe inactive, le service PNM ne détecte que les problèmes au niveau de la connexion au réseau local.
Le service PNM comporte une commande de surveillance, pnmstat(1M), vous permettant de vérifier l'état du réseau public et des adaptateurs réseau. Pour de plus amples renseignements, consultez la page de manuel pertinente.
Les groupes de sauvegarde sont des ensembles d'adaptateurs réseau assurant la redondance des connexions entre un noeud de grappe unique et le réseau public. La commande scinstall(1M) permet de configurer ces groupes de sauvegarde lors de l'installation initiale ; par la suite, vous devez utiliser la commande pnmset(1M). Le service PNM vous permet de configurer autant d'adaptateurs réseau redondants que vous le voulez dans un seul hôte.
Pour configurer les groupes de sauvegarde la première fois, exécutez la commande pnmset(1M) en tant que root (superutilisateur) avant de démarrer la grappe. La commande fonctionne comme un script interactif permettant de configurer les groupes de sauvegarde et d'en vérifier l'état. Elle sélectionne également un adaptateur réseau qui servira d'adaptateur principal ou actif. La commande pnmset(1M) attribue un nom aux groupes de sauvegarde nafon, où n est un nombre entier que vous assignez vous-même. Cette commande enregistre les informations sur les différents groupes de sauvegarde dans le fichier /etc/pnmconfig.
Pour modifier une configuration existante du service PNM sur un noeud de grappe, vous devez supprimer le noeud de la grappe et exécuter ensuite la commande pnmset(1M). Le service PNM assure la surveillance des modifications apportées à l'appartenance au groupe de sauvegarde et les intègre à ce dernier de façon dynamique.
Le fichier /etc/pnmconfig n'est pas supprimé même si on désinstalle le module SUNWpnm, par exemple, pour mettre un élément logiciel du système à niveau. Autrement dit, les informations sur l'appartenance au groupe de sauvegarde sont conservées pendant les mises à niveau des logiciels, et vous n'avez pas à exécuter de nouveau l'utilitaire pnmset(1M), à moins que vous ne vouliez modifier l'appartenance au groupe de sauvegarde.
Au moment de configurer le service PNM avec un adaptateur réseau de sauvegarde, le fichier /etc/nsswitch.conf doit comporter une des entrées suivantes relatives à l'entrée masques_réseau.
Tableau 6-1 Choix de services de nom pour le fichier /etc/nsswitch.conf File
Service de nom utilisé |
Entrée masques_réseau |
---|---|
aucun |
masques_réseau : files |
nis |
masques_réseau : fichiers [INTROUVABLE=entrée] nis |
nisplus |
masques_réseau : fichiers [INTROUVABLE=entrée] nisplus |
Les paramètres précédents bloquent la consultation du paramètre masques_réseau dans une table de recherche NIS/NIS+. Ce blocage est essentiel si l'adaptateur défectueux est le réseau public principal et qu'il ne peut fournir les informations demandées. Si le réglage de l'entrée masques_réseau précédent est incorrect, la reprise vers l'adaptateur de sauvegarde échoue.
Les modifications apportées précédemment ont pour effet d'utiliser les fichiers locaux (/etc/masques_réseau et /etc/groupes) en tant que tables de recherche. Les services NIS/NIS+ ne peuvent servir que lorsque les fichiers locaux ne sont pas disponibles. Par conséquent, il faut constamment mettre à jour ces fichiers avec leurs versions NIS/NIS+. S'ils ne sont pas mis à jour, les noeuds de grappe ne peuvent accéder aux valeurs attendues qu'ils contiennent.
Cette section contient les procédures permettant de configurer le service de gestion de réseau public (PNM) et les groupes de sauvegarde.
Voici les étapes générales permettant de configurer le service PNM :
Configuration des composants matériels de noeud afin d'autoriser de multiples adaptateurs réseau par noeud et par sous-réseau.
Installation des modules Sun Cluster et PNM (s'il y a lieu).
Démarrage de la grappe.
Vérification des interfaces réseau par défaut.
Etablissement des groupes de sauvegarde du service PNM à l'aide de la commande pnmset(1M).
Vérification de la configuration du service PNM
Les étapes suivantes permettent de configurer le service PNM.
Configurez les composants matériels de noeud de sorte qu'il y ait de multiples adaptateurs réseau sur un noeud unique et qu'ils utilisent le même sous-réseau.
Consultez la documentation de Sun Cluster sur les composants matériels de noeud pour configurer les adaptateurs réseau.
Si vous n'avez pas déjà installé les modules de noeud Sun Cluster, faites-le avec la commande scinstall(1M).
La commande scinstall(1M) fonctionne de manière interactive pour installer les modules sélectionnés. Le module PNM, SUNWpnm, fait partie de l'ensemble de modules de noeud. Le Sun Cluster 2.2 Software Installation Guide contient la procédure détaillée pour l'installation de la grappe.
Si ce n'est déjà fait, inscrivez l'interface réseau par défaut dans chaque noeud.
Vous devez inscrire une interface réseau par défaut par noeud dans la base de données d'interfaces associée à chaque noeud et vérifier que l'interface est étalonnée et qu'elle fonctionne correctement.
Créez une base de données d'interfaces dans chaque noeud et inscrivez les interfaces principales de réseau public.
Créez un fichier servant de base de données d'interface dans le répertoire /etc de chaque noeud. Nommez le fichier nom_hôte. interface, où interface désigne le type d'interface, par exemple qfe, hme, etc. Ajoutez ensuite une ligne contenant le nom d'hôte de ce noeud. Par exemple, dans le noeud phys-hahost1 où se trouve l'interface par défaut qfe-1, créez un fichier /etc/phys-hahost1.qfe1 contenant la ligne suivante :
phys-hahost1 |
Dans le fichier /etc/hosts de chaque noeud, associez une adresse IP au nom de l'interface principale de réseau public.
Dans l'exemple suivant, le nom d'hôte physique principal est phys-hahost1 :
129.146.75.200 phys-hahost1-qfe1 |
Si votre système utilise un mécanisme de nomenclature autre que / etc/hosts, reportez-vous à la section appropriée du Guide d'administration des communications de données et TCP/IP pour savoir comment parvenir au même résultat.
Créez des groupes de sauvegarde du service PNM avec la commande pnmset(1M).
Exécutez la commande de script interactif pnmset(1M) pour configurer les groupes de sauvegarde.
Si vous avez déjà configuré les hôtes logiques et les services de données, vous devez interrompre les services de données HD avant de modifier l'appartenance au groupe de sauvegarde avec pnmset(1M). Le défaut d'interrompre les services de données avant d'exécuter la commande pnmset(1M) peut entraîner de graves problèmes et des pannes majeures au niveau des services de données.
Exécutez la commande pnmset(1M).
phys-hahost1# /opt/SUNWpnm/bin/pnmset |
Entrez le nombre total de groupes de sauvegarde que vous souhaitez configurer.
Ce nombre correspond habituellement à celui des sous-réseaux publics.
Le message suivant vous demande de configurer la gestion de réseau public. Voulez-vous continuer ... [o/n] : o Nombre de groupes de sauvegarde NAFO sur l'hôte [1] : 2 |
Attribuez les numéros aux groupes de sauvegarde.
Lorsque vous y êtes invité, entrez un nombre entier compris entre 0 et 255. La commande pnmset(1M) ajoute ce nombre à la chaîne nafo pour former le nom du groupe de sauvegarde.
Entrez le numéro du groupe de sauvegarde [0] : 0 |
Attribuez des adaptateurs aux groupes de sauvegarde.
Veuillez entrer tous les adaptateurs réseau sous nafo0 : qe0 qe1 ... |
Attribuez ensuite les numéros de groupe de sauvegarde et les adaptateurs pour les autres groupes de sauvegarde de la configuration.
Donnez le temps à la commande pnmset(1M) de tester la configuration des adaptateurs.
La commande pnmset(1M) teste la conformité de la configuration des adaptateurs. Dans cet exemple, le groupe de sauvegarde contient un adaptateur réseau actif et deux adaptateurs réseau redondants.
Le test suivant évalue la conformité de la configuration NAFO... test de duplication des noms réussi Vérification de nafo0... < 20 secondes qe0 est actif adresse distante = 192.168.142.1 test de nafo0 réussi Vérification de nafo1... < 20 secondes qe3 est actif adresse distante = 192.168.143.1 test de qe4 attendez... test de qe2 attendez... test de nafo1 réussi phys-hahost1# |
Une fois la configuration vérifiée, le démon PNM pnmd(1M) enregistre automatiquement les modifications apportées à la configuration et amorce la surveillance des interfaces.
Un seul adaptateur dans un groupe de sauvegarde doit être étalonné et posséder une entrée dans le fichier /etc/nom_hôte.adaptateur. N'attribuez pas d'adresse IP aux adaptateurs réseau de relève ; elles ne doivent pas être étalonnées.
Le service PNM utilise la diffusion ping(1M) pour surveiller les réseaux ; ces derniers utilisant la diffusion de paquets ICMP (Internet Control Message Protocol) pour communiquer avec les autres hôtes distants. Certains routeurs ne transmettent pas les paquets ICMP ; par conséquent, le comportement de détection de défaillances s'en trouve touché. Voir les Sun Cluster 2.2 Release Notes pour contourner ce problème.
Démarrez la grappe avec la commande scadmin(1M).
Exécutez ensuite les commandes suivantes sur un noeud :
# scadmin startcluster nom_hôte_physique sc-cluster |
Ajoutez ensuite tous les autres noeuds à la grappe en exécutant la commande suivante à partir de ceux-ci :
# scadmin startnode |
Vérifiez la configuration du service PNM avec la commande pnmstat(1M).
phys-hahost1# /opt/SUNWpnm/bin/pnmstat -l grp_sauvegarde adaptateur_réel état temps_reprise adaptateur_actif nafo0 hme0 OK JAMAIS hme0 phys-hahost1# |
La configuration initiale du service PNM est maintenant terminée.
Utilisez cette procédure pour modifier une configuration existante par l'ajout ou la suppression d'adaptateurs réseau. Les étapes suivantes permettent d'administrer un noeud à la fois tout en maintenant la disponibilité des services Sun Clustertout au long de la procédure.
Interrompez l'exécution du logiciel Sun Clustersur le noeud à reconfigurer.
phys-hahost1# scadmin stopnode |
Ajoutez ou supprimez des adaptateurs réseau.
Effectuez les procédures de la "Ajout et suppression d'interfaces réseau".
Exécutez la commande pnmset(1M) pour reconfigurer les groupes de sauvegarde.
Exécutez la commande pnmset(1M) pour reconfigurer les groupes de sauvegarde, comme l'indique Étape 4 de la procédure "Comment configurer le service PNM".
phys-hahost# pnmset |
Redémarrez le logiciel Sun Cluster sur le noeud.
A partir du poste de travail administratif, redémarrez le noeud avec la commande suivante :
phys-hahost1# scadmin startnode |
Effectuez de nouveau les étapes 1 à 4 pour chaque noeud à reconfigurer.
Les commandes pnmptor(1M) et pnmrtop(1M) permettent de vérifier l'état des groupes de sauvegarde locaux ; par contre, la commande pnmstat(1M) vérifie l'état des groupes de sauvegarde locaux et distants.
Exécutez la commande pnmptor(1M) pour déterminer à quel groupe de sauvegarde appartient un adaptateur réseau.
La commande pnmptor(1M) établit la correspondance entre le pseudonyme d'adaptateur réseau spécifié et un nom d'adaptateur réseau réel. Dans l'exemple suivant, les données de sortie du système montrent que le pseudonyme d'adaptateur réseau nafo0 est associé à l'adaptateur réseau actif hme2 :
phys-hahost1# pnmptor nafo0 hme2 |
Exécutez la commande pnmrtop(1M) pour identifier l'adaptateur réseau actif associé à un groupe de sauvegarde donné.
Dans l'exemple ci-dessous, les données de sortie du système montrent que l'adaptateur réseau hme1 appartient au groupe de sauvegarde nafo0 :
phys-hahost1# pnmrtop hme1 nafo0 |
Exécutez la commande pnmstat(1M) pour connaître l'état d'un groupe de sauvegarde.
Utilisez l'option -c pour déterminer l'état d'un groupe de sauvegarde sur l'hôte local :
phys-hahost1#pnmstat -c nafo0 OK JAMAIS hme2 |
La syntaxe de la commande suivante permet de déterminer l'état d'un groupe de sauvegarde sur un hôte distant :
phys-hahost1# pnmstat -sh hôte_distant -c nafo1 OK JAMAIS qe1 |
Les options -s et -h doivent être utilisées ensemble. L'option -s oblige pnmstat(1M) à communiquer par l'interconnexion privée. Si vous omettez l'option -s, pnmstat(1M) interroge le système par l'interconnexion publique. L'hôte_distant et l'hôte sur lequel vous exécutez la commande pnmstat(1M) doivent appartenir tous deux à la grappe.
Lorsque vous vérifiez l'hôte local ou l'hôte distant, la commande pnmstat(1M) renvoie des données sur leur état, leur historique et l'adaptateur réseau actif. Pour de plus amples renseignements, consultez la page de manuel pertinente.
Le tableau suivant contient la liste des paramètres du service PNM que l'utilisateur peut configurer. Après avoir installé le service PNM et avant d'afficher la grappe, configurez ces paramètres en modifiant manuellement le fichier de configuration file /opt/SUNWcluster/conf/TEMPLATE.cdb sur l'ensemble des noeuds de la grappe. Modifiez le fichier sur un noeud et copiez-le dans tous les autres noeuds, ou encore utilisez la console de grappe pour modifier simultanément le fichier dans tous les noeuds. Vous pouvez afficher la configuration actuelle du service PNM avec pnmd -t. Pour de plus amples renseignements, consultez la page de manuel pnmd(1M).
Tableau 6-2 Paramètres configurables du service PNM
pnmd.inactive_time |
Intervalle entre les sondages de défaillances, exprimé en secondes. La valeur par défaut est 5 secondes. |
pnmd.ping_timeout |
Durée avant le délai du sondage de défaillances , 4 secondes par défaut. |
pnmd.repeat_test |
Nombre maximum de tentatives de sondage par le service PNM avant le constat d'un problème , 3 sondages par défaut. |
pnmd.slow_network |
Temps d'attente entre la phase d'écoute et la phase de sondage actif des défaillances, 2 secondes par défaut. (Augmentez cette valeur si votre réseau est lent et qu'il force le service PNM à déclencher des processus de relève parasites). |
Voici les messages d'erreur les plus courants que renvoie le service PNM.
Échec du service PNM sur l'ordinateur distant |
Ce message d'erreur indique que le démon PNM n'a pas démarré. Redémarrez-le avec la commande ci-dessous. ID-noeud ID_noeud représente la valeur retournée par la commande /opt/SUNWcluster/bin/get_node_status.
# /opt/SUNWpnm/bin/pnmd -s -c nom-grappe -l ID-noeud |
PNM non démarré |
Ce message indique qu'il n'y a pas de groupe de sauvegarde configuré. Exécutez la commande pnmset(1M) pour créer des groupes de sauvegarde.
Pas de nafoXX |
Ce message signale que vous avez spécifié un nom de groupe de sauvegarde non admis. Exécutez la commande pnmrtop(1M) pour identifier le nom des groupes de sauvegarde associés à un adaptateur réseau donné. Exécutez de nouveau la commande avec un nom de groupe de sauvegarde valide.
Erreur de configuration du service PNM |
Ce message signale que le démon PNM n'a pas pu configurer un adaptateur ou qu'il y a une erreur de formatage dans le fichier de configuration /etc/pnmconfig. Vérifiez les messages syslog et prenez les mesures spécifiées par Sun Cluster Manager. Pour de plus amples renseignements sur Sun Cluster Manager, reportez-vous au Chapitre 2.
Erreur de programme |
Ce message indique que le démon PNM n'a pas pu exécuter un appel système. Vérifiez les messages syslog et prenez les mesures spécifiées par Sun Cluster Manager. Pour de plus amples renseignements sur Sun Cluster Manager, reportez-vous au Chapitre 2.
Les procédures décrites dans cette section permettent d'ajouter ou de supprimer des cartes d'interface réseau public dans une configuration de grappe.
Pour ajouter ou supprimer une interface réseau commandant un hôte logique, vous devez modifier la configuration de tous les hôtes logiques utilisant cette interface. Pour ce faire, vous devez supprimer entièrement l'hôte logique de la grappe, puis le rajouter avec les modifications nécessaires. Les commandes scconf(1M) et scinstall(1M) permettent de reconfigurer un hôte logique. Les exemples de cette section portent sur la commande scconf(1M). Reportez-vous à "Ajout et suppression d'hôtes logiques" qui contient les étapes pour procéder à la configuration de l'hôte logique avec la commande scinstall(1M).
Pour ajouter une interface réseau, vous devez supprimer et refaire la configuration de tous les hôtes logiques qui lui sont associés. Il est à noter que l'accès à l'ensemble des services de données est interrompu pour un court laps de temps pendant la procédure.
Effectuez les étapes suivantes sur chaque noeud qui recevra une nouvelle carte d'interface réseau.
Interrompez l'exécution du logiciel de grappes.
phys-hahost# scadmin stopnode |
Ajoutez la nouvelle carte d'interface en suivant les directives fournies avec celle-ci.
Configurez la nouvelle interface réseau sur chaque noeud.
Cette étape n'est nécessaire que si la nouvelle interface fait partie d'un hôte logique. Sautez cette étape si la configuration de votre système ne comporte pas d'hôtes logiques.
phys-hahost# pnmset |
Dans le cas des interfaces Ethernet, créez un nouveau fichier /etc/hostname.if pour chaque nouvelle interface sur chaque noeud, puis exécutez la commande ifconfig(1M) comme vous le feriez avec un environnement ne comportant pas de grappe.
Lorsque vous configurez un ensemble d'interfaces réseau dont se serviront les divers hôtes logiques d'une grappe, vous devez connecter toutes les interfaces au même sous-réseau.
Démarrez le logiciel de grappes.
Si tous les noeuds ont été arrêtés, exécutez la commande scadmin startcluster sur le noeud 0 puis la commande scadmin startnode sur tous les autres noeuds. Si le logiciel de grappes est toujours en cours d'exécution sur au moins un des noeuds, exécutez la commande scadmin startnode sur les noeuds restants.
phys-hahost# scadmin startnode |
Si les nouvelles interfaces sont ajoutées à des groupes de sauvegarde déjà existants, la procédure est terminée.
Si vous avez modifié la configuration des groupes de sauvegarde, vous devez rétablir le fonctionnement normal de la grappe et reconfigurer chaque hôte logique qui utilise le nouvel ensemble de contrôleurs réseau. Vous devez ensuite supprimer puis reconfigurer chaque hôte logique. Vous devez donc exécuter la commande scconf -p pour imprimer la configuration actuelle avant de passer à ces étapes. Vous pouvez exécuter la commande scconf -p sur n'importe quel noeud actif de la grappe. Il n'est pas nécessaire de l'exécuter sur tous les noeuds de la grappe.
Pour supprimer la configuration et reconfigurer l'hôte logique, exécutez la commande scconf(1M) tel qu'illustré dans ces exemples, ou la commande scinstall(1M), comme le décrit "Ajout et suppression de noeuds de grappe".
Avisez les utilisateurs qu'ils ne pourront pas utiliser les services de données des hôtes logiques touchés pendant un court laps de temps.
Faites une copie de sauvegarde des fichiers /etc/opt/SUNWcluster/conf/ccd.database de chaque noeud au cas où vous auriez à restaurer la configuration initiale.
Désactivez les services de données.
phys-hahost# hareg -n service_données |
Supprimez l'inscription des services de données.
phys-hahost# hareg -u service_données |
Supprimez l'hôte logique de la grappe.
Exécutez cette commande sur un des noeuds actifs appartenant à la grappe. Il n'est pas nécessaire de l'exécuter sur tous les noeuds.
phys-hahost# scconf nom_grappe -L hôte_logique -r |
Reconfigurez l'hôte logique pour qu'il inclue la nouvelle interface.
Exécutez cette commande sur un des noeuds actifs appartenant à la grappe. Il n'est pas nécessaire de l'exécuter sur tous les noeuds.
phys-hahost# scconf nom_grappe -L hôte_logique -n nodelist -g dglist -i logaddrinfodglist |
Le champ logaddrinfo définit le nom de la nouvelle interface. Consultez la liste produite par la commande scconf -p pour reconstruire chaque hôte logique.
Inscrivez les services de données.
phys-hahost# hareg [-s] -r service_données |
Activez les services de données.
phys-hahost# hareg -y service_données |
Vérifiez l'accès aux services de données.
Avisez les utilisateurs que les services de données sont maintenant disponibles.
La procédure d'ajout d'une interface réseau est terminée.
La procédure suivante permet de supprimer une interface de réseau public d'une grappe.
Si vous utilisez une configuration OPS, la suppression d'une interface réseau ne requiert aucune intervention au niveau de la grappe. Par contre, suivez la procédure ci-dessous pour supprimer les adaptateurs réseau des noeuds de grappe.
Les configurations HD requièrent cette procédure pour supprimer et refaire la configuration de tout hôte logique utilisant l'interface réseau à supprimer. Il est alors nécessaire d'interrompre l'accès à l'ensemble des services de données pour un court laps de temps pendant la procédure.
Pendant que tous les noeuds sont actifs dans la grappe, exécutez les étapes suivantes sur un seul noeud.
Identifiez les hôtes logiques qui doivent être reconfigurés de manière à exclure l'interface réseau.
La configuration de tous ces hôtes logiques doit être supprimée puis refaite. Exécutez la commande scconf -p pour imprimer la liste des hôtes logiques de la configuration actuelle ; enregistrez cette liste pour pouvoir l'utiliser ultérieurement. Il n'est pas nécessaire d'exécuter la commande scconf -p sur tous les noeuds de la grappe. Il suffit de l'exécuter sur n'importe quel noeud actif appartenant à la grappe.
Exécutez la commande pnmset(1M) pour afficher la configuration PNM actuelle.
Supprimez au besoin le contrôleur d'un groupe de sauvegarde.
Si le contrôleur à supprimer fait partie d'un groupe de sauvegarde, supprimez le contrôleur de tous les hôtes logiques, puis exécutez la commande pnmset(1M) pour supprimer le contrôleur du groupe de sauvegarde.
Avisez les utilisateurs qu'ils n'auront pas accès aux services de données des hôtes logiques touchés durant une courte période.
Désactivez les services de données.
phys-hahost# hareg -n service_données |
Supprimez l'inscription des services de données.
phys-hahost# hareg -u service_données |
Supprimez l'hôte logique de la grappe.
Pour supprimer et refaire la configuration de l'hôte logique (Étape 7 et Étape 8), exécutez la commande scconf(1M) tel que décrit, ou exécutez la commande scinstall(1M) comme l'indique "Ajout et suppression de noeuds de grappe".
Vous pouvez exécuter cette commande sur n'importe quel noeud actif appartenant à la grappe. Il n'est pas nécessaire de l'exécuter sur tous les noeuds.
phys-hahost# scconf nom_grappe -L hôte_loqique -r |
Reconfigurez l'hôte logique pour qu'il inclue la nouvelle interface.
Vous pouvez exécuter cette commande sur n'importe quel noeud actif appartenant à la grappe. Il n'est pas nécessaire de l'exécuter sur tous les noeuds.
phys-hahost# scconf nom_grappe -L hôte_logique -n nodelist -g dglist -i logaddrinfo |
Le champ logaddrinfo définit le nom de la nouvelle interface. Consultez la liste produite par la commande scconf -p pour reconstruire chaque hôte logique.
Si le contrôleur à supprimer faisait partie d'un groupe de sauvegarde, exécutez de nouveau la commande pnmset(1M).
Exécutez de nouveau la commande pnmset(1M) pour exclure le contrôleur à supprimer.
(Facultatif) Si vous supprimez l'adaptateur réseau des noeuds, exécutez les étapes suivantes sur chaque noeud touché :
Interrompez l'exécution du logiciel de grappes.
phys-hahost# scadmin stopnode |
Arrêtez le noeud et enlevez la carte d'interface.
Initialisez le noeud.
Exécutez les tâches d'administration habituelles dans le système Solaris pour supprimer une interface réseau (suppression du fichier nom_hôte.if, mise à jour de /etc/hosts, etc).
Redémarrez le logiciel de grappes. Si tous les noeuds ont été arrêtés, démarrez le premier noeud avec la commande scadmin startcluster. Si le logiciel de grappes est en cours d'exécution sur au moins un des noeuds, redémarrez les autres noeuds.
phys-hahost# scadmin startnode |
Inscrivez les services de données.
phys-hahost# hareg -r service_données |
Activez les services de données.
phys-hahost# hareg -y service_données |
Vérifiez l'accès aux services de données.
Avisez les utilisateurs que les services de données sont maintenant disponibles.
L'Agent de gestion de commutation (AGC) est un module de grappe assurant la gestion des canaux de communication au niveau de l'interconnexion privée de la grappe. Il surveille l'interconnexion privée et appelle une procédure de reprise vers un réseau de sauvegarde lorsqu'il détecte une défaillance.
Prenez note des restrictions suivantes avant de débuter la procédure.
Les noeuds SC2000/SS1000 n'acceptent pas plus d'une carte SCI sur une carte système. S'il y en a davantage, il peut se produire des réinitialisations parasites au niveau des liens de l'interconnexion SCI.
Un SBus de noeud E10000 doit comporter d'autres cartes en plus de la carte SCI.
N'installez pas d'adaptateurs SCI et d'autres adaptateurs d'hôte A3000 sur le même SBus d'une configuration Sun StorEdge A3000.
Voir également l'Annexe B dans le Sun Cluster 2.2 Hardware Site Preparation, Planning, and Installation Guide.
Cette procédure permet d'ajouter des commutateurs et des cartes SCI aux noeuds de la grappe. Pour de plus amples renseignements, consultez la page de manuel sm_config(1M).
Modifiez le fichier modèle sm_config pour tenir compte des changements apportés à la configuration.
Ce fichier modèle se trouve habituellement dans le répertoire /opt/SUNWsma/bin/Examples.
Configurez les cartes SCI SBus en exécutant la commande sm_config(1M) à partir d'un noeud de la grappe.
Exécutez une seconde fois la commande pour vous assurer que les ID et les adresses IP des noeuds SCI sont correctement attribuées aux noeuds de la grappe. Toute attribution erronée peut nuire aux communications entre les noeuds.
Réinitialisez les nouveaux noeuds.
Si un problème survient avec le logiciel SCI, vérifiez si les éléments suivants s'appliquent :
Le fichier modèle sm_config(1M) correspond à la configuration matérielle (lien et commutateur SCI) et à la topologie de la grappe.
La commande sm_config(1M) peut être exécutée avec succès à partir d'un noeud de la grappe.
Un noeud reconfiguré a été réinitialisé après l'exécution de la commande sm_config(1M).
Prenez également note des problèmes suivants et de leurs solutions :
Avec certaines applications telles que Oracle Parallel Server (OPS), il est nécessaire de spécifier une quantité minimale de mémoire partagée anormalement élevée dans le fichier /etc/system. Si la valeur du champ shmsys:shminfo_shmmin dans le fichier /etc/system dépasse les 200 octets, la commande sm_config(1M) ne peut pas obtenir sa part de mémoire partagée parce que ses besoins à ce niveau sont inférieurs de quelques octets seulement par rapport à la quantité minimale que le système peut lui allouer. Cela se traduit par un échec de l'appel système effectué par la commande sm_config(1M), et cette commande ne peut être exécutée.
Pour pallier ce problème. modifiez le fichier /etc/system et fixez la valeur de shmsys:shminfo_shmmin à moins de 200 octets. Réinitialisez ensuite l'ordinateur pour qu'il tienne compte des nouvelles valeurs.
Si des avertissements semsys et des vidages d'image mémoire se produisent, vérifiez que les valeurs de sémaphore contenues dans les champs semsys:seminfo_ * du fichier /etc/system correspondent bien aux limites physiques réelles de l'ordinateur.
Pour de plus amples renseignements sur les composants SCI, voir l'Annexe B dans le Sun Cluster 2.2 Hardware Site Preparation, Planning, and Installation Guide.
Deux commandes permettent de vérifier la connectivité entre les noeuds : get_ci_status(1M) et ping(1).
Exécutez la commande get_ci_status(1M) sur tous les noeuds de grappe.
Voici un exemple de données de sortie obtenues avec la commande get_ci_status(1M) :
# /opt/SUNWsma/bin/get_ci_status sma : sci #0 : no_emplacement_sbus 1 ; id_adaptateur 8 (0x08) ; adresse_ip 1 ; id_commutateurd 0 ; id_port 0 ; Etat de l'adaptateur - ACTIF ; Etat du lien - ACTIF sma : sci #1 : no_emplacement_sbus 2 ; id_adaptateur 12 (0x0c) ; adresse _IP 17 ; id_commutateur 1 ; id_port 0 ; Etat de l'adaptateur - ACTIF ; Etat du lien - ACTIF sma : id_commutateur 0sma : id_port 1 : nom_hôte = interconn2 ; id_adaptateur = 72 ; actif | fonctionnel sma : id_port 2 : nom_hôte = interconn3 ; id_adaptateur = 136 ; actif | fonctionnel sma : id_port 3 : nom_hôte = interconn4 ; id_adaptateur = 200 ; actif | fonctionnel sma : id_commutateur 1 sma : id_port 1 : nom_hôte = interconn2 ; id_adaptateur = 76 ; actif | fonctionnel sma : id_port 2 : nom_hôte = interconn3 ; id_adaptateur = 140 ; actif | fonctionnel sma : id_port 3 : nom_hôte = interconn4 ; id_adaptateur = 204 ; actif | fonctionnel # |
Les quatre premières lignes indiquent l'état du noeud logique (interconn1 dans le cas présent). Ce dernier communique avec id_commutateur 0 et id_commutateur 1 (État du lien - ACTIF).
sma : sci #0 : no_emplacement_sbus 1 ; id_adaptateur 8 (0x08) ; adresse_ip 1 ; id_commutateurd 0 ; id_port 0 ; Etat de l'adaptateur - ACTIF ; Etat du lien - ACTIF sma : sci #1 : no_emplacement_sbus 2 ; id_adaptateur 12 (0x0c) ; adresse _IP 17 ; id_commutateur 1 ; id_port 0 ; Etat de l'adaptateur - ACTIF ; Etat du lien - ACTIF |
Les données de sortie restantes indiquent l'état général des autres noeuds de la grappe. Tous les ports des deux commutateurs communiquent avec leurs noeuds respectifs. S'il y a un problème au niveau du matériel, l'état inactif apparaît plutôt que actif. Si le problème se situe au niveau logiciel, l'état non fonctionnel apparaît plutôt que fonctionnel.
sma : id_commutateur 0 sma : id_port 1 : nom_hôte = interconn2 ; id_adaptateur = 72 ; actif | fonctionnel sma : id_port 2 : nom_hôte = interconn3 ; id_adaptateur = 136 ; actif | fonctionnel sma : id_port 3 : nom_hôte = interconn4 ; id_adaptateur = 200 ; actif | fonctionnel sma : id_commutateur 1 sma : id_port 1 : nom_hôte = interconn2 ; id_adaptateur = 76 ; actif | fonctionnel sma : id_port 2 : nom_hôte = interconn3 ; id_adaptateur = 140 ; actif | fonctionnel sma : id_port 3 : nom_hôte = interconn4 ; id_adaptateur = 204 ; actif | fonctionnel # |
Exécutez la commande ping(1) sur toutes les adresses IP des noeuds distants.
Voici un exemple de données de sortie obtenues avec la commande ping(1).
# ping adresse-IP |
Les adresses IP se trouvent dans le fichier /etc/sma.ip. Prenez soin d'exécuter la commande ping(1) sur chaque noeud de la grappe.
La commande ping(1) renvoie le message "en activité", ce qui confirme que les deux extrémités communiquent sans problème. Autrement, un message d'erreur apparaît.
Par exemple,
# ping 204.152.65.2 204.152.65.2 en activité |
Exécutez la commande ifconfig -a pour vérifier si toutes les interfaces SCI sont actives et que les noeuds de grappe possèdent une adresse IP exacte.
Les 8 derniers bits de l'adresse IP doivent correspondre à la valeur du champ IP dans le fichier /etc/sma.config.
# ifconfig -a lo0 : indicateurs=849 <ACTIF,REBOUCLAGE,EN COURS D'EXECUTION,MULTIDESTINATAIRE> mtu 8232 inet 127.0.0.1 masques_réseau ff000000 hme0 : indicateurs=863<ACTIF,DIFFUSION, PAS DE BLOCS DE FIN,EN COURS D'EXECUTION,MULTIDESTINATAIRES> mtu 1500 inet 129.146.238.55 masque_réseau ffffff00 diffusion 129.146.238.255 ether 8:0:20:7b:fa:0 scid0 : indicateurs=80cl<ACTIF,EN COURS D'EXECUTION,PAS D'ARP,PRIVE> mtu 16321 inet 204.152.65.1 masques_réseau fffffff0 scid1 : indicateurs=80cl<ACTIF,EN COURS D'EXECUTION,PAS D'ARP,PRIVE> mtu 16321 inet 204.152.65.17 masques_réseau fffffff0 |