Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Français) |
1. Présentation de l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Arrêt et initialisation d'un cluster
4. Méthodes de réplication de données
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un noeud
Présentation de l'administration du cluster
Modification du nom du cluster
Mappage d'un ID de noeud sur le nom d'un noeud
Authentification du nouveau noeud du cluster
Réinitialisation de l'heure et de la date d'un cluster
SPARC : Affichage d'OpenBoot PROM (OBP) sur un noeud
Modification du nom d'hôte privé d'un noeud
Ajout d'un nom d'hôte privé pour un noeud non votant sur un cluster global
Modification du nom d'hôte privé sur un noeud non votant d'un cluster global
Suppression du nom d'hôte privé d'un noeud non votant sur un cluster global
Modification du nom d'un noeud
Mise en mode de maintenance d'un noeud
Arrêt du mode de maintenance d'un noeud
Désinstallation d'Oracle Solaris Cluster d'un noeud du cluster
Dépannage de la désinstallation d'un noeud
Entrées du système de fichiers de cluster non supprimées
Entrée non supprimée dans la liste des groupes de périphériques
Script de désinstallation manquant
Création, paramétrage et gestion de la base MIB d'événements SNMP d'Oracle Solaris Cluster
Activation d'une base MIB d'événements SNMP
Désactivation d'une base MIB d'événements SNMP
Modification d'une base MIB d'événements SNMP
Activation des notifications de déroutement d'un hôte SNMP sur un noeud
Désactivation des notifications de déroutement d'un hôte SNMP sur un noeud
Ajout d'un utilisateur SNMP à un noeud
Suppression d'un utilisateur SNMP à un noeud
Tâches d'administration d'un cluster de zones
Ajout d'une adresse réseau à un cluster de zones
Suppression d'un cluster de zones
Suppression d'un système de fichiers d'un cluster de zones
Suppression d'un périphérique de stockage d'un cluster de zones
Exécution d'une application à l'extérieur du cluster global
Restauration d'un ensemble de disques altéré
Enregistrement de la configuration du logiciel Solaris Volume Manager
Purge de l'ensemble de disques altéré
Recréation de la configuration du logiciel Solaris Volume Manager
10. Configuration du contrôle de l'utilisation de la CPU
11. Application de patchs au logiciel et au microprogramme d'Oracle Solaris Cluster
12. Sauvegarde et restauration d'un cluster
13. Administration d'Oracle Solaris Cluster avec les interfaces graphiques
Cette section explique comment effectuer des tâches d'administration sur l'ensemble d'un cluster global ou sur un cluster de zones. Le tableau ci-dessous liste ces tâches d'administration, ainsi que les procédures qui leur sont associées. Les tâches d'administration sont généralement effectuées dans la zone globale. Pour administrer un cluster de zones, vous devez disposer au minimum d'une machine hébergeant le cluster de zones, qui soit en ligne et en mode cluster. Tous les noeuds du cluster de zones ne doivent pas forcément être en ligne et actifs. Oracle Solaris Cluster relit les modifications apportées à la configuration, lorsque le noeud se trouvant en dehors du cluster parvient à rejoindre le cluster.
Remarque - Par défaut, la gestion de l'alimentation est désactivée pour ne pas interférer avec le cluster. Si vous activez la gestion de l'alimentation d'un cluster à noeud unique, le cluster est toujours en cours d'exécution mais il peut devenir indisponible pendant quelques secondes. La fonction Gestion de l'alimentation tente d'arrêter le noeud, sans succès.
Dans ce chapitre, phys-schost# fait référence à une invite du cluster global. L'élément clzc:schost> représente l'invite de shell interactive de la commande clzonecluster.
Tableau 9-1 Liste des tâches : administration du cluster
|
Vous pouvez modifier, si nécessaire, le nom du cluster, après l'installation initiale.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost# clsetup
Le menu principal s'affiche.
Le menu Other Cluster Properties (Autres propriétés du cluster) s'affiche.
phys-schost# stclient -x
phys-schost# stclient -d -i service_tag_instance_number
phys-schost# reboot
Exemple 9-1 Modification du nom du cluster
L'exemple suivant montre la commande cluster générée à partir de l'utilitaire clsetup pour affecter le nouveau nom du cluster, dromedary.
Pour plus d'informations, reportez-vous aux pages de manuel cluster(1CL) et clsetup(1CL).
phys-schost# cluster rename -c dromedary
Pendant l'installation d'Oracle Solaris Cluster, un numéro d'ID de noeud unique est assigné à chaque noeud. Ce numéro d'ID est assigné aux noeuds, selon l'ordre dans lequel ils rejoignent le cluster pour la première fois. Une fois que ce numéro d'ID de noeud a été assigné, il ne peut plus être modifié. Ce numéro est utilisé, le plus souvent, dans les messages d'erreur, afin d'identifier le noeud du cluster concerné par le message. Suivez cette procédure pour déterminer le mappage entre les ID et les noms des noeuds.
Il n'est pas nécessaire de vous connecter en tant que superutilisateur pour répertorier les informations de configuration d'un cluster global ou d'un cluster de zones. L'une des deux étapes de cette procédure doit être effectuée depuis un noeud du cluster global. L'autre étape doit être effectuée depuis un noeud du cluster de zones.
phys-schost# clnode show | grep Node
Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
phys-schost# zlogin sczone clnode -v | grep Node
Exemple 9-2 Mappage de l'ID sur le nom du noeud
L'exemple suivant met en évidence les assignations d'ID des noeuds d'un cluster global.
phys-schost# clnode show | grep Node === Cluster Nodes === Node Name: phys-schost1 Node ID: 1 Node Name: phys-schost2 Node ID: 2 Node Name: phys-schost3 Node ID: 3
Oracle Solaris Cluster permet de déterminer si les nouveaux noeuds peuvent s'auto-ajouter au cluster global, ainsi que le type d'authentification à utiliser. Vous pouvez permettre ou interdire à tous les noeuds de rejoindre le cluster sur le réseau public ou indiquer un noeud spécifique pouvant rejoindre le cluster. Les nouveaux noeuds peuvent être authentifiés par le biais d'une authentification UNIX standard ou d'une authentification Diffie-Hellman (DES, Data Encryption Standard). Si vous sélectionnez une authentification DES, vous devez également configurer les clés de chiffrement nécessaires, avant que le noeud ne rejoigne le cluster. Pour plus d'informations, reportez-vous aux pages de manuel keyserv(1M) et publickey(4).
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost# clsetup
Le menu principal s'affiche.
Le menu New Nodes (Nouveaux noeuds) s'affiche.
Exemple 9-3 Interdire l'ajout de nouvelles machines au cluster global
L'utilitaire clsetup génère la commande claccess. L'exemple suivant met en évidence la commande claccess interdisant l'ajout de nouvelles machines au cluster.
phys-schost# claccess deny -h hostname
Exemple 9-4 Autoriser l'ajout de toutes les nouvelles machines au cluster global
L'utilitaire clsetup génère la commande claccess. L'exemple suivant met en évidence la commande claccess autorisant l'ajout de nouvelles machines au cluster.
phys-schost# claccess allow-all
Exemple 9-5 Spécification d'une nouvelle machine à ajouter au cluster global
L'utilitaire clsetup génère la commande claccess. L'exemple suivant met en évidence la commande claccess autorisant l'ajout d'une nouvelle machine au cluster.
phys-schost# claccess allow -h hostname
Exemple 9-6 Définition de l'authentification UNIX standard
L'utilitaire clsetup génère la commande claccess. L'exemple suivant met en évidence la commande claccess réinitialisant l'authentification des nouveaux noeuds rejoignant le cluster sur une authentification Unix standard.
phys-schost# claccess set -p protocol=sys
Exemple 9-7 Paramétrage du processus d'authentification DES
L'utilitaire clsetup génère la commande claccess. L'exemple suivant met en évidence la commande claccess utilisée par le processus d'authentification DES pour les nouveaux noeuds rejoignant le cluster.
phys-schost# claccess set -p protocol=des
Lorsque vous utilisez une authentification DES, vous devez également configurer toutes les clés de chiffrement nécessaires, avant qu'un noeud ne puisse rejoindre le cluster. Pour plus d'informations, reportez-vous aux pages de manuel keyserv(1M) et publickey(4).
Oracle Solaris Cluster utilise le protocole NTP (Network Time Protocol) pour synchroniser l'heure des noeuds d'un cluster. Les réglages se font de manière automatique, lorsque les noeuds synchronisent l'heure sur laquelle ils sont réglés avec celle du cluster global, lorsque cela s'avère nécessaire. Pour plus d'informations, reportez-vous au Oracle Solaris Cluster Concepts Guide et au manuel Network Time Protocol User's Guide à l'adresse http://docs.oracle.com/cd/E19065-01/servers.10k/.
![]() | Attention - Lorsque vous utilisez un protocole de transfert réseau, vous ne devez pas tenter de régler l'heure du cluster, lorsque ce dernier est exécuté. Vous ne devez pas régler l'heure de manière interactive à l'aide des commandes date, rdate ou svcadm ou dans des scripts cron. Pour plus d'informations, reportez-vous aux pages de manuel date(1), rdate(1M), xntpd(1M), svcadm(1M) ou cron(1M). |
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost# cluster shutdown -g0 -y -i 0
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot -x
Sur les systèmes x86, exécutez les commandes suivantes :
# shutdown -g -y -i0 Press any key to continue
Le menu GRUB qui s'affiche est semblable à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Initialisation d’un système x86 à l’aide de GRUB (liste des tâches) du manuel Administration d’Oracle Solaris : Administration de base.
L'écran des paramètres d'initialisation GRUB qui s'affiche est semblable à ce qui suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
L'écran affiche la commande éditée.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
Remarque - Cette modification de la commande des paramètres d'initialisation du noyau ne sera pas prise en compte, lors de la prochaine initialisation du système. Lors de la prochaine initialisation du noeud, ce dernier sera initialisé en mode cluster. Si vous souhaitez plutôt initialiser le noeud en mode non cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande des paramètres d'initialisation du noyau.
phys-schost# date HHMM.SS
phys-schost# rdate hostname
Pour plus d'informations, reportez-vous à la page de manuel rdate(1M).
phys-schost# reboot
Exécutez la commande date sur chaque noeud.
phys-schost# date
Suivez cette procédure si vous devez configurer ou modifier des paramètres OpenBoot(tm) PROM.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
# telnet tc_name tc_port_number
Spécifie le nom du concentrateur de terminaux.
Spécifie le numéro de port du concentrateur de terminaux. Les numéros de port dépendent de la configuration. Les ports 2 et 3 (5002 et 5003) sont généralement utilisés par le premier cluster installé sur un site.
phys-schost# clnode evacuate node # shutdown -g0 -y
![]() | Attention - Vous ne pouvez pas utiliser la commande send brk dans la console d'un cluster pour arrêter un noeud. |
Suivez cette procédure pour modifier le nom d'hôte privé d'un noeud non votant, après avoir terminé l'installation.
Les noms d'hôtes privés par défaut sont assignés pendant l'installation initiale du cluster. Le format des noms d'hôtes privés par défaut est le suivant : clusternode< nodeid>-priv, tel que clusternode3-priv, par exemple. Vous devez modifier un nom d'hôte privé uniquement si ce dernier est déjà utilisé dans le domaine.
![]() | Attention - Ne tentez pas d'assigner des adresses IP aux nouveaux noms d'hôtes privés. Le logiciel de clustering se charge de les assigner. |
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost# clresource disable resource[,...]
Veuillez inclure les éléments suivants dans les applications à désactiver :
Les services DNS et NFS à haute disponibilité, si configurés.
Toute application dont la configuration a été personnalisée afin d'utiliser le nom d'hôte privé.
Toute application utilisée par les clients dans l'interconnexion privée.
Pour plus d'informations sur l'utilisation de la commande clresource, reportez-vous à la page de manuel clresource(1CL) et au manuel Oracle Solaris Cluster Data Services Planning and Administration Guide .
Utilisez la commande svcadm pour arrêter le démon NTP (Network Time Protocol). Pour plus d'informations sur le démon NTP, reportez-vous à la page de manuel svcadm(1M).
phys-schost# svcadm disable ntp
Exécutez l'utilitaire à partir d'un seul des noeuds du cluster.
Remarque - Lorsque vous sélectionnez un nouveau nom d'hôte privé, assurez-vous que ce dernier ne fait pas doublon sur le noeud du cluster.
Répondez aux questions, lorsque vous y êtes invité. Vous êtes invité à saisir le nom du noeud dont vous modifiez le nom d'hôte privé (clusternode< nodeid> -priv), ainsi que le nouveau nom d'hôte privé.
Effectuez cette étape sur chaque noeud du cluster. Lorsque vous videz le cache du service de noms, cela empêche les applications et les services de données du cluster d'accéder à l'ancien nom d'hôte privé.
phys-schost# nscd -i hosts
Si vous effectuez cette étape lors de l'installation, n'oubliez pas de supprimer les noeuds configurés. Le modèle par défaut est préconfiguré avec 16 noeuds. En règle générale, le fichier ntp.conf.cluster est le même sur chaque noeud du cluster.
Effectuez cette étape sur chaque noeud du cluster.
Utilisez la commande svcadm pour redémarrer le démon NTP.
# svcadm enable ntp
phys-schost# clresource enable resource[,...]
Pour plus d'informations sur l'utilisation de la commande clresource, reportez-vous à la page de manuel clresource(1CL) et au manuel Oracle Solaris Cluster Data Services Planning and Administration Guide .
Exemple 9-8 Modification du nom d'hôte privé
L'exemple suivant modifie le nom d'hôte privé clusternode2-priv en clusternode4-priv, sur le noeud phys-schost-2.
[Disable all applications and data services as necessary.] phys-schost-1# /etc/init.d/xntpd stop phys-schost-1# clnode show | grep node ... private hostname: clusternode1-priv private hostname: clusternode2-priv private hostname: clusternode3-priv ... phys-schost-1# clsetup phys-schost-1# nscd -i hosts phys-schost-1# vi /etc/inet/ntp.conf ... peer clusternode1-priv peer clusternode4-priv peer clusternode3-priv phys-schost-1# ping clusternode4-priv phys-schost-1# /etc/init.d/xntpd start [Enable all applications and data services disabled at the beginning of the procedure.]
Cette procédure permet d'ajouter un nom d'hôte privé pour un noeud non votant sur un cluster global une fois l'installation terminée. Dans les procédures de ce chapitre, phys-schost# fait référence à une invite du cluster global. Suivez cette procédure sur un cluster global uniquement.
phys-schost# clsetup
Répondez aux questions, lorsque vous y êtes invité. Il n'existe aucune valeur par défaut pour le nom d'hôte privé d'un noeud non votant du cluster global. Vous devrez spécifier un nom d'hôte.
Cette procédure permet de modifier le nom d'hôte privé d'un noeud non votant une fois l'installation terminée.
Les noms d'hôte privé sont assignés pendant l'installation initiale du cluster. Le nom d'hôte privé se présente sous la forme clusternode< nodeid>-priv, par exemple : clusternode3-priv. Vous devez modifier un nom d'hôte privé uniquement si ce dernier est déjà utilisé dans le domaine.
![]() | Attention - Ne tentez pas d'assigner des adresses IP aux nouveaux noms d'hôte privé. Le logiciel de clustering se charge de les assigner. |
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost# clresource disable resource1, resource2
Veuillez inclure les éléments suivants dans les applications à désactiver :
Les services DNS et NFS à haute disponibilité, si configurés.
Toute application dont la configuration a été personnalisée afin d'utiliser le nom d'hôte privé.
Toute application utilisée par les clients dans l'interconnexion privée.
Pour plus d'informations sur l'utilisation de la commande clresource, reportez-vous à la page de manuel clresource(1CL) et au manuel Oracle Solaris Cluster Data Services Planning and Administration Guide .
phys-schost# clsetup
Il suffit d'effectuer cette étape à partir de l'un des noeuds du cluster. Pour plus d'informations, reportez-vous à la page de manuel clsetup(1CL).
Remarque - Lorsque vous sélectionnez un nouveau nom d'hôte privé, assurez-vous que ce dernier ne fait pas doublon dans le cluster.
Il n'existe aucune valeur par défaut pour un noeud non votant d'un nom d'hôte privé du cluster global. Vous devez spécifier un nom d'hôte.
Répondez aux questions, lorsque vous y êtes invité. Vous êtes invité à saisir le nom du noeud non votant dont vous modifiez le nom d'hôte privé (clusternode< nodeid> -priv), ainsi que le nouveau nom d'hôte privé.
Effectuez cette étape sur chaque noeud du cluster. Lorsque vous videz le cache du service de noms, cela empêche les applications et les services de données du cluster d'accéder à l'ancien nom d'hôte privé.
phys-schost# nscd -i hosts
Cette procédure permet de supprimer un nom d'hôte privé pour un noeud non votant sur un cluster global. Suivez cette procédure sur un cluster global uniquement.
Pour plus d'informations, reportez-vous à la page de manuel clsetup(1CL).
Vous pouvez modifier le nom d'un noeud qui fait partie d'une configuration de cluster Oracle Solaris. Vous devez renommer le nom d'hôte Oracle Solaris avant de pouvoir renommer le noeud. Utilisez la commande clnode rename pour renommer le noeud.
Les instructions suivantes sont valides pour toute application s'exécutant sur un cluster global.
ok> boot -x
# clnode rename -n newnodename oldnodename
# sync;sync;sync;/etc/reboot
# clnode status -v
Vous pouvez modifier la propriété hostnamelist de la ressource de nom d'hôte logique avant ou après avoir renommé le noeud en suivant les étapes de la section Modification du nom d'un noeud. Cette étape est facultative.
Les étapes ci-dessous décrivent comment configurer la ressource apache-lh-res de manière à ce qu'elle fonctionne avec le nouveau nom d'hôte logique. Cette procédure doit être exécutée en mode cluster.
# clrg offline apache-rg
# clrs disable appache-lh-res
# clrs set -p HostnameList=test-2 apache-lh-res
# clrs enable apache-lh-res
# clrg online -eM apache-rg
# clrs status apache-rs
Vous devez mettre un noeud du cluster global en mode de maintenance, lorsque vous désactivez ce dernier pendant un certain temps. De cette façon, le noeud n'est pas pris en compte dans le nombre de quorums, pendant l'opération de maintenance. Pour mettre un noeud en mode de maintenance, ce dernier doit être arrêté à l'aide des commandes clnode evacuate et cluster shutdown. Pour de plus amples informations, reportez-vous aux pages de manuel clnode(1CL) et cluster(1CL).
Remarque - Utilisez la commande Oracle Solaris shutdown pour arrêter un noeud unique. Utilisez la commande cluster shutdown uniquement lorsque vous arrêtez l'ensemble d'un cluster.
Lorsqu'un noeud est arrêté et mis en mode de maintenance, la valeur 1 est déduite du nombre de votes de tous les périphériques de quorum dont les ports sont configurés sur ce noeud. Lors de l'arrêt du mode de maintenance de ce dernier et sa remise en ligne, la valeur 1 est ajoutée au noeud et aux nombres de votes de périphérique de quorum.
Utilisez la commande clquorum disable pour mettre le noeud du cluster en mode de maintenance. Pour plus d'informations, reportez-vous à la page de manuel clquorum(1CL).
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i 0
phys-schost# clquorum disable node
Spécifie le nom d'un noeud à mettre en mode de maintenance.
phys-schost# clquorum status node
Le statut du noeud dont le mode de maintenance est arrêté doit être hors ligne (offline) et le nombre de votes doit être défini sur une valeur nulle (0) pour les votes de quorum de type Present et Possible.
Exemple 9-9 Mise en mode de maintenance d'un noeud du cluster global
L'exemple suivant met le noeud du cluster en mode de maintenance et vérifie les résultats. Le résultat de la commande clnode status renvoie la valeur 0 (zéro) pour les noeuds de vote (Node votes) de phys-schost-1, ainsi que le statut Hors ligne (Offline). Le Récapitulatif du quorum (Quorum Summary) doit également renvoyer des nombres de votes réduits. Selon votre configuration, le résultat des Quorum Votes by Device doit indiquer que certains périphériques de disque de quorum se trouvent également hors ligne.
[On the node to be put into maintenance state:] phys-schost-1# clnode evacuate phys-schost-1 phys-schost-1# shutdown -g0 -y -i0 [On another node in the cluster:] phys-schost-2# clquorum disable phys-schost-1 phys-schost-2# clquorum status phys-schost-1 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 0 0 Offline phys-schost-2 1 1 Online phys-schost-3 1 1 Online
Voir aussi
Pour remettre un noeud en ligne, reportez-vous à la section Arrêt du mode de maintenance d'un noeud.
Suivez la procédure suivante pour remettre en ligne un noeud du cluster global et réinitialiser le nombre de votes de quorum sur la valeur par défaut. Le nombre de quorums des noeuds du cluster est égal à 1. Le nombre de quorums par défaut des périphériques de quorum est égal à N-1. La lettre N représente un nombre de noeuds, dont la valeur du nombre de votes n'est pas égale à zéro et dont les ports du nombre de votes sont configurés sur le périphérique de quorum.
Lors de la mise en mode de maintenance d'un noeud, la valeur 1 est déduite du nombre de votes de quorum de ce noeud. Les nombres de votes de tous les périphériques de quorum dont les ports sont configurés sur le noeud, seront également réduits. Lors de la réinitialisation du nombre de votes de quorum et de l'arrêt du mode de maintenance d'un noeud, la valeur 1 est ajoutée au nombre de votes de périphérique de quorum et au nombre de votes de quorum du noeud.
Suivez cette procédure à chaque fois qu'un noeud du cluster global est mis en mode de maintenance et que vous souhaitez modifier cet état.
![]() | Attention - Si vous ne spécifiez pas les options globaldev ou node, les votes de quorum sont réinitialisés pour tout le cluster. |
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Vous pouvez réinitialiser le nombre de quorums d'un noeud autre que le noeud mis en mode de maintenance, avant de réinitialiser ce dernier. Dans le cas contraire, le noeud peut se retrouver bloqué en attendant le quorum.
phys-schost# clquorum reset
Indicateur de la modification réinitialisant les quorums.
phys-schost# clquorum status
Le statut du noeud dont le mode de maintenance est arrêté doit être en ligne (online) et refléter le nombre de votes approprié pour les votes de quorum de type Present et Possible.
Exemple 9-10 Arrêt du mode de maintenance d'un noeud du cluster et redéfinition du nombre de votes de quorum
L'exemple suivant met en évidence la réinitialisation du nombre de quorums d'un noeud du cluster et de ses périphériques de quorum sur les valeurs par défaut, ainsi que la vérification du résultat. Dans la sortie de scstat status, les votes de noeud (Node votes) pour la commande phys-schost-1 possèdent la valeur 1 et le statut en ligne (Online). Le récapitulatif du quorum (Quorum Summary) affiche également une augmentation du nombre de votes.
phys-schost-2# clquorum reset
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot
Sur les systèmes x86, exécutez les commandes suivantes :
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB qui s'affiche est semblable à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
phys-schost-1# clquorum status --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 4 6 6 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-2 1 1 Online phys-schost-3 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d3s2 1 1 Online /dev/did/rdsk/d17s2 0 1 Online /dev/did/rdsk/d31s2 1 1 Online `
Effectuez cette procédure pour désinstaller Oracle Solaris Cluster d'un noeud de cluster global, puis déconnecter le noeud d'une configuration en cluster entièrement déployée. Vous pouvez suivre cette procédure pour désinstaller les logiciels du dernier noeud restant d'un cluster.
Remarque - Pour désinstaller Oracle Solaris Cluster d'un noeud n'ayant pas encore rejoint le cluster ou se trouvant encore en mode installation, vous ne devez pas suivre cette procédure. Au lieu de cela, reportez-vous à la section “Désinstallation du logiciel Oracle Solaris Cluster pour résoudre les problèmes d'installation” du Guide d’installation du logiciel Oracle Solaris Cluster.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Reportez-vous au Tableau 8-2.
Remarque - Assurez-vous d'avoir supprimé le noeud de la configuration du cluster à l'aide de la commande clnode remove, avant de continuer cette procédure.
phys-schost# claccess allow -h hostname
Spécifie le nom du noeud à ajouter à la liste d'authentification du noeud.
Vous pouvez également exécuter l'utilitaire clsetup. Pour plus d'informations sur les procédures, reportez-vous à la page de manuel clsetup(1CL) et à la section Ajout d'un noeud à un cluster existant.
phys-schost# clzonecluster uninstall -F zoneclustername
Pour le détail des étapes, reportez-vous à la section Suppression d'un cluster de zones.
Sur les systèmes SPARC, exécutez la commande suivante :
# shutdown -g0 -y -i0ok boot -x
Sur les systèmes x86, exécutez les commandes suivantes :
# shutdown -g0 -y -i0 ... <<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x
Si le registre du produit Java ES contient une trace de l'installation passée du logiciel Oracle Solaris Cluster, le composant Oracle Solaris Cluster est grisé dans le programme d'installation de Java ES et il n'est pas possible de le réinstaller.
Exécutez la commande suivante, où ver correspond à la version de la distribution Java ES à partir de laquelle vous avez installé le logiciel Oracle Solaris Cluster.
# /var/sadm/prod/SUNWentsysver/uninstall
Pour plus d'informations sur l'utilisation de la commande uninstall, reportez-vous au Chapitre 8, Uninstalling du manuel Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.
Si le noeud désinstallé est connecté à un périphérique de stockage utilisant des interfaces Fibre Channel, vous ne devez installer aucune terminaison.
Astuce - Si vous utilisez un périphérique lofi (loopback file interface, interface de fichier loopback), le programme de désinstallation de Java ES supprime automatiquement le fichier lofi, qui se nomme /.globaldevices. Pour plus d'informations sur la migration d'un espace de noms de périphériques globaux vers un périphérique lofi, reportez-vous à la section Migration de l'espace de noms des périphériques globaux.
Cette section décrit les messages d'erreur pouvant être reçus, lorsque vous exécutez la commande clnode remove, ainsi que les actions correctives à mettre en oeuvre.
Les messages d'erreur suivants indiquent que le noeud du cluster qui a été supprimé contient encore des systèmes de fichiers de cluster référencés dans le fichier vfstab :
Verifying that no unexpected global mounts remain in /etc/vfstab ... failed clnode: global-mount1 is still configured as a global mount. clnode: global-mount1 is still configured as a global mount. clnode: /global/dg1 is still configured as a global mount. clnode: It is not safe to uninstall with these outstanding errors. clnode: Refer to the documentation for complete uninstall instructions. clnode: Uninstall failed.
Pour corriger cette erreur, retournez à la section Désinstallation d'Oracle Solaris Cluster d'un noeud du cluster et répétez la procédure. Assurez-vous d'avoir terminé l'Étape 7 de cette procédure avant d'exécuter à nouveau la commande clnode remove.
Les messages d'erreur suivants indiquent que le noeud supprimé est encore listé dans un groupe de périphériques.
Verifying that no device services still reference this node ... failed clnode: This node is still configured to host device service " service". clnode: This node is still configured to host device service " service2". clnode: This node is still configured to host device service " service3". clnode: This node is still configured to host device service " dg1". clnode: It is not safe to uninstall with these outstanding errors. clnode: Refer to the documentation for complete uninstall instructions. clnode: Uninstall failed.
Si vous n'avez pas utilisé le programme installer pour installer ou mettre à niveau le logiciel Sun Cluster ou Oracle Solaris Cluster que vous souhaitez désormais supprimer, il n'y a pas de script de désinstallation à utiliser pour cette version du logiciel. Au lieu de cela, effectuez les étapes suivantes pour désinstaller le logiciel.
# cd /directory
# scinstall -r
# mv /var/sadm/install/productregistry /var/sadm/install/productregistry.sav
Cette section explique comment créer, paramétrer et gérer une base d'informations de gestion (MIB, Management Information Base) d'événements de protocole de gestion de réseau simple (SNMP, Simple Network Management Protocol). Cette section explique également comment activer, désactiver ou modifier la base MIB d'événements SNMP d'Oracle Solaris Cluster.
Oracle Solaris Cluster prend actuellement en charge une base MIB, à savoir la base MIB d'événements SNMP. Le gestionnaire SNMP déroute les événements du cluster en temps réel. Lorsque le gestionnaire SNMP est activé, ce dernier envoie des notifications de déroutement vers tous les hôtes définis par la commande clsnmphost. La base MIB met à jour une table en lecture seule contenant les 50 événements les plus récurrents. Etant donné que les clusters génèrent de nombreuses notifications, seuls les événements renvoyant la gravité Avertissement ou une gravité supérieure sont envoyés en tant que notifications de déroutement. Ces informations ne seront pas prises en compte, lors des prochaines réinitialisations.
La base MIB d'événements SNMP est définie dans le fichier sun-cluster-event-mib.mib et se trouve dans le répertoire /usr/cluster/lib/mib. Vous pouvez utiliser cette définition pour interpréter les informations des déroutements SNMP.
Le numéro de port par défaut du module des événements SNMP est égal à 11161 et le numéro de port par défaut des déroutements SNMP est égal à 11162. Vous pouvez modifier ces numéros de port dans le fichier du conteneur d'agent commun, à savoir : /etc/cacao/instances/default/private/cacao.properties.
La création, le paramétrage et la gestion d'une base MIB d'événements SNMP d'Oracle Solaris Cluster peut inclure les tâches suivantes :
Tableau 9-2 Liste des tâches : création, paramétrage et gestion de la base MIB d'événements SNMP d'Oracle Solaris Cluster
|
Cette procédure explique comment activer une base MIB d'événements SNMP.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost-1# clsnmpmib enable [-n node] MIB
Spécifie l'emplacement du noeud sur lequel se trouve la base MIB d'événements à activer. Vous pouvez spécifier l'ID ou le nom d'un noeud. Si vous ne spécifiez pas cette option, le noeud actif sera utilisé par défaut.
Spécifie le nom de la base MIB à activer. Dans ce cas, le nom de la base MIB doit être event.
Cette procédure explique comment désactiver une base MIB d'événements SNMP.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost-1# clsnmpmib disable -n node MIB
Spécifie l'emplacement du noeud node sur lequel se trouve la base MIB d'événements à désactiver. Vous pouvez spécifier l'ID ou le nom d'un noeud. Si vous ne spécifiez pas cette option, le noeud actif sera utilisé par défaut.
Spécifie le type de la base MIB à désactiver. Dans ce cas, vous devez spécifier event.
Cette procédure explique comment modifier le protocole d'une base MIB d'événements SNMP.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost-1# clsnmpmib set -n node -p version=value MIB
Spécifie l'emplacement du noeud node sur lequel se trouve la base MIB d'événements à modifier. Vous pouvez spécifier l'ID ou le nom d'un noeud. Si vous ne spécifiez pas cette option, le noeud actif sera utilisé par défaut.
Spécifie la version du protocole SNMP à utiliser avec les bases MIB. Vous devez spécifier la valeur value comme suit :
version=SNMPv2
version=snmpv2
version=2
version=SNMPv3
version=snmpv3
version=3
Spécifie le nom de la ou des bases MIB sur lesquelles la sous-commande doit être exécutée. Dans ce cas, vous devez spécifier event. Si vous ne spécifiez pas cet opérande, la sous-commande utilise le signe plus par défaut (+), ce qui signifie tous les MIB. Si vous utilisez l'opérande MIB, spécifiez le MIB dans une liste séparée par des espaces après toutes les autres options de ligne de commande.
Cette procédure explique comment ajouter un hôte SNMP sur un noeud faisant partie de la liste des hôtes recevant des notifications de déroutement de la base MIB.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost-1# clsnmphost add -c SNMPcommunity [-n node] host
Spécifie le nom de la communauté SNMP utilisé avec le nom d'hôte.
Vous devez spécifier le nom de la communauté SNMP SNMPcommunity, lorsque vous ajoutez un hôte à une autre communauté que la communauté public. Si vous utilisez la commande add sans l'option -e, la sous-commande utilise l'option public comme nom de communauté par défaut.
Si le nom de communauté spécifié n'existe pas, cette commande le crée.
Spécifie le nom du noeud node de l'hôte SNMP donnant accès aux bases MIB d'événements SNMP dans le cluster. Vous pouvez spécifier l'ID ou le nom d'un noeud. Si vous ne spécifiez pas cette option, le noeud actif sera utilisé par défaut.
Spécifie le nom, l'adresse IP ou l'adresse IPv6 de l'hôte ayant accès aux bases MIB d'événements SNMP dans le cluster.
Cette procédure explique comment supprimer un hôte SNMP sur un noeud faisant partie de la liste des hôtes recevant des notifications de déroutement de la base MIB.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost-1# clsnmphost remove -c SNMPcommunity -n node host
Supprime l'hôte SNMP du noeud spécifié.
Spécifie le nom de la communauté SNMP dont l'hôte SNMP a été supprimé.
Spécifie le nom du noeud node dont l'hôte SNMP a été supprimé de la configuration. Vous pouvez spécifier l'ID ou le nom d'un noeud. Si vous ne spécifiez pas cette option, le noeud actif sera utilisé par défaut.
Spécifie le nom, l'adresse IP ou l'adresse IPv6 de l'hôte ayant été supprimé de la configuration.
Pour supprimer tous les hôtes de la communauté SNMP spécifiée, utilisez le signe Plus (+) sur l'option host, en y ajoutant l'option -c. Pour supprimer tous les hôtes, utilisez le signe Plus (+) sur l'option host .
Cette procédure explique comment ajouter un utilisateur SNMP à la configuration des utilisateurs SNMP d'un noeud.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost-1# clsnmpuser create -n node -a authentication \ -f password user
Spécifie le noeud sur lequel l'utilisateur SNMP a été ajouté. Vous pouvez spécifier l'ID ou le nom d'un noeud. Si vous ne spécifiez pas cette option, le noeud actif sera utilisé par défaut.
Spécifie le protocole d'authentification utilisé pour autoriser l'utilisateur. La valeur du protocole d'authentification est égale à SHA ou MD5.
Spécifie un fichier contenant les mots de passe des utilisateurs SNMP. Si vous ne spécifiez pas cette option lorsque vous créer un nouvel utilisateur, la commande vous invite à saisir un mot de passe. Cette option peut uniquement être utilisée avec la sous-commande add.
Vous devez spécifier les mots de passe des utilisateurs sur plusieurs lignes au format suivant :
user:password
Les mots de passe ne peuvent pas contenir d'espaces ou les caractères suivants :
; (point-virgule)
: (deux points)
\ (barre oblique inverse)
\n (nouvelle ligne)
Spécifie le nom de l'utilisateur SNMP à ajouter.
Cette procédure explique comment supprimer un utilisateur SNMP de la configuration des utilisateurs SNMP d'un noeud.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
phys-schost-1# clsnmpuser delete -n node user
Spécifie le noeud sur lequel l'utilisateur SNMP a été supprimé. Vous pouvez spécifier l'ID ou le nom d'un noeud. Si vous ne spécifiez pas cette option, le noeud actif sera utilisé par défaut.
Spécifie le nom de l'utilisateur SNMP à supprimer.
Vous pouvez activer la répartition automatique de la charge du groupe de ressource sur les noeuds ou les zones en définissant des limites de charge. Vous pouvez configurer un ensemble des limites de charge pour chaque noeud de cluster. Les facteurs de charge assignés à des groupes de ressources correspondent aux limites de charge définies des noeuds. Le comportement par défaut consiste à distribuer la charge du groupe de ressources de manière équitable sur tous les noeuds disponibles dans la liste des noeuds du groupe de ressources.
Les groupes de ressources sont démarrés sur un noeud de la liste des noeuds du groupe de ressources par le RGM, de manière à ce que les limites de charge du noeud ne soient pas dépassées. Etant donné que les groupes de ressources sont assignés aux noeuds par le gestionnaire de groupes de ressources, les facteurs de charge des groupes de ressources sur chaque noeud sont additionnés afin de calculer la charge totale. La charge totale est ensuite comparée aux limites de la charge de ce noeud.
Une limite de charge se compose des éléments suivants :
Un nom assigné par l'utilisateur.
Une valeur de limite dépassable (vous pouvez dépasser temporairement cette valeur).
Une valeur de limite fixe (ces limites de charge ne peuvent jamais être dépassées et sont strictement appliquées).
Vous pouvez définir les limites dépassable et fixe dans une seule commande. Si une des limites n'est pas explicitement définie, la valeur par défaut est utilisée. Les limites dépassable et fixe de chaque noeud sont créées et modifiées avec les commandes clnode create-loadlimit, clnode set-loadlimit, et clnode delete-loadlimit. Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
Vous pouvez assigner une priorité plus élevée à un groupe de ressources. De cette façon, les risques qu'il soit retiré d'un noeud sont réduits. Vous pouvez également définir une propriété preemption_mode pour déterminer si un groupe de ressources peut être devancé par un groupe de ressources à priorité supérieure en cas de surcharge de noeud. Une propriété concentrate_load permet aussi de concentrer la charge du groupe de ressources sur le moins de noeuds possible. La valeur par défaut de la propriété concentrate_load est FALSE.
Remarque - Vous pouvez configurer des limites de charge sur les noeuds d'un cluster global ou d'un cluster de zones. Vous pouvez utiliser la ligne de commande, l'utilitaire clsetup ou l'interface du gestionnaire Oracle Solaris Cluster pour configurer des limites de charge. La procédure suivante montre comment configurer des limites de charge à l'aide de la ligne de commande.
# clnode create-loadlimit -p limitname=mem_load -Z zc1 -p softlimit=11 -p hardlimit=20 node1 node2 node3
Dans cet exemple, le nom du cluster de zones est zc1. L'exemple de propriété est appelé mem_load et possède une limite dépassable de 11 et une limite fixe de 20. Les limites dépassable et fixe sont des arguments facultatifs, définis par défaut sur une valeur illimitée. Pour plus d'informations, reportez-vous à la page de manuel clnode(1CL).
# clresourcegroup set -p load_factors=mem_load@50,factor2@1 rg1 rg2
Dans cet exemple, les facteurs de charge sont définis sur les deux groupes de ressources, rg1 et rg2. Les paramètres des facteurs de charge correspondent aux limites de charge définies pour ces noeuds. Vous pouvez également effectuer cette étape au cours de la création du groupe de ressources avec la commande clresourceroup create. Pour de plus amples informations, reportez-vous à la page de manuel clresourcegroup(1CL).
# clresourcegroup remaster rg1 rg2
Cette commande permet de déplacer des groupes de ressources hors de leur noeud maître actuel, vers d'autres noeuds, afin d'obtenir une répartition uniforme de la charge.
# clresourcegroup set -p priority=600 rg1
La priorité par défaut est 500. Lors de l'assignement des noeuds, les groupes de ressources avec des valeurs de priorité supérieure prévalent sur les groupes de ressources avec une priorité inférieure.
# clresourcegroup set -p Preemption_mode=No_cost rg1
Reportez-vous à la page de manuel clresourcegroup(1CL) pour plus d'informations sur les options HAS_COST, NO_COST et NEVER.
# cluster set -p Concentrate_load=TRUE
Une affinité positive ou négative forte l'emporte sur la répartition de la charge. Une forte affinité doit toujours être respectée, tout comme une limite de charge fixe. Si vous définissez à la fois des affinités fortes et des limites de charge fixes, certains groupes de ressources devront rester hors ligne s'ils ne répondent pas à ces deux contraintes.
L'exemple suivant décrit une affinité positive forte entre le groupe de ressources rg1 du cluster de zones zc1 et le groupe de ressources rg2 du cluster de zones zc2.
# clresourcegroup set -p RG_affinities=++zc2:rg2 zc1:rg1
# clnode status -Z all -v
La sortie inclut tout paramètre de limite de charge défini sur le noeud ou sur ses zones non globales.