JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Introduction à l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers du cluster

6.  Gestion de Quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeligud

9.  Administration du cluster

Présentation de l'administration du cluster

Modification du nom du cluster

Comment modifier le nom de cluster si vous utilisez Veritas CVM

Mappage d'un ID sur le nom d'un noeligud

Authentification du nouveau noeligud du cluster

Réinitialisation de l'heure et de la date d'un cluster

SPARC : Affichage d'OpenBoot PROM (OBP) sur un noeligud

Modification du nom d'hôte privé d'un noeligud

Ajout d'un nom d'hôte privé à un noeligud non votant d'un cluster global

Modification du nom d'hôte privé d'un noeligud non votant d'un cluster global

Suppression d'un nom d'hôte privé d'un noeligud non votant d'un cluster global

Modification du nom d'un noeligud

Modification des noms d'hôte logiques à l'aide des ressources de noms d'hôte logiques Oracle Solaris Cluster existantes

Mise en mode de maintenance d'un noeligud

Arrêt du mode de maintenance d'un noeligud

Désinstallation de Oracle Solaris Cluster d'un noeligud du cluster

Dépannage de la désinstallation d'un noeligud

Entrées du système de fichiers du cluster non supprimées

Liste des groupes de périphériques non supprimée

Script de désinstallation manquant

Création, paramétrage et gestion de la base MIB d'événements SNMP de Oracle Solaris Cluster

Activation d'une base MIB d'événements SNMP

Désactivation d'une base MIB d'événements SNMP

Modification d'une base MIB d'événements SNMP

Activation des notifications de déroutement d'un hôte SNMP sur un noeligud

Désactivation des notifications de déroutement d'un hôte SNMP sur un noeligud

Ajout d'un utilisateur SNMP à un noeligud

Suppression d'un utilisateur SNMP à un noeligud

Configuration de limites de charge

Configuration de limites de charge sur un noeligud

Tâches d'administration d'un cluster de zones

Suppression d'un cluster de zones

Suppression d'un système de fichiers d'un cluster de zones

Suppression d'un périphérique de stockage d'un cluster de zones

Dépannage

Exécution d'une application à l'extérieur du cluster global

Mise en mode non cluster d'un ensemble de métadonnées Solaris Volume Manager depuis les noeliguds initialisés

Restauration d'un ensemble de disques altéré

Enregistrement de la configuration du logiciel Solaris Volume Manager

Purge de l'ensemble de disques corrompus

Recréation de la configuration du logiciel Solaris Volume Manager

10.  Configuration du contrôle de l'utilisation du CPU

11.  Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

13.  Administration de Oracle Solaris Cluster avec les interfaces graphiques

A.  exemple

Index

Présentation de l'administration du cluster

Cette section explique comment effectuer des tâches d'administration sur l'ensemble d'un cluster global ou sur un cluster de zones. Le tableau ci-dessous liste ces tâches d'administration, ainsi que les procédures qui leur sont associées. Les tâches d'administration sont généralement effectuées dans la zone globale. Pour administrer un cluster de zones, vous devez disposer au minimum d'une machine hébergeant le cluster de zones, qui soit en ligne et en mode cluster. Tous les nœuds du cluster de zones ne doivent pas forcément être en ligne et actifs. Oracle Solaris Cluster relit les modifications apportées à la configuration, lorsque le nœud se trouvant en dehors du cluster parvient à rejoindre le cluster.


Remarque - Par défaut, la gestion de l'alimentation est désactivée pour ne pas interférer avec le cluster. Si vous activez la gestion de l'alimentation d'un cluster à nœud unique, le cluster est toujours en cours d'exécution mais il peut devenir indisponible pendant quelques secondes. La fonction Gestion de l'alimentation tente de fermer le nœud, sans succès.


Dans ce chapitre, phys-schost# fait référence à une invite du cluster global. L'élément clzc:schost> représente l'invite de shell interactive de la commande clzonecluster.

Tableau 9-1 Liste des tâches : administration du cluster

Tâche
Instructions
Ajoutez ou supprimez un nœud du cluster.
Modifiez le nom du cluster.
Répertoriez les ID des nœuds et les noms qui leur sont associés.
Autorisez ou refusez que les nœuds s'auto-ajoutent au cluster.
Modifiez l'heure d'un cluster à l'aide du protocole de temps du réseau (NTP, Network Time Protocol).
Arrêtez un nœud en confirmant l'invite OpenBoot PROM OK d'un système SPARC ou le message Press any key to continue du menu GRUB d'un système x86.
Ajoutez ou modifiez un nom d'hôte privé.
Mettez un nœud du cluster en mode de maintenance.
Modification du nom d'un nœud
Arrêtez le mode de maintenance d'un nœud du cluster.
Désinstallation d'un logiciel de cluster d'un nœud de cluster
Ajout et gestion d'une base MIB d'événements SNMP
Configuration des limites de charge pour chaque nœud
Déplacez un cluster de zones, préparez-le en vue d'y exécuter des applications ou supprimez-le.

Modification du nom du cluster

Vous pouvez modifier, si nécessaire, le nom du cluster, après l'installation initiale.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur sur un nœud quelconque du cluster global.
  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.

  3. Pour modifier le nom du cluster, saisissez le numéro correspondant à l'option Other Cluster Properties (Autres propriétés du cluster).

    Le menu Other Cluster Properties (Autres propriétés du cluster) s'affiche.

  4. Sélectionnez l'élément dont vous avez besoin dans le menu et suivez les instructions affichées sur l'écran.
  5. Si vous souhaitez que la balise de service Oracle Solaris Cluster reflète le nouveau nom du cluster, supprimez la balise Oracle Solaris Cluster existante et redémarrez le cluster. Pour supprimer l'instance de la balise de service Oracle Solaris Cluster, terminez les sous-étapes suivantes sur tous les nœuds du cluster :
    1. Répertoriez toutes les balises de service.
      phys-schost# stclient -x
    2. Recherchez le numéro de l'instance de la balise de service Oracle Solaris Cluster, puis exécutez la commande suivante :
      phys-schost# stclient -d -i service_tag_instance_number
    3. Réinitialisez tous les nœuds dans le cluster.
      phys-schost# reboot

Exemple 9-1 Modification du nom du cluster

L'exemple suivant met en évidence la commande cluster(1CL) générée à partir de l'utilitaire clsetup(1CL) pour modifier le nouveau nom du cluster dromedary.

phys-schost# cluster rename -c dromedary

Comment modifier le nom de cluster si vous utilisez Veritas CVM

Si vous avez un cluster Veritas Volume Manager (CVM) le groupe de disques qui utilise Oracle Solaris Cluster, vous pouvez modifier le nom du cluster après l'installation initiale.

  1. Connectez-vous en tant que superutilisateur sur un nœud quelconque du cluster global.
  2. Si vous utilisez Oracle RAC 11g ou 10 g, effectuez les opérations suivantes.
    1. Arrêter et désactiver Oracle Cluster Ready Services (CRS) sur tous les noeuds.
      /etc/init.d/init.crs stop
      /etc/init.d/init.crs disable
    2. Désactiver le &ProductName ; SUNW.scalable_rac_server_proxy ressource et les SUNW.ScalDevGroup ressources afin d'éviter qu'elles ne se mette en ligne après un redémarrage.
      # clrs disable resource_name
  3. Arrêter tous les volumes dans chaque CVM groupe de disques.
    # vxvol -g dg_name stoppall
  4. Déporter le CVM groupes de disques.
    # vxdg deport dg_name
  5. Renommez le cluster.
    # cluster rename -c new_name
  6. Réinitialisez tous les nœuds dans le cluster.
  7. Importez le groupe de disques qu'un disque partagé groupe.
    # vxdg -s import dg_name
  8. Démarrez les volumes dans chaque groupe de disques.
    # vxvol -g dg_name startall
  9. Activer et démarrer Oracle CRS sur tous les noeuds.
    /etc/init.d/init.crs enable
    /etc/init.d/init.crs start
  10. Activer le &ProductName ; ressources que vous avez désactivé précédemment.
    # clrs enable +

Mappage d'un ID sur le nom d'un nœud

Pendant l'installation de Oracle Solaris Cluster, un numéro d'ID de nœud unique est assigné à chaque nœud. Le numéro de cet ID est assigné aux nœuds, selon l'ordre dans lequel ils rejoignent le cluster pour la première fois. Une fois que le numéro de cet ID a été assigné, il ne peut plus être modifié. Ce numéro est utilisé, le plus souvent, dans les messages d'erreur, afin d'identifier le nœud du cluster concerné par le message. Suivez cette procédure pour déterminer le mappage entre les ID et les noms des nœuds.

Il n'est pas nécessaire de vous connecter en tant que superutilisateur pour répertorier les informations de configuration d'un cluster global ou d'un cluster de zones. L'une des deux étapes de cette procédure doit être effectuée depuis un nœud du cluster global. L'autre étape doit être effectuée depuis un nœud du cluster de zones.

  1. Utilisez la commande clnode(1CL) pour répertorier les informations de configuration du cluster global.
    phys-schost# clnode show | grep Node
  2. Vous pouvez également lister les ID des nœuds d'un cluster de zones. Le nœud du cluster de zones possède le même ID que celui du cluster global sur lequel il est exécuté.
    phys-schost# zlogin sczone clnode -v | grep Node

Exemple 9-2 Mappage de l'ID sur le nom du nœud

L'exemple suivant met en évidence les assignations d'ID des nœuds d'un cluster global.

phys-schost# clnode show | grep Node
=== Cluster Nodes ===
Node Name:                phys-schost1
  Node ID:                1
Node Name:                 phys-schost2
  Node ID:                2
Node Name:                phys-schost3
  Node ID:                3

Authentification du nouveau nœud du cluster

Oracle Solaris Cluster permet de déterminer si les nouveaux nœuds peuvent s'auto-ajouter au cluster global, ainsi que le type d'authentification à utiliser. Vous pouvez permettre ou interdire à tous les nœuds de rejoindre le cluster sur le réseau public ou indiquer un nœud spécifique pouvant rejoindre le cluster. Les nouveaux nœuds peuvent être authentifiés par le biais d'une authentification UNIX standard ou d'une authentification Diffie-Hellman (DES, Data Encryption Standard). Si vous sélectionnez une authentification DES, vous devez également configurer les clés de chiffrement nécessaires, avant que le nœud ne rejoigne le cluster. Pour plus d'informations, reportez-vous aux pages de manuel keyserv(1M) et publickey(4).

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur sur un nœud quelconque du cluster global.
  2. Démarrez l'utilitaire clsetup(1CL).
    phys-schost# clsetup

    Le menu principal s'affiche.

  3. Pour mettre en place la méthode d'authentification sur le cluster, saisissez le numéro correspondant à l'option des nouveaux nœuds.

    Le menu New Nodes (Nouveaux nœuds) s'affiche.

  4. Sélectionnez l'élément dont vous avez besoin dans le menu et suivez les instructions affichées sur l'écran.

Exemple 9-3 Interdire l'ajout de nouvelles machines au cluster global

L'utilitaire clsetup génère la commande claccess. L'exemple suivant met en évidence la commande claccess interdisant l'ajout de nouvelles machines au cluster.

phys-schost# claccess deny -h hostname

Exemple 9-4 Autoriser l'ajout de toutes les nouvelles machines au cluster global

L'utilitaire clsetup génère la commande claccess. L'exemple suivant met en évidence la commande claccess autorisant l'ajout de nouvelles machines au cluster.

phys-schost# claccess allow-all

Exemple 9-5 Spécification d'une nouvelle machine à ajouter au cluster global

L'utilitaire clsetup génère la commande claccess. L'exemple suivant met en évidence la commande claccess autorisant l'ajout d'une nouvelle machine au cluster.

phys-schost# claccess allow -h hostname

Exemple 9-6 Définition de l'authentification UNIX standard

L'utilitaire clsetup génère la commande claccess. L'exemple suivant met en évidence la commande claccess réinitialisant l'authentification des nouveaux nœuds rejoignant le cluster sur une authentification Unix standard.

phys-schost# claccess set -p protocol=sys

Exemple 9-7 Paramétrage du processus d'authentification DES

L'utilitaire clsetup génère la commande claccess. L'exemple suivant met en évidence la commande claccess utilisée par le processus d'authentification DES pour les nouveaux nœuds rejoignant le cluster.

phys-schost# claccess set -p protocol=des

Lorsque vous utilisez une authentification DES, vous devez également configurer toutes les clés de chiffrement nécessaires, avant qu'un nœud ne puisse rejoindre le cluster. Pour plus d'informations, reportez-vous aux pages de manuel keyserv(1M) et publickey(4).

Réinitialisation de l'heure et de la date d'un cluster

Oracle Solaris Cluster utilise le protocole de temps du réseau (NTP, Network Time Protocol) pour synchroniser l'heure. Les réglages se font de manière automatique, lorsque les nœuds synchronisent l'heure sur laquelle ils sont réglés avec celle du cluster global, lorsque cela s'avère nécessaire. Pour plus d'informations, reportez-vous au Oracle Solaris Cluster Concepts Guide et au Network Time Protocol User's Guide.


Attention

Attention - Lorsque vous utilisez un protocole de transfert réseau, vous ne devez pas tenter de régler l'heure du cluster, lorsque ce dernier est exécuté. Vous ne devez pas régler l'heure de manière interactive à l'aide de la commande date(1), rdate(1M), xntpd(1M) ou svcadm(1M) ou dans un script cron(1M).


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur sur un nœud quelconque du cluster global.
  2. Arrêtez le cluster global.
    phys-schost# cluster shutdown -g0 -y -i 0
  3. Assurez-vous que le nœud affiche l'invite OK si vous utilisez un système SPARC et le message Press any key to continue du menu GRUB, si vous utilisez un système x86.
  4. Initialisez le nœud en mode non cluster.
    • Sur les systèmes SPARC, exécutez la commande suivante :

      ok boot -x
    • Sur les systèmes x86, exécutez les commandes suivantes :

      # shutdown -g -y -i0
      
      Press any key to continue
    1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Oracle Solaris appropriée et saisissez e pour modifier les commandes.

      Le menu GRUB s'affiche comme suit :

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      Pour plus d'informations concernant l'initialisation basée sur la ressource GRUB, reportez-vous à la section Booting an x86 Based System by Using GRUB (Task Map) du System Administration Guide: Basic Administration.

    2. Dans l'écran des paramètres d'initialisation, utilisez les touches de direction pour sélectionner l'entrée du noyau et saisissez l'option e pour éditer cette dernière.

      L'écran des paramètres d'initialisation GRUB s'affiche comme suit :

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot                                     |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.
    3. Ajoutez l'option -x à la commande pour spécifier l'initialisation du système en mode non cluster.
      [ Minimal BASH-like line editing is supported. For the first word, TAB
      lists possible command completions. Anywhere else TAB lists the possible
      completions of a device/filename. ESC at any time exits. ]
      
      grub edit> kernel /platform/i86pc/multiboot -x
    4. Appuyez sur la touche Entrée pour accepter la modification et revenir à l'écran des paramètres d'initialisation.

      L'écran affiche la commande éditée.

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot -x                                  |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.-
    5. Saisissez l'option b pour initialiser le nœud en mode non cluster.

      Remarque - Cette modification de la commande des paramètres d'initialisation du noyau ne sera pas prise en compte, lors de la prochaine initialisation du système. Lors de la prochaine initialisation du nœud, ce dernier sera initialisé en mode cluster. Si vous souhaitez plutôt initialiser le nœud en mode non cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande des paramètres d'initialisation du noyau.


  5. Positionnez-vous sur un nœud unique et réglez la date et l'heure à l'aide de la commande date.
    phys-schost# date HHMM.SS
  6. Sur les autres machines, utilisez la commande rdate(1M) pour synchroniser l'heure sur celle du nœud unique.
    phys-schost# rdate hostname
  7. Initialisez chaque nœud pour redémarrer le cluster.
    phys-schost# reboot
  8. Assurez-vous que la modification a été apportée à tous les nœuds du cluster.

    Exécutez la commande date sur chaque nœud.

    phys-schost# date

SPARC : Affichage d'OpenBoot PROM (OBP) sur un nœud

Suivez cette procédure si vous devez configurer ou modifier des paramètres OpenBoot™ PROM.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous à la console du nœud à arrêter.
    # telnet tc_name tc_port_number
    tc_name

    Spécifie le nom du concentrateur de terminaux.

    tc_port_number

    Spécifie le numéro de port du concentrateur de terminaux. Les numéros de port dépendent de la configuration. Les ports 2 et 3 (5002 et 5003) sont généralement utilisés par le premier cluster installé sur un site.

  2. Arrêtez le nœud du cluster de manière appropriée à l'aide de la commande clnode evacuate, puis de la commande shutdown. La commande clnode evacuate permet de basculer tous les groupes de périphériques du nœud spécifié vers le nœud de prédilection suivant. Elle bascule également tous les groupes de ressources du nœud votant ou non votant du cluster global spécifié vers le nœud de prédilection votant ou non votant suivant.
    phys-schost# clnode evacuate node
    # shutdown -g0 -y

    Attention

    Attention - Vous ne pouvez pas utiliser la commande send brk dans la console d'un cluster pour arrêter un nœud.


  3. Exécutez les commandes OBP.

Modification du nom d'hôte privé d'un nœud

Suivez cette procédure pour modifier le nom d'hôte privé d'un nœud du cluster, après avoir terminé l'installation.

Les noms d'hôte privé par défaut sont assignés pendant l'installation initiale du cluster. Le format des noms d'hôtes privés par défaut est le suivant : clusternode< nodeid>-priv, tel que clusternode3-priv, par exemple. Vous devez modifier un nom d'hôte privé uniquement si ce dernier est déjà utilisé dans le domaine.


Attention

Attention - Ne tentez pas d'assigner des adresses IP aux nouveaux noms d'hôte privé. Le logiciel de gestion de clusters se charge de les assigner.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Désactivez, sur tous les nœuds du cluster, toute ressource de service de données ou toute application pouvant mettre en cache des noms d'hôte privés.
    phys-schost# clresource disable resource[,...]

    Veuillez inclure les éléments suivants dans les applications à désactiver :

    • Les services DNS et NFS à haute disponibilité, si configurés.

    • Toute application dont la configuration a été personnalisée afin d'utiliser le nom d'hôte privé.

    • Toute application utilisée par les clients dans l'interconnexion privée.

    Pour plus d'informations concernant l'utilisation de la commande clresource, reportez-vous à la page de manuel clresource(1CL) et au Oracle Solaris Cluster Data Services Planning and Administration Guide.

  2. Si votre fichier de configuration NTP se réfère au nom d'hôte privé à modifier, désactivez le démon NTP sur chaque nœud du cluster.

    Utilisez la commande svcadm pour arrêter le démon NTP (Network Time Protocol). Pour plus d'informations concernant le démon NTP, reportez-vous à la page de manuel svcadm(1M).

    phys-schost# svcadm disable ntp
  3. Exécutez l'utilitaire clsetup(1CL) pour modifier le nom d'hôte privé du nœud à traiter.

    Exécutez l'utilitaire depuis l'un des nœuds du cluster.


    Remarque - Lorsque vous sélectionnez un nouveau nom d'hôte privé, assurez-vous que ce dernier ne fait pas doublon sur le nœud du cluster.


  4. Saisissez le numéro qui correspond à l'option du nom d'hôte privé.
  5. Saisissez le numéro qui correspond à l'option permettant de modifier un nom d'hôte privé.

    Répondez aux questions, lorsque vous y êtes invité. Vous êtes invité à saisir le nom du nœud dont vous modifiez le nom d'hôte privé (clusternode< nodeid> -priv), ainsi que le nouveau nom d'hôte privé.

  6. Videz le cache du service de noms.

    Effectuez cette étape sur chaque nœud du cluster. Lorsque vous videz le cache du service de noms, cela empêche les applications et les services de données du cluster d'accéder à l'ancien nom d'hôte privé.

    phys-schost# nscd -i hosts
  7. Si vous avez modifié un nom d'hôte privé dans votre fichier de configuration NTP, veuillez mettre à jour ce dernier (ntp.conf ou ntp.conf.cluster ) sur chaque nœud.
    1. Utilisez l'outil d'édition de votre choix.

      Si vous effectuez cette étape lors de l'installation, n'oubliez pas de supprimer les nœuds configurés. Le modèle pré-configuré par défaut contient 16 nœuds. En règle générale, le fichier ntp.conf.cluster est le même sur chaque nœud du cluster.

    2. Assurez-vous que vous pouvez exécuter une requête ping pour le nouveau nom d'hôte privé sur tous les nœuds du cluster.
    3. Redémarrez le démon NTP.

      Effectuez cette étape sur chaque nœud du cluster.

      Utilisez la commande svcadm pour redémarrer le démon NTP.

      # svcadm enable ntp
  8. Activez toutes les ressources du service de données et les autres applications qui ont été désactivées, lors de l'Étape 1.
    phys-schost# clresource enable resource[,...]

    Pour plus d'informations concernant l'utilisation de la commande clresource, reportez-vous à la page de manuel clresource(1CL) et au Oracle Solaris Cluster Data Services Planning and Administration Guide.

Exemple 9-8 Modification du nom d'hôte privé

L'exemple suivant met en évidence la modification du nom d'hôte privé clusternode2-priv , afin de lui assigner le nom clusternode4-priv sur le nœud phys-schost-2 .

[Disable all applications and data services as necessary.]
phys-schost-1# /etc/init.d/xntpd stop
phys-schost-1# clnode show | grep node
 ...
 private hostname:                           clusternode1-priv
 private hostname:                           clusternode2-priv
 private hostname:                           clusternode3-priv
 ...
phys-schost-1# clsetup
phys-schost-1# nscd -i hosts
phys-schost-1# vi /etc/inet/ntp.conf
 ...
 peer clusternode1-priv
 peer clusternode4-priv
 peer clusternode3-priv
phys-schost-1# ping clusternode4-priv
phys-schost-1# /etc/init.d/xntpd start
[Enable all applications and data services disabled at the beginning of the procedure.]

Ajout d'un nom d'hôte privé à un nœud non votant d'un cluster global

Suivez cette procédure pour ajouter un nom d'hôte privé à un nœud non votant du cluster global, après avoir terminé l'installation. Dans les procédures de ce chapitre, phys-schost# fait référence à une invite du cluster global. Suivez cette procédure sur un cluster global uniquement.

  1. Exécutez l'utilitaire clsetup(1CL) pour ajouter un nom d'hôte privé à la zone à traiter.
    phys-schost# clsetup
  2. Saisissez le numéro qui correspond à l'option des noms d'hôte privés et appuyez sur la touche Entrée.
  3. Saisissez le numéro qui correspond à l'option permettant d'ajouter un nom d'hôte privé à une zone et appuyez sur la touche Entrée.

    Répondez aux questions, lorsque vous y êtes invité. Il n'existe aucune valeur par défaut pour le nom d'hôte privé d'un nœud non votant du cluster global. Vous devrez spécifier un nom d'hôte.

Modification du nom d'hôte privé d'un nœud non votant d'un cluster global

Suivez cette procédure pour modifier le nom d'hôte privé d'un nœud non votant, après avoir terminé l'installation.

Les noms d'hôte privé sont assignés pendant l'installation initiale du cluster. Le format des noms d'hôtes privés est le suivant : clusternode< nodeid>-priv, tel que clusternode3-priv, par exemple. Vous devez modifier un nom d'hôte privé uniquement si ce dernier est déjà utilisé dans le domaine.


Attention

Attention - Ne tentez pas d'assigner des adresses IP aux nouveaux noms d'hôte privé. Le logiciel de gestion de clusters se charge de les assigner.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Désactivez, sur tous les nœuds du cluster global, toute ressource de service de données ou toute application pouvant mettre en cache les noms d'hôte privé.
    phys-schost# clresource disable resource1, resource2

    Veuillez inclure les éléments suivants dans les applications à désactiver :

    • Les services DNS et NFS à haute disponibilité, si configurés.

    • Toute application dont la configuration a été personnalisée afin d'utiliser le nom d'hôte privé.

    • Toute application utilisée par les clients dans l'interconnexion privée.

    Pour plus d'informations concernant l'utilisation de la commande clresource, reportez-vous à la page de manuel clresource(1CL) et au Oracle Solaris Cluster Data Services Planning and Administration Guide.

  2. Exécutez l'utilitaire clsetup(1CL) pour modifier le nom d'hôte privé du nœud non votant du cluster global à traiter.
    phys-schost# clsetup

    Vous devez effectuer cette étape uniquement depuis l'un des nœuds du cluster.


    Remarque - Lorsque vous sélectionnez un nouveau nom d'hôte privé, assurez-vous que ce dernier ne fait pas doublon dans le cluster.


  3. Saisissez le numéro qui correspond à l'option des noms d'hôte privés et appuyez sur la touche Entrée.
  4. Saisissez le numéro qui correspond à l'option permettant d'ajouter un nom d'hôte privé à une zone et appuyez sur la touche Entrée.

    Il n'existe aucune valeur par défaut pour un nœud non votant d'un nom d'hôte privé du cluster global. Vous devez spécifier un nom d'hôte.

  5. Saisissez le numéro qui correspond à l'option permettant de modifier le nom d'hôte privé d'une zone.

    Répondez aux questions, lorsque vous y êtes invité. Vous êtes invité à saisir le nom du nœud non votant dont vous modifiez le nom d'hôte privé (clusternode< nodeid> -priv), ainsi que le nouveau nom d'hôte privé.

  6. Videz le cache du service de noms.

    Effectuez cette étape sur chaque nœud du cluster. Lorsque vous videz le cache du service de noms, cela empêche les applications et les services de données du cluster d'accéder à l'ancien nom d'hôte privé.

    phys-schost# nscd -i hosts
  7. Activez toutes les ressources du service de données et les autres applications qui ont été désactivées, lors de l'Étape 1.

Suppression d'un nom d'hôte privé d'un nœud non votant d'un cluster global

Suivez cette procédure pour supprimer un nom d'hôte privé d'un nœud non votant d'un cluster global. Suivez cette procédure sur un cluster global uniquement.

  1. Exécutez l'utilitaire clsetup(1CL) pour supprimer le nom d'hôte privé de la zone à traiter.
  2. Saisissez le numéro qui correspond à l'option du nom d'hôte privé d'une zone.
  3. Saisissez le numéro qui correspond à l'option permettant de supprimer le nom d'hôte privé d'une zone.
  4. Saisissez le nom du nœud non votant du nom d'hôte privé à supprimer.

Modification du nom d'un nœud

Vous pouvez modifier le nom d'un nœud qui fait partie d'une configuration de cluster Oracle Solaris. Vous devez renommer le nom d'hôte Oracle Solaris avant de renommer le nœud. Utilisez la commande clnode rename pour renommer le nœud.

Les instructions suivantes sont valides pour toute application s'exécutant sur un cluster global.

  1. Sur le cluster global, connectez-vous en tant que superutilisateur ou prenez un rôle doté de l'autorisation RBAC solaris.cluster.modify.
  2. Si vous renommez un nœud d'un cluster Oracle Solaris Cluster Geographic Edition partenaire d'une configuration Oracle Solaris, vous devez effectuer des opérations supplémentaires. Si le cluster dans lequel vous effectuez la procédure de renommage constitue le cluster principal du groupe de protection, et si vous souhaitez que l'application soit incluse dans le groupe de protection en ligne, vous pouvez faire basculer le groupe de protection sur le cluster secondaire pendant que vous renommez le nœud. Pour de plus amples informations sur les clusters et nœuds Geographic Edition, reportez-vous au Chapitre 5, Administering Cluster Partnerships du Oracle Solaris Cluster Geographic Edition System Administration Guide.
  3. Renommez·les·noms d'hôte Oracle Solaris comme décrit dans la section Modification du nom d’hôte d’un système du System Administration Guide: Advanced Administration, sans redémarrer à la fin de la procédure. Au lieu de redémarrer votre système, arrêtez le cluster.
  4. Réinitialisez tous les nœuds de cluster en mode non cluster.
    ok> boot -x
  5. En mode non cluster sur le nœud sur lequel vous avez renommé le nom d'hôte Oracle Solaris, renommez le nœud et exécutez la commande cmd sur chaque hôte renommé. Renommez un seul nœud à la fois.
    # clnode rename -n newnodename oldnodename
  6. Mettez à jour toutes les références au nom d'hôte précédent dans les applications exécutées sur le cluster.
  7. Assurez-vous que le nœud a bien été renommé en vérifiant les messages de commande et les fichiers journaux.
  8. Réinitialisez tous les nœuds en mode cluster.
    # sync;sync;sync;/etc/reboot
  9. Vérifiez que le nœud affiche le nouveau nom.
    # clnode status -v
  10. Si vous renommez un nœud inclus dans un nœud de cluster Geographic Edition et si le cluster partenaire du cluster contenant le nœud renommé contient toujours des références au nom de nœud précédent, l'état de la synchronisation du groupe de protection affichera une erreur. Vous devez mettre à jour le groupe de protection à partir d'un nœud du cluster partenaire qui contient le nœud renommé à l'aide de la commande geopg update <pg>. Après cette étape, exécutez la commande geopg start -e global <pg>. Vous pourrez ensuite rebasculer le groupe de protection sur le cluster contenant le nœud renommé.
  11. Vous pouvez décider de modifier la propriété hostnamelist des ressources de noms d'hôte logiques. Reportez-vous à la section Modification des noms d'hôte logiques à l'aide des ressources de noms d'hôte logiques Oracle Solaris Cluster existantes pour obtenir des instructions sur cette étape facultative.

Modification des noms d'hôte logiques à l'aide des ressources de noms d'hôte logiques Oracle Solaris Cluster existantes

Vous pouvez modifier la propriété hostnamelist de la ressource du nom d'hôte logique avant ou après avoir renommé le nœud en suivant les étapes de la section Modification du nom d'un noeligud. Cette étape est facultative.

  1. Sur le cluster global, connectez-vous en tant que superutilisateur ou prenez un rôle doté de l'autorisation RBAC solaris.cluster.modify.
  2. Si vous le souhaitez, vous pouvez modifier les noms d'hôte logiques utilisés par les ressources de noms d'hôte logiques Oracle Solaris Cluster existantes.

    Les étapes ci-dessous décrivent comment configurer la ressource apache-lh-res de manière à ce qu'elle fonctionne avec le nouveau nom d'hôte logique. Cette procédure doit être exécutée en mode cluster.

    1. En mode cluster, accédez aux groupes de ressources Apache qui contiennent les noms d'hôte logiques hors ligne.
      # clrg offline apache-rg
    2. Désactivez ces ressources Apache.
      # clrs disable appache-lh-res
    3. Fournissez la nouvelle liste de noms d'hôte.
      # clrs set -p HostnameList=test-2 apache-lh-res
    4. Modifiez les références de l'application pour les entrées précédentes dans la propriété hostnamelist afin de référencer les nouvelles entrées.
    5. Activez les nouvelles ressources Apache.
      # clrs enable apache-lh-res
    6. Mettez en ligne les groupes de ressources Apache.
      # clrg online apache-rg
    7. Assurez-vous que l'application a démarré correctement en exécutant la commande suivante de vérification du client.
      # clrs status apache-rs

Mise en mode de maintenance d'un nœud

Vous devez mettre un nœud du cluster global en mode de maintenance, lorsque vous désactivez ce dernier pendant un certain temps. De cette façon, le nœud n'est pas pris en compte dans le nombre de quorums, pendant l'opération de maintenance. Pour mettre un nœud en mode de maintenance, ce dernier doit être arrêté à l'aide de la commande d'évacuation clnode(1CL) et la commande d'arrêt cluster(1CL).


Remarque - Utilisez la commande Oracle Solaris shutdown pour arrêter un nœud unique. Utilisez la commande cluster shutdown uniquement lorsque vous arrêtez l'ensemble d'un cluster.


Lorsqu'un nœud est arrêté et mis en mode de maintenance, la valeur 1 est déduite du nombre de votes de tous les périphériques de quorum dont les ports sont configurés sur ce nœud. Lors de l'arrêt du mode de maintenance de ce dernier et sa remise en ligne, la valeur 1 est ajoutée au nœud et aux nombres de votes de périphérique de quorum.

Utilisez la commande de désactivation clquorum(1CL) pour mettre le nœud du cluster en mode de maintenance.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify sur le nœud du cluster à mettre en mode de maintenance.
  2. Évacuez tout groupe de ressources ou de périphériques du nœud. La commande clnode evacuate permet de basculer tous les groupes de ressources ou de périphériques, y compris les nœuds non votants, du nœud spécifié vers le nœud de prédilection suivant.
    phys-schost# clnode evacuate node
  3. Arrêtez le nœud évacué.
    phys-schost# shutdown -g0 -y-i 0
  4. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify sur un autre nœud du cluster et mettez le nœud ayant été arrêté à l'Étape 3 en mode de maintenance.
    phys-schost# clquorum disable  node
    node

    Spécifie le nom d'un nœud à mettre en mode de maintenance.

  5. Assurez-vous que le nœud du cluster global est désormais mis en mode de maintenance.
    phys-schost# clquorum status node

    Le statut (Status) du nœud mis en mode de maintenance doit être hors ligne (Offline) et égal à 0 (zéro) pour les votes de quorum de type Present et Possible.

Exemple 9-9 Mise en mode de maintenance d'un nœud du cluster global

L'exemple suivant met le nœud du cluster en mode de maintenance et vérifie les résultats. Le résultat de la commande clnode status renvoie la valeur 0 (zéro) pour les nœuds de vote (Node votes) de phys-schost-1, ainsi que le statut Hors ligne (Offline). Le Récapitulatif du quorum (Quorum Summary) doit également renvoyer des nombres de votes réduits. Selon votre configuration, le résultat des Votes de quorum par périphérique (Quorum Votes by Device) doit indiquer que certains périphériques de disque de quorum se trouvent également hors ligne.

[On the node to be put into maintenance state:]
phys-schost-1# clnode  evacuate phys-schost-1
phys-schost-1# shutdown -g0 -y -i0

[On another node in the cluster:]
phys-schost-2# clquorum disable phys-schost-1
phys-schost-2# clquorum status phys-schost-1

-- Quorum Votes by Node --

Node Name           Present       Possible       Status
---------           -------       --------       ------
phys-schost-1       0             0              Offline
phys-schost-2       1             1              Online
phys-schost-3       1             1              Online

Voir aussi

Pour remettre un nœud en ligne, reportez-vous à la section Arrêt du mode de maintenance d'un noeligud.

Arrêt du mode de maintenance d'un nœud

Suivez la procédure suivante pour remettre en ligne un nœud du cluster global et réinitialiser le nombre de votes de quorum sur la valeur par défaut. Le nombre de quorums des nœuds du cluster est égal à 1. Le nombre de quorums par défaut des périphériques de quorum est égal à N-1. La lettre N représente un nombre de nœuds, dont la valeur du nombre de votes n'est pas égale à zéro et dont les ports du nombre de votes sont configurés sur le périphérique de quorum.

Lors de la mise en mode de maintenance d'un nœud, la valeur 1 est déduite du nombre de votes de quorum de ce nœud. Les nombres de votes de tous les périphériques de quorum dont les ports sont configurés sur le nœud, seront également réduits. Lors de la réinitialisation du nombre de votes de quorum et de l'arrêt du mode de maintenance d'un nœud, la valeur 1 est ajoutée au nombre de votes de périphérique de quorum et au nombre de votes de quorum du nœud.

Suivez cette procédure à chaque fois qu'un nœud du cluster global est mis en mode de maintenance et que vous souhaitez modifier cet état.


Attention

Attention - Si vous n'avez pas spécifié l'option globaldev ou node, le nombre de quorums est réinitialisé sur l'ensemble du cluster.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify sur tous les nœuds du cluster global autres que le nœud mis en mode de maintenance.
  2. Selon le nombre de nœuds de la configuration du cluster global, effectuez l'une des étapes suivantes :
    • Si la configuration du cluster contient deux nœuds, reportez-vous à l'Étape 4.

    • Si la configuration du cluster contient plus de deux nœuds, reportez-vous à l'Étape 3.

  3. Si le nœud dont le mode de maintenance est arrêté, comprend des périphériques de quorum, réinitialisez le nombre de quorums du cluster depuis un autre nœud.

    Vous pouvez réinitialiser le nombre de quorums d'un nœud autre que le nœud mis en mode de maintenance, avant de réinitialiser ce dernier. Dans le cas contraire, le nœud peut se retrouver bloqué en attendant le quorum.

    phys-schost# clquorum reset
    reset

    Indicateur de la modification réinitialisant les quorums.

  4. Initialisez le nœud dont le mode de maintenance est arrêté.
  5. Vérifiez le nombre de votes de quorum.
    phys-schost# clquorum status

    Le statut du nœud dont le mode de maintenance est arrêté doit être en ligne (Online) et refléter le nombre de votes approprié pour les votes de quorum de type Present et Possible.

Exemple 9-10 Arrêt du mode de maintenance d'un nœud du cluster et redéfinition du nombre de votes de quorum

L'exemple suivant met en évidence la réinitialisation du nombre de quorums d'un nœud du cluster et de ses périphériques de quorum sur les valeurs par défaut, ainsi que la vérification du résultat. Dans la sortie de scstat status, les votes de nœud (Node votes) pour la commande phys-schost-1 possèdent la valeur 1 et le statut en ligne (Online). Le récapitulatif du quorum (Quorum Summary) affiche également une augmentation du nombre de votes.

phys-schost-2# clquorum reset
phys-schost-1# clquorum status

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            4        6         6


--- Quorum Votes by Node ---

Node Name        Present       Possible      Status
---------        -------       --------      ------
phys-schost-2    1             1             Online
phys-schost-3    1             1             Online


--- Quorum Votes by Device ---

Device Name           Present      Possible      Status
-----------           -------      --------      ------
/dev/did/rdsk/d3s2    1            1             Online
/dev/did/rdsk/d17s2   0            1             Online
/dev/did/rdsk/d31s2   1            1             Online
`

Désinstallation de Oracle Solaris Cluster d'un nœud du cluster

Suivez cette procédure pour désinstaller Oracle Solaris Cluster d'un nœud du cluster global, avant de le déconnecter d'une configuration en cluster entièrement déployée. Vous pouvez suivre cette procédure pour désinstaller le logiciel des derniers nœuds du cluster.


Remarque - Pour désinstaller Oracle Solaris Cluster d'un nœud n'ayant pas encore rejoint le cluster ou se trouvant encore en mode installation, vous ne devez pas suivre cette procédure. Reportez-vous plutôt à la procédure de désinstallation d'Oracle Solaris Cluster pour corriger les problèmes d'installation dans le Guide d’installation du logiciel Oracle Solaris Cluster.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Assurez-vous d'avoir terminé correctement toutes les tâches prérequises de la liste pour pouvoir supprimer un nœud du cluster.

    Reportez-vous au Tableau 8-2.


    Remarque - Assurez-vous d'avoir supprimé le nœud de la configuration du cluster à l'aide de la commande clnode remove, avant de continuer cette procédure.


  2. Connectez-vous en tant que superutilisateur sur un membre actif du cluster global autre que le nœud du cluster global à désinstaller. Suivez cette procédure depuis un nœud du cluster global.
  3. Ajoutez le nœud à désinstaller, depuis le membre actif du cluster, à la liste d'authentification des nœuds du cluster.
    phys-schost# claccess allow -h hostname
    -h

    Spécifie le nom du nœud à ajouter à la liste d'authentification du nœud.

    Vous pouvez également utiliser l'utilitaire clsetup(1CL). Pour plus d'informations concernant les procédures, reportez-vous à la section Ajout d'un noeligud à la liste des noeliguds autorisés

  4. Connectez-vous en tant que superutilisateur sur le nœud à désinstaller.
  5. Si vous disposez d'un cluster de zones, désinstallez-le.
    phys-schost# clzonecluster uninstall -F zoneclustername

    Pour savoir comment désinstaller un cluster de zones, reportez-vous à la section Suppression d'un cluster de zones.

  6. Si votre nœud contient une partition dédiée à l'espace de noms des périphériques globaux, réinitialisez le nœud du cluster global en mode non cluster.
    • Sur les systèmes SPARC, exécutez la commande suivante :

      # shutdown -g0 -y -i0ok boot -x
    • Sur les systèmes x86, exécutez les commandes suivantes :

      # shutdown -g0 -y -i0
      ...
                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
  7. Dans le fichier /etc/vfstab, supprimez toutes les entrées du système de fichiers monté, à l'exception des montages globaux /global/.devices.
  8. Si vous voulez réinstaller Oracle Solaris Cluster sur ce nœud, supprimez l'entrée Oracle Solaris Cluster du registre du produit Sun Java Enterprise System  (Java ES).

    Si le registre du produit Java ES contient un enregistrement mentionnant l'installation de Oracle Solaris Cluster, le programme d'installation de Java ES affiche en grisé le composant Oracle Solaris Cluster et ne vous permet pas de le réinstaller.

    1. Démarrez le programme de désinstallation de Java ES.

      Exécutez la commande suivante, où l'option ver représente la version de la distribution Java ES depuis laquelle vous avez installé Oracle Solaris Cluster.

      # /var/sadm/prod/SUNWentsysver/uninstall
    2. Suivez les invites pour désinstaller Oracle Solaris Cluster.

      Pour plus d'informations concernant l'utilisation de la commande uninstall, reportez-vous au Chapitre 8, Uninstalling du Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.

  9. Si vous ne voulez pas réinstaller Oracle Solaris Cluster sur ce cluster, déconnectez les câbles et le commutateur de transport des autres périphériques du cluster, si ces derniers sont connectés.
    1. Si le nœud désinstallé est connecté à un périphérique de stockage utilisant une interface SCSI parallèle, installez une terminaison SCSI pour ouvrir un connecteur SCSI du périphérique de stockage, après avoir déconnecté les câbles de transport.

      Si le nœud désinstallé est connecté à un périphérique de stockage utilisant des interfaces Fibre Channel, vous ne devez installer aucune terminaison.

    2. Suivez la documentation fournie avec votre adaptateur d'hôte et votre serveur pour connaître les procédures de déconnexion.

    Astuce - Si vous utilisez un périphérique d'interface de fichier de boucle de rappel (LOFI, Loopback File Interface), le programme de désinstallation de Java ES supprime automatiquement le fichier LOFI se nommant /.globaldevices. Pour plus d'informations concernant la migration des espaces de noms des périphériques globaux vers un fichier LOFI, reportez-vous à la section Migration de l'espace de noms des périphériques globaux.


Dépannage de la désinstallation d'un nœud

Cette section décrit les messages d'erreur pouvant être reçus, lorsque vous exécutez la commande clnode remove ainsi que les actions correctives à mettre en œuvre.

Entrées du système de fichiers du cluster non supprimées

Les messages d'erreur suivants indiquent que le nœud du cluster qui a été supprimé contient encore des systèmes de fichiers de cluster référencés dans le fichier vfstab :

Verifying that no unexpected global mounts remain in /etc/vfstab ... failed
clnode:  global-mount1 is still configured as a global mount.
clnode:  global-mount1 is still configured as a global mount.
clnode:  /global/dg1 is still configured as a global mount.
 
clnode:  It is not safe to uninstall with these outstanding errors.
clnode:  Refer to the documentation for complete uninstall instructions.
clnode:  Uninstall failed.

Pour corriger cette erreur, retournez à la section Désinstallation de Oracle Solaris Cluster d'un noeligud du cluster et répétez la procédure. Assurez-vous d'avoir terminé l'Étape 7 de cette procédure avant d'exécuter à nouveau la commande clnode remove.

Liste des groupes de périphériques non supprimée

Les messages d'erreur suivants indiquent que le nœud supprimé est encore listé dans un groupe de périphériques.

Verifying that no device services still reference this node ... failed
clnode:  This node is still configured to host device service "
service".
clnode:  This node is still configured to host device service "
service2".
clnode:  This node is still configured to host device service "
service3".
clnode:  This node is still configured to host device service "
dg1".
 
clnode:  It is not safe to uninstall with these outstanding errors.          
clnode:  Refer to the documentation for complete uninstall instructions.
clnode:  Uninstall failed.

Script de désinstallation manquant

Si vous n'avez pas utilisé le programme d'installation pour installer ou mettre à niveau le logiciel Sun Cluster ou Oracle Solaris Cluster que vous souhaitez à présent supprimer, il n'existe aucun script de désinstallation utilisable pour cette version du logiciel. Suivez plutôt la procédure ci-dessous pour désinstaller le logiciel.

Désinstallation de Sun Cluster 3.1 et 3.2 sans script de désinstallation

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify.
  2. Passez à un répertoire qui n'est associé à aucun package Sun Cluster.
    # cd /directory
  3. Désinstallez le logiciel Sun Cluster du nœud.
    # scinstall -r
  4. Renommez le fichier productregistry pour rendre possible la réinstallation ultérieure du logiciel.
    # mv /var/sadm/install/productregistry /var/sadm/install/productregistry.sav

Création, paramétrage et gestion de la base MIB d'événements SNMP de Oracle Solaris Cluster

Cette section explique comment créer, paramétrer et gérer une base d'informations de gestion (MIB, Management Information Base) d'événements de protocole de gestion de réseau simple (SNMP, Simple Network Management Protocol). Cette section explique également comment activer, désactiver ou modifier la base MIB d'événements SNMP de Oracle Solaris Cluster.

Oracle Solaris Cluster prend actuellement en charge une base MIB, à savoir la base MIB d'événements SNMP. Le gestionnaire SNMP déroute les événements du cluster en temps réel. Lorsque le gestionnaire SNMP est activé, ce dernier envoie des notifications de déroutement vers tous les hôtes définis par la commande clsnmphost. La base MIB met à jour une table en lecture seule contenant les 50 événements les plus récurrents. Étant donné que les clusters génèrent de nombreuses notifications, seuls les événements renvoyant la gravité Avertissement ou une gravité supérieure sont envoyés en tant que notifications de déroutement. Ces informations ne seront pas prises en compte, lors des prochaines réinitialisations.

La base MIB d'événements SNMP est définie dans le fichier sun-cluster-event-mib.mib et se trouve dans le répertoire /usr/cluster/lib/mib. Vous pouvez utiliser cette définition pour interpréter les informations des déroutements SNMP.

Le numéro de port par défaut du module des événements SNMP est égal à 11161 et le numéro de port par défaut des déroutements SNMP est égal à 11162. Vous pouvez modifier ces numéros de port dans le fichier du conteneur d'agent commun, à savoir : /etc/cacao/instances/default/private/cacao.properties.

La création, le paramétrage et la gestion d'une base MIB d'événements SNMP d'Oracle Solaris Cluster peut inclure les tâches suivantes :

Tableau 9-2 Liste des tâches : création, paramétrage et gestion de la base MIB d'événements SNMP de Oracle Solaris Cluster

Tâche
Instructions
Activez une base MIB d'événements SNMP.
Désactivez une base MIB d'événements SNMP.
Modifiez une base MIB d'événements SNMP.
Ajoutez un hôte SNMP à la liste des hôtes devant recevoir les notifications de déroutement des bases MIB..
Supprimez un hôte SNMP.
Ajoutez un utilisateur SNMP.
Supprimez un utilisateur SNMP.

Activation d'une base MIB d'événements SNMP

Cette procédure explique comment activer une base MIB d'événements SNMP.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify.
  2. Activer la base MIB d'événements SNMP
    phys-schost-1# clsnmpmib enable [-n node] MIB
    [-n node]

    Spécifie l'emplacement du nœud sur lequel se trouve la base MIB d'événements à activer. Vous pouvez spécifier l'ID ou le nom d'un nœud. Si vous ne spécifiez pas cette option, le nœud actif sera utilisé par défaut.

    MIB

    Spécifie le nom de la base MIB à activer. Dans ce cas, le nom de la base MIB doit être event.

Désactivation d'une base MIB d'événements SNMP

Cette procédure explique comment désactiver une base MIB d'événements SNMP.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify.
  2. Désactivez la base MIB d'événements SNMP.
    phys-schost-1# clsnmpmib disable -n node MIB
    -n node

    Spécifie l'emplacement du nœud sur lequel se trouve la base MIB d'événements à désactiver. Vous pouvez spécifier l'ID ou le nom d'un nœud. Si vous ne spécifiez pas cette option, le nœud actif sera utilisé par défaut.

    MIB

    Spécifie le type de la base MIB à désactiver. Dans ce cas, vous devez spécifier event.

Modification d'une base MIB d'événements SNMP

Cette procédure explique comment modifier le protocole d'une base MIB d'événements SNMP.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify.
  2. Modifiez le protocole de la base MIB d'événements SNMP.
    phys-schost-1# clsnmpmib set -n node -p version=value MIB
    -n node

    Spécifie l'emplacement du nœud sur lequel se trouve la base MIB d'événements à modifier. Vous pouvez spécifier l'ID ou le nom d'un nœud. Si vous ne spécifiez pas cette option, le nœud actif sera utilisé par défaut.

    -p version=value

    Spécifie la version du protocole SNMP à utiliser avec les bases MIB. Vous devez spécifier la valeur comme suit :

    • version=SNMPv2

    • version=snmpv2

    • version=2

    • version=SNMPv3

    • version=snmpv3

    • version=3

    MIB

    Spécifie le nom de la ou des bases MIB sur lesquelles la sous-commande doit être exécutée. Dans ce cas, vous devez spécifier event. Si vous ne spécifiez pas cet opérande, la sous-commande utilise par défaut le signe Plus (+), ce qui signifie toutes les bases MIB. Si vous utilisez l'opérande MIB, spécifiez la base MIB, dans une liste séparée par des espaces, après toutes les options de la ligne de commande.

Activation des notifications de déroutement d'un hôte SNMP sur un nœud

Cette procédure explique comment ajouter un hôte SNMP sur un nœud faisant partie de la liste des hôtes recevant des notifications de déroutement de la base MIB.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify.
  2. Ajoutez l'hôte à la liste des hôtes SNMP d'une communauté d'un autre nœud.
    phys-schost-1# clsnmphost add -c SNMPcommunity [-n node] host
    -c SNMPcommunity

    Spécifie le nom de la communauté SNMP utilisé avec le nom d'hôte.

    Vous devez spécifier le nom de la communauté SNMP SNMPcommunity, lorsque vous ajoutez un hôte à une autre communauté que la communauté public. Si vous utilisez la commande add sans l'option -e, la sous-commande utilise l'option public comme nom de communauté par défaut.

    Si le nom de communauté spécifié n'existe pas, cette commande le crée.

    -n node

    Spécifie le nom du nœud de l'hôte SNMP donnant accès aux bases MIB d'événements SNMP dans le cluster. Vous pouvez spécifier l'ID ou le nom d'un nœud. Si vous ne spécifiez pas cette option, le nœud actif sera utilisé par défaut.

    host

    Spécifie le nom, l'adresse IP ou l'adresse IPv6 de l'hôte ayant accès aux bases MIB d'événements SNMP dans le cluster.

Désactivation des notifications de déroutement d'un hôte SNMP sur un nœud

Cette procédure explique comment supprimer un hôte SNMP sur un nœud faisant partie de la liste des hôtes recevant des notifications de déroutement de la base MIB.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify.
  2. Supprimez l'hôte de la liste des hôtes SNMP d'une communauté se trouvant sur le nœud spécifié.
    phys-schost-1# clsnmphost remove -c SNMPcommunity -n node host
    remove

    Supprime l'hôte SNMP du nœud spécifié.

    -c SNMPcommunity

    Spécifie le nom de la communauté SNMP dont l'hôte SNMP a été supprimé.

    -n node

    Spécifie le nom du nœud dont l'hôte SNMP a été supprimé de la configuration. Vous pouvez spécifier l'ID ou le nom d'un nœud. Si vous ne spécifiez pas cette option, le nœud actif sera utilisé par défaut.

    host

    Spécifie le nom, l'adresse IP ou l'adresse IPv6 de l'hôte ayant été supprimé de la configuration.

    Pour supprimer tous les hôtes de la communauté SNMP spécifiée, utilisez le signe Plus (+) sur l'option host, en y ajoutant l'option -c. Pour supprimer tous les hôtes, utilisez le signe Plus (+) sur l'option host.

Ajout d'un utilisateur SNMP à un nœud

Cette procédure explique comment ajouter un utilisateur SNMP à la configuration des utilisateurs SNMP d'un nœud.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify.
  2. Ajoutez l'utilisateur SNMP.
    phys-schost-1# clsnmpuser create -n node -a authentication \
                  -f password user
    -n node

    Spécifie le nœud sur lequel l'utilisateur SNMP a été ajouté. Vous pouvez spécifier l'ID ou le nom d'un nœud. Si vous ne spécifiez pas cette option, le nœud actif sera utilisé par défaut.

    -a authentication

    Spécifie le protocole d'authentification utilisé pour autoriser l'utilisateur. La valeur du protocole d'authentification est égale à SHA ou MD5.

    -f password

    Spécifie un fichier contenant les mots de passe des utilisateurs SNMP. Si vous ne spécifiez pas cette option lorsque vous créer un nouvel utilisateur, la commande vous invite à saisir un mot de passe. Cette option peut uniquement être utilisée avec la sous-commande add.

    Vous devez spécifier les mots de passe des utilisateurs sur plusieurs lignes au format suivant :

    user:password

    Les mots de passe ne peuvent pas contenir d'espaces ou les caractères suivants :

    • ; (point-virgule)

    • : (deux points)

    • \ (barre oblique inverse)

    • \n (nouvelle ligne)

    user

    Spécifie le nom de l'utilisateur SNMP à ajouter.

Suppression d'un utilisateur SNMP à un nœud

Cette procédure explique comment supprimer un utilisateur de la configuration d'utilisateurs SNMP d'un nœud.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify.
  2. Supprimez l'utilisateur SNMP.
    phys-schost-1# clsnmpuser delete -n node user
    -n node

    Spécifie le nœud sur lequel l'utilisateur SNMP a été supprimé. Vous pouvez spécifier l'ID ou le nom d'un nœud. Si vous ne spécifiez pas cette option, le nœud actif sera utilisé par défaut.

    user

    Spécifie le nom de l'utilisateur SNMP à supprimer.

Configuration de limites de charge

Vous pouvez activer la répartition automatique des charges des groupes de ressources entre les nœuds ou définir des limites de charge. Vous pouvez configurer un ensemble des limites de charge pour chaque nœud de cluster. Vous assignez des facteurs de charge aux groupes de ressources, et ces facteurs correspondent aux limites de charge définies pour chaque nœud. Le comportement par défaut consiste à distribuer la charge du groupe de ressources de manière équitable sur tous les nœuds disponibles dans la liste des nœuds du groupe de ressources.

Les groupes de ressources sont démarrés sur un nœud de la liste des nœuds du groupe de ressources par le RGM, de manière à ce que les limites de charge du nœud ne soient pas dépassées. Comme les groupes de ressources assignés aux nœuds par le RGM, les facteurs de charge du groupe de ressources sur chaque nœud sont additionnés afin de fournir une charge totale. La charge totale est ensuite comparée aux limites de charge du nœud.

Une limite de charge se compose des éléments suivants :

Vous pouvez définir les limites dépassable et fixe dans une seule commande. Si une des limites n'est pas explicitement définie, la valeur par défaut est utilisée. Les limites dépassable et fixe de chaque nœud sont créées et modifiées avec les commandes clnode create-loadlimit, clnode set-loadlimit, et clnode delete-loadlimit. Pour plus d’informations, reportez-vous à la page de manuel clnode(1CL).

Vous pouvez définir un groupe de ressources sur une priorité supérieure, pour qu'il soit moins susceptible d'être déplacé d'un nœud spécifique. Vous pouvez également définir une propriété preemption_mode pour déterminer si un groupe de ressources peut être devancé par un groupe de ressources à priorité supérieure en cas de surcharge de nœud. Une propriété concentrate_load permet aussi de concentrer la charge du groupe de ressources sur le moins de nœuds possible. La valeur par défaut de la propriété concentrate_load est FALSE.


Remarque - Vous pouvez configurer des limites de charge sur les nœuds d'un cluster global ou d'un cluster de zones. Vous pouvez utiliser la ligne de commande, l'utilitaire clsetup ou l'interface du gestionnaire Oracle Solaris Cluster pour configurer des limites de charge. La procédure suivante montre comment configurer des limites de charge à l'aide de la ligne de commande.


Configuration de limites de charge sur un nœud

  1. Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits d'autorisation RBCA solaris.cluster.modify sur tous les nœuds du cluster global.
  2. Créez et définissez une limite de charge pour les nœuds avec lesquels vous souhaitez utiliser l'équilibrage de charge.
    # clnode create-loadlimit -p limitname=mem_load -Z zc1 -p 
    softlimit=11 -p hardlimit=20 node1 node2 node3

    Dans cet exemple, le nom du cluster de zones est zc1. L'exemple de propriété est appelé mem_load et possède une limite dépassable de 11 et une limite fixe de 20. Les limites dépassable et fixe sont des arguments facultatifs, définis par défaut sur une valeur illimitée. Pour plus d’informations, reportez-vous à la page de manuel clnode(1CL).

  3. Assignez des valeurs de facteur de charge à chaque groupe de ressources.
    # clresourcegroup set -p load_factors=mem_load@50,factor2@1 rg1 rg2

    Dans cet exemple, les facteurs de charge sont définis sur les deux groupes de ressources, rg1 et rg2. Les paramètres des facteurs de charge correspondent aux limites de charge définies pour ces nœuds. Vous pouvez également effectuer cette étape au cours de la création du groupe de ressources avec la commande clresourceroup create. Pour plus d'informations, reportez-vous à la page de manuel clresourcegroup(1CL).

  4. Si vous le souhaitez, vous pouvez redistribuer la charge existante (clrg remaster).
    # clresourcegroup remaster rg1 rg2

    Cette commande permet de déplacer des groupes de ressources hors de leur nœud maître actuel, vers d'autres nœuds, afin d'obtenir une répartition uniforme de la charge.

  5. Si vous le souhaitez, vous pouvez accorder une priorité supérieure à certains groupes de ressources.
    # clresourcegroup set -p priority=600 rg1

    La priorité par défaut est 500. Lors de l'assignement des nœuds, les groupes de ressources avec des valeurs de priorité supérieure prévalent sur les groupes de ressources avec une priorité inférieure.

  6. Si vous le souhaitez, vous pouvez définir la propriété Preemption_mode.
    # clresourcegroup set -p Preemption_mode=No_cost rg1

    Reportez-vous à la page de manuel clresourcegroup(1CL) pour de plus amples informations sur les options HAS_COST, NO_COST et NEVER.

  7. Si vous le souhaitez, vous pouvez également définir l'indicateur Concentrate_load.
    # cluster set -p Concentrate_load=TRUE
  8. Si vous le souhaitez, vous pouvez spécifier une affinité entre les groupes de ressources.

    Une affinité positive ou négative forte l'emporte sur la répartition de la charge. Une forte affinité doit toujours être respectée, tout comme une limite de charge fixe. Si vous définissez à la fois des affinités fortes et des limites de charge fixes, certains groupes de ressources devront rester hors ligne s'ils ne répondent pas à ces deux contraintes.

    L'exemple suivant décrit une forte affinité positive entre le groupe de ressources rg1 du cluster de zones zc1 et le groupe de ressources rg2 du cluster de zones zc2.

    # clresourcegroup set -p RG_affinities=++zc2:rg2 zc1:rg1
  9. Vérifiez le statut de tous les nœuds de cluster global et de zones dans le cluster.
    # clnode status -Z all -v

    La sortie inclut touts les paramètres de limite de charge définis sur le nœud ou sur ses zones non globales.