Guide d'administration système de Sun Cluster 3.0

Chapitre 1 Introduction à l'administration de Sun Cluster

Ce chapitre décrit la préparation nécessaire à l'administration du cluster et l'utilisation des outils d'administration de Sun Cluster.

Les procédures décrites dans ce chapitre sont les suivantes :

1.1 Administration de Sun Cluster : présentation

L'environnement haute disponibilité de Sun Cluster garantit que les applications indispensables restent utilisables par l'utilisateur final. L'administrateur système est chargé de s'assurer que Sun Cluster reste stable et opérationnel.

Avant d'entreprendre une tâche administrative, vous devez vous familiariser avec les informations de planification du Guide d'installation de Sun Cluster 3.0 et avec le glossaire présenté dans le document Sun Cluster 3.0 Concepts. L'administration de Sun Cluster est divisée en différentes tâches présentées dans les manuels suivants :

La plupart des tâches d'administration de Sun Cluster peuvent être effectuées sans interrompre le fonctionnement du cluster, sauf en cas de noeud unique. Pour les procédures nécessitant l'arrêt de l'ensemble du cluster, prévoyez de l'arrêter en dehors des heures de travail pour minimiser l'impact sur le système. Si vous prévoyez d'arrêter le cluster ou un de ses noeuds, prévenez les utilisateurs à l'avance.

1.2 Interface d'utilisation graphique

Le module de console graphique Sun Management CenterTM (anciennement Sun Enterprise SyMONTM) fourni avec Sun Cluster permet d'afficher sous forme graphique les ressources du cluster ainsi que leurs types et leurs groupes. Il permet également de contrtler les modifications de configuration et de vérifier l'état des éléments du cluster. Toutefois, ce module n'est pas actuellement en mesure d'effectuer toutes les tâches administratives Sun Cluster. Vous devez utiliser l'interface de ligne de commande pour certaines opérations. Reportez-vous à la section "1.3 Interface de ligne de commande" pour plus d'informations.

Pour obtenir plus d'informations sur l'installation et le démarrage du module Sun Cluster pour Sun Management Center et pour afficher l'aide en ligne propre aux clusters fournie avec ce module, reportez-vous au Guide d'installation de Sun Cluster 3.0.

Sun Cluster a créé la base de données SNMP MIB pour le module Sun Cluster de Sun Management Center. Cette base de données MIB peut être utilisée comme définition de données par les stations de gestion SNMP tierces.

Le fichier MIB Sun Cluster se trouve dans le répertoire $BASEDIR/SUNWsymon/modules/cfg de chaque noeud du cluster.

Le fichier MIB Sun Cluster est une spécification ASN.1 des données Sun Cluster modélisées. Il s'agit des spécifications utilisées par toutes les bases de données MIB Sun Management Center. Pour utiliser la base de données MIB Sun Cluster, reportez-vous aux instructions d'utilisations d'autres bases de données MIB Sun Management Center dans l'annexe B, "SNMP MIBs for Sun Management Center Modules", du document Sun MC 2.1 Software User's Guide.

1.3 Interface de ligne de commande

Il est possible d'effectuer de manière interactive la plupart des tâches administratives Sun Cluster via l'utilitaire scsetup(1M). Chaque fois que c'est possible, ce manuel décrit les procédures administratives effectuées avec la commande scsetup.

Vous pouvez administrer les éléments suivants via l'utilitaire scsetup :

Le tableau ci-après répertorie les autres commandes utilisées pour l'administration de Sun Cluster. Pour plus de détails, reportez-vous aux pages du manuel.

Tableau 1-1 Commandes de l'interface de ligne de commande Sun Cluster

Commande 

Description 

ccp(1M)

Démarre l'accès à distance au cluster à partir de la console. 

pmfadm(1M)

Permet l'accès administratif à la fonction de surveillance des processus. 

pnmset(1M)

Configure le service de gestion du réseau public (PNM). 

pnmstat(1M)

Indique l'état des groupes NAFO (Network Adapter Failover) surveillés par le service PNM. 

sccheck(1M)

Vérifie et valide les entrées de montage global dans le fichier /etc/vfstab.

scconf(1M)

Met à jour la configuration de Sun Cluster. L'option -p permet d'afficher les informations de configuration du cluster.

scdidadm(1M)

Permet l'accès administratif à la configuration des ID de périphériques. 

scgdevs(1M)

Exécute le script d'administration global de périphériques namespace. 

scinstall(1M)

Installe et configure le logiciel Sun Cluster. Cette commande peut être exécutée de manière interactive ou non. L'option -p permet d'afficher les informations de version et de mise à jour pour le logiciel Sun Cluster.

scrgadm(1M)

Gère l'enregistrement des types de ressources, la création des groupes de ressources et l'activation des ressources dans un groupe. L'option -p permet d'afficher les informations sur les ressources, les groupes de ressources et les types de ressources installés.

scsetup(1M)

Lance l'utilitaire de configuration interactive du cluster. 

scshutdown(1M)

Arrête l'ensemble du cluster. 

scstat(1M)

Fournit un apergu ponctuel de l'état du cluster. 

scswitch(1M)

Applique des modifications qui affectent la maîtrise des noeuds et l'état des groupes de ressources et des groupes d'unités de disque. 

Par ailleurs, vous pouvez utiliser des commandes pour administrer la partie gestionnaire de volumes de Sun Cluster. Ces commandes dépendent du gestionnaire de volumes utilisé dans votre cluster (Solstice DiskSuiteTM ou VERITAS Volume Manager).

1.4 Préparation en vue de l'administration du cluster

Cette section décrit les procédures à suivre pour préparer l'administration du cluster.

1.4.1 Enregistrement par écrit de la configuration du matériel Sun Cluster

A mesure que la configuration Sun Cluster s'étend et se modifie, vous devez noter les éléments matériels spécifiques à votre site. Vous pouvez également étiqueter les câbles et les connexions qui relient les différents éléments du cluster pour passer moins de temps aux tâches administratives lorsque vous devrez modifier ou mettre à jour le cluster.

L'enregistrement écrit de la configuration du cluster s'avérera également pratique lors des opérations de maintenance. Si vous faites appel à un prestataire de service tiers, cet enregistrement lui facilitera la tâche.

1.4.2 Utilisation d'une console administrative

Si vous le souhaitez, vous pouvez utiliser une station de travail SPARC dédié, appelé console administrative, pour administrer le cluster actif. En général, vous devez installer et exécuter le logiciel CCP (Cluster Control Panel) et le logiciel de console et de serveur Sun Management Center sur la console administrative. Pour plus d'informations sur le logiciel CCP, reportez-vous à la section "1.5.1 Connexion à distance à Sun Cluster". Pour obtenir des instructions sur l'installation du logiciel Sun Management Center, reportez-vous au Guide d'installation de Sun Cluster 3.0.

La console administrative n'est pas un noeud du cluster. Elle permet un accès à distance aux noeuds du cluster, via le réseau public ou via un concentrateur de terminaux sur le réseau. Si votre cluster utilise un serveur Sun EnterpriseTM 10000, vous devez avoir la possibilité de vous connecter au processeur de services système (SSP) à partir de la console administrative via la commande netcon.

Avec Sun Cluster, il n'est pas nécessaire d'avoir une console administrative dédiée, mais elle présente les avantages suivants :

1.4.3 Sauvegarde du cluster

Ce guide ne décrit pas spécifiquement cette opération, mais il est important d'effectuer régulièrement une sauvegarde du cluster. Même si Sun Cluster fournit un environnement HA avec des copies en miroir des données sur les périphériques de stockage, cela ne remplace pas les sauvegardes régulières. Sun Cluster peut continuer à fonctionner après plusieurs problèmes, mais pas en cas de panne grave entraînant l'indisponibilité de toutes les données. Vous devez donc mettre en place une procédure de sauvegarde pour éviter une perte de données catastrophique. Les sauvegardes sont également importantes pour réparer les erreurs utilisateur ou les erreurs système.

Les informations suivantes doivent être incluses dans la sauvegarde :

1.5 Démarrage de l'administration du cluster

Le Tableau 1-2 représente le point de départ de l'administration du cluster.

Tableau 1-2 Outils d'administration Sun Cluster 3.0

Si vous souhaitez... 

Alors... 

Pour plus d'informations, reportez-vous à... 

Vous connecter au cluster à distance 

Utilisez la commande ccp pour lancer le logiciel CCP (Cluster Control Panel). Sélectionnez ensuite l'une des ictnes suivantes : cconsole, crlogin ou ctelnet.

"1.5.1 Connexion à distance à Sun Cluster"

Configurer le cluster de manière interactive 

Lancez l'utilitaire scsetup.

"1.5.2 Accès à l'utilitaire scsetup"

Afficher les informations de version et de mise à jour de Sun Cluster 

Utilisez la commande scinstall avec l'option -p ou -pv.

"1.5.3 Affichage des informations de version et de mise à jour de Sun Cluster"

Afficher les ressources installées, les groupes de ressources et les types de ressources 

Utilisez la commande scgradm -p.

"1.5.4 Affichage des types de ressources, des groupes de ressources et des ressources configurés"

Surveiller de fagon graphique les composants du cluster. 

Utilisez le module Sun Cluster pour le Sun Management Center. 

Aide en ligne du module Sun Cluster pour Sun Management Center

Vérifier l'état des composants du cluster 

Utilisez la commande scstat.

"1.5.5 Vérification de l'état des composants du cluster"

Afficher la configuration du cluster 

Utilisez la commande scconf -p.

"1.5.6 Affichage de la configuration du cluster"

Vérifier les points de montage globaux 

Utilisez la commande sccheck.

"1.5.7 Vérification des points de montage globaux"

Consulter les messages système Sun Cluster 

Examinez le fichier /var/adm/messages.

Documentation administrative du système Solaris 

Surveiller l'état de Solstice DiskSuite 

Utilisez la commande metastat ou metatool.

Documentation Solstice DiskSuite 

Surveiller l'état de VERITAS Volume Manager 

Utilisez la commande vxstat ou vxva.

Documentation VERITAS Volume Manager 

1.5.1 Connexion à distance à Sun Cluster

Le logiciel CCP (Cluster Control Panel) permet de lancer les outils cconsole, crlogin et ctelnet. Ces trois outils ouvrent une connexion de plusieurs fenêtres vers un ensemble de noeuds précis. La connexion sur plusieurs fenêtres consiste en une fenêtre host pour chaque noeud spécifié et une fenêtre commune. Les données saisies dans la fenêtre commune sont envoyées à chacune des fenêtres hosts. Pour plus d'informations, reportez-vous aux pages de manuel ccp(1M) et cconsole(1M).

  1. Vérifiez que les conditions suivantes sont remplies. Pour ouvrir le logiciel CCP (Cluster Control Panel), vous devez :

    • Installer le logiciel Sun Cluster qui convient (module SUNWccon) sur la console administrative.

    • Vous assurer que la variable PATH sur la console administrative comprend bien les répertoires d'outils Sun Cluster, /opt/SUNWcluster/bin et /usr/cluster/bin. Vous pouvez indiquer un autre emplacement pour le répertoire d'outils en définissant la variable d'environnement $CLUSTER_HOME.

    • Configurer les fichiers clusters, serialports et nsswitch.conf si vous utilisez un concentrateur de terminaux. Il peut s'agir de fichiers /etc ou de bases de données NIS/NIS+. Voir clusters(4) et serialports(4) pour plus d'informations.

  2. Déterminez si vous disposez d'une plate-forme Sun Enterprise E10000 server.

    • Si ce n'est pas le cas, passez à l'Étape 3.

    • Si c'est le cas, connectez-vous au SSP (System Service Processor) en utilisant la commande netcon. Une fois connecté, tapez sur les touches Maj~@ pour déverrouiller la console et obtenir l'accès en écriture.

  3. Ouvrez la fenêtre de lancement du logiciel CCP.

    Entrez la commande suivante sur la console administrative :


    # ccp nom_cluster
    

    La fenêtre de lancement du logiciel CCP apparaît.

  4. Pour ouvrir une session à distance avec le cluster, cliquez sur l'ictne correspondante (console, crlogin ou ctelnet) dans la fenêtre de lancement du logiciel CCP.

1.5.1.1 Exemple

L'exemple suivant illustre le logiciel CCP.

Figure 1-1 Logiciel CCP

Graphic

1.5.1.2 Etape suivante

Vous pouvez également lancer les sessions cconsole, crlogin ou ctelnet à partir de la ligne de commande. Reportez-vous à cconsole(1M) pour obtenir davantage d'informations.

1.5.2 Accès à l'utilitaire scsetup

L'utilitaire scsetup(1M) permet de configurer de manière interactive les quorums, le transport des clusters, les noms d'hosts privés, les groupes de périphériques et les options des nouveaux noeuds pour le cluster.

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Exécutez l'utilitaire scsetup.


    # scsetup
    

    Le menu principal apparaît.

  3. Choisissez une option dans le menu et suivez les instructions qui apparaissent à l'écran.

    Pour plus d'informations, reportez-vous à l'aide en ligne de scsetup.

1.5.3 Affichage des informations de version et de mise à jour de Sun Cluster

Pour effectuer ces procédures, il n'est pas nécessaire d'être connecté en tant que superutilisateur.

    Affichez le numéro de version de Sun Cluster.


    % scinstall -p
    

    Affichez le numéro de version de Sun Cluster et les chaînes de version de tous les modules Sun Cluster.


    % scinstall -pv
    

1.5.3.1 Exemples : affichage du numéro de version de Sun Cluster

L'exemple suivant montre comment afficher le numéro de version du cluster.


 
3.0

1.5.3.2 Exemples : affichage des informations de version et de mise à jour de Sun Cluster

L'exemple suivant montre comment afficher les informations de version du cluster et les informations de mise à jour de tous les modules.


% scinstall -pv
SunCluster 3.0
SUNWscr:       3.0.0,REV=1999.10.20.15.01
SUNWscdev:     3.0.0,REV=1999.10.20.15.01
SUNWscu:       3.0.0,REV=1999.10.20.15.01
SUNWscman:     3.0.0,REV=1999.10.20.15.01
SUNWscsal:     3.0.0,REV=1999.10.20.15.01
SUNWscsam:     3.0.0,REV=1999.10.20.15.01
SUNWrsmop:     3.0.0,REV=1999.10.20.15.01
SUNWsci:       3.0,REV=1999.09.08.17.43
SUNWscid:      3.0,REV=1999.09.08.17.43
SUNWscidx:     3.0,REV=1999.09.08.17.43
SUNWscvm:      3.0.0,REV=1999.10.20.15.01

1.5.4 Affichage des types de ressources, des groupes de ressources et des ressources configurés

Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.

    Affichez les types de ressources, les groupes de ressources et les ressources configurés pour le cluster.


    % scrgadm -p
    

1.5.4.1 Exemple : affichage des types de ressources, des groupes de ressources et des ressources configurés

L'exemple suivant montre les types de ressources (RT Name), les groupes de ressources (RG Name) et les ressources (RS Name) configurés pour le cluster schost.


% scgradm -p
RT Name: SUNW.SharedAddress
  RT Description: HA Shared Address Resource Type
RT Name: SUNW.LogicalHostname
  RT Description: Logical Hostname Resource Type
RG Name: schost-sa-1 
  RG Description:  
    RS Name: schost-1
      RS Description: 
      RS Type: SUNW.SharedAddress
      RS Resource Group: schost-sa-1 
RG Name: schost-lh-1
  RG Description:  
    RS Name: schost-3
      RS Description: 
      RS Type: SUNW.LogicalHostname
      RS Resource Group: schost-lh-1

1.5.5 Vérification de l'état des composants du cluster

Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.

    Vérifiez l'état des composants du cluster


    % scstat -p
    

1.5.5.1 Exemple : vérification de l'état des composants du cluster

L'exemple suivant donne un échantillon des informations d'état des composants de cluster renvoyées par la commande scstat(1M).


% scstat -p
-- Cluster Nodes --
 
                    Node name           Status
                    ---------           ------
  Cluster node:     phys-schost-1      Online
  Cluster node:     phys-schost-2      Online
  Cluster node:     phys-schost-3      Online
  Cluster node:     phys-schost-4      Online
 
------------------------------------------------------------------
 
-- Cluster Transport Paths --
 
                    Endpoint            Endpoint            Status
                    --------            --------            ------
  Transport path:   phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
  Transport path:   phys-schost-1:hme1 phys-schost-4:hme1 Path online
...
 
------------------------------------------------------------------
 
-- Quorum Summary --
 
  Quorum votes possible:      6
  Quorum votes needed:        4
  Quorum votes present:       6
 
-- Quorum Votes by Node --
 
                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1       1        1       Online
  Node votes:       phys-schost-2       1        1       Online
...
 
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status  Owner
                    -----------         ------- -------- ------  -----
  Device votes:     /dev/did/rdsk/d2s2  1        1       Online  phys-schost-2
  Device votes:     /dev/did/rdsk/d8s2  1        1       Online  phys-schost-4
...
 
-- Device Group Servers --
 
                         Device Group        Primary             Secondary
                         ------------        -------             ---------
  Device group servers:  rmt/1               -                   -
  Device group servers:  rmt/2               -                   -
  Device group servers:  schost-1           phys-schost-2      phys-schost-1
  Device group servers:  schost-3           -                   -
 
-- Device Group Status --
 
                              Device Group        Status
                              ------------        ------              
  Device group status:        rmt/1               Offline
  Device group status:        rmt/2               Offline
  Device group status:        schost-1           Online
  Device group status:        schost-3           Offline
 
------------------------------------------------------------------
 
-- Resource Groups and Resources --
 
            Group Name          Resources
            ----------          ---------
 Resources: test-rg             test_1
 Resources: real-property-rg    -
 Resources: failover-rg         -
 Resources: descript-rg-1       -
...
 
-- Resource Groups --
 
            Group Name          Node Name           State
            ----------          ---------           -----
     Group: test-rg             phys-schost-1      Offline
     Group: test-rg             phys-schost-2      Offline
...
 
-- Resources --
 
            Resource Name       Node Name           State     Status Message
            -------------       ---------           -----     --------------
  Resource: test_1              phys-schost-1      Offline   Offline
  Resource: test_1              phys-schost-2      Offline   Offline

1.5.6 Affichage de la configuration du cluster

Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.

    Affichez la configuration du cluster.


    % scconf -p
    

1.5.6.1 Exemple : affichage de la configuration du cluster

L'exemple suivant illustre la configuration du cluster.


% scconf -p
Cluster name:                                      cluster-1
Cluster ID:                                        0x3908EE1C
Cluster install mode:                              disabled
Cluster private net:                               172.16.0.0
Cluster private netmask:                           255.255.0.0
Cluster new node authentication:                   unix
Cluster new node list:                             <NULL - Allow any node>
Cluster nodes:                                     phys-schost-1 phys-schost-2                                                    phys-schost-3 phys-schost-4
 
Cluster node name:                                 phys-schost-1
  Node ID:                                         1
  Node enabled:                                    yes
  Node private hostname:                           clusternode1-priv
  Node quorum vote count:                          1
  Node reservation key:                            0x3908EE1C00000001
  Node transport adapters:                         hme1 qfe1 qfe2
 
Node transport adapter:                          hme1
    Adapter enabled:                               yes
    Adapter transport type:                        dlpi
    Adapter property:                              device_name=hme
   Adapter property:                              device_instance=1
    Adapter property:                              dlpi_heartbeat_timeout=10000
...
Cluster transport junctions:                       hub0 hub1 hub2
 
Cluster transport junction:                        hub0
  Junction enabled:                                yes
  Junction type:                                   switch
 Junction port names:                             1 2 3 4
...

Junction port:                                   1
    Port enabled:                                  yes
 
Junction port:                                   2
    Port enabled:                                  yes
...
Cluster transport cables
                    Endpoint            Endpoint        State
                    --------            --------        -----
  Transport cable:  phys-schost-1:hme1@0 hub0@1        Enabled
  Transport cable:  phys-schost-1:qfe1@0 hub1@1        Enabled
  Transport cable:  phys-schost-1:qfe2@0 hub2@1        Enabled
  Transport cable:  phys-schost-2:hme1@0 hub0@2        Enabled
...
Quorum devices:                                    d2 d8
 
Quorum device name:                                d2
  Quorum device votes:                             1
  Quorum device enabled:                           yes
  Quorum device name:                              /dev/did/rdsk/d2s2
  Quorum device hosts (enabled):                   phys-schost-1
                                                    phys-schost-2
  Quorum device hosts (disabled): 
...
Device group name:                                 schost-3
  Device group type:                               SDS
  Device group failback enabled:                   no
  Device group node list:                          phys-schost-3,                                                    phys-schost-4
  Diskset name:                                    schost-3
...

1.5.7 Vérification des points de montage globaux

La commande sccheck(1M) permet de chercher dans le fichier /etc/vfstab les éventuelles erreurs de configuration par rapport au système de fichiers du cluster et des points de montage globaux. La commande sccheck renvoie simplement les erreurs. Si aucune erreur n'est détectée, la commande sccheck revient simplement à l'invite de l'Utilitaire Shell.


Remarque :

exécutez la commande sccheck si vous avez apporté à la configuration du cluster des modifications qui ont une incidence sur les périphériques ou les composants de gestion des volumes.


  1. Devenez superutilisateur sur un noeud du cluster.

  2. Vérifiez la configuration du cluster.


    # sccheck
    

1.5.7.1 Exemple : vérification de la configuration du cluster

L'exemple suivant montre que le point de montage /global/schost-1 manque dans le noeud phys-schost-3.


# sccheck
vfstab-check: WARNING - phys-schost-3 - Missing mount point /global/schost-1