Guide d'administration système de Sun Cluster pour SE Solaris

Chapitre 1 Introduction à l'administration de Sun Cluster

Ce chapitre décrit la préparation nécessaire à l'administration du cluster ainsi que les procédures d'utilisation des outils d'administration de Sun Cluster.

Présentation de l'administration de Sun Cluster

L'environnement haute disponibilité de Sun Cluster garantit aux utilisateurs finaux la disponibilité des applications décisives. L'administrateur système est chargé de s'assurer que Sun Cluster reste stable et opérationnel.

Familiarisez-vous avec les informations de planification figurant dans le Guide d'installation du logiciel Sun Cluster pour SE Solaris et le Guide des notions fondamentales de Sun Cluster pour SE Solaris avant de débuter les tâches administratives. L'administration de Sun Cluster est organisée en tâches dans les manuels indiqués ci-dessous.

La plupart des tâches d'administration de Sun Cluster peuvent être effectuées sans interrompre le fonctionnement du cluster, sauf en cas de nœud unique. Pour les procédures nécessitant l'arrêt de l'ensemble du cluster, prévoyez celui-ci en dehors des heures de travail pour en minimiser l'impact sur le système. Si vous prévoyez d'arrêter le cluster ou l'un de ses nœuds, prévenez les utilisateurs à l'avance.

Outils d'administration

Vous pouvez effectuer des tâches administratives sur Sun Cluster en utilisant une interface utilisateur graphique ou la ligne de commande. La rubrique suivante propose une présentation des outils de la ligne de commande et de l'IUG.

Interface utilisateur graphique

Sun Cluster dispose de deux interfaces utilisateur graphiques permettant d'exécuter plusieurs tâches administratives sur un cluster. Ces outils sont SunPlexTM Manager et, si vous utilisez Sun Cluster sur un système SPARC, Sun Management Center. Le Chapitre 10, Administration de Sun Cluster avec les interfaces graphiques utilisateur fournit de plus amples informations et des procédures sur la configuration de SunPlex Manager et de Sun Management Center. Pour obtenir des informations spécifiques sur l'utilisation de ces outils, consultez l'aide en ligne de chaque interface utilisateur graphique.

Interface de ligne de commande

Vous pouvez effectuer la plupart des tâches administratives Sun Cluster interactivement via l'utilitaire scsetup(1M). Chaque fois que possible, les procédures administratives décrites dans ce manuel sont effectuées avec la commande scsetup.

L'utilitaire scsetup vous permet d'administrer les éléments du menu principal suivants :

L'utilitaire scsetup vous permet d'administrer les éléments du menu Groupes de ressources suivants :

Le tableau 1-1 répertorie les autres commandes que vous utilisez pour administrer Sun Cluster. Pour de plus amples informations, reportez-vous aux pages de manuel.

Tableau 1–1 Commandes d'interface de ligne de commande de Sun Cluster

Commande 

Description 

ccp(1M)

Démarre l'accès à distance au cluster à partir de la console. 

if_mpadm(1M)

À utiliser pour passer des adresses IP d'un adaptateur à un autre dans un groupe IPMP. 

sccheck(1M)

Vérifie et valide la configuration de Sun Cluster pour garantir le bon fonctionnement de la configuration de base d'un cluster. 

scconf(1M)

Met à jour une configuration Sun Cluster. L'option -p répertorie les informations relatives à la configuration d'une grappe.

scdidadm(1M)

Permet l'accès administratif à la configuration des ID de périphériques. 

scgdevs(1M)

Exécute le script d'administration global de périphériques namespace. 

scinstall(1M)

Installe et configure le logiciel Sun Cluster. La commande peut être exécutée interactivement ou non-interactivement. L'option -p affiche les informations de version et de version des packages pour le logiciel Sun Cluster.

scrgadm(1M)

Gère l'enregistrement des types de ressources, la création des groupes de ressources et l'activation des ressources dans un groupe. L'option -p permet d'afficher les informations sur les ressources, les groupes de ressources et les types de ressources installés.


Remarque –

le type de ressources, le groupe de ressources et les noms de propriétés de ressources ne sont pas sensibles à la casse lors de l'exécution de scrgadm.


scsetup(1M)

Lance l'utilitaire de configuration interactive du cluster, qui génère la commande scconf et ses diverses options.

scshutdown(1M)

Arrête l'ensemble du cluster. 

scstat(1M)

Fournit un aperçu ponctuel du statut du cluster. 

scswitch(1M)

Applique des modifications qui affectent la maîtrise des nœuds et l'état des groupes de ressources et des groupes de périphériques de disques. 

Par ailleurs, vous pouvez utiliser d'autres commandes pour administrer la partie gestionnaire de volumes de Sun Cluster. Ces commandes dépendent du gestionnaire de volume spécifique utilisé dans votre cluster, Solstice DiskSuiteTM, VERITAS Volume Manager ou Solaris Volume ManagerTM.

Préparation en vue de l'administration du cluster

Cette rubrique décrit les procédures à suivre pour préparer l'administration de votre cluster.

Enregistrement par écrit d'une configuration matérielle Sun Cluster

Documentez les aspects matériels spécifiques à votre site au cours de l'adaptation de votre configuration Sun Cluster. Reportez-vous à la documentation relative à votre matériel lorsque vous modifiez ou mettez à jour le cluster afin d'enregistrer le travail d'administration. Vous pouvez également, pour faciliter l'administration, étiqueter les câbles et les connexions reliant les différents éléments du cluster.

Réduisez le temps nécessaire à l'entretien du cluster par un fournisseur de services tiers en conservant les enregistrements de votre configuration de cluster d'origine ainsi que les modifications qui ont suivi.

Utilisation d'une console administrative

Vous pouvez utiliser une station de travail SPARC dédiée, appelée console administrative, pour administrer le cluster actif. En général, vous devez installer et exécuter le logiciel CCP (Cluster Control Panel) et les outils de l'interface graphique (GUI) sur la console administrative. Pour de plus amples informations sur le logiciel CCP, reportez-vous à la rubrique Connexion à distance à Sun Cluster. Pour consulter les instructions d'installation du module Cluster Control Panel pour Sun Management Center et des outils IUG SunPlex Manager, reportez-vous au Guide d'installation du logiciel Sun Cluster pour SE Solaris.

La console administrative n'est pas un nœud de cluster. Elle permet un accès à distance aux nœuds du cluster, via le réseau public ou via un concentrateur de terminaux sur le réseau.

Si votre cluster SPARC se compose d'un serveur Sun Enterprise TM 10000, vous devez vous connecter au SSP (System Service Processor) à partir de la console administrative. Faites-le à l'aide de la commande netcon(1M). Par défaut, netcon se connecte à un domaine Sun Enterprise 10000 via l'interface réseau. Si le réseau n'est pas accessible, vous pouvez utiliser netcon en mode “exclusif” en configurant l'option -f. Vous pouvez également envoyer ~* au cours d'une session netcon normale. L'une des solutions précédentes vous offre la possibilité de basculer sur l'interface série si le réseau devient inaccessible.

Avec Sun Cluster, il n'est pas nécessaire d'utiliser une console administrative dédiée, bien qu'elle présente les avantages suivants :

Sauvegarde du cluster

Sauvegardez régulièrement votre cluster. Même si Sun Cluster fournit un environnement HA avec des copies en miroir des données sur les périphériques de stockage, rien ne remplace les sauvegardes régulières. Sun Cluster peut résister à plusieurs défaillances, mais il n'empêche pas les erreurs d'utilisation ou celles commises par un programme, et encore moins les pannes graves. Vous devez donc mettre en place une procédure de sauvegarde pour éviter une perte de données.

Les informations suivantes doivent être incluses dans la sauvegarde :

Administration du cluster : Premiers pas

Le Tableau 1–2 représente un point de départ pour administrer votre cluster.

Tableau 1–2 Outils d'administration de Sun Cluster 3.1 4/04

Tâche 

Outil 

Documentation 

Connexion au cluster à distance 

Utilisez la commande ccp pour lancer le logiciel CCP (Cluster Control Panel). Sélectionnez ensuite l'une des icônes suivantes : cconsole(1M), crlogin( 1M) ou ctelnet(1M).

Connexion à distance à Sun Cluster

Configuration du cluster de manière interactive 

Lancez l'utilitaire scsetup(1M).

Accès à l'utilitaire scsetup

Affichage des informations de version et de mise à jour de Sun Cluster 

Utilisez la commande scinstall(1M) avec les options -p ou -pv.

Affichage des informations de version et de mise à jour de Sun Cluster

Affichage des ressources, groupes de ressources et types de ressources installés 


Remarque –

le type de ressources, le groupe de ressources et les noms de propriétés de ressources ne sont pas sensibles à la casse lors de l'exécution de scrgadm.


Utilisez la commande scrgadm(1M) -p.

Affichage des types de ressources, groupes de ressources et ressources configurés

Contrôle graphique des composants du cluster 

Utilisez SunPlex Manager ou le module Sun Cluster pour Sun Management Center (disponible avec Sun Cluster sur les systèmes SPARC uniquement). 

L'aide en ligne de SunPlex Manager ou celle du module Sun Cluster pour Sun Management Center 

Administration graphique de certains composants du cluster 

Utilisez SunPlex Manager ou le module Sun Cluster pour Sun Management Center (disponible avec Sun Cluster sur les systèmes SPARC uniquement). 

Aide en ligne de SunPlex Manager ou du module Sun Cluster pour Sun Management Center 

Vérification du statut des composants du cluster 

Utilisez la commande scstat(1M).

Vérification du statut des composants du cluster

Vérification du statut des groupes IPMP sur le réseau public 

Utilisez la commande scstat(1M) avec l'option -i.

Vérification du statut du réseau public

Affichage de la configuration du cluster 

Utilisez la commande scconf( 1M) -p.

Affichage de la configuration du cluster

Vérification des points de montage globaux 

Utilisez la commande sccheck( 1M).

Validation d'une configuration de cluster basique

Consultation des messages système Sun Cluster 

Ouvrez le fichier/var/adm/messages.

Collection de manuels administrateur système Solaris 9“Viewing System Messages” dans System Administration Guide: Advanced Administration

Contrôle du statut de Solstice DiskSuite 

Utilisez la commande metastat.

Documentation de Solstice DiskSuite/Solaris Volume Manager 

Contrôle du statut de VERITAS Volume Manager si vous exécutez Solaris 8 

Utilisez la commande vxstat ou vxva.

Documentation VERITAS Volume Manager 

Contrôle du statut de Solaris Volume Manager si vous exécutez Solaris 9 

Utilisez la commande svmstat.

Solaris Volume Manager Administration Guide

Connexion à distance à Sun Cluster

Le CCP (Cluster Control Panel) propose un bloc de lancement pour les outils cconsole(1M) crlogin(1M) et ctelnet(1M). Ces trois outils ouvrent une connexion de plusieurs fenêtres vers un ensemble de nœuds précis. La connexion sur plusieurs fenêtres consiste en une fenêtre hôte pour chaque nœud spécifié et une fenêtre commune. Les données entrées dans la fenêtre commune sont envoyées à chacune des fenêtres hôtes, vous permettant d'exécuter des commandes simultanément sur tous les nœuds du cluster. Pour de plus amples informations, reportez-vous aux pages de manuel ccp(1M) et cconsole(1M).

  1. Vérifiez que les conditions suivantes sont remplies avant de lancer le CCP.

    • Installez le package SUNWccon sur la console administrative.

    • Vérifiez que la variable PATH de la console administrative comporte le répertoire des outils de Sun Cluster, /opt/SUNWcluster/bin et /usr/cluster/bin. Vous pouvez indiquer un autre emplacement pour le répertoire d'outils en définissant la variable d'environnement $CLUSTER_HOME.

    • Configurez les fichiers clusters, serialports et nsswitch.conf si vous utilisez un concentrateur de terminaux. Il peut s'agir de fichiers /etc ou de bases de données NIS/NIS+. Pour plus d'information, consultez clusters(4) et serialports(4).

  2. Déterminez si vous disposez d'une plate-forme Sun Enterprise 10000 server.

    • Si ce n'est pas le cas, passez à l'Étape 3.

    • Si oui, connectez-vous au SSP (System Service Processor) en utilisant la commande netcon. Une fois connecté, tapez sur les touches Maj+@ pour déverrouiller la console et obtenir l'accès en écriture.

  3. Ouvrez la fenêtre de lancement du logiciel CCP.

    Entrez la commande suivante sur la console administrative :


    # ccp nom_cluster
    

    La fenêtre de lancement du logiciel CCP apparaît.

  4. Pour ouvrir une session à distance avec le cluster, cliquez sur l'icône cconsole, crlogin ou ctelnet sur le bloc de lancement du logiciel CCP.

étape suivante

Vous pouvez également ouvrir une session cconsole, crlogin ou ctelnet à partir de la ligne de commande.

Accès à l'utilitaire scsetup

L'utilitaire scsetup( 1M) vous permet de configurer de manière interactive les options de quorum, groupes de ressources, transports de clusters, noms d'hôtes privés, groupes de périphériques et nouveaux nœuds du cluster.

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Lancez l'utilitaire scsetup.


    # scsetup
    

    Le menu principal apparaît.

  3. Sélectionnez votre configuration dans le menu. Suivez les instructions à l'écran pour effectuer une tâche.

    Pour de plus amples informations, reportez-vous à l'aide en ligne de scsetup.

Affichage des informations de version et de mise à jour de Sun Cluster

Il n'est pas nécessaire d'être connecté en tant que superutilisateur pour exécuter ces procédures.

    Affichez les numéros de patch de Sun Cluster.

    Les versions mises à jour de Sun sont identifiées par le numéro de patch du produit principal plus la version de mise à jour.


    % showrev -p
    

    Affichez le numéro de version de Sun Cluster et les chaînes de version de tous les packages Sun Cluster.


    % scinstall -pv
    

Exemple : affichage du numéro de version de Sun Cluster

L'exemple suivant illustre l'affichage du numéro de version du cluster.


% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: 

Exemple : affichage du numéro de version et de mise à jour de Sun Cluster

L'exemple suivant illustre comment afficher les informations de version du cluster et les informations de mise à jour de l'ensemble des packages.


% scinstall -pv
SunCluster 3.1
SUNWscr:       3.1.0,REV=2000.10.01.01.00
SUNWscdev:     3.1.0,REV=2000.10.01.01.00
SUNWscu:       3.1.0,REV=2000.10.01.01.00
SUNWscman:     3.1.0,REV=2000.10.01.01.00
SUNWscsal:     3.1.0,REV=2000.10.01.01.00
SUNWscsam:     3.1.0,REV=2000.10.01.01.00
SUNWscvm:      3.1.0,REV=2000.10.01.01.00
SUNWmdm:       4.2.1,REV=2000.08.08.10.01

Affichage des types de ressources, groupes de ressources et ressources configurés

Vous pouvez également exécuter cette procédure dans l'IUG de SunPlex Manager. Reportez-vous au Chapitre 10, Administration de Sun Cluster avec les interfaces graphiques utilisateur . Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.

Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.

    Affichez les types de ressources, les groupes de ressources et les ressources configurés pour le cluster.


    % scrgadm -p
    

Exemple : affichage des types de ressources, groupes de ressources et ressources configurés

L'exemple ci-dessous présente les types de ressources (RT Name), les groupes de ressources (RG Name) et les ressources (RS Name) configurés pour la grappe schost.


% scrgadm -p
RT Name: SUNW.SharedAddress
  RT Description: HA Shared Address Resource Type 
RT Name: SUNW.LogicalHostname
  RT Description: Logical Hostname Resource Type 
RG Name: schost-sa-1 
  RG Description:  
    RS Name: schost-1
      RS Description: 
      RS Type: SUNW.SharedAddress
      RS Resource Group: schost-sa-1
RG Name: schost-lh-1 
  RG Description:  
    RS Name: schost-3
      RS Description: 
      RS Type: SUNW.LogicalHostname
      RS Resource Group: schost-lh-1

Vérification du statut des composants du cluster

Vous pouvez également exécuter cette procédure dans l'IUG de SunPlex Manager. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.

Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.

    Vérification du statut des composants de cluster


    % scstat -p
    

Exemple : vérification du statut des composants de cluster

L'exemple suivant fournit un échantillon des informations renvoyées par scstat(1M) à propos du statut des composants de cluster.


% scstat -p
-- Cluster Nodes --
 
                    Node name           Status
                    ---------           ------
  Cluster node:     phys-schost-1      Online
  Cluster node:     phys-schost-2      Online
  Cluster node:     phys-schost-3      Online
  Cluster node:     phys-schost-4      Online
 
------------------------------------------------------------------
 
-- Cluster Transport Paths --
 
                    Endpoint            Endpoint            Status
                    --------            --------            ------
  Transport path:   phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
  Transport path:   phys-schost-1:hme1 phys-schost-4:hme1 Path online
...
 
------------------------------------------------------------------
 
-- Quorum Summary --
 
  Quorum votes possible:      6
  Quorum votes needed:        4
  Quorum votes present:       6
 
-- Quorum Votes by Node --
 
                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1      1        1       Online
  Node votes:       phys-schost-2      1        1       Online
...
 
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status 
                    -----------         ------- -------- ------ 
  Device votes:     /dev/did/rdsk/d2s2  1        1       Online 
  Device votes:     /dev/did/rdsk/d8s2  1        1       Online 
...
 
-- Device Group Servers --
 
                         Device Group        Primary             Secondary
                         ------------        -------             ---------
  Device group servers:  rmt/1               -                   -
  Device group servers:  rmt/2               -                   -
  Device group servers:  schost-1           phys-schost-2      phys-schost-1
  Device group servers:  schost-3           -                   -
 
-- Device Group Status --
 
                              Device Group        Status              
                              ------------        ------              
  Device group status:        rmt/1               Offline
  Device group status:        rmt/2               Offline
  Device group status:        schost-1            Online
  Device group status:        schost-3            Offline
 
------------------------------------------------------------------
 
-- Resource Groups and Resources --
 
            Group Name          Resources
            ----------          ---------
 Resources: test-rg             test_1
 Resources: real-property-rg    -
 Resources: failover-rg         -
 Resources: descript-rg-1       -
...
 
-- Resource Groups --
 
            Group Name          Node Name           State
            ----------          ---------           -----
     Group: test-rg             phys-schost-1      Offline
     Group: test-rg             phys-schost-2      Offline
...
 
-- Resources --
 
            Resource Name       Node Name           State     Status Message
            -------------       ---------           -----     --------------
  Resource: test_1              phys-schost-1      Offline   Offline
  Resource: test_1              phys-schost-2      Offline   Offline
 
-----------------------------------------------------------------
 
-- IPMP Groups --
 
              Node Name         Group   	 Status         Adapter   Status
              ---------         -----   	 ------         -------   ------
  IPMP Group: phys-schost-1     sc_ipmp0   Online         qfe1      Online

  IPMP Group: phys-schost-2     sc_ipmp0   Online         qfe1      Online

------------------------------------------------------------------
 

Vérification du statut du réseau public

Vous pouvez également exécuter cette procédure dans l'interface utilisateur graphique de SunPlex Manager. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.

Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.

Pour vérifier le statut des groupes IPMP, utilisez la commande scstat(1M).

  1. Vérification du statut des composants de cluster


    % scstat -i
    

Exemple de vérification du statut du réseau public

L'exemple suivant fournit un échantillon des informations sur le statut des composants de cluster renvoyées par la commande scstat -i.


% scstat -i
-----------------------------------------------------------------
 
-- IPMP Groups --
 
              Node Name         Group   	 Status         Adapter   Status
              ---------         -----   	 ------         -------   ------
  IPMP Group: phys-schost-1     sc_ipmp1 	 Online         qfe2      Online

  IPMP Group: phys-schost-1     sc_ipmp0 	 Online         qfe1      Online

  IPMP Group: phys-schost-2     sc_ipmp1 	 Online         qfe2      Online

  IPMP Group: phys-schost-2     sc_ipmp0 	 Online         qfe1      Online

------------------------------------------------------------------
 

Affichage de la configuration du cluster

Vous pouvez également exécuter cette procédure dans l'IUG de SunPlex Manager. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.

Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.

    Affichage de la configuration du cluster


    % scconf -p
    

    Pour de plus amples informations sur l'utilisation de la commande scconf , utilisez les options prolixes. Consultez la page man scconf(1M) pour plus d'informations.

Exemple : affichage de la configuration du cluster

L'exemple suivant illustre la configuration du cluster.


% scconf -p
Cluster name:                       cluster-1
Cluster ID:                         0x3908EE1C
Cluster install mode:               disabled
Cluster private net:                172.16.0.0
Cluster private netmask:            192.168.0.0
Cluster new node authentication:    unix
Cluster new node list:              <NULL - Allow any node>
Cluster nodes:                      phys-schost-1 phys-schost-2 phys-schost-3
phys-schost-4
Cluster node name:                                 phys-schost-1
  Node ID:                                         1
  Node enabled:                                    yes
  Node private hostname:                           clusternode1-priv
  Node quorum vote count:                          1
  Node reservation key:                            0x3908EE1C00000001
  Node transport adapters:                         hme1 qfe1 qfe2
 
Node transport adapter:                          hme1
    Adapter enabled:                               yes
    Adapter transport type:                        dlpi
    Adapter property:                              device_name=hme
    Adapter property:                              device_instance=1
    Adapter property:                              dlpi_heartbeat_timeout=10000
...
Cluster transport junctions:                       hub0 hub1 hub2
 
Cluster transport junction:                        hub0
  Junction enabled:                                yes
  Junction type:                                   switch
  Junction port names:                             1 2 3 4
...
Junction port:                                   1
    Port enabled:                                  yes
 
Junction port:                                   2
    Port enabled:                                  yes
...
Cluster transport cables
                    Endpoint            Endpoint        State
                    --------            --------        -----
  Transport cable:  phys-schost-1:hme1@0 hub0@1        Enabled
  Transport cable:  phys-schost-1:qfe1@0 hub1@1        Enabled
  Transport cable:  phys-schost-1:qfe2@0 hub2@1        Enabled
  Transport cable:  phys-schost-2:hme1@0 hub0@2        Enabled
...
Quorum devices:                                    d2 d8
 
Quorum device name:                                d2
  Quorum device votes:                             1
  Quorum device enabled:                           yes
  Quorum device name:                              /dev/did/rdsk/d2s2
  Quorum device hosts (enabled):                   phys-schost-1
 phys-schost-2
  Quorum device hosts (disabled): 
...
Device group name:                                 schost-3
  Device group type:                               SVM
  Device group failback enabled:                   no
  Device group node list:                          phys-schost-3, phys-schost-4
  Diskset name:                                    schost-3

Validation d'une configuration de cluster basique

La commande sccheck( 1M) lance une série de contrôles visant à valider la configuration de base requise pour le fonctionnement correct de cluster. S'il n'y a pas d'erreur, la commande sccheck revient à l'invite du shell. En cas d'erreur, la commande sccheck crée un rapport dans le répertoire de sortie indiqué ou le répertoire de sortie par défaut. Si vous exécutez la commande sccheck sur plusieurs nœuds, celle-ci créera un rapport pour chaque nœud et un rapport pour les contrôles effectués sur plusieurs nœuds.

La commande sccheck fonctionne en deux temps : collecte de données et analyse. La collecte de données peut prendre un certain temps, en fonction de la configuration du système. Vous pouvez appeler la commande sccheck en mode détaillé à l'aide de l'indicateur -v1 pour imprimer des messages d'état, ou utiliser l'indicateur - v2 pour exécuter la commande sccheck en mode très détaillé, permettant d'imprimer des messages d'état plus précis, notamment lors de la collecte de données.


Remarque –

exécutez la commande sccheck chaque fois que vous avez effectué une procédure d'administration susceptible de modifier les périphériques, les composants de la gestion de volumes ou la configuration de Sun Cluster.


  1. Devenez superutilisateur sur un nœud du cluster.


    % su
    
  2. Vérifiez la configuration du cluster.


     # sccheck
    

Exemple : vérification de la configuration du cluster sans erreur au niveau des contrôles

L'exemple suivant illustre l'exécution de la commande sccheck en mode détaillé sur les nœuds phys-schost-1 et phys-schost-2 sans erreur au niveau des contrôles.


# sccheck -v1 -h phys-schost-1,phys-schost-2
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished
# 

Exemple : vérification de la configuration du cluster avec contrôle erroné

L'exemple suivant montre qu'il manque le point de montage /global/phys-schost-1 au nœud phys-schost-2 du cluster suncluster. Des rapports sont créés dans le répertoire de sortie /var/cluster/sccheck/myReports/.


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

Vérification des points de montage globaux

La commande sccheck(1M) inclut des vérifications qui examinent le fichier /etc/vfstab pour rechercher les erreurs de configuration du système de fichiers de cluster et de ses points de montage globaux.


Remarque –

exécutez la commande sccheck si vous avez apporté à la configuration de cluster des modifications ayant une incidence sur les périphériques ou les composants de gestion des volumes.


  1. Devenez superutilisateur sur un nœud du cluster.


    % su
    
  2. Vérifiez la configuration du cluster.


     # sccheck
    

Exemple : vérification des points de montage globaux

L'exemple suivant montre qu'il manque le point de montage /global/schost-1 au nœud phys-schost-2 du cluster suncluster. Reports are being sent to the output directory /var/cluster/sccheck/myReports/


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as a Sun Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node.  
Only servers that have been qualified with Sun Cluster 3.x are supported as 
Sun Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Sun Microsystems representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Sun Cluster 3.x.
...
#