Le Tableau 1–2 représente un point de départ pour administrer votre cluster.
Tableau 1–2 Outils d'administration de Sun Cluster 3.1 4/04
Tâche |
Outil |
Documentation |
---|---|---|
Connexion au cluster à distance |
Utilisez la commande ccp pour lancer le logiciel CCP (Cluster Control Panel). Sélectionnez ensuite l'une des icônes suivantes : cconsole(1M), crlogin( 1M) ou ctelnet(1M). | |
Configuration du cluster de manière interactive |
Lancez l'utilitaire scsetup(1M). | |
Affichage des informations de version et de mise à jour de Sun Cluster |
Utilisez la commande scinstall(1M) avec les options -p ou -pv. |
Affichage des informations de version et de mise à jour de Sun Cluster |
Affichage des ressources, groupes de ressources et types de ressources installés Remarque – le type de ressources, le groupe de ressources et les noms de propriétés de ressources ne sont pas sensibles à la casse lors de l'exécution de scrgadm. |
Utilisez la commande scrgadm(1M) -p. |
Affichage des types de ressources, groupes de ressources et ressources configurés |
Contrôle graphique des composants du cluster |
Utilisez SunPlex Manager ou le module Sun Cluster pour Sun Management Center (disponible avec Sun Cluster sur les systèmes SPARC uniquement). |
L'aide en ligne de SunPlex Manager ou celle du module Sun Cluster pour Sun Management Center |
Administration graphique de certains composants du cluster |
Utilisez SunPlex Manager ou le module Sun Cluster pour Sun Management Center (disponible avec Sun Cluster sur les systèmes SPARC uniquement). |
Aide en ligne de SunPlex Manager ou du module Sun Cluster pour Sun Management Center |
Vérification du statut des composants du cluster |
Utilisez la commande scstat(1M). | |
Vérification du statut des groupes IPMP sur le réseau public |
Utilisez la commande scstat(1M) avec l'option -i. | |
Affichage de la configuration du cluster |
Utilisez la commande scconf( 1M) -p. | |
Vérification des points de montage globaux |
Utilisez la commande sccheck( 1M). | |
Consultation des messages système Sun Cluster |
Ouvrez le fichier/var/adm/messages. |
Collection de manuels administrateur système Solaris 9“Viewing System Messages” dans System Administration Guide: Advanced Administration |
Contrôle du statut de Solstice DiskSuite |
Utilisez la commande metastat. |
Documentation de Solstice DiskSuite/Solaris Volume Manager |
Contrôle du statut de VERITAS Volume Manager si vous exécutez Solaris 8 |
Utilisez la commande vxstat ou vxva. |
Documentation VERITAS Volume Manager |
Contrôle du statut de Solaris Volume Manager si vous exécutez Solaris 9 |
Utilisez la commande svmstat. |
Le CCP (Cluster Control Panel) propose un bloc de lancement pour les outils cconsole(1M) crlogin(1M) et ctelnet(1M). Ces trois outils ouvrent une connexion de plusieurs fenêtres vers un ensemble de nœuds précis. La connexion sur plusieurs fenêtres consiste en une fenêtre hôte pour chaque nœud spécifié et une fenêtre commune. Les données entrées dans la fenêtre commune sont envoyées à chacune des fenêtres hôtes, vous permettant d'exécuter des commandes simultanément sur tous les nœuds du cluster. Pour de plus amples informations, reportez-vous aux pages de manuel ccp(1M) et cconsole(1M).
Vérifiez que les conditions suivantes sont remplies avant de lancer le CCP.
Installez le package SUNWccon sur la console administrative.
Vérifiez que la variable PATH de la console administrative comporte le répertoire des outils de Sun Cluster, /opt/SUNWcluster/bin et /usr/cluster/bin. Vous pouvez indiquer un autre emplacement pour le répertoire d'outils en définissant la variable d'environnement $CLUSTER_HOME.
Configurez les fichiers clusters, serialports et nsswitch.conf si vous utilisez un concentrateur de terminaux. Il peut s'agir de fichiers /etc ou de bases de données NIS/NIS+. Pour plus d'information, consultez clusters(4) et serialports(4).
Déterminez si vous disposez d'une plate-forme Sun Enterprise 10000 server.
Si ce n'est pas le cas, passez à l'Étape 3.
Si oui, connectez-vous au SSP (System Service Processor) en utilisant la commande netcon. Une fois connecté, tapez sur les touches Maj+@ pour déverrouiller la console et obtenir l'accès en écriture.
Ouvrez la fenêtre de lancement du logiciel CCP.
Entrez la commande suivante sur la console administrative :
# ccp nom_cluster |
La fenêtre de lancement du logiciel CCP apparaît.
Pour ouvrir une session à distance avec le cluster, cliquez sur l'icône cconsole, crlogin ou ctelnet sur le bloc de lancement du logiciel CCP.
Vous pouvez également ouvrir une session cconsole, crlogin ou ctelnet à partir de la ligne de commande.
L'utilitaire scsetup( 1M) vous permet de configurer de manière interactive les options de quorum, groupes de ressources, transports de clusters, noms d'hôtes privés, groupes de périphériques et nouveaux nœuds du cluster.
Devenez superutilisateur sur un nœud du cluster.
Lancez l'utilitaire scsetup.
# scsetup |
Le menu principal apparaît.
Sélectionnez votre configuration dans le menu. Suivez les instructions à l'écran pour effectuer une tâche.
Pour de plus amples informations, reportez-vous à l'aide en ligne de scsetup.
Il n'est pas nécessaire d'être connecté en tant que superutilisateur pour exécuter ces procédures.
Affichez les numéros de patch de Sun Cluster.
Les versions mises à jour de Sun sont identifiées par le numéro de patch du produit principal plus la version de mise à jour.
% showrev -p |
Affichez le numéro de version de Sun Cluster et les chaînes de version de tous les packages Sun Cluster.
% scinstall -pv |
L'exemple suivant illustre l'affichage du numéro de version du cluster.
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
L'exemple suivant illustre comment afficher les informations de version du cluster et les informations de mise à jour de l'ensemble des packages.
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
Vous pouvez également exécuter cette procédure dans l'IUG de SunPlex Manager. Reportez-vous au Chapitre 10, Administration de Sun Cluster avec les interfaces graphiques utilisateur . Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Affichez les types de ressources, les groupes de ressources et les ressources configurés pour le cluster.
% scrgadm -p |
L'exemple ci-dessous présente les types de ressources (RT Name), les groupes de ressources (RG Name) et les ressources (RS Name) configurés pour la grappe schost.
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
Vous pouvez également exécuter cette procédure dans l'IUG de SunPlex Manager. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Vérification du statut des composants de cluster
% scstat -p |
L'exemple suivant fournit un échantillon des informations renvoyées par scstat(1M) à propos du statut des composants de cluster.
% scstat -p -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online Cluster node: phys-schost-3 Online Cluster node: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster Transport Paths -- Endpoint Endpoint Status -------- -------- ------ Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online ... -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d2s2 1 1 Online Device votes: /dev/did/rdsk/d8s2 1 1 Online ... -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: rmt/2 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: rmt/2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline ------------------------------------------------------------------ -- Resource Groups and Resources -- Group Name Resources ---------- --------- Resources: test-rg test_1 Resources: real-property-rg - Resources: failover-rg - Resources: descript-rg-1 - ... -- Resource Groups -- Group Name Node Name State ---------- --------- ----- Group: test-rg phys-schost-1 Offline Group: test-rg phys-schost-2 Offline ... -- Resources -- Resource Name Node Name State Status Message ------------- --------- ----- -------------- Resource: test_1 phys-schost-1 Offline Offline Resource: test_1 phys-schost-2 Offline Offline ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
Vous pouvez également exécuter cette procédure dans l'interface utilisateur graphique de SunPlex Manager. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Pour vérifier le statut des groupes IPMP, utilisez la commande scstat(1M).
L'exemple suivant fournit un échantillon des informations sur le statut des composants de cluster renvoyées par la commande scstat -i.
% scstat -i ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
Vous pouvez également exécuter cette procédure dans l'IUG de SunPlex Manager. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Affichage de la configuration du cluster
% scconf -p |
Pour de plus amples informations sur l'utilisation de la commande scconf , utilisez les options prolixes. Consultez la page man scconf(1M) pour plus d'informations.
L'exemple suivant illustre la configuration du cluster.
% scconf -p Cluster name: cluster-1 Cluster ID: 0x3908EE1C Cluster install mode: disabled Cluster private net: 172.16.0.0 Cluster private netmask: 192.168.0.0 Cluster new node authentication: unix Cluster new node list: <NULL - Allow any node> Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster node name: phys-schost-1 Node ID: 1 Node enabled: yes Node private hostname: clusternode1-priv Node quorum vote count: 1 Node reservation key: 0x3908EE1C00000001 Node transport adapters: hme1 qfe1 qfe2 Node transport adapter: hme1 Adapter enabled: yes Adapter transport type: dlpi Adapter property: device_name=hme Adapter property: device_instance=1 Adapter property: dlpi_heartbeat_timeout=10000 ... Cluster transport junctions: hub0 hub1 hub2 Cluster transport junction: hub0 Junction enabled: yes Junction type: switch Junction port names: 1 2 3 4 ... Junction port: 1 Port enabled: yes Junction port: 2 Port enabled: yes ... Cluster transport cables Endpoint Endpoint State -------- -------- ----- Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum devices: d2 d8 Quorum device name: d2 Quorum device votes: 1 Quorum device enabled: yes Quorum device name: /dev/did/rdsk/d2s2 Quorum device hosts (enabled): phys-schost-1 phys-schost-2 Quorum device hosts (disabled): ... Device group name: schost-3 Device group type: SVM Device group failback enabled: no Device group node list: phys-schost-3, phys-schost-4 Diskset name: schost-3 |
La commande sccheck( 1M) lance une série de contrôles visant à valider la configuration de base requise pour le fonctionnement correct de cluster. S'il n'y a pas d'erreur, la commande sccheck revient à l'invite du shell. En cas d'erreur, la commande sccheck crée un rapport dans le répertoire de sortie indiqué ou le répertoire de sortie par défaut. Si vous exécutez la commande sccheck sur plusieurs nœuds, celle-ci créera un rapport pour chaque nœud et un rapport pour les contrôles effectués sur plusieurs nœuds.
La commande sccheck fonctionne en deux temps : collecte de données et analyse. La collecte de données peut prendre un certain temps, en fonction de la configuration du système. Vous pouvez appeler la commande sccheck en mode détaillé à l'aide de l'indicateur -v1 pour imprimer des messages d'état, ou utiliser l'indicateur - v2 pour exécuter la commande sccheck en mode très détaillé, permettant d'imprimer des messages d'état plus précis, notamment lors de la collecte de données.
exécutez la commande sccheck chaque fois que vous avez effectué une procédure d'administration susceptible de modifier les périphériques, les composants de la gestion de volumes ou la configuration de Sun Cluster.
Devenez superutilisateur sur un nœud du cluster.
% su |
Vérifiez la configuration du cluster.
# sccheck |
L'exemple suivant illustre l'exécution de la commande sccheck en mode détaillé sur les nœuds phys-schost-1 et phys-schost-2 sans erreur au niveau des contrôles.
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
L'exemple suivant montre qu'il manque le point de montage /global/phys-schost-1 au nœud phys-schost-2 du cluster suncluster. Des rapports sont créés dans le répertoire de sortie /var/cluster/sccheck/myReports/.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
La commande sccheck(1M) inclut des vérifications qui examinent le fichier /etc/vfstab pour rechercher les erreurs de configuration du système de fichiers de cluster et de ses points de montage globaux.
exécutez la commande sccheck si vous avez apporté à la configuration de cluster des modifications ayant une incidence sur les périphériques ou les composants de gestion des volumes.
Devenez superutilisateur sur un nœud du cluster.
% su |
Vérifiez la configuration du cluster.
# sccheck |
L'exemple suivant montre qu'il manque le point de montage /global/schost-1 au nœud phys-schost-2 du cluster suncluster. Reports are being sent to the output directory /var/cluster/sccheck/myReports/
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |