Le Tableau 1-2 représente le point de départ de l'administration du cluster.
Tableau 1-2 Outils d'administration Sun Cluster 3.0
Si vous souhaitez... |
Alors... |
Pour plus d'informations, reportez-vous à... |
---|---|---|
Vous connecter au cluster à distance |
Utilisez la commande ccp pour lancer le logiciel CCP (Cluster Control Panel). Sélectionnez ensuite l'une des ictnes suivantes : cconsole, crlogin ou ctelnet. | |
Configurer le cluster de manière interactive |
Lancez l'utilitaire scsetup. | |
Afficher les informations de version et de mise à jour de Sun Cluster |
Utilisez la commande scinstall avec l'option -p ou -pv. |
"1.5.3 Affichage des informations de version et de mise à jour de Sun Cluster" |
Afficher les ressources installées, les groupes de ressources et les types de ressources |
Utilisez la commande scgradm -p. |
"1.5.4 Affichage des types de ressources, des groupes de ressources et des ressources configurés" |
Surveiller de fagon graphique les composants du cluster. |
Utilisez le module Sun Cluster pour le Sun Management Center. |
Aide en ligne du module Sun Cluster pour Sun Management Center |
Vérifier l'état des composants du cluster |
Utilisez la commande scstat. | |
Afficher la configuration du cluster |
Utilisez la commande scconf -p. | |
Vérifier les points de montage globaux |
Utilisez la commande sccheck. | |
Consulter les messages système Sun Cluster |
Examinez le fichier /var/adm/messages. |
Documentation administrative du système Solaris |
Surveiller l'état de Solstice DiskSuite |
Utilisez la commande metastat ou metatool. |
Documentation Solstice DiskSuite |
Surveiller l'état de VERITAS Volume Manager |
Utilisez la commande vxstat ou vxva. |
Documentation VERITAS Volume Manager |
Le logiciel CCP (Cluster Control Panel) permet de lancer les outils cconsole, crlogin et ctelnet. Ces trois outils ouvrent une connexion de plusieurs fenêtres vers un ensemble de noeuds précis. La connexion sur plusieurs fenêtres consiste en une fenêtre host pour chaque noeud spécifié et une fenêtre commune. Les données saisies dans la fenêtre commune sont envoyées à chacune des fenêtres hosts. Pour plus d'informations, reportez-vous aux pages de manuel ccp(1M) et cconsole(1M).
Vérifiez que les conditions suivantes sont remplies. Pour ouvrir le logiciel CCP (Cluster Control Panel), vous devez :
Installer le logiciel Sun Cluster qui convient (module SUNWccon) sur la console administrative.
Vous assurer que la variable PATH sur la console administrative comprend bien les répertoires d'outils Sun Cluster, /opt/SUNWcluster/bin et /usr/cluster/bin. Vous pouvez indiquer un autre emplacement pour le répertoire d'outils en définissant la variable d'environnement $CLUSTER_HOME.
Configurer les fichiers clusters, serialports et nsswitch.conf si vous utilisez un concentrateur de terminaux. Il peut s'agir de fichiers /etc ou de bases de données NIS/NIS+. Voir clusters(4) et serialports(4) pour plus d'informations.
Déterminez si vous disposez d'une plate-forme Sun Enterprise E10000 server.
Si ce n'est pas le cas, passez à l'Étape 3.
Si c'est le cas, connectez-vous au SSP (System Service Processor) en utilisant la commande netcon. Une fois connecté, tapez sur les touches Maj~@ pour déverrouiller la console et obtenir l'accès en écriture.
Ouvrez la fenêtre de lancement du logiciel CCP.
Entrez la commande suivante sur la console administrative :
# ccp nom_cluster |
La fenêtre de lancement du logiciel CCP apparaît.
Pour ouvrir une session à distance avec le cluster, cliquez sur l'ictne correspondante (console, crlogin ou ctelnet) dans la fenêtre de lancement du logiciel CCP.
L'exemple suivant illustre le logiciel CCP.
Vous pouvez également lancer les sessions cconsole, crlogin ou ctelnet à partir de la ligne de commande. Reportez-vous à cconsole(1M) pour obtenir davantage d'informations.
L'utilitaire scsetup(1M) permet de configurer de manière interactive les quorums, le transport des clusters, les noms d'hosts privés, les groupes de périphériques et les options des nouveaux noeuds pour le cluster.
Devenez superutilisateur sur un noeud du cluster.
Exécutez l'utilitaire scsetup.
# scsetup |
Le menu principal apparaît.
Choisissez une option dans le menu et suivez les instructions qui apparaissent à l'écran.
Pour plus d'informations, reportez-vous à l'aide en ligne de scsetup.
Pour effectuer ces procédures, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Affichez le numéro de version de Sun Cluster.
% scinstall -p |
Affichez le numéro de version de Sun Cluster et les chaînes de version de tous les modules Sun Cluster.
% scinstall -pv |
L'exemple suivant montre comment afficher le numéro de version du cluster.
3.0 |
L'exemple suivant montre comment afficher les informations de version du cluster et les informations de mise à jour de tous les modules.
% scinstall -pv SunCluster 3.0 SUNWscr: 3.0.0,REV=1999.10.20.15.01 SUNWscdev: 3.0.0,REV=1999.10.20.15.01 SUNWscu: 3.0.0,REV=1999.10.20.15.01 SUNWscman: 3.0.0,REV=1999.10.20.15.01 SUNWscsal: 3.0.0,REV=1999.10.20.15.01 SUNWscsam: 3.0.0,REV=1999.10.20.15.01 SUNWrsmop: 3.0.0,REV=1999.10.20.15.01 SUNWsci: 3.0,REV=1999.09.08.17.43 SUNWscid: 3.0,REV=1999.09.08.17.43 SUNWscidx: 3.0,REV=1999.09.08.17.43 SUNWscvm: 3.0.0,REV=1999.10.20.15.01 |
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Affichez les types de ressources, les groupes de ressources et les ressources configurés pour le cluster.
% scrgadm -p |
L'exemple suivant montre les types de ressources (RT Name), les groupes de ressources (RG Name) et les ressources (RS Name) configurés pour le cluster schost.
% scgradm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Vérifiez l'état des composants du cluster
% scstat -p |
L'exemple suivant donne un échantillon des informations d'état des composants de cluster renvoyées par la commande scstat(1M).
% scstat -p -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online Cluster node: phys-schost-3 Online Cluster node: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster Transport Paths -- Endpoint Endpoint Status -------- -------- ------ Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online ... -- Quorum Votes by Device -- Device Name Present Possible Status Owner ----------- ------- -------- ------ ----- Device votes: /dev/did/rdsk/d2s2 1 1 Online phys-schost-2 Device votes: /dev/did/rdsk/d8s2 1 1 Online phys-schost-4 ... -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: rmt/2 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: rmt/2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline ------------------------------------------------------------------ -- Resource Groups and Resources -- Group Name Resources ---------- --------- Resources: test-rg test_1 Resources: real-property-rg - Resources: failover-rg - Resources: descript-rg-1 - ... -- Resource Groups -- Group Name Node Name State ---------- --------- ----- Group: test-rg phys-schost-1 Offline Group: test-rg phys-schost-2 Offline ... -- Resources -- Resource Name Node Name State Status Message ------------- --------- ----- -------------- Resource: test_1 phys-schost-1 Offline Offline Resource: test_1 phys-schost-2 Offline Offline |
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Affichez la configuration du cluster.
% scconf -p |
L'exemple suivant illustre la configuration du cluster.
% scconf -p Cluster name: cluster-1 Cluster ID: 0x3908EE1C Cluster install mode: disabled Cluster private net: 172.16.0.0 Cluster private netmask: 255.255.0.0 Cluster new node authentication: unix Cluster new node list: <NULL - Allow any node> Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster node name: phys-schost-1 Node ID: 1 Node enabled: yes Node private hostname: clusternode1-priv Node quorum vote count: 1 Node reservation key: 0x3908EE1C00000001 Node transport adapters: hme1 qfe1 qfe2 Node transport adapter: hme1 Adapter enabled: yes Adapter transport type: dlpi Adapter property: device_name=hme Adapter property: device_instance=1 Adapter property: dlpi_heartbeat_timeout=10000 ... Cluster transport junctions: hub0 hub1 hub2 Cluster transport junction: hub0 Junction enabled: yes Junction type: switch Junction port names: 1 2 3 4 ... |
Junction port: 1 Port enabled: yes Junction port: 2 Port enabled: yes ... Cluster transport cables Endpoint Endpoint State -------- -------- ----- Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum devices: d2 d8 Quorum device name: d2 Quorum device votes: 1 Quorum device enabled: yes Quorum device name: /dev/did/rdsk/d2s2 Quorum device hosts (enabled): phys-schost-1 phys-schost-2 Quorum device hosts (disabled): ... Device group name: schost-3 Device group type: SDS Device group failback enabled: no Device group node list: phys-schost-3, phys-schost-4 Diskset name: schost-3 ... |
La commande sccheck(1M) permet de chercher dans le fichier /etc/vfstab les éventuelles erreurs de configuration par rapport au système de fichiers du cluster et des points de montage globaux. La commande sccheck renvoie simplement les erreurs. Si aucune erreur n'est détectée, la commande sccheck revient simplement à l'invite de l'Utilitaire Shell.
exécutez la commande sccheck si vous avez apporté à la configuration du cluster des modifications qui ont une incidence sur les périphériques ou les composants de gestion des volumes.
L'exemple suivant montre que le point de montage /global/schost-1 manque dans le noeud phys-schost-3.
# sccheck vfstab-check: WARNING - phys-schost-3 - Missing mount point /global/schost-1 |