Ce chapitre décrit la préparation nécessaire à l'administration du cluster ainsi que les procédures d'utilisation des outils d'administration de Sun Cluster.
Affichage des informations de version et de mise à jour de Sun Cluster
Affichage des types de ressources, groupes de ressources et ressources configurés
L'environnement haute disponibilité de Sun Cluster garantit aux utilisateurs finaux la disponibilité des applications décisives. L'administrateur système est chargé de s'assurer que Sun Cluster reste stable et opérationnel.
Familiarisez-vous avec les informations de planification du Guide d'installation du logiciel Sun Cluster 3.1 10/03 et du Guide des notions fondamentales de Sun Cluster 3.1 10/03 avant de débuter les tâches administratives. L'administration de Sun Cluster est organisée en tâches dans les manuels indiqués ci-dessous.
Tâches standard permettant d'administrer et de mettre à jour le cluster de manière régulière (quotidienne, par exemple). Ces tâches sont décrites dans le présent manuel.
Tâches de service de données, telles que l'installation, la configuration et la modification des propriétés. Ces tâches sont décrites dans le Sun Cluster 3.1 Data Service Planning and Administration Guide.
Tâches de service, par exemple ajout ou réparation de l'espace de stockage ou du matériel réseau. Ces tâches sont décrites dans le Sun Cluster Hardware Administration Manual for Solaris OS.
La plupart des tâches d'administration de Sun Cluster peuvent être effectuées sans interrompre le fonctionnement du cluster, sauf en cas de noeud unique. Pour les procédures nécessitant l'arrêt de l'ensemble du cluster, prévoyez celui-ci en dehors des heures de travail pour en minimiser l'impact sur le système. Si vous prévoyez d'arrêter le cluster ou l'un de ses noeuds, prévenez les utilisateurs à l'avance.
Vous pouvez effectuer des tâches administratives sur Sun Cluster en utilisant une interface utilisateur graphique ou la ligne de commande. La rubrique suivante propose une présentation des outils de la ligne de commande et de l'IUG.
Sun Cluster dispose de deux interfaces utilisateur graphiques vous permettant d'exécuter plusieurs tâches administratives sur votre cluster. Les outils concernant l'IUG sont SunPlexTM Manager et Sun Management Center. Le Chapitre 10 fournit de plus amples informations et des procédures sur la configuration de SunPlex Manager et de Sun Management Center. Pour obtenir des informations spécifiques sur l'utilisation de ces outils, consultez l'aide en ligne de chaque interface utilisateur graphique.
Vous pouvez effectuer la plupart des tâches administratives Sun Cluster interactivement via l'utilitaire scsetup(1M). Chaque fois que possible, les procédures administratives décrites dans ce manuel sont effectuées avec la commande scsetup.
L'utilitaire scsetup vous permet d'administrer les éléments du menu principal suivants :
quorum ;
groupes de ressources ;
interconnexion de clusters ;
groupes de périphériques et volumes ;
noms d'hôtes privés ;
nouveaux noeuds ;
autres propriétés du cluster.
L'utilitaire scsetup vous permet d'administrer les éléments du menu Groupes de ressources suivants :
créer un groupe de ressources ;
ajouter des ressources réseau à un groupe de ressources ;
ajouter une ressource de service de données à un groupe de ressources ;
mettre en ligne/hors ligne ou basculer un groupe de ressources ;
activer/désactiver une ressource ;
modifier les propriétés d'un groupe de ressources ;
modifier les propriétés d'une ressource ;
supprimer une ressource d'un groupe de ressources ;
supprimer un groupe de ressources ;
effacer l'indicateur d'erreur échec_arrêt d'une ressource.
Le tableau 1-1 répertorie les autres commandes que vous utilisez pour administrer Sun Cluster. Pour de plus amples informations, reportez-vous aux pages du manuel.
Tableau 1–1 Commandes d'interface de ligne de commande de Sun Cluster
Commande |
Description |
---|---|
Démarre l'accès à distance au cluster à partir de la console. |
|
À utiliser pour passer des adresses IP d'un adaptateur à un autre dans un groupe IPMP. |
|
Vérifie et valide la configuration de Sun Cluster pour garantir le bon fonctionnement de la configuration de base d'un cluster. |
|
Met à jour une configuration Sun Cluster. L'option -p répertorie les informations de configuration d'un cluster. |
|
Permet l'accès administratif à la configuration des ID de périphériques. |
|
Exécute le script d'administration global de périphériques namespace. |
|
Installe et configure le logiciel Sun Cluster. La commande peut être exécutée interactivement ou non-interactivement. L'option -p affiche les informations de version et de version des packages pour le logiciel Sun Cluster. |
|
Gère l'enregistrement des types de ressources, la création des groupes de ressources et l'activation des ressources dans un groupe. L'option -p permet d'afficher les informations sur les ressources, les groupes de ressources et les types de ressources installés. Remarque : les types de ressources, les groupes de ressources et les noms de propriétés des ressources ne sont pas sensibles a la casse lors de l'exécution de la commande scrgadm. |
|
Lance l'utilitaire de configuration interactive du cluster, qui génère la commande scconf et ses diverses options. |
|
Arrête l'ensemble du cluster. |
|
Fournit un aperçu ponctuel du statut du cluster. |
|
Applique des modifications qui affectent la maîtrise des noeuds et l'état des groupes de ressources et des groupes de périphériques de disques. |
Par ailleurs, vous pouvez utiliser d'autres commandes pour administrer la partie gestionnaire de volumes de Sun Cluster. Ces commandes dépendent du gestionnaire de volume spécifique utilisé dans votre cluster, Solstice DiskSuiteTM, VERITAS Volume Manager ou de Solaris Volume ManagerTM.
Cette rubrique décrit les procédures à suivre pour préparer l'administration de votre cluster.
Documentez les aspects matériels spécifiques à votre site au cours de l'adaptation de votre configuration Sun Cluster. Reportez-vous à la documentation relative à votre matériel lorsque vous modifiez ou mettez à jour le cluster afin d'enregistrer le travail d'administration. Vous pouvez également, pour faciliter l'administration, étiqueter les câbles et les connexions reliant les différents éléments du cluster.
Réduisez le temps nécessaire à l'entretien du cluster par un fournisseur de services tiers en conservant les enregistrements de votre configuration de cluster d'origine ainsi que les modifications qui ont suivi.
Vous pouvez utiliser une station de travail SPARC dédiée, appelée console administrative, pour administrer le cluster actif. En général, vous devez installer et exécuter le logiciel CCP (Cluster Control Panel) et les outils de l'interface graphique (GUI) sur la console administrative. Pour de plus amples informations sur le logiciel CCP, reportez-vous à la rubrique Connexion à distance à Sun Cluster. Pour consulter les instructions d'installation du Sun Management Center et des outils IUG SunPlex Manager, reportez-vous au Guide d'installation du logiciel Sun Cluster 3.1 10/03.
La console administrative n'est pas un noeud de cluster. Elle permet un accès à distance aux noeuds du cluster, via le réseau public ou via un concentrateur de terminaux sur le réseau.
Si votre cluster se compose d'un serveur Sun Enterprise TM 10000, vous devez vous connecter sur le System Service Processor (SSP) à partir de la console administrative. Se connecte à l'aide de la commande netcon(1M). Par défaut, netcon se connecte à un domaine Sun Enterprise 10000 via l'interface réseau. Si le réseau n'est pas accessible, vous pouvez utiliser netcon en mode “exclusif” en configurant l'option -f. Vous pouvez également envoyer ~* au cours d'une session netcon normale. L'une des solutions précédentes vous offre la possibilité de basculer sur l'interface série si le réseau devient inaccessible. Reportez-vous à netcon(1M) pour de plus amples informations.
Avec Sun Cluster, il n'est pas nécessaire d'utiliser une console administrative dédiée, bien qu'elle présente les avantages suivants :
Elle permet une gestion centralisée des clusters en regroupant les outils de gestion et de console sur la même machine.
Elle accélère la résolution des problèmes via Enterprise Services ou via votre fournisseur de services.
Sauvegardez votre cluster régulièrement. Même si Sun Cluster fournit un environnement HA avec des copies en miroir des données sur les périphériques de stockage, rien ne remplace les sauvegardes régulières. Sun Cluster peut résister à plusieurs défaillances, mais il n'empêche pas les erreurs d'utilisation ou celles commises par un programme, et encore moins les pannes graves. Vous devez donc mettre en place une procédure de sauvegarde pour éviter une perte de données.
Les informations suivantes doivent être incluses dans la sauvegarde :
toutes les partitions de système de fichiers ;
toutes les données de base de données (si vous exécutez des services de données SGDB) ;
les informations de partitionnement de tous les disques de cluster ;
le fichier md.tab si vous utilisez Solstice DiskSuite/Solaris Volume Manager comme gestionnaire de volume.
Le Tableau 1–2 représente un point de départ pour administrer votre cluster.
Tableau 1–2 Outils d'administration de Sun Cluster 3.1
Tâche |
Outil |
Documentation |
---|---|---|
Connexion au cluster à distance |
Utilisez la commande ccp pour lancer le logiciel CCP (Cluster Control Panel). Sélectionnez ensuite l'une des icônes suivantes : cconsole(1M), crlogin(1M) ou ctelnet(1M). | |
Configuration du cluster de manière interactive |
Lancez l'utilitaire scsetup( 1M). | |
Affichage des informations de version et de mise à jour de Sun Cluster |
Utilisez la commande scinstall (1M) avec les options -p ou -pv. |
Affichage des informations de version et de mise à jour de Sun Cluster |
Affichage des ressources, groupes de ressources et types de ressources installés Remarque : le type de ressources, le groupe de ressources et les noms de propriétés de ressources ne sont pas sensibles à la casse lors de l'exécution de scrgadm. |
Utilisez la commande scrgadm(1M) -p. |
Affichage des types de ressources, groupes de ressources et ressources configurés |
Contrôle graphique des composants du cluster |
Utilisez SunPlex Manager ou le module Sun Cluster pour Sun Management Center. |
L'aide en ligne de SunPlex Manager ou celle du module Sun Cluster pour Sun Management Center |
Administration graphique de certains composants du cluster |
Utilisez SunPlex Manager ou le module Sun Cluster pour Sun Management Center. |
Aide en ligne de SunPlex Manager ou du module Sun Cluster pour Sun Management Center |
Vérification du statut des composants du cluster |
Utilisez la commande scstat( 1M). | |
Vérification du statut des groupes IPMP sur le réseau public |
Utilisez la commande scstat( 1M) avec l'option -i. | |
Affichage de la configuration du cluster |
Utilisez la commande scconf( 1M) -p. | |
Vérification des points de montage globaux |
Utilisez la commande sccheck( 1M). | |
Consultation des messages système Sun Cluster |
Ouvrez le fichier/var/adm/messages. |
Collection de manuels administrateur système Solaris 9“Viewing System Messages” in System Administration Guide: Advanced Administration |
Contrôle du statut de Solstice DiskSuite |
Utilisez la commande metastat. |
Documentation de &Solstice DiskSuite/Solaris Volume Manager |
Contrôle du statut de VERITAS Volume Manager si vous exécutez Solaris 8 |
Utilisez la commande vxstat ou vxva. |
Documentation VERITAS Volume Manager |
Contrôle du statut de Solaris Volume Manager si vous exécutez Solaris 9 |
Utilisez la commande svmstat. |
Le Cluster Control Panel (CCP) propose un bloc de lancement pour les outils cconsole(1M) crlogin(1M) et ctelnet(1M). Ces trois outils ouvrent une connexion de plusieurs fenêtres vers un ensemble de noeuds précis. La connexion sur plusieurs fenêtres consiste en une fenêtre hôte pour chaque noeud spécifié et une fenêtre commune. Toute saisie dans la fenêtre commune est envoyée à chacune des fenêtres hôtes, ce qui vous permet d'exécuter des commandes simultanément sur tous les noeuds du cluster. Pour de plus amples informations, reportez-vous aux pages de manuel ccp(1M) et cconsole(1M).
Vérifiez que les conditions suivantes sont remplies avant de lancer le CCP.
Installez le package SUNWccon sur la console administrative.
Assurez-vous que la variable PATH sur la console administrative comprend bien les répertoires d'outils Sun Cluster, /opt/SUNWcluster/bin , et /usr/cluster/bin. Vous pouvez indiquer un autre emplacement pour le répertoire d'outils en définissant la variable d'environnement $CLUSTER_HOME.
Configurez les fichiers clusters , serialports et nsswitch.conf si vous utilisez un concentrateur de terminaux. Il peut s'agir de fichiers /etc ou de bases de données NIS/NIS+. Voir clusters( 4) et serialports( 4) pour de plus amples informations.
Déterminez si vous disposez d'une plate-forme Serveur Sun Enterprise 10000.
Si ça n'est pas le cas, passez à l'Étape 3.
Si oui, connectez-vous au SSP (System Service Processor) en utilisant la commande netcon. Une fois connecté, tapez sur les touches Maj~@ pour déverrouiller la console et obtenir l'accès en écriture.
Ouvrez la fenêtre de lancement du logiciel CCP.
Entrez la commande suivante sur la console administrative :
# ccp nom_cluster |
La fenêtre de lancement du logiciel CCP apparaît.
Pour ouvrir une session à distance avec le cluster, cliquez sur l'icône cconsole, crlogin ou ctelnet sur le bloc de lancement du logiciel CCP.
Vous pouvez également ouvrir une session cconsole, crlogin ou ctelnet à partir de la ligne de commande.
L'utilitaire scsetup( 1M) vous permet de configurer de manière interactive les options de quorum, groupes de ressources, transports de clusters, noms d'hôtes privés, groupes de périphériques et nouveaux noeuds du cluster.
Devenez superutilisateur sur un noeud du cluster.
Lancez l'utilitaire scsetup.
# scsetup |
Le menu principal apparaît.
Sélectionnez votre configuration dans le menu. Suivez les instructions à l'écran pour effectuer une tâche.
Pour de plus amples informations, reportez-vous à l'aide en ligne de scsetup.
Il n'est pas nécessaire d'être connecté en tant que superutilisateur pour exécuter ces procédures.
Affichez les numéros de patch de Sun Cluster.
Les versions mises à jour de Sun sont identifiées par le numéro de patch du produit principal plus la version de mise à jour.
% showrev -p |
Affichez le numéro de version de Sun Cluster et les chaînes de version de tous les packages Sun Cluster.
% scinstall -pv |
L'exemple suivant montre comment afficher le numéro de version du cluster.
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
L'exemple suivant illustre comment afficher les informations de version du cluster et les informations de mise à jour de l'ensemble des packages.
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
Vous pouvez également exécuter cette procédure dans l'IUG de SunPlex Manager. Reportez-vous au Chapitre 10. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Affichez les types de ressources, les groupes de ressources et les ressources configurés pour le cluster.
% scrgadm -p |
L'exemple suivant montre les types de ressources (RT Name), les groupes de ressources (RG Name) et les ressources (RS Name) configurés pour le cluster schost.
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
Vous pouvez également exécuter cette procédure dans l'IUG de SunPlex Manager. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Vérification du statut des composants de cluster
% scstat -p |
L'exemple suivant fournit un échantillon des informations renvoyées par scstat(1M) à propos du statut des composants de cluster.
% scstat -p -- Noeuds de cluster -- Nom du noeud Statut --------- ------ Noeud de cluster : phys-schost-1 Online Noeud de cluster : phys-schost-2 Online Noeud de cluster : phys-schost-3 Online Noeud de cluster : phys-schost-4 Online -------------------------------------------------------------------------------- -- Chemins de transport du cluster -- Extrémité Extrémité Statut -------- -------- ------ Chemin de transport : phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Chemin de transport : phys-schost-1:hme1 phys-schost-4:hme1 Path online ... -------------------------------------------------------------------------------- -- Récapitulatif du quorum -- Votes de quorum possibles : 6 Votes de quorum requis : 4 Votes de quorum actuels : 6 -- Votes de quorum par noeud -- Nom du noeud Statut actuel possible ------------ ------ ------ -------- Votes du noeud : phys-schost-1 1 1 Online Votes du noeud : phys-schost-2 1 1 Online ... -- Votes de quorum par périphérique -- Nom du périphérique Statut actuel possible ----------- ------ ------ -------- Votes du périphérique : /dev/did/rdsk/d2s2 1 1 Online Votes du périphérique : /dev/did/rdsk/d8s2 1 1 Online ... -- Serveurs du groupe de périphériques -- Groupe de périphériques Principal Secondaire ----------------------- --------- --------- Serveurs du groupe de périphériques : rmt/1 - - Serveurs du groupe de périphériques : rmt/2 - - Serveurs du groupe de périphériques : schost-1 phys-schost-2 phys-schost-1 Serveurs du groupe de périphériques : schost-3 - - -- Statut du groupe de périphériques -- Groupe de périphériques Statut ----------------------- ------ Statut du groupe de périphériques : rmt/1 Offline Statut du groupe de périphériques : rmt/2 Offline Statut du groupe de périphériques : schost-1 Online Statut du groupe de périphériques : schost-3 Offline -------------------------------------------------------------------------------- -- Ressources et groupes de ressources -- Nom du groupe Ressources ------------- --------- Ressources : test-rg test_1 Ressources : real-property-rg - Ressources : failover-rg - Ressources : descript-rg-1 - ... -- Groupes de ressources -- Nom du groupe Nom du noeud État ---------- ------------ ----- Groupe : test-rg phys-schost-1 Offline Groupe : test-rg phys-schost-2 Offline ... -- Ressources -- Nom de la ressource Nom du noeud État Message de Statut ------------------- ------------ ----- ----------------- Ressource : test_1 phys-schost-1 Offline Offline Ressource : test_1 phys-schost-2 Offline Offline -------------------------------------------------------------------------------- -- Groupes IPMP -- Nom du noeud Groupe Statut Adaptateur Statut --------- ------ ------ ------- ------ Groupe IPMP : phys-schost-1 sc_ipmp0 Online qfe1 Online Groupe IPMP : phys-schost-2 sc_ipmp0 Online qfe1 Online -------------------------------------------------------------------------------- |
Vous pouvez également exécuter cette procédure dans l'interface utilisateur graphique de SunPlex Manager. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Pour vérifier le statut des groupes IPMP, utilisez la commande scstat(1M).
L'exemple suivant fournit un échantillon des informations sur le statut des composants de cluster renvoyées par la commande scstat -i.
% scstat -i ----------------------------------------------------------------- -- Groupes IPMP -- Nom du noeud Groupe Statut Adaptateur Statut --------- ----- ------ ---------- ------ Groupe IPMP : phys-schost-1 sc_ipmp1 Online qfe2 Online Groupe IPMP : phys-schost-1 sc_ipmp0 Online qfe1 Online Groupe IPMP : phys-schost-2 sc_ipmp1 Online qfe2 Online Groupe IPMP : phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------------------ |
Vous pouvez également exécuter cette procédure dans l'IUG de SunPlex Manager. Pour plus d'informations, reportez-vous à l'aide en ligne de SunPlex Manager.
Pour effectuer cette procédure, il n'est pas nécessaire d'être connecté en tant que superutilisateur.
Affichage de la configuration du cluster
% scconf -p |
Pour de plus amples informations sur l'utilisation de la commande scconf , utilisez les options prolixes. Pour plus de détails, reportez-vous à la page de manuel scconf( 1M) .
L'exemple suivant montre la configuration du cluster.
% scconf -p Nom du cluster : cluster-1 ID du cluster : 0x3908EE1C Mode d'installation du cluster : disabled Réseau privé du cluster : 172.16.0.0 Masque de réseau privé du cluster : 255.255.0.0 Identification du nouveau noeud du cluster : unix Liste de nouveaux noeuds du cluster : <NULL - Autoriser n'importe quel noeud> Noeuds de cluster : phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Nom du noeud de cluster : phys-schost-1 ID noeud : 1 Noeud activé : yes Nom d'hôte privé du noeud : clusternode1-priv Nombre de votes de quorum du noeud : 1 Clé de réservation du noeud : 0x3908EE1C00000001 Adaptateurs de transport du noeud: hme1 qfe1 qfe2 Adaptateur de transport du noeud: hme1 Adaptateur activé : yes Type d'adaptateur de transport : dlpi Propriétés de l'adaptateur : device_name=hme Propriétés de l'adaptateur : device_instance=1 Propriétés de l'adaptateur : dlpi_heartbeat_timeout=10000 ... Jonctions de transport au sein du cluster : hub0 hub1 hub2 Jonction de transport au sein du cluster : hub0 Jonction activée : yes Type de jonction : switch Nom des ports de la jonction : 1 2 3 4 ... Port de la jonction : 1 Port activé : yes Port de la jonction : 2 Port activé : yes ... Cables de transport de cluster Extrémité Extrémité État --------- --------- ----- Câble de transport : phys-schost-1:hme1@0 hub0@1 Enabled Câble de transport : phys-schost-1:qfe1@0 hub1@1 Enabled Câble de transport : phys-schost-1:qfe2@0 hub2@1 Enabled Câble de transport : phys-schost-2:hme1@0 hub0@2 Enabled ... Périphériques de quorum : d2 d8 Nom du périphérique de quorum : d2 Votes du périphérique de quorum : 1 Périphérique de quorum activé : yes Nom du périphérique de quorum : /dev/did/rdsk/d2s2 Hôtes du périphérique de quorum (activés) : phys-schost-1 phys-schost-2 Hôtes du périphérique de quorum (désactivés) : ... Nom du groupe de périphériques : schost-3 Type de groupe de périphériques : SVM Rétablissement du groupe de périphériques activé : no Liste des noeuds du groupe de périphériques : phys-schost-3, phys-schost-4 Nom de l'ensemble de disque : schost-3 |
La commande sccheck( 1M) lance une série de contrôles visant à valider la configuration de base requise pour le fonctionnement correct d'un cluster. S'il n'y a pas d'erreur, la commande sccheck revient à l'invite du shell. En cas d'erreur, la commande sccheck crée un rapport dans le répertoire de sortie indiqué ou le répertoire de sortie par défaut. Si vous exécutez la commande sccheck sur plusieurs noeuds, celle-ci créera un rapport pour chaque noeud et un rapport pour les contrôles effectués sur plusieurs noeuds.
La commande sccheck fonctionne en deux temps : la collecte de données et l'analyse. La collecte de données peut prendre un certain temps, en fonction de la configuration du système. Vous pouvez appeler la commande sccheck en mode détaillé à l'aide de l'indicateur -v1 pour imprimer des messages d'état, ou utiliser l'indicateur - v2 pour exécuter la commande sccheck en mode très détaillé, permettant d'imprimer des messages d'état plus précis, notamment lors de la collecte de données.
exécutez la commande sccheck chaque fois que vous avez effectué une procédure d'administration susceptible de modifier les périphériques, les composants de la gestion de volumes ou la configuration de Sun Cluster.
Devenez superutilisateur sur un noeud du cluster.
% su |
Vérifiez la configuration du cluster.
# sccheck |
L'exemple suivant illustre l'exécution de la commande sccheck en mode détaillé sur les noeuds phys-schost-1 et phys-schost-2 sans erreur au niveau des contrôles.
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requête de données de l'explorateur et d'un rapport d'état du noeud à partir de phys-schost-1. sccheck: Requête de données de l'explorateur et d'un rapport d'état du noeud à partir de phys-schost-2. sccheck: phys-schost-1: Session de l'explorateur terminée. sccheck: phys-schost-1: Démarrage des vérifications de noeuds uniques. sccheck: phys-schost-1: Vérifications de noeuds uniques terminées. sccheck: phys-schost-2: Session de l'explorateur terminée. sccheck: phys-schost-2: Démarrage des vérifications de noeuds uniques. sccheck: phys-schost-2: Vérifications de noeuds uniques terminées. sccheck: Démarrage des vérifications de noeuds multiples. sccheck: Vérifications de noeuds multiples terminées # |
L'exemple suivant montre qu'il manque le point de montage /global/phys-schost-1 au noeud phys-schost-2 du cluster suncluster. Des rapports sont créés dans le répertoire de sortie /var/cluster/sccheck/myReports/.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requête de données de l'explorateur et d'un rapport d'état du noeud à partir de phys-schost-1. sccheck: Requête de données de l'explorateur et d'un rapport d'état du noeud à partir de phys-schost-2. sccheck: phys-schost-1: Session de l'explorateur terminée. sccheck: phys-schost-1: Démarrage des vérifications de noeuds uniques. sccheck: phys-schost-1: Vérifications de noeuds uniques terminées. sccheck: phys-schost-2: Session de l'explorateur terminée. sccheck: phys-schost-2: Démarrage des vérifications de noeuds uniques. sccheck: phys-schost-2: Vérifications de noeuds uniques terminées. sccheck: Démarrage des vérifications de noeuds multiples. sccheck: Vérifications de noeuds multiples terminées. sccheck: Une ou plusieurs vérifications ont échoué. sccheck: Le niveau de gravité le plus élevé des échecs de vérifications était 3 (HIGH). sccheck: Les rapports sont dans /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
La commande sccheck(1M) permet de rechercher dans le fichier /etc/vfstab des erreurs éventuelles de configuration par rapport au système de fichiers du cluster et de ses points de montage globaux.
exécutez la commande sccheck si vous avez apporté à la configuration de cluster des modifications ayant une incidence sur les périphériques ou les composants de gestion des volumes.
Devenez superutilisateur sur un noeud du cluster.
% su |
Vérifiez la configuration du cluster.
# sccheck |
L'exemple suivant montre qu'il manque le point de montage /global/schost-1 au noeud phys-schost-2 du cluster suncluster. Des rapports sont transmis au répertoire de sortie /var/cluster/sccheck/myReports/
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requête de données de l'explorateur et d'un rapport d'état du noeud à partir de phys-schost-1. sccheck: Requête de données de l'explorateur et d'un rapport d'état du noeud à partir de phys-schost-2. sccheck: phys-schost-1: Session de l'explorateur terminée. sccheck: phys-schost-1: Démarrage des vérifications de noeuds uniques. sccheck: phys-schost-1: Vérifications de noeuds uniques terminées. sccheck: phys-schost-2: Session de l'explorateur terminée. sccheck: phys-schost-2: Démarrage des vérifications de noeuds uniques. sccheck: phys-schost-2: Vérifications de noeuds uniques terminées. sccheck: Démarrage des vérifications de noeuds multiples. sccheck: Vérifications de noeuds multiples terminées. sccheck: Une ou plusieurs vérifications ont échoué. sccheck: Le niveau de gravité le plus élevé des échecs de vérifications était 3 (HIGH). sccheck: Les rapports sont dans /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |