Ce document fournit les informations suivantes pour le logiciel SunTM Cluster 3.0 5/02.
Les annexes de ce document comportent des fiches et des exemples qui vous aideront à planifier l'installation des services de données et du logiciel Sun Cluster 3.0 5/02.
Le tableau suivant répertorie les nouvelles fonctions et fonctionnalités qui nécessitent une mise à jour de la documentation de Sun Cluster. La seconde colonne identifie la documentation qui a été mise à jour. Contactez votre représentant commercial Sun pour obtenir une liste complète du matériel et des logiciels pris en charge.
Tableau 1-1 Nouvelles fonctions et fonctionnalités
Fonction ou fonctionnalité |
Mises à jour de la documentation |
---|---|
HAStoragePlus |
Le Supplément Sun Cluster 3.0 5/02 contient des mises à jour du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide et du Sun Cluster 3.0 12/01 Data Services Developer's Guide afin de prendre en charge le type de ressource HAStoragePlus. Le type de ressource HAStoragePlus sert à garantir le haut niveau de disponibilité d'un système de fichiers local dans l'environnement Sun Cluster. Le Sun Cluster 3.0 5/02 Error Messages Guide contient des explications sur les nouveaux messages d'erreur HAStoragePlus. |
Prioritized Service Management (RGOffload) |
Le Supplément Sun Cluster 3.0 5/02 contient de nouvelles procédures et des mises à jour du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide concernant la prise en charge de RGOffload. RGOffload permet à la grappe de libérer automatiquement les ressources d'un noeud dont les services de données décisifs ont besoin. Les groupes de ressources contenant des services de données non décisifs sont ainsi déchargés. Le Sun Cluster 3.0 5/02 Error Messages Guide explicite les nouveaux messages d'erreur RGOffload. |
Prise en charge de Sun Cluster Security Hardening pour des services de données supplémentaires |
Vous trouverez la documentation Sun Cluster Security Hardening à l'adresse http://www.sun.com/security/blueprints. Faites défiler la page jusqu'à l'en-tête Architecture pour accéder à l'article consacré à Sun Cluster Security Hardening. Pour de plus amples informations, reportez-vous à la section "Sun Cluster Security Hardening". |
Améliorations de SunPlex Agent Builder |
Le Supplément Sun Cluster 3.0 5/02 comporte des mises à jour du Sun Cluster 3.0 12/01 Data Services Developer's Guide afin de prendre en charge la création d'un GDS (service de données générique, un service de données unique et précompilé), au moyen de SunPlex Agent Builder. |
Désinstallation du logiciel Sun Cluster |
Le Supplément Sun Cluster 3.0 5/02 comporte de nouvelles procédures de désinstallation du logiciel, ainsi que des mises à jour des procédures apparentées dans le Guide d'installation du logiciel Sun Cluster 3.0 12/01 et le Guide d'administration système de Sun Cluster 3.0 12/01. La nouvelle option -r pour scinstall(1M) supprime le logiciel Sun Cluster d'un noeud. |
Mise à niveau vers le logiciel Sun Cluster 3.0 5/02 à partir des versions antérieures du logiciel Sun Cluster 3.0 |
Suivez les procédures de "Mise à niveau vers une version mise à jour du logiciel Sun Cluster 3.0" dans le Guide d'installation du logiciel Sun Cluster 3.0 12/01 afin de mettre à niveau une version antérieure du logiciel Sun Cluster. Consultez la section "Mise à niveau vers une version mise à jour du logiciel Sun Cluster 3.0 " pour consulter les corrections apportées aux instructions de mise à niveau de Solaris 8. |
Cette section inclut des informations supplémentaires sur les nouvelles fonctions et fonctionnalités.
Sun Cluster Security Hardening utilise les techniques de renforcement de l'environnement d'exploitation Solaris, recommandées par le programme Sun BluePrints, afin de renforcer la sécurité de base des grappes. Sun BluePrintsTM Solaris Security Toolkit procède à l'implémentation automatique de Sun Cluster Security Hardening.
Vous trouverez la documentation Sun Cluster Security Hardening à l'adresse http://www.sun.com/security/blueprints. A partir de cette URL, déroulez la liste jusqu'au titre Architecture afin de localiser l'emplacement de l'article "Securing the Sun Cluster 3.0 Software." Ce document explique la sécurisation de Sun Cluster 3.0 dans l'environnement Solaris 8. Cette description inclut l'utilisation du Solaris Security Toolkit et d'autres techniques de bonnes pratiques sécuritaires conseillées par les experts de Sun en matière de sécurité.
Sun Cluster Security Hardening prend en charge tous les services de données Sun Cluster 3.0 5/02 répertoriés dans le tableau ci-dessous, et ce dans l'environnement Solaris 8.
Sun Cluster Security Hardening prend en charge tous les services de données Sun Cluster 3.0 5/02 sur Solaris 8 uniquement. Security hardening n'est pas disponible pour Sun Cluster 3.0 5/02 sur Solaris 9.
Agent de service de données |
Version de l'application : reprise sur panne |
Version de l'application : à la carte |
---|---|---|
Serveur de messagerie Sun Cluster HA for iPlanet |
6.0 |
4.1 |
Sun Cluster HA for iPlanet Web Server |
6.0 |
4.1 |
1.3.9 |
1.3.9 |
|
Sun Cluster HA for SAP |
4.6D (32 et 64 bits) |
4.6D (32 et 64 bits) |
Sun Cluster HA for iPlanet Directory Server |
4.12 |
S.O. |
Sun Cluster HA for NetBackup |
3.4 |
S.O. |
Sun Cluster HA for Oracle |
8.1.7 et 9i (32 et 64 bit) |
S.O. |
Sun Cluster HA for Sybase ASE |
12.0 (32 bit) |
S.O. |
Sun Cluster Support for Oracle Parallel Server/Real Application Clusters |
8.1.7 et 9i (32 et 64 bit) |
S.O. |
Sun Cluster HA for DNS |
avec système d'exploitation |
S.O. |
Sun Cluster HA for NFS |
avec système d'exploitation |
S.O. |
Cette section décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.0 5/02.
Environnement d'exploitation et patchs : les versions de Solaris et les patchs pris en charge sont disponibles à l'adresse suivante :
Pour plus de détails, reportez-vous à la section "Patchs et niveaux de microprogrammes requis".
Gestionnaires de volumes
Sur Solaris 8 : Solstice DiskSuiteTM 4.2.1 et VERITAS Volume Manager 3.1.1 et 3.2.
Sur Solaris 9 : Solaris Volume Manager et VERITAS Volume Manager 3.2.
Systèmes de fichiers
Sur Solaris 8 : Solaris UFS et VERITAS File System 3.4.
Sur Solaris 9 : Solaris UFS et VERITAS File System 3.4.
Services de données (agents) : contactez votre représentant commercial Sun pour obtenir une liste complète des services de données et des versions d'applications pris en charge. Indiquez les noms des types de ressources à l'installation des services de données, à l'aide de l'utilitaire scinstall(1M), ainsi que lors de l'enregistrement des types de ressources associés au service de données, à l'aide de l'utilitaire scrgadm(1M).
Tableau 1-3 Services de données pris en charge pour le logiciel Sun Cluster 3.0 5/02
Service de données |
Type de ressource de Sun Cluster |
---|---|
Sun Cluster HA for Apache |
apache |
Sun Cluster HA for BroadVision One-To-One Enterprise |
bv |
Sun Cluster HA for DNS |
dns |
Sun Cluster HA for iPlanet Web Server |
iws |
Sun Cluster HA for NetBackup |
netbackup |
Sun Cluster HA for NFS |
nfs |
Sun Cluster HA for iPlanet Directory Server |
nsldap |
Sun Cluster HA for Oracle |
oracle |
Sun Cluster HA for SAP |
sap |
Sun Cluster HA for Sybase ASE |
sybase |
Sun Cluster Support for Oracle Parallel Server/Real Application Clusters |
S.O. |
Configuration minimale requise : le logiciel Sun Cluster 3.0 nécessite davantage de mémoire qu'un noeud opérant en conditions normales. Le supplément de mémoire requis correspond à 128 Mo plus dix pour cent. Par exemple, si un noeud autonome a normalement besoin de 1 Go de mémoire, il manque encore 256 Mo de mémoire pour atteindre la configuration minimale requise.
RSMAPI : le logiciel Sun Cluster prend en charge Remote Shared Memory Application Programming Interface (RSMAPI) sur les interconnexions RSM, comme PCI-SCI.
La fonction Public Network Management (PNM) ne sera pas prise en charge dans la prochaine version de Sun Cluster. La surveillance des adaptateurs de réseau et la reprise sur panne pour Sun Cluster seront désormais assurées par Solaris IP Multipathing.
La fonction PNM sert à configurer et à administrer la surveillance des cartes d'interface réseau et la reprise sur panne. Toutefois, les interfaces utilisateur du démon de PNM et les commandes d'administration de PNM sont obsolètes et seront retirées de la prochaine version de Sun Cluster. Il est donc vivement déconseillé de développer des outils reposant sur ces interfaces. Les interfaces suivantes sont officiellement prises en charge dans la version actuelle, mais devraient être supprimées ou modifiées dans la prochaine version de Sun Cluster.
pnmd(1M)
pnmconfig(4)
pnmstat(1M)
pnmset(1M)
pnmrtop(1M)
pnmptor(1M)
Lisez ce qui suit pour préparer l'adoption de IP Multipathing, effective dans la nouvelle version de Sun Cluster.
Avec l'intégration d'IP Multipathing dans la prochaine version, le modèle d'administration d'IP Multipathing de Solaris et les interfaces correspondantes devraient être utilisés pour gérer la disponibilité du réseau. Pour plus de détails, consultez le Manuel d'administration de Solaris IP Multipathing.
Solaris IP Multipathing impose que, pour les groupes IP Multipathing, chaque interface ait sa propre adresse IP utilisable uniquement par le démon IP Multipathing pour la surveillance de son bon fonctionnement. Avant d'adopter IP Multipathing, vous devez donc définir une adresse IP supplémentaire pour chaque interface (active et de sauvegarde) d'un groupe NAFO.
Prenez, par exemple, le groupe nafo0 du sous-réseau 75, composé de qfe0 et qfe4. Supposez que /etc/hostname.qfe0 comporte le nom d'hôte schostname-1, qui correspond à une adresse IP du sous-réseau 75. Pour préparer la future adoption de IP, vous devez définir deux adresses IP supplémentaires sur le sous-réseau 75, l'une pour qfe0 et l'autre pour qfe4. Pour plus de détails, consultez le Manuel d'administration de Solaris IP Multipathing.
IP Multipathing impose que toutes les interfaces d'un groupe IP Multipathing aient des adresses matérielles (MAC) distinctes ; ce qui revient à définir la propriété eeprom local-mac-address? sur true. Les cartes d'interface qui ne prennent pas cette fonctionnalité en charge sont les suivantes :
X1018A SunSwiftTM SBus Adapter
X1059A SunFastEthernetTM Adapter 2.0 SBus Card
Vous devrez remplacer ces cartes lors du passage à la version supérieure. Les groupes IP Multipathing à adaptateur unique peuvent fonctionner sans local-mac-address?=true, mais ces configurations ne sont pas optimales pour des installations à haut niveau de disponibilité. Pour plus de détails, consultez le Manuel d'administration de Solaris IP Multipathing.
La documentation utilisateur de Sun Cluster 3.0 5/02 est disponible en ligne sous le format AnswerBook2TM, pour une exploitation sur serveurs de documentation AnswerBook2. La documentation AnswerBook2 de Sun Cluster 3.0 5/02 comprend les collections suivantes :
La Collection Sun Cluster 3.0 5/02, qui comprend les manuels suivants :
Supplément Sun Cluster 3.0 5/02
Sun Cluster 3.0 5/02 Error Messages Guide
Guide d'installation du logiciel Sun Cluster 3.0 12/01
Guide d'administration système de Sun Cluster 3.0 12/01
Sun Cluster 3.0 12/01 Hardware Guide
Sun Cluster 3.0 12/01 Data Services Developer's Guide
Sun Cluster 3.0 12/01 Concepts
La collection Sun Cluster 3.0 12/01 Data Services, qui contient le manuel suivant :
Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide
Le Supplément Sun Cluster 3.0 5/02 contient des ajouts et des modifications de la documentation de Sun Cluster 3.0 12/01. Utilisez ce supplément avec les manuels de Sun Cluster 3.0 12/01 également fournis dans la collection de Sun Cluster 3.0 5/02 et dans la collection Sun Cluster 3.0 12/01 Data Services.
En outre, le site Web docs.sun.comSM vous permet d'accéder à la documentation de Sun Cluster sur Internet. Vous pouvez le parcourir ou y rechercher un titre de manuel ou un sujet particulier.
Le serveur de documentation AnswerBook2 n'est pas fourni sur le CD-ROM de documentation de Solaris 9. En cas d'utilisation de la version Solaris 9 du logiciel Sun Cluster 3.0 5/02 et si vous n'avez pas encore le logiciel serveur AnswerBook2, reportez-vous au site http://www.sun.com/software/ab2 pour télécharger le logiciel AnswerBook2. Vous y trouverez également les instructions d'installation et les notes de version. Vous pouvez également utiliser les versions PDF de la documentation. Vous les trouverez sur les CD-ROM Sun Cluster 3.0 5/02. Pour de plus amples informations, reportez-vous à la section "Fichiers PDF".
L'environnement d'exploitation Solaris 8 contient un logiciel serveur de documentation AnswerBook2. Ce logiciel figure sur le CD-ROM de la documentation Solaris 8, distinct du CD-ROM de l'environnement d'exploitation Solaris. Il vous faut le CD-ROM de la documentation Solaris 8 pour pouvoir installer un serveur de documentation AnswerBook2.
Si vous disposez d'un serveur de documentation AnswerBook2 installé sur votre site, vous pouvez l'utiliser pour exploiter les collections AnswerBook Sun Cluster. Sinon, installez un serveur de documentation sur une machine de votre site. Nous vous recommandons d'utiliser la console administrative comme interface d'administration avec votre grappe pour le serveur de documentation. N'utilisez pas un noeud de grappe comme serveur de documentation AnswerBook2.
Pour de plus amples informations sur l'installation d'un serveur de documentation AnswerBook2, chargez le CD-ROM de la documentation de Solaris sur un serveur et lisez les fichiers README.
Installez les documents AnswerBook2 Sun Cluster sur un système de fichiers, situé sur le même serveur que celui sur lequel vous installez le serveur de documentation. Les collections AnswerBook de Sun Cluster 3.0 12/01 sont fournies avec un script post-installation, qui ajoute automatiquement les documents à votre bibliothèque AnswerBook.
Notez les conditions suivantes pour installer vos serveurs AB.
Le logiciel du serveur requiert environ 34 Mo d'espace disque disponible sur le serveur et les collections de documents environ 600 Mo d'espace disque disponible sur le serveur.
Vous devez disposer d'un accès root (superutilisateur) au serveur de documentation.
Le serveur AnswerBook2 doit être équipé d'un lecteur de CD-ROM.
Si vous n'avez pas de serveur de documentation AnswerBook2 installé, il vous faut le CD-ROM de documentation de l'environnement d'exploitation Solaris 8 qui contient le logiciel et les instructions d'installation d'un serveur de documentation AnswerBook2.
Le CD-ROM Sun Cluster 3.0 5/02 contient la collection Sun Cluster 3.0 5/02. CD-ROM Sun Cluster 3.0 Agents 5/02 contient la collection Sun Cluster 3.0 12/01 Data Services.
Utilisez cette procédure pour installer les modules Sun Cluster AnswerBook pour les collections Sun Cluster 3.0 5/02 et Sun Cluster 3.0 12/01 Data Services.
Devenez superutilisateur du serveur qui exploite le serveur de documentation AnswerBook2.
Si vous avez déjà installé les collections AnswerBook Sun Cluster, supprimez les modules existants.
Si vous n'avez jamais installé de collection AnswerBook Sun Cluster, ignorez cette étape.
# pkgrm SUNWscfab SUNWscdab |
Insérez le CD-ROM Sun Cluster 3.0 5/02 ou le CD-ROM Sun Cluster 3.0 Agents 5/02 dans le lecteur de CD-ROM relié à votre serveur de documentation.
Le démon du gestionnaire de volumes, vold(1M), charge le CD-ROM automatiquement.
Placez-vous dans le répertoire correspondant au CD-ROM du module AnswerBook Sun Cluster.
Les modules AnswerBook se trouvent aux endroits suivants :
CD-ROM Sun Cluster 3.0 5/02
/cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
CD-ROM Sun Cluster 3.0 Agents 5/02
/cdrom/scdataservices_3_0_u3/components /SunCluster_Data_Service_Answer_Book_3.0/Packages
Utilisez la commande pkgadd(1) pour installer le module.
# pkgadd -d . |
Sélectionnez les modules des collections Sun Cluster 3.0 5/02 (SUNWscfab) et Sun Cluster 3.0 12/01 Data Services (SUNWscdab) à installer.
Dans le menu des options d'installation de pkgadd, choisissez heavy pour ajouter le module complet au système et mettre à jour le catalogue AnswerBook2.
Sélectionnez soit la collection Sun Cluster 3.0 5/02 (SUNWscfab) soit la collection Sun Cluster 3.0 12/01 Data Services (SUNWscdab).
Le module de collections de documents fourni sur chaque CD-ROM comprend un script d'installation automatique qui, après l'installation, ajoute la collection à la base de données du serveur de documentation et fait redémarrer le serveur. Vous pouvez maintenant consulter les AnswerBook Sun Cluster sur votre serveur de documentation.
Les CD-ROM Sun Cluster comportent un fichier PDF pour chaque livre du jeu de documentation de Sun Cluster.
Comme pour les AnswerBooks de Sun Cluster, sept fichiers PDF figurent sur le CD-ROM Sun Cluster et un fichier PDF sur le CD-ROM des agents de Sun Cluster. Le nom de chaque fichier PDF est une abréviation du livre correspondant (voir TABLEAU 1-4)
Les fichiers PDF se trouvent aux endroits suivants :
CD-ROM Sun Cluster 3.0 5/02
/cdrom/suncluster_3_0_u3/SunCluster_3.0/Docs/locale/C/PDF
CD-ROM Sun Cluster 3.0 Agents 5/02
/cdrom/scdataservices_3_0_u3/components /SunCluster_Data_Service_Answer_Book_3.0/Docs/locale/C/PDF
CD-ROM |
Abréviation PDF |
Titre de manuel |
---|---|---|
CD-ROM Sun Cluster 3.0 5/02 |
CLUSTSUPP |
Supplément Sun Cluster 3.0 5/02 |
CLUSTINSTALL | Guide d'installation du logiciel Sun Cluster 3.0 12/01 | |
CLUSTNETHW | Sun Cluster 3.0 12/01 Hardware Guide | |
CLUSTAPIPG | Sun Cluster 3.0 12/01 Data Services Developer's Guide | |
CLUSTSYSADMIN |
Guide d'administration système de Sun Cluster 3.0 12/01 |
|
CLUSTCONCEPTS |
Sun Cluster 3.0 12/01 Concepts |
|
CLUSTERRMSG | Sun Cluster 3.0 5/02 Error Messages Guide | |
CD-ROM Sun Cluster 3.0 Agents 5/02 |
CLUSTDATASVC |
Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide |
Les restrictions suivantes concernent la version Sun Cluster 3.0 5/02 :
Types de transport RSM (Remote Shared Memory) : Ces types de transport ne sont pas pris en charge, même si la documentation y fait parfois référence. Si vous utilisez l'interface RSMAPI, indiquez dlpi comme type de transport.
Interface SCI (Scalable Coherent Interface) : L'interface SCI SBus n'est pas prise en charge comme interconnexion de grappe. Par contre, l'interface PCI-SCI est prise en charge.
Interfaces de réseau logique : L'usage de ces interfaces est réservé au logiciel Sun Cluster 3.0.
Surveillance des chemins de disque : Seuls les chemins de disque actifs (à partir du noeud primaire actuel) sont surveillés par le logiciel Sun Cluster afin de détecter les éventuelles défaillances. Vous devez surveiller manuellement les chemins de disque pour empêcher toute double défaillance ou la perte du chemin d'accès à un périphérique de quorum.
SunVTSTM : Non pris en charge.
Bande, CD-ROM et DVD-ROM multihôte : non pris en charge.
LOFS (Loopback File System) : Le logiciel Sun Cluster 3.0 12/01 Concepts ne prend pas en charge l'utilisation d'un système de fichiers LOFS sur les noeuds de grappe.
Exécution d'applications clients sur les noeuds de la grappe : Les applications clients exécutées sur la grappe ne peuvent en aucun cas faire référence à des adresses IP logiques faisant partie d'un service de données HA. Durant une reprise sur panne, il se pourrait en effet que ces adresses IP logiques disparaissent et que le client devienne donc dépourvu de toute connexion.
Exécution de processus à haut niveau de priorité qui programment des classes sur les noeuds de grappe : Non prise en charge. N'exécutez jamais sur un noeud de grappe, quel qu'il soit, des processus qui s'exécutent dans la classe de programmation à temps partagé, avec un niveau de priorité supérieur à la normale, ni des processus qui s'exécutent dans la classe de programmation en temps réel. Sun Cluster 3.0 s'appuie sur des threads du noyau qui ne s'exécutent pas dans la classe de programmation en temps réel. D'autres processus à temps partagé qui s'exécutent avec une priorité supérieure à la normale ou ceux en temps réel peuvent empêcher les threads du noyau de Sun Cluster d'acquérir les cycles CPU requis.
Quotas de systèmes de fichiers : La configuration de Sun Cluster 3.0 ne prend pas en charge les quotas.
Le logiciel Sun Cluster 3.0 ne peut fournir des services qu'aux services de données fournis avec Sun Cluster ou configurés à l'aide de l'API de services de données de Sun Cluster.
N'utilisez pas de noeuds de grappe comme serveurs de courrier, car l'environnement Sun Cluster ne prend pas en charge le sous-système sendmail(1M). Aucun répertoire de courrier ne doit résider sur les noeuds Sun Cluster.
Ne configurez pas les noeuds de grappe comme routeurs (passerelles). Si le système devient indisponible, les clients ne pourront pas trouver d'autre routeur et, de ce fait, ne pourront pas procéder à une reprise sur panne.
Ne configurez pas les noeuds de grappe comme serveurs NIS ou NIS+. Les noeuds de grappe peuvent toutefois être des clients NIS ou NIS+.
N'utilisez pas de configuration Sun Cluster pour fournir un service d'initialisation ou d'installation à haut niveau de disponibilité sur des systèmes clients.
N'utilisez pas de configuration Sun Cluster 3.0 pour fournir un service rarpd.
A l'heure actuelle, seules les plates-formes matérielles suivantes prennent en charge le RAID de niveau 5 :
Matrices Sun StorEdge A5x00/A3500FC.
Matrices Sun StorEdge T3 et T3+. Notez, toutefois, que si vous utilisez ces matrices dans une configuration à contrôleur unique, vous devez utiliser un mécanisme supplémentaire pour la redondance des données, comme un miroir sur hôte. Si ces matrices sont utilisées dans une configuration "partner-group", les contrôleurs sont redondants. Vous pouvez donc utiliser RAID 5 sans miroir sur hôte.
AP (Alternate Pathing) n'est pas pris en charge.
Si vous utilisez un serveur Sun EnterpriseTM 420R équipé d'une carte PCI dans l'emplacement J4701, la carte mère doit être au moins de niveau 15 (501-5168-15 ou supérieure). La référence de la carte mère et son niveau de révision figurent sur la tranche de la carte, à proximité de l'emplacement PCI 1.
Des paniques du système ont été observées dans le cas de grappes où des cartes UDWIS E/S sont insérées dans l'emplacement 0 d'une carte mère d'un serveur Sun Enterprise 10000 ; évitez donc d'installer des cartes E/S UDWIS dans l'emplacement 0 de la carte mère d'un tel serveur (reportez-vous à la section "Bogue nº 4490386").
Dans les configurations Solstice DiskSuite qui utilisent des médiateurs, chaque ensemble de disques doit être associé à exactement deux hôtes médiateurs.
DiskSuite Tool (metatool) n'est pas compatible avec le logiciel Sun Cluster 3.0.
L'utilisation conjointe de VxVM Dynamic Multipathing (DMP) et du logiciel Sun Cluster 3.0 pour gérer plusieurs chemins à partir d'un même noeud n'est pas prise en charge.
Les groupes simples de disques root (rootdg créés sur une même tranche du disque root) ne sont pas pris en charge en tant que types de disque avec VxVM sur le logiciel Sun Cluster.
RAID 5 n'est pas pris en charge.
La commande umount -f se comporte exactement de la même façon que la commande umount sans l'option -f. Elle ne prend pas en charge les démontages forcés.
Seuls les répertoires vides ne prennent pas en charge la commande unlink (1M).
La commande lockfs -d n'est pas prise en charge. Utilisez la commande lockfs -n à la place.
Le système de fichiers de grappe ne prend en charge aucune des fonctions des systèmes de fichiers Solaris qui permettent de placer une marque de fin de communication dans l'espace de noms du système de fichiers. Par conséquent, même si vous pouvez créer une socket domaine UNIX portant le nom d'un nom de chemin dans le système de fichiers de la grappe, cette socket ne résisterait pas à une reprise sur panne du noeud. En outre, aucun fifo ou tube nommé créé sur un système de fichiers n'est globalement accessible, et vous devez éviter d'essayer d'employer la commande fattach à partir de n'importe quel noeud autre que le noeud local.
L'exécution de fichiers binaires de systèmes de fichiers, montés par le biais de l'option de montage forcedirectio, n'est pas prise en charge.
La configuration Sun Cluster 3.0 ne prend pas en charge les fonctions VxFS suivantes :
Quick I/O (E/S rapide)
Snapshots (instantanés)
Storage checkpoints (points de contrôle du stockage)
Les avis de cache (s'ils sont utilisés, ils ne s'appliquent qu'au noeud sélectionné)
VERITAS CFS (nécessite la fonction de grappe VERITAS & VCS)
Toutes les autres fonctions et options VxFS prises en charge dans une configuration de grappe sont également prises en charge par le logiciel Sun Cluster 3.0. Consultez la documentation de VxFS et les pages de manuel pour plus de détails sur les options de VxFS prises en charge ou non dans une configuration de grappe.
La configuration Sun Cluster 3.0 ne prend pas en charge les fonctions VxFS suivantes :
convosync (Convert O_SYNC) convosyncO_SYNC
mincache
qlog, delaylog, tmplog
Pour un système de fichiers de grappe VxFS, vous devez monter et démonter globalement le système de fichiers de la grappe à partir du noeud primaire (le noeud maître du disque sur lequel réside le système de fichiers VxFS) afin de garantir la réussite de l'opération. Tout montage ou démontage d'un système de fichiers VxFS à partir d'un noeud secondaire risque d'échouer.
Pour un système de fichiers VxFS, vous devez exécuter ioctls à partir du noeud primaire uniquement. Chaque fois que vous avez des doutes quant à l'implication de ioctls dans une commande d'administration, exécutez toujours cette commande à partir du noeud principal.
Pour administrer un système de fichiers VxFS, vous devez exécuter toutes les commandes d'administration de VxFS à partir du noeud primaire du système de fichiers de la grappe de VxFS.
Toutes les cartes de réseau public doivent faire partie de groupes NAFO.
Un sous-réseau IP ne contient qu'un seul groupe NAFO pour chaque noeud. Le logiciel Sun Cluster 3.0 ne prend pas en charge l'entrelacement IP, même sous sa forme la plus simple, où plusieurs adresses IP coexistent sur le même sous-réseau.
Un groupe NAFO ne peut pas contenir plusieurs cartes actives simultanément.
Le logiciel Sun Cluster 3.0 ne prend pas en charge le paramétrage local-mac-address?=true de la mémoire PROM de OpenBootTM.
Cette section décrit les restrictions liées à certains services de données. Aucune restriction ne s'applique à l'ensemble de services de données.
Les futures Notes de versions de Sun Cluster n'incluront pas les restrictions liées aux services de données qui ne s'appliquent qu'à des services de données spécifiques. Néanmoins, les Notes de version de Sun Cluster décriront toutes les restrictions de services de données s'appliquant à tous les services de données.
Pour plus de restrictions liées aux services de données et s'appliquant à certains services de données, consultez le Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.
Adhérez à l'option Oracle Parallel Fail Safe/Real Application Clusters Guard de Oracle Parallel Server/Real Application Clusters, car vous ne pourrez plus modifier les noms d'hôtes après avoir installé le logiciel Sun Cluster.
Pour de plus amples informations sur cette restriction liée aux noms d'hôte/noms de noeud, voir la documentation de Oracle Parallel Fail Safe/Real Application Clusters Guard.
Si le client NetBackup VERITAS est une grappe, un seul hôte logique peut être configuré comme client car il n'y a qu'un seul fichier bp.conf.
Si le client NetBackup est une grappe et si l'un des hôtes logiques de la grappe est configuré comme client NetBackup, NetBackup ne peut pas sauvegarder les hôtes physiques.
Sur la grappe qui exploite le serveur maître, le serveur maître est le seul hôte logique qui puisse être sauvegardé.
Aucun support de sauvegarde ne peut être relié au serveur maître, il faut donc installer un ou plusieurs serveur(s) de support.
Aucun noeud Sun Cluster ne peut être le client NFS d'un système de fichiers exporté Sun Cluster HA for NFS-, sous la maîtrise d'un noeud de la même grappe. Un tel montage croisé de Sun Cluster HA for NFS est interdit. Utilisez le système de fichiers de grappe pour répartir les fichiers entre les noeuds de grappe.
Les applications exécutées localement sur la grappe ne doivent pas verrouiller les fichiers sur un système de fichiers exporté via NFS. Sinon, un blocage local (par exemple, flock(3UCB) ou fcntl (2)) risque d'empêcher le gestionnaire de verrouillage (lockd) de redémarrer. Au redémarrage, il est possible qu'un processus local bloqué soit verrouillé et que seul un client distant puisse le déverrouiller. Le comportement qui s'en suit est imprévisible.
Sun Cluster HA for NFS exige que tous les montages de clients NFS soient des montages "rigides".
Avec Sun Cluster HA for NFS, n'utilisez pas d'alias de noms d'hôtes pour les ressources réseau. Si des clients NFS montent des systèmes de fichiers de grappe qui utilisent des alias de noms d'hôtes, ces clients risquent des problèmes de reprise dans le cas d'un verrouillage statd.
Le logiciel Sun Cluster 3.0 ne prend pas en charge l'option Secure NFS ni l'utilisation conjointe de Kerberos et de NFS, et en particulier les options secure et kerberos appliquées au sous-système share_nfs(1M). Néanmoins, le logiciel Sun Cluster 3.0 prend en charge l'utilisation de ports sécurisés pour NFS en ajoutant l'entrée set nfssrv:nfs_portmon=1 au fichier /etc/system sur les noeuds de la grappe.
Les instructions ci-dessous s'appliquent à la version Sun Cluster 3.0 5/02.
Cette instruction répond au problème relatif au bogue nº 4499573. Il s'est avéré que la fonctionnalité correspondante fonctionnait correctement. En tant que tel, le Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide doit refléter l'instruction suivante.
En cas d'utilisation de services de données demandant beaucoup d'E/S et ayant un grand nombre de disques configurés dans la grappe, il se peut que l'application ait un retard en raison des nouvelles tentatives dans le sous-système E/S pendant les défaillances du disque. Il se peut que le sous-système E/S prenne plusieurs minutes pour réessayer et récupérer après une défaillance du disque. En raison de ce retard, il se peut que Sun Cluster passe l'application sur un autre noeud, même si le disque a finalement récupéré sur le sien. Afin d'éviter toute reprise sur panne dans ce cas, vous pouvez augmenter la temporisation par défaut du service de données. Contactez l'assistance technique locale pour de plus amples informations sur l'augmentation de la temporisation des services de données.
Identifiez la configuration minimale requise par l'ensemble des services de données avant d'installer Solaris et Sun Cluster. Sinon vous risquez de faire des erreurs d'installation et vous devrez réinstaller complètement les logiciels Solaris et Sun Cluster.
Par exemple, l'option Oracle Parallel Fail Safe/Real Application Clusters Guard de Oracle Parallel Server/Real Application Clusters impose certaines exigences quant aux noms d'hôtes et de noeuds utilisés dans la grappe. Vous devez en tenir compte avant l'installation du logiciel Sun Cluster car vous ne pourrez pas changer les noms d'hôtes après l'installation du logiciel Sun Cluster. Pour de plus amples informations sur les exigences relatives aux noms d'hôtes et aux noms des noeuds, consultez la documentation de Oracle Parallel Fail Safe/Real Application Clusters Guard.
Cette section donne des informations sur les patchs applicables aux configurations de Sun Cluster.
Le logiciel Sun Cluster inaugure l'utilisation de PatchPro, une solution de pointe de gestion des patchs, développée par Sun. Ce nouvel outil simplifie considérablement la sélection et le téléchargement des patchs pour l'installation ou la maintenance du logiciel Sun Cluster. PatchPro fournit un outil spécifique à Sun Cluster d'installation simplifiée des patchs en mode interactif, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers patchs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des patchs développés, pas uniquement des patchs de sécurité et de haut niveau de disponibilité.
Vous devez posséder un compte SunSolveSM pour consulter et télécharger les patchs du produit Sun Cluster. Si vous n'avez pas de compte, contactez votre représentant commercial ou technico-commercial Sun ou enregistrez-vous sur le site Web SunSolve Online.
Pour accéder à l'outil PatchPro pour le logiciel Sun Cluster, allez à l'adresse http://www.sun.com/PatchPro/, cliquez sur "Sun Cluster," puis choisissez Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre grappe et télécharger les patchs applicables.
Le site Web de SunSolve OnlineSM vous offre un accès permanent aux informations de dernière minute relatives aux patchs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve Online à l'adresse http://sunsolve.sun.com pour consulter les grilles actualisées des versions de logiciels, microprogrammes et patchs prises en charge.
Vous devez posséder un compte SunSolve pour consulter et télécharger les patchs du produit Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant commercial ou technico-commercial Sun ou enregistrez-vous sur le site Web SunSolve Online.
Pour obtenir des informations sur les patchs de Sun Cluster 3.0, utilisez le service SunSolve EarlyNotifierSM. Pour accéder aux informations du service EarlyNotifier, connectez-vous à SunSolve et sélectionnez la recherche simple dans le haut de la page principale. Dans la page Simple Search, cliquez sur EarlyNotifier et tapez Sun Cluster 3.0 dans le champ des critères de recherche. La page EarlyNotifier pour le logiciel Sun Cluster 3.0 s'ouvre.
Avant d'installer Sun Cluster 3.0 et d'appliquer des patchs à un élément de grappe (environnement d'exploitation Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou matériel de disque), consultez les informations EarlyNotifier et tous les fichiers README qui accompagnent les patchs. Les patchs appliqués à tous les noeuds de la grappe doivent être de même niveau pour que la grappe puisse fonctionner correctement.
Pour connaître les procédures spécifiques aux patchs ainsi que les astuces d'administration des patchs, reportez-vous au document Guide d'administration système de Sun Cluster 3.0 12/01.
Pour consulter les termes de licence et d'attribution, ainsi que le copyright de mod_ssl, reportez-vous au fichier Sun Cluster 3.0 README sur le CD-ROM Sun Cluster 3.0 5/02.
Cette section décrit la mise à niveau de Sun Management Center 2.1.1 vers Sun Management Center 3.0 sur une configuration Sun Cluster 3.0 5/02.
Cette procédure permet d'effectuer la mise à niveau de Sun Management Center 2.1.1 vers Sun Management Center 3.0 sur une configuration Sun Cluster 3.0 5/02.
Ayez les éléments suivants à portée de main :
CD-ROM Sun Cluster 3.0 5/02 ou chemin vers l'image du CD-ROM. Vous utiliserez le CD-ROM pour réinstaller les modules de Sun Cluster une fois effectuée la mise à niveau du logiciel Sun Management Center.
La documentation de Sun Management Center 3.0.
Les patchs de Sun Management Center 3.0 et ceux du module Sun Cluster, le cas échéant. Reportez-vous au document "Patchs et niveaux de microprogrammes requis" pour connaître l'emplacement des patchs et les instructions d'installation.
Arrêtez tous les processus de Sun Management Center en cours.
Si la console Sun Management Center est active, fermez-la.
Dans la fenêtre de la console, sélectionnez File>Exit dans la barre des menus.
Arrêtez les processus de l'agent Sun Management Center sur chacune des machines agent de Sun Management Center (noeud de grappe).
# /opt/SUNWsymon/sbin/es-stop -a |
Sur la machine serveur de Sun Management Center, arrêtez le processus serveur de Sun Management Center.
# /opt/SUNWsymon/sbin/es-stop -S |
En tant que superutilisateur, supprimez les modules de Sun Cluster des emplacements répertoriés dans le TABLEAU 1-5.
Vous devez supprimer tous les modules Sun Cluster de tous les emplacements. Sinon, la mise à niveau du logiciel Sun Management Center risque d'échouer en raison de problèmes de dépendance des modules. Une fois le logiciel Sun Management Center mis à niveau, vous procéderez à la réinstallation de ces modules à l'Étape 5.
# pkgrm module-package |
Emplacement |
Module à supprimer |
---|---|
Chaque noeud de la grappe |
SUNWscsam, SUNWscsal |
Console Sun Management Center |
SUNWscscn |
Serveur Sun Management Center |
SUNWscssv |
Serveur d'aide Sun Management Center |
SUNWscshl |
Effectuez la mise à niveau vers le logiciel Sun Management Center 3.0.
Suivez les procédures de mise à niveau de la documentation de Sun Management Center 3.0.
En tant que superutilisateur, supprimez les modules de Sun Cluster des emplacements répertoriés dans le TABLEAU 1-6.
Pour le logiciel Sun Management Center 3.0, vous devez installer le module du serveur d'aide SUNWscshl à la fois sur la console et sur le serveur d'aide.
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages # pkgadd module |
Emplacement |
Module à installer |
---|---|
Chaque noeud de la grappe |
SUNWscsam, SUNWscsal |
Console Sun Management Center |
SUNWscscn, SUNWscshl |
Serveur Sun Management Center |
SUNWscssv |
Serveur d'aide Sun Management Center |
SUNWscshl |
Appliquez les patchs de Sun Management Center et les patchs des modules de Sun Cluster sur chaque noeud de la grappe.
Relancez les processus agent, serveur et console de Sun Management Center sur toutes les machines impliquées.
Pour ce faire, suivez les procédures de la section "Démarrage de Sun Management Center" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.
Chargez le module Sun Cluster.
Pour ce faire, suivez les procédures de la section "Chargement du module Sun Cluster" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.
Si le module Sun Cluster a été chargé précédemment, déchargez-le et chargez-le à nouveau pour effacer toutes les définitions d'alarmes mises en cache sur le serveur. Pour décharger le module, sélectionnez Module>Unload Module dans la fenêtre Details de la console.
Cette section donne des compléments d'informations sur le module Sun Cluster 3.0 de l'interface graphique utilisateur Sun Management Center. Pour de plus amples informations sur la mise à niveau vers Sun Management Center 3.0, reportez-vous à la section "Mise à niveau du logiciel Sun Management Center".
A partir de la console du module Sun Cluster, vous pouvez créer, modifier l'état ou supprimer des ressources et des groupes de ressources. Pour y accéder, il vous suffit d'ouvrir la fenêtre Details de Sun Cluster et de sélectionner les options de votre choix dans l'arborescence ou dans les vues de la topologie.
La sous-arborescence Resource Group vous permet d'accéder aux assistants de création de ressources et groupes de ressources.
Un menu déroulant accompagne chaque tableau. Utilisez les options de ce menu pour créer des ressources et groupes de ressources, changer leur état ou les supprimer.
Options du nouveau menu déroulant et tableaux associés
Depuis le tableau Resource Group Status et le tableau Resource Group Properties :
Bring Online (mettre en ligne)
Take Offline (mettre hors ligne)
Delete Selected Resource Group (supprimer le groupe de ressources sélectionné)
Create New Resource Group (créer un nouveau groupe de ressources)
Create New Resource (créer une nouvelle ressource)
Depuis le tableau Resource Status et le tableau Resource Configuration :
Enable (activer)
Disable (désactiver)
Delete Resource (supprimer la ressource sélectionnée)
Create New Resource Group (créer un nouveau groupe de ressources)
Create New Resource (créer une nouvelle ressource)
Procédez comme suit pour accéder aux assistants de création d'une ressource ou d'un groupe de ressources.
Dans l'arborescence ou la vue topologique, cliquez deux fois sur Operating System>Sun Cluster.
Avec le bouton droit de la souris, cliquez sur l'entrée Resource Groups ou sur n'importe quelle entrée de la sous-arborescence Resource Groups.
Dans le menu déroulant, sélectionnez "Create New Resource Group" ou "Create New Resource".
Procédez comme suit pour utiliser les assistants de création, à partir des menus déroulants qui accompagnent les tableaux des ressources et des groupes de ressources.
Affichez le tableau des ressources ou celui des groupes de ressources.
Placez le curseur sur n'importe quelle cellule du tableau, à l'exception de celles de la ligne d'en-tête.
Cliquez avec le bouton droit de la souris.
Sélectionnez l'action voulue dans le menu déroulant.
Procédez comme suit pour supprimer une ressource ou un groupe de ressources, ou en modifier l'état. Utilisez les menus déroulants qui accompagnent les tableaux des ressources et groupes de ressources pour activer ou désactiver une ressource et mettre un groupe de ressources en ligne ou hors ligne.
Affichez le tableau des ressources ou celui des groupes de ressources.
Sélectionnez l'entrée que vous souhaitez modifier.
Sélectionnez la ressource ou le groupe de ressources que vous souhaitez supprimer
Pour modifier l'état d'une ressource ou d'un groupe de ressources, sélectionnez la cellule d'état qui figure sur la ligne correspondante.
Cliquez avec le bouton droit de la souris.
Choisissez l'une des tâches proposées par le menu déroulant, parmi :
Bring Online (mettre en ligne)
Take Offline (mettre hors ligne)
Enable (activer)
Disable (désactiver)
Delete Selected Resource Group (supprimer le groupe de ressources sélectionné)
Delete Resource (supprimer la ressource sélectionnée)
Lorsque vous supprimez une ressource ou un groupe de ressources ou que vous en modifiez l'état, le module Sun Cluster ouvre une fenêtre Probe Viewer. Si le module Sun Cluster effectue correctement la tâche choisie, la fenêtre Probe Viewer affiche le message Probe command returned no data. Dans le cas contraire, la fenêtre affiche un message d'erreur.
Consultez la documentation de Sun Management Center ainsi que l'aide en ligne correspondante, pour de plus amples informations sur Sun Management Center.
Les problèmes suivants ont une incidence sur le fonctionnement de Sun Cluster 3.0 5/02. Pour obtenir les informations les plus récentes, voir le Sun Cluster 3.0 5/02 Release Notes Supplement en ligne à l'adresse http://docs.sun.com.
Récapitulatif du problème : Lorsqu'une grappe utilise des serveurs Sun Enterprise 10000, ceux-ci ont tendance à ne plus savoir comment se comporter lorsque les cartes E/S sont configurées d'une telle façon.
Solution : N'installez pas de cartes E/S UDWIS dans l'emplacement 0 d'une carte E/S SBus de serveurs Sun Enterprise 10000 en grappe.
Récapitulatif du problème : Le blocage d'enregistrements ne fonctionne pas sur un ou plusieurs autre(s) noeud(s) lorsque le périphérique essayant de se verrouiller est un périphérique global, par exemple /dev/global/rdsk/d4s0.
La fonction semble marcher normalement lorsque le programme est exécuté à plusieurs reprises dans l'arrière-plan d'un noeud déterminé. Le comportement attendu est que, après que la première copie du programme verrouille une partie du périphérique, les copies suivantes se bloquent et attendent que le périphérique soit déverrouillé. Néanmoins, lorsque le programme est exécuté à partir d'un noeud différent, il arrive à verrouiller à nouveau le périphérique, alors que, en fait, il devrait se bloquer et attendre le déverrouillage du périphérique.
Solution : Il n'y a pas de solution pour l'instant.
Récapitulatif du problème : Lors du passage au logiciel Solaris 8 10/01 (obligatoire pour la mise à niveau de Sun Cluster 3.0 12/01) dans une configuration Sun Cluster, les scripts Apache de début et de fin sont restaurés. Si un service de données Apache (Sun Cluster HA for Apache) est déjà présent sur la grappe et est paramétré sur la configuration par défaut (le fichier /etc/apache/httpd.conf existe et le fichier /etc/rc3.d/S50apache n'existe pas), l'application Apache démarre toute seule, indépendamment du service de données Sun Cluster HA for Apache. Cela empêche le lancement du service de données, car l'application Apache est déjà en cours d'exécution.
Solution : Procédez comme suit sur chaque noeud.
Avant d'arrêter un noeud que vous souhaitez mettre à niveau, voyez si les liens suivants existent et, si c'est le cas, si les noms de fichiers comportent un K ou un S majuscule.
/etc/rc0.d/K16apache /etc/rc1.d/K16apache /etc/rc2.d/K16apache /etc/rc3.d/S50apache /etc/rcS.d/K16apache |
Si ces liens existent et qu'un K ou un S majuscule figure dans le nom de fichier, vous n'avez rien à faire de plus. Sinon, passez à l'étape suivante, une fois que le logiciel Solaris 8 10/01 est installé sur le noeud.
Une fois que le logiciel Solaris 8 10/01 est installé sur le noeud, mais avant de réinitialiser le noeud, mettez de coté les liens Apache restaurés en insérant un k ou un s minuscule dans les noms de fichiers.
# mv /a/etc/rc0.d/K16apache /a/etc/rc0.d/k16apache # mv /a/etc/rc1.d/K16apache /a/etc/rc1.d/k16apache # mv /a/etc/rc2.d/K16apache /a/etc/rc2.d/k16apache # mv /a/etc/rc3.d/S50apache /a/etc/rc3.d/s50apache # mv /a/etc/rcS.d/K16apache /a/etc/rcS.d/k16apache |
Récapitulatif du problème : Sun Cluster HA for NFS impose files [SUCCESS=return] pour l'entrée de recherche hosts dans le fichier /etc/nsswitch.conf, et impose que toutes les adresses IP privées de la grappe soient présentes dans le fichier /etc/inet/hosts sur tous les noeuds de la grappe.
Sinon, Sun Cluster HA for NFS ne peut pas procéder correctement à la reprise sur panne en cas de défaillances du réseau public.
Solution : Effectuez les étapes suivantes sur chaque noeud de la grappe.
Modifiez l'entrée hosts dans le fichier /etc/nsswitch.conf de sorte que, en cas de réussite de résolution d'un nom localement, elle renvoie immédiatement la réussite et ne contacte ni NIS, ni DNS.
hosts: cluster files [SUCCESS=return] nis dns |
Ajoutez des entrées pour toutes les adresses IP privées de la grappe dans le fichier /etc/inet/hosts.
Vous devez uniquement répertorier les adresses IP présentes sur les interfaces privées physiques dans les fichiers /etc/nsswitch.conf et /etc/inet/hosts. Les adresses IP logiques sont déjà solutionnables via la bibliothèque de la grappe nsswitch.
Pour répertorier les adresses IP privées physiques, exécutez la commande suivante sur un noeud de la grappe.
% grep ip_address /etc/cluster/ccr/infrastructure |
Chaque adresse IP dans cette liste doit se voir attribuer un nom d'hôte distinct, différent des autres noms d'hôte du domaine.
Le logiciel Sun Cluster impose déjà que les adresses IP HA (LogicalHostname/SharedAddresses) soient présentes dans /etc/inet/hosts sur tous les noeuds de la grappe et que files soit répertorié avant nis ou dns. Les exigences supplémentaires imposées par ce bogue sont de répertorier [SUCCESS=return] après files et de répertorier toutes les adresses IP privées de la grappe dans le fichier /etc/inet/hosts.
Récapitulatif du problème : Rarement, il se peut que le chemin de transport d'interconnexion privée se terminant à un adaptateur qfe ne fonctionne pas correctement.
Solution : Procédez comme suit.
Identifiez l'adaptateur défectueux.
La commande Scstat -W doit normalement afficher tous les chemins de transport de cet adaptateur, en tant que points terminaux du chemin en état "faulted" ou "waiting".
Utilisez la commande scsetup(1M) pour supprimer de la configuration de la grappe tous les câbles connectés à cet adaptateur.
Utilisez à nouveau la commande scsetup pour supprimer cet adaptateur de la configuration de la grappe.
Ajoutez ensuite l'adaptateur et les câbles à la configuration de la grappe.
Vérifiez que le problème est bien résolu grâce aux étapes effectuées et que les chemins peuvent désormais revenir.
Si la suppression, puis l'ajout des câbles et de l'adaptateur ne fonctionnent pas, répétez la procédure à plusieurs reprises. Si le problème n'est toujours pas résolu, réinitialisez le noeud ayant l'adaptateur défectueux. Il est probable que le problème disparaîtra lors de l'initialisation du noeud. Avant de réinitialiser le noeud, assurez-vous que le reste de la grappe a suffisamment de votes de quorum pour résister à la réinitialisation du noeud.
Récapitulatif du problème : Si le démon rpc.pmfd surveille un processus qui scinde un nouveau processus en raison du traitement d'un signal, l'utilisation de pmfadm -k tag signal peut entraîner l'apparition d'une boucle infinie. Ceci peut se produire car la commande pmfadm(1M) tente d'éliminer tous les processus dans l'arborescence de la balise tandis que les processus nouvellement scindés sont ajoutés à l'arborescence (chacun étant ajouté à la suite de l'élimination du précédent).
Ce bogue n'apparaît normalement pas avec pmfadm -s tag signal.
Solution : Utilisez la commande pmfadm -s tag signal au lieu de pmfadm -k. L'option -s de la commande pmfadm n'a pas la même condition que l'option -k.
Récapitulatif du problème : L'utilisation simultanée de l'option de montage forcedirectio et de la fonction mmap(2) peut provoquer la corruption des données, ce qui entraîne l'arrêt ou la panique du système.
Solution : Respectez les restrictions suivantes.
Ne remontez jamais un système de fichiers avec l'option de montage directio ajoutée au temps de remontage.
Ne paramétrez pas l'option de montage directio sur un seul fichier au moyen de l'ioctl directio.
Si vous devez utiliser directio, montez l'ensemble du système de fichiers avec les options directio.
Récapitulatif du problème : Si vous essayez de monter le même périphérique sur différents points de monatge, le système capte la plupart du temps cette erreur et provoque l'échec du second montage. Néanmoins, il arrive parfois, dans de très rares circonstances, que le système ne puisse pas capter cette erreur, et qu'il permette donc aux deux montages de s'effectuer. C'est uniquement le cas lorsque les quatre conditions suivantes sont vérifiées.
Les deux montages ont lieu simultanément
Un seul et même périphérique est concerné par ces montages
Le périphérique est monté sur deux points de monatge différents
L'un des points de montage est global, l'autre est local.
Solution : L'administrateur système doit être attentif lors du montage des systèmes de fichiers sur la grappe.
Récapitulatif du problème : Il se peut que la commande scconf(1M) ne réminorise pas les groupes de disques VxVM dans certains cas et affiche un message d'erreur disant que le périphérique est déjà utilisé dans un autre groupe de périphériques.
Solution : Effectuez les tâches suivantes pour attribuer un nouveau code mineur au groupe de disques.
Cherchez les codes mineurs déjà utilisés.
Observez les codes mineurs utilisés avec le code majeur répertorié dans la sortie suivante.
% ls -l /dev/vx/rdsk/*/* crw------- 1 root root 210,107000 Mar 11 18:18 /dev/vx/rdsk/fix/vol-01 crw------- 1 root root 210,88000 Mar 15 16:31 /dev/vx/rdsk/iidg/vol-01 crw------- 1 root root 210,88001 Mar 15 16:32 /dev/vx/rdsk/iidg/vol-02 crw------- 1 root root 210,88002 Mar 15 16:33 /dev/vx/rdsk/iidg/vol-03 crw------- 1 root root 210,88003 Mar 15 16:49 /dev/vx/rdsk/iidg/vol-04 crw------- 1 root root 210,13000 Mar 18 16:09 /dev/vx/rdsk/sndrdg/vol-01 crw------- 1 root root 210,13001 Mar 18 16:08 /dev/vx/rdsk/sndrdg/vol-02 |
Choisissez n'importe quel multiple de 1000 non utilisé comme code mineur de base pour le nouveau groupe de disques.
Attribuez le code mineur non encore utilisé au groupe de disques en état de dysfonctionnement.
Utilisez l'option de réminorisation de la commande vxdg.
Essayez à nouveau la commande scconf qui avait échoué.
Récapitulatif du problème : Sur Solaris 9, la méthode d'arrêt du service de données Sun Cluster HA for Oracle peut temporiser en cas de panne du réseau public, si aucun service externe d'attribution de noms n'est disponible. Le service de données Sun Cluster HA for Oracle emploie la commande utilisateur su(1M) pour démarrer et arrêter la base de données.
Solution : Sur chaque noeud pouvant être primaire pour la ressource oracle_server ou oracle_listener, modifiez le fichier /etc/nsswitch.conf afin d'inclure les entrées suivantes pour les bases de données passwd, group, publickey et project.
passwd: files group: files publickey: files project: files |
Ces modifications garantissent que la commande su(1M) ne réfèrera pas aux services d'attribution de noms NIS/NIS+, et garantit que le service d'attribuion de noms démarre et s'arrête correctement en cas de panne du réseau public.
Récapitulatif du problème : L'utilisation de sendfile(3EXT) provoque la panique du noeud.
Solution : Il n'existe aucune solution à ce problème, hormis l'utilisation de sendfile.
Récapitulatif du problème : Sur Solaris 9, un noeud de grappe en cours de fermeture est susceptible de paniquer et d'afficher le message suivant en cours de fermeture.
CMM: Shutdown timer expired. Halting |
Solution : Il n'existe pas de solution à ce problème. La panique du noeud n'a pas d'autre effet secondaire et peut être considérée comme relativement bénigne.
Récapitulatif du problème : La création d'une ressource HAStoragePlus échoue si l'ordre des points de montage du système de fichiers spécifié dans la propriété d'extension FilesystemMountPoints n'est pas le même que l'ordre indiqué dans le fichier /etc/vfstab.
Solution : Assurez-vous que la liste des points de montage spécifiée dans la propriété d'extension FilesystemMountPoints correspond à la séquence indiquée dans le fichier /etc/vfstab. Par exemple, si le fichier /etc/vfstab spécifie les entrées du système de fichiers dans la séquence /a, /b, et /c, la séquence FilesystemMountPoints peut être "/a,/b,/c" ou "/a,/b" ou encore "/a,/c" mais pas "/a,/c,/b."
Récapitulatif du problème : La propriété d'extension Failover_enabled paramétrée sur FALSE est censée empêcher le moniteur de la ressource de lancer une reprise sur panne du groupe de ressources.
Néanmoins, si le moniteur essaie de redémarrer une ressource, et que la méthode START ou STOP échoue ou temporise, le moniteur essaie de transférer, quel que soit le paramétrage de Failover_enabled.
Solution : Il n'existe aucune solution à ce problème.
Récapitulatif du problème : Les groupes de périphériques basés sur partition logicielle Solstice DiskSuite sur un VxFS monté localement sont susceptibles de provoquer des erreurs si les commandes de commutation du groupe de périphériques (scswitch -D device-group) sont exécutées.
Solstice DiskSuite effectue en interne des opérations de resynchronisation miroir qui peuvent prendre un certain temps. Les resynchronisations miroir diminuent la redondance. VxFS rapporte des erreurs pour cette jonction et provoque des pannes E/S moniteur/application, ce qui entraîne le redémarrage de l'application.
Solution : Pour tout groupe de périphériques Solstice DiskSuite configuré avec HAStoragePlus, ne basculez pas manuellement le groupe de périphériques. En revanche, basculez le groupe de ressources, ce qui entraînera alors la bascule correcte des périphériques.
Vous pouvez également configurer les systèmes de fichiers VxFS montés localement sur les groupes de disques VxVM.
Récapitulatif du problème : Certains messages d'erreur n'ont pas été repris dans le CD-ROM Sun Cluster 3.0 5/02.
Solution : Vous trouverez l'explication de ces messages d'erreur dans "Nouveaux messages d'erreur".
Récapitulatif du problème : La commande fsck(1M) d'un système de fichiers résidant sur un groupe de périphériques Sun Cluster global Solstice DiskSuite/VxVM échoue s'il est executé à partir d'un noeud non primaire (secondaire). Nous avons constaté ce problème sur Solaris 9, mais il se peut que les versions antérieures n'aient pas ce comportement.
Solution : Invoquez uniquement la commande fsck sur le noeud primaire.
Récapitulatif du problème : Une ressource écouteur de Sun Cluster HA for Oracle ne se comporte pas correctement si plusieurs ressources écouteur sont configurées pour lancer les écouteurs avec le même nom d'écouteur.
Solution : N'utilisez pas le même nom d'écouteur pour les différents écouteurs d'une même grappe.
Récapitulatif du problème : La dissociation/séparation d'un plex d'un groupe de disques VxVM sous Sun Cluster 3.0 peut provoquer la panique du noeud de la grappe avec la chaîne de panique suivante :
panic[cpu2]/thread=30002901460: BAD TRAP: type=31 rp=2a101b1d200 addr=40 mmu_fsr=0 occurred in module "vxfs" due to a NULL pointer dereference |
Solution : Avant de dissocier/séparer un plex, démontez le système de fichiers correspondant.
Récapitulatif du problème : La reprise sur panne ne se produit pas lorsque la propriété du groupe de ressources auto_start_on_new_cluster est configurée sur false.
Solution : A chaque réinitialisation de l'ensemble de la grappe, pour les groupes de ressources ayant la propriété auto_start_on_new_cluster configurée sur false, paramétrez la propriété auto_start_on_new_cluster sur true, puis reconfigurez la propriété auto_start_on_new_cluster sur false.
# scrgadm -c -g rgname -y auto_start_on_new_cluster=true # scrgadm -c -g rgname -y auto_start_on_new_cluster=false |
Récapitulatif du problème : Pour les systèmes de fichiers VxFS montés globalement, le fichier /etc/mnttab est susceptible de ne pas afficher l'option globale.
Solution : Si une entrée /etc/mnttab est détectée sur tous les noeuds de la grappe pour le système de fichiers concerné, cela signifie que le système de fichiers est monté globalement.
Récapitulatif du problème : Lors du remontage d'un système de fichiers monté globalement, /etc/mnttab n'est pas mis à jour.
Solution : Il n'y a pas de solution pour l'instant.
Récapitulatif du problème : En cas d'utilisation de Sun Cluster HA for NFS avec HAStoragePlus, les verrouillages de blocage ne sont pas récupérés durant les reprises sur panne et les bascules. En conséquence, lockd ne peut pas être relancé par Sun Cluster HA for NFS, ce qui provoque l'échec de la méthode nfs_postnet_stop, avec pour résultat le blocage du noeud de la grappe.
Solution : N'utilisez pas Sun Cluster HA for NFS sur HAStoragePlus. Les systèmes de fichier de grappe ne rencontrent pas ce problème, et vous pouvez donc configurer Sun Cluster HA for NFS sur un système de fichiers de grappe pour éviter cette difficulté.
Récapitulatif du problème : Lors de l'élimination d'un serveur HTTP sur un noeud, un fichier PID reste sur le noeud. Lors du lancement suivant du serveur HTTP, il y a une vérification de l'existence du fichier PID et d'un processus éventuellement en cours avec le fichier PID (kill -0). Comme les PID sont recyclés, il se peut qu'il y ait un autre processus avec le même PID que celui du dernier serveur HTTP. Dans ce cas, le lancement du serveur HTTP échoue.
Solution : Si le serveur HTTP ne démarre pas avec un message d'erreur semblable à celui ci-dessous, supprimez manuellement le fichier PID du serveur HTTP afin de redémarrer correctement.
Mar 27 17:47:58 ppups4 uxwdog[939]: could not log PID to PidLog /app/iws/https-schost-5.example.com/logs/pid, server already running (No such file or directory) |
Récapitulatif du problème : Afin d'éviter de provquer une panique lors de l'utilisation des produits VERITAS comme VxFS avec le logiciel Sun Cluster, il faut augmenter la taille d'empilement des threads par défaut.
Solution : Augmentez cette taille en introduisant les lignes suivantes dans le fichier /etc/system.
set lwp_default_stksize=0x6000 set svc_default_stksize 0x8000 |
L'entrée svc_default_stksize est indispensable pour les opérations NFS.
Après l'installation des modules VERITAS, vérifiez que VERITAS n'a pas ajouté de lignes similaires dans le fichier /etc/system. Si tel est le cas, il faut les ramener à un argument au moyen de la valeur la plus élevée.
Récapitulatif du problème : Dans un groupe de périphériques comprenant plus de deux éléments avec une liste de noeuds ordonnée, si le noeud à supprimer n'est pas le dernier de la liste, la commande scconf affiche des informations partielles sur la liste de noeuds.
Solution :
Pour éviter que l'utilisateur ne rencontre ce problème, supprimez les noeuds un par un, en commençant par le dernier de la liste, jusqu'à la suppression du noeud souhaité. Ensuite, rajoutez les noeuds supprimés au groupe de périphériques.
Pour réparer l'état de la grappe lorsque vous rencontrez ce problème, procédez comme suit :
Arrêtez tous les périphériques (systèmes de fichiers, services de données) au moyen du groupe de périphériques.
Désenregistrez (supprimez) le groupe de périphériques de la mémoire de la grappe au moyen de scsetup(1m). Remarque : Veillez à laisser intact l'objet même du groupe de périphériques.
Réenregistrez le groupe de périphériques (comme s'il s'agissait d'un nouveau groupe) au moyen de scsetup(1m), en ajoutant la liste correcte des noeuds.
Lors du rajout dans le groupe de périphériques du noeud précédemment supprimé, donnez de façon explicite une liste ordonnée de l'ensemble des noeuds valides inclus.
Récapitulatif du problème : Après l'arrêt de l'un des Sun StorEdge T3 Array et de l'exécution de scshutdown, la réinitialisation des deux noeuds place la grappe dans un état de non fonctionnement.
Solution : En cas de perte de la moitié des répliques, procédez comme suit :
Assurez-vous que la grappe est en mode grappe.
Importez obligatoirement l'ensemble de disques.
# metaset -s nom_ensemble -f -C take |
Supprimez les répliques endommagées.
# metadb -s nom_ensemble -fd /dev/did/dsk/dNsX |
Libérez l'ensemble de disques.
# metaset -s nom_ensemble -C release |
Vous pouvez à présent monter et utiliser le système de fichiers. Néanmoins, vous n'avez pas restauré la redondance dans les répliques. En cas de perte de la seconde moitié des répliques, vous ne pourrez pas restaurer le miroir dans un état de bon fonctionnement.
Recréez les bases de données après l'application de la procédure de réparation décrite ci-dessus.
Cette section détaille les erreurs connues et les omissions de la documentation, de l'aide en ligne et des pages de manuel, et indique la marche à suivre pour y remédier.
Une note erronée figure dans l'aide en ligne de SunPlex Manager. Cette note apparaît dans la procédure d'installation du service de données Oracle. La correction est indiquée ci-dessous.
Incorrect :
Remarque : En l'absence de valeur en face des variables shmsys et semsys dans le fichier /etc/system, une fois les modules de SunPlex Manager installés, des valeurs par défaut sont automatiquement appliquées à ces variables dans le fichier /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.
Correct :
Remarque : En l'absence de valeurs en face des variables shmsys et semsys, dans le fichier /etc/system, l'installation du service de données Oracle permet une insertion automatique des valeurs par défaut dans le fichier /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.
Le paragraphe d'introduction de la section "Installation des modules Sun Cluster HA for Oracle" du document Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide n'évoque pas le module supplémentaire dont ont besoin les utilisateurs des grappes exploitant Sun Cluster HA for Oracle avec Oracle 64 bits. La section suivante corrige le paragraphe d'introduction de la section "Installation des modules Sun Cluster HA for Oracle" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.
Utilisez l'utilitaire scinstall(1M) pour installer un des modules suivants sur votre grappe, voire les deux, selon votre configuration. N'appliquez pas l'option -s à la commande non interactive scinstall si vous souhaitez installer tous les modules de services de données.
SUNWscor : Grappe qui exploite Sun Cluster HA for Oracle avec Oracle 32 ou 64 bits
SUNWscorx : Grappe qui exploite Sun Cluster HA for Oracle avec Oracle 64 bits
SUNWscorx dépend du module SUNWscor.
Si vous avez installé le module des services de données SUNWscor lors de l'installation initiale de Sun Cluster, allez directement à la section "Enregistrement et configuration de Sun Cluster HA for Oracle", page 30. Sinon, procédez comme suit pour installer les modules SUNWscor et SUNWscorx.
Les groupes de disques simples ne sont pas pris en charge en tant que types de disques par VERITAS Volume Manager sur le logiciel Sun Cluster. En conséquence, pour effectuer la procédure "How to Restore a Non-Encapsulated root (/) File System (VERITAS Volume Manager)" du Guide d'administration système de Sun Cluster 3.0 12/01, vous devez passer l'étape 9, qui vous demande de déterminer si le groupe de disques root (rootdg) est sur une seule tranche du disque root. Suivez les étapes de 1 à 8, passez l'étape 9, et continuez avec l'étape 10 jusqu'à la fin de la procédure.
Vous trouverez ci-dessous une correction apportée à l'étape 8 de "Mise à niveau vers une version mise à jour du logiciel Sun Cluster 3.0" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.
(Facultatif) Mettez à niveau le logiciel Solaris 8.
Mettez provisoirement à l'écart toutes les entrées de périphériques globaux du fichier /etc/vfstab.
Vous éviterez ainsi à la mise à niveau de Solaris de monter les périphériques globaux.
Arrêtez le noeud que vous voulez mettre à niveau.
# shutdown -y -g0 ok |
Suivez les instructions du manuel d'installation concernant la version de Solaris 8 Maintenance Update qui vous intéresse.
Ne réinitialisez pas le noeud lorsque vous êtes invité à le faire.
Supprimez les commentaires de toutes les entrées des périphériques globaux dont vous avez supprimé les commentaires à l'Étape a dans le fichier /a/etc/vfstab.
Installez tous les patchs logiciels Solaris ainsi que les patchs matériels, puis téléchargez tous les microprogrammes des patchs matériels dont vous pourriez avoir besoin.
Si certains patchs imposent une réinitialisation, réinitialisez le noeud en mode hors-grappe (non-cluster) comme décrit à l'Étape f.
Réinitialisez le noeud en mode hors-grappe.
N'oubliez pas d'insérer les symboles (--) et (") dans la commande.
# reboot -- "-x" |
Les procédures suivantes de mise à niveau comportent les modifications et les corrections apportées aux procédures depuis la sortie du Guide d'installation du logiciel Sun Cluster 3.0 12/01.
"Comment mettre à niveau des modules logiciels de la grappe"
"Comment terminer la mise à niveau du logiciel d'une grappe"
Pour mettre à niveau de Sun Cluster 2.2 vers Sun Cluster 3.0 5/02, suivez les procédures suivantes au lieu des versions documentées dans le Guide d'installation du logiciel Sun Cluster 3.0 12/01.
Connectez-vous en tant que superutilisateur sur un noeud de la grappe.
Si vous installez à partir du CD-ROM, insérez le CD-ROM Sun Cluster 3.0 5/02 dans le lecteur de CD-ROM d'un noeud.
Si le démon de gestion des volumes vold(1M) est en fonctionnement et qu'il est configuré pour gérer les lecteurs de CD-ROM, il charge automatiquement le CD-ROM dans le répertoire /cdrom/suncluster_3_0_u3.
Choisissez le répertoire /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages.
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages |
Si votre gestionnaire de volumes est Solstice DiskSuite, installez le dernier module du médiateur de Solstice DiskSuite (SUNWmdm) sur chaque noeud.
Reconfigurez les médiateurs.
Identifiez le noeud possédant l'ensemble de disques auquel vous souhaitez ajouter les hôtes médiateurs.
# metaset -s nom_ensemble |
Indique le nom de l'ensemble de disques
Si aucun noeud n'a de propriétaire, devenez propriétaire de l'ensemble de disques.
# metaset -s nom_ensemble -t |
Attribue la propriété de l'ensemble de disques
Recréez les médiateurs.
# metaset -s nom_ensemble -a -m liste_hôtes_médiateurs |
Ajoute des éléments à l'ensemble de disques
Indique le nom des noeuds à ajouter en tant qu'hôtes médiateurs pour l'ensemble de disques
Répétez l'opération pour chaque ensemble de disques.
Sur chaque noeud, arrêtez le démon rpc.pfmd.
# /etc/init.d/initpmf stop |
Mettez à niveau le premier noeud vers le logiciel Sun Cluster 3.0 5/02.
Ces procédures feront désormais référence à ce noeud comme étant le noeud installé en premier.
Sur le premier noeud à mettre à niveau, choisissez le répertoire /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools .
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools |
Mettez à niveau la structure logicielle de la grappe.
# ./scinstall -u begin -F |
Indique que c'est le premier noeud installé dans la grappe
Reportez-vous à la page de manuel scinstall(1M) pour de plus amples informations.
Le cas échéant, installez les patchs de Sun Cluster sur le premier noeud.
Reportez-vous au document Notes de version de Sun Cluster 3.0 5/02 pour connaître l'emplacement des patchs et les instructions d'installation.
Réinitialisez le noeud.
# shutdown -g0 -y -i6 |
Lorsque le premier noeud se réinitialise en mode grappe, il établit la grappe.
Mettez à niveau le deuxième noeud vers le logiciel Sun Cluster 3.0 5/02.
Choisissez le répertoire /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools sur le deuxième noeud.
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools |
Mettez à niveau la structure logicielle de la grappe.
# ./scinstall -u begin -N noeud1 |
Indique le nom du premier noeud installé dans la grappe, et non le nom du second noeud à installer.
Reportez-vous à la page de manuel scinstall(1M) pour de plus amples informations.
Le cas échéant, installez les patchs Sun Cluster sur le deuxième noeud.
Reportez-vous au document Notes de version de Sun Cluster 3.0 5/02 pour connaître l'emplacement des patchs et les instructions d'installation.
Réinitialisez le noeud.
# shutdown -g0 -y -i6 |
Une fois les deux noeuds réinitialisés, vérifiez à partir de l'un des noeuds que les deux noeuds sont membres de la grappe.
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
Reportez-vous à la page de manuel scstat(1M) pour de plus amples informations sur l'affichage de l'état de la grappe.
Choisissez un disque partagé en tant que périphérique de quorum.
Vous pouvez utiliser n'importe quel disque partagé par les deux noeuds en tant que périphérique de quorum. A partir de l'un des noeuds, utilisez la commande scdidadm(1M) pour déterminer le nom de l'ID de périphérique (DID) du disque partagé. Vous spécifiez ce nom de périphérique à l'Étape 5, dans l'option -q globaldev=DIDname de scinstall.
# scdidadm -L |
Configurez le périphérique de quorum partagé.
Lancez l'utilitaire scsetup(1M).
# scsetup |
L'écran Initial Cluster Setup apparaît.
Si le processus de configuration du quorum est interrompu ou ne se termine pas correctement, relancez scsetup.
A l'invite Do you want to add any quorum disks?, configurez un périphérique de quorum partagé.
Une grappe à deux noeuds reste en mode installation jusqu'à ce qu'un périphérique de quorum partagé soit configuré. Une fois que l'utilitaire scsetup a configuré le périphérique de quorum, le message Command completed successfully apparaît.
A l'invite Is it okay to reset "installmode"?, répondez Yes.
Après avoir défini les configurations de quorum et le nombre de votes pour la grappe, l'utilitaire scsetup affiche le message Cluster initialization is complete et vous renvoie au menu principal.
Quittez l'utilitaire scsetup.
A partir d'un noeud quelconque, vérifiez la configuration de quorum des périphériques et des noeuds.
Vous n'avez pas besoin d'être un superutilisateur pour exécuter cette commande.
% scstat -q |
A partir d'un noeud quelconque, vérifiez que le mode d'installation de la grappe est désactivé.
Vous n'avez pas besoin d'être un superutilisateur pour exécuter cette commande.
% scconf -p | grep "Cluster install mode:" Cluster install mode: disabled |
Mettez à jour les chemins d'accès des répertoires.
Consultez la section "Mise à niveau de l'environnement root" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.
L'exemple suivant présente le début du processus de mise à niveau d'une grappe à deux noeuds de Sun Cluster 2.2 vers Sun Cluster 3.0 5/02. Les noms des noeuds de la grappe sont phys-schost-1, le premier noeud installé, et phys-schost-2, qui rejoint la grappe établie par phys-schost-1. Le gestionnaire de volumes est Solstice DiskSuite et les deux noeuds sont utilisés comme hôtes médiateurs pour l'ensemble de disques schost-1.
(Installez le dernier module du médiateur de Solstice DiskSuite sur chaque noeud) # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages # pkgadd -d . SUNWmdm (Restaurez le médiateur) # metaset -s schost-1 -t # metaset -s schost-1 -a -m phys-schost-1 phys-schost-2 (Fermez le démon rpc.pmfd) # /etc/init.d/initpmf stop (Commencez la mise à niveau sur le premier noeud et réinitialisez-le) phys-schost-1# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools phys-schost-1# ./scinstall -u begin -F phys-schost-1# shutdown -g0 -y -i6 (Commencez la mise à niveau sur le deuxième noeud et réinitialisez-le) phys-schost-2# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools phys-schost-2# ./scinstall -u begin -N phys-schost-1 phys-schost-2# shutdown -g0 -y -i6 (Vérifiez l'appartenance à la grappe) # scstat (Sélectionnez un disque partagé et configurez-le comme périphérique de quorum) # scdidadm -L # scsetup Sélectionnez Quorum>Add a quorum disk Vérifiez que le périphérique de quorum est configuré. # scstat -q (Vérifiez que la grappe n'est plus en mode installation) % scconf -p | grep "Cluster install mode:" Cluster install mode: disabled |
Cette procédure termine le processus de mise à niveau scinstall(1M) commencé dans la section "Comment mettre à niveau des modules logiciels de la grappe". Procédez comme suit sur chaque noeud de la grappe.
Connectez-vous en tant que superutilisateur sur chaque noeud de la grappe.
Votre gestionnaire de volumes est-il VxVM ?
Si tel n'est pas le cas, passez à l'Étape 3.
Si tel est le cas, installez VxVM et tout patch VxVM éventuel, et créez le groupe de disques root (rootdg) comme pour une nouvelle installation.
Pour installer VxVM et encapsuler le disque root, suivez les procédures de "Installation du logiciel VERITAS Volume Manager et encapsulage du disque root" du Guide d'installation du logiciel Sun Cluster 3.0 12/01. Pour donner un miroir au disque root, suivez les procédures décrites dans "Mise en miroir du disque root encapsulé" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.
Pour installer VxVM et créer rootdg sur des disques locaux non root, suivez les procédures décrites dans "Installation du logiciel VERITAS Volume Manager Software uniquement" et dans "Création d'un groupe de disques rooutdg sur un disque non root" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.
Mettez-vous à niveau Sun Cluster HA for NFS ?
Si oui, allez à l'Étape 4.
Sinon, passez à l'Étape 5.
Terminez la mise à niveau du logiciel Sun Cluster 3.0 et convertissez la configuration de Sun Cluster HA for NFS.
Si vous ne mettez pas à niveau Sun Cluster HA for NFS, effectuez l'Étape 5 à la place.
Insérez le Guide d'installation du logiciel Sun Cluster 3.0 12/01 dans le lecteur de CD-ROM d'un noeud.
On considère ici que le démon vold(1M) du volume fonctionne et est configuré pour gérer les CD-ROM.
Terminez la mise à niveau du logiciel de la grappe sur ce noeud.
# scinstall -u finish -q globaldev=DIDname \ -d /cdrom/scdataservices_3_0_u3 -s nfs |
Indique le nom DID (ID de périphérique) du périphérique de quorum
Indique le répertoire où se trouve l'image du CD-ROM
Indique le nom du service de données Sun Cluster HA for NFS à configurer.
Un message d'erreur similaire à celui présenté ci-après peut apparaître. Vous pouvez l'ignorer sans risque.
** Installing Sun Cluster - Highly Available NFS Server ** Skipping "SUNWscnfs" - already installed |
Ejectez le CD-ROM.
Répétez l'opération de l'Étape a à l'Étape c sur l'autre noeud.
Lorsque vous avez terminé sur les deux noeuds, le mode installation de la grappe est désactivé et tous les votes de quorum sont affectés.
Allez directement à l'Étape 6.
Terminez la mise à niveau du logiciel Sun Cluster 3.0 sur chaque noeud.
Si vous mettez à niveau Sun Cluster HA for NFS, effectuez l'Étape 4 à la place.
# scinstall -u finish -q globaldev=DIDname |
Indique le nom DID (ID de périphérique) du périphérique de quorum
Si vous mettez à niveau des services de données autres que Sun Cluster HA for NFS, configurez les ressources pour ces services de données comme s'il s'agissait d'une nouvelle installation.
Voir le Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide pour la marche à suivre.
Si votre gestionnaire de volumes est Solstice DiskSuite, démarrez les groupes de périphériques de disques préexistants à partir de n'importe quel noeud.
# scswitch -z -D groupe-unité-disque -h noeud |
Effectue le changement
Indique le nom du groupe de périphériques de disques, qui correspond au nom de l'ensemble de disques pour le logiciel Solstice DiskSuite.
Indique le nom du noeud de grappe jouant le rôle de noeud principal pour le groupe d'unités de disques
A partir de l'un des noeuds, faites démarrer les groupes de ressources de service de données préexistants.
A ce stade, les hôtes logiques de Sun Cluster 2.2 sont convertis en groupes de ressources de Sun Cluster 3.0 5/02 et les noms des hôtes logiques reçoivent le suffixe -lh. Par exemple, un hôte logique appelé lhost-1 devient groupe de ressources nommé lhost-1-lh. Utilisez ces noms de groupes de ressources convertis dans la commande suivante :
# scswitch -z -g group_ressources -h noeud |
Indique le nom du groupe de ressources à faire démarrer
Vous pouvez utiliser la commande scrgadm -p pour afficher une liste de tous les types de ressources et groupes de ressources de la grappe. La commande scrgadm -pv affiche cette même liste avec plus de détails.
Si vous utilisez Sun Management Center pour surveiller votre configuration Sun Cluster, installez le module Sun Cluster pour Sun Management Center.
Assurez-vous que vous utilisez la version la plus récente de Sun Management Center.
Reportez-vous à la documentation de Sun Management Center pour connaître les procédures d'installation ou de mise à jour.
Suivez les instructions et les procédures décrites dans la section "Configuration minimale requise pour la surveillance de Sun Cluster" du Guide d'installation du logiciel Sun Cluster 3.0 12/01 pour installer les modules de Sun Cluster.
Vérifiez que tous les noeuds ont rejoint la grappe.
Allez à la section "Vérification des membres de la grappe" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.
L'exemple suivant présente la fin du processus de mise à niveau d'une grappe à deux noeuds de Sun Cluster 2.2 vers Sun Cluster 3.0 5/02. Les noms des noeuds de la grappe sont phys-schost-1 et phys-schost-2, les noms des groupes de périphériques sont dg-schost-1 et dg-schost-2, et les noms des groupes de ressources des services de données sont lh-schost-1 et lh-schost-2. La commande scinstall convertit automatiquement la configuration Sun Cluster HA for NFS.
(Terminez la mise à niveau sur chaque noeud) phys-schost-1# scinstall -u finish -q globaldev=d1 \ -d /cdrom/scdataservices_3_0_u3 -s nfs phys-schost-2# scinstall -u finish -q globaldev=d1 \ -d /cdrom/scdataservices_3_0_u3 -s nfs (Démarrez les groupes de périphériques et les groupes de ressources de services de données sur chaque noeud) phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2 |
La procédure "How to Bring a Node Out of Maintenance State" du Guide d'administration système de Sun Cluster 3.0 12/01 ne s'applique pas aux grappes binodales. Nous allons procéder à l'évaluation d'une procédure ad hoc pour les grappes binodales en vue de la prochaine version.
Le paragraphe ci-dessous clarifie le comportement de la commande scgdevs. Actuellement, ces informations ne figurent pas dans la page de manuel scgdevs(1M).
Nouvelles informations :
Si vous appelez la commande scgdevs(1M) à partir du noeud local, celle-ci effectue sa tâche de manière asynchrone sur les noeuds distants. Par conséquent, la fin de l'action de la commande sur le noeud local ne signifie pas que celle-ci a terminé sa tâche dans toute la grappe.
Il y a une erreur dans la section Nom. Cette section devrait avoir le libellé suivant :
Implémentations de type de ressources sap_ci, SUNW.sap_ci et SUNW.sap_ci_v2 pour l'instance centrale Sun Cluster HA for SAP.
Il y a une erreur dans la section Description. Cette section devrait avoir le libellé suivant :
Le RGM (Resource Group Manager) gère le service de données SAP pour le logiciel Sun Cluster. Configurez l'instance centrale Sun Cluster HA for SAP en tant que ressource de nom d'hôte logique et ressource d'instance centrale SAP.
Il y a une erreur dans la section Nom. Cette section devrait avoir le libellé suivant :
Implémentation de type de ressource sap_as, SUNW.sap_as pour Sun Cluster HA for SAP en tant que services de données de reprise sur panne.
Implémentations de type de ressources sap_as, SUNW.sap_as_v2 pour Sun Cluster HA for SAP en tant que service de données à la carte ou de reprise sur panne.
Il y a une erreur dans la section Description. Cette section devrait avoir le libellé suivant :
Le RGM (Resource Group Manager) gère le service de données SAP pour le logiciel Sun Cluster. Si vous configurez le serveur d'application Sun Cluster HA for SAP comme service de données de reprise sur panne, configurez-le en tant que ressource nom d'hôte logique et ressource serveur d'application SAP. Si vous configurez Sun Cluster HA pour serveur d'application SAP en tant que service de données à la carte, configurez-le comme ressource de serveur d'application SAP à la carte.
La nouvelle propriété de groupe de ressources suivante doit être ajoutée à la page de manuel rg_properties(5).
Auto_start_on_new_cluster
Cette propriété vérifie que le Resource Group Manager lance automatiquement le groupe de ressources lors de la formation d'une nouvelle grappe.
La valeur par défaut est TRUE. En cas de configuration sur TRUE, le Resource Group Manager essaie de lancer le groupe de ressources automatiquement afin d'obtenir les Desired_primaries lors de la réinitialisation simultanée de l'ensemble des noeuds de la grappe. En cas de configuration sur FALSE, le Resource Group ne démarre pas automatiquement lors de la réinitialisation de la grappe.
Catégorie : Défaut : True Réglable : Tout délai
Les messages d'erreur suivants ne se trouvent pas sur le CD-ROM Sun Cluster 3.0 5/02.
360600:Oracle UDLM package wrong instruction set architecture.
Le module Oracle UDLM actuellement installé a une mauvaise architecture d'ensemble d'instructions pour le mode sur lequel est actuellement initialisé le noeud (par exemple, Oracle UDLM est en 64 bits (sparc9) et le noeud est actuellement initialisé en mode 32 bits (sparc)).
Procurez-vous et installez le module Oracle UDLM correct pour l'architecture d'ensemble d'instructions du système, ou initialisez le noeud dans une architecture d'ensemble d'instructions compatible avec la version actuelle d'Oracle UDLM.
800320:Fencing %s from shared disk devices.
Il y a eu une réservation pour séparer les noeuds non membres des disques partagés entre les noeuds de la grappe.
Aucun.
558777:Enabling failfast on all shared disk devices.
Activation d'une sécurité de réservation, de façon à éliminer les noeuds partageant ces groupes de disques s'ils sont délimités par d'autres noeuds.
Aucun.
309875:Error encountered enabling failfast.
Erreur lors de la tentative d'activation de la sécurité de réservation sur les disques partagés par d'autres noeuds.
Il s'agit d'une erreur interne. Sauvegardez le contenu de /var/adm/messages, /var/cluster/ucmm/ucmm_reconf.log et /var/cluster/ucmm/dlm*/logs/* de tous les noeuds et prenez contact avec le représentant commercial de Sun le plus proche.