Le présent document fournit les informations suivantes, relatives au logiciel SunTM Cluster 3.0 12/01 (Mise à jour 2).
Les annexes de ce document comportent des fiches et des exemples qui vous aideront à planifier l'installation des services de données et du logiciel Sun Cluster 3.0 12/01.
Le tableau suivant répertorie les nouvelles fonctions et fonctionnalités qui exigent une mise à jour de la documentation de Sun Cluster. La seconde colonne identifie la documentation qui a été mise à jour. Contactez votre représentant commercial Sun pour obtenir une liste complète du matériel et des logiciels pris en charge.
Tableau 1-1 Nouvelles fonctions et fonctionnalités
Fonction ou fonctionnalité |
Mises à jour de la documentation |
---|---|
Améliorations apportées à l'installation |
Le document Guide d'installation du logiciel Sun Cluster 3.0 12/01 a été mis à jour pour tenir compte des nouvelles fonctionnalités apportées aux commandes scinstall(1M) et scsetup(1M).
|
Prise en charge de l'interface Remote Shared Memory Application Programming Interface (RSMAPI) |
Le document Guide d'installation du logiciel Sun Cluster 3.0 12/01 mis à jour intègre la procédure d'installation des modules logiciels requis pour prendre en charge l'interface RSMAPI dans une configuration Sun Cluster. |
Prise en charge de la reconfiguration dynamique |
Le document Sun Cluster 3.0 12/01 Concepts comporte une nouvelle section qui décrit la phase initiale de prise en charge de la reconfiguration dynamique par Sun Cluster 3.0. Y figurent les instructions et actions manuelles applicables à cette phase. |
Prise en charge de l'interconnexion PCI-SCI |
Le chapitre consacré au matériel d'interconnexion, du document Sun Cluster 3.0 12/01 Hardware Guide, a été actualisé de manière à intégrer les schémas de câblage, considérations et procédures de dépannage relatifs à l'utilisation du matériel d'interconnexion PCI-SCI dans une grappe. Le document Guide d'installation du logiciel Sun Cluster 3.0 12/01 comporte également désormais la procédure d'installation des modules logiciels PCI-SCI. |
Prise en charge de SAN (Storage Area Network) |
Les quatre chapitres du document Sun Cluster 3.0 12/01 Hardware Guide, consacrés aux matrices de stockage prenant en charge la fonctionnalité SAN, comportent désormais les schémas de câblage, les fonctionnalités SAN prises en charge et autres considérations applicables. Les matrices qui prennent en charge la fonctionnalité SAN sont Sun StorEdge A5200, Sun StorEdge A3500FC et les matrices Sun StorEdge T3/T3+ en configuration à contrôleur unique et en configuration de type "partner-group". |
Qualification Sun StorEdge T3+ |
Les deux chapitres du document Sun Cluster 3.0 12/01 Hardware Guide, consacrés aux matrices Sun StorEdge T3 en configuration à contrôleur unique et en configuration de type "partner-group", ont été actualisés pour tenir compte des différences inhérentes aux matrices Sun StorEdge T3+. Certaines procédures de ces deux chapitres ont également été modifiées pour tenir compte des améliorations détectées au cours des tests. |
Qualification Sun Netra D130 et Sun StorEdge S1 |
Un nouveau chapitre ajouté au document Sun Cluster 3.0 12/01 Hardware Guide décrit les procédures relatives aux baies de stockage Sun Netra D130 et Sun StorEdge S1. |
Prise en charge de VERITAS File System (VxFS) |
Les documents Guide d'installation du logiciel Sun Cluster 3.0 12/01 et Guide d'administration système de Sun Cluster 3.0 12/01 comportent désormais les instructions de création des systèmes de fichiers de grappe VxFS. Pour de plus amples informations, reportez-vous à la section "Directives applicables à la prise en charge de VxFS". |
Qualification Sun Cluster HA for BroadVision One-To-One Enterprise |
Un nouveau chapitre du document Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide est désormais consacré à la prise en charge de Sun Cluster HA for BroadVision One-To-One Enterprise. Ce service de données intègre les fonctions de surveillance d'erreurs et de reprise sur panne automatique pour éviter les défaillances ponctuelles dans une installation BroadVision One-To-One Enterprise. |
Prise en charge de Sun Cluster HA for Oracle sur Oracle 9i. |
Le document Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide comporte désormais les procédures de prise en charge de Sun Cluster HA for Oracle sur Oracle 9i. |
Prise en charge de Sun Cluster Security Hardening |
La documentation Sun Cluster Security Hardening est disponible à l'adresse http://www.sun.com/security/blueprints. Faites défiler la page jusqu'à l'en-tête Architecture pour accéder à l'article consacré à Sun Cluster Security Hardening. Pour plus d'informations, reportez-vous à la section "Sun Cluster Security Hardening". |
Cette section inclut des informations supplémentaires sur les nouvelles fonctions et fonctionnalités.
Sun Cluster Security Hardening utilise les techniques de renforcement de l'environnement d'exploitation Solaris, recommandées par le programme Sun BluePrints, afin de renforcer la sécurité de base des grappes. Solaris Security Toolkit procède à l'implémentation automatique de Sun Cluster Security Hardening. Sun Cluster Security Hardening prend en charge les trois agents suivants :
Apache Web Server
iPlanet Web Server
iPlanet Mail Server
Vous pouvez consulter la documentation de Sun Cluster Security Hardening à l'adresse http://www.sun.com/security/blueprints. Faites défiler la page jusqu'à l'en-tête Architecture pour accéder à l'article consacré à Sun Cluster Security Hardening.
La configuration Sun Cluster 3.0 ne prend pas en charge les fonctions VxFS suivantes:
Quick I/O (E/S rapide)
Snapshots (instantanés)
Storage checkpoints (points de contrôle du stockage)
Les avis de cache (s'ils sont utilisés, ils ne s'appliquent qu'au noeud sélectionné)
VERITAS CFS (nécessite la fonction de grappe VERITAS & VCS)
Les options de montage VxFS spécifiques
convosync (Convert O_SYNC)
mincache
qlog, delaylog, tmplog
Toutes les autres fonctions et options VxFS prises en charge dans une configuration de grappe sont également prises en charge par le logiciel Sun Cluster 3.0. Consultez la documentation de VxFS et les pages de manuel pour plus de détails sur les options de VxFS prises en charge ou non dans une configuration de grappe.
Les directives suivantes, relatives à l'utilisation de VxFS pour créer des systèmes de fichiers de grappe à haut niveau de disponibilité, s'appliquent essentiellement à une configuration Sun Cluster 3.0.
Suivez les procédures de la documentation VxFS pour créer un système de fichiers VxFS.
Pour que l'opération soit un succès, procédez au montage ou démontage global d'un système de fichiers VxFS depuis le noeud principal (le maître actuel du disque sur lequel réside le système de fichiers VxFS). Tout montage ou démontage d'un système de fichiers VxFS à partir d'un noeud secondaire risque d'échouer.
Effectuez toujours les commandes d'administration de VxFS à partir du noeud principal du système de fichiers de grappe VxFS.
Les directives suivantes, relatives à l'administration des systèmes de fichiers de grappe VxFS, ne sont pas spécifiques au logiciel Sun Cluster 3.0. Elles diffèrent toutefois des procédures d'administration des systèmes de fichiers de grappe UFS.
Vous pouvez accéder aux fichiers d'un système de fichiers de grappe VxFS et les administrer à partir de n'importe quel noeud de la grappe, à l'exception de la commande ioctls, qui doit impérativement être exécutée à partir du noeud principal. Chaque fois que vous avez des doutes quant à l'implication de ioctls dans une commande d'administration, exécutez toujours cette commande à partir du noeud principal.
Lorsqu'un système de fichiers de grappe VxFS procède à une reprise sur panne sur un noeud secondaire, toutes les opérations standard d'appel du système, en cours au moment de la panne, sont ré-exécutées en toute transparence sur le noeud principal. Cependant, toute opération qui impliquerait la commande ioctl, en cours au moment de la panne, échoue. Vérifiez l'état du système de fichiers de grappe VxFS après chaque reprise sur panne. Certaines commandes administratives, exécutées sur l'ancien noeud principal avant la reprise sur panne, nécessitent parfois des mesures correctives. Pour de plus amples informations, reportez-vous à la documentation de VxFS.
Cette section décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.0 12/01.
Environnement d'exploitation et correctifs : les versions de Solaris et les correctifs pris en charge sont disponibles à l'adresse suivante :
Pour plus de détails, reportez-vous à la section "Correctifs et niveaux de microprogrammes requis".
Gestionnaires de volumes : Solstice DiskSuiteTM 4.2.1 et VERITAS Volume Manager 3.0.4, 3.1, 3.1.1 et 3.2.
Systèmes de fichiers : Solaris UFS et VERITAS File System (VxFS) 3.4.
Services de données (agents) : contactez votre représentant commercial Sun pour obtenir une liste complète des services de données et des versions d'applications pris en charge. Indiquez les noms des types de ressources à l'installation des services de données, à l'aide de l'utilitaire scinstall(1M), ainsi que lors de l'enregistrement des types de ressources associés au service de données, à l'aide de l'utilitaire scrgadm(1M).
Tableau 1-2 Services de données pris en charge par le logiciel Sun Cluster 3.0 12/01
Service de données |
Type de ressource de Sun Cluster |
---|---|
Sun Cluster HA for DNS |
dns |
Sun Cluster HA for NFS |
nfs |
Sun Cluster HA for iPlanet Web Server |
iws |
Sun Cluster HA for Netscape LDAP |
nsldap |
Sun Cluster HA for Oracle |
oracle |
Sun Cluster HA for Oracle Parallel Server |
S.O. |
Sun Cluster HA for Apache |
apache |
Sun Cluster HA for SAP |
sap |
Sun Cluster HA for Sybase ASE |
sybase |
Sun Cluster HA for BroadVision One-To-One Enterprise |
bv |
Sun Cluster HA for NetBackup |
netbackup |
Configuration minimale requise:le logiciel Sun Cluster 3.0 nécessite davantage de mémoire qu'un noeud opérant en conditions normales. Le supplément de mémoire requis correspond à 128 Mo plus dix pour cent. Par exemple, si un noeud autonome a normalement besoin de 1 Go de mémoire, il manque encore 256 Mo de mémoire pour atteindre la configuration minimale requise.
La fonction Public Network Management (PNM) ne sera pas prise en charge dans la prochaine version de Sun Cluster. La surveillance des adaptateurs de réseau et la reprise sur panne pour Sun Cluster seront désormais assurées par Solaris IP Multipathing.
La fonction PNM sert à configurer et à administrer la surveillance des cartes d'interface réseau et la reprise sur panne. Toutefois, les interfaces utilisateur du démon de PNM et les commandes d'administration de PNM sont obsolètes et seront retirées de la prochaine version de Sun Cluster. Il est donc vivement déconseillé de développer des outils reposant sur ces interfaces.
Les interfaces suivantes sont officiellement prises en charge dans la version actuelle, mais devraient être supprimées de la prochaine version de Sun Cluster.
pnmd(1M)
pnmconfig(4)
pnmstat(1M)
pnmset(1M)
pnmrtop(1M)
pnmptor(1M)
Lisez ce qui suit pour préparer l'adoption de IP Multipathing, effective dans la nouvelle version de Sun Cluster.
Avec l'intégration d'IP Multipathing dans la prochaine version, le modèle d'administration d'IP Multipathing de Solaris et les interfaces correspondantes devraient être utilisés pour gérer la disponibilité du réseau. Pour plus de détails, consultez le Manuel d'administration de Solaris IP Multipathing.
Pour tous les groupes IP Multipathing qui comportent plus d'une interface physique, Solaris IP Multipathing exige qu'une adresse IP soit attribuée à chaque interface. Cette interface sera utilisée exclusivement par le démon IP Multipathing à des fins de surveillance d'état. Avant d'adopter IP Multipathing, vous devez donc définir une adresse IP supplémentaire pour chaque interface (active et de sauvegarde) dans un groupe NAFO. Cette exigence est impérative pour les groupes NAFO comportant plusieurs adaptateurs et vivement recommandée pour les groupes comportant un seul adaptateur.
Prenez, par exemple, le groupe nafo0 du sous-réseau 75, composé de qfe0 et qfe4. Supposez que /etc/hostname.qfe0 comporte le nom d'hôte schostname-1, qui correspond à une adresse IP du sous-réseau 75. Pour préparer la future adoption de IP, vous devez définir deux adresses IP supplémentaires sur le sous-réseau 75, l'une pour qfe0 et l'autre pour qfe4. Pour plus de détails, consultez le Manuel d'administration de Solaris IP Multipathing.
IP Multipathing impose que toutes les interfaces d'un groupe IP Multipathing aient des adresses matérielles (MAC) distinctes ; ce qui revient à définir la propriété eeprom local-mac-address? sur true. Les cartes d'interface qui ne prennent pas cette fonctionnalité en charge sont les suivantes :
X1018A SunSwift SBus Adapter
X1059A SunFastEthernet Adapter 2.0 SBus Card
Vous devrez remplacer ces cartes lors du passage à la version supérieure. Si les groupes IP Multipathing à adaptateur unique fonctionnent sans prise en charge de local-mac-address?=true, ces configurations ne sont pas optimales pour des installations à haut niveau de disponibilité. Pour plus de détails, consultez le Manuel d'administration de Solaris IP Multipathing.
La documentation utilisateur de Sun Cluster 3.0 12/01 est disponible en ligne sous le format AnswerBook2TM, pour une exploitation sur serveurs de documentation AnswerBook2. La documentation AnswerBook2 de Sun Cluster 3.0 12/01 comprend les collections suivantes :
la collection Sun Cluster 3.0 12/01, qui se compose des manuels suivants :
Guide d'installation du logiciel Sun Cluster 3.0 12/01
Guide d'administration système de Sun Cluster 3.0 12/01
Sun Cluster 3.0 12/01 Hardware Guide
Sun Cluster 3.0 12/01 Data Services Developer's Guide
Sun Cluster 3.0 12/01 Concepts
Sun Cluster 3.0 12/01 Error Messages Manual
la collection Sun Cluster 3.0 12/01 Data Services, qui contient le manuel suivant :
Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide
L'environnement d'exploitation Solaris contient un logiciel serveur de documentation AnswerBook2. Ce logiciel figure sur le CD-ROM de la documentation Solaris, distinct du CD-ROM de l'environnement d'exploitation Solaris. Le CD-ROM de la documentation Solaris est nécessaire pour installer un serveur de documentation AnswerBook2.
Si vous disposez d'un serveur de documentation AnswerBook2 installé sur votre site, vous pouvez l'utiliser pour exploiter les collections AnswerBook Sun Cluster 3.0 12/01. Sinon, installez un serveur de documentation sur une machine de votre site. Nous vous recommandons d'utiliser la console administrative comme interface d'administration avec votre grappe pour le serveur de documentation. N'utilisez pas un noeud de grappe comme serveur de documentation AnswerBook2.
Pour de plus amples informations sur l'installation d'un serveur de documentation AnswerBook2, chargez le CD-ROM de la documentation de Solaris sur un serveur et lisez les fichiers README.
Installez les documents AnswerBook2 Sun Cluster sur un système de fichiers, situé sur le même serveur que celui sur lequel vous installez le serveur de documentation. Les collections AnswerBook de Sun Cluster 3.0 12/01 sont fournis avec un script post-installation qui ajoute automatiquement les documents à votre bibliothèque AnswerBook.
Pour configurer vos serveurs AnswerBook2 :
Le logiciel du serveur requiert environ 34 Mo d'espace disque disponible sur le serveur et les collections de documents environ 600 Mo d'espace disque disponible sur le serveur.
Vous devez disposer d'un accès root (superutilisateur) au serveur de documentation.
Le serveur AnswerBook2 doit être équipé d'un lecteur de CD-ROM.
Si vous n'avez pas de serveur de documentation AnswerBook2 installé, il vous faut le CD-ROM de documentation de l'environnement d'exploitation Solaris qui contient le logiciel et les instructions d'installation d'un serveur de documentation AnswerBook2.
La collection Sun Cluster 3.0 12/01 figure sur Sun Cluster 3.0 12/01 CD-ROM. La collection Sun Cluster 3.0 12/01 Data Services figure sur Sun Cluster 3.0 Agents 12/01 CD-ROM.
Procédez comme suit pour installer les modules AnswerBook Sun Cluster pour les collections Sun Cluster 3.0 12/01 et Sun Cluster 3.0 12/01 Data Services.
Devenez superutilisateur du serveur qui exploite le serveur de documentation AnswerBook2.
Si vous avez déjà installé les collections AnswerBook Sun Cluster, supprimez les modules existants.
# pkgrm SUNWscfab SUNWscdab |
Si vous n'avez jamais installé de collection AnswerBook Sun Cluster, ignorez cette étape.
Insérez le CD-ROM Sun Cluster 3.0 12/01 CD-ROM ou Sun Cluster 3.0 Agents 12/01 CD-ROM dans le lecteur de CD-ROM relié à votre serveur de documentation.
Le démon du gestionnaire de volumes, vold(1M), charge le CD-ROM automatiquement.
Placez-vous dans le répertoire correspondant au CD-ROM du module AnswerBook Sun Cluster.
Les modules AnswerBook se trouvent aux endroits suivants :
Sun Cluster 3.0 12/01 CD-ROM
/cdrom/suncluster_3_0_u2/SunCluster_3.0/Packages
Sun Cluster 3.0 Agents 12/01 CD-ROM
/cdrom/scdataservices_3_0_u2/components/ SunCluster_Data_Service_Answer_Book_3.0/Package
Utilisez la commande pkgadd(1) pour installer le module.
# pkgadd -d . |
Sélectionnez les modules des collections Sun Cluster 3.0 12/01 (SUNWscfab) et Sun Cluster 3.0 12/01 Data Services (SUNWscdab) à installer.
Dans le menu des options d'installation de pkgadd, choisissez heavy pour ajouter le module complet au système et mettre à jour le catalogue AnswerBook2.
Sélectionnez le module Sun Cluster 3.0 12/01 Collection (SUNWscfab) ou le Sun Cluster 3.0 12/01 Data Services Collection (SUNWscdab).
Le module de collections de documents fourni sur chaque CD-ROM comprend un script d'installation automatique qui, après l'installation, ajoute la collection à la base de données du serveur de documentation et fait redémarrer le serveur. Vous pouvez maintenant consulter les AnswerBook Sun Cluster sur votre serveur de documentation.
Les CD-ROM de Sun Cluster comportent un fichier PDF pour chaque livre du jeu de documentation de Sun Cluster.
Comme pour les AnswerBooks de Sun Cluster, six fichiers PDF figurent sur le CD-ROM de Sun Cluster et un fichier PDF sur le CD-ROM des agents. Le nom de chaque fichier PDF est une abréviation du livre correspondant.
Les fichiers PDF se trouvent aux endroits suivants :
Sun Cluster 3.0 12/01 CD-ROM
cdrom/suncluster_3_0_u2/SunCluster_3.0/Docs/locale/C/PDF
Sun Cluster 3.0 Agents 12/01 CD-ROM
cdrom/scdataservices_3_0_u2/components/ SunCluster_Data_Service_Answer_Book_3.0/Docs/locale/C/PDF
CD-ROM |
Abréviation PDF |
Titre de manuel |
---|---|---|
Sun Cluster 3.0 12/01 CD-ROM |
CLUSTINSTALL | Guide d'installation du logiciel Sun Cluster 3.0 12/01 |
CLUSTNETHW | Sun Cluster 3.0 12/01 Hardware Guide | |
CLUSTAPIPG | Sun Cluster 3.0 12/01 Data Services Developer's Guide | |
CLUSTSYSADMIN |
Guide d'administration système de Sun Cluster 3.0 12/01 |
|
CLUSTCONCEPTS |
Sun Cluster 3.0 12/01 Concepts |
|
CLUSTERRMSG | Sun Cluster 3.0 12/01 Error Messages Manual | |
Sun Cluster 3.0 Agents 12/01 CD-ROM |
CLUSTDATASVC |
Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide |
Voici les restrictions qui s'appliquent à Sun Cluster 3.0 12/01 :
Types de transport RSM (Remote Shared Memory) : ces types de transport ne sont pas pris en charge, même si la documentation y fait parfois référence. Si vous utilisez l'interface RSMAPI, indiquez dlpi comme type de transport.
Interface SCI (Scalable Coherent Interface) : l'interface SCI SBus n'est pas prise en charge comme interconnexion de grappe. Par contre, l'interface PCI-SCI est désormais prise en charge.
Surveillance automatique des chemins de disque : la fonction de surveillance des chemins de disque n'est pas prise en charge. Vous devez surveiller manuellement les chemins de disque pour empêcher toute double défaillance ou perte de chemin vers un périphérique de quorum. Le logiciel détecte les défaillances de chemin des disques actifs, mais pas les chemins des disques inactifs.
Périphériques de stockage avec plus de deux chemins physiques vers la baie : le système ne peut pas prendre en charge plus de deux chemins. Seul le système Sun StorEdge A3500 fait exception, puisque deux chemins sont pris en charge vers chacun des deux noeuds.
SunVTSTM : non pris en charge.
Bande, CD-ROM et DVD-ROM multihôte : non pris en charge.
LOFS (Loopback File System) : le logiciel Sun Cluster 3.0 ne prend pas en charge l'utilisation d'un système de fichiers LOFS sur les noeuds de grappe.
Exécution d'applications client sur les noeuds de grappe : non prise en charge. La commutation d'un groupe de ressources ou sa reprise sur panne risque d'interrompre une connexion TCP (telnet/rlogin). Ceci s'applique notamment aux connexions établies par les noeuds de la grappe et les connexions établies par les hôtes clients extérieurs à la grappe.
Exécution de processus à haut niveau de priorité qui programment des classes sur les noeuds de grappe : non prise en charge. N'exécutez jamais sur un noeud de grappe, quel qu'il soit, des processus qui s'exécutent dans la classe de programmation à temps partagé, avec un niveau de priorité supérieur à la normale, ni des processus qui s'exécutent dans la classe de programmation en temps réel. Sun Cluster 3.0 s'appuie sur des threads du noyau qui ne s'exécutent pas dans la classe en temps réel. Les autres processus à temps partagé qui s'exécutent avec une priorité supérieure à la normale ou ceux en temps réel peuvent empêcher les threads du noyau de Sun Cluster d'acquérir les cycles CPU requis.
Quotas de systèmes de fichiers : la configuration de Sun Cluster 3.0 12/01 ne prend pas en charge les quotas.
Interfaces de réseau logique : l'usage de ces interfaces est réservé au logiciel Sun Cluster 3.0 12/01.
Restrictions liées au système de fichiers de grappe
La commande umount -f se comporte exactement de la même façon que la commande umount sans l'option -f. Elle ne prend pas en charge les démontages forcés.
Seuls les répertoires vides prennent en charge la commande unlink (1M).
La commande lockfs -d n'est pas prise en charge. Utilisez la commande lockfs -n à la place.
Le système de fichiers de grappe ne prend en charge aucune des fonctions des systèmes de fichiers Solaris qui permettent de placer une extrémité de communication dans l'espace de noms du système de fichiers. Vous ne pouvez donc pas créer de prise de domaine UNIX dont le nom serait le nom d'un chemin ayant accès au système de fichiers de grappe, ni créer de fifos ou de tubes nommés et vous ne pouvez pas non plus utiliser la commande fattach.
L'exécution de fichiers binaires de systèmes de fichiers, montés par le biais de l'option de montage forcedirectio, n'est pas prise en charge.
Restrictions NAFO (Network Adapter Failover)
Toutes les cartes de réseau public doivent faire partie de groupes NAFO.
Un sous-réseau IP ne contient qu'un seul groupe NAFO pour chaque noeud. Le logiciel Sun Cluster 3.0 ne prend pas en charge l'entrelacement IP, même sous sa forme la plus simple, où plusieurs adresses IP coexistent sur le même sous-réseau.
Un groupe NAFO ne peut pas contenir plusieurs cartes actives simultanément.
Le logiciel Sun Cluster 3.0 ne prend pas en charge le paramétrage local-mac-address?=true de la mémoire PROM de OpenBootTM.
Restrictions liées aux services et aux applications
Le logiciel Sun Cluster 3.0 ne peut fournir des services qu'aux services de données fournis avec Sun Cluster ou configurés à l'aide de l'API de services de données de Sun Cluster.
N'utilisez pas des noeuds de grappe comme serveurs de courrier, car l'environnement Sun Cluster ne prend pas en charge le sous-système sendmail(1M). Aucun répertoire de courrier ne doit résider sur les noeuds Sun Cluster.
Ne configurez pas les noeuds de grappe comme routeurs (passerelles). Si le système devient indisponible, les clients ne pourront pas trouver d'autre routeur et, de ce fait, ne pourront pas procéder à une reprise sur panne.
Ne configurez pas les noeuds de grappe comme serveurs NIS ou NIS+. Les noeuds de grappe peuvent toutefois être des clients NIS ou NIS+.
N'utilisez pas de configuration Sun Cluster pour fournir un service d'initialisation ou d'installation à haut niveau de disponibilité sur des systèmes clients.
N'utilisez pas de configuration Sun Cluster pour fournir un service rarpd.
Restrictions liées à Sun Cluster 3.0 HA for NFS
Aucun noeud Sun Cluster ne peut être le client NFS d'un système de fichiers exporté HA-NFS, sous la maîtrise d'un noeud de la même grappe. Un tel montage croisé HA-NFS est interdit. Utilisez le système de fichiers de grappe pour répartir les fichiers entre les noeuds de grappe.
Les applications ne doivent pas accéder en local aux systèmes de fichiers exportés via NFS. Sinon, un blocage local (par exemple, flock(3UCB), fcntl (2)) risque d'empêcher le gestionnaire de verrouillage (lockd) de redémarrer. Au redémarrage, il est possible qu'un processus local bloqué soit verrouillé et que seul un client distant puisse le déverrouiller. Le comportement qui s'en suit est imprévisible.
Sun Cluster HA for NFS exige que tous les montages de clients NFS soient des montages rigides.
Avec Sun Cluster HA for NFS, n'utilisez pas d'alias de noms d'hôtes pour les ressources réseau. Si des clients NFS montent des systèmes de fichiers de grappe qui utilisent des alias de noms d'hôtes, ces clients risquent des problèmes de reprise dans le cas d'un verrouillage statd.
Le logiciel Sun Cluster 3.0 ne prend pas en charge l'option Secure NFS ni l'utilisation conjointe de Kerberos et de NFS, et en particulier les options secure et kerberos appliquées au sous-système share_nfs(1M).
Restrictions liées à Sun Cluster HA for NetBackup
Sur la grappe qui exploite le serveur maître, le serveur maître est le seul hôte logique qui puisse être sauvegardé.
Aucun support de sauvegarde ne peut être relié au serveur maître, il faut donc installer un ou plusieurs serveur(s) de support.
Restrictions liées à Sun Cluster et NetBackup
Si le client NetBackup est une grappe, un seul hôte logique peut être configuré comme client car il n'y a qu'un seul fichier bp.conf.
Si le client NetBackup est une grappe et si l'un des hôtes logiques de la grappe est configuré comme client NetBackup, NetBackup ne peut pas sauvegarder les hôtes physiques.
Restrictions liées au gestionnaire de volumes
Dans les configurations Solstice DiskSuite qui utilisent des médiateurs, chaque ensemble de disques doit être associé à exactement deux hôtes médiateurs.
DiskSuite Tool (metatool) n'est pas compatible avec le logiciel Sun Cluster 3.0.
L'utilisation conjointe de VxVM Dynamic Multipathing (DMP) et du logiciel Sun Cluster 3.0 pour gérer plusieurs chemins à partir d'un même noeud n'est pas prise en charge.
RAID 5 n'est pas pris en charge.
Restrictions liées au matériel
A l'exception des grappes qui utilisent Sun StorEdge A3x00, une paire de noeuds de grappe doit avoir au moins deux baies de disques multihôtes.
A l'heure actuelle, seules les plates-formes matérielles suivantes prennent en charge le RAID de niveau 5 :
- matrices Sun StorEdge A5x00/A3500FC.
- matrices Sun StorEdge T3 et T3+. Notez, toutefois, que si vous utilisez ces matrices dans une configuration à contrôleur unique, vous devez utiliser un mécanisme supplémentaire pour la redondance des données, comme un miroir sur hôte. Si ces matrices sont utilisées dans une configuration "partner-group", les contrôleurs sont redondants. Vous pouvez donc utiliser RAID 5 sans miroir sur hôte.
AP (Alternate Pathing) n'est pas pris en charge.
Si vous utilisez un serveur Sun Enterprise 420R avec une carte PCI dans le slot J4701, la carte mère doit être au moins de niveau 15 (501-5168-15 ou supérieure). La référence de la carte mère et son niveau de révision figurent sur la tranche de la carte, à proximité du slot PCI 1.
Des paniques du système ont été observées dans le cas de grappes où des cartes UDWIS I/O sont insérées dans le slot 0 d'une carte mère d'un serveur Sun Enterprise 10000 ; évitez donc d'installer des cartes UDWIS I/O dans le slot 0 d'une carte mère de ce serveur (reportez-vous à la section "Bogue nº : 4490386".)
Conseils de temporisation des services de données
Si vous utilisez des services de données aux E/S intensives et si la grappe comprend un grand nombre de disques configurés, augmentez le délai de temporisation par défaut des services de données. Ce délai de temporisation doit tenir compte des tentatives infructueuses au sein du sous-système E/S pendant les pannes des disques. Contactez l'assistance technique locale pour plus d'informations sur l'augmentation de la temporisation des services de données.
Restrictions liées aux services de données
Identifiez la configuration minimale requise par l'ensemble des services de données avant d'installer Solaris et Sun Cluster. Sinon vous risquez de faire des erreurs d'installation et vous devrez réinstaller complètement les logiciels Solaris et Sun Cluster.
Par exemple, l'option Oracle Parallel Fail Safe/Real Application Clusters Guard de Oracle Parallel Server/Real Application Clusters impose certaines exigences quant aux noms d'hôtes et de noeuds utilisés dans la grappe. Vous devez en tenir compte avant l'installation du logiciel Sun Cluster car vous ne pourrez pas changer les noms d'hôtes après l'installation du logiciel Sun Cluster. Pour de plus amples informations sur les exigences relatives aux noms d'hôtes et aux noms des noeuds, consultez la documentation de Oracle Parallel Fail Safe/Real Application Clusters Guard.
Cette section donne des informations sur les correctifs applicables aux configurations de Sun Cluster.
Le logiciel Sun Cluster inaugure l'utilisation de PatchPro, une solution de pointe de gestion des correctifs, développée par Sun. Ce nouvel outil simplifie considérablement la sélection et le téléchargement des correctifs pour l'installation ou la maintenance du logiciel Sun Cluster. PatchPro fournit un outil spécifique à Sun Cluster d'installation simplifiée des correctifs en mode interactif, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers correctifs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des correctifs développés, pas uniquement des correctifs de sécurité et de haut niveau de disponibilité.
Vous devez posséder un compte SunSolve pour consulter et télécharger les correctifs du produit Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant commercial ou technico-commercial Sun ou enregistrez-vous sur le site web SunSolve Online.
Pour accéder à l'outil PatchPro pour le logiciel Sun Cluster, allez à l'adresse http://www.sun.com/PatchPro/, cliquez sur "Sun Cluster," puis choisissez Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre grappe et télécharger les correctifs applicables.
Le site web de SunSolve OnlineSM vous offre un accès permanent aux informations de dernière minute relatives aux correctifs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve Online à l'adresse http://sunsolve.sun.com pour consulter les grilles actualisées des versions de logiciels, microprogrammes et correctifs prises en charge.
Vous devez posséder un compte SunSolve pour consulter et télécharger les correctifs du produit Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant commercial ou technico-commercial Sun ou enregistrez-vous sur le site web SunSolve Online.
Pour obtenir des informations sur les correctifs de Sun Cluster 3.0, utilisez le service SunSolve EarlyNotifierSM. Pour accéder aux informations du service EarlyNotifier, connectez-vous à SunSolve et sélectionnez la recherche simple dans le haut de la page principale. Dans la page Simple Search, cliquez sur EarlyNotifier et tapez Sun Cluster 3.0 dans le champ des critères de recherche. La page EarlyNotifier pour le logiciel Sun Cluster 3.0 s'ouvre.
Avant d'installer Sun Cluster 3.0 et d'appliquer des correctifs à un élément de grappe (environnement d'exploitation Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou matériel de disque), consultez les informations EarlyNotifier et tous les fichiers README qui accompagnent les correctifs. Le même niveau de correctifs doit être appliqué à tous les noeuds de la grappe pour que celle-ci puisse fonctionner correctement.
Pour connaître les procédures spécifiques aux correctifs ainsi que les astuces d'administration des correctifs, reportez-vous au document Guide d'administration système de Sun Cluster 3.0 12/01.
Le correctif le plus récent de l'exécutable sapstart (reportez-vous à la note OSS 0396321) vous protège contre le lancement de plusieurs instances de SAP dès lors qu'une instance est déjà active sur un noeud. Ce correctif est important, car la multiplication d'instances de SAP provoque le blocage de l'instance déjà active. Qui plus est, ce blocage empêche les scripts d'arrêt SAP d'arrêter convenablement les instances de SAP, ce qui risque d'endommager des données.
Pour éviter ce problème, installez le correctif le plus récent de l'exécutable sapstart et configurez le nouveau paramètre du profil de démarrage SAP, qui définit le serveur d'applications et l'instance centrale.
Par exemple, éditez le profil SC3_DVEBMGS00 (celui de l'instance centrale) afin d'y ajouter le nouveau paramètre SAP, sapstart/lockfile.
sapstart/lockfile =/usr/sap/SC3/DVEBMGS00/work/startup_lockfile |
Nom du nouveau paramètre.
Répertoire de travail de l'instance centrale.
Nom du fichier de verrouillage utilisé par Sun Cluster HA for SAP.
Le chemin du fichier de verrouillage doit se situer sur le système de fichiers de la grappe. Si le chemin du fichier de verrouillage figure en local sur les noeuds, il sera impossible d'éviter le lancement de la même instance à partir de différents noeuds.
Même si vous configurez le fichier de verrouillage dans le profil SAP, vous ne devez pas créer manuellement ce fichier. Le service de données Sun Cluster HA for SAP le crée pour vous.
Avec cette configuration, lorsque vous lancez l'instance de SAP, le logiciel SAP verrouille le fichier startup_lockfile. Si vous lancez l'instance SAP en dehors de l'environnement Sun Cluster et que vous essayez ensuite d'appeler SAP sous l'environnement Sun Cluster, le service de données Sun Cluster HA for SAP tente de lancer l'instance. Cependant, le fichier étant verrouillé, cette tentative échouera. Le service de données reporte les messages d'erreur éventuels dans syslog.
Voici quelques unes des modalités de licence de SunPlex Agent Builder.
Redistributivité : les fichiers du répertoire /usr/cluster/lib/scdsbuilder/src peuvent très bien être redistribués, dans le respect des modalités du Binary Code License Agreement et de ses clauses complémentaires.
Pour de plus amples informations sur les modalités d'octroi de licence, consultez le Binary Code License Agreement et ses clauses complémentaires, documents qui figurent dans le kit média de Sun Cluster 3.0.
Cette section décrit la mise à niveau du logiciel Sun Management Center 2.1.1 au logiciel Sun Management Center 3.0, dans une configuration Sun Cluster 3.0 12/01.
Procédez comme suit pour effectuer la mise à niveau du logiciel Sun Management Center 2.1.1 au logiciel Sun Management Center 3.0, dans une configuration Sun Cluster 3.0 12/01.
Veillez à disposer des éléments suivants :
Le CD-ROM Sun Cluster 3.0 12/01 ou le chemin d'accès à l'image du CD-ROM. Vous utiliserez le CD-ROM pour réinstaller les modules de Sun Cluster après la mise à niveau effective du logiciel Sun Management Center.
La documentation de Sun Management Center 3.0.
Les correctifs de Sun Management Center 3.0 et ceux du module Sun Cluster, le cas échéant. Reportez-vous au document "Correctifs et niveaux de microprogrammes requis" pour connaître l'emplacement des correctifs et les instructions d'installation.
Arrêtez tous les processus de Sun Management Center en cours.
Si la console Sun Management Center est active, fermez-la.
Dans la fenêtre de la console, sélectionnez File>Exit dans la barre de menus.
Arrêtez les processus de l'agent Sun Management Center sur chacune des machines agent de Sun Management Center (noeud de grappe).
# /opt/SUNWsymon/sbin/es-stop -a |
Sur la machine serveur de Sun Management Center, arrêtez le processus serveur de Sun Management Center.
# /opt/SUNWsymon/sbin/es-stop -S |
En tant que superutilisateur, supprimez les modules de Sun Cluster des emplacements répertoriés dans le Tableau 1-4.
Vous devez supprimer tous les modules Sun Cluster de tous les emplacements. Sinon, la mise à niveau du logiciel Sun Management Center risque d'échouer en raison de problèmes de dépendance des modules. Une fois le logiciel Sun Management Center mis à niveau, vous procéderez à la réinstallation de ces modules à l'Étape 5.
# pkgrm module |
Emplacement |
Module à supprimer |
---|---|
Chaque noeud de la grappe |
SUNWscsam, SUNWscsal |
Console Sun Management Center |
SUNWscscn |
Serveur Sun Management Center |
SUNWscssv |
Serveur d'aide Sun Management Center |
SUNWscshl |
Effectuez la mise à niveau au logiciel Sun Management Center 3.0.
Suivez les procédures de mise à niveau de la documentation de Sun Management Center 3.0.
En tant que superutilisateur, supprimez les modules de Sun Cluster des emplacements répertoriés dans le Tableau 1-5.
Pour le logiciel Sun Management Center 3.0, vous devez installer le module du serveur d'aide SUNWscshl à la fois sur la console et sur le serveur d'aide.
# cd /cdrom/suncluster_3_0_u2/SunCluster_3.0/Packages # pkgadd module |
Emplacement |
Module à installer |
---|---|
Chaque noeud de la grappe |
SUNWscsam, SUNWscsal |
Console Sun Management Center |
SUNWscscn, SUNWscshl |
Serveur Sun Management Center |
SUNWscssv |
Serveur d'aide Sun Management Center |
SUNWscshl |
Appliquez les correctifs de Sun Management Center et les correctifs des modules de Sun Cluster sur chaque noeud de la grappe.
Relancez les processus agent, serveur et console de Sun Management Center sur toutes les machines impliquées.
Pour ce faire, suivez les procédures de la section "Démarrage de Sun Management Center" du document Guide d'installation du logiciel Sun Cluster 3.0 12/01.
Chargez le module Sun Cluster.
Pour ce faire, suivez les procédures de la section "Chargement du module Sun Cluster" du document Guide d'installation du logiciel Sun Cluster 3.0 12/01.
Si le module Sun Cluster a été chargé précédemment, déchargez-le et chargez-le à nouveau pour effacer toutes les définitions d'alarmes mises en cache sur le serveur. Pour décharger le module, sélectionnez Module>Unload Module dans la fenêtre Details de la console.
Les problèmes suivants ont une incidence sur le fonctionnement de Sun Cluster 3.0 12/01. Pour connaître les toutes dernières informations, consultez le document Sun Cluster 3.0 12/01 Release Notes Supplement publié en ligne, à l'adresse http://docs.sun.com.
Récapitulatif du problème : le fichier /etc/mnttab n'indique pas l'état largefile actuel d'un système de fichiers VxFS monté globalement.
Solution : utilisez la commande fsadm, plutôt que l'entrée /etc/mnttab, pour vérifier l'état largefile du système de fichier.
Récapitulatif du problème : l'option Global VxFS semble allouer davantage de blocs de disques à une taille de fichier donnée que ne le fait l'option Local VxFS. Vous pouvez le constater à l'aide de la commande ls -ls.
Solution : démontez et remontez le système de fichiers. Les blocs de disques alloués supplémentaires sont éliminés.
Récapitulatif du problème:lorsqu'une grappe utilise des serveurs Sun Enterprise 10000, ceux-ci ont tendance à ne plus savoir comment se comporter lorsque les cartes E/S sont configurées d'une telle façon.
Solution:n'installez pas de cartes E/S UDWIS dans l'emplacement 0 d'une carte E/S SBus de serveurs Sun Enterprise 10000 en grappe.
Récapitulatif du problème : dans une grappe à N noeuds configurée avec N gestionnaires d'interaction, si vous arrêtez ou interrompez le noeud de grappe qui exploite un gestionnaire d'interaction (IM) utilisé par un client, la session du ou des clients s'interrompra. Les tentatives de reconnexion dudit client à un autre IM seront très longues. Ce problème est lié au produit BroadVision. Les techniciens de Broadvision tentent d'y remédier. BroadVision ne prend pas en charge la reprise sur panne de session IM.
Solution : dans un navigateur Netscape, cliquez sur le bouton Stop/Reload (arrêter/recharger), puis cliquez sur le bouton Start Broadway Application. La connexion au serveur BroadVision devrait être immédiate. Cette solution de remplacement fonctionne la plupart du temps pour de nouvelles connexions, quand le noeud IM a été interrompu. Le pourcentage de réussite est moindre, si vous appliquez cette procédure avant d'interrompre le noeud IM. En cas d'échec, videz le cache du disque et le cache mémoire de Netscape.
Récapitulatif du problème:dans une grappe à deux noeuds, si vous commutez oracle-rg du noeud 1 au noeud 2, trois tentatives sont nécessaires avant que BroadVision One-To-One parvienne à enregistrer un nouvel utilisateur. La première tentative donne lieu au message Fail to create new user. La seconde tentative affiche les informations de copyright. La troisième tentative aboutit sans problème. Ce problème survient sur les grappes à N noeuds qui exploitent une base de données Oracle de secours, dans ou hors de la grappe, ainsi que sur les grappes à deux noeuds où le noeud 1 est le noeud principal de http, oracle, roothost, backend et backend2 et où le gestionnaire d'interaction (IM) opère à la demande.
Le problème se résume à l'absence de publication du nom du nouvel utilisateur sur la page d'accueil, une fois la connexion établie. Il s'agit d'un problème connu imputé à BroadVision One-To-One. BroadVision One-To-One connaît ce problème et tente d'y remédier : BVNqa20753.
Solution: il n'y a pas de solution pour l'instant. L'enregistrement de l'utilisateur intervient au bout de trois tentatives.
Récapitulatif du problème:le correctif 110435-05 pour VERITAS File System change le paramétrage de journalisation par défaut de mount_vxfs de l'option log à l'option delaylog. La journalisation est indispensable à la prise en charge de VxFS par Sun Cluster.
Solution:ajoutez manuellement l'option log à la liste des options de VxFS dans le fichier vfstab.
Récapitulatif du problème:si vous utilisez des services de données aux E/S intensives, configurés sur un grand nombre de disques de la grappe, le temps de réponse des services de données risque d'être plus long que prévu, en raison des tentatives infructueuses au niveau du sous-système E/S.
Solution:augmentez la valeur d'extension de ressources de vos services de données en face de Probe_timeout. Contactez votre représentant technique si vous ne parvenez pas à estimer la valeur de temporisation.
# scrgadm -c -j resource -x Probe_timeout=valeur_temporisation |
Récapitulatif du problème:Record locking ne fonctionne pas correctement lorsque le périphérique à verrouiller est un périphérique global (/dev/global/rdsk/d4s0). Toutefois, record locking fonctionne correctement lorsque le programme s'exécute plusieurs fois en coulisses sur un noeud donné. Une fois que la première copie du programme a verrouillé une portion du périphérique, il faut que d'autres copies du programme attendent en bloc (block waiting) que le périphérique soit déverrouillé. Cependant, lorsque le programme tourne sur un autre noeud que celui indiqué, il verrouille le périphérique de nouveau alors qu'il devrait attendre en bloc (block waiting) que le périphérique soit déverrouillé.
Solution:il n'y a pas de solution pour l'instant.
Récapitulatif du problème:lors du passage au logiciel Solaris 8 10/01 (obligatoire pour la mise à niveau de Sun Cluster 3.0 12/01) dans une configuration Sun Cluster, les scripts Apache de début et de fin sont restaurés. Si un service de données Apache figure déjà sur la grappe avec sa configuration par défaut (le fichier /etc/apache/httpd.conf existe et le fichier /etc/rc3.d/S50apache n'existe pas), Apache démarre de lui-même. Ceci empêche le service de données Apache de démarrer alors que Apache tourne déjà.
Solution:procédez comme suit sur chaque noeud.
Avant d'arrêter un noeud que vous souhaitez mettre à niveau, voyez si les liens suivants existent et, si c'est le cas, si les noms de fichiers comportent un K ou un S majuscule.
/etc/rc0.d/K16apache /etc/rc1.d/K16apache /etc/rc2.d/K16apache /etc/rc3.d/S50apache /etc/rcS.d/K16apache |
Si ces liens existent et qu'un K ou un S majuscule figure dans le nom de fichier, vous n'avez rien à faire de plus. Sinon, poursuivez avec l'étape suivante, une fois que le logiciel Solaris 8 10/01 est installé sur le noeud.
Une fois que le logiciel Solaris 8 10/01 est installé sur le noeud, mais avant de réinitialiser le noeud, mettez de coté les liens Apache restaurés en insérant un k ou un s minuscule dans les noms de fichiers.
# mv /a/etc/rc0.d/K16apache /a/etc/rc0.d/k16apache # mv /a/etc/rc1.d/K16apache /a/etc/rc1.d/k16apache # mv /a/etc/rc2.d/K16apache /a/etc/rc2.d/k16apache # mv /a/etc/rc3.d/S50apache /a/etc/rc3.d/s50apache # mv /a/etc/rcS.d/K16apache /a/etc/rcS.d/k16apache |
Récapitulatif du problème:si vous avez utilisé la commande interactive scinstall(1M), qui confère à la grappe des fonctions de détection automatique des adaptateurs de transport, le message d'erreur suivant risque d'apparaître en cours de sondage :
scrconf: /dev/clone: No such file or directory |
Ce message d'erreur peut occasionner un abandon du sondage et l'échec de la recherche automatique. Il est possible que le périphérique ne soit pas un adaptateur de réseau. /dev/llc20, par exemple. Si vous rencontrez ce problème, demandez à votre représentant technique d'actualiser le compte-rendu des bogues en y ajoutant des informations qui pourraient permettre de reproduire le problème.
Solution:réinitialisez le noeud et recommencez scinstall. Si le problème persiste, sélectionnez les options sans recherche automatique de scinstall.
Récapitulatif du problème:lorsque vous procédez à la mise à niveau du logiciel Sun Cluster, de Sun Cluster 2.2 à Sun Cluster 3.0 12/01, à l'aide de la commande scinstall -u begin -F, la commande scinstall ne parvient pas à supprimer les correctifs avec dépendances et abandonne la procédure en affichant les messages suivants :
scinstall: Failed to remove patch-id.rev scinstall: scinstall did NOT complete successfully! |
Cet échec est dû à la dépendance d'un correctif.
Solution:retirez manuellement les dépendances des correctifs, puis reprenez la procédure de mise à niveau. Identifiez, dans le fichier journal, les dépendances des correctifs ayant entraîné l'échec du script. La commande showrev permet également d'identifier les dépendances des correctifs.
showrev -p | grep id_correctif |
Récapitulatif du problème:lorsque le tableau CCR (Cluster Configuration Repository) d'une grappe n'est pas valide, il est verrouillé en lecture comme en écriture. Si vous exécutez la commande ccradm -r -f sur le CCR non valide, ce dernier devient accessible en lecture comme en écriture. Cependant, après l'exécution de la commande ccradm -r -f, le tableau CCR reste protégé en écriture.
Solution:réinitialisez toute la grappe.
Récapitulatif du problème:lors de la seconde exécution de la commande interactive scinstall(1M) sur le même répertoire JumpStart, en vue de la configuration d'un serveur JumpStart pour l'installation d'une grappe, il arrive que les noms de la grappe et du répertoire disparaissent. Les deux noms manquent dans la ligne de commande scinstall appelée par ce processus.
Solution:supprimez le fichier .interactive.log.3 du répertoire JumpStart, puis réexécutez scinstall.
Récapitulatif du problème:les fichiers NLS pour Oracle 9.0.1 ne sont pas rétro-compatibles avec les logiciels Oracle 8.1.6 et 8.1.7. Le correctif 110651-04 est erroné.
Solution:supprimez le corerctif 110651-04 et remplacez-le par 110651-02.
Récapitulatif du problème:si syslogd échoue et que vous ne parvenez pas à le redémarrer sur un noeud de grappe (en raison du bogue 4477565, par exemple), rgmd risque de rester en suspens sur un ou plusieurs noeuds. A leur tour, il est possible que d'autres commandes, comme scstat(1M) -g, scswitch(1M) -g, scrgadm(1M) et scha_*_get(1HA,3HA) restent également en suspens et entravent la reprise sur panne de groupes de ressources.
Solution:éditez le script /etc/init.d/syslog, en y insérant une ligne pour supprimer le lien symbolique /etc/.syslog_door qui précède la commande qui débute par /usr/sbin/syslogd. Ligne insérée :
rm -f /etc/.syslog_door |
Récapitulatif du problème:après l'installation des modules RSM (Remote Shared Memory) et du module SUNWscrif (module RSMAPI Path Manager), certains chemins empruntés par l'interface RSMAPI ne parviennent pas à l'état RSM_CONNECTION_ACTIVE. Si vous videz la structure topologique à l'aide de rsm_get_interconnect_topology (3rsm), l'interface {rsmapi.h} présente l'état de chaque chemin.
Appliquez la procédure corrective en procédant chemin par chemin, pour ne pas isoler le noeud de la grappe.
Solution:exécutez les commandes suivantes sur les noeuds de la grappe pour détecter les chemins dont l'état diffère de RSM_CONNECTION_ACTIVE (3).
# scconf -c -m endpoint=noeud:adpname,state=disabled # scconf -c -m endpoint=noeud:adpname,state=enabled |
Une extrémité du chemin affecté par ce problème
Récapitulatif du problème: à compter de la version 3.1.1 de VxVM, le chemin de la page de manuel est /opt/VRTS/man. Ce même chemin était /opt/VRTSvxvm/man, dans les versions précédentes. Ce nouveau chemin ne figure pas dans le document Guide d'installation du logiciel Sun Cluster 3.0 12/01.
Solution:pour VxVM version 3.1.1 et suivantes, ajoutez /opt/VRTS/man au MANPATH sur chaque noeud de la grappe.
Cette section décrit les erreurs ou omissions de la documentation et de l'aide en ligne, ainsi que les procédures correctives qui s'y appliquent.
Le paragraphe d'introduction de la section "Installation des modules Sun Cluster HA for Oracle" du document Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide n'évoque pas le module supplémentaire dont ont besoin les utilisateurs des grappes exploitant Sun Cluster HA for Oracle avec Oracle 64 bits. La section suivante corrige le paragraphe d'introduction de la section "Installation des modules Sun Cluster HA for Oracle" du document Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.
Utilisez l'utilitaire scinstall(1M) pour installer un des modules suivants sur votre grappe, voire les deux, selon votre configuration. N'appliquez pas l'option -s à la commande non interactive scinstall si vous souhaitez installer tous les modules de services de données.
SUNWscor : grappe qui exploite Sun Cluster HA for Oracle avec Oracle 32 ou 64 bits
SUNWscorx : grappe qui exploite Sun Cluster HA for Oracle avec Oracle 64 bits
SUNWscorx dépend du module SUNWscor.
Si vous avez installé le module de service de données SUNWscor lors de l'installation initiale de Sun Cluster, allez directement à la section "Enregistrement et configuration de Sun Cluster HA for Oracle", page 30. Sinon, procédez comme suit pour installer les modules SUNWscor et SUNWscorx.
Les modules logiciels Apache doivent être installés sur le noeud avant que vous amorciez l'installation de SunPlex Manager. Ceci est vrai que vous installiez SunPlex Manager manuellement ou automatiquement, avec la méthode scinstall(1M) interactive ou la méthode scinstall JumpStart. Si le logiciel Apache n'est pas installé avant l'installation de SunPlex Manager, un message similaire à celui-ci apparaît à l'écran :
NOTICE: To finish installing the SunPlex Manager, you must installthe SUNWapchr and SUNWapchu Solaris packages and any associatedpatches. Then run '/etc/init.d/initspm start' to start the server. |
La procédure "Installation du logiciel SunPlex Manager" du Guide d'installation du logiciel Sun Cluster 3.0 12/01 comporte une étape de vérification de l'installation préalable des modules logiciels Apache. Ce n'est pas le cas des procédures "Installation du logiciel Sun Cluster sur le premier noeud de grappe (scinstall)," "Installation du logiciel Sun Cluster sur d'autres noeuds de grappe (scinstall)," et "Installation de Solaris et du logiciel Sun Cluster (JumpStart)".
Si vous prévoyez d'utiliser SunPlex Manager et que vous utilisez la méthode scinstall(1M) interactive ou la méthode scinstall JumpStart d'installation du logiciel Sun Cluster, vérifiez que les modules Apache sont bien installés sur le noeud avant de commencer l'installation du logiciel Sun Cluster. Pour connaître les instructions, reportez-vous à l'étape 3 de la section "Installation du logiciel SunPlex Manager" du document Guide d'installation du logiciel Sun Cluster 3.0 12/01.
Le document Guide d'installation du logiciel Sun Cluster 3.0 12/01 n'indique pas le chemin d'accès à la nouvelle page de manuel correspondant aux dernières versions de VERITAS Volume Manager (VxVM). Le MANPATH /opt/VRTSvxvm/man ne s'applique qu'à VxVM 3.0.4 et 3.1. Pour VxVM 3.1.1 et 3.2, utilisez plutôt /opt/VRTS/man comme MANPATH.
Les instructions d'installation du module générique de services de données de Sun Cluster 3.0, SUNWscgds, ne figurent pas dans les procédures du document Guide d'installation du logiciel Sun Cluster 3.0 12/01. Les options de mise à niveau de scinstall(1M) n'assurent pas l'installation automatique de ce module. Une fois que vous avez procédé à la mise à niveau du logiciel Sun Cluster, utilisez la commande pkgadd(1M) pour installer le module SUNWscgds à partir du Sun Cluster 3.0 12/01 CD-ROM. Vous n'êtes pas tenu de réinitialiser le noeud après l'installation de ce module.
Dans la procédure "Ajout de systèmes de fichiers de grappe" des documents Guide d'installation du logiciel Sun Cluster 3.0 12/01 et Guide d'administration système de Sun Cluster 3.0 12/01, l'étape qui consiste à utiliser la commande newfs(1M) pour créer un système de fichiers ne s'applique qu'aux systèmes UFS. Pour créer un système de fichiers VxFS, suivez les procédures de la documentation de votre VxFS.
Si vous prévoyez de créer plus de trois ensembles de disques dans la grappe, suivez d'abord les étapes ci-après. Ces étapes s'appliquent que vous installiez des ensembles de disques pour la première fois ou que vous en ajoutiez dans une grappe déjà configurée.
Vérifiez que la valeur de md_nsets est suffisamment élevée pour tenir compte du nombre total d'ensembles de disques que vous envisagez de créer dans la grappe.
A partir d'un noeud de la grappe, vérifiez la valeur de la variable md_nsets dans le fichier /kernel/drv/md.conf.
Si le nombre total des ensembles de disques de la grappe est supérieur à la valeur indiquée pour md_nsets, moins un, augmentez la valeur de md_nsets en conséquence, pour chaque noeud.
Le nombre maximum d'ensembles de disques autorisé correspond à la valeur de md_nsets moins un. La valeur maximale autorisée pour md_nsets est 32.
Vérifiez que le fichier /kernel/drv/md.conf est identique sur tous les noeuds de la grappe.
Le non respect de cette consigne peut occasionner de graves erreurs de Solstice DiskSuite et un risque de pertes de données.
Arrêtez la grappe depuis un noeud.
# scshutdown -g0 -y |
Réinitialisez tous les noeuds de la grappe.
ok> boot |
Exécutez la commande devfsadm(1M) sur chaque noeud de la grappe.
Vous pouvez exécuter cette commande sur tous les noeuds de la grappe en même temps.
Exécutez la commande scgdevs(1M) à partir d'un noeud de la grappe.
Vérfiiez, sur chaque noeud, que la commande scgdevs s'est déroulée avec succès, avant de commencer à créer des ensembles de disques.
La commande scgdevs se déclenche à distance sur tous les noeuds, quand bien même elle est exécutée depuis un seul noeud. Pour savoir si la commande scgdevs s'est exécutée convenablement, exécutez la commande suivante sur chaque noeud de la grappe.
% ps -ef | grep scgdevs |
Une note figurant dans l'aide en ligne de SunPlex Manager est inexacte. Cette note apparaît dans la procédure d'installation du service de données Oracle. La correction est indiquée ci-dessous.
Incorrect:
Remarque : en l'absence de valeur en face des variables shmsys et semsys dans le fichier /etc/system, une fois les modules de SunPlex Manager installés, des valeurs par défaut sont automatiquement appliquées à ces variables dans le fichier /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.
Correct :
Remarque : en l'absence de valeurs en face des variables shmsys et semsys, dans le fichier /etc/system, lors de l'installation du service de données Oracle, des valeurs par défaut peuvent être insérées automatiquement dans le fichier /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.