Ce document fournit les informations suivantes relatives au logiciel SunTM Cluster 3.1 10/03.
pour de plus amples informations sur les services de données Sun Cluster 3.1 10/03, reportez-vous aux Notes de versions des services de données Sun Cluster 3.1 10/03.
Cette rubrique présente les nouvelles fonctions et fonctionnalités ainsi que les nouveaux produits pris en charge par le logiciel Sun Cluster 3.1 10/03.
Le protocole de notification de reconfiguration de cluster (PNRC) intègre un mécanisme permettant aux applications de s'enregistrer pour recevoir des notifications asynchrones d'événements de reconfiguration Sun Cluster. Les services de données fonctionnant sur le cluster ainsi que les applications tournant à l'extérieur peuvent s'enregistrer pour recevoir des notifications d'événements. Celles-ci informent des modifications affectant les membres du cluster, les groupes de ressources et l'état des ressources.
Le contrôle de chemin de disque (CCD) informe les administrateurs système des échecs de chemins d'accès de noeuds principaux et secondaires. Le mécanisme de détection de pannes des chemins d'accès génère un événement à travers le cadre d'événements du cluster et permet une intervention manuelle.
Cette fonction permet l'entrelacement du trafic IP envoyé aux adresses IP logiques par noeud à travers toutes les interconnexions privées. Le trafic TCP est entrelacé sur la base d'une granularité par connexion. Le trafic UDP est entrelacé par paquet.
L'intégration du moteur de connaissances eRAS de Sun à l'utilitaire sccheck(1M) accroît sensiblement la capacité de sccheck à détecter des configurations « vulnérables » en renforçant les nombreux contrôles d'eRAS existants. Des rapports de vulnérabilité sont générés à partir des noeuds individuels ainsi que du cluster.
Cette fonction permet l'utilisation du contrôle d'accès basé sur les rôles (RBAC) pour l'administration et le fonctionnement du cluster.
Cette fonction permet la prise en charge par Sun Cluster de clusters à un noeud.
Cette fonction permet aux développeurs d'utiliser l'environnement de développement de Sun ONE Studio pour la création d'agents.
Cette fonction optimise la commande scinstall(1M) pour l'installation de tous les noeuds d'un cluster à partir d'un point de contrôle unique. En outre, elle est compatible avec l'outil d'installation Solaris Web Start.
Des versions localisées des composants de Sun Cluster sont désormais disponibles dans cinq langues ; elles peuvent être installées à l'aide du programme Web Start. Pour de plus amples informations, reportez-vous au Guide d'installation du logiciel Sun Cluster 3.1 10/03.
Langue |
Composant Sun Cluster localisé |
---|---|
Français |
Installation CCP (panneau de commande du cluster) Logiciel Sun Cluster Services de données Sun Cluster Module Sun Cluster pour Sun Management Center SunPlex Manager |
Japonais |
Installation CCP (panneau de commande du cluster) Logiciel Sun Cluster Services de données Sun Cluster Module Sun Cluster pour Sun Management Center SunPlex Manager Pages de manuel de Sun Cluster Pages de manuel du Cluster Control Panel (CCP) Pages de manuel des services de données Sun Cluster |
Chinois simplifié |
Installation CCP (panneau de commande du cluster) Logiciel Sun Cluster Services de données Sun Cluster Module Sun Cluster pour Sun Management Center SunPlex Manager |
Chinois traditionnel |
Installation CCP (panneau de commande du cluster) Logiciel Sun Cluster Services de données Sun Cluster Module Sun Cluster pour Sun Management Center SunPlex Manager |
Coréen |
Installation CCP (panneau de commande du cluster) Logiciel Sun Cluster Services de données Sun Cluster Module Sun Cluster pour Sun Management Center SunPlex Manager |
Pour de plus amples informations sur les améliorations apportées aux services de données, reportez-vous aux Notes de version des services de données Sun Cluster 3.1 10/03.
Cette rubrique décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.1 10/03 .
Environnement d'exploitation et patchs : les versions Solaris et patchs pris en charge sont disponibles à l'adresse suivante :
Pour de plus amples détails, reportez-vous à la rubrique Patchs et niveaux de microprogrammes requis.
Gestionnaires de volumes
Pour Solaris 8 : Solstice DiskSuiteTM 4.2.1 et VERITAS Volume Manager 3.2 et 3.5.
Pour Solaris 9 : Solaris Volume Manager et VERITAS Volume Manager 3.5.
si vous effectuez une mise à niveau à partir de VERITAS Volume Manager (VxVM) 3.2 à 3.5, la fonction Cluster Volume Manager (CVM) n'est pas disponible tant que vous n'avez pas installé la clé de licence CVM pour la version 3.5. Dans VxVM 3.5, la clé de licence CVM de la version 3.2 n'active pas CVM et doit être mise à niveau avec la clé de licence CVM de la version 3.5.
Systèmes de fichiers
Pour Solaris 8 : Solaris UFS et Système de fichiers VERITAS 3.4 et 3.5.
Pour Solaris 9 : Solaris UFS et Système de fichiers VERITAS 3.5.
Services de données (agents) : pour de plus amples informations sur les services de données pris en charge, reportez-vous aux Notes de version des services de données Sun Cluster 3.1 10/03.
les services de données Sun Cluster 3.0 peuvent fonctionner avec le logiciel Sun Cluster 3.1 10/03, sauf dans les cas présentés à la rubrique Exécution de Sun Cluster HA pour Oracle 3.0 sur le logiciel Sun Cluster 3.1 10/03.
Configuration minimale requise : Sun Cluster 3.1 10/03 requiert davantage de mémoire qu'un noeud opérant dans des conditions normales. Le supplément de mémoire requis correspond à 128 Mo plus dix pour cent. Par exemple, si un noeud autonome a normalement besoin de 1 Go de mémoire, il manque encore 256 Mo de mémoire pour atteindre la configuration minimale requise.
RSMAPI : le logiciel Sun Cluster 3.1 10/03 prend en charge l'Interface de programmation d'application de mémoire partagée distante (RSMAPI) sur les câbles d'interconnexion compatibles RSM, tels que PCI-SCI.
Les restrictions suivantes s'appliquent à la version Sun Cluster 3.1 10/03 :
Pour les autres problèmes ou restrictions connues, reportez-vous à la rubrique Problèmes connus et bogues.
Les bandes, les CD et les DVD multihôtes ne sont pas pris en charge.
AP (Alternate Pathing) n'est pas pris en charge.
Les périphériques de stockage ayant plus d'un chemin d'accès au boîtier à partir d'un noeud de cluster donné ne sont pas pris en charge, excepté les suivants :
Sun StorEdgeTM A3500, incluant la prise en charge de deux chemins d'accès à chacun des deux noeuds ;
tout périphérique prenant en charge Sun StorEdge Traffic Manager ;
les périphériques de stockage EMC utilisant le logiciel EMC PowerPath.
Si vous utilisez un serveur Sun EnterpriseTM 420R équipé d'une carte PCI à l'emplacement J4701, la carte mère doit être au moins de niveau 15 (501-5168-15 ou supérieure). La référence de la carte mère et son niveau de révision figurent sur la tranche de la carte, à proximité de l'emplacement PCI 1.
Des erreurs graves de système ont été observées dans le cas de clusters où des cartes UDWIS I/O sont insérées dans l'emplacement 0 d'une carte mère d'un serveur Sun Enterprise 10000 ; évitez donc d'installer des cartes UDWIS I/O à l'emplacement 0 de la carte de ce serveur.
Lorsque vous augmentez ou diminuez le nombre de noeuds reliés à un périphérique de quorum, le nombre de votes de quorum n'est pas recalculé automatiquement. Vous pouvez rétablir le nombre de votes correct en retirant tous les périphériques de quorum puis en les rajoutant à la configuration.
SunVTSTM n'est pas pris en charge.
IPv6 n'est pas pris en charge.
Les types de transport RMS (Remote Shared Memory) sont mentionnés dans la documentation, mais pas pris en charge. Si vous utilisez l'interface RSMAPI, indiquez dlpi comme type de transport.
L'interface SCI (Sbus Scalable Coherent Interface) n'est pas prise en charge en tant qu'interconnexion de cluster. Par contre, l'interface PCI-SCI est prise en charge.
Les interfaces réseau logiques sont réservées à l'utilisation du logiciel Sun Cluster.
Les applications client fonctionnant sur les noeuds du cluster ne doivent pas correspondre aux adresses IP logiques d'un service de données HD. Au cours d'un basculement, ces adresses pourraient en effet disparaître, laissant le client sans connexion.
Si vous effectuez une mise à niveau à partir de VERITAS Volume Manager (VxVM) 3.2 à 3.5, la fonction Cluster Volume Manager (CVM) n'est pas disponible tant que vous n'avez pas installé la clé de licence CVM pour la version 3.5. Dans VxVM 3.5, la clé de licence CVM de la version 3.2 n'active pas CVM et doit être mise à niveau avec la clé de licence CVM de la version 3.5.
Dans les configurations Solstice DiskSuite/Solaris Volume Manager qui utilisent des médiateurs, chaque ensemble de disques doit être associé à exactement deux hôtes médiateurs.
DiskSuite Tool (Solstice DiskSuite metatool) et le module de stockage amélioré de la console de gestion Solaris (Solaris Volume Manager) ne sont pas compatibles avec le logiciel Sun Cluster 3.1 10/03.
Les versions 3.2 ou ultérieures de VxVM ne permettent pas de désactiver le multi-acheminement dynamique (DMP) à l'aide de la commande scvxinstall durant l'installation de VxVM. Cette procédure est décrite au chapitre “Installing and Configuring VERITAS Volume Manager” in Guide d'installation du logiciel Sun Cluster 3.1 10/03. Le multi-acheminement dynamique Veritas est pris en charge par les configurations suivantes :
chemin d'E/S unique par noeud vers le stockage partagé du cluster ;
solution de multi-acheminement prise en charge (Sun Traffic Manager, EMC PowerPath, Hiatchi HDLM) et gérant plusieurs chemins d'E/S par noeud vers le stockage partagé du cluster.
Les groupes de disques racine simples (rootdg créés sur une même tranche du disque racine) ne sont pas pris en charge en tant que types de disques avec VxVM par le logiciel Sun Cluster 3.1 10/03.
RAID 5 n'est pas pris en charge.
Les systèmes de fichiers de cluster ne prennent pas en charge les quotas.
L'utilisation d'un système de fichiers LOFS sur des noeuds de cluster n'est pas prise en charge par le logiciel Sun Cluster 3.1 10/03.
La commande umount -f se comporte exactement de la même façon que la commande umount sans l'option -f. Elle ne prend pas en charge les démontages forcés.
Seuls les répertoires vides prennent en charge la commande unlink( 1M).
La commande lockfs -d n'est pas prise en charge. Utilisez la commande lockfs -n à la place.
Le système de fichiers de cluster ne prend en charge aucune des fonctions des systèmes de fichiers Solaris permettant de placer une marque de fin de communication dans l'espace de noms du système de fichiers. Par conséquent, même si vous pouvez créer une socket domaine UNIX portant le nom d'un nom de chemin dans le système de fichiers de cluster, cette socket ne résisterait pas à un basculement du noeud. En outre, aucun fifo ou tube nommé créé sur un système de fichiers n'est globalement accessible, et vous devez éviter d'essayer d'employer la commande fattach à partir de n'importe quel noeud autre que le noeud local.
L'exécution de fichiers binaires de systèmes de fichiers, montés par le biais de l'option de montage forcedirectio n'est pas prise en charge.
Il est impossible de remonter un système de fichiers en utilisant l'option de montage directio.
Vous ne pouvez pas définir l'option de montage directio sur un seul fichier au moyen de l'ioctl directio.
La configuration Sun Cluster 3.1 10/03 ne prend pas en charge les fonctions VxFS suivantes :
E/S rapide ;
instantanés ;
points de contrôle du stockage ;
avis de cache (ne s'appliquant qu'au noeud sélectionné en cas d'utilisation) ;
VERITAS CFS (nécessitant la fonction de cluster VERITAS et VCS).
Toutes les autres fonctions et options VxFS prises en charge dans une configuration de cluster sont également prises en charge par le logiciel Sun Cluster 3.1 10/03. Consultez la documentation de VxFS et les pages de manuel pour plus de détails sur les options de VxFS prises en charge ou non dans une configuration de cluster.
La configuration Sun Cluster 3.1 10/03 ne prend pas en charge les options de montage spécifiques à VxFS.
convosync (Convertir O_SYNC) ;
mincache ;
qlog, delaylog, tmplog.
Pour de plus amples informations sur l'administration des systèmes de fichiers de cluster VxFS dans une configuration Sun Cluster, reportez-vous à la rubrique “Administering Cluster File Systems Overview” in Guide d'administration système de Sun Cluster 3.1 10/03.
Cette rubrique décrit les restrictions s'appliquant exclusivement à l'utilisation du multi-acheminement sur réseau IP dans un environnement Sun Cluster 3.1 10/03 ou ne figurant pas dans la documentation Solaris relative au multi-acheminement sur réseau IP.
IPv6 n'est pas pris en charge.
Tous les adaptateurs de réseaux publics doivent figurer dans des groupes IPMP.
Dans le fichier /etc/default/mpathd, ne remplacez pas yes par no pour TRACK_INTERFACES_ONLY_WITH_GROUPS.
La plupart des procédures, instructions et restrictions définies dans la documentation Solaris pour le multi-acheminement sur réseau IP s'applique aussi bien aux environnements cluster et non-cluster. Par conséquent, consultez le document Solaris approprié pour de plus amples informations sur les restrictions liées au multi-acheminement sur réseau IP.
Version de l'environnement d'exploitation |
Pour les instructions, voir... |
---|---|
Environnement d'exploitation Solaris 8 |
IP Network Multipathing Administration Guide |
Environnement d'exploitation Solaris 9 |
“ IP Network Multipathing Topics” dans le System Administration Guide : IP Series |
Ne configurez pas les noeuds de cluster comme routeurs (passerelles). Si le système est immobilisé, les clients ne pourront pas trouver de routeur alternatif et, de ce fait, effectuer une reprise.
Ne configurez pas les noeuds de cluster comme serveurs NIS ou NIS+. Ils peuvent toutefois être des clients NIS ou NIS+.
N'utilisez pas de configuration Sun Cluster pour doter les systèmes client d'un service d'initialisation ou d'installation à haute disponibilité.
N'utilisez pas de configuration Sun Cluster pour fournir un service rarpd.
Si vous installez un service RPC (appel de procédure à distance) sur le cluster, ce service ne doit pas utiliser les numéros de programmes suivants : 100141, 100142 et 100248. Ces numéros sont respectivement réservés aux démons Sun Cluster rgmd_receptionist , fed et pmfd. Si le service RPC installé utilise un de ces numéros, vous devez le modifier de façon à ce qu'il utilise un autre numéro.
À l'heure actuelle, SNDR (Sun StorEdge Network Data Replicator) ne peut être utilisé qu'avec HAStorage. Cette restriction ne s'applique qu'au groupe de ressources « de faible poids » et notamment à l'hôte logique que SNDR utilise pour la réplication. Les groupe de ressources d'application peuvent toujours utiliser HAStoragePlus avec SNDR. Vous pouvez utiliser le système de fichiers de basculement avec HAStoragePlus et SNDR en utilisant HAStorage pour le groupe de ressources SNDR et HAStoragePlus pour le groupe de ressources d'application ; les ressources HAStorage et HAStoragePlus pointant sur le même périphérique DCS sous-jacent. Un patch permettant à SNDR de fonctionner avec HAStoragePlus est en cours de mise au point.
L'exécution de processus à haut niveau de priorité programmant des classes sur des noeuds du cluster n'est pas prise en charge. Les processus s'exécutant dans la classe de programmation à temps partagé avec un haut niveau de priorité ou les processus s'exécutant dans la classe de programmation à temps réel ne doivent pas être exécutés sur des noeuds de cluster. Le logiciel Sun Cluster s'appuie sur des threads du noyau ne s'exécutant pas dans la classe en temps réel. D'autres processus à temps partagé s'exécutant avec une priorité supérieure à la normale ou des processus en temps réel peuvent empêcher les threads du noyau de Sun Cluster d'acquérir les cycles CPU requis.
Sun Cluster 3.1 10/03 ne peut fournir de services qu'aux services de données livrés avec Sun Cluster ou configurés à l'aide de l'API de services de données de Sun Cluster.
Sun Cluster ne possède actuellement pas de service de données HD pour le sous-système sendmail(1M). Il est possible d'exécuter le sous-système sendmail sur les noeuds de cluster individuels, mais ses fonctions, telles que l'envoi, l'acheminement, l'attente ou la relance, ne seront pas hautement disponibles.
Pour de plus amples informations sur les restrictions s'appliquant aux services de données spécifiques, reportez-vous aux Notes de version des services de données Sun Cluster 3.1 10/03.
Le service de données Sun Cluster HA pour Oracle 3.0 ne peut fonctionner sur le logiciel Sun Cluster 3.1 10/03 que s'il est utilisé avec les versions suivantes de l'environnement d'exploitation Solaris :
Solaris 8, version 32 bits ;
Solaris 8, version 64 bits ;
Solaris 9, version 32 bits.
le service de données Sun Cluster HA pour Oracle 3.0 ne peut pas fonctionner sur le logiciel Sun Cluster 3.1 10/03 s'il est utilisé avec la version 64 bits de Solaris 9.
Les problèmes et bogues présentés ci-après concernent la version Sun Cluster 3.1 10/03. Pour connaître les dernières informations, consultez le document Sun Cluster 3.1 10/03 Release Notes Supplement à l'adresse http://docs.sun.com.
Récapitulatif du problème : le fichier /etc/mnttab n'indique pas l'état largefile actuel d'un système de fichiers VxFS monté globalement.
Solution : pour vérifier l'état largefile du système de fichier, utilisez la commande fsadm plutôt que l'entrée /etc/mnttab.
Récapitulatif du problème : il arrive que les chemins de transport d'interconnexion privée finissant par un adaptateur qfe ne parviennent pas à se mettre en ligne.
Solution : suivez les étapes indiquées ci-dessous.
Identifiez l'adaptateur défectueux à l'aide de scstat -W. Le résultat affichera tous les chemins de transport avec cet adaptateur comme l'une des extrémités du chemin à l'état faulted ou waiting.
Utilisez la commande scsetup pour supprimer de la configuration de cluster tous les câbles connectés à cet adaptateur.
Utilisez à nouveau la commande scsetup pour supprimer cet adaptateur de la configuration de cluster.
Replacez l'adaptateur et les câbles.
Vérifiez que les chemins apparaissent. Si le problème persiste, répétez plusieurs fois les étapes 1 à 5.
Vérifiez que les chemins apparaissent. Si le problème persiste toujours, réinitialisez le noeud où se trouve l'adaptateur défectueux. Avant de réinitialiser le noeud, assurez-vous que le reste du cluster a suffisamment de votes de quorum pour résister à la réinitialisation du noeud.
Récapitulatif du problème : le nombre de blocs de fichiers n'est pas toujours consistant sur des noeuds de cluster après les opérations d'écriture d'allocation de blocs dans un fichier fragmenté. Pour un système de fichiers de cluster en couches sur UFS (ou VxFS 3.4), l'inconsistance du bloc sur plusieurs noeuds disparaît au bout de 30 secondes environ.
Solution : les opérations de métadonnée de fichier actualisant l'inode (touch, etc.) doivent synchroniser la valeur st_blocks afin que les opérations de métadonnée qui suivent assurent des valeurs st_blocks consistantes.
Récapitulatif du problème : le service de données Sun Cluster HA pour Oracle démarre et arrête la base de données à l'aide de la commande su. Le service du réseau peut devenir indisponible lorsque le réseau public d'un noeud de cluster tombe en panne.
Solution : sous Solaris 9, configurez les fichiers /etc/nsswitch.conf comme indiqué ci-après, de sorte que le service de données démarre et s'arrête correctement en cas de panne du réseau.
Sur chaque noeud susceptible d'être principal pour la ressource oracle_server ou oracle_listener, modifiez le fichier /etc/nsswitch.conf en y incluant les entrées suivantes pour les bases de données passwd, group, publickey et project :
passwd : files ;
group : files ;
publickey : files ;
project : files.
Récapitulatif du problème : il arrive que le démontage d'un système de fichiers de cluster échoue, même si la commande fuser indique qu'il n'y a aucun utilisateur sur les noeuds.
Solution : relancez le remontage après que toutes les E/S asynchrones vers le système de fichiers sous-jacent ont été effectuées.
Récapitulatif du problème : l'agent Sun Cluster HA-Siebel ne contrôle pas les composants Siebel individuels. En cas de détection d'une panne sur un composant Siebel, seul un message d'avertissement est consigné dans syslog.
Solution : redémarrez le groupe de ressources du serveur Siebel dans lequel les composants sont déconnectés à l'aide de la commande scswitch -R -h noeud -g groupe_ressources .
Récapitulatif du problème : l'installation du support Sun Cluster pour RAC sur un noeud récemment ajouté entraîne l'indisponibilité des instances Oracle RAC.
Solution : pour ajouter un noeud sur un cluster fonctionnant avec Oracle RAC sans perdre la disponibilité des bases de données Oracle RAC, une installation particulière est requise. L'exemple suivant indique comment passer d'un cluster à 3 noeuds à un cluster à 4 noeuds, Oracle RAC tournant sur les noeuds 1, 2 et 3 :
Installez le logiciel Sun Cluster sur le nouveau noeud (noeud 4).
Remarque : n'installez pas les packages de support RAC à ce moment.
Réinitialisez le nouveau noeud dans le cluster.
Une fois que le nouveau noeud a rejoint le cluster, fermez la base de données Oracle RAC sur un des noeuds où elle tourne déjà (le noeud 1, dans cet exemple).
Réinitialisez le noeud où la base de données vient d'être arrêtée (noeud 1).
Une fois que le noeud (noeud 1) est de nouveau actif, lancez la base de données Oracle sur ce noeud pour reprendre le service de base de données.
Si un seul noeud est capable de gérer la charge de la base de données, arrêtez la base de données sur les noeuds restants (noeuds 2 et 3) et réinitialisez ces noeuds. Si plus d'un noeud est nécessaire pour supporter la charge de la base de données, traitez-les l'un après l'autre tel que décrit aux étapes 3 à 5.
Une fois tous les noeuds réinitialisés, les packages de support Oracle RAC peuvent être installés sans problème sur le nouveau noeud.
Récapitulatif du problème :
le script remove ne parvient pas à désenregistrer
le type de ressources SUNW.gds et affiche le message indiqué
ci-dessous.
Le type de ressources a déjà été désenregistré.
Solution : après avoir utilisé le script remove, désenregistrez manuellement SUNW.gds. Vous pouvez aussi utiliser la commande scsetup ou SunPlex Manager.
Récapitulatif du problème :
l'utilisation de la commande Solaris shutdown ou de commandes
similaires (par exemple, uadmin) pour désactiver
un noeud de cluster peut entraîner une erreur grave au niveau des noeuds,
et l'affichage du message indiqué ci-dessous.
CMM: Shutdown timer expired. Halting.
Solution : demandez l'assistance de votre représentant Sun. Cette erreur grave est nécessaire, elle permet à un autre noeud de cluster de reprendre en toute sécurité les services qui étaient hébergés par le noeud désactivé.
Récapitulatif du problème : les clusters utilisant des adaptateurs ce sur l'interconnexion privée peuvent rencontrer des problèmes temporisations de chemin suivis d'erreurs graves de noeud, si un ou plusieurs noeuds ont plus de quatre processeurs.
Solution : définissez le paramètre ce_taskq_disable dans le gestionnaire ce en ajoutant set ce:ce_taskq_disable=1 au fichier /etc/system sur tous les noeuds de cluster, puis réinitialisez-les. Cela permet de toujours envoyer les pulsations (et autres paquets) dans le contexte de l'interruption, et d'éliminer les problèmes de temporisation de chemins suivis d'erreurs graves. Prenez en considération les indications du Quorum lors de la réinitialisation des noeuds.
Récapitulatif du problème : scrgadm empêche l'hébergement de noms d'hôtes logiques et d'adresses partagées appartenant à un autre sous-réseau que celui du groupe IPMP (NAFO).
Solution : utilisez la commande scrgadm sous la forme indiquée ci-dessous.
scrgadm -a -j <resource> -t <resource_type> -g <resource_group> -x HostnameList=<logical_hostname> -x NetIfList=<nafogroup>@<nodeid> .
Notez que les noms de noeuds ne semblent pas fonctionner dans la liste NetIf ; utilisez les id de noeuds à la place.
Récapitulatif du problème : un échec de basculement ou de commutation d'un système de fichiers peut générer une erreur.
Solution : démontez puis remontez le système de fichiers.
Récapitulatif du problème : si la commutation d'un groupe de périphériques est en cours au moment où un noeud rejoint le cluster, la jonction du noeud et l'opération de commutation risquent de s'interrompre. Toute tentative d'accès à un service du périphérique s'interrompra également. Ce problème est plus susceptible de se produire si le cluster comporte plus de deux noeuds, et si le système de fichiers monté sur le périphérique est un système de fichiers VxFS.
Solution : pour éviter cette situation, ne lancez pas de basculement de groupes de périphériques au moment où un noeud rejoint le cluster. Si vous rencontrez ce problème, réinitialisez tous les noeuds de cluster pour restaurer l'accès aux groupes de périphériques.
Récapitulatif du problème : SunPlex Manager intègre un assistant à l'installation des services de données permettant de définir un service DNS hautement disponible sur le cluster. Si l'utilisateur ne fournit pas une configuration DNS existante, telle qu'un fichier named.conf, l'assistant tente de générer une configuration DNS valide en détectant automatiquement la configuration réseau et le service de noms existants. Toutefois, cette opération échoue dans certains environnements réseau, provoquant ainsi une panne de l'assistant sans qu'il génère de message d'erreur.
Solution : à l'invite, donnez à l'assistant d'installation de services de données DNS de SunPlex Manager un nom de fichier named.conf existant et correct. Vous pouvez aussi suivre les procédures des services de données DNS pour configurer manuellement un service DNS à haute disponibilité sur le cluster.
Récapitulatif du problème : SunPlex Manager intègre un assistant à l'installation des services de données permettant de définir un service Oracle à haute disponibilité sur le cluster en installant et configurant les binaires Oracle, et en créant la configuration en cluster. Toutefois, cet assistant à l'installation n'est actuellement pas opérationnel et entraîne un série d'erreurs, variables en fonction de la configuration logicielle de l'utilisateur.
Solution : installez et configurez manuellement le service de données Oracle sur le cluster, en suivant les procédures décrites dans la documentation Sun Cluster.
Récapitulatif du problème : lorsqu'un noeud est arrêté ou réinitialisé, il peut s'interrompre et donc suspendre la séquence d'arrêt ou de réinitialisation. Le système s'interrompt après génération du message suivant : Failfast: Halting because all userland daemons all have died.
Solution : avant d'arrêter ou de réinitialiser le noeud, exécutez la commande présentée ci-dessous. psradm -f -a :
Pour arrêter un noeud :
# scswitch -S -h <node>
# psradm -f -a
# shutdown -g0 -y -i0
Pour réinitialiser un noeud :
# scswitch -S -h <node>
# psradm -f -a
# shutdown -g0 -y -i6
dans certains cas rares, la solution proposée ne résout pas le problème.
Récapitulatif du problème : sur les systèmes volumineux exécutant Sun Cluster 3.x, shutdown -g0 -y -i6, la commande de réinitialisation d'un noeud, peut mener le système sur l'invite OK avec le message Failfast: Halting because all userland daemons have died, au lieu de le réinitialiser.
Solution : recourez à l'une des solutions proposées ci-dessous.
Arrêtez le noeud puis entrez boot à l'invite ok.
Désactivez failfasts avant de réinitialiser le noeud :
# /usr/cluster/lib/sc/cmm_ctl -f
# shutdown -g0 -y -i6
N'oubliez pas de ré-activer failfasts après la réinitialisation du noeud :
# /usr/cluster/lib/sc/cmm_ctl -f
ou d'augmenter le délai d'expiration de failfast_panic_delay avant d'arrêter le système, à l'aide de la commande mdb suivante :
(echo 'cl_comm`conf+8/W 0t600000' ;
echo 'cl_comm`conf+c/W 0t600000') | mdb -kw
Elle permet de définir le délai d'exécution à 600000 ms (10 minutes).
Récapitulatif du problème : le processus GVR (gestionnaire de verrouillage réparti) d'Oracle ne se termine pas durant un arrêt et empêche le démontage de /var.
Solution : recourez à l'une des deux solutions proposées ci-dessous.
N'utilisez pas de partition /var séparée.
Utilisez reboot/halt au lieu de init ou shutdown.
Récapitulatif du problème : la sonde d'attente d'Oracle risque de connaître un dépassement du délai imparti sur un système à forte charge, entraînant le redémarrage du dispositif d'attente d'Oracle.
Solution : sur les systèmes à forte charge, le dépassement du délai imparti de la sonde d'attente d'Oracle peut être évité en augmentant la valeur de la propriété Intervalle_sonde_complet de la ressource.
Le dépassement du délai imparti de la sonde est calculé comme suit :
10 secondes si Intervalle_sonde_complet est supérieur à 20 secondes.
60 secondes si Intervalle_sonde_complet est supérieur à 120 secondes.
Intervalle_sonde_complet/2 dans les autres cas.
Récapitulatif du problème : lorsqu'elle est définie sur VRAI, la propriété système_GR indique que le groupe de ressources et ses ressources sont utilisés pour le support de l'infrastructure du cluster, et non pour l'implémentation d'un service de données utilisateur. Si système_GR est définie sur VRAI, le gestionnaire du groupe de ressources empêche l'administrateur système de déconnecter le groupe ou ses ressources ou de modifier leurs propriétés par inadvertance. Il arrive que le noeud panique lorsque vous essayez de modifier la propriété du groupe de ressources après avoir défini système_GR sur VRAI.
Solution : ne modifiez pas la valeur de la propriété de groupe de ressources système_GR.
Récapitulatif du problème : sur chaque noeud pouvant contrôler la ressource liveCache, la commande su risque de s'interrompre lorsque le réseau public est arrêté.
Solution : sur chaque noeud susceptible de contrôler la ressource liveCache, il est recommandé de modifier le fichier /etc/nsswitch.conf comme indiqué ci-après, afin d'éviter l'interruption de la commande su lorsque le réseau public est arrêté.
passwd : files nis [TRYAGAIN=0]
Récapitulatif du problème : les assistants à l'installation de services de données SunPlex Manager pour Apache et Oracle ne prennent pas en charge Solaris 9 et les versions ultérieures.
Solution : installez Oracle manuellement sur le cluster en vous référant à la documentation de Sun Cluster. Si vous installez Apache sur Solaris 9 (ou versions ultérieures), ajoutez manuellement les packages Apache Solaris SUNWapchr et SUNWapchu avant de lancer l'assistant.
Récapitulatif du problème : lors de l'ajout de noeuds à un cluster, une erreur d'« authentification RPC » peut survenir au cours de l'installation ou de la configuration. Les messages d'erreur peuvent être les suivants :
« Erreur d'authentification de l'appel de procédure à distance. »
« Absence d'autorisation pour communiquer avec <noeud_parrain> »
« Échec de la vérification du nom de cluster. »
Solution : lorsqu'un nom de domaine n'est pas défini (c'est-à-dire qu'il manque le fichier /etc/defaultdomain), définissez-le sur tous les noeuds rejoignant le cluster, à l'aide de la commande domainname(1M) avant de poursuivre l'installation. Par exemple, # domainname xxx.
Cette rubrique fournit des informations sur les patchs applicables aux configurations Sun Cluster.
vous devez être enregistré comme utilisateur SunSolveTM pour pouvoir afficher et télécharger les patchs requis par Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant Sun ou enregistrez-vous en ligne à l'adresse http://sunsolve.sun.com.
PatchPro est un outil de gestion de patchs destiné à faciliter la sélection et le téléchargement des patchs nécessaires à l'installation ou à la maintenance du logiciel Sun Cluster. PatchPro fournit un outil spécifique à Sun Cluster d'installation simplifiée des patchs en mode interactif, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers patchs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des patchs développés, pas uniquement des patchs de sécurité et de haut niveau de disponibilité.
Pour accéder à l'outil PatchPro pour le logiciel Sun Cluster, allez à l'adresse http://www.sun.com/PatchPro/, cliquez sur « Sun Cluster », puis choisissez Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre cluster et télécharger les patchs applicables.
Le site web SunSolveTM Online vous offre un accès permanent aux dernières mises à jour et versions des patchs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve Online à l'adresse http://sunsolve.sun.com pour consulter les grilles actualisées des versions de logiciels, microprogrammes et patchs pris en charge.
Vous pouvez trouver des informations sur les patchs de Sun Cluster 3.1 10/03 dans les Info Docs. Pour y accéder, connectez-vous à SunSolve et sélectionnez Simple search en haut de la page principale. Dans la page Simple Search, cliquez sur la boîte Info Docs et entrez Sun Cluster 3.1 dans le champ des critères de recherche. La page Info Doc du logiciel Sun Cluster 3.1 s'affiche.
Avant d'installer le logiciel Sun Cluster 3.1 10/03 et d'appliquer les patchs à un élément du cluster (environnement d'exploitation Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou matériel de disque), consultez les Info Docs et les fichiers README accompagnant les patchs. Le même niveau de patchs doit être appliqué à tous les noeuds de cluster pour permettre à celui-ci de fonctionner correctement.
Pour de plus amples informations sur les procédures spécifiques et les astuces s'appliquant à l'administration des patchs, reportez-vous à la rubrique “ Patching Sun Cluster Software and Firmware” in Guide d'administration système de Sun Cluster 3.1 10/03.
La documentation utilisateur de Sun Cluster 3.1 10/03 est disponible en format PDF et HTML sur le Sun Cluster 3.1 10/03 CD-ROM.
la documentation utilisateur des services de données Sun Cluster 3.1 10/03 est disponible sur le Sun Cluster 3.1 Agents 10/03 CD-ROM.
Le logiciel serveur AnswerBook2TM n'est pas nécessaire à la lecture de la documentation de Sun Cluster 3.1 10/03. Pour de plus amples informations, consultez le fichier index.html au niveau supérieur des CD. Ce fichier vous permet de lire les manuels PDF et HTML directement à partir du CD et d'accéder aux instructions concernant l'installation des packages de documentation.
vous devez installer le package SUNWsdocs avant d'installer tout package de documentation Sun Cluster. Vous pouvez utiliser pkgadd pour installer le package SUNWsdocs à partir du répertoire SunCluster_3.1/Sol_ N/Packages/ du Sun Cluster 3.1 10/03 CD-ROM, où N est soit 8 pour Solaris 8, soit 9 pour Solaris 9. Le package SUNWsdocs s'installe automatiquement lorsque vous exécutez le programme installer à partir du CD de documentation de Solaris 9.
La documentation Sun Cluster 3.1 10/03 est composée des collections présentées ci-dessous.
La Sun Cluster 3.1 10/03 Software Collection, comprenant les manuels suivants :
Guide des notions fondamentales de Sun Cluster 3.1 10/03
Guide des développeurs pour les services de données Sun Cluster 3.1 10/03
Sun Cluster 3.1 10/03 Error Messages Guide
La Sun Cluster 3.x Hardware Administration Collection, comprenant les manuels suivants :
Sun Cluster 3.x Hardware Administration Manual
Sun Cluster 3.x With Sun StorEdge 3310 Array Manual
Sun Cluster 3.x With Sun StorEdge 3510 FC Array Manual
Sun Cluster 3.x With Sun StorEdge 3900 or 6900 Series System Manual
Sun Cluster 3.x With Sun StorEdge 6120 Array Manual
Sun Cluster 3.x With Sun StorEdge 6320 System Manual
Sun Cluster 3.x With Sun StorEdge 9900 Series Storage Device Manual
Sun Cluster 3.x With Sun StorEdge A1000 or Netra st A1000 Array Manual
Sun Cluster 3.x With Sun StorEdge A3500/A3500FC System Manual
Sun Cluster 3.x With Sun StorEdge A5x00 Array Manual
Sun Cluster 3.x With Sun StorEdge D1000 or Netra st D1000 Disk Array Manual
Sun Cluster 3.x With Sun StorEdge D2 Array Manual
Sun Cluster 3.x With Sun StorEdge MultiPack Enclosure Manual
Sun Cluster 3.x With Sun StorEdge Netra D130 or StorEdge S1 Enclosure Manual
La Sun Cluster 3.1 10/03 Reference Collection, comprenant le manuel suivant :
Pour obtenir une liste des manuels appartenant à la Sun Cluster 3.1 Data Services 10/03 Collection, reportez-vous aux Notes de version des services de données Sun Cluster 3.1 10/03.
En outre, le site web docs.sun.comSM vous permet d'accéder à la documentation de Sun Cluster sur l'internet. Vous pouvez le parcourir ou y rechercher un titre de manuel ou un sujet particulier.
Cette rubrique détaille les erreurs connues et les omissions de la documentation, de l'aide en ligne et des pages de manuel, et indique la marche à suivre pour y remédier.
Sun Cluster 3.1 10/03 ne prend pas en charge le transport RSM. Toute référence au transport RSM dans la documentation de Sun Cluster doit être ignorée.
Cette rubrique traite des erreurs ou omissions identifiées dans le Guide d'installation du logiciel Sun Cluster 3.1 10/03.
Cette rubrique décrit les erreurs et omissions contenues dans l'aide en ligne de SunPlex Manager.
Dans le fichier d'aide en ligne intitulé « Sun Cluster HA pour Oracle », une remarque figurant dans la rubrique « Avant de commencer » est incorrecte.
Incorrect :
S'il n'existe aucune entrée pour shmsys et semsys dans /etc/system, des valeurs par défaut sont automatiquement insérées dans /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs sont appropriées pour votre base de données.
Correct :
S'il n'existe aucune entrée pour les variables shmsys et semsys dans le fichier /etc/system lorsque vous installez le service de données Oracle, vous pouvez ouvrir /etc/system et y insérer des valeurs par défaut pour ces variables. Vous devez ensuite réinitialiser le système. Consultez la documentation d'installation d'Oracle pour vérifier que les valeurs insérées sont appropriées à votre base de données.
Dans le tableau « Profils d'autorisations d'accès RBAC pour Sun Cluster », les autorisations solaris.cluster.appinstall et solaris.cluster.install doivent figurer sous le profil de gestion du cluster et non sous le profil de fonctionnement du cluster.
Dans le tableau « Profils d'autorisations d'accès RBAC pour Sun Cluster », sous le profil Commandes Sun Cluster, sccheck( 1M) doit être inclus à la liste de commandes.
Cette rubrique traite des erreurs et omissions contenues dans le Guide d'administration système de Sun Cluster 3.1 10/03.
Les groupes de disques racine simples ne sont pas pris en charge en tant que type de disques par VERITAS Volume Manager sur le logiciel Sun Cluster. Ainsi si vous suivez les directives de la rubrique « Restauration d'un système de fichiers racine (/) non encapsulé (VERITAS Volume Manager) » du Guide d'administration système de Sun Cluster 3.1 10/03, vous devez ignorer l'étape 9, qui vous demande de déterminer si le groupe de disques racine (rootdg) est sur une seule tranche du disque racine. Suivez les étapes de 1 à 8, passez l'étape 9, et continuez avec l'étape 10 jusqu'à la fin de la procédure.
Lorsque vous augmentez ou diminuez le nombre de noeuds reliés à un périphérique de quorum, le nombre de votes de quorum n'est pas recalculé automatiquement. Vous pouvez rétablir le nombre de votes correct en retirant tous les périphériques de quorum puis en les rajoutant à la configuration.
Certains messages d'erreur concernant les services de données Sun Cluster ne figurent pas dans le document Error Messages Guide. Pour consulter la liste des messages d'erreur non inclus à la documentation, reportez-vous aux Notes de version des services de données Sun Cluster 3.1 10/03
Les erreurs et omissions concernant la documentation des services de données sont décrites dans les Notes de version des services de données Sun Cluster 3.1 10/03.
Cette rubrique décrit les erreurs et omissions contenues dans les pages de manuel de SunPlex Manager.
La page de manuel scconf_transp_adap_sci(1M) affirme que les adaptateurs de transport SCI peuvent être utilisés avec le type de transport rsm. Cette affirmation est incorrecte. Les adaptateurs de transportSCI ne prennent pas en charge les dispositifs de transport de type rsm. Les adaptateurs de transport SCI ne prennent en charge que le type de transport dlpi.
La phrase indiquée ci-dessous permet de clarifier le nom d'un adaptateur SCI–PCI. Actuellement, cette information ne figure pas dans la page de manuel scconf_transp_adap_sci(1M).
Nouvelles informations :
Utilisez le nom sciN pour spécifier un adaptateur SCI.
Le paragraphe suivant clarifie le comportement de la commande scgdevs. Actuellement, cette information ne figure pas dans la page de manuel scgdevs (1M).
Nouvelles informations :
scgdevs(1M) appelé à partir d'un noeud local exécute sa tâche sur les noeuds distants de manière asynchrone. Par conséquent, la fin de l'action de la commande sur le noeud local ne signifie pas nécessairement que celle-ci a terminé sa tâche dans tout le cluster.
Dans cette version, la valeur de la version_API actuelle qui était de 2 auparavant a été augmentée à 3. Si vous développez un nouvel agent Sun Cluster et souhaitez éviter que votre type de ressource ne soit enregistré sur une version antérieure du logiciel Sun Cluster, déclarez version_API=3 dans le fichier RTR de l'agent. Pour de plus amples informations, reportez-vous à rt_reg( 4) et rt_properties( 5).
Pour afficher les pages de manuel relatives aux services de données Sun Cluster 3.0, installez les derniers patchs appliqués au logiciel Sun Cluster 3.1 10/03 pour ces services de données. Reportez-vous à la rubrique Patchs et niveaux de microprogrammes requis pour de plus amples informations.
Après avoir appliqué le patch, accédez aux pages d'aide en ligne des services de données Sun Cluster 3.0 en exécutant la commande man -M avec le chemin d'accès entier à la page de manuel comme argument. L'exemple suivant permet d'ouvrir la page de manuel relative à Apache.
% man -M /opt/SUNWscapc/man SUNW.apache |
Vous pouvez modifier votre MANPATH afin d'activer l'accès aux pages de manuel des services de données Sun Cluster 3.0 sans spécifier le chemin complet. L'exemple suivant décrit l'entrée de commande permettant d'ajouter le chemin des pages de manuel d' Apache à votre MANPATH et d'afficher ces pages.
% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH % man SUNW.apache |