Ce document fournit les informations suivantes sur le logiciel SunTM Cluster 3.1 4/04.
Cette rubrique présente les nouvelles fonctions et fonctionnalités ainsi que les nouveaux produits pris en charge par le logiciel Sun Cluster 3.1.
Sun Cluster est maintenant disponible pour les systèmes d'exploitation SolarisTM (édition pour plate-forme x86). Vous pouvez désormais utiliser le logiciel Sun Cluster 3.1 4/04 sur un serveur Sun FireTM V65x exécutant la mise à jour 6 du système d'exploitation Solaris 9 (édition pour plate-forme x86).
Les types de ressources suivants sont améliorés dans Sun Cluster 3.1 :
SUNW.oracle_listener (reportez-vous au Sun Cluster Data Service for Oracle Guide for Solaris OS) ;
SUNW.sap_xserver (reportez-vous au Sun Cluster Data Service for SAP liveCache Guide for Solaris OS).
Pour des informations d'ordre général concernant la mise à niveau d'un type de ressource, reportez-vous à la rubrique “Upgrading a Resource Type” in Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Sun Cluster 3.1 4/04 (édition pour plate-forme SPARC) prend en charge les services de données suivants :
HA Java System Application Server EE 7.0 ;
HA SAP DB 7.4 ;
HA Oracle 10G.
Sun Cluster 3.1 4/04 (édition pour plate-forme x86) prend en charge les services de données suivants :
HA NFS (Solaris 9 12/03) ;
HA DNS (Solaris 9 12/03) ;
HA Samba 2.2.8a et 3.0 ;
HA Java System Directory Server 5.2.1 Agent ;
HA Java System Web Server 6.1 ;
HA Java System Application Server EE 7.0 U3 ;
HA Java System Message Queue 3.5 ;
HA DHCP ;
HA MySQL ;
serveur Web Java System évolutif.
Cette rubrique décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.1.
Environnement d'exploitation et patchs : les versions Solaris et patchs pris en charge sont disponibles à l'adresse suivante :
Pour de plus amples informations, reportez-vous à la rubrique Patchs et niveaux de microprogrammes requis.
Gestionnaires de volumes
Pour Solaris 8 : Solstice DiskSuiteTM 4.2.1 et VERITAS Volume Manager 3.5 ;
Pour Solaris 9 : Solaris Volume Manager et VERITAS Volume Manager 3.5.
Systèmes de fichiers
Pour Solaris 8 : Solaris UFS et VERITAS File System 3.4 et 3.5 ;
Pour Solaris 9 : Solaris UFS et VERITAS File System 3.5.
Services de données (agents) : contactez votre représentant commercial Sun pour obtenir une liste complète des services de données et des versions d'applications pris en charge. Spécifiez les noms des types de ressources lorsque vous installez les services de données à l'aide de l'utilitaire scinstall(1M). Ces noms doivent aussi être spécifiés lorsque vous enregistrez les types de ressources associés au service de données à l'aide de l'utilitaire scsetup(1M).
les procédures relatives à la version de Sun Cluster HA pour Sun Java System Directory Server utilisant Sun Java System Directory Server 5.0 et 5.1 (plus Netscape HTTP, versions 4.11, 4.12, 4.13 et 4.16) se trouvent dans le Sun Cluster 3.1 Data Service for Sun ONE Directory Server. Pour les versions plus récentes de Sun Java System Directory Server, auparavant appelé SunTM Open Net Environment (Sun ONE) Directory Server, reportez-vous à la documentation produit de Sun Java System Directory Server.
toutes les occurrences de “Sun One” dans les noms et les descriptions des services de données pour les applications JES doivent être comprises comme “Java System”. Exemple : “service de données de Sun Cluster pour Sun One Application Server” doit être compris comme “service de données de Sun Cluster pour Sun Java System Application Server”.
Service de données |
Type de ressource Sun Cluster |
---|---|
Sun Cluster HA for Apache |
SUNW.apache |
Sun Cluster HA pour Apache Tomcat |
SUNW.sctomcat |
Sun Cluster HA for BroadVision One-To-One Enterprise |
SUNW.bv |
Sun Cluster HA pour DHCP |
SUNW.gds |
Sun Cluster HA for DNS |
SUNW.dns |
Sun Cluster HA pour MySQL |
SUNW.gds |
Sun Cluster HA for NetBackup |
SUNW.netbackup_master |
Sun Cluster HA for NFS |
SUNW.nfs |
Sun Cluster HA pour Oracle E-Business Suite |
SUNW.gds |
Sun Cluster HA for Oracle |
SUNW.oracle_server SUNW.oracle_listener |
Sun Cluster Support for Oracle Parallel Server/Real Application Clusters |
SUNW.rac_framework SUNW.rac_udlm SUNW.rac_cvm SUNW.rac_hwraid |
Sun Cluster HA for NetBackup |
SUNW.sap_ci SUNW.sap_ci_v2 SUNW.sap_as SUNW.sap_as_v2 |
Sun Cluster HA for SAP liveCache |
SUNW.sap_livecache SUNW.sap_xserver |
Sun Cluster HA for SAP DB |
SUNW.sapdb SUNW.sap_xserver |
Sun Cluster HA pour SWIFTAlliance Access |
SUNW.gds |
Sun Cluster HA pour Samba |
SUNW.gds |
Sun Cluster HA pour Siebel |
SUNW.sblgtwy SUNW.sblsrvr |
Sun Cluster HA for Sun Java System Application Server |
SUNW.s1as |
Sun Cluster HA for Sun Java System HADB |
SUNW.hadb |
Sun Cluster HA for Sun Java System Message Queue |
SUNW.s1mq |
Sun Cluster HA for Sun Java System Web Server (ce service de données était auparavant appelé Sun Cluster HA pour Sun ONE Web Server) |
SUNW.iws |
Sun Cluster HA for Sybase ASE |
SUNW.sybase |
Sun Cluster HA pour le serveur WebLogic |
SUNW.wls |
Sun Cluster HA pour WebSphere MQ |
SUNW.gds |
Sun Cluster HA pour l'intégrateur WebSphere MQ |
SUNW.gds |
Configuration minimale requise : le logiciel Sun Cluster 3.1 nécessite davantage de mémoire qu'un noeud opérant dans des conditions normales. Le supplément de mémoire requis est de 128 Mo plus dix pour cent. Par exemple, si un noeud autonome a normalement besoin d'1 Go de mémoire, vous devez y ajouter 256 Mo pour fournir la mémoire nécessaire.
RSMAPI : le logiciel Sun Cluster 3.1 prend en charge la Remote Shared Memory Application Programming Interface (RSMAPI) sur les câbles d'interconnexion compatibles RSM, tels que PCI-SCI.
Sun Cluster Security Hardening utilise les techniques de renforcement de l'environnement d'exploitation Solaris, recommandées par le programme Sun BluePrintsTM, afin de renforcer la sécurité de base des clusters. Solaris Security Toolkit assure la mise en oeuvre automatique de Sun Cluster Security Hardening.
La documentation relative à Sun Cluster Security Hardening est disponible à l'adresse http://www.sun.com/blueprints/0203/817–1079.pdf. Vous pouvez aussi y accéder depuis http://wwws.sun.com/software/security/blueprints. Sur cet URL, descendez à l'en-tête Architecture pour trouver l'article “Securing the Sun Cluster 3.x Software”. La documentation décrit la procédure de sécurisation des déploiements de Sun Cluster 3.1 dans un environnement Solaris 8 et Solaris 9. L'utilisation de Solaris Security Toolkit et d'autres techniques de sécurité de pointe conseillées par les experts de Sun y sont également décrites.
Tableau 1–2 Services de données pris en charge par Sun Cluster Security Hardening
Agent de service de données |
Version de l'application : basculement |
Version de l'application : évolutive |
Version de Solaris |
---|---|---|---|
Sun Cluster HA for Apache |
1.3.9 |
1.3.9 |
Solaris 8, Solaris 9 (version 1.3.9) |
Sun Cluster HA pour Apache Tomcat |
3.3, 4.0, 4.1 |
3.3, 4.0, 4.1 |
Solaris 8, Solaris 9 |
Sun Cluster HA pour DHCP |
S8U7+ |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for DNS |
avec SE |
N/A |
Solaris 8, Solaris 9 |
Serveur de messagerie Sun Cluster HA for Sun Java System |
6.0 |
4.1 |
Solaris 8 |
Sun Cluster HA pour MySQL |
3.23.54a - 4.0.15 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for NetBackup |
3.4 |
N/A |
Solaris 8 |
Sun Cluster HA for NFS |
avec SE |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Oracle E-Business Suite |
11.5.8 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for Oracle |
8.1.7 et 9i (32 et 64 bits) |
N/A |
Solaris 8, Solaris 9 (HA Oracle 9iR2) |
Sun Cluster Support for Oracle Parallel Server/Real Application Clusters |
8.1.7 et 9i (32 et 64 bits) |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for NetBackup |
4.6D (32 et 64 bits) et 6.20 |
4.6D (32 et 64 bits) et 6.20 |
Solaris 8, Solaris 9 |
Sun Cluster HA pour SWIFTAlliance Access |
4.1, 5.0 |
N/A |
Solaris 8 |
Sun Cluster HA pour Samba |
2.2.2, 2.2.7, 2.2.7a, 2.2.8, 2.2.8a |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for Siebel |
7.5 |
N/A |
Solaris 8 |
Sun Cluster HA pour Sun Java System Application Server |
7.0, 7.0 mise à jour 1 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for Sun Java System Directory Server |
4.12 |
N/A |
Solaris 8, Solaris 9 (version 5.1) |
Sun Cluster HA pour Sun Java System Message Queue |
3.0.1 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for Sun Java System Web Server |
6.0 |
4.1 |
Solaris 8, Solaris 9 (version 4.1) |
Sun Cluster HA for Sybase ASE |
12.0 (32 bit) |
N/A |
Solaris 8 |
Sun Cluster HA pour le serveur BEA WebLogic |
7.0 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour WebSphere MQ |
5.2, 5.3 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour l'intégrateur WebSphere MQ |
2.0.2, 2.1 |
N/A |
Solaris 8, Solaris 9 |
Les restrictions suivantes s'appliquent à la version Sun Cluster 3.1 :
Pour les autres problèmes ou restrictions connues, reportez-vous à la rubrique Problèmes connus et bogues.
Les bandes, les CD et les DVD multihôtes ne sont pas pris en charge.
L'AP (Alternate Pathing) n'est pas pris en charge.
Les périphériques de stockage ayant plus d'un chemin d'accès au boîtier à partir d'un noeud de cluster donné ne sont pas pris en charge, excepté les suivants :
Sun StorEdgeTM A3500, incluant la prise en charge de deux chemins d'accès à chacun des deux noeuds ;
tout périphérique prenant en charge Sun StorEdge Traffic Manager ;
les périphériques de stockage EMC utilisant le logiciel EMC PowerPath.
Si vous utilisez un serveur Sun EnterpriseTM 420R équipé d'une carte PCI à l'emplacement J4701, la carte mère doit être au moins de niveau 15 (501-5168-15 ou supérieure). La référence de la carte mère et son niveau de révision figurent sur la tranche de la carte, à proximité de l'emplacement PCI 1.
De graves erreurs système ont été observées sur des clusters lors de l'insertion de cartes UDWIS I/O dans l'emplacement 0 d'une carte d'un serveur Sun Enterprise 10000. Évitez donc d'installer des cartes de ce type à l'emplacement 0 de la carte de ce serveur.
Lorsque vous augmentez ou diminuez le nombre de liaisons de noeuds à un périphérique de quorum, le nombre de voix du quorum n'est pas automatiquement recalculé. Vous pouvez recalculer le nombre de voix approprié en supprimant tous les périphériques de quorum, puis en les replaçant dans la configuration.
SunVTSTM n'est pas pris en charge.
IPv6 n'est pas pris en charge.
Les types de transport RMS (Remote Shared Memory) sont mentionnés dans la documentation, mais ne sont pas pris en charge. Si vous utilisez l'interface RSMAPI, indiquez dlpi comme type de transport.
L'interface SCI (Sbus Scalable Coherent Interface) n'est pas prise en charge en tant qu'interconnexion de cluster. Par contre, l'interface PCI-SCI est prise en charge.
Les interfaces réseau logiques sont réservées à l'utilisation du logiciel Sun Cluster.
Les applications client fonctionnant sur les noeuds du cluster ne doivent pas correspondre aux adresses IP logiques d'un service de données HD. Au cours d'un basculement, ces adresses pourraient en effet disparaître, laissant le client sans connexion.
Si vous effectuez une mise à niveau à partir de VERITAS Volume Manager (VxVM) 3.2 à 3.5, la fonction Cluster Volume Manager (CVM) n'est pas disponible tant que vous n'avez pas installé la clé de licence CVM pour la version 3.5. Dans VxVM 3.5, la clé de licence CVM de la version 3.2 n'active pas CVM et doit être mise à niveau avec la clé de licence de la version 3.5.
Dans les configurations Solstice DiskSuite/Solaris Volume Manager qui utilisent des médiateurs, chaque ensemble de disques doit être associé à exactement deux hôtes médiateurs.
DiskSuite Tool (Solstice DiskSuite metatool) et le module de stockage amélioré de la console de gestion Solaris (Solaris Volume Manager) ne sont pas compatibles avec le logiciel Sun Cluster 3.1.
Les versions 3.2 ou ultérieures de VxVM ne permettent pas de désactiver le multiacheminement dynamique (DMP) à l'aide de la commande scvxinstall durant l'installation de VxVM. Cette procédure est décrite au chapitre “Installing and Configuring VERITAS Volume Manager” in Sun Cluster Software Installation Guide for Solaris OS. Le multiacheminement dynamique Veritas est pris en charge par les configurations suivantes :
chemin d'E/S unique par noeud vers le stockage partagé du cluster ;
solution de multiacheminement prise en charge (Sun Traffic Manager, EMC PowerPath, Hiatchi HDLM) et gérant plusieurs chemins d'E/S par noeud vers le stockage partagé du cluster.
Les groupes de disques racine simples (rootdg créés sur une même tranche du disque racine) ne sont pas pris en charge en tant que types de disques avec VxVM par le logiciel Sun Cluster 3.1.
Le logiciel RAID 5 n'est pas pris en charge.
Les systèmes de fichiers de cluster ne prennent pas en charge les quotas.
L'utilisation d'un système de fichiers LOFS sur des noeuds de cluster n'est pas prise en charge par le logiciel Sun Cluster 3.1.
La commande umount -f se comporte exactement de la même façon que la commande umount sans l'option -f. Elle ne prend pas en charge les démontages forcés.
Seuls les répertoires vides prennent en charge la commande unlink(1M).
La commande lockfs -d n'est pas prise en charge. Utilisez lockfs -n à la place.
Le système de fichiers de cluster ne prend en charge aucune des fonctions des systèmes de fichiers Solaris permettant de placer une marque de fin de communication dans l'espace de noms du système de fichiers. Par conséquent, même si vous pouvez créer un socket de domaine UNIX portant le nom d'un chemin dans le système de fichiers de cluster, ce socket ne résistera pas à un basculement du noeud. En outre, aucun fifo ou tube nommé créé sur un système de fichiers n'est globalement accessible, et vous devez éviter d'employer la commande fattach à partir de n'importe quel noeud autre que le noeud local.
L'exécution de fichiers binaires de systèmes de fichiers, montés par le biais de l'option de montage forcedirectio n'est pas prise en charge.
Il est impossible de remonter un système de fichiers en utilisant l'option de montage directio.
Vous ne pouvez pas définir l'option de montage directio sur un seul fichier au moyen de l'ioctl directio.
La configuration Sun Cluster 3.1 ne prend pas en charge les fonctions VxFS suivantes :
E/S rapides ;
instantanés ;
points de contrôle du stockage ;
avis de cache (ne s'appliquant qu'au noeud sélectionné en cas d'utilisation) ;
VERITAS CFS (nécessitant la fonction de cluster VERITAS et VCS).
Toutes les autres fonctions et options VxFS prises en charge dans une configuration de cluster sont également prises en charge par le logiciel Sun Cluster 3.1. Consultez la documentation de VxFS et les pages de manuel pour plus de détails sur les options de VxFS prises en charge ou non dans une configuration de cluster.
La configuration Sun Cluster 3.1 ne prend pas en charge les options de montage spécifiques à VxFS.
convosync (convertir O_SYNC) ;
mincache ;
qlog, delaylog, tmplog.
Pour de plus amples informations sur l'administration des systèmes de fichiers de cluster VxFS dans une configuration Sun Cluster, reportez-vous à la rubrique “Administering Cluster File Systems” in Sun Cluster System Administration Guide for Solaris OS.
Cette rubrique décrit les restrictions s'appliquant exclusivement à l'utilisation du multiacheminement sur réseau IP dans un environnement Sun Cluster 3.1 ou ne figurant pas dans la documentation Solaris relative au multiacheminement sur réseau IP.
IPv6 n'est pas pris en charge.
Tous les adaptateurs de réseaux publics doivent figurer dans des groupes IPMP.
Dans le fichier /etc/default/mpathd, ne remplacez pas yes par no pour TRACK_INTERFACES_ONLY_WITH_GROUPS.
La plupart des procédures, instructions et restrictions définies dans la documentation Solaris pour le multiacheminement sur réseau IP s'applique aussi bien aux environnements cluster que non-cluster. Par conséquent, consultez le document Solaris approprié pour de plus amples informations sur les restrictions liées au multiacheminement sur réseau IP.
Version de l'environnement d'exploitation |
Pour les instructions, voir... |
---|---|
Environnement d'exploitation Solaris 8 |
IP Network Multipathing Administration Guide |
Environnement d'exploitation Solaris 9 |
“IP Network Multipathing Topics” du System Administration Guide: Séries IP |
Ne configurez pas les noeuds de cluster comme routeurs (passerelles). Si le système est immobilisé, les clients ne pourront pas trouver de routeur alternatif et, de ce fait, effectuer une reprise.
Ne configurez pas les noeuds de cluster comme serveurs NIS ou NIS+. Ils peuvent toutefois être des clients NIS ou NIS+.
N'utilisez pas de configuration Sun Cluster pour doter les systèmes client d'un service d'initialisation ou d'installation à haute disponibilité.
N'utilisez pas de configuration Sun Cluster pour fournir un service rarpd.
Si vous installez un service RPC (appel de procédure à distance) sur le cluster, ce service ne doit pas utiliser les numéros de programmes suivants : 100141, 100142 et 100248. Ces numéros sont respectivement réservés aux démons Sun Cluster rgmd_receptionist, fed et pmfd. Si le service RPC installé utilise un de ces numéros, vous devez le modifier de façon à ce qu'il utilise un autre numéro.
À l'heure actuelle, SNDR (Sun StorEdge Network Data Replicator) ne peut être utilisé qu'avec HAStorage. Cette restriction ne s'applique qu'au groupe de ressources “de faible poids” et notamment à l'hôte logique que SNDR utilise pour la réplication. Les groupes de ressources d'application peuvent toujours utiliser HAStoragePlus avec SNDR. Vous pouvez utiliser le système de fichiers de basculement avec HAStoragePlus et SNDR en utilisant HAStorage pour le groupe de ressources SNDR et HAStoragePlus pour le groupe de ressources d'application, les ressources HAStorage et HAStoragePlus pointant sur le même périphérique DCS sous-jacent. Un patch permettant à SNDR de fonctionner avec HAStoragePlus est en cours de mise au point.
L'exécution de processus à haut niveau de priorité programmant des classes sur des noeuds du cluster n'est pas prise en charge. Les processus s'exécutant dans la classe de programmation en temps partagé avec un haut niveau de priorité ou les processus s'exécutant dans la classe de programmation en temps réel ne doivent pas être exécutés sur des noeuds de cluster. Le logiciel Sun Cluster s'appuie sur des threads du noyau ne s'exécutant pas dans la classe en temps réel. D'autres processus en temps partagé s'exécutant avec une priorité supérieure à la normale ou des processus en temps réel peuvent empêcher les threads du noyau de Sun Cluster d'acquérir les cycles CPU requis.
Sun Cluster 3.1 ne peut fournir de services qu'aux services de données livrés avec Sun Cluster ou configurés à l'aide de l'API de services de données de Sun Cluster.
Sun Cluster ne possède actuellement pas de service de données HA pour le sous-système sendmail(1M). Il est possible d'exécuter le sous-système sendmail sur les noeuds de cluster individuels, mais ses fonctions, telles que l'envoi, l'acheminement, l'attente ou la relance, ne seront pas hautement disponibles.
Si vous utilisez Sun Cluster HA pour Oracle avec Oracle 10g, n'installez pas de fichier binaire Oracle sur un système de fichiers local à haute disponibilité. Sun Cluster HA pour Oracle ne prend pas en charge une telle configuration. Cependant, vous pouvez installer des fichiers de données, des fichiers journaux et des fichiers de configuration sur un système de fichiers à haute disponibilité.
Si vous avez installé des fichiers binaires Oracle 10g sur le système de fichiers de cluster, des messages d'erreurs liés au démon cssd Oracle peuvent apparaître sur la console système lors de l'initialisation d'un noeud. Lorsque le système de fichiers de cluster est monté, ces messages n'apparaissent plus.
Les messages d'erreurs sont les suivants :
INIT: Command is respawning too rapidly. Check for possible errors. id: h1 "/etc/init.d/init.cssd run >/dev/null 2>&1 >/dev/null" |
Sun Cluster HA pour Oracle ne requiert pas le démon cssd Oracle. Vous pouvez donc ignorer ces messages.
Le service de données Sun Cluster HA pour Oracle 3.0 ne peut fonctionner sur le logiciel Sun Cluster 3.1 que s'il est utilisé avec les versions suivantes de l'environnement d'exploitation Solaris :
Solaris 8, version 32 bits ;
Solaris 8, version 64 bits ;
Solaris 9, version 32 bits.
le service de données Sun Cluster HA pour Oracle 3.0 ne peut pas fonctionner sur le logiciel Sun Cluster 3.1 s'il est utilisé avec la version 64 bits de Solaris 9.
Conformez-vous à la documentation de l'option Oracle Parallel Fail Safe/Real Application Clusters Guard des clusters Oracle Parallel Server/Real Application car il est impossible de modifier les noms d'hôtes après l'installation du logiciel Sun Cluster.
Pour de plus amples informations sur cette restriction concernant les noms d'hôtes et les noms de noeuds, reportez-vous à la documentation Oracle Parallel Fail Safe/Real Application Clusters Guard.
Si le client NetBackup VERITAS est un cluster, un seul hôte logique peut être configuré comme client car il n'y a qu'un seul fichier bp.conf.
Si le client NetBackup est un cluster et que l'un de ses hôtes logiques est configuré comme client NetBackup, NetBackup ne peut pas sauvegarder les hôtes physiques.
Sur le cluster exécutant le serveur maître, ce dernier est le seul hôte logique pouvant être sauvegardé.
Aucun support de sauvegarde ne peut être relié au serveur maître, il faut donc installer un ou plusieurs serveur(s) de support.
Dans un environnement Sun Cluster, le contrôle robotisé n'est pris en charge que sur les serveurs de supports et non sur le serveur maître NetBackup tournant sur Sun Cluster.
Aucun noeud Sun Cluster ne peut être le client NFS d'un système de fichiers exporté Sun Cluster HA for NFS contrôlé sur un noeud du même cluster. Un tel montage croisé de Sun Cluster HA for NFS est interdit. Utilisez le système de fichiers de cluster pour répartir les fichiers entre les noeuds.
Les applications exécutées localement sur le cluster ne doivent pas verrouiller les fichiers sur un système de fichiers exporté via NFS. Sinon, un blocage local (par exemple, flock(3UCB) ou fcntl (2)) risque d'empêcher le gestionnaire de verrouillage (lockd) de redémarrer. Au redémarrage, il est possible qu'un processus local bloqué soit verrouillé et que seul un client distant puisse le déverrouiller. Le comportement qui s'ensuit est imprévisible.
Sun Cluster HA for NFS requiert que tous les montages de clients NFS soient “rigides”.
Le logiciel Sun Cluster 3.1 ne prend pas en charge l'option Secure NFS ni l'utilisation conjointe de Kerberos et de NFS, et en particulier les options secure et kerberos appliquées au sous-système share_nfs(1M). Cependant, le logiciel Sun Cluster 3.1 prend en charge l'utilisation de ports sécurisés pour NFS en ajoutant l'entrée set nfssrv:nfs_portmon=1 au fichier /etc/system sur les noeuds de cluster.
N'utilisez pas NIS pour les services de noms d'un cluster exécutant Sun Cluster HA pour SAP liveCache car l'entrée NIS n'est utilisée que si les fichiers ne sont pas disponibles.
Pour de plus amples informations sur les exigences du mot de passe nssswitch.conf par rapport à cette restriction, reportez-vous à la rubrique “Preparing the Nodes and Disks” in Sun Cluster Data Service for SAP liveCache Guide for Solaris OS.
Les problèmes et bogues présentés ci-après concernent la version Sun Cluster 3.1.
Identifiez la configuration minimale requise pour l'ensemble des services de données avant d'installer Solaris et Sun Cluster. Sinon vous risquez de faire des erreurs d'installation et vous devrez réinstaller complètement les logiciels Solaris et Sun Cluster.
Par exemple, l'option Oracle Parallel Fail Safe/Real Application Clusters Guard des clusters Oracle Parallel Server/Real Application impose certaines contraintes pour les noms d'hôtes et de noeuds utilisés dans le cluster. Vous devez prendre connaissance de ces contraintes avant de procéder à l'installation du logiciel Sun Cluster, les noms d'hôtes ne pouvant être modifiés après l'installation. Pour de plus amples informations sur les exigences relatives aux noms d'hôtes et aux noms de noeuds, consultez la documentation Oracle Parallel Fail Safe/Real Application Clusters Guard.
Récapitulatif du problème : les chemins de transport d'interconnexion privée finissant par un adaptateur qfe ne parviennent pas toujours à se mettre en ligne.
Solution : suivez les étapes indiquées ci-dessous.
Identifiez l'adaptateur défectueux à l'aide de scstat -W. Le résultat affichera tous les chemins de transport avec cet adaptateur comme l'une des extrémités du chemin à l'état faulted ou waiting.
Utilisez la commande scsetup pour supprimer de la configuration de cluster tous les câbles connectés à cet adaptateur.
Utilisez à nouveau la commande scsetup pour supprimer cet adaptateur de la configuration de cluster.
Replacez l'adaptateur et les câbles.
Vérifiez que les chemins apparaissent. Si le problème persiste, répétez plusieurs fois les étapes 1 à 5.
Vérifiez que les chemins apparaissent. Si le problème persiste toujours, réinitialisez le noeud où se trouve l'adaptateur défectueux. Avant de réinitialiser le noeud, assurez-vous que le reste du cluster a suffisamment de votes de quorum pour résister à la réinitialisation du noeud.
Récapitulatif du problème : le script remove ne parvient pas
à désenregistrer le type de ressources SUNW.gds
et affiche le message indiqué ci-dessous :
Le type de ressources a déjà été désenregistré.
Solution : après avoir utilisé le script remove, désenregistrez manuellement SUNW.gds. Vous pouvez aussi utiliser la commande scsetup ou SunPlex Manager.
Récapitulatif du problème : les clusters utilisant des adaptateurs ce sur l'interconnexion privée peuvent rencontrer des problèmes de temporisation de chemin suivis d'erreurs graves de noeud, si un ou plusieurs noeuds ont plus de quatre processeurs.
Solution : définissez le paramètre ce_taskq_disable dans le gestionnaire ce en ajoutant set ce:ce_taskq_disable=1 au fichier /etc/system sur tous les noeuds de cluster, puis réinitialisez-les. Cela permet de toujours envoyer les pulsations (et autres paquets) dans le contexte de l'interruption, et d'éliminer les problèmes de temporisation de chemins suivis d'erreurs graves. Prenez en considération les indications du quorum lors de la réinitialisation des noeuds.
Récapitulatif du problème : si la commutation d'un groupe de périphériques est en cours au moment où un noeud rejoint le cluster, la jonction du noeud et l'opération de commutation risquent de s'interrompre. Toute tentative d'accès à un service du périphérique s'interrompra également. Ce problème est plus susceptible de se produire si le cluster comporte plus de deux noeuds, et si le système de fichiers monté sur le périphérique est un système de fichiers VxFS.
Solution : pour éviter cette situation, ne lancez pas de basculement de groupes de périphériques au moment où un noeud rejoint le cluster. Si vous rencontrez ce problème, réinitialisez tous les noeuds de cluster pour restaurer l'accès aux groupes de périphériques.
Récapitulatif du problème : SunPlex Manager intègre un assistant d'installation des services de données permettant de définir un service DNS hautement disponible sur le cluster. Si l'utilisateur ne fournit pas une configuration DNS existante, telle qu'un fichier named.conf, l'assistant tente de générer une configuration DNS valide en détectant automatiquement la configuration réseau et le service de noms existants. Toutefois, cette opération échoue dans certains environnements réseau, provoquant ainsi une panne de l'assistant sans qu'il génère de message d'erreur.
Solution : à l'invite, donnez à l'assistant d'installation de services de données DNS de SunPlex Manager un nom de fichier named.conf existant et correct. Vous pouvez aussi suivre les procédures des services de données DNS pour configurer manuellement un service DNS à haute disponibilité sur le cluster.
Récapitulatif du problème : SunPlex Manager intègre un assistant d'installation des services de données permettant de définir un service Oracle à haute disponibilité sur le cluster en installant et configurant les binaires Oracle, et en créant la configuration en cluster. Toutefois, cet assistant d'installation n'est actuellement pas opérationnel et entraîne un série d'erreurs, variables en fonction de la configuration logicielle de l'utilisateur.
Solution : installez et configurez manuellement le service de données Oracle sur le cluster, en suivant les procédures décrites dans la documentation Sun Cluster.
Récapitulatif du problème : si SunPlex Manager est utilisé pour supprimer un adaptateur d'un groupe IPMP de plusieurs adaptateurs, il peut être impossible d'ajouter immédiatement l'adaptateur au même groupe.
Solution : supprimez /etc/hostname.adapter avant de tenter d'ajouter l'adaptateur au même groupe IPMP.
Récapitulatif du problème : en raison d'une erreur interne, la plupart des agents de cluster fournis par Sun consignent des messages dans le journal système (reportez-vous à la rubrique syslog(3C)) à l'aide de la fonction LOG_USER au lieu d'utiliser LOG_DAEMON. Sur un cluster configuré avec les paramètres syslog par défaut (reportez-vous à la rubrique syslog.conf(4)), les messages de gravité LOG_WARNING ou LOG_NOTICE, normalement consignés dans le journal système, ne sont pas émis.
Solution : ajoutez la ligne suivante au début du fichier /etc/syslog.conf sur tous les noeuds de cluster :
user.warning /var/adm/messages |
Récapitulatif du problème : les exigences du fichier nssswitch.conf indiquées à la rubrique “Preparing the Nodes and Disks” in Sun Cluster Data Service for SAP liveCache Guide for Solaris OS ne s'appliquent pas à l'entrée de la base de données passwd. Si ces exigences sont satisfaites, la commande su peut suspendre chaque noeud pouvant contrôler la ressource liveCache lorsque le réseau public est arrété.
Solution : sur chaque noeud pouvant contrôler la ressource liveCache, veillez à ce que l'entrée dans le fichier /etc/nsswitch.conf pour la base de données passwd soit la suivante :
passwd: files nis [TRYAGAIN=0]
Récapitulatif du problème : les assistants d'installation de services de données SunPlex Manager pour Apache et Oracle ne prennent pas en charge Solaris 9 et les versions ultérieures.
Solution : installez Oracle manuellement sur le cluster en vous référant à la documentation de Sun Cluster. Si vous installez Apache sur Solaris 9 (ou versions ultérieures), ajoutez manuellement les packages Apache Solaris SUNWapchr et SUNWapchu avant de lancer l'assistant.
Récapitulatif du problème : des erreurs de délais de réinitialisation de noeud de cluster lors de l'encapsulation de disques racines peuvent engendrer de graves erreurs de noeuds.
Solution : exécutez scvxinstall sur un noeud à la fois, en attendant que le noeud ait complètement terminé sa réinitialisation avant de lancer scvxinstall sur un autre noeud.
Récapitulatif du problème : lorsque vous exécutez le générateur d'agents SunPlex dans une version autre que la version anglaise, la taille par défaut de la fenêtre est trop petite et certaines commandes peuvent ne pas apparaître dans cette fenêtre. Ce problème a été constaté dans les environnements linguistiques allemand et espagnol.
Solution : redimensionnez manuellement la fenêtre du générateur d'agents SunPlex.
Récapitulatif du problème : sccheck peut être interrompue si elle est lancée simultanément sur plusieurs noeuds.
Solution : ne lancez pas sccheck à partir d'une console multiple qui envoie des commandes à plusieurs noeuds. Les exécutions de sccheck peuvent se chevaucher mais ne doivent pas être lancées simultanément.
Récapitulatif du problème : scinstall -r ne supprime pas les packages de services de données spécifiques à une version localisée.
Solution : lorsque le noeud apparaît, exécutez pkginfo | grep -i cluster pour garantir la suppression de tous les packages de services de données. Pour supprimer les packages listés, exécutez pkgrm sur chaque package.
Récapitulatif du problème : certains messages du générateur d'agents SunPlex de la version en chinois traditionnel s'affichent en chinois simplifié.
Solution : exécutez le générateur d'agents SunPlex dans la version zh_TW pour afficher correctement les messages en chinois traditionnel.
Récapitulatif du problème : lorsque la commande hadbm est appelée à partir de l'agent HADB, les binaires Java sont pris dans /usr/bin. L'agent HADB ne fonctionne pas correctement car les binaires Java dans /usr/bin doivent être reliés à la version correcte de Java 1.4 (ou ultérieure).
Solution : associez la variable d'environnement JAVA_HOME à la version appropriée de Java 1.4 (ou ultérieure) dans le script /opt/SUNWappserver7/SUNWhadb/4/bin/hadbm.
Récapitulatif du problème : si scsetup est utilisé pour essayer d'ajouter le premier adaptateur à un cluster à noeud unique, le message d'erreur suivant s'affiche : Unable to determine transport type.
Solution : configurez au moins le premier adaptateur manuellement :
# scconf -a -A trtype=type,name=nom_noeud,node=nom_noeud |
Après avoir configuré le premier adaptateur, continuez à utiliser scsetup pour configurer les travaux d'interconnexion comme prévu.
Récapitulatif du problème : les services de données des applications suivantes ne peuvent pas être mis à niveau avec l'utilitaire scinstall :
Apache Tomcat ;
DHCP ;
mySQL ;
Oracle E-Business Suite ;
Samba ;
SWIFTAlliance Access ;
Serveur WebLogic ;
WebSphere MQ ;
WebSphere MQ Integrator.
Solution : si vous prévoyez de mettre à niveau votre service de données pour une application figurant dans la liste précédente, remplacez l'étape de mise à niveau de services de données de la rubrique “Mise à niveau pour le logiciel Sun Cluster 3.1 4/04 (progressive)” du Guide d'installation du logiciel Sun Cluster pour SE Solaris en suivant les étapes ci-dessous. Répétez ces étapes pour chaque noeud où le service de données est installé.
Supprimez le package de logiciels du service de données que vous mettez à niveau.
# pkgrm package_installation |
package_installation spécifie le nom du package correspondant au service de données que vous mettez à niveau, tel qu'indiqué dans le tableau suivant.
Application |
Package du service de données |
---|---|
Apache Tomcat |
SUNWsctomcat |
DHCP |
SUNWscdhc |
mySQL |
SUNWscmys |
Oracle E-Business Suite |
SUNWscebs |
Samba |
SUNWscsmb |
SWIFTAlliance Access |
SUNWscsaa |
Serveur WebLogic (version anglaise) |
SUNWscwls |
Serveur WebLogic (version française) |
SUNWfscwls |
Serveur WebLogic (version japonaise) |
SUNWjscwls |
WebSphere MQ |
SUNWscmqs |
WebSphere MQ Integrator |
SUNWscmqi |
Installez le package correspondant à la version de service de données vers laquelle vous mettez à niveau.
Pour installer le package, suivez les instructions figurant dans la documentation de Sun Cluster correspondant au service de données que vous mettez à niveau. Cette documentation est disponible à l'adresse http://docs.sun.com.
Récapitulatif du problème : le service de données Sun Cluster HA pour Oracle démarre et arrête la base de données à l'aide de la commande superutilisateur su(1M). Si vous exécutez Solaris 8 ou Solaris 9, le service réseau peut devenir indisponible lorsque le réseau public d'un noeud du cluster tombe en panne.
Solution : sur chaque noeud susceptible d'être principal pour la ressource oracle_server ou oracle_server, modifiez le fichier de configuration /etc/nsswitch.conf en y incluant les entrées suivantes :
passwd: files groups: files publickey: files project: files
L'ajout de ces entrées garantit que la commande su ne se réfère pas aux services de noms NIS/NIS+, de sorte que le service de données démarre et s'arrête correctement en cas de panne du réseau.
Récapitulatif du problème : le service de données Sun Cluster HA pour SAP liveCache utilise la commande dbmcli pour démarrer et arrêter le liveCache. Si vous exécutez Solaris 9, le service du réseau peut devenir indisponible lorsque le réseau public d'un noeud de cluster tombe en panne.
Solution : sur chaque noeud susceptible d'être principal pour la ressource liveCache, modifiez le fichier de configuration /etc/nsswitch.conf en y incluant l'une des entrées suivantes pour la base de données publickey :
publickey: publickey: files publickey: files [NOTFOUND=return] nis publickey: files [NOTFOUND=return] nisplus
L'ajout de l'une de ces entrées et des mises à jour indiquées dans le Sun Cluster Data Service for SAP liveCache Guide for Solaris OSassure que les commandes su et dbmcli ne se réfèrent pas aux services de noms NIS/NIS+. En évitant les services de noms NIS/NIS+, le service de données démarre et s'arrête correctement en cas de panne du réseau.
Récapitulatif du problème : Sun Cluster HA pour Siebel ne contrôle pas les composants Siebel individuels. En cas d'échec d'un composant Siebel, seul un message d'avertissement est consigné dans syslog.
Solution : redémarrez le groupe de ressources du serveur Siebel dans lequel les composants sont hors ligne au moyen de la commande scswitch -R -h noeud -g groupe_ressources.
Cette rubrique fournit des informations sur les patchs applicables aux configurations Sun Cluster.
vous devez être enregistré comme utilisateur SunSolveTM pour pouvoir afficher et télécharger les patchs nécessaires à Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant Sun ou enregistrez-vous en ligne à l'adresse http://sunsolve.sun.com.
PatchPro est un outil de gestion de patchs destiné à faciliter la sélection et le téléchargement des patchs nécessaires à l'installation ou à la maintenance du logiciel Sun Cluster. PatchPro fournit un outil d'installation simplifiée des patchs en mode interactif spécifique à Sun Cluster, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers patchs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des patchs développés, pas uniquement des patchs de sécurité et de haut niveau de disponibilité.
Pour accéder à l'outil PatchPro pour le logiciel Sun Cluster, allez à l'adresse http://www.sun.com/PatchPro/, cliquez sur “Sun Cluster”, puis choisissez Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre cluster et télécharger les patchs applicables.
Le site web SunSolveTM Online vous offre un accès permanent aux dernières mises à jour et versions des patchs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve Online à l'adresse http://sunsolve.sun.com pour consulter les grilles actualisées des versions de logiciels, microprogrammes et patchs pris en charge.
Vous pouvez trouver des informations sur les patchs de Sun Cluster 3.1 dans les Info Docs. Pour y accéder, connectez-vous à SunSolve et sélectionnez Simple search en haut de la page principale. Dans la page Simple Search, cliquez sur la boîte Info Docs et entrez Sun Cluster 3.1 dans le champ des critères de recherche. La page Info Doc du logiciel Sun Cluster 3.1 s'affiche.
Avant d'installer le logiciel Sun Cluster 3.1 et d'appliquer les patchs à un élément du cluster (environnement d'exploitation Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou matériel de disque), consultez les Info Docs et les fichiers README accompagnant les patchs. Le même niveau de patchs doit être appliqué à tous les noeuds du cluster pour qu'il puisse fonctionner correctement.
Pour consulter les procédures et astuces concernant l'administration des patchs, reportez-vous à la rubrique “Patching Sun Cluster Software and Firmware” in Sun Cluster System Administration Guide for Solaris OS.
La documentation Sun Cluster 3.1 est composée des collections suivantes :
Collection de notes de version de Sun Cluster 3.1 4/04 pour SE Solaris |
Collection de logiciels Sun Cluster 3.1 4/04 pour SE Solaris (édition pour plate-forme SPARC) |
Collection de logiciels Sun Cluster 3.1 4/04 pour SE Solaris (édition pour plate-forme x86) |
Collection de références Sun Cluster 3.1 4/04 pour SE Solaris |
Collection de matériel Sun Cluster 3.x pour SE Solaris (édition pour plate-forme SPARC) |
Collection de matériel Sun Cluster 3.x pour SE Solaris (édition pour plate-forme x86) |
La documentation utilisateur Sun Cluster 3.1 est disponible au format PDF et HTML sur le deuxième des 2 CD-ROM de Sun Java Enterprise System 2004Q2. Pour de plus amples informations, consultez le fichier index.html figurant en haut du CD-ROM. Ce fichier vous permet de lire les manuels PDF et HTML directement à partir du CD-ROM et d'accéder aux instructions concernant l'installation des packages de documentation.
vous devez installer le package SUNWsdocs avant d'installer tout package Sun Cluster. Vous pouvez utiliser pkgadd pour installer le package SUNWsdocs. Le package SUNWsdocs se situe dans le répertoire Solaris_ arch/Product/sun_cluster/Solaris_ver/Packages/ du Sun Cluster 3.1 4/04 CD-ROM, où arch est sparc ou x86, et ver est soit 8 pour Solaris 8 soit 9 pour Solaris 9. Le package SUNWsdocs s'installe automatiquement lorsque vous exécutez le programme installer à partir du CD de documentation de Solaris 9.
En outre, le site web docs.sun.comSM vous permet d'accéder à la documentation de Sun Cluster sur Internet. Vous pouvez le parcourir ou y rechercher un titre de manuel ou un sujet particulier.
Référence |
Titre du manuel |
---|---|
817–4226 | |
817–6908 | |
817–6372 | |
817–6365 | |
817–6386 | |
817–4228 | |
817–4231 |
Sun Cluster Reference Manual for Solaris OS |
817–4638 |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
817–4575 |
Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS |
817–4582 | |
817–4645 |
Sun Cluster Data Service for Domain Name Service (DNS) Guide for Solaris OS |
817–4574 | |
817–4646 |
Sun Cluster Data Service for Network File System (NFS) Guide for Solaris OS |
817–4581 | |
817–3920 |
Sun Cluster Data Service for Sun Java System Application Server Guide for Solaris OS |
817–4643 |
Sun Cluster Data Service for Sun Java System Message Queue Guide for Solaris OS |
817–4641 |
Sun Cluster Data Service for Sun Java System Web Server Guide for Solaris OS |
Référence |
Titre du manuel |
---|---|
817–0168 |
Sun Cluster 3.x Hardware Administration Manual for Solaris OS |
817–0180 |
Sun Cluster 3.x With Sun StorEdge 3310 SCSI RAID Array Manual for Solaris OS |
Cette rubrique détaille les erreurs connues et les omissions de la documentation, de l'aide en ligne et des pages de manuel, et indique la marche à suivre pour y remédier.
toutes les occurrences de “Sun One” dans les noms et les descriptions des services de données pour les applications JES doivent être comprises comme “Sun Java System”. Exemple : “service de données de Sun Cluster pour Sun One Application Server” doit être compris comme “service de données de Sun Cluster pour Sun Java System Application Server”.
Cette rubrique traite des erreurs et omissions du Sun Cluster Software Installation Guide for Solaris OS.
La “Procédure de configuration du logiciel Sun Cluster sur tous les noeuds (scinstall)” ne comprend pas d'instructions relatives à l'installation des packages de logiciels Sun Cluster qui prennent en charge les adaptateurs RSMAPI et SCI-PCI. L'utilitaire installer n'installe pas automatiquement ces packages.
Suivez ces étapes pour installer ces packages supplémentaires à partir du CD-ROM Sun Cluster 3.1. Installez ces packages avant d'installer le logiciel de structure Sun Cluster.
Déterminez quels packages vous devez installer.
Le tableau suivant liste les packages Sun Cluster 3.1 que chaque fonction requiert et l'ordre dans lequel vous devez installer chaque groupe de packages.
Fonctionnalité |
Packages Sun Cluster 3.1 supplémentaires à installer |
---|---|
RSMAPI |
SUNWscrif |
Adaptateurs SCI-PCI |
SUNWsci SUNWscid SUNWscidx |
Utilisez la commande suivante pour installer les packages supplémentaires.
Remplacez arch par sparc ou x86 et remplacez ver par 8 (pour Solaris 8) ou 9 (pour Solaris 9).
# cd /cdrom/suncluster_3_1Packages # pkgadd -d . packages |
Cette rubrique décrit les erreurs et omissions contenues dans l'aide en ligne de SunPlex Manager.
Dans le fichier d'aide en ligne intitulé “Sun Cluster HA pour Oracle”, une remarque figurant dans la rubrique “Avant de commencer” est incorrecte.
Incorrect :
S'il n'existe aucune entrée pour shmsys et semsys dans /etc/system, des valeurs par défaut sont automatiquement insérées dans /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs sont appropriées pour votre base de données.
Correct :
S'il n'existe aucune entrée pour les variables shmsys et semsys dans le fichier /etc/system lorsque vous installez le service de données Oracle, vous pouvez ouvrir /etc/system et y insérer des valeurs par défaut pour ces variables. Vous devez ensuite réinitialiser le système. Consultez la documentation d'installation d'Oracle pour vérifier que les valeurs insérées sont appropriées à votre base de données.
Dans le tableau “Profils d'autorisations d'accès RBAC pour Sun Cluster”, les autorisations solaris.cluster.appinstall et solaris.cluster.install doivent figurer sous le profil de gestion du cluster et non sous le profil de fonctionnement du cluster.
Dans le tableau “Profils d'autorisations d'accès RBAC pour Sun Cluster”, sous le profil Commandes Sun Cluster, sccheck(1M) doit être inclus à la liste de commandes.
Cette rubrique traite des erreurs et des omissions du Sun Cluster Concepts Guide for Solaris OS.
Au chapitre 3, la rubrique “Using the Cluster Interconnect for Data Service Traffic” doit être comprise comme suit :
Un cluster doit avoir de multiples connexions réseau entre les noeuds pour former une interconnexion de cluster. Le logiciel de clustering fait appel à de nombreuses interconnexions pour optimiser la disponibilité et les performances. Pour le trafic interne et externe (par exemple, les données du système de fichiers ou les données des services évolutifs), les messages sont entrelacés sur toutes les interconnexions disponibles.
L'interconnexion de cluster est également mise à la disposition des applications pour garantir une communication hautement disponible entre les noeuds. Par exemple, une application répartie peut avoir des composants exécutés sur différents noeuds et ayant besoin de communiquer entre eux. En utilisant l'interconnexion de cluster plutôt que le transport public, ces connexions peuvent résister à l'échec d'un lien individuel.
Pour utiliser l'interconnexion de cluster dans le cadre des communications, l'application doit adopter les noms d'hôtes privés configurés lors de l'installation du cluster. Par exemple, si le nom d'hôte privé pour le noeud 1 est clusternode1-priv, utilisez ce nom pour communiquer sur l'interconnexion de cluster vers le noeud 1. Les sockets TCP ouverts avec ce nom sont routés sur l'interconnexion de cluster et peuvent être reroutés de manière transparente en cas de panne réseau. La communication d'applications entre deux noeuds est entrelacée sur toutes les interconnexions. Le trafic pour une connexion TCP donnée passe sur une interconnexion à n'importe quel point. Différentes connexions TCP sont entrelacées sur toutes les interconnexions. En outre, le trafic UDP est toujours entrelacé sur toutes les interconnexions.
Veuillez noter que comme les noms d'hôte privés peuvent être configurés durant l'installation, l'interconnexion de cluster peut utiliser n'importe quel nom choisi à ce moment-là. Le nom réel peut être obtenu à l'aide de la commande scha_cluster_get(3HA) suivie de l'argument scha_privatelink_hostname_node.
Cette rubrique traite des erreurs et omissions contenues dans le Sun Cluster System Administration Guide for Solaris OS.
Les groupes de disques racine simples ne sont pas pris en charge en tant que type de disques par VERITAS Volume Manager sur le logiciel Sun Cluster. Ainsi si vous suivez les directives de la rubrique “Restauration d'un système de fichiers racine (/) non encapsulé (VERITAS Volume Manager)” du Sun Cluster System Administration Guide for Solaris OS, vous devez ignorer l'étape 9 qui vous demande de déterminer si le groupe de disques racine (rootdg) est sur une seule tranche du disque racine. Suivez les étapes de 1 à 8, passez l'étape 9, et continuez avec l'étape 10 jusqu'à la fin de la procédure.
Lorsque vous augmentez ou diminuez le nombre de noeuds reliés à un périphérique de quorum, le nombre de votes de quorum n'est pas recalculé automatiquement. Vous pouvez rétablir le nombre de votes correct en retirant tous les périphériques de quorum puis en les rajoutant à la configuration.
Cette rubrique décrit les erreurs et omissions contenues dans les pages des guides de services de données.
Dans le Sun Cluster Data Service for Sun Java System Application Server Guide for Solaris OS, l'exemple donné pour la commande asadmin est incorrect et doit être ignoré. L'étape 15 de la “Procédure d'installation et de configuration de Sun Java System Application Server” doit être comprise comme suit :
Modifiez l'emplacement du paramètre accesslog pour refléter le répertoire que vous avez créé à l'étape 11. Pour modifier ce paramètre, utilisez l'utilitaire asadmin. Reportez-vous au Sun Java System Application Server 7 Administration Guide pour de plus amples instructions.
Cette rubrique décrit les erreurs et omissions contenues dans les pages de manuel de Sun Cluster.
La page de manuel scconf_transp_adap_sci(1M) indique que les adaptateurs de transport SCI peuvent être utilisés avec le type de transport rsm. Cette affirmation est incorrecte. Les adaptateurs de transport SCI ne prennent pas en charge les dispositifs de transport de type rsm. Les adaptateurs de transport SCI ne prennent en charge que le type de transport dlpi.
La phrase indiquée ci-dessous permet de clarifier le nom d'un adaptateur SCI–PCI. Actuellement, cette information ne figure pas dans la page de manuel scconf_transp_adap_sci(1M).
Nouvelles informations :
Utilisez le nom sciN pour spécifier un adaptateur SCI.
Le paragraphe suivant clarifie le comportement de la commande scgdevs. Actuellement, cette information ne figure pas dans la page de manuel.scgdevs(1M).
Nouvelles informations :
scgdevs(1M) appelé à partir d'un noeud local exécute sa tâche sur les noeuds distants de manière asynchrone. Par conséquent, la fin de l'action de la commande sur le noeud local ne signifie pas nécessairement que celle-ci a terminé sa tâche dans tout le cluster.
Dans cette version, la valeur de la version_API actuelle qui était de 2 auparavant a été augmentée à 3. Si vous développez un nouvel agent Sun Cluster et souhaitez éviter que votre type de ressource soit enregistré sur une version antérieure du logiciel Sun Cluster, déclarez version_API=3 dans le fichier RTR de l'agent. Pour de plus amples informations, reportez-vous à la rubrique rt_properties( 5).
Pour afficher les pages de manuel relatives aux services de données Sun Cluster 3.0, installez les derniers patchs appliqués au logiciel Sun Cluster 3.1 pour ces services de données. Reportez-vous à la rubrique Patchs et niveaux de microprogrammes requis pour de plus amples informations.
Après avoir appliqué le patch, accédez aux pages d'aide en ligne des services de données Sun Cluster 3.0 en exécutant la commande man -M avec le chemin d'accès entier à la page de manuel comme argument. L'exemple suivant permet d'ouvrir la page de manuel relative à Apache.
% man -M /opt/SUNWscapc/man SUNW.apache |
Vous pouvez modifier votre MANPATH afin d'activer l'accès aux pages de manuel des services de données Sun Cluster 3.0 sans spécifier le chemin complet. L'exemple suivant décrit l'entrée de commande permettant d'ajouter le chemin des pages de manuel d'Apache à votre MANPATH et d'afficher ces pages.
% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH % man SUNW.apache |
L'accordabilité de la propriété d'extension Restart_if_Parent_Terminated s'effectue à n'importe quel moment, contrairement à ce qui est indiqué dans la page de manuel SUNW.sapdb(5).
La rubrique “See Also” de cette page de manuel comporte une erreur. Il convient de se reporter non pas au Sun Cluster 3.1 Data Services Installation and Configuration Guide, mais au Sun Cluster Data Service for WebLogic Server Guide for Solaris OS