Ce document fournit les informations suivantes sur le logiciel SunTM Cluster 3.1 8/05.
Cette rubrique présente les nouvelles fonctions et fonctionnalités ainsi que les nouveaux produits pris en charge par le logiciel Sun Cluster 3.1 8/05. Cette rubrique présente également les restrictions appliquées dans cette version.
Cette rubrique présente chacune des nouvelles fonctions de Sun Cluster 3.1 8/05.
Cette version présente des améliorations de l'installation et la configuration de Sun Cluster.
Les options de menu suivantes ont été ajoutées à l'utilitaire scinstall :
Mode d'installation classique pour le premier nœud d'un cluster, nœuds supplémentaires d'un cluster, et configuration d'installation JumpStart
Installation de cluster mononœud
Mise à niveau de cluster
L'utilitaire scinstall peut désormais automatiquement sélectionner et configurer un périphérique de quorum dans le cadre du traitement de la configuration. Cette fonction optionnelle est disponible pour les clusters à deux nœuds n'utilisant que des périphériques de stockage SCSI partagés qualifiés pour servir de périphériques de quorum.
Les modifications de fichier suivantes sont désormais automatisées dans le cadre du traitement de la configuration de Sun Cluster :
Nom du fichier |
Modifications d'entrées |
---|---|
/etc/hostname.if |
Une entrée est ajoutée pour chaque adaptateur de réseau public configuré afin de permettre la formation de groupes IPMP avec un seul adaptateur. |
/etc/inet/hosts |
Une entrée est ajoutée pour chaque nœud de cluster. |
/etc/inet/ntp.conf.cluster |
Les entrées de nom d'hôte privé non utilisées sont supprimées. |
/etc/nsswitch.conf |
La plupart des entrées sont modifiées de manière à consulter la base de données files locale avant les serveurs distants. |
/etc/system |
L'entrée exclude:lofs est ajoutée. |
Cette fonctionnalité se retrouve dans les procédures d'installation et de mise à niveau décrites au Chapitre 2, Installation et configuration du logiciel Sun Cluster du Guide d’installation du logiciel Sun Cluster pour SE Solaris et au Chapitre 5, Mise à niveau du logiciel Sun Cluster du Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Le logiciel Sun Cluster prend en charge les périphériques de stockage NAS Network Appliance, pour le stockage partagé uniquement, à partir du logiciel Sun Cluster 3.1 9/04. Il prend en charge les périphériques NAS comme des périphériques de quorum à partir du logiciel Sun Cluster 3.1 8/05. Le périphérique NAS Network Appliance peut désormais être déployé avec Sun Cluster de la façon suivante :
En tant que périphérique de quorum, avec prise en charge de la séparation.
Avec Oracle RAC et avec toutes les applications compatibles avec Sun Cluster sauf HA-NFS.
Avec NFSv3 et NFSv4.
Sans aucune restriction quant à la taille des clusters.
Pour plus d'informations sur l'installation et la maintenance d'un périphérique NAS dans un environnement Sun Cluster, consultez le Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS. Pour plus d'informations sur l'utilisation d'un périphérique NAS Network Appliance comme périphérique de quorum, consultez la rubrique Ajout d’un périphérique de quorum NAS Network Appliance du Guide d’administration système de Sun Cluster pour SE Solaris.
Les informations affichées sur l'écran de données d'ouverture du gestionnaire SunPlex ont été simplifiées. L'écran d'ouverture n'affiche plus que les tables Nodes et Resource Groups. Vous pouvez accéder aux autres tables en cliquant sur l'élément approprié dans l'>Navigation Tree à gauche de la fenêtre du navigateur.
Le logiciel Sun Cluster prend en charge les réseaux locaux virtuels (VLAN) marqués, permettant le partage d'un adaptateur entre l'interconnexion privée et le réseau public. Pour plus d'informations sur la configuration d'un adaptateur VLAN marqué pour l'interconnexion privée, consultez la rubrique Interconnexion de cluster du Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Le service de données Sun Cluster HA pour conteneurs Solaris permet aux applications de s'exécuter dans des zones non globales sous le contrôle de Sun Cluster.
Pour permettre aux applications de s'exécuter dans des zones non globales sous le contrôle de Sun Cluster, Sun Cluster HA pour conteneurs Solaris effectue les opérations suivantes :
l'initialisation et l'arrêt ordonnés d'une zone, qui permet à une zone non globale de fonctionner dans une configuration de basculement ou une configuration multimaître,
le démarrage, l'arrêt et la détection de pannes appropriés d'une application à l'intérieur de la zone par des scripts ou des commandes,
le démarrage, l'arrêt et la détection de pannes appropriés d'un service Solaris SMF (Service Management Facility) à l'intérieur de cette zone.
Si vous prévoyez d'utiliser ce service de données, vous devrez écrire vos propres scripts ou manifestes SMF pour les applications utilisées dans les zones non globales.
Les restrictions suivantes s'appliquent au service de données Sun Cluster HA pour conteneurs Solaris :
Le service de données ne permet pas au logiciel Sun Cluster de fonctionner dans une zone non globale.
Le service de données ne permet pas à des services de données existants de s'exécuter dans une zone non globale.
Le service de données ne permet pas de basculement entre des zones non globales sur le même nœud.
Pour plus d'informations sur ce service de données, consultez le Sun Cluster Data Service for Solaris Containers Guide.
Le logiciel Sun Cluster vous permet d'utiliser Sun Cluster pour rendre hautement disponible une application intégrée avec SMF (Solaris Service Management Facility). Si vous utilisez Sun Cluster pour rendre un service SMF hautement disponible, des restrictions d'utilisation de Solaris SMF s'appliquent. Pour plus d'informations, consultez la rubrique Enabling Solaris SMF Services to Run Under the Control of Sun Cluster du Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Le logiciel Sun Cluster fonctionne sur la gamme de puces microprocesseurs 64 bits et compatibles conçues par AMD.
Le logiciel Sun Cluster prend en charge l'utilisation de Kerberos avec NFS. Pour plus d'informations, reportez-vous à la rubrique Securing Sun Cluster HA for NFS With Kerberos V5 du Sun Cluster Data Service for NFS Guide for Solaris OS.
Le logiciel Sun Cluster prend en charge la version 10g d'Oracle et Oracle Real Application Clusters sur la plate-forme SPARC. La qualification de la version 10g d'Oracle et Oracle Real Application Clusters sur la plate-forme x86 est en attente et n'est pas encore prise en charge. Pour plus d'informations, consultez la documentation suivante :
Les restrictions suivantes s'appliquent à la version Sun Cluster 3.1 8/05 :
NFSv4 n'est pas pris en charge dans la version Sun Cluster 3.1 8/05.
Pour tout autre problème connu ou toute restriction, voir la rubrique Problèmes connus et bogues.
Cette rubrique présente des informations sur les problèmes de compatibilité de Sun Cluster tels que ceux relatifs aux fonctions en voie d'abandon.
Les autres problèmes de compatibilité de la structure Sun Cluster sont documentés dans le Chapitre 1, Planification de la configuration Sun Cluster du Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Les problèmes de mise à niveau de Sun Cluster sont documentés dans la rubrique Généralités sur la mise à niveau d’une configuration Sun Cluster du Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Pour tout autre problème connu ou toute restriction, voir la rubrique Problèmes connus et bogues.
Le logiciel Solstice DiskSuite peut ne pas être pris en charge dans une future version de Sun Cluster. Si vous utilisez le logiciel Solstice DiskSuite, effectuez la mise à niveau vers le système d'exploitation Solaris 9 ou Solaris 10 , qui procédera à la mise à niveau automatique vers le logiciel Solaris Volume Manager. Pour plus d'informations sur la mise à niveau, consultez le Solaris 9 9/04 Installation Guide ou le Guide d’installation de Solaris 10 : Solaris Live Upgrade et planification de la mise à niveau.
Sun Fire Link risque de ne plus être pris en charge dans une version ultérieure du logiciel Sun Cluster. Si vous utilisez Sun Fire Link, employez une autre technologie d'interconnexion prise en charge par Sun Cluster. Pour obtenir des informations sur le matériel d'interconnexion pris en charge par Sun Cluster, consultez le Chapitre 3, Installing Cluster Interconnect Hardware and Configuring VLANs du Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS.
Le programme d'installation SunPlex risque de ne plus être pris en charge dans une version ultérieure du logiciel Sun Cluster. Pour mettre en place une nouvelle configuration de Sun Cluster, utilisez plutôt l'utilitaire scinstall. L'utilitaire scinstall prend en charge, grâce à son interface à ligne de commande, toutes les fonctionnalités du programme d'installation SunPlex.
La configuration de groupes IPMP (ajouter ou supprimer) peut ne pas être comprise dans une version ultérieure. Cette fonction est disponible avec la commande Solaris ifconfig(1M). Consultez la page ifconfig(1M) pour plus d'informations sur les options spécifiques.
Le type de ressource SUNW.RGOffload risque de ne plus être disponible dans les versions ultérieures de Sun Cluster. Toutes les fonctions offertes par ce type de ressource sont disponibles via les propriétés du groupe de ressources RG_affinities et son option "affinité négative".
Si vous avez actuellement configuré une ressource SUNW.RGOffload, exécutez les actions suivantes pour utiliser l'option "affinité négative" de la propriété du groupe de ressources RG_affinities.
Supprimez la dépendance de la ressource critique sur la ressource SUNW.RGOffload.
# scrgadm -cj critical-rs -y Resource_dependencies="" |
Supprimez la ressource SUNW.RGOffload et le type de ressource.
# scrgadm -nj rgofl # scrgadm -rj rgofl # scrgadm -rt SUNW.RGOffload |
Modifiez la propriété du groupe de ressources non critiques pour obtenir une affinité négative envers le groupe de ressources critiques (qui contient critical-rs).
# scrgadm -c -g non-critical-rg -y RG_affinities=--critical-rg |
Cet exemple montre uniquement une affinité négative forte. Vous pouvez définir une affinité négative faible et d'autres types de dépendances sur les groupes de ressources en ligne. Veuillez consulter la rubrique Distributing Online Resource Groups Among Cluster Nodes du Sun Cluster Data Services Planning and Administration Guide for Solaris OS pour obtenir plus de précisions sur la configuration des dépendances des groupes de ressources en ligne.
DiskSuite Tool (Solstice DiskSuite metatool) et le module de stockage amélioré de la console de gestion Solaris (Solaris Volume Manager) ne sont pas compatibles avec le logiciel Sun Cluster. Utilisez l'interface de ligne de commande ou les utilitaires de Sun Cluster pour configurer les logiciels Solstice DiskSuite ou Solaris Volume Manager.
Le logiciel Sun Cluster 3.1 8/05 ne prend pas en charge les zones non globales. Tous les logiciels Sun Cluster et ceux que gère le cluster doivent être installés exclusivement dans la zone globale du nœud. N'installez pas de logiciels liés au cluster dans les zones non globales. Par ailleurs, tous les logiciels liés au cluster doivent être installés d'une manière qui empêche leur propagation vers les futures zones non globales des nœuds. Pour plus d'informations, consultez la rubrique Adding a Package to the Global Zone Only du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Cependant, le logiciel Sun Cluster 3.1 8/05 prend en charge les applications qui s'exécutent dans une zone non globale et qui sont gérées par le service de données Sun Cluster HA pour conteneurs Solaris. Consultez la rubrique Sun Cluster HA pour conteneurs Solaris pour plus d'informations.
Dans certaines conditions, le logiciel Sun Cluster 3.1 8/05 ne prend pas en charge l'utilisation de LOFS. Si vous devez activer LOFS sur un nœud de cluster, comme lorsque vous configurez des zones non globales sous Sun Cluster HA pour conteneurs Solaris, déterminez tout d'abord si les restrictions LOFS s'appliquent à votre configuration. Consultez la rubrique Systèmes de fichiers de cluster du Guide d’installation du logiciel Sun Cluster pour SE Solaris pour obtenir plus d'informations sur ces restrictions et les solutions qui permettent d'utiliser LOFS en présence de restrictions.
Le logiciel Sun Cluster 3.1 8/05 ne prend pas en charge la mise à jour vers la version d'origine du système d'exploitation Solaris 10 qui a été distribuée en mars 2005. Vous devez effectuer la mise à niveau vers une version compatible de Solaris 10. Contactez votre représentant de services Sun pour plus d'informations.
La commande scvxinstall et les procédures de Sun Cluster ont été modifiées pour l'installation du logiciel VxVM dans une configuration Sun Cluster. Consultez la rubrique Installation et configuration du logiciel VxVM du Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Pour obtenir les fonctions d'accessibilité éventuellement diffusées depuis la publication de ce support, consultez la rubrique 508 d'évaluations de produits disponible sur demande auprès de Sun afin de déterminer les versions les plus aptes au déploiement de solutions accessibles. Les versions actuelles des applications sont disponibles sur : http://sun.com/software/javaenterprisesystem/get.html. Pour obtenir des informations sur l'engagement de Sun en matière d'accessibilité, consultez http://sun.com/access.
Cette rubrique décrit les modifications apportées aux interfaces de commande de Sun Cluster qui pourraient entraîner des erreurs des scripts utilisateur.
L'option -q de la commande scconf a été modifiée pour distinguer les périphériques de quorum locaux partagés (scsi) des autres types de périphériques de quorum (y compris les périphériques NAS NetApp). Utilisez la sous-option name pour spécifier le nom du périphérique de stockage partagé lors de l'ajout ou de la suppression d'un périphérique de quorum partagé. Cette sous-fonction peut également être utilisée avec la forme change de la commande pour modifier l'état d'un périphérique de quorum. Vous pouvez toujours utiliser la sous-option globaldev pour les périphériques de stockage partagés scsi, mais vous devez utiliser la sous-option name pour tous les autres types de périphériques de stockage partagés. Pour obtenir plus d'informations sur la modification de scconf et l'utilisation de périphériques de quorum, consultez les pages de manuel scconf(1M), scconf_quorum_dev_netapp_nas(1M), scconf_quorum_dev_netapp_nas(1M) et scconf_quorum_dev_scsi(1M).
Cette rubrique présente les modifications des noms de produits des applications prises en charge par Sun Cluster. En fonction de la version du logiciel Sun Cluster que vous utilisez, la documentation Sun Cluster peut ne pas refléter les modifications de noms de produits mentionnées ci-dessous.
Cette rubrique décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.1 8/05 .
Système d'exploitation Solaris : Sun Cluster 3.1 8/05 requiert au minimum les versions Solaris suivantes :
Solaris 8 – Solaris 8 2/02
Solaris 9 – Solaris 9 marketing release (mai 2002)
Solaris 10 –
Nouvelles installations : Solaris 10 marketing release (mars 2005)
Mises à niveau : Non pris en charge. Contactez votre représentant de services Sun pour obtenir des informations sur le support de la mise à niveau vers des versions ultérieures de Solaris 10
Gestionnaires de volumes
Sur Solaris 8 – Solstice DiskSuiteTM 4.2.1 et (SPARC uniquement) VERITAS Volume Manager 3.5, 4.0, et 4.1. Également, les composants VERITAS Volume Manager fournis avec Veritas Storage Foundation 4.0 et 4.1.
Sur Solaris 9 – Solaris Volume Manager et (SPARC uniquement) VERITAS Volume Manager 3.5, 4.0, et 4.1. Également, les composants VERITAS Volume Manager fournis avec Veritas Storage Foundation 4.0 et 4.1.
Sur Solaris 10 – Solaris Volume Manager et (SPARC uniquement) VERITAS Volume Manager 4.0 et 4.1. Également, les composants VERITAS Volume Manager fournis avec Veritas Storage Foundation 4.0 et 4.1.
Systèmes de fichiers
Sur Solaris 8 – Solaris UFS, (SPARC uniquement) Sun StorEdge QFS, et (SPARC uniquement) Système de fichiers VERITAS 3.5, 4.0, et 4.1. Également, les composants Système de fichiers VERITAS fournis avec Veritas Storage Foundation 4.0 et 4.1.
Sur Solaris 9 – Solaris UFS, (SPARC uniquement) Sun StorEdge QFS, et (SPARC uniquement) Système de fichiers VERITAS 3.5, 4.0, et 4.1. Également, les composants Système de fichiers VERITAS fournis avec Veritas Storage Foundation 4.0 et 4.1.
Sur Solaris 10 – Solaris UFS, (SPARC uniquement) Sun StorEdge QFS, et (SPARC uniquement) Système de fichiers VERITAS 4.0 et 4.1. Également, les composants Système de fichiers VERITAS fournis avec Veritas Storage Foundation 4.0 et 4.1.
Services de données (agents) : contactez votre représentant commercial Sun pour obtenir une liste complète des services de données et des versions d'applications pris en charge. Indiquez les noms de types de ressources lors de l'installation de services de données à l'aide de l'utilitaire scinstall(1M). Ces noms doivent également être spécifiés lors de l'enregistrement des types de ressources associés au service de données à l'aide de l'utilitaire scsetup(1M).
les procédures relatives à la version de Sun Cluster HA pour Sun JavaTM System Directory Server utilisant Sun Java System Directory Server 5.0 et 5.1 sont décrites dans le manuel Sun Cluster 3.1 Data Service for Sun ONE Directory Server. Pour les versions ultérieures de Sun Java System Directory Server, consultez la documentation de Sun Java System Directory Server.
toutes les occurrences de “Sun One” dans les noms et descriptions des services de données des applications Sun Java Enterprise System doivent être comprises comme désignant “Sun Java System.” Exemple : un “service de données Sun Cluster pour Sun One Application Server” désigne un “service de données Sun Cluster pour Sun Java System Application Server.”.
Le service de données Sun Cluster HA pour Oracle 3.0 fonctionne sous Sun Cluster 3.1 8/05 uniquement avec les versions suivantes du SE Solaris :
Solaris 8, version 32 bits
Solaris 8, version 64 bits
Solaris 9, versions 32 bits
Le service de données Sun Cluster HA pour Oracle 3.0 ne peut pas fonctionner sur le logiciel Sun Cluster 3.1 8/05 s'il est utilisé avec la version 64 bits de Solaris 9.
Service de données |
Type de ressource Sun Cluster |
---|---|
Sun Cluster HA pour Agfa IMPAX |
SUNW.gds |
Sun Cluster HA pour Apache |
SUNW.apache |
Sun Cluster HA pour Apache Tomcat |
SUNW.sctomcat |
Sun Cluster HA pour BroadVision One-To-One Enterprise |
SUNW.bv |
Sun Cluster HA pour DHCP |
SUNW.gds |
Sun Cluster HA pour DNS |
SUNW.dns |
Sun Cluster HA pour MySQL |
SUNW.gds |
Sun Cluster HA pour NetBackup |
SUNW.netbackup_master |
Sun Cluster HA pour NFS |
SUNW.nfs |
Sun Cluster Oracle Application Server |
SUNW.gds |
Sun Cluster HA pour Oracle E-Business Suite |
SUNW.gds |
Sun Cluster HA pour Oracle |
SUNW.oracle_server SUNW.oracle_listener |
Support Sun Cluster pour Oracle Real Application Clusters |
SUNW.rac_framework SUNW.rac_udlm SUNW.rac_svm SUNW.rac_cvm SUNW.rac_hwraid SUNW.oracle_rac_server SUNW.oracle_listener |
Sun Cluster HA pour Samba |
SUNW.gds |
Sun Cluster HA pour SAP |
SUNW.sap_ci SUNW.sap_ci_v2 SUNW.sap_as SUNW.sap_as_v2 |
Sun Cluster HA pour SAP liveCache |
SUNW.sap_livecache SUNW.sap_xserver |
Sun Cluster HA pour SAP DB |
SUNW.sapdb SUNW.sap_xserver |
Sun Cluster HA pour SAP Web Application Server |
SUNW.sapenq SUNW.saprepl SUNW.sapscs SUNW.sapwebas SUNW.gds |
Sun Cluster HA pour Siebel |
SUNW.sblgtwy SUNW.sblsrvr |
Sun Cluster HA pour conteneurs Solaris |
SUNW.gds |
Sun Cluster HA pour N1 Grid Engine |
SUNW.gds |
Versions de Sun Cluster HA pour Sun Java System Application Server prises en charge avant 8.1 |
SUNW.s1as |
Versions de Sun Cluster HA pour Sun Java System Application Server prises en charge à partir de 8.1 |
SUNW.jsas SUNW.jsas-na |
Sun Cluster HA pour Sun Java System Application Server EE (prises en charge des versions de HADB antérieures à 4.4) |
SUNW.hadb |
Sun Cluster HA pour Sun Java System Application Server EE (prises en charge des versions de HADB à partir de 4.4) |
SUNW.hadb_ma |
Sun Cluster HA pour Sun Java System Message Queue |
SUNW.s1mq |
Sun Cluster HA pour Sun Java System Web Server |
SUNW.iws |
Sun Cluster HA pour SWIFTAlliance Access |
SUNW.gds |
Sun Cluster HA pour SWIFTAlliance Gateway |
SUNW.gds |
Sun Cluster HA pour Sybase ASE |
SUNW.sybase |
Sun Cluster HA pour le serveur WebLogic |
SUNW.wls |
Sun Cluster HA pour WebSphere MQ |
SUNW.gds |
Sun Cluster HA pour l'intégrateur WebSphere MQ |
SUNW.gds |
Configuration minimale requise : Sun Cluster 3.1 8/05 requiert davantage de mémoire qu'un noeud opérant dans des conditions normales. Ce supplément doit être de 128 Mo plus 10 % de la mémoire configurée pour un système non clusterisé. Par exemple, si un noeud autonome a normalement besoin d'1 Go de mémoire, vous devez y ajouter 256 Mo pour fournir la mémoire nécessaire.
Le logiciel RSMAPI – Sun Cluster 3.1 8/05 prend en charge l'Interface de programmation d'application de mémoire partagée distante (RSMAPI) sur les câbles d'interconnexion compatibles RSM, comme PCI-SCI.
Sun Cluster Security Hardening utilise les techniques de renforcement du système d'exploitation Solaris recommandées par le programme Sun BluePrintsTM afin de renforcer la sécurité de base des clusters. Solaris Security Toolkit assure la mise en oeuvre automatique de Sun Cluster Security Hardening.
La documentation relative à Sun Cluster Security Hardening est disponible à l'adresse http://www.sun.com/blueprints/0203/817-1079.pdf. Vous pouvez également accéder à l'article à partir de l'adresse http://www.sun.com/software/security/blueprints. À partir de cet URL, faites défiler le texte vers le bas jusqu'au titre Architecture, puis accédez à l'article “Securing the Sun Cluster 3.x Software.” (Sécurisation du logiciel Sun Cluster 3.x). La documentation décrit la procédure de sécurisation des déploiements de Sun Cluster 3.1 dans un environnement Solaris 8 et Solaris 9. L'utilisation de Solaris Security Toolkit et d'autres techniques de sécurité de pointe conseillées par les experts de Sun y sont également décrites.
Tableau 1 Services de données pris en charge par Sun Cluster Security Hardening
Agent de service de données |
Version de l'application : Basculement |
Version de l'application : Évolutivité |
Version de Solaris |
---|---|---|---|
Sun Cluster HA pour Apache |
1.3.9 |
1.3.9 |
Solaris 8, Solaris 9 (version 1.3.9) |
Sun Cluster HA pour Apache Tomcat |
3.3, 4.0, 4.1 |
3.3, 4.0, 4.1 |
Solaris 8, Solaris 9 |
Sun Cluster HA pour DHCP |
S8U7+ |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour DNS |
avec SE |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Sun Java System Messaging Server |
6.0 |
4.1 |
Solaris 8 |
Sun Cluster HA pour MySQL |
3.23.54a - 4.0.15 |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour NetBackup |
3.4 |
Non applicable |
Solaris 8 |
Sun Cluster HA pour NFS |
avec SE |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Oracle E-Business Suite |
11.5.8 |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Oracle |
8.1.7 et 9i (32 et 64 bits) |
Non applicable |
Solaris 8, Solaris 9 (HA Oracle 9iR2) |
Support Sun Cluster pour Oracle Real Application Clusters |
8.1.7 et 9i (32 et 64 bits) |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour SAP |
4.6D (32 et 64 bits) et 6.20 |
4.6D (32 et 64 bits) et 6.20 |
Solaris 8, Solaris 9 |
Sun Cluster HA pour SWIFTAlliance Access |
4.1, 5.0 |
Non applicable |
Solaris 8 |
Sun Cluster HA pour Samba |
2.2.2, 2.2.7, 2.2.7a, 2.2.8, 2.2.8a |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Siebel |
7.5 |
Non applicable |
Solaris 8 |
Sun Cluster HA pour conteneurs Solaris |
avec SE |
Non applicable |
Solaris10 |
Sun Cluster HA pour Sun Java System Application Server |
7.0, 7.0 mise à jour 1 |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Sun Java System Directory Server |
4.12 |
Non applicable |
Solaris 8, Solaris 9 (version 5.1) |
Sun Cluster HA pour Sun Java System Message Queue |
3.0.1 |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Sun Java System Web Server |
6.0 |
4.1 |
Solaris 8, Solaris 9 (version 4.1) |
Sun Cluster HA pour Sybase ASE |
12.0 (32 bit) |
Non applicable |
Solaris 8 |
Sun Cluster HA pour le serveur BEA WebLogic |
7.0 |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour WebSphere MQ |
5.2, 5.3 |
Non applicable |
Solaris 8, Solaris 9 |
Sun Cluster HA pour l'intégrateur WebSphere MQ |
2.0.2, 2.1 |
Non applicable |
Solaris 8, Solaris 9 |
Les problèmes et bogues présentés ci-après concernent la version Sun Cluster 3.1 8/05.
Problème : scvxinstall génère des entrées /etc/vfstab incorrectes en cas de multiacheminement du périphérique d'initialisation.
Solution : exécutez scvxinstall et choisissez le mode encapsulé. Pour abandonner la réinitialisation à l'affichage du message suivant, saisissez Ctrl+C :
Ce nœud va être réinitialisé dans 20 secondes. Entrez Ctrl-C pour annuler. |
Modifiez l'entrée vfstab afin que le nom du fichier /global/.devices soit /dev/{r}dsk/cXtXdX plutôt que /dev/did/{r}dsk. Cette entrée révisée permet à VxVM de la reconnaître en tant que disque racine. Exécutez à nouveau scvxinstall et choisissez le mode encapsulé. Le fichier vfstab comporte les mises à jour nécessaires. Autorisez le redémarrage. L'encaspulation est normalement effectuée.
Exécutez scvxinstall et choisissez le mode encapsulé.
Le système affiche le message suivant :
This node will be re-booted in 20 seconds. Type Ctrl-C to abort. |
Abandonnez la réinitialisation.
Ctrl-C |
Modifiez l'entrée /etc/vfstab pour que /global/.devices utilise le nom /dev/{r}dsk/cXtXdX et non /dev/did/{r}dsk.
Cette entrée révisée permet à VxVM de la reconnaître en tant que disque racine.
Réexécutez scvxinstall et choisissez le mode encapsulé.
Le fichier /etc/vfstab comporte les mises à jour nécessaires. Autorisez le redémarrage. L'encaspulation est normalement effectuée.
Problème : le service de données Sun Cluster HA pour SAP liveCache utilise la commande dbmcli pour démarrer et arrêter liveCache. Si vous exécutez Solaris 9, le service du réseau peut ne plus être disponible lorsque le réseau public d'un nœud tombe en panne.
Solution : ajoutez l'une des entrées suivantes de la base de données publickey dans les fichiers /etc/nsswitch.conf de chaque nœud susceptible d'être l'élément principal des ressources liveCache.
publickey: publickey: files publickey: files [NOTFOUND=return] nis publickey: files [NOTFOUND=return] nisplus
L'ajout de l'une de ces entrées et des mises à jour indiquées dans le Sun Cluster Data Service for SAP liveCache Guide for Solaris OS assure que les commandes su et dbmcli ne se réfèrent pas aux services de noms NIS/NIS+. En évitant les services de noms NIS/NIS+, le service de données démarre et s'arrête correctement en cas de panne du réseau.
Problème : les conditions requises pour le fichier nsswitch.conf, mentionnées dans Preparing the Nodes and Disks du Sun Cluster Data Service for SAP liveCache Guide for Solaris OS, ne s'appliquent pas à l'entrée de la base de données passwd. Si ces exigences sont satisfaites, la commande su peut suspendre chaque noeud pouvant contrôler la ressource liveCache lorsque le réseau public est arrété.
Solution : sur chaque nœud capable de contrôler la ressource liveCache, vérifiez que l'entrée de la base de données passwd est la suivante dans le fichier /etc/nsswitch.conf.
passwd: files nis [TRYAGAIN=0]
Problème : sccheck peut s'interrompre s'il est lancé simultanément depuis plusieurs nœuds.
Solution : ne lancez pas sccheck depuis une console de commande multinœud. Les exécutions de sccheck peuvent se chevaucher mais ne doivent pas être lancées simultanément.
Problème : actuellement, le service de données HADB n'utilise pas la variable d'environnement JAVA_HOME. Il se sert donc des binaires Java de /usr/bin/. Ceux-ci doivent être d'une version 1.4 minimum pour que le service de données HADB fonctionne normalement.
Solution : si vous ne voyez pas d'inconvénient à modifier la version disponible par défaut, exécutez la procédure suivante. Cette solution suppose que le répertoire /usr/j2se correspond à celui dans lequel se trouve la dernière version de Java (par exemple la version 1.4 ou ultérieure).
Si le répertoire java/ se trouve dans /usr/, déplacez-le vers un emplacement temporaire.
À partir du répertoire /usr/, associez /usr/bin/java et tous les autres fichiers binaires Java à la version appropriée de Java.
# ln -s j2se java |
Si vous ne souhaitez pas modifier la version disponible par défaut, attribuez la variable d'environnement JAVA_HOME à la version appropriée de Java (J2SE 1.4 ou version ultérieure) dans le script de /opt/SUNWappserver7/SUNWhadb/4/bin/hadbm.
Problème : dans un cluster modifié utilisant Support Sun Cluster pour Oracle Real Application Clusters et VxVM, cette dernière fonction s'exécute sur les nœuds existants mais ignore le nouvel élément.
Solution : VERITAS résoudra normalement ce problème dans VxVM 3.5 MP4 et 4.0 MP2. Pour la version 4.1, le correctif est déjà disponible.
Actuellement, vous pouvez résoudre le problème en redémarrant la base de données Oracle et en réinitialisant les nœuds de cluster. Cette étape synchronise Oracle UDLM et met à jour la fonction de cluster VxVM pour reconnaître le nœud ajouté.
Avant d'installer et de configurer Support Sun Cluster pour Oracle Real Application Clusters sur le nouveau nœud, vous devez effectuer cette étape.
Sur un nœud de cluster différent de celui qui vient d'être ajouté, arrêtez la base de données Oracle Real Application Clusters.
Réinitialisez le nœud concerné par l'arrêt de la base de données Oracle.
# scswitch -S -h thisnode # shutdown -g0 -y -i6 |
Attendez que le nœud de cluster soit complètement réinitialisé avant de passer à l'étape suivante.
Relancez la base de données Oracle.
Répétez les étapes 1 à 3 sur les autres nœuds exécutant Support Sun Cluster pour Oracle Real Application Clusters.
Si un seul nœud peut gérer la charge de travail de la base de données Oracle, vous pouvez effectuer ces étapes sur plusieurs nœuds simultanément.
Si plusieurs nœuds sont requis pour accepter la charge de travail de la base de données, effectuez ces étapes sur un nœud à la fois.
Problème : le bogue 4974875 provoque la réinitialisation de la base de données sans aucun disque de spare à chaque récupération automatique. Le bogue mentionné a été résolu et intégré dans HA-DB version 4.3. Pour HA-DB 4.2 et les versions antérieures, effectuez l'une des procédures suivantes pour modifier les rôles des nœuds HA-DB.
Solution : effectuez l'une des procédures suivantes pour modifier les rôles des nœuds HA-DB.
Identifiez les nœuds HA-DB dont le rôle a été modifié après une récupération automatique correctement effectuée.
Sur tous les nœuds identifiés à l'étape 1, désactivez nœud par nœud le moniteur par défaut pour la ressource HA-DB concernée.
# cladm noderole -db nombd -node numnœud -setrole rôle-avant-récupération_automatique |
Activez le moniteur par défaut pour la ressource HA-DB concernée.
ou
Identifiez les nœuds HA-DB dont le rôle a été modifié après une récupération automatique correctement effectuée.
Sur tous les nœuds qui hébergent la base de données, désactivez le moniteur par défaut pour la ressource HA-DB concernée.
Sur tous les nœuds, exécutez la commande pour chaque nœud HA-DB dont le rôle doit être modifié.
# cladm noderole -db nombd -node numnœud -setrole rôle-avant-récupération_automatique |
Problème : si certains nœuds n'appliquent pas la mise à niveau progressive, ils ignorent les groupes IPMP des éléments modifiés.
Solution : terminez l'actualisation.
Problème : le champ de date du panneau de filtrage spécial du gestionnaire SunPlex accepte uniquement le format mm/jj/aaaa. Toutefois, le format de date des environnements non anglais et celui retourné par le panneau de planification diffèrent de mm/jj/aaaa.
Solution : saisissez la plage de dates dans le panneau de filtrage spécial au format mm/jj/aaaa. N'utilisez pas le bouton de définition pour afficher le calendrier et sélectionner la date.
Problème : dans l'environnement japonais, les messages d'erreur de scrgadm ne s'affichent pas correctement. Ils comportent des caractères indésirables.
Solution : exécutez l'environnement système anglais pour afficher les messages d'erreur dans cette langue.
Problème : le gestionnaire SunPlex utilise la commande /usr/cluster/lib/cmass/ipmpgroupmanager.sh pour supprimer des groupes IPMP et leurs adaptateurs. Ce script met à jour le fichier /etc/hostname6.adaptername en supprimant le nom du groupe. Pour ne pas reconfigurer l'interface IPv6, il exécute toutefois la commande ifconfig suivante :
ifconfig adaptername inet6 unplumb |
Solution : réinitialisez le nœud pour reconfigurer l'interface. Sur cet élément, vous pouvez également exécuter la commande ifconfig suivante. Cette solution de rechange ne nécessite pas la réinitialisation du nœud.
ifconfig adaptername inet6 plumb up |
Problème : la liste des adaptateurs affichée dans les pages de groupe IPMP ne dépend pas de la version IP sélectionnée par l'utilisateur. La page dresse une liste de tous les adaptateurs pour lesquels aucun groupe n'est configuré. Cette liste doit être mise à jour lorsque le bouton radio correspondant à la version IP est sélectionné, comme suit :
Si IPV4 only est sélectionné, aucun adaptateur IPv4/IPv6 ni IPv6 ne doit figurer dans la liste.
Si IPV6 only est sélectionné, aucun adaptateur IPv4/IPv6 ni IPv4 ne doit figurer dans la liste.
Si IPV4 and IPv6 est sélectionné, aucun adaptateur IPv6 ni IPv4 ne doit figurer dans la liste.
Solution : après avoir sélectionné la version IP, ne choisissez dans la liste que l'adaptateur qui correspond à cette version.
Problème : la liste des adaptateurs affichée sur les pages de groupe IPMP dépend de la version IP choisie par l'utilisateur. Dans la version actuelle du gestionnaire SunPlex, un bogue affiche systématiquement la liste de tous les adaptateurs, quelle que soit la version IP sélectionnée. Le gestionnaire SunPlex ne doit pas permettre à l'utilisateur de mettre à niveau un adaptateur compatible avec IPv4/IPv6 vers une version IPv4.
Solution : l'utilisateur ne doit pas tenter de mettre à niveau un adaptateur configuré pour IPv4/IPv6 vers un adaptateur IPv4.
Problème : la configuration du service de données pour Sun Java System Administration Server échoue lorsque Sun Java System Administration Server n'est pas installé. Cette tentative échoue parce que le type de ressource SUNW.mps requiert le répertoire /etc/mps/admin/v5.2/cluster/SUNW.mps. Or ce répertoire existe uniquement si le package SUNWasvr est installé.
Solution : pour résoudre ce problème, suivez la procédure suivante.
Ouvrez une session en tant que superutilisateur ou avec un rôle équivalent sur un nœud de cluster.
Vérifiez si le package SUNWasvr est installé.
# pkginfo SUNWasvr |
Si le package SUNWasvr n'est pas installé, procédez à l'installation à partir du CD-ROM de Sun Cluster :
Problème : avec Solaris 10, le service de données Sun Cluster HA pour NFS définit la propriété /startd/duration sur la valeur transient pour les services SMF (Service Management Facility) suivants :/network/nfs/server, /network/nfs/status et /network/nfs/nlockmgr . Cette propriété empêche SMF de redémarrer ces services en cas de panne. Un bogue dans SMF entraîne le redémarrage de /network/nfs/status et de /network/nfs/nlockmgr après la première panne, même lorsque cette propriété est correctement configurée.
Solution : pour permettre à Sun Cluster HA pour NFS de fonctionner normalement, exécutez la commande suivante sur tous les nœuds après avoir créé la première ressource Sun Cluster HA pour NFS et avant de connecter la ressource Sun Cluster HA pour NFS.
# pkill -9 -x 'startd|lockd' |
Lors de la première initialisation de Sun Cluster, exécutez la commande ci-dessus sur tous les nœuds principaux potentiels, après avoir créé la première ressource Sun Cluster HA pour NFS et avant de connecter la ressource Sun Cluster HA pour NFS.
Problème : lors de l'ajout d'un nœud à un cluster, l'utilitaire scinstall recherche la présence de fichiers Network Security Services (NSS) sur le nouveau nœud. Ces fichiers et les clés de sécurité sont requis par le conteneur d'agents communs. Si les fichiers NSS existent, l'utilitaire copie les fichiers de sécurité du conteneur d'agents communs du nœud parrain vers le nœud ajouté. Toutefois si les clés de sécurité NSS ne sont pas installées sur le nœud parrain, la copie échoue et le processus scinstall s'interrompt.
Solution : exécutez la procédure suivante pour installer le logiciel NSS, recréer les clés de sécurité et redémarrer le conteneur d'agents communs sur les nœuds de cluster existants.
Exécutez la procédure suivante sur tous les nœuds de cluster existants en tant que superutilisateur ou avec un rôle autorisant l'accès requis.
Conservez le CD 1 de Sun Cluster à portée de main. Les packages NSS se trouvent dans le répertoire /cdrom/cdrom0/Solaris_arch/Product/shared_components/Packages/, où arch est sparc ou x86 et ver est 8 pour Solaris 8, 9 pour Solaris 9 ou 10 pour Solaris 10.
Sur chaque nœud, arrêtez l'agent Console Web de Sun.
# /usr/sbin/smcwebserver stop |
Sur chaque nœud, arrêtez l'agent de fichiers de sécurité.
# /opt/SUNWcacao/bin/cacaoadm stop |
Sur chaque nœud, vérifiez si les packages NSS ont été installés et déterminez leur version, le cas échéant.
# cat /var/sadm/pkg/SUNWtls/pkginfo | grep SUNW_PRODVERS SUNW_PRODVERS=3.9.4 |
Retirez tout package NSS dont la version est antérieure à 3.9.4.
# pkgrm packages |
Le tableau suivant répertorie les packages applicables pour chaque plate-forme matérielle.
Plate-forme matérielle |
Noms des packages NSS |
---|---|
SPARC |
SUNWtls SUNWtlsu SUNWtlsx |
x86 |
SUNWtls SUNWtlsu |
Sur chaque nœud, si vous avez supprimé des packages NSS ou si aucun n'est installé, installez la dernière version des packages NSS à partir du CD 1 de Sun Cluster.
Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.
# eject cdrom |
Sur chaque nœud, créez les clés de sécurité NSS.
# /opt/SUNWcacao/bin/cacaoadm create-keys |
Sur chaque nœud, lancez l'agent de fichiers de sécurité.
# /opt/SUNWcacao/bin/cacaoadm start |
Sur chaque nœud, démarrez l'agent Console Web de Sun.
# /usr/sbin/smcwebserver start |
Sur le nœud ajouté au cluster, redémarrez l'utilitaire scinstall et exécutez les procédures pour installer le nouveau nœud.
Problème : la suppression d'un groupe d'interfaces publiques pour lequel les adaptateurs IPv4 et IPv6 sont configurés échoue parfois au moment de la suppression de l'adaptateur IPv6 du groupe. Le message d'erreur suivant apparaît :
ifparse: Operation netmask not supported for inet6 /sbin/ifparse /usr/cluster/lib/cmass/ipmpgroupmanager.sh[8]: /etc/hostname.adaptname.tmpnumber: cannot open |
Solution : ajoutez les lignes suivantes au fichier /etc/hostname6.adaptername :
plumb up -standby |
Exécutez la commande ci-dessous sur le nœud de cluster :
ifconfig adaptername inet6 plumb up -standby |
Problème : le programme Sun Cluster s'arrête durant la procédure de mise à niveau progressive de Sun Cluster 3.1 9/04 vers Sun Cluster 3.1 8/05 en raison d'un problème de mémoire déclenché lorsque le premier nœud mis à niveau est réinitialisé en mode cluster.
Solution : si vous exécutez Sun Cluster 3.1 9/04 ou le patch équivalent (version 09 ou ultérieure) et souhaitez suivre une procédure de réinitialisation de patch pour évoluer vers Sun Cluster 3.1 8/05 ou le patch équivalent (version 12), effectuez les opérations suivantes avant de mettre votre cluster à niveau ou d'appliquer ce patch de base.
Sélectionnez le type de procédure d'installation de patch qui convient à vos critères de disponibilité :
Réinitialisation du patch (nœud)
Réinitialisation du patch (cluster et microprogramme)
Ces procédures d'installation de patch sont décrites dans le Chapitre 8, Patchs pour logiciel et microprogramme Sun Cluster du Guide d’administration système de Sun Cluster pour SE Solaris.
Appliquez l'un des patchs ci-après selon votre système d'exploitation :
Patch de base 117909-11 Sun Cluster 3.1 pour SunOS 5.9 X86
Patch de base 117950-11 Sun Cluster 3.1 pour Solaris 8
Patch de base 117949-11 Sun Cluster 3.1 pour Solaris 9
Vous devez achever l'installation du patch avant d'évoluer vers Sun Cluster 3.1 8/05 ou le patch équivalent (version 12).
Problème : l'installation de Sun Cluster ajoute exclude: lofs à /etc/system. La commande lofs étant indispensable au fonctionnement de zones, les commandes zone install et zone boot échouent.
Solution : avant de tenter de créer des zones, exécutez la procédure suivante.
Si vous exécutez Sun Cluster HA pour NFS, excluez du plan de montage automatique tous les fichiers du système local à haute disponibilité exporté par le serveur.
Sur chaque nœud de cluster, modifiez le fichier /etc/system en supprimant toutes les lignes exclude: lofs.
Réinitialisez le cluster.
Problème : lorsque le montage du système de fichiers de cluster à l'initialisation échoue, Solaris 10 nécessite des procédures de récupération différentes des versions antérieures. Au lieu d'afficher une invite de connexion, le service mountgfsys s'interrompt parfois et place le nœud en mode maintenance. Les messages résultants se présentent comme suit :
WARNING - Unable to globally mount all filesystems. Check logs for error messages and correct the problems. May 18 14:06:58 pkaffa1 svc.startd[8]: system/cluster/mountgfsys:default misconfigured May 18 14:06:59 pkaffa1 Cluster.CCR: /usr/cluster/bin/scgdevs: Filesystem /global/.devices/node@1 is not available in /etc/mnttab. |
Solution : après résolution du problème de montage du système de fichiers de cluster, vous devez reconnecter manuellement le service mountgfsys. Exécutez les commandes suivantes pour connecter le service mountgfsys et synchroniser l'espace de nom des périphériques globaux :
# svcadm clear svc:/system/cluster/mountgfsys:default # svcadm clear svc:/system/cluster/gdevsync:default |
Le processus d'initialisation se poursuit.
Problème : Sun Cluster 3.1 8/05 ne prend pas en charge la mise à niveau vers la version Solaris 10 de mars 2005. Toute tentative de mise à niveau vers cette version risque d'altérer le fichier /etc/path_to_inst. La corruption de ce fichier empêche l'initialisation du nœud. Le fichier altéré se présente comme ci-dessous. Il contient des entrées en double. Toutefois, le nom du périphérique physique a le préfixe /node@nodeid :
… "/node@nodeid/physical_device_name" instance_number "driver_binding_name" … "/physical_device_name" instance_number "driver_binding_name" |
En outre, certains services clés de Solaris risquent de ne pas démarrer, notamment ceux de réseau et de montage du système de fichiers. Pour signaler leur configuration incorrecte, la console peut afficher des messages.
Solution : effectuez la procédure suivante.
La procédure suivante décrit la récupération du fichier /etc/path_to_inst altéré après mise à niveau vers Solaris 10.
Elle ne résout aucun autre problème lié à la mise à niveau d'une configuration de Sun Cluster vers la version Solaris 10 de mars 2005.
Exécutez cette procédure sur tous les nœuds mis à niveau vers la version Solaris 10 de mars 2005.
Si nécessaire, initialisez un nœud à partir du réseau ou d'un CD-ROM. Après initialisation du nœud, exécutez la commande fsck et montez le système de fichiers local sur une partition (par exemple, /a). À l'étape 2, indiquez le nom du montage du système de fichiers local dans le chemin d'accès au répertoire /etc.
Lancez une session superutilisateur ou équivalente sur le nœud.
Allez dans le répertoire /etc.
# cd /etc |
Vérifiez si le fichier path_to_inst est altéré.
Les caractéristiques suivantes révèlent la corruption du fichier path_to_inst :
Dans le fichier, un bloc d'entrées indique /node@nodeid au début des noms de périphérique physique.
Certaines sont en double mais elles n'ont pas de préfixe /node@nodeid.
Si le fichier ne se présente pas sous cette forme, il comporte d'autres problèmes. Ne poursuivez pas cette procédure. Pour obtenir de l'aide, contactez votre représentant de maintenance Sun.
Si le fichier path_to_inst présente la corruption décrite à l'étape 3, exécutez les commandes suivantes.
# cp path_to_inst path_to_inst.bak # sed -n -e "/^#/p" -e "s,node@./,,p" path_to_inst.bak > path_to_inst |
Vérifiez que le fichier path_to_inst est corrigé.
Le fichier réparé doit présenter les modifications suivantes :
Le préfixe /node@nodeid est maintenant absent de tous les noms de périphérique physique.
Aucune entrée de nom de périphérique physique n'est en double.
Vérifiez que le fichier path_to_inst est en lecture seule.
# ls -l /etc/path_to_inst -r--r--r-- 1 root root 2946 Aug 8 2005 path_to_inst |
Réinitialisez la reconfiguration en mode non-cluster.
# reboot -- -rx |
Après avoir réparé tous les nœuds de cluster altérés, passez à l'étape Mise à niveau du logiciel dépendant avant une mise à niveau non progressive du Guide d’installation du logiciel Sun Cluster pour SE Solaris pour poursuivre la mise à niveau.
Problème : sur les clusters x86 dotés d'une fonction de transport ce, CMM peut arrêter un nœud soumis à une charge élevée en raison d'un split brain.
Solution : sur les clusters x86 utilisant la carte PCI Gigaswift Ethernet sur le réseau privé, ajoutez la ligne suivante dans le fichier /etc/system.
set ce:ce_tx_ring_size=8192 |
Problème : sous Solaris 10 et un système de stockage Hitachi, une grave erreur peut se produire si vous ajoutez ou supprimez un élément d'un cluster multinœud.
Solution : il n'existe actuellement aucune solution. Si vous rencontrez ce problème, demandez un patch à votre prestataire de services Sun.
Problème : la commande installer de Java ES 2005Q1 ne peut pas installer Application Server Enterprise Edition 8.1 si l'option Configure Later est sélectionnée. L'option Configure Later installe Platform et non Enterprise Edition.
Solution : lorsque vous installez Application Server Enterprise Edition 8.1 à l'aide de la commande installer de Java ES, utilisez l'option Configure Now. L'option Configure Later installe uniquement Platform Edition.
Problème : le redémarrage du service de liaison SMF peut perturber le fonctionnement de Solaris Volume Manager. L'installation des packages VxVM 4.1 entraîne le redémarrage du service de liaison SMF.
Solution : réinitialisez Solaris Volume Manager après le redémarrage du service de liaison SMF ou l'installation de VxVM 4.1 sur un hôte Solaris 10.
svcadm restart svc:/network/rpc/scadmd:default |
Problème : ce problème concerne uniquement les systèmes sous Solaris 10. Si vous utilisez la commande installer de Java ES sur le CD-ROM Sun Cluster Agents pour installer les services de données Sun Cluster après le composant principal, elle échoue et envoie les messages suivants :
The installer has determined that you must manually remove incompatible versions of the following components before proceeding: [Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05] After you remove these components, go back. Component Required By ... 1. Sun Cluster 3.1 8/05 HA Sun Java System Message Queue : HA Sun Java System Message Queue 2. Sun Cluster 3.1 8/05 HA Sun Java System Application Server : HA Sun Java System Application Server 3. Sun Cluster 3.1 8/05 HA/Scalable Sun Java System Web Server : HA/Scalable Sun Java System Web Server 4. Select this option to go back to the component list. This process might take a few moments while the installer rechecks your system for installed components. Select a component to see the details. Press 4 to go back the product list [4] {"<" goes back, "!" exits} |
Solution : sous Solaris 10, installez le service de données Sun Cluster manuellement à l'aide de la commande pkgadd ou scinstall. Si le service de données Sun Cluster dépend de composants partagés, installez ces derniers manuellement à l'aide de la commande pkgadd. Le lien suivant donne accès à la liste des composants partagés de chaque produit :
Problème : au cours du démarrage de Sun Web Console, le message suivant peut s'afficher.
/usr/sbin/smcwebserver:../../../../j2se/opt/javahelp/lib: does not exist |
Solution : vous pouvez ignorer ce message. Dans le fichier /usr/j2se/opt, vous pouvez ajouter manuellement un lien correct vers Java Help 2.0, en entrant la ligne suivante :
# ln -s /usr/jdk/packages/javax.help-2.0 /usr/j2se/opt/javahelp |
Problème : après mise à niveau vers Solaris 10 pour Sun Cluster 3.1 4/04 minimum, l'initialisation du nœud en mode non-cluster provoque une grave erreur.
Solution : installez l'un des patchs suivants avant mise à niveau vers Solaris 10.
Systèmes SPARC : 117949-09 minimum
Systèmes x86 : 117909-09 minimum
Problème : si le programme d'installation SunPlex sert à configurer les services de données Sun Cluster HA pour Apache et Sun Cluster HA pour NFS lors de l'installation de Sun Cluster, il ne crée pas les ressources et les groupes de périphériques nécessaires.
Solution : ne l'utilisez pas dans ce cadre. Pour installer et configurer ces services de données, suivez plutôt les procédures des manuels Guide d’installation du logiciel Sun Cluster pour SE Solaris et Sun Cluster Data Service for Apache Guide for Solaris OS ou Sun Cluster Data Service for NFS Guide for Solaris OS.
Problème : Sun Cluster 3.1 8/05 ne prend pas en charge NFSv4.
Solution : Solaris 10 présente NFSv4. Cette nouvelle version est le protocole par défaut pour ses clients et son serveur. La version Sun Cluster 3.1 8/05 prend en charge Solaris 10 et non NFSv4 avec le service Sun Cluster HA pour NFS du cluster pour un serveur à haute disponibilité. Pour garantir la non-utilisation du protocole avec un serveur NFS dans Sun Cluster, modifiez le fichier /etc/default/nfs en remplaçant la ligne NFS_SERVER_VERSMAX=4 par NFS_SERVER_VERSMAX=3. Ainsi, les clients du service Sun Cluster HA pour NFS du cluster pourront uniquement appliquer NFSv3.
REMARQUE: cette restriction et la solution ci-dessus ne concernent pas l'utilisation de nœuds de cluster Solaris 10 en tant que clients NFSv4. Les nœuds de cluster peuvent jouer le rôle de clients NFSv4.
Problème : la commande metaset échoue après redémarrage du service rpcbind.
Solution : assurez-vous qu'aucune opération de configuration n'est en cours sur le système Sun Cluster, puis arrêtez le processus rpc.metad à l'aide de la commande suivante.
# pkill -9 rpc.metad |
Problème : lors de la fermeture du cluster, l'ordre d'arrêt des services risque de provoquer une grave erreur sur certains nœuds. Si le service RPC est arrêté avant la structure RAC, des erreurs peuvent se produire lors de tentatives de reconfiguration de la ressource SVM. Un avertissement est alors envoyé à la structure RAC. Il provoque une grave erreur de nœud. Ce problème a été observé lorsque Sun Cluster exécute la structure RAC avec l'option de stockage SVM. Il ne doit pas se répercuter sur la fonctionnalité de Sun Cluster.
Solution : cette grave erreur est normale et peut être ignorée sans danger. Toutefois, les fichiers principaux enregistrés doivent être nettoyés pour récupérer de l'espace dans le système de fichiers.
Problème : sous Solaris 10, le fichier /etc/nsswitch.conf a été modifié afin d'inclure NIS dans l'entrée ipnodes.
ipnodes: files nis [NOTFOUND=return] |
Cette modification provoque le blocage du service de résolution d'adresse si NIS devient inaccessible suite à un problème interne ou à une panne de tous les adaptateurs de réseau public. Ce problème se traduit à terme par l'échec du basculement des ressources de l'opération ou d'adresse partagée.
Solution : effectuez les opérations suivantes avant de créer un hôte logique ou des ressources d'adresse partagée.
Modifiez l'entrée ipnodes dans le fichier /etc/nsswitch.conf en remplaçant [NOTFOUND=return] par [TRYAGAIN=0].
ipnodes: files nis [TRYAGAIN=0] |
Veillez à ajouter toutes les adresses IP des hôtes logiques et les adresses partagées dans les fichiers /etc/inet/ipnodes et /etc/inet/hosts.
Problème : lors de la mise à jour du service de données Sun Cluster pour Sun Java System Application Server EE, de la version 3.1 9/04 vers la version 3.1 8/05, scinstall ne supprime pas le package pour j2ee et affiche le message suivant.
Skipping "SUNWscswa" - already installed |
Le service de données Sun Cluster pour Sun Java System Application Server EE n'est pas mis à niveau.
Solution : supprimez et ajoutez manuellement le package sap_j2ee à l'aide des commandes suivantes.
# # pkgrm SUNWscswa # pkgadd [-d device] SUNWscswa |
Problème : la viabilité du système de fichiers NFS ne peut pas être vérifiée avant basculement ou utilisation de scswitch pour localiser le service de données sur le nœud. Le basculement vers un nœud sans système de fichiers NFS entraînera l'échec du service de données et nécessitera une intervention manuelle. Un mécanisme du type HAStoragePlus est requis pour vérifier la viabilité du système de fichiers avant toute tentative de basculement vers un nœud.
Solution : les systèmes de fichiers utilisant un classement NAS (entrées dans le fichier /etc/vfstab) sont montés hors du contrôle de Sun Cluster. Ce logiciel ignore donc les problèmes éventuels. En cas de non-disponibilité du système de fichiers, certains services de données, notamment Sun Cluster HA pour Oracle, échouent lors de l'exécution de méthodes telles que START ou STOP.
L'échec de ces méthodes offre plusieurs possibilités :
La ressource de services de données, notamment HA-Oracle, peut passer en mode STOP_FAILED si les binaires de l'application (Oracle) ne sont pas disponibles.
Le service de données peut poursuivre ses tentatives de basculement vers d'autres nœuds jusqu'au démarrage réussi ou à l'épuisement des possibilités.
Effectuez l'une des procédures suivantes pour éviter ces problèmes :
Placez les binaires de l'application sur le système de fichiers du cluster ou de basculement. Configurez ensuite une ressource HAStoragePlus pour représenter ce système de fichiers et enregistrer une dépendance de l'application à cette ressource. Le système ne tentera pas de démarrer l'application tant que le système de fichiers ne sera pas disponible.
Placez les binaires de l'application sur le système de fichiers racine local. Si le système de fichiers racine local ne fonctionne pas, le nœud ne parvient pas à intégrer le cluster et le système tente de démarrer l'application à cet emplacement.
Problème : le service de données Sun Cluster ne redémarre pas le processus ma s'il s'interrompt ou s'arrête brusquement.
Solution : ce comportement est normal et les services de données n'en sont pas perturbés.
Problème : lors d'une mise à niveau progressive, la tentative de suppression d'une ressource, avant exécution du nouveau logiciel sur tous les nœuds, risque de provoquer une grave erreur. Ne supprimez pas une ressource avant l'installation du nouveau logiciel sur tous les nœuds.
Solution : durant une mise à niveau progressive, ne supprimez pas une ressource RGM tant que le nouveau logiciel n'est pas installé sur tous les nœuds.
Problème : la base de données HADB ne redémarre pas après la réinitialisation de tous les nœuds du cluster. L'utilisateur n'a pas accès à la base de données.
Solution : redémarrez l'un de vos services de données de gestion en suivant les étapes ci-dessous. Si la procédure suivante ne résout pas le problème, supprimez la base de données, puis recréez-la.
Sur le nœud à arrêter, entrez la commande suivante. L'option -h ne doit pas comporter le nom du nœud sur lequel arrêter l'agent de gestion.
scswitch -z -g hadb resource grp -h node1, node2... |
Basculez le groupe de ressources vers le nœud initial.
scswitch —Z —g hadb resource grp |
Vérifiez l'état de la base de données. Attendez que la base de données soit en mode “arrêté”.
hadbm status -n database |
Démarrez la base de données.
hadbm start database |
Problème : le package SUNWiimsc de sun_cluster_agents n'est pas valide. Après l'ajout de ce package, la taille du fichier SUNW.iim du répertoire /opt/SUNWiim/cluster est égale à 0.
Solution : remettez le package SUNW.iim en place et enregistrez-le à nouveau en procédant comme suit.
Copiez le fichier SUNW.iim approprié du CD-ROM.
# cp 2of2_CD/Solaris_arch/Product/sun_cluster_agents/Solaris_os /Packages/SUNWiimsc/reloc/SUNWiim/cluster/SUNW.iim /opt/SUNWiim/Cluster/SUNW.iim |
Supprimez tout enregistrement existant de SUNW.iim.
# rm /usr/cluster/lib/rgm/rtreg/SUNW.iim |
Enregistrez le service de données avec Sun Cluster.
sh 2of2_CD/Solaris_arch/Product/sun_cluster_agents/ Solaris_os/Packages/SUNWiimsc/install/postinstall |
Problème : la création d'un groupe IPMP via le gestionnaire SunPlex échoue parfois en générant le message suivant.
An error was encountered by the system. If you were performing an action when this occurred, review the current system state prior to proceeding. |
Solution : exécutez l'une des procédures suivantes selon la version d'IP utilisée.
Entrez la commande suivante:
ifconfig interface inet plumb group groupname [addif address deprecated] netmask + broadcast + up -failover |
Si une adresse de test a été fournie, actualisez le fichier /etc/hostname .interface en y ajoutant les éléments suivants :
group groupname addif address netmask + broadcast + deprecated -failover up |
Si aucune adresse de test n'a été fournie, actualisez le fichier /etc/hostname.interface en y ajoutant les éléments suivants :
group.groupname netmask + broadcast -failover up |
Entrez la commande suivante :
ifconfig interface inet6 plumb up group groupname |
Actualisez le fichier /etc/hostname6.interface en y ajoutant les entrées suivantes :
group groupname plumb up |
Si le fichier /etc/hostname6.interface n'existe pas, créez-le et ajoutez-y les entrées indiquées.
Problème : après la connexion de la ressource et une grave erreur de l'un des nœuds (par exemple, shutdown ou uadmin), la ressource redémarre continuellement sur les autres éléments de cluster. L'utilisateur ne peut pas exécuter de commandes de gestion.
Solution : pour éviter ce problème, connectez-vous à un nœud en lançant une session superutilisateur ou équivalente. À l'aide de la commande suivante, augmentez ensuite la valeur probe_timeout de la ressource à 600 secondes :
scrgadm -c -j hadb resource -x Probe_timeout=600 |
Pour vérifier votre modification, arrêtez l'un des nœuds de cluster et assurez-vous de la non-altération de la ressource.
Problème : la fonction d'équilibrage de charge des services évolutifs de Sun Cluster n'est pas active sur les systèmes Solaris 10 sur lesquels les réseaux publics et les fonctions de transport utilisent des adaptateurs gérés par bge. Les plates-formes Sun Fire V210, V240 et V250 sont équipées de cartes réseau utilisant bge.
Ce bogue ne concerne pas les services de données de basculement.
Solution : ne définissez pas les réseaux publics et les fonctions de transport intracluster pour utiliser des adaptateurs gérés par bge.
Problème : lorsque l'environnement par défaut du gestionnaire SunPlex est multioctet, le journal système est inaccessible.
Solution : indiquez C comme environnement par défaut ou utilisez un shell de ligne de commande pour afficher manuellement le journal système (/var/adm/messages).
Problème : les instances et les agents de nœud doivent être configurés pour attendre l'adresse IP/le nom d'hôte de basculement. Lorsque les agents de nœuds et les instances de Sun Java System Application Server sont créés, le nom d'hôte du nœud physique est défini par défaut. L'adresse IP HTTP et le nom d'hôte du client sont modifiés dans domain.xml. Toutefois, les modifications n'entrent pas en vigueur en raison du non-redémarrage du serveur d'administration de domaine . En conséquence, les agents sont uniquement présents sur le nœud physique de configuration.
Solution : obtenez l'adresse IP de basculement en modifiant la propriété client-hostname dans la section de l'agent de nœud de domain.xml. Pour appliquer les modifications, redémarrez le serveur d'administration de domaine .
Problème : lorsque le gestionnaire SunPlex est utilisé dans Sun Cluster 3.1 8/05 avec Cacao 1.1, seule la version JDK 1.5.0_03 est prise en charge.
Solution : installez manuellement JDK 1.5 conformément à la procédure suivante.
Ajoutez JDK 1.5 depuis les composants partagés de JES 4 (pour plus d'informations, reportez-vous aux notes de version).
Arrêtez cacao.
# /opt/SUNWcacao/bin/cacaoadm stop |
Démarrez cacao.
# /opt/SUNWcacao/bin/cacaoadm start |
Problème : ce bogue se produit sur les systèmes Sun Cluster 3.1 9/04 mis à niveau vers 8/05 après application du patch 117949-14 (Solaris 9) ou 117950-14 (Solaris 8). Le message d'erreur suivant s'affiche à l'initialisation de la machine :
# An unexpected error has been detected by HotSpot Virtual Machine: # # SIGSEGV (0xb) at pc=0xfaa90a88, pid=3102, tid=1 # # Java VM: Java HotSpot(TM) Client VM (1.5.0_01-b07 mixed mode, sharing) # Problematic frame: # C [libcmas_common.so+0xa88] newStringArray+0x70 # # An error report file with more information is saved as /tmp/hs_err_pid3102.log # # If you would like to submit a bug report, please visit: # http://java.sun.com/webapps/bugreport/crash.jsp # |
Solution : lors de la mise à niveau de Sun Cluster 3.1 9/04 vers 8/05, suivez la procédure ci-dessous pour installer notamment le patch SPM.
Sur un système Solaris 8, exécutez la commande suivante après application du patch principal 117950-14 :
patchadd patchdir/118626-04 |
Sur un système Solaris 9, exécutez la commande suivante après application du patch 117949-14 :
patchadd patchdir/118627-04 |
Problème : l'enregistrement des ressources du serveur d'annuaire ou d'administration échoue parfois. Le système affiche le message suivant :
Registration file not found for "SUNW.mps" in /usr/cluster/lib/rgm/rtreg |
Solution : enregistrez le fichier manquant directement depuis pkg en entrant l'une des commandes suivantes.
Pour le serveur d'annuaire, entrez la commande suivante depuis pkg :
- scrgadm -a -t SUNW.dsldap -f /etc/ds/v5.2/cluster/SUNW.dsldap |
Pour le serveur d'administration, entrez la commande suivante depuis pkg :
- scrgadm -a -t SUNW.mps -f /etc/mps/admin/v5.2/cluster/SUNW.mps |
Problème : si un nœud Sun Cluster exécutant Solaris 10 n'a pas d'interface IPv6 définie pour les réseaux publics (non destinée par exemple à des interconnexions de cluster), il n'a pas accès aux machines comportant des mappages d'adresses IPv4 et IPv6 dans un service de nom (de type NIS notamment). Les paquets des applications de type telnet et traceroot, qui privilégient l'adresse IPv6 plutôt qu'IPv4, seront envoyés vers les adaptateurs de transport intracluster, puis abandonnés.
Solution : appliquez l'une des solutions suivantes selon la configuration de votre cluster.
Si IPv6 n'est pas requis pour le cluster, supprimez l'entrée nis de la ligne ipnodes dans le fichier /etc/nsswitch.conf. Par exemple, remplacez la ligne ipnodes par ce qui suit :
ipnodes files # Work Around for CR 6306113 |
Si IPv6 est requis sans qu'un service évolutif ne s'exécute sur le cluster, ajoutez la ligne suivante dans le fichier /etc/system et réinitialisez tous les nœuds.
set clcomm:ifk_disable_v6=1 |
Si le service évolutif IPv6 est en cours d'exécution, assurez-vous que tous les nœuds de cluster ont une interface réseau IPv6 définie pour les réseaux publics (mode non-cluster). Reportez-vous à ifconfig(1M) et System Administration Guide: IP Services pour des informations sur le déploiement IPv6 avec Solaris.
Cette rubrique fournit des informations sur les patchs applicables aux configurations Sun Cluster. Si vous effectuez la mise à niveau vers Sun Cluster 3.1 8/05, consultez la rubrique Préparation de la mise à niveau vers Sun Cluster 3.1 8/05.
vous devez être enregistré comme utilisateur SunSolveTM pour pouvoir afficher et télécharger les patchs nécessaires à Sun Cluster. Si vous ne disposez pas d'un compte SunSolve, contactez votre représentant Sun ou enregistrez-vous en ligne à l'adresse http://sunsolve.sun.com.
PatchPro est un outil de gestion de patchs destiné à faciliter la sélection et le téléchargement des patchs nécessaires à l'installation ou à la maintenance du logiciel Sun Cluster. PatchPro fournit un outil spécifique à Sun Cluster d'installation simplifiée des patchs en mode interactif, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers patchs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des patchs développés, pas uniquement des patchs de sécurité et de haut niveau de disponibilité.
Pour accéder à l'outil PatchPro pour Sun Cluster, affichez la page http://www.sun.com/PatchPro/, cliquez sur “Sun Cluster,”, puis choisissez l'option Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre cluster et télécharger les patchs applicables.
Le site web SunSolveTM Online vous offre un accès permanent aux dernières mises à jour et versions des patchs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve Online, à l'adresse http://sunsolve.sun.com , pour consulter les grilles actualisées des logiciels, microprogrammes et patchs pris en charge.
Les pages SunSolve Info Docs fournissent des informations sur les patchs d'éditeurs tiers utilisés avec Sun Cluster 3.1 8/05. Cette page Info Doc apporte des informations sur les patchs d'éditeurs tiers destinés à des éléments matériels spécifiques que vous envisagez d'utiliser dans un environnement Sun Cluster 3.1. Pour afficher cette page, connectez-vous à SunSolve et accédez à la fonction de recherche simple (Simple Search) située en haut de la page principale. À partir de la page Simple Search, cliquez sur la case Info Docs et entrez Sun Cluster 3.x Third-Party Patches dans la zone des critères de recherche.
Avant d'installer Sun Cluster 3.1 8/05 et d'appliquer des patchs à un composant de cluster (SE Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou lecteur de disque), lisez attentivement chacun des fichiers README accompagnant les patchs récupérés. Le même niveau de patchs doit être appliqué à tous les noeuds du cluster pour qu'il puisse fonctionner correctement.
Pour les procédures spécifiques et pour obtenir des conseils sur la gestion des patchs, consultez le Chapitre 8, Patchs pour logiciel et microprogramme Sun Cluster du Guide d’administration système de Sun Cluster pour SE Solaris.
La documentation Sun Cluster 3.1 8/05 est composée des collections présentées ci-dessous.
Collection de notes de version de Sun Cluster 3.1 8/05 pour SE Solaris
Collection de logiciels Sun Cluster 3.1 8/05 pour SE Solaris (édition pour plate-forme SPARC)
Collection de logiciels Sun Cluster 3.1 8/05 pour SE Solaris (édition pour plate-forme x86)
Collection Matériel Sun Cluster 3.0–3.1 pour SE Solaris (édition pour plate-forme SPARC)
Collection Matériel Sun Cluster 3.0–3.1 pour SE Solaris (édition pour plate-forme x86)
Sun Cluster 3.1 8/05 Reference Collection for Solaris OS
La documentation utilisateur de Sun Cluster 3.1 8/05 est disponible au format PDF et HTML sur les versions SPARC et x86 du CD-ROM de Sun Cluster 3.1 8/05. Pour plus d'informations, consultez le fichier Solaris_arch/Product/sun_cluster/index.html sur les versions SPARC ou x86 du Sun Cluster 3.1 8/05 CD-ROM, en remplaçant arch par sparc ou x86. Ce fichier vous permet de lire les manuels PDF et HTML directement à partir du CD-ROM et d'accéder aux instructions concernant l'installation des packages de documentation.
vous devez installer le package SUNWsdocs avant d'installer tout package Sun Cluster. Pour ce faire, vous pouvez utiliser la commande pkgadd. Le package SUNWsdocs se situe dans le répertoire Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ du Sun Cluster 3.1 8/05 CD-ROM, où arch est sparc ou x86, et ver est 8 pour Solaris 8, 9 pour Solaris 9, ou 10 pour Solaris10. Le package SUNWsdocs s'installe automatiquement lorsque vous exécutez le programme installer à partir du CD de documentation de Solaris 10.
En outre, le site Web docs.sun.comSM vous permet d'accéder à la documentation de Sun Cluster sur Internet. Vous pouvez le parcourir ou y rechercher un titre de manuel ou un sujet particulier.
Manuels relatifs au logiciel
Manuels relatifs aux services de données individuels
Référence |
Titre du manuel |
---|---|
819-0421 |
Guide des notions fondamentales de Sun Cluster pour SE Solaris |
819-0579 | |
819-0420 |
Guide d’installation du logiciel Sun Cluster pour SE Solaris |
819-0580 |
Guide d’administration système de Sun Cluster pour SE Solaris |
819-0581 |
Guide du développeur de services de données Sun Cluster pour SE Solaris |
819-0427 | |
819-0582 | |
819-0703 |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
Tableau 3 Collection de logiciels Sun Cluster 3.1 8/05 pour SE Solaris (édition pour plate-forme SPARC) : Manuels relatifs aux services de données individuels
Manuels relatifs au logiciel
Manuels relatifs aux services de données individuels
Référence |
Titre du manuel |
---|---|
819-0421 |
Guide des notions fondamentales de Sun Cluster pour SE Solaris |
819-0579 | |
819-0420 |
Guide d’installation du logiciel Sun Cluster pour SE Solaris |
819-0580 |
Guide d’administration système de Sun Cluster pour SE Solaris |
819-0581 |
Guide du développeur de services de données Sun Cluster pour SE Solaris |
819-0427 | |
817819-0582 | |
819-0703 |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
Tableau 5 Collection de logiciels Sun Cluster 3.1 8/05 pour SE Solaris (édition pour plate-forme x86) : Manuels relatifs aux services de données individuels
Référence |
Titre du manuel |
---|---|
817-6998 |
Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS |
819-1082 | |
819-0692 | |
819-1088 | |
817-6999 | |
819-1081 | |
819-2664 | |
817-7000 |
Guide des services de données Sun Cluster pour Sun Java System Application Server pour SE Solaris |
817-7002 |
Guide des services de données Sun Cluster pour Sun Java System Message Queue pour SE Solaris |
817-7003 |
Guide des services de données Sun Cluster pour Sun Java System Web Server pour SE Solaris |
Référence |
Titre du manuel |
---|---|
817–0168 |
Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS |
817–0180 |
Sun Cluster 3.0-3.1 With Sun StorEdge 3310 SCSI RAID Array Manual for Solaris OS |
817-7957 |
Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS |
cdrom.sc_agents_sparc/installer propose sept langues pour tous les agents de services de données, bien que les agents non-Java Enterprise System ne prennent en charge que le japonais et le chinois simplifié. cdrom.sc_agents_sparc/components/data-service/installer propose le choix de langue correct.
Restrictions sur le choix de la langue dans le gestionnaire SunPlex :
Pour utiliser le chinois simplifié dans le gestionnaire SunPlex, sélectionnez zh-cn au lieu de zh dans votre navigateur. Sinon, le gestionnaire SunPlex s'affichera en anglais.
Pour utiliser le chinois traditionnel dans le gestionnaire SunPlex, sélectionnez zh-tw dans votre navigateur. Si vous sélectionnez zh-hk, le gestionnaire SunPlex apparaîtra en anglais.
Problème : Dans la distribution autonome du logiciel Sun Cluster 3.1 8/05, les packages de Sun Java Web Console fournis sur le CD-ROM 2 de 2 de Sun Cluster n'incluent pas les packages de localisation. De ce fait, le Gestionnaire SunPlex ne peut afficher la version localisée correcte après la mise à niveau du logiciel Sun Cluster à la version 3.1 8/05.
Solution :Lors de la mise à niveau vers Sun Cluster 3.1 8/05, mettez à niveau les packages de Sun Java Web Console à partir de la distribution de Sun Java Enterprise System (Java ES) et non à partir de la distribution de Sun Cluster. Lors des procédures Sun Cluster permettant de mettre à niveau le logiciel dépendant, utilisez les instructions suivantes pour installer ou mettre à niveau Sun Java Web Console.
Supprimez tous les packages de localisation de Sun Java Web Console éventuellement installés sur le noeud.
# pkgrm SUNWcmctg SUNWdmctg SUNWemctg SUNWfmctg SUNWhmctg SUNWkmctg SUNWjmctg # pkgrm SUNWcmcon SUNWdmcon SUNWemcon SUNWfmcon SUNWhmcon SUNWkmcon SUNWjmcon |
Insérez le CD-ROM 2 de 2 de Java ES dans le lecteur de CD-ROM du noeud.
Installez le package de base de Sun Java Web Console à l'aide de l'utilitaire setup.
# Product/sunwebconsole/setup |
Placez-vous dans un répertoire qui ne réside pas sur le CD-ROM et éjectez celui-ci.
# cd / # eject cdrom |
Insérez le CD-ROM 1de 2 de Java ES dans le lecteur de CD-ROM du noeud.
Placez-vous dans le répertoire contenant les packages de localisation de Sun Java Web Console pour la langue souhaitée.
# cd Product/shared_components/Packages/locale/lang/ |
Les différents packages de langue sont situés dans les répertoires Product/shared_components/Packages/locale/lang/, où lang est le nom d'environnement d'une langue particulière. Par exemple, le nom d'environnement pour le japonais est ja.
Installez les packages manuellement à partir du répertoire lang/.
# pkgadd -d . localization-packages |
Placez-vous dans un répertoire qui ne réside pas sur le CD-ROM et éjectez celui-ci.
Continuez les procédures de mise à niveau du logiciel Sun Cluster 3.1 8/05.
Consultez la rubrique Mise à niveau du logiciel Sun Cluster du Guide d'installation du logiciel Sun Cluster.
Cette rubrique détaille les erreurs connues et les omissions de la documentation, de l'aide en ligne et des pages de manuel, et indique la marche à suivre pour y remédier.
La préface de tous les ouvrages sur Sun Cluster 3.1 8/05 indique un site Web d'assistance et de formation. Ce site Web a été remplacé par les sites suivants :
Assistance technique : http://www.sun.com/support/
Formation : http://www.sun.com/training/
Cette section présente les erreurs et omissions du manuel Guide d’installation du logiciel Sun Cluster pour SE Solaris.
La rubrique Installation des packages du logiciel de service de données (pkgadd) du Guide d’installation du logiciel Sun Cluster pour SE Solaris décrit l'installation des services de données Sun Java System sur un cluster qui exécute le système d'exploitation Solaris 10. La procédure utilise la commande pkgadd -G afin d'installer ces services de données uniquement dans la zone globale. L'option -G ne permet pas aux packages de se propager dans une éventuelle zone non globale existante ou créée ultérieurement.
Si le système contient une zone non globale, certaines applications Sun Java Enterprise System (Java ES) et composants Java ES risquent de ne pas être pris en charge. Cette restriction s'applique si la zone non globale existe au moment de l'installation ou si elle est configurée par la suite. L'utilisation de la commande pkgadd -G pour l'installation des services de données ne contourne pas cette restriction. Si l'application Java ES ne peut cohabiter avec les zones non globales, vous ne pourrez pas utiliser de services de données pour cette application sur un cluster comportant des zones non globales.
Consultez la rubrique Solaris 10 Zones du Sun Java Enterprise System 2005Q5 Installation Guide pour obtenir des informations sur la prise en charge Java ES des zones Solaris.
La procédureMise à jour des réservations SCSI après ajout d’un nœud du Guide d’installation du logiciel Sun Cluster pour SE Solaris peut entraîner une grave erreur de nœud. Pour éviter une grave erreur de nœud pendant cette procédure, exécutez la commande scgdevs après avoir supprimé tous les anciens périphériques de quorum mais avant de configurer les nouveaux.
Dans le Chapitre 5, Mise à niveau du logiciel Sun Cluster du Guide d’installation du logiciel Sun Cluster pour SE Solaris, les directives et procédures de mise à niveau font référence à la sortie de la première mise à jour de Solaris 10 sous la désignation de Solaris 10 10/05. Cette date est incorrecte. À la publication de ce document, la date de sortie prévue pour la première mise à jour du SE Solaris 10 n'est pas encore connue. De plus, l'assistance technique pour la mise à niveau vers cette nouvelle version n'est pas encore déterminée. Contactez votre représentant de services Sun pour obtenir des informations sur le support de la mise à niveau vers des versions ultérieures de Solaris 10
Les binaires des applications Java ES peuvent être installés sur un système de fichiers de cluster plutôt que sur chaque nœud de cluster. Pour installer le service de données (son agent) dans une configuration Solaris 10 en cluster au moyen de la commande pkgadd, vous devez également utiliser la commande pkgadd pour installer manuellement les composants Java ES partagés requis par l'application.
Consultez le Sun Java Enterprise System 2005Q5 Installation Guide pour obtenir la liste des composants partagés requis par chaque application Java ES et la liste des packages pour chaque composant partagé.
Dans les rubiques Mise à niveau du logiciel dépendant avant une mise à niveau non progressive du Guide d’installation du logiciel Sun Cluster pour SE Solaris et Mise à niveau du logiciel dépendant avant une mise à niveau progressive du Guide d’installation du logiciel Sun Cluster pour SE Solaris, les instructions concernant la vérification de la version de deux composants partagés contiennent une erreur.
Incorrect :
# patchadd -p | grep 114016 |
Correct :
# showrev -p | grep 114016 |
Incorrect :
# pkginfo -l SUNWexplo | grep SUNW_PRODVERS |
Correct :
# pkginfo -l SUNWexplo | grep VERSION |
La mise à niveau progressive risque de ne plus être prise en charge dans une version ultérieure de Sun Cluster. Dans ce cas, d'autres procédures seront indiquées pour limiter les interruptions de Sun Cluster pendant la mise à niveau logicielle.
Cette rubrique décrit les erreurs et omissions contenues dans l'aide en ligne du gestionnaire SunPlex.
Dans le fichier d'aide en ligne intitulé « Sun Cluster HA pour Oracle », une remarque figurant dans la rubrique « Avant de commencer » est incorrecte.
Incorrect :
S'il n'existe aucune entrée pour shmsys et semsys dans /etc/system, les valeurs par défaut de ces variables sont automatiquement insérées dans /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs sont appropriées pour votre base de données.
Correct :
S'il n'existe aucune entrée pour les variables shmsys et semsys dans le fichier /etc/system lors de l'installation du service de données Oracle, vous pouvez ouvrir /etc/system et y insérer leurs valeurs par défaut. Vous devez ensuite réinitialiser le système. Consultez la documentation d'installation d'Oracle pour vérifier que les valeurs insérées sont appropriées à votre base de données.
Le fichier d'aide intitulé « Icônes SPM et conventions » fournit deux descriptions incorrectes dans la rubrique « Autres étiquettes ».
Incorrect :
Tableau 8 Autres étiquettes
Étiquette |
Signification |
---|---|
![]() |
Groupe de ressources principales de type de basculement |
![]() |
Groupe de ressources secondaires de type de basculement |
Correct :
Tableau 9 Autres étiquettes
Étiquette |
Signification |
---|---|
![]() |
Nœud principal pour la ressource |
![]() |
Nœud secondaire pour la ressource |
Cette rubrique présente les erreurs et omissions du document Guide des notions fondamentales de Sun Cluster pour SE Solaris.
Au chapitre 3, la section “Utilisation de l'interconnexion de cluster pour le trafic des services de données“ devrait contenir les informations suivantes :
Un cluster doit avoir de multiples connexions réseau entre les nœuds pour former une interconnexion de cluster. Le logiciel de clustering fait appel à de nombreuses interconnexions pour optimiser la disponibilité et les performances. Pour le trafic interne et externe (par exemple, les données du système de fichiers ou les données des services évolutifs), les messages sont entrelacés sur toutes les interconnexions disponibles.
L'interconnexion de cluster est également mise à la disposition des applications pour garantir une communication hautement disponible entre les noeuds. Par exemple, une application répartie peut avoir des composants exécutés sur différents noeuds et ayant besoin de communiquer entre eux. En utilisant l'interconnexion de cluster plutôt que le transport public, ces connexions peuvent résister à l'échec d'un lien individuel.
Pour utiliser l'interconnexion de cluster dans le cadre des communications, l'application doit adopter les noms d'hôtes privés configurés lors de l'installation du cluster. Par exemple, si le nom d'hôte privé du nœud 1 est clusternode1-priv, utilisez ce nom pour communiquer sur l'interconnexion de cluster vers le nœud 1. Les sockets TCP ouverts avec ce nom sont routés sur l'interconnexion de cluster et peuvent être reroutés de manière transparente en cas de panne réseau. La communication d'applications entre deux noeuds est entrelacée sur toutes les interconnexions. Le trafic pour une connexion TCP donnée passe sur une interconnexion à n'importe quel point. Différentes connexions TCP sont entrelacées sur toutes les interconnexions. En outre, le trafic UDP est toujours entrelacé sur toutes les interconnexions.
Veuillez noter que comme les noms d'hôte privés peuvent être configurés durant l'installation, l'interconnexion de cluster peut utiliser n'importe quel nom choisi à ce moment-là. Le nom réel peut être obtenu à l'aide de la commande scha_cluster_get(3HA) suivie de l'argument scha_privatelink_hostname_node.
Cette rubrique décrit les erreurs et omissions du Guide d’administration système de Sun Cluster pour SE Solaris.
La procédure du patch de réinitialisation (nœud) Application d’un patch avec réinitialisation (noeud) du Guide d’administration système de Sun Cluster pour SE Solaris est irréversible en tant que procédure par nœud. De même, la mise à niveau inférieur progressive des versions de Sun Cluster n'est pas prise en charge. Pour supprimer un patch Sun Cluster ou une version de mise à jour, vous devez appliquer à nouveau le patch ou la version de mise à jour précédente en suivant la procédure Application d’un patch avec réinitialisation (cluster et microprogramme) du Guide d’administration système de Sun Cluster pour SE Solaris.
Sun Cluster Data Service for NFS Guide for Solaris OS néglige certaines restrictions applicables à l'utilisation de Sun Cluster HA pour NFS avec NFS v3.
Si vous utilisez Sun Cluster HA pour NFS, n'utilisez pas les nœuds de cluster comme clients NFS v3 de serveurs NFS externes. Cette restriction s'applique même si le serveur NFS externe est un périphérique de stockage NAS. Si vous configurez vos nœuds de cluster de cette manière, vous perdez les verrous que les nœuds de cluster auront définis sur les serveurs NFS externes.
Cette restriction ne s'applique pas aux clients NFS v4. Vous pouvez utiliser NFS v4 pour le montage de serveurs NFS externes.
Cette rubrique décrit les omissions du Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS.
Consultez les notes SAP correspondantes dès lors que vous modifiez la référence à un nom d'hôte du système. Les notes SAP contiennent les informations les plus récentes sur les modifications des noms d'hôtes. Le document Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS omet certaines références à ces notes SAP.
Les rubriques suivantes expliquent comment modifier le nom d'hôte.
La rubrique How to Install and Configure the SAP Web Application Server and the SAP J2EE Engine du Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS néglige certaines instructions d'installation du moteur J2EE SAP si vous prévoyez de le configurer en tant que ressource évolutive. Les étapes 2 et 7 de la procédure sont incomplètes.
Étape 2 corrigée :
Si vous utilisez le moteur J2EE SAP, installez le logiciel du moteur J2EE SAP.
Consultez la documentation d'installation SAP.
Si vous prévoyez d'installer le moteur J2EE SAP en tant que ressource de basculement, installez le logiciel du moteur J2EE SAP sur le même nœud que celui où est installé le logiciel SAP Web Application Server de l'étape 1.
Si vous prévoyez de configurer le moteur J2EE SAP en tant que ressource évolutive, installez son logiciel sur chaque nœud susceptible de gérer la ressource évolutive. Installez l'instance de dialogue J2EE SAP avec le même numéro de système SAP sur chaque nœud. Ce numéro est la valeur SAPSYSTEM du profil SAP.
Étape 7 corrigée :
Si vous utilisez le moteur J2EE SAP, modifiez le script loghost afin de retourner les noms d'hôtes pour le moteur J2EE SAP.
Modifiez le script loghost créé à l'étape 6 pour retourner soit les noms d'hôtes logiques, soit les noms d'hôtes physiques pour chaque instance du moteur J2EE SAP.
Si vous prévoyez de configurer le moteur J2EE SAP en tant que ressource de basculement, modifiez le script afin de retourner les noms d'hôtes logiques. Les commandes suivantes donnent un exemple de modification de ce script.
if [ "$1" = "JC00" ]; then echo loghost-4; fi if [ "$1" = "SCS02" ]; then echo loghost-5; fi if [ "$1" = "J02" ]; then echo loghost-6; fi |
Si vous prévoyez de configurer le moteur J2EE SAP comme une ressource évolutive, modifiez le script afin de retourner les noms d'hôtes physiques. Les commandes suivantes donnent un exemple de modification de ce script.
if [ "$1" = "J03" ]; then echo `hostname`; fi |
Cette rubrique décrit les erreurs et omissions du Sun Cluster Data Service for Solaris Containers Guide.
La rubrique Configuration Restrictions du Sun Cluster Data Service for Solaris Containers Guide omet de décrire la restriction applicable à la propriété autoboot d'une zone de basculement ou d'une zone multimaître.
Lors de la création d'une zone de basculement ou d'une zone multimaître, la propriété autoboot de la zone doit être définie sur false. Le réglage de la propriété autobootsur false empêche l'initialisation de la zone lors de l'initialisation de la zone globale. Le service de données Sun Cluster HA pour conteneurs Solaris ne peut gérer une zone que si celle-ci est initialisée sous le contrôle du service de données.
La rubrique Configuration Requirements du Sun Cluster Data Service for Solaris Containers Guide omet de décrire les exigences relatives au système LOFS (loopback file system).
Assurez-vous que le système de fichiers LOFS est activé.
Les outils d'installation de Sun Cluster désactivent le LOFS. Si vous utilisez Sun Cluster HA pour conteneurs Solaris pour gérer une zone, activez le LOFS après l'installation et la configuration de la structure Sun Cluster. Pour activer le LOFS, supprimez la ligne suivante du fichier /etc/system :
exclude: lofs
La procédure How to Install and Configure a Zone du Sun Cluster Data Service for Solaris Containers Guide contient les erreurs suivantes :
L'étape 6 doit être réalisée sur tous les nœuds de cluster sauf le nœud sur lequel la zone a été installée et configurée (lors des étapes précédentes).
L'étape 6d indique un répertoire de destination incorrect pour le fichier zone.xml. En outre, il manque le point dans le nom du fichier zone.xml. La procédure et la commande correctes sont donc :
Copiez le fichier zone.xml dans le répertoire /etc/zones du nœud.
# rcp zone-install-node:/etc/zones/zone.xml .
Les exemples de code des rubriques suivantes sont incorrects :
Writing a Zone Script du Sun Cluster Data Service for Solaris Containers Guide
Writing an SMF Service Probe du Sun Cluster Data Service for Solaris Containers Guide
Le code correct de ces deux rubriques est le suivant :
# cat /var/tmp/probe-apache2 #!/usr/bin/ksh if echo "GET; exit" | mconnect -p 80 > /dev/null 2>&1 then exit 0 else exit 100 fi
Cette rubrique présente les erreurs et les omissions du Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS
Le périphérique NAS NetApp doit être directement raccordé à un réseau qui dispose de connexions directes vers tous les nœuds du cluster.
Lorsque vous configurez un système de fichiers NAS NetApp, respectez les étapes suivantes en plus de celles décrites dans la rubrique Installing a Network Appliance NAS Device in a Sun Cluster Environment du Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS.
Ajoutez le nom du système de fichiers NAS NetApp à /etc/inet/hosts.
Ajoutez un mappage nom d'hôte-adresse pour le système de fichiers dans le fichier /etc/inet/hosts sur tous les nœuds du cluster. Exemple :
netapp-123 192.168.11.123 |
Ajoutez les masques de sous réseau (sous-ensemble NAS) du système de fichiers à /etc/inet/netmasks.
Ajoutez une entrée au fichier /etc/inet/netmasks sur tous les nœuds du cluster pour le sous-réseau sur lequel est installé le système de fichiers. Exemple :
192.168.11.0 255.255.255.0 |
Vérifiez sur tous les nœuds du cluster que pour les entrées hosts et netmasks du fichier /etc/nsswitch.conf, files apparaît avant nis et dns. Si ce n'est pas le cas, modifiez la ligne correspondante dans /etc/nsswitch.conf en déplaçant files avant nis et dns.
Cette rubrique décrit les erreurs et omissions contenues dans les pages de manuel de Sun Cluster.
Writer: Per Prasad, this procedure applies to U3.Pour afficher les pages de manuel relatives aux services de données Sun Cluster 3.0, installez les derniers patchs appliqués au logiciel Sun Cluster 3.1 8/05 pour ces services de données. Consultez la rubrique Patchs et niveaux de microprogrammes requis pour obtenir plus d'informations.
Après avoir appliqué le patch, accédez aux pages d'aide en ligne des services de données Sun Cluster 3.0 en exécutant la commande man -M avec le chemin d'accès entier à la page de manuel comme argument. L'exemple suivant permet d'ouvrir la page de manuel relative à Apache.
% man -M /opt/SUNWscapc/man SUNW.apache |
Vous pouvez modifier votre MANPATH afin d'activer l'accès aux pages de manuel des services de données Sun Cluster 3.0 sans spécifier le chemin complet. L'exemple suivant décrit l'entrée de commande permettant d'ajouter le chemin des pages de manuel d' Apache à votre MANPATH et d'afficher ces pages.
% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH % man SUNW.apache |