Le présent document fournit les informations suivantes sur le logiciel SunTM Cluster 3.1 9/04.
Cette section présente les nouvelles fonctions et fonctionnalités du logiciel Sun Cluster 3.1 9/04 ainsi que les nouveaux produits pris en charge.
La fonction de pulsations réglables vous permet de modifier les paramètres de pulsation globale d'un cluster, et donc de modifier les paramètres de pulsation sur tous les adaptateurs du cluster. Le logiciel Sun Cluster s'appuie sur les pulsations de l'interconnexion privée pour détecter les échecs de communication au niveau des nœuds du cluster.
La réduction du délai de pulsation permet au logiciel Sun Cluster de détecter les échecs plus rapidement, étant donné que la durée requise pour détecter les échecs décroît lorsque vous réduisez la valeur du délai de pulsation. Par conséquent, Sun Cluster récupère plus rapidement après des incidents, ce qui permet d'accroître la disponibilité du cluster.
La fonction de pulsations réglables est décrite de manière plus détaillée dans la page man scconf(1M).
Cette version prend en charge VERITAS Volume Manager (VxVM) 4.0 et Système de fichiers VERITAS (VxFS) 4.0.
Sun Cluster prend désormais en charge le conteneur d'agent commun, offrant ainsi une infrastructure modulaire qui permet d'héberger les modules d'agent et de service de gestion. Les services de conteneur d'agent suivants utilisent les ports par défaut indiqués ci-après :
snmp.adaptor.port |
10161 |
jmxmp.connector.port |
10162 |
commandstream.adaptor.port |
10163 |
Si ces valeurs par défaut sont incompatibles avec les ports utilisés par vos applications, vous pouvez les modifier. Pour toute information sur la modification des numéros de port par défaut, reportez-vous à la section Utilisation du conteneur d’agent commun pour modifier les numéros de port des services ou agents de gestion du Guide d’administration système de Sun Cluster pour SE Solaris.
La méthode JumpStart d'installation des logiciels Solaris et Sun Cluster en une seule opération a été modifiée. Le script JumpStart requiert désormais la création d'une archive Flash de la configuration de cluster à installer et la modification du fichier autoscinstall.class fourni par le logiciel Sun Cluster. Voir la section Installation de Solaris et du logiciel Sun Cluster (JumpStart) du Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Une nouvelle commande scversions(1M) a été ajoutée pour la mise à niveau progressive vers le nouveau logiciel Sun Cluster. Elle permet de valider le cluster en fonction du nouveau niveau de fonctionnalité du logiciel, une fois tous les nœuds mis à niveau.
Cette version introduit la prise en charge de clusters à 16 nœuds.
les systèmes de fichiers proxy ne sont pas pris en charge dans les configurations à 16 nœuds.
Cette version introduit la prise en charge des adresses IPv6 sur le réseau public dans le cadre des services de données de basculement sur Solaris 8 et dans le cadre des services de données évolutifs et de basculement sur Solaris 9.
Cette version introduit les fonctions de configuration des relations entre les ressources et les groupes de ressources suivantes :
dépendance entre les ressources au redémarrage ;
possibilité d'extension des dépendances entre ressources aux groupes de ressources ;
état PENDING_ONLINE_BLOCKED du groupe de ressources ;
propriété de groupe de ressources RG_affinities permettant de définir les affinités entre les groupes de ressources.
Pour faciliter la gestion des configurations dans lesquelles sont définies des affinités entre des groupes de ressources, la commande scswitch ( 1M) a été modifiée comme suit :
Les options de mise en ligne des groupes de ressources mettent en application les affinités entre les groupes de ressources.
L'option d'évacuation d'un nœud permet, parallèlement, de mettre hors ligne tous les groupes de ressources correspondant au nœud.
Une option a été ajoutée afin d'empêcher tout groupe de ressources de basculer vers un nœud ayant fait l'objet d'une évacuation, pendant une période déterminée.
Le type de ressources HAStoragePlus a été amélioré de manière à permettre la modification des ressources HAStoragePlus lorsqu'elles sont en ligne. Pour de plus amples informations, reportez-vous au document Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Vous pouvez utiliser Solaris Volume Manager pour Sun Cluster avec Support Sun Cluster pour Oracle Real Application Clusters. Pour de plus amples informations, reportez-vous au document Sun Cluster Data Service for Oracle Real Application Clusters Guide for Solaris OS
Vous pouvez utiliser le système de fichiers Sun StorEdgeTM QFS avec Support Sun Cluster pour Oracle Real Application Clusters. Pour de plus amples informations, reportez-vous au document Sun Cluster Data Service for Oracle Real Application Clusters Guide for Solaris OS
La Support Sun Cluster pour Oracle Real Application Clusters a été améliorée afin de vous permettre d'automatiser le lancement et l'arrêt des instances Oracle Real Application Clusters. Pour de plus amples informations, reportez-vous au document Sun Cluster Data Service for Oracle Real Application Clusters Guide for Solaris OS.
l'automatisation du lancement et de l'arrêt des instances Oracle Real Application Clusters requiert l'utilisation de dépendances étendues entre les ressources, introduites dans Sun Cluster 3.1 9/04. Si vous envisagez d'automatiser le lancement et l'arrêt des Oracle Real Application Clusters, vérifiez que la version du logiciel d'infrastructure Sun Cluster utilisée prend en charge les dépendances entre ressources étendues.
Aucun nouveau service de données n'a été introduit dans Sun Cluster 3.1 9/04 (édition pour plate-forme x86).
Les nouveaux services de données introduits dans Sun Cluster 3.1 9/04 (édition pour plate-forme SPARC) sont les suivants :
Sun Cluster HA pour Agfa IMPAX
Sun Cluster Oracle Application Server
Sun Cluster HA pour SAP Web Application Server : service de données prenant en charge les composants SAP dans SAP Netweaver 04. Il intègre les services de données HA pour SAP Enqueue Server, un serveur de répliques, un serveur de messagerie, SAP Web Application Server et le moteur SAP J2EE.
Sun Cluster HA pour Sun Grid Engine
Sun Cluster HA pour SWIFTAlliance Gateway
Les restrictions suivantes s'appliquent à la version Sun Cluster 3.1 9/04 :
les systèmes de fichiers proxy ne sont pas pris en charge dans les configurations à 16 nœuds.
Pour tout autre problème connu ou toute restriction, voir la rubrique Problèmes connus et bogues.
Cette rubrique présente les logiciels pris en charge et la configuration minimale requise en termes de mémoire pour le logiciel Sun Cluster 3.1 9/04.
Système d'exploitation Solaris : Sun Cluster 3.1 9/04 requiert au minimum les versions Solaris suivantes :
Solaris 8 – Solaris 8 2/02
Solaris 9 – Solaris 9 General Availability (GA)
Gestionnaires de volumes
Sous Solaris 8 : Solstice DiskSuiteTM 4.2.1 et VERITAS Volume Manager 3.5 et 4.0.
Sous Solaris 9 : Solaris Volume Manager et VERITAS Volume Manager 3.5 et 4.0.
Systèmes de fichiers
Sous Solaris 8 : Solaris UFS, Sun StorEdge QFS et Système de fichiers VERITAS 3.5 et 4.0.
Sous Solaris 9 : Solaris UFS, Sun StorEdge QFS et Système de fichiers VERITAS 3.5 et 4.0.
Services de données (agents) : contactez votre représentant commercial Sun pour obtenir une liste complète des services de données et des versions d'applications pris en charge. Spécifiez les noms des types de ressources lorsque vous installez les services de données à l'aide de l'utilitaire scinstall(1M). Ces noms doivent également être spécifiés lorsque vous enregistrez les types de ressources associés au service de données à l'aide de l'utilitaire scsetup(1M).
les procédures relatives à la version de Sun Cluster HA pour Sun JavaTM System Directory Server utilisant Sun Java System Directory Server 5.0 et 5.1 sont décrites dans le manuel Sun Cluster 3.1 Data Service for Sun ONE Directory Server. Pour les versions plus récentes de Sun Java System Directory Server, auparavant appelé SunTM Open Net Environment (Sun ONE) Directory Server, reportez-vous à la documentation produit de Sun Java System Directory Server.
toutes les occurrences de “Sun One” dans les noms et descriptions des services de données des applications Sun Java Enterprise System doivent être comprises comme désignant “Sun Java System.” Exemple : un “service de données Sun Cluster pour Sun One Application Server” désigne un “service de données Sun Cluster pour Sun Java System Application Server.”.
le service de données Sun Cluster HA pour Oracle 3.0 ne peut fonctionner sur le logiciel Sun Cluster 3.1 9/04 que s'il est utilisé avec les versions ci-dessous du système d'exploitation Solaris :
Solaris 8, version 32 bits ;
Solaris 8, version 64 bits ;
Solaris 9, version 32 bits.
Le service de données Sun Cluster HA pour Oracle 3.0 ne peut pas être exécuté sur Sun Cluster 3.1 9/04 lorsqu'il est utilisé avec la version 64 bits de Solaris 9.
Service de données |
Type de ressource Sun Cluster |
---|---|
Sun Cluster HA pour Agfa IMPAX |
SUNW.gds |
Sun Cluster HA pour Apache |
SUNW.apache |
Sun Cluster HA pour Apache Tomcat |
SUNW.sctomcat |
Sun Cluster HA pour BroadVision One-To-One Enterprise |
SUNW.bv |
Sun Cluster HA pour DHCP |
SUNW.gds |
Sun Cluster HA pour DNS |
SUNW.dns |
Sun Cluster HA pour MySQL |
SUNW.gds |
Sun Cluster HA pour NetBackup |
SUNW.netbackup_master |
Sun Cluster HA pour NFS |
SUNW.nfs |
Sun Cluster Oracle Application Server |
SUNW.gds |
Sun Cluster HA pour Oracle E-Business Suite |
SUNW.gds |
Sun Cluster HA pour Oracle |
SUNW.oracle_server SUNW.oracle_listener |
Support Sun Cluster pour Oracle Real Application Clusters |
SUNW.rac_framework SUNW.rac_udlm SUNW.rac_svm SUNW.rac_cvm SUNW.rac_hwraid SUNW.oracle_rac_server SUNW.oracle_listener |
Sun Cluster HA pour Samba |
SUNW.gds |
Sun Cluster HA pour SAP |
SUNW.sap_ci SUNW.sap_ci_v2 SUNW.sap_as SUNW.sap_as_v2 |
Sun Cluster HA pour SAP liveCache |
SUNW.sap_livecache SUNW.sap_xserver |
Sun Cluster HA pour SAP DB |
SUNW.sapdb SUNW.sap_xserver |
Sun Cluster HA pour SAP Web Application Server |
SUNW.sapenq SUNW.saprepl SUNW.sapscs SUNW.sapwebas SUNW.gds |
Sun Cluster HA pour Siebel |
SUNW.sblgtwy SUNW.sblsrvr |
Sun Cluster HA pour N1 Grid Engine |
SUNW.gds |
Sun Cluster HA pour Sun Java System Application Server |
SUNW.s1as |
Sun Cluster HA pour Sun Java System Application Server EE (HADB) |
SUNW.hadb |
Sun Cluster HA pour Sun Java System Message Queue |
SUNW.s1mq |
Sun Cluster HA pour Sun Java System Web Server |
SUNW.iws |
Sun Cluster HA pour SWIFTAlliance Access |
SUNW.gds |
Sun Cluster HA pour SWIFTAlliance Gateway |
SUNW.gds |
Sun Cluster HA pour Sybase ASE |
SUNW.sybase |
Sun Cluster HA pour le serveur WebLogic |
SUNW.wls |
Sun Cluster HA pour WebSphere MQ |
SUNW.gds |
Sun Cluster HA pour l'intégrateur WebSphere MQ |
SUNW.gds |
Configuration minimale requise en termes de mémoire : Sun Cluster 3.1 9/04 requiert une quantité de mémoire supérieure à celle habituellement configurée pour un nœud opérant dans des conditions normales. Ce supplément doit être de 128 Mo plus 10 % de la mémoire configurée pour un système non clusterisé. Par exemple, si un naud autonome a normalement besoin de 1 Go de mémoire, vous devez ajouter 256 Mo de plus pour fournir la mémoire nécessaire.
RSMAPI : Sun Cluster 3.1 9/04 prend en charge Interface de programmation d'application de mémoire partagée distante (RSMAPI) sur les interconnexions compatibles RSM, telles que PCI-SCI.
Sun Cluster Security Hardening utilise les techniques de renforcement du système d'exploitation Solaris, recommandées par le programme Sun BluePrintsTM, afin de renforcer la sécurité de base des clusters. Solaris Security Toolkit assure la mise en oeuvre automatique de Sun Cluster Security Hardening.
La documentation relative à Sun Cluster Security Hardening est disponible à l'adresse http://www.sun.com/blueprints/0203/817-1079.pdf. Vous pouvez également accéder à l'article à partir de l'adresse http://www.sun.com/software/security/blueprints. À partir de cet URL, faites défiler le texte vers le bas jusqu'au titre Architecture, puis accédez à l'article “Securing the Sun Cluster 3.x Software.” (Sécurisation du logiciel Sun Cluster 3.x). La documentation décrit la procédure de sécurisation des déploiements de Sun Cluster 3.1 dans un environnement Solaris 8 et Solaris 9. L'utilisation de Solaris Security Toolkit et d'autres techniques de sécurité de pointe conseillées par les experts de Sun y sont également décrites.
Tableau 1 Services de données pris en charge par Sun Cluster Security Hardening
Agent de service de données |
Version de l'application : de basculement |
Version de l'application : évolutive |
Version de Solaris |
---|---|---|---|
Sun Cluster HA pour Apache |
1.3.9 |
1.3.9 |
Solaris 8, Solaris 9 (version 1.3.9) |
Sun Cluster HA pour Apache Tomcat |
3.3, 4.0, 4.1 |
3.3, 4.0, 4.1 |
Solaris 8, Solaris 9 |
Sun Cluster HA pour DHCP |
S8U7+ |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour DNS |
avec SE |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Sun Java System Messaging Server |
6.0 |
4.1 |
Solaris 8 |
Sun Cluster HA pour MySQL |
3.23.54a - 4.0.15 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour NetBackup |
3.4 |
N/A |
Solaris 8 |
Sun Cluster HA pour NFS |
avec SE |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Oracle E-Business Suite |
11.5.8 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Oracle |
8.1.7 et 9i (32 et 64 bits) |
N/A |
Solaris 8, Solaris 9 (HA Oracle 9iR2) |
Support Sun Cluster pour Oracle Real Application Clusters |
8.1.7 et 9i (32 et 64 bits) |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour SAP |
4.6D (32 et 64 bits) et 6.20 |
4.6D (32 et 64 bits) et 6.20 |
Solaris 8, Solaris 9 |
Sun Cluster HA pour SWIFTAlliance Access |
4.1, 5.0 |
N/A |
Solaris 8 |
Sun Cluster HA pour Samba |
2.2.2, 2.2.7, 2.2.7a, 2.2.8, 2.2.8a |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Siebel |
7.5 |
N/A |
Solaris 8 |
Sun Cluster HA pour Sun Java System Application Server |
7.0, 7.0 mise à jour 1 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Sun Java System Directory Server |
4.12 |
N/A |
Solaris 8, Solaris 9 (version 5.1) |
Sun Cluster HA pour Sun Java System Message Queue |
3.0.1 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Sun Java System Web Server |
6.0 |
4.1 |
Solaris 8, Solaris 9 (version 4.1) |
Sun Cluster HA pour Sybase ASE |
12.0 (32 bit) |
N/A |
Solaris 8 |
Sun Cluster HA pour le serveur BEA WebLogic |
7.0 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour WebSphere MQ |
5.2, 5.3 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour l'intégrateur WebSphere MQ |
2.0.2, 2.1 |
N/A |
Solaris 8, Solaris 9 |
Les problèmes et bogues présentés ci-après concernent la version Sun Cluster 3.1 9/04.
Récapitulatif du problème : scvxinstall crée des entrées vfstab incorrectes lorsque le périphérique de démarrage comporte plusieurs chemins.
Solution : Exécutez scvxinstall et choisissez le mode encapsulé. Lorsque le message suivant apparaît, saisissez Ctrl-C pour abandonner le redémarrage :
Ce nœud va être réinitialisé dans 20 secondes. Entrez Ctrl-C pour annuler. |
Modifiez l'entrée vfstab de sorte que /global/.devices utilise le nom /dev/{r}dsk/cXtXdX au lieu du nom /dev/did/{r}dsk. Cette entrée modifiée permet à VxVM de le reconnaître en tant que disque root. Exécutez à nouveau scvxinstall et choisissez le mode encapsulé. Le fichier vfstab comporte les modifications nécessaires. Autorisez le redémarrage. L'encaspulation est normalement effectuée.
Récapitulatif du problème : Le service de données Sun Cluster HA for Oracle démarre et arrête la base de données à l'aide de la commande su. Si vous exécutez Solaris 8 ou Solaris 9, le service réseau peut devenir indisponible lorsque le réseau public d'un noeud du cluster tombe en panne.
Solution : Sur chaque nœud susceptible d'être principal pour la ressource oracle_server ou oracle_server, modifiez le fichier /etc/nsswitch.conf en y incluant les entrées suivantes :
passwd: files groups: files publickey: files project: files
L'ajout de ces entrées garantit que la commande su ne se réfère pas aux services de noms NIS/NIS+, de sorte que le service de données démarre et s'arrête correctement en cas de panne du réseau.
Récapitulatif du problème : Les clusters qui utilisent des adaptateurs ce sur l'interconnexion privée rencontrent des problèmes de temporisation de chemin suivis d'erreurs graves de nœud si un ou plusieurs nœuds ont plus de 4 CPU.
Solution : Définissez le paramètre ce_taskq_disable dans le pilote ce en ajoutant la ligne suivante au fichier /etc/system sur tous les nœuds de cluster.
set ce:ce_taskq_disable=1
Redémarrez ensuite les nœuds de cluster. Tenez compte du quorum lorsque vous redémarrez les nœuds de cluster. La définition de ce paramètre permet de toujours envoyer les pulsations (et d'autres paquets) dans le contexte de l'interruption, éliminant ainsi les problèmes de temporisation de chemins et les erreurs graves de nœuds consécutives.
Récapitulatif du problème : le service de données Sun Cluster HA pour SAP liveCache utilise la commande dbmcli pour démarrer et arrêter le liveCache. Si vous exécutez Solaris 9, le service du réseau peut devenir indisponible lorsque le réseau public d'un noeud de cluster tombe en panne.
Solution : Sur chaque nœud susceptible d'être principal pour les ressources liveCache, modifiez le fichier de configuration /etc/nsswitch.conf en y incluant l'une des entrées suivantes pour la base de données publickey :
publickey: publickey: files publickey: files [NOTFOUND=return] nis publickey: files [NOTFOUND=return] nisplus
L'ajout de l'une de ces entrées et des mises à jour indiquées dans le manuel Sun Cluster Data Service for SAP liveCache Guide for Solaris OS assure que les commandes su et dbmcli ne se réfèrent pas aux services de noms NIS/NIS+. En évitant les services de noms NIS/NIS+, le service de données démarre et s'arrête correctement en cas de panne du réseau.
Récapitulatif du problème : en raison d'une erreur interne, certains agents de cluster fournis par Sun consignent des messages dans le journal système (reportez-vous à la rubrique syslog(3C)) à l'aide de la fonction LOG_USER au lieu d'utiliser LOG_DAEMON. Sur un cluster configuré avec les paramètres syslog par défaut (reportez-vous à la rubrique syslog.conf(4)), les messages de gravité LOG_WARNING ou LOG_NOTICE, normalement consignés dans le journal système, ne sont pas émis. Ce problème se produit lorsque le code de l'agent est écrit sous forme de script shell.
Solution :
La solution suivante s'adresse aux développeurs d'agents qui écrivent des scripts shell :
Dans les scripts shell, envoyez explicitement la fonction vers scds_sylog :
facility=`scha_cluster_get -O SYSLOG_FACILITY
'scds_syslog -p ${facility}.error -m "error message"
La solution suivante est destinée aux administrateurs de clusters :
Ajoutez la ligne suivante au début du fichier /etc/syslog.conf sur tous les nœuds de cluster :
user.warning /var/adm/messages
Cette ligne entraîne l'enregistrement des messages user.warning. Une ligne similaire peut être ajoutée pour les messages user.notice, mais ceci n'est pas nécessaire et peut entraîner un remplissage trop rapide des journaux, suivant la combinaison d'applications exécutées.
Récapitulatif du problème : Les exigences requises pour le fichier nsswitch.conf dans la section "Preparing the Nodes and Disks" (Préparation des nœuds et des disques) du manuel Sun Cluster Data Service for SAP liveCache Guide for Solaris OS ne s'appliquent pas à l'entrée pour la base de données passwd. Si ces exigences sont satisfaites, la commande su peut suspendre chaque noeud pouvant contrôler la ressource liveCache lorsque le réseau public est arrété.
Solution : sur chaque noeud pouvant contrôler la ressource liveCache, veillez à ce que l'entrée dans le fichier /etc/nsswitch.conf pour la base de données passwd soit la suivante :
passwd: files nis [TRYAGAIN=0]
Récapitulatif du problème : sccheck peut être interrompue si elle est lancée simultanément sur plusieurs nœuds.
Solution : ne lancez pas sccheck à partir d'une console multiple qui envoie des commandes à plusieurs noeuds. Les exécutions de sccheck peuvent se chevaucher mais ne doivent pas être lancées simultanément.
Récapitulatif du problème : Actuellement, le service de données HA-DB n'utilise pas la variable d'environnement JAVA_HOME. Par conséquent, HA-DB, lorsqu'il est appelé à partir du service de données HA-DB, utilise des fichiers binaires Java à partir de /usr/bin/. Les fichiers binaires Java situés dans /usr/bin/ doivent être liés à la version appropriée de Java 1.4 et versions ultérieures, pour permettre au service de données HA-DB de fonctionner correctement.
Solution : Si vous souhaitez modifier la version disponible par défaut, effectuez la procédure ci-après. Cette solution suppose que le répertoire /usr/j2se correspond à celui dans lequel se trouve la dernière version de Java (par exemple la version 1.4 ou ultérieure).
Disposez-vous actuellement d'un répertoire appelé java/ dans le répertoire /usr/ ? Si tel est le cas, déplacez-le vers un emplacement temporaire.
À partir du répertoire /usr/, liez /usr/bin/java et tous les autres fichiers binaires Java à la version appropriée de Java.
# ln -s j2se java |
Si vous ne souhaitez pas modifier la version par défaut disponible, attribuez la variable d'environnement JAVA_HOME à la version appropriée de Java (J2SE 1.4 ou ultérieure) dans le script /opt/SUNWappserver7/SUNWhadb/4/bin/hadbm.
Récapitulatif du problème : En raison du bogue 4974875, lorsqu'une récupération automatique est effectuée, la base de données est réinitialisée sans disques spare. Le bogue mentionné a été résolu et intégré dans HA-DB version 4.3. Pour HA-DB 4.2 et les versions antérieures, effectuez l'une des procédures suivantes pour modifier les rôles des nœuds HA-DB.
Solution :
Identifiez les nœuds HA-DB dont le rôle a été modifié après une récupération automatique correctement effectuée.
Sur tous les nœuds identifiés à l'étape 1, désactivez nœud par nœud le moniteur par défaut pour la ressource HA-DB concernée.
# cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery |
Activez le moniteur par défaut pour la ressource HA-DB concernée.
ou
Identifiez les nœuds HA-DB dont le rôle a été modifié après une récupération automatique correctement effectuée.
Sur tous les nœuds qui hébergent la base de données, désactivez le moniteur par défaut pour la ressource HA-DB concernée.
Sur tous les nœuds, exécutez la commande pour chaque nœud HA-DB dont le rôle doit être modifié.
# cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery |
Récapitulatif du problème : Lors d'une mise à niveau progressive, si la commande scstat -i est exécutée sur un nœud de cluster qui n'a pas encore été mis à niveau, la sortie de commande scstat ne fait pas apparaître l'état des groupes IPMP hébergés sur les nœuds déjà mis à niveau.
Solution : Utilisez la sortie de commande scstat -i à partir des nœuds mis à jour.
Récapitulatif du problème : Il est impossible d'ajouter une ressource LogicalHostname au cluster si elle doit utiliser un group IPMP avec un adaptateur défectueux.
Solution : Supprimez l'adaptateur défectueux du groupe IPMP ou corrigez la défaillance avant d'utiliser le groupe IPMP dans une ressource LogicalHostname.
Récapitulatif du problème : les deux champs, Status et Type, de la page d'état des groupes de ressources affiche des valeurs dans la première locale utilisée pour afficher cette page.
Solution : Pour afficher des valeurs dans une locale différente, redémarrez le serveur Web.
Récapitulatif du problème : Après l'encapsulation du disque root, si vous désencapsulez puis réencapsulez le disque root, vous observerez peut-être qu'un volume nommé uservol est utilisé pour le système de fichiers /global/devices/node@nodeID. Cela peut générer des problèmes, étant donné que le nom du volume de chaque système de fichiers global de chaque nœud doit être unique.
Solution : Après avoir suivi les étapes documentées pour l'annulation de l'encapsulation, arrêtez le démon vxconfigd avant d'exécuter à nouveau scvxinstall afin de réencapsuler le disque root.
Récapitulatif du problème : Lors de la connexion à Sun Web Console, si vous cliquez sur le bouton Connexion ou appuyez sur la touche Entrée de façon répétée, les multiples demandes de connexion peuvent entraîner diverses erreurs, empêchant ainsi l'accès au Gestionnaire SunPlex.
Solution : Attribuez-vous le rôle de superutilisateur sur le nœud de cluster et redémarrez Sun Web Console.
# /usr/sbin/smcwebserver restart |
Récapitulatif du problème : La propriété de ressource Resource_dependencies_restart ne se comporte pas comme prévu lorsqu'une ressource déclare une dépendance de redémarrage groupe-ressource any node sur une ressource évolutive. La plupart des services de données ne sont pas affectés.
Informations sur les dépendances groupe-ressource et celles de redémarrage :
Avec la fonction de dépendance groupe-ressource de Sun Cluster 3.1 9/04, Sun Cluster prend en charge des dépendances de ressources qi peuvent dépasser les limites des groupes de ressources. Sun Cluster prend également en charge un nouveau type de dépendance de ressource, à savoir la dépendance de redémarrage. Si la ressource dépendante est en ligne, la dépendance de redémarrage entraîne le redémarrage automatique de cette ressource lors du démarrage de la ressource dont elle dépend.
Informations sur les dépendances local node et any node :
Si la ressource r1 du groupe RG1 possède une dépendance à r2 dans RG2, que RG1 présente une affinité positive pour RG2, et que RG1 et RG2 démarrent ou s'arrêtent simultanément sur le même nœud, la dépendance de r1 à r2 est une dépendance local node. Par exemple, en cas de démarrage de RG1 et RG2 sur le même nœud, r1 patiente jusqu'au démarrage de r2 sur ce nœud avant de démarrer sur ce même nœud. L'état de r2 sur d'autres nœuds n'a aucun impact lors du démarrage de r1.
Toutefois, si RG1 ne déclare pas une affinité positive pour RG2, ou s'il existe une affinité positivité faible, mais que les groupes de ressources démarrent sur des nœuds différents, la dépendance de r1 à r2 est une dépendance any node. Cette dépendance signifie que r1 démarre dès que r2 a démarré sur un nœud, quel qu'il soit.
Description du problème :
Ce problème existe lorsqu'un groupe de ressources RG2 est un groupe de ressources en mode évolutif (c'est-à-dire multimaître) et la dépendance de r1 à r2 est une dépendance de redémarrage any node. r1 est redémarré à chaque démarrage d'une instance de r2. r1 doit être redémarré uniquement sur la première instance de r2 qui démarre.
Solution : Le comportement actuel des dépendances de redémarrage va changer conformément aux descriptions ci-dessus lorsque ce bogue aura été corrigé. Ne développez aucun code ni aucune procédure administrative qui dépende du comportement actuel incorrect.
Récapitulatif du problème : Si vous disposez d'un serveur Sun Enterprise 15000 et que vous exécutez la commande sccheck, la vérification échoue et renvoie une erreur qui indique que le serveur Sun Enterprise 15000 n'est pas pris en charge. Cette instruction est incorrecte.
Solution : Aucune solution n'est nécessaire. Sun Cluster prend en charge le serveur Sun Enterprise 15000. L'erreur renvoyée par l'exécution de la commande sccheck indique que la vérification est peut-être obsolète. Dans ce cas, sccheck est obsolète.
Récapitulatif du problème : Le français (fr) n'est pas disponible lors de la sélection de la langue pour les agents du service de données qui ne font pas partie de Sun Java Enterprise System. Cependant, le programme d'installation de l'interface graphique de ces packages indique le contraire.
Solution : Ne tenez pas compte de cette erreur du programme d'installation de l'interface graphique. Le français (fr) n'est pas disponible.
Récapitulatif du problème : Lors de la mise à niveau vers le logiciel Sun Cluster 3.1 9/04, la commande scinstall installe les nouveaux packages conteneur d'agents communs, SUNWcacao et SUNWcacaocfg, mais ne distribue pas des clés de sécurité identiques à tous les nœuds de cluster.
Solution : Effectuez les étapes suivantes pour vous assurer que les fichiers de sécurité du conteneur d'agents communs sont identiques sur tous les nœuds de cluster et que les fichiers copiés conservent les autorisations de fichier adéquates. Ces fichiers sont requis par Sun Cluster.
Sur un nœud de cluster, accédez au répertoire /etc/opt/SUNWcacao/.
phys-schost-1# cd /etc/opt/SUNWcacao/ |
Créez un fichier tar du répertoire /etc/opt/SUNWcacao/security/.
phys-schost-1# tar cf /tmp/SECURITY.tar security |
Copiez le fichier /tmp/SECURITY.tar vers chacun des autres nœuds de cluster.
Sur chaque nœud vers lequel le fichier /tmp/SECURITY.tar a été copié, procédez à l'extraction des fichiers de sécurité.
Tous les fichiers de sécurité qui existent déjà dans le répertoire /etc/opt/SUNWcacao/ sont remplacés.
phys-schost-2# cd /etc/opt/SUNWcacao/ phys-schost-2# tar xf /tmp/SECURITY.tar |
Supprimez le fichier /tmp/SECURITY.tar dans chaque nœud du cluster.
Vous devez supprimer chaque copie du fichier tar pour éviter tout problème de sécurité.
phys-schost-1# rm /tmp/SECURITY.tar phys-schost-2# rm /tmp/SECURITY.tar |
Sur chaque nœud, redémarrez l'agent du fichier de sécurité.
# /opt/SUNWcacao/bin/cacaoadm start |
Récapitulatif du problème : Le champ de la date du panneau de filtrage avancé de Gestionnaire SunPlex accepte uniquement le format mm/jj/aaaa. Toutefois, dans les environnements linguistiques non anglais, le format de date est différent de mm/dd/yyyy et le format de date renvoyé par le panneau Calendrier est différent de mm/dd/yyyy.
Solution : Saisissez la plage de dates dans le panneau de filtrage avancé en utilisant le format mm/jj/aaaa. N'utilisez pas le bouton Définir pour afficher le calendrier et choisir la date.
Récapitulatif du problème : Lorsque vous supprimez un groupe de ressources en utilisant Gestionnaire SunPlex avec Solaris 8, il se peut que vous ne puissiez pas lire les messages d'erreur reçus. Ce problème se produit pour le japonais, le coréen, le chinois traditionnel et le chinois simplifié.
Solution : Exécutez la locale du système en anglais pour afficher les messages d'erreur en anglais.
Récapitulatif du problème : Dans le fichier d'enregistrement du type de ressource SUNW.sapscs, les descriptions de deux propriétés d'extension sont incorrectes.
Solution : La description de Scs_Startup_Script doit être Startup script for the SCS. Defaults to /usr/sap/SAP_SID/SYS/exe/run/startsap. La description de Scs_Shutdown_Script doit être Shutdown script for the SCS. Defaults to /usr/sap/SAP_SID/SYS/exe/run/stopsap.
Récapitulatif du problème : Après avoir installé Sun Cluster à l'aide de la méthode JumpStart, Sun Web Console impossible de lancer Gestionnaire SunPlex. Le traitement après installation de JumpStart ne parvient pas à enregistrer correctement Gestionnaire SunPlex avec Sun Web Console.
Solution : Exécutez le script suivant sur chaque nœud de cluster une fois l'installation JumpStart de Sun Cluster terminée sur tous les nœuds.
# /var/sadm/pkg/SUNWscspmu/install/postinstall |
Ce script permet d'enregistrer Gestionnaire SunPlex avec Sun Web Console.
Récapitulatif du problème : Le programme d'installation résidant sur le CD-ROM des services de données Sun Cluster 3.1 9/04 pour x86 ne peut être utilisé pour installer HA Oracle. Le message suivant est émis par le programme d'installation :
Impossible de trouver l'archive fille ....
Solution : Utilisez scinstall pour installer Sun Cluster Data Service pour HA Oracle.
Récapitulatif du problème : Les services de données des applications suivantes ne peuvent pas être mis à niveau par le biais de l'utilitaire scinstall :
Apache Tomcat ;
DHCP ;
mySQL ;
Oracle E-Business Suite ;
Samba ;
SWIFTAlliance Access ;
Serveur WebLogic Server
WebSphere MQ ;
WebSphere MQ Integrator.
Solution : Si vous prévoyez de mettre à niveau un service de données d'une des applications répertoriées dans la liste précédente, remplacez l'étape de mise à niveau des services de données décrite dans la rubrique Mise à niveau vers Sun Cluster 3.1 9/04 (progressive) du Guide d’installation du logiciel Sun Cluster pour SE Solaris par la procédure ci-après. Répétez ces étapes pour chaque noeud où le service de données est installé.
Supprimez le package de logiciels du service de données que vous mettez à niveau.
# pkgrm package_installation |
package_installation spécifie le nom du package correspondant au service de données que vous mettez à niveau, tel qu'indiqué dans le tableau suivant.
Application |
Package du service de données |
---|---|
Apache Tomcat ; |
SUNWsctomcat |
DHCP ; |
SUNWscdhc |
mySQL ; |
SUNWscmys |
Oracle E-Business Suite ; |
SUNWscebs |
Samba ; |
SUNWscsmb |
SWIFTAlliance Access ; |
SUNWscsaa |
Serveur WebLogic (version anglaise) |
SUNWscwls |
Serveur WebLogic (version française) |
SUNWfscwls |
Serveur WebLogic (version japonaise) |
SUNWjscwls |
WebSphere MQ ; |
SUNWscmqs |
WebSphere MQ Integrator. |
SUNWscmqi |
Installez le package correspondant à la version de service de données vers laquelle vous mettez à niveau.
Pour installer le package, suivez les instructions figurant dans la documentation de Sun Cluster correspondant au service de données que vous mettez à niveau. Cette documentation est disponible à l'adresse suivante : http://docs.sun.com/.
Cette rubrique fournit des informations sur les patchs applicables aux configurations Sun Cluster.
vous devez être enregistré comme utilisateur SunSolveTM pour pouvoir afficher et télécharger les patchs nécessaires à Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant Sun ou enregistrez-vous en ligne à l'adresse http://sunsolve.sun.com .
PatchPro est un outil de gestion de patchs destiné à faciliter la sélection et le téléchargement des patchs nécessaires à l'installation ou à la maintenance du logiciel Sun Cluster. PatchPro fournit un outil spécifique à Sun Cluster d'installation simplifiée des patchs en mode interactif, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers patchs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des patchs développés, pas uniquement des patchs de sécurité et de haut niveau de disponibilité.
Pour accéder à l'outil PatchPro pour Sun Cluster, affichez la page http://www.sun.com/PatchPro/, cliquez sur “Sun Cluster,”, puis choisissez l'option Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre cluster et télécharger les patchs applicables.
Le site web SunSolveTM Online vous offre un accès permanent aux dernières mises à jour et versions des patchs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve en ligne à l'adresse http://sunsolve.sun.com pour consulter les grilles actualisées des versions de logiciels, microprogrammes et correctifs prises en charge.
Les pages SunSolve Info Docs fournissent des informations sur les patchs d'éditeurs tiers utilisés avec Sun Cluster 3.1 9/04. Cette page Info Doc apporte des informations sur les patchs d'éditeurs tiers destinés à des éléments matériels spécifiques que vous envisagez d'utiliser dans un environnement Sun Cluster 3.1. Pour afficher cette page, connectez-vous à SunSolve et accédez à la fonction de recherche simple (Simple Search) située en haut de la page principale. Dans la page de recherche simple (Simple Search), cliquez dans la zone Info Docs et tapez Sun Cluster 3.x Third-Party Patches dans la zone des critères de recherche.
Avant d'installer Sun Cluster 3.1 9/04 et d'appliquer des patchs à un composant de cluster (SE Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou lecteur de disque), lisez attentivement chacun des fichiers README accompagnant les patchs récupérés. Le même niveau de patchs doit être appliqué à tous les noeuds du cluster pour qu'il puisse fonctionner correctement.
Pour toute information sur des procédures de patchs spécifiques et des conseils sur l'administration des patchs, reportez-vous au Chapitre 8, Patchs pour logiciel et microprogramme Sun Cluster du Guide d’administration système de Sun Cluster pour SE Solaris.
La documentation Sun Cluster 3.1 9/04 est composée des collections présentées ci-dessous.
Notes de version de Sun Cluster 3.1 9/04 pour SE Solaris |
Collection relative au logiciel Sun Cluster 3.1 9/04 pour SE Solaris (édition pour plate-forme SPARC) |
Collection relative au logiciel Sun Cluster 3.1 9/04 pour SE Solaris (édition pour plate-forme x86) |
Collection de références Sun Cluster 3.1 9/04 pour SE Solaris |
Collection de matériel Sun Cluster 3.x pour SE Solaris (édition pour plate-forme SPARC) |
Collection de matériel Sun Cluster 3.x pour SE Solaris (édition pour plate-forme x86) |
La documentation utilisateur de Sun Cluster 3.1 9/04 est disponible au format PDF et HTML sur les versions SPARC et x86 du Sun Cluster 3.1 9/04 CD-ROM. Pour de plus amples informations, reportez-vous au fichier Solaris_arch/Product/sun_cluster/index.html sur la version SPARC ou x86 du Sun Cluster 3.1 9/04 CD-ROM, où arch correspond à sparc ou x86. Ce fichier vous permet de lire les manuels PDF et HTML directement à partir du CD-ROM et d'accéder aux instructions concernant l'installation des packages de documentation.
vous devez installer le package SUNWsdocs avant d'installer tout package Sun Cluster. Pour ce faire, vous pouvez utiliser la commande pkgadd. Le package SUNWsdocs est situé dans le répertoire Solaris_arch/Product/sun_cluster/Solaris_ ver/Packages/ du Sun Cluster 3.1 9/04 CD-ROM, où arch correspond à sparc ou x86, et ver correspond à 8 pour Solaris 8 ou à 9 pour Solaris 9. Le package SUNWsdocs s'installe automatiquement lorsque vous exécutez le programme installer à partir du CD de documentation de Solaris 9.
En outre, le site Web docs.sun.comSM vous permet d'accéder à la documentation de Sun Cluster sur Internet. Vous pouvez le parcourir ou y rechercher un titre de manuel ou un sujet particulier.
Manuels relatifs au logiciel
Manuels relatifs aux services de données individuels
Référence |
Titre du manuel |
---|---|
819–0163 |
Guide des notions fondamentales de Sun Cluster pour SE Solaris |
819–0156 | |
819–0170 |
Guide d’installation du logiciel Sun Cluster pour SE Solaris |
819–0177 |
Guide d’administration système de Sun Cluster pour SE Solaris |
819–0184 |
Guide des développeurs pour les services de données Sun Cluster pour SE Solaris |
817–6558 | |
817–6593 | |
817–6564 |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
819–0149 |
Instructions spéciales relatives à la version indépendante de Sun Cluster 3.1 9/04 pour Solaris |
Tableau 3 Collection relative au logiciel Sun Cluster 3.1 9/04 pour SE Solaris (édition pour plate-forme SPARC) Manuels relatifs aux services de données individuels
Les manuels ci-dessous ne sont pas inclus sur le CD-ROM de Sun Cluster 3.1 9/04. Ces manuels sont disponibles uniquement dans la collection des logiciels Sun Cluster 3.1 9/04 pour le système d'exploitation Solaris (édition pour la plate-forme SPARC) sur le site Web docs.sun.com à l'adresse http://docs.sun.com :
Sun Cluster Data Service for Agfa IMPAX Guide for Solaris OS
Sun Cluster Data Service for SWIFTAlliance Gateway Guide for Solaris OS
Sun Cluster Data Service for N1 Grid Engine Guide for Solaris OS
Manuels relatifs au logiciel
Manuels relatifs aux services de données individuels
Référence |
Titre du manuel |
---|---|
819–0163 |
Guide des notions fondamentales de Sun Cluster pour SE Solaris |
819–0156 | |
819–0170 |
Guide d’installation du logiciel Sun Cluster pour SE Solaris |
819–0177 |
Guide d’administration système de Sun Cluster pour SE Solaris |
819–0184 |
Guide des développeurs pour les services de données Sun Cluster pour SE Solaris |
817–6558 | |
817–6593 | |
817–6564 |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
819–0149 |
Instructions spéciales relatives à la version indépendante de Sun Cluster 3.1 9/04 pour Solaris |
Tableau 5 Collection relative au logiciel Sun Cluster 3.1 9/04 pour Solaris (édition pour plate-forme x86) : Manuels relatifs aux services de données individuels
Référence |
Titre du manuel |
---|---|
817–0168 |
Sun Cluster 3.x Hardware Administration Manual for Solaris OS |
817–0180 |
Sun Cluster 3.x With Sun StorEdge 3310 SCSI RAID Array Manual for Solaris OS |
La prise en charge par la version française des services de données non Java Enterprise System a été supprimée.
Avec la commande cdrom.sc_agents_sparc/installer, tous les agents de service de données sont disponibles en sept langues, mais les agents non Java Enterprise System prennent en charge uniquement le japonais et le chinois simplifié. cdrom.sc_agents_sparc/components/ data-service/installer fournit la sélection de langues appropriée.
Restrictions relatives à la sélection de langues dans Gestionnaire SunPlex:
Si vous souhaitez afficher Gestionnaire SunPlex en chinois simplifié, sélectionnez zh-cn, au lieu de zh dans le navigateur. Sinon, Gestionnaire SunPlex s'affichera en anglais.
Si vous souhaitez afficher Gestionnaire SunPlex en chinois traditionnel, choisissez zh-tw dans le navigateur. Si vous choisissez zh-hk, Gestionnaire SunPlex est affiché en anglais.
Cette rubrique détaille les erreurs connues et les omissions de la documentation, de l'aide en ligne et des pages de manuel, et indique la marche à suivre pour y remédier.
toutes les occurrences de “Sun One” dans les noms et descriptions des services de données des applications Sun Java Enterprise System doivent être comprises comme désignant “Sun Java System.” Exemple : un “service de données Sun Cluster pour Sun One Application Server” désigne un “service de données Sun Cluster pour Sun Java System Application Server.”.
Cette section présente les erreurs et omissions du manuel Guide d’installation du logiciel Sun Cluster pour SE Solaris.
Dans le manuel Sun Cluster Software Installation Guide for Solaris OS, la procédure Procédure d’installation des packages de Sun Cluster du Guide d’installation du logiciel Sun Cluster pour SE Solaris indique que le programme d'installation se trouve sur le CD-ROM de base, ce qui est incorrect. D'après cette procédure, le programme d'installation réside au niveau du répertoire du point de montage du CD-ROM. En fait, il est situé dans le répertoire Solaris_sparc/Product/sun_cluster/ du CD-ROM SPARC et dans le répertoire Solaris_x86/Product/sun_cluster/ du CD-ROM x86.
La procédure Procédure d’installation du logiciel Cluster Control Panel sur une console administrative du Guide d’installation du logiciel Sun Cluster pour SE Solaris contient les étapes superflues suivantes et une inexactitude :
Il n'est pas nécessaire d'utiliser la commande pkgadd pour installer le package du panneau de commande Cluster SUNWccon ou les packages de la documentation. Vous pouvez sélectionner ces packages dans la liste fournie par le programme installer . Ignorez les étapes 12 et 14 de la procédure.
Il n'est pas nécessaire d'utiliser la commande pkgadd pour installer le package SUNWscman des pages man. Le programme installer ne propose pas ce package dans la liste des packages disponibles pour l'installation. Ignorez l'étape 9 de cette procédure.
Dans la section Réseaux publics du Guide d’installation du logiciel Sun Cluster pour SE Solaris, il est indiqué que “le logiciel Sun Cluster prend en charge les adresses IPv4 et IPv6 sur le réseau public dans le cadre des services de données évolutifs ou de basculement.” Cette affirmation est erronée dans le cadre de l'utilisation du logiciel Sun Cluster pour Solaris 8. Celui-ci prend en charge l'exécution d'un service de données de basculement sur une adresse IPv6, mais pas celle d'un service de données évolutif sur une adresse IPv6. Le logiciel Sun Cluster pour Solaris 8 continue néanmoins de prendre en charge les adresses IPv4 à la fois pour les services de données de basculement et pour les services évolutifs.
La procédure Fin d’une procédure de mise à niveau non progressive vers le logiciel Sun Cluster 3.1 9/04 du Guide d’installation du logiciel Sun Cluster pour SE Solaris vous indique à tort que vous devez modifier le fichier /opt/SUNWsclc/livecache/bin/lccluster si vous avez effectué la mise à niveau du service de données Sun Cluster HA pour SAP liveCache de la version 3.0 à la version 3.1 de Sun Cluster. Contrairement à ce qui est indiqué dans cette procédure, vous ne devez pas modifier ce fichier. Ce fichier est simplement un modèle installé avec le service de données et ne doit pas être modifié à cet emplacement. Suivez plutôt la procédure ci-dessous :
Une fois la mise à niveau vers la version Sun Cluster 3.1 de Sun Cluster HA pour SAP liveCache effectuée, accédez au nœud qui hébergera la ressource liveCache.
Copiez le nouveau fichier /opt/SUNWsclc/livecache/bin/lccluster dans le répertoire /sapdb/NOM_LC/db/sap/, écrasez le fichier lccluster datant de la précédente configuration du service de données.
Configurez ce fichier /sapdb/LC_NAME/db/sap/lccluster comme indiqué dans l'étape 3 de la section How to Register and Configure Sun Cluster HA for SAP liveCache du Sun Cluster Data Service for SAP liveCache Guide for Solaris OS.
Cette rubrique décrit les erreurs et omissions contenues dans l'aide en ligne de SunPlex Manager.
Dans le fichier d'aide en ligne intitulé « Sun Cluster HA pour Oracle », une remarque figurant dans la rubrique « Avant de commencer » est incorrecte.
Incorrect :
S'il n'existe aucune entrée pour shmsys et semsys dans /etc/system, des valeurs par défaut sont automatiquement insérées dans /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs sont appropriées pour votre base de données.
Correct :
S'il n'existe aucune entrée pour les variables shmsys et semsys dans le fichier /etc/system lors de l'installation du service de données Oracle, vous pouvez ouvrir /etc/system et y insérer leurs valeurs par défaut. Vous devez ensuite réinitialiser le système. Consultez la documentation d'installation d'Oracle pour vérifier que les valeurs insérées sont appropriées à votre base de données.
Cette rubrique présente les erreurs et omissions du document Guide des notions fondamentales de Sun Cluster pour SE Solaris.
Au chapitre 3, la section “Utilisation de l'interconnexion de cluster pour le trafic des services de données“ devrait contenir les informations suivantes :
Un cluster doit avoir de multiples connexions réseau entre les noeuds pour former une interconnexion de cluster. Le logiciel de clustering fait appel à de nombreuses interconnexions pour optimiser la disponibilité et les performances. Pour le trafic interne et externe (par exemple, les données du système de fichiers ou les données des services évolutifs), les messages sont entrelacés sur toutes les interconnexions disponibles.
L'interconnexion de cluster est également mise à la disposition des applications pour garantir une communication hautement disponible entre les noeuds. Par exemple, une application répartie peut avoir des composants exécutés sur différents noeuds et ayant besoin de communiquer entre eux. En utilisant l'interconnexion de cluster plutôt que le transport public, ces connexions peuvent résister à l'échec d'un lien individuel.
Pour utiliser l'interconnexion de cluster dans le cadre des communications, l'application doit adopter les noms d'hôtes privés configurés à l'installation du cluster. Par exemple, si le nom d'hôte privé du nœud 1 est clusternode1-priv, utilisez ce nom pour communiquer sur l'interconnexion de cluster vers le nœud 1. Les sockets TCP ouverts avec ce nom sont routés sur l'interconnexion de cluster et peuvent être reroutés de manière transparente en cas de panne réseau. La communication d'applications entre deux noeuds est entrelacée sur toutes les interconnexions. Le trafic pour une connexion TCP donnée passe sur une interconnexion à n'importe quel point. Différentes connexions TCP sont entrelacées sur toutes les interconnexions. En outre, le trafic UDP est toujours entrelacé sur toutes les interconnexions.
Veuillez noter que comme les noms d'hôte privés peuvent être configurés durant l'installation, l'interconnexion de cluster peut utiliser n'importe quel nom choisi à ce moment-là. Le nom réel peut être obtenu à partir de scha_cluster_get(3HA) à l'aide de l'argument scha_privatelink_hostname_node .
Les instructions de mise à niveau de Sun Cluster HA pour DHCP ne figurent pas dans le manuel Sun Cluster Data Service for DHCP Guide for Solaris OS.
Du fait de la résolution de bogues, la configuration de clusters IPMP a été modifiée. Si vous exécutez Sun Cluster HA pour DHCP sur un cluster IPMP, vous devez désactiver, supprimer et réenregistrer la ressource DHCP.
Enregistrez les définitions de ressource DHCP Sun Cluster.
# scrgadm -pvv -j resource > file1 |
Désactivez la ressource DHCP Sun Cluster.
# scswitch -n -j ressource |
Supprimez la ressource DHCP Sun Cluster.
# scrgadm -r -j ressource |
Configurez et enregistrez la ressource DHCP Sun Cluster.
Enregistrez les définitions de ressource DHCP Sun Cluster.
# scrgadm -pvv -j resource > file2 |
Comparez les définitions mises à jour à celles enregistrées avant la mise à jour de la ressource.
Cette comparaison vous permet de déterminer si des propriétés d'extension ont été modifiées, par exemple les valeurs de délais.
# diff fichier1 fichier2 |
Modifiez les propriétés de ressource réinitialisées.
# scrgadm -c -j resource -x|y resource |
Connectez la ressource DHCP Sun Cluster.
# scswitch -e -j ressource |
Les instructions de mise à niveau de Sun Cluster HA pour Oracle E-Business Suite ont été omises dans le manuel Sun Cluster Data Service for Oracle E-Business Suite Guide for Solaris OS.
La prise en charge d'Oracle E-Business Suite v11.5.9 a été introduite dans la version Sun Cluster 3.1 9/04. Oracle E-Business Suite v11.5.9 introduit le nom d'hôte au sein de certains noms de chemin. Si vous effectuez une mise à niveau vers Oracle E-Business Suite v11.5.9, vous devez mettre à niveau le logiciel Sun Cluster HA pour Oracle E-Business Suite de sorte qu'il puisse être utilisé avec cette nouvelle version d'Oracle E-Business Suite.
La mise à niveau de Sun Cluster HA pour Oracle E-Business Suite requiert l'exécution des tâches suivantes :
suppression et réenregistrement des ressources des composants de serveur Oracle E-Business Suite suivants :
Concurrent Manager Server
Forms Server
Reports Server
suppression et réenregistrement des ressources des composants du module d'écoute Oracle E-Business Suite suivants :
Oracle Listener
module d'écoute Concurrent Manager
connexion des ressources de Sun Cluster Oracle E-Business Suite.
Effectuez cette opération pour chacune des ressources de serveur que vous souhaitez supprimer et réenregistrer, à savoir :
la ressource Concurrent Manager Server ;
la ressource Forms Server ;
la ressource Reports Server.
Enregistrez la définition de la ressource de serveur Oracle E-Business Suite.
# scrgadm -pvv -j resource > file1 |
Désactivez la ressource de serveur Oracle E-Business Suite.
# scswitch -n -j ressource |
Supprimez la ressource de serveur Oracle E-Business Suite.
# scrgadm -r -j ressource |
Configurez et enregistrez la ressource de serveur Oracle E-Business Suite.
Accédez au répertoire contenant les fichiers de configuration et d'enregistrement de la ressource.
# cd /opt/SUNWscebs/préfixeutil |
Modifiez le fichier de configuration de la ressource.
vi préfixe_config |
Exécutez le fichier d'enregistrement de la ressource.
# ./préfixe_register |
La valeur préfixe désigne le serveur auquel s'applique le fichier. Les valeurs possibles sont les suivantes :
cmg désigne le composant Concurrent Manager Server.
frm désigne le composant Forms Server.
rep désigne le composant Reports Server .
Comparez les définitions mises à jour à celles enregistrées avant la mise à jour de la ressource.
Cette comparaison vous permet de déterminer si des propriétés d'extension ont été modifiées, par exemple les valeurs de délais.
# scrgadm -pvv -j resource > file2 # diff file1 file2 |
Modifiez les propriétés de ressource réinitialisées.
# scrgadm -c -j <resource>-x | y <resource> |
Cette procédure permet de supprimer et de réenregistrer les ressources de module d'écoute, à savoir :
la ressource Oracle Listener ;
la ressource de module d'écoute Concurrent Manager.
ces ressources sont des instances du type de ressource SUNW.oracle_listener. Pour de plus amples informations sur ce type de ressource, reportez-vous au manuel Sun Cluster Data Service for Oracle Guide for Solaris OS.
Désactivez et supprimez les ressources de module d'écoute Sun Cluster Oracle E-Business Suite.
# scswitch -n -j ressource # scrgadm -r -j ressource |
Créez une ressource pour le module Oracle Listener E-Business Suite.
Dans l'exemple suivant, le script copy_env est utilisé pour copier le fichier PROD.env vers PROD_ha.env, et pour formater le fichier PROD_ha.env. Le fichier PROD_ha.env est défini pour la propriété d'extension User_env de la ressource Oracle Listener.
# grep PROD.DBS_ORA816= /var/tmp/config.txt PROD.DBS_ORA816=/global/mnt10/d02/oracle/proddb/8.1.7 # # cd /opt/SUNWscebs/cmg/util # # ./copy_env /global/mnt10/d02/oracle/proddb/8.1.7 PROD # # scrgadm -a -j Oracle-E-Business-Suite-ORALSR-resource \ -t SUNW.oracle_listener \ -g Oracle-E-Business-Suite-failover-resource-group\ -x Listener_name=PROD\ -x ORACLE_HOME=/global/mnt10/d02/oracle/proddb/8.1.7 \ -x User_env=/global/mnt10/d02/oracle/proddb/8.1.7/PROD_ha.env # # scswitch -e -j Oracle-E-Business-Suite-ORALSR-resource |
Créez une ressource pour le module d'écoute Concurrent Manager Oracle E-Business Suite.
Dans l'exemple suivant, le script copy_env est utilisé pour copier le fichier PROD.env vers PROD_ha.env et pour formater le fichier PROD_ha.env. Le fichier PROD_ha.env est spécifié pour la propriété extension User_env de la ressource de module d'écoute Concurrent Manager.
# grep PROD.CON_ORA806= /var/tmp/config.txt PROD.CON_ORA806=/global/mnt10/d01/oracle/prodora/8.0.6 # # cd /opt/SUNWscebs/cmg/util # # ./copy_env /global/mnt10/d01/oracle/prodora/8.0.6 PROD # # scrgadm -a -j Oracle-E-Business-Suite-CMGLSR-resource \ -t SUNW.oracle_listener \ -x Listener_name=APPS_PROD\ -x ORACLE_HOME=/global/mnt10/d01/oracle/prodora/8.0.6 \ -x User_env=/global/mnt10/d01/oracle/prodora/8.0.6/PROD_ha.env # # scswitch -e -j Oracle-E-Business-Suite-CMGLSR-resource |
Pour chacune des ressources à mettre en ligne, entrez la commande ci-dessous :
# scswitch -e -j <resource> |
Les instructions de mise à niveau de Sun Cluster HA pour Samba ont été omises dans le manuel Sun Cluster Data Service for Samba Guide for Solaris OS.
Du fait de la résolution de bogues, la configuration de Sun Cluster HA pour Samba a été modifiée. Si vous exécutez Sun Cluster HA pour Samba, vous devez supprimer et réenregistrer les ressources des composants Sun Cluster HA pour Samba ci-dessous :
composant Samba ;
composant Winbind.
Effectuez cette opération pour chacune des ressources Samba que vous souhaitez supprimer et réenregistrer.
Enregistrez les définitions de ressource.
# scrgadm -pvv -j resource > file1 |
Désactivez la ressource.
# scswitch -n -j ressource |
Supprimez la ressource.
# scrgadm -r -j ressource |
Configurez et enregistrez la ressource.
Accédez au répertoire contenant les fichiers de configuration et d'enregistrement de la ressource.
# cd /opt/SUNWscsmb/préfixeutil |
Modifiez le fichier de configuration de la ressource.
vi préfixe_config |
Exécutez le fichier d'enregistrement de la ressource.
# ./préfixe_register |
La valeur préfixe désigne le composant auquel s'applique le fichier. Les valeurs possibles sont les suivantes :
samba désigne le composant Samba.
winbind désigne le composant Winbind.
Enregistrez les définitions de ressource.
# scrgadm -pvv -j resource > file2 |
Comparez les définitions mises à jour à celles enregistrées avant la mise à jour de la ressource.
Cette comparaison vous permet de déterminer si des propriétés d'extension ont été modifiées, par exemple les valeurs de délais.
# diff fichier1 fichier2 |
Modifiez les propriétés de ressource réinitialisées.
# scrgadm -c -j resource -x|y resource |
Connectez la ressource.
# scswitch -e -j ressource |
Les instructions de mise à niveau de Sun Cluster HA pour WebSphere MQ ont été omises dans le manuel Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS.
De nouveaux paramètres de configuration de Sun Cluster HA pour WebSphere MQ ont été introduits dans Sun Cluster 3.1 9/04 et sont présentés dans les rubriques ci-dessous. Si vous souhaitez modifier la valeur par défaut d'un paramètre ou définir la valeur d'un paramètre ne disposant pas de valeur par défaut, vous devez mettre à niveau Sun Cluster HA pour WebSphere MQ.
Les paramètres de configuration de l'utilisateur MQ ci-dessous ont été introduits dans Sun Cluster 3.1 9/04. Ces paramètres sont définis avec leurs valeurs par défaut.
Indique que les segments inutilisés de mémoire partagée créés par mqm doivent être supprimés.
Indique que l'ID utilisateur mqm est utilisé pour émettre des commandes mq.
Le processus XAResourceManager permet à l'outil WebSphere MQ de gérer les unités globales de travail avec n'importe quelle combinaison des bases de données ci-dessous :
DB2
Oracle
Sybase
Les paramètres ci-après de configuration du processus XAResourceManager ont été introduits dans Sun Cluster 3.1 9/04. Ces paramètres sont définis avec des valeurs Null.
Indique le nom de l'instance DB2 du processus XAResourceManager.
Indique le répertoire personnel Oracle pour XAResourceManager .
Indique le SID Oracle du processus XaResourceManager.
Vous pouvez déployer les fichiers qmgr du gestionnaire de file d'attente WebSphere MQ et les consigner sur un système de fichiers global. Dans ce cas, renommez les programmes strmqm et endmqm pour empêcher le démarrage manuel du gestionnaire de file d'attente sur un autre nœud. et de permettre à l'infrastructure Sun Cluster de gérer le démarrage du gestionnaire. Pour de plus amples informations, reportez-vous au manuel Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS.
Les paramètres ci-après, permettant à Sun Cluster de gérer le démarrage du gestionnaire de file d'attente WebSphere MQ sont introduits dans Sun Cluster 3.1 9/04. Ces paramètres sont définis avec des valeurs Null.
Indique le chemin et le nom de fichier complets du programme strmqm renommé.
Indique le chemin et le nom de fichier complets du programme endmqm renommé.
Si vous souhaitez modifier la valeur par défaut d'un paramètre ou définir la valeur d'un paramètre ne disposant pas de valeur par défaut, vous devez supprimer et réenregistrer la ressource Sun Cluster HA pour WebSphere MQ dont vous modifiez le paramètre.
Seul le paramètre USERID=mqm s'applique aux ressources de tous les composants, à savoir :
le composant Queue Manager ;
le composant Channel Initiator ;
le composant Command Server ;
le composant Listener ;
le composant Trigger Monitor.
Les autres paramètres introduits dans Sun Cluster 3.1 9/04 s'appliquent uniquement à la ressource du composant Queue Manager.
Répétez cette procédure pour chacune des ressources WebSphere MQ modifiée.
Suivez cette procédure uniquement si vous définissez ou modifiez les paramètres introduits dans Sun Cluster 3.1 9/04.
Enregistrez les définitions de ressource.
# scrgadm -pvv -j resource > file1 |
Désactivez la ressource.
# scswitch -n -j ressource |
Supprimez la ressource.
# scrgadm -r -j ressource |
Configurez et enregistrez la ressource.
Accédez au répertoire contenant les fichiers de configuration et d'enregistrement de la ressource.
# cd /opt/SUNWscmqs/préfixeutil |
Modifiez le fichier de configuration de la ressource.
vi préfixe_config |
Exécutez le fichier d'enregistrement de la ressource.
# ./préfixe_register |
La valeur préfixe désigne le composant auquel s'applique le fichier. Les valeurs possibles sont les suivantes :
mgr désigne le composant Queue Manager.
chi désigne le composant Channel Initiator.
csv désigne le composant Command Server.
lsr désigne le composant Listener.
trm désigne le composant Trigger Monitor.
Seul le fichier mgr_config contient tous les paramètres introduits dans Sun Cluster 3.1 9/04. Les fichiers restants contiennent uniquement le paramètre USERID=mqm.
Enregistrez les définitions de ressource.
# scrgadm -pvv -j resource > file2 |
Comparez les définitions mises à jour à celles enregistrées avant la mise à jour de la ressource.
Cette comparaison vous permet de déterminer si des propriétés d'extension ont été modifiées, par exemple les valeurs de délais.
# diff fichier1 fichier2 |
Modifiez les propriétés de ressource réinitialisées.
# scrgadm -c -j resource -x|y resource |
Connectez la ressource.
# scswitch -e -j ressource |
Les instructions de mise à niveau de Sun Cluster HA pour l'intégrateur WebSphere MQ ont été omises dans le manuel Sun Cluster Data Service for WebSphere MQ Integrator Guide for Solaris OS.
De nouveaux paramètres de configuration de Sun Cluster HA pour l'intégrateur WebSphere MQ ont été introduits dans Sun Cluster 3.1 9/04. Si vous souhaitez définir la valeur d'un paramètre, vous devez mettre à niveau Sun Cluster HA pour l'intégrateur WebSphere MQ.
Vous pouvez déployer les fichiers qmgr du gestionnaire de file d'attente WebSphere MQ et les consigner sur un système de fichiers global. Dans ce cas, renommez les programmes strmqm et endmqm pour empêcher le démarrage manuel du gestionnaire de file d'attente sur un autre nœud. et de permettre à l'infrastructure Sun Cluster de gérer le démarrage du gestionnaire. Pour de plus amples informations, reportez-vous au manuel Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS.
Les paramètres ci-après, permettant à Sun Cluster de gérer le démarrage du gestionnaire de file d'attente WebSphere MQ sont introduits dans Sun Cluster 3.1 9/04. Ces paramètres sont définis avec des valeurs Null.
Indique le chemin et le nom de fichier complets du programme strmqm renommé.
Indique le chemin et le nom de fichier complets du programme endmqm renommé.
Si vous souhaitez définir la valeur d'un paramètre, vous devez supprimer et réenregistrer la ressource Sun Cluster HA pour l'intégrateur WebSphere MQ pour laquelle vous définissez le paramètre.
Les paramètres introduits dans Sun Cluster 3.1 9/04 s'appliquent aux ressources de tous les composants, à savoir :
le composant Broker ;
le composant User Name Server.
Répétez cette procédure pour chacune des ressources WebSphere MQ Integrator modifiée.
Suivez cette procédure uniquement si vous définissez ou modifiez les paramètres introduits dans Sun Cluster 3.1 9/04.
Enregistrez les définitions de ressource.
# scrgadm -pvv -j resource > file1 |
Désactivez la ressource.
# scswitch -n -j ressource |
Supprimez la ressource.
# scrgadm -r -j ressource |
Configurez et enregistrez la ressource.
Accédez au répertoire contenant les fichiers de configuration et d'enregistrement de la ressource.
# cd /opt/SUNWscmqi/préfixeutil |
Modifiez le fichier de configuration de la ressource.
vi préfixe_config |
Exécutez le fichier d'enregistrement de la ressource.
# ./préfixe_register |
La valeur préfixe désigne le composant auquel s'applique le fichier. Les valeurs possibles sont les suivantes :
sib désigne le composant Broker.
siu désigne le composant User Name Server.
Enregistrez les définitions de ressource.
# scrgadm -pvv -j resource > file2 |
Comparez les définitions mises à jour à celles enregistrées avant la mise à jour de la ressource.
Cette comparaison vous permet de déterminer si des propriétés d'extension ont été modifiées, par exemple les valeurs de délais.
# diff fichier1 fichier2 |
Modifiez les propriétés de ressource réinitialisées.
# scrgadm -c -j resource -x|y resource |
Connectez la ressource.
# scswitch -e -j ressource |
Cette rubrique décrit les erreurs et omissions contenues dans les pages de manuel de Sun Cluster.
Pour afficher les pages de manuel relatives aux services de données Sun Cluster 3.0, installez les derniers patchs appliqués au logiciel Sun Cluster 3.1 9/04 pour ces services de données. Pour obtenir plus d'informations, voir la rubrique Patchs et niveaux de microprogrammes requis.
Après avoir appliqué le patch, accédez aux pages d'aide en ligne des services de données Sun Cluster 3.0 en exécutant la commande man -M avec le chemin d'accès entier à la page de manuel comme argument. L'exemple suivant permet d'ouvrir la page de manuel relative à Apache.
% man -M /opt/SUNWscapc/man SUNW.apache |
Vous pouvez modifier votre MANPATH afin d'activer l'accès aux pages de manuel des services de données Sun Cluster 3.0 sans spécifier le chemin complet. L'exemple suivant décrit l'entrée de commande permettant d'ajouter le chemin d'accès de la page man Apache à votre MANPATH et d'afficher cette page.
% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH % man SUNW.apache |
La rubrique « See Also » de cette page de manuel comporte une erreur. Elle devrait renvoyer non pas au manuel Sun Cluster 3.1 Data Services Installation and Configuration Guide, mais au manuel Sun Cluster Data Service for WebLogic Server Guide for Solaris OS.