Ce document fournit les informations suivantes concernant le logiciel de services de données SunTM Cluster 3.1 10/03 :
Nouveautés concernant les services de données Sun Cluster 3.1 10/03
Localisation du logiciel de services de données Sun Cluster 3.1 10/03
Documentation relative aux services de données Sun Cluster 3.1 10/03
Cette rubrique décrit les nouvelles fonctions et fonctionnalités. Contactez votre représentant commercial Sun pour obtenir une liste complète du matériel et des logiciels pris en charge.
Le détecteur de pannes du serveur Sun Cluster HA for Oracle a été optimisé afin de vous permettre de le personnaliser de la manière suivante :
en ignorant une action pré-définie pour une erreur ;
en spécifiant une action non encore prédéfinie pour une erreur.
Pour de plus amples informations, reportez-vous au document Sun Cluster 3.1 Data Service for Oracle Guide.
Le service de données Prise en charge Sun Cluster des clusters Oracle Parallel Server/Real Application a été optimisé afin de pouvoir être géré avec les commandes Sun Cluster.
Pour de plus amples informations, reportez-vous au document Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide.
Les types de ressources suivants ont été améliorés dans les services de données Sun Cluster 3.1 10/03 :
SUNW.oracle_server (reportez-vous au document Sun Cluster 3.1 Data Service for Oracle Guide) ;
SUNW.apache (reportez-vous au document Sun Cluster 3.1 Data Service for Apache Guide) ;
SUNW.iws (reportez-vous au document Guide des services de données Sun Cluster 3.1 pour Sun ONE Web Server).
Pour des informations d'ordre général concernant la mise à niveau d'un type de ressource, reportez-vous à la rubrique “ Upgrading a Resource Type” in Sun Cluster 3.1 Data Service Planning and Administration Guide
Les services de données Sun Cluster 3.1 10/03 prennent en charge les services de données suivants :
Sun Cluster HA pour Apache Tomcat : ce service de données permet le démarrage et l'arrêt ordonnés, la détection de pannes et le basculement automatique du service Apache Tomcat. Apache Tomcat fonctionne comme un moteur servlet derrière un serveur Web Apache ou peut être configuré comme un serveur Web autonome incluant le moteur servlet.
Sun Cluster HA pour MySQL : ce service de données permet le démarrage et l'arrêt ordonnés, la détection de pannes et le basculement automatique du service MySQL. Le logiciel MySQL intègre un serveur de base de données SQL (Structured Query Language) à multifile, multiutilisateur, rapide et robuste. Il est destiné à être utilisé avec des systèmes essentiels et à forte charge et à être imbriqué dans des logiciels de déploiement massif.
Sun Cluster HA pour Oracle E-Business Suite : ce service de données permet le démarrage et l'arrêt ordonnés, la détection de pannes et le basculement automatique du service Oracle E-Business Suite. Oracle E-Business Suite est un ensemble d'applications permettant au client de gérer efficacement son activité à l'aide d'une architecture ouverte homogène. Cette architecture est une structure distribuée et multiniveau prenant en charge les produits Oracle.
Sun Cluster HA pour SWIFTAlliance Access : ce service de données permet le démarrage et l'arrêt ordonnés, la détection de pannes et le basculement automatique du service SWIFTAlliance Access.
Cette rubrique décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.1.
Environnement d'exploitation et patchs : les versions Solaris et patchs pris en charge sont disponibles à l'adresse suivante :
Pour de plus amples détails, reportez-vous à la rubrique Patchs et niveaux de microprogrammes requis.
Gestionnaires de volumes
Pour Solaris 8 : Solstice DiskSuiteTM 4.2.1 et VERITAS Volume Manager 3.2 et 3.5.
Pour Solaris 9 : Solaris Volume Manager et VERITAS Volume Manager 3.5.
si vous effectuez une mise à niveau à partir de VERITAS Volume Manager (VxVM) 3.2 à 3.5, la fonction Cluster Volume Manager (CVM) n'est pas disponible tant que vous n'avez pas installé la clé de licence CVM pour la version 3.5. Dans VxVM 3.5, la clé de licence CVM de la version 3.2 n'active pas CVM et doit être mise à niveau avec la clé de licence CVM de la version 3.5.
Systèmes de fichiers
Pour Solaris 8 : Solaris UFS et Système de fichiers VERITAS 3.4 et 3.5.
Pour Solaris 9 : Solaris UFS et Système de fichiers VERITAS 3.5.
Services de données (agents) : contactez votre représentant commercial Sun pour obtenir une liste complète des services de données et des versions d'applications pris en charge. Spécifiez les noms des types de ressources lorsque vous installez les services de données à l'aide de l'utilitaire scinstall(1M). Ces noms doivent aussi être spécifiés lorsque vous enregistrez les types de ressources associés au service de données à l'aide de l'utilitaire scsetup(1M).
les procédures relatives à la version de Sun Cluster HA pour Sun ONE Directory Server utilisant iPlanet Directory Server 5.0 et 5.1 (plus Netscape HTTP, versions 4.11, 4.12, 4.13 et 4.16) se trouvent dans le document Sun Cluster 3.1 Data Service for Sun ONE Directory Server. Pour accéder aux dernières versions d'iPlanet Directory Server (aujourd'hui appelé Sun ONE Directory Server), reportez-vous à la documentation de ce dernier.
Service de données |
Type de ressource Sun Cluster |
---|---|
Sun Cluster HA pour Apache |
SUNW.apache |
Sun Cluster HA pour Apache Tomcat |
SUNW.sctomcat |
Sun Cluster HA pour BroadVision One-To-One Enterprise |
SUNW.bv |
Sun Cluster HA pour DHCP |
SUNW.gds |
Sun Cluster HA pour DNS |
SUNW.dns |
Sun Cluster HA pour MySQL |
SUNW.scmys |
Sun Cluster HA pour NetBackup |
SUNW.netbackup_master |
Sun Cluster HA pour NFS |
SUNW.nfs |
Sun Cluster HA pour Oracle E-Business Suite |
SUNW.scebs |
Sun Cluster HA pour Oracle |
SUNW.oracle_server SUNW.oracle_listener |
Prise en charge Sun Cluster des clusters Oracle Parallel Server/Real Application |
SUNW.rac_framework SUNW.rac_udlm SUNW.rac_cvm SUNW.rac_hwraid |
Sun Cluster HA pour SAP |
SUNW.sap_ci SUNW.sap_ci_v2 SUNW.sap_as SUNW.sap_as_v2 |
Sun Cluster HA pour SAP liveCache |
SUNW.sap_livecache SUNW.sap_xserver |
Sun Cluster HA pour SWIFTAlliance Access |
SUNW.scsaa |
Sun Cluster HA pour Samba |
SUNW.gds |
Sun Cluster HA pour Siebel |
SUNW.sblgtwy SUNW.sblsrvr |
Sun Cluster HA pour Sun ONE Application Server |
SUNW.s1as |
Sun Cluster HA pour Sun ONE Directory Server (ce service de données était auparavant appelé Sun Cluster HA pour iPlanet Directory Server) |
SUNW.nsldap |
Sun Cluster HA pour Sun ONE Message Queue |
SUNW.s1mq |
Sun Cluster HA pour Sun ONE Web Server (ce service de données était auparavant appelé Sun Cluster HA pour iPlanet Web Server) |
SUNW.iws |
Sun Cluster HA pour Sybase ASE |
SUNW.sybase |
Sun Cluster HA pour le serveur WebLogic |
SUNW.wls |
Sun Cluster HA pour WebSphere MQ |
SUNW.gds |
Sun Cluster HA pour l'intégrateur WebSphere MQ |
SUNW.gds |
Configuration minimale requise : le logiciel Sun Cluster 3.1 nécessite davantage de mémoire qu'un noeud opérant dans des conditions normales. Le supplément de mémoire requis correspond à 128 Mo plus dix pour cent. Par exemple, si un noeud autonome a normalement besoin de 1 Go de mémoire, il manque encore 256 Mo de mémoire pour atteindre la configuration minimale requise.
RSMAPI : Sun Cluster 3.1 prend en charge l'Interface de programmation d'application de mémoire partagée distante (RSMAPI) sur les câbles d'interconnexion compatibles RSM, tels que PCI-SCI.
Sun Cluster Security Hardening utilise les techniques de renforcement de l'environnement d'exploitation Solaris, recommandées par le programme Sun BluePrintsTM, afin de renforcer la sécurité de base des grappes. Solaris Security Toolkit assure la mise en oeuvre automatique de Sun Cluster Security Hardening.
La documentation relative à Sun Cluster Security Hardening est disponible à l'adresse http://www.sun.com/blueprints/0203/817–1079.pdf . Vous pouvez aussi y accéder depuis http://wwws.sun.com/software/security/blueprints. À partir de cet URL, faites dérouler le texte jusqu'à l'en-tête Architecture afin de localiser l'article « Securing the Sun Cluster 3.x Software ». La documentation décrit la procédure de sécurisation des déploiements de Sun Cluster 3.1 dans un environnement Solaris 8 et Solaris 9. L'utilisation de Solaris Security Toolkit et d'autres techniques de sécurité de pointe conseillées par les experts de Sun y sont également décrites.
Tableau 1–2 Services de données pris en charge par Sun Cluster Security Hardening
Agent de service de données |
Version de l'application : de basculement |
Version de l'application : évolutive |
Version de Solaris |
---|---|---|---|
Sun Cluster HA pour Apache |
1.3.9 |
1.3.9 |
Solaris 8, Solaris 9 (version 1.3.9) |
Sun Cluster HA pour Apache Tomcat |
3.3, 4.0, 4.1 |
3.3, 4.0, 4.1 |
Solaris 8, Solaris 9 |
Sun Cluster HA pour DHCP |
S8U7+ |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour DNS |
avec SE |
N/A |
Solaris 8, Solaris 9 |
Serveur de messagerie Sun Cluster HA pour iPlanet |
6.0 |
4.1 |
Solaris 8 |
Sun Cluster HA pour MySQL |
3.23.54a - 4.0.15 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour NetBackup |
3.4 |
N/A |
Solaris 8 |
Sun Cluster HA pour NFS |
avec SE |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Oracle E-Business Suite |
11.5.8 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Oracle |
8.1.7 et 9i (32 et 64 bits) |
N/A |
Solaris 8, Solaris 9 (HA Oracle 9iR2) |
Prise en charge Sun Cluster des clusters Oracle Parallel Server/Real Application |
8.1.7 et 9i (32 et 64 bits) |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour NetBackup |
4.6D (32 et 64 bits) et 6.20 |
4.6D (32 et 64 bits) et 6.20 |
Solaris 8, Solaris 9 |
Sun Cluster HA pour SWIFTAlliance Access |
4.1, 5.0 |
N/A |
Solaris 8 |
Sun Cluster HA pour Samba |
2.2.2, 2.2.7, 2.2.7a, 2.2.8, 2.2.8a |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Siebel |
7.5 |
N/A |
Solaris 8 |
Sun Cluster HA pour Sun ONE Application Server |
7.0, 7.0 mise à jour 1 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Sun ONE Directory Server |
4.12 |
N/A |
Solaris 8, Solaris 9 (version 5.1) |
Sun Cluster HA pour Sun ONE Message Queue |
3.0.1 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Sun ONE Web Server |
6.0 |
4.1 |
Solaris 8, Solaris 9 (version 4.1) |
Sun Cluster HA pour Sybase ASE |
12.0 (32 bit) |
N/A |
Solaris 8 |
Sun Cluster HA pour le serveur BEA WebLogic |
7.0 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour WebSphere MQ |
5.2, 5.3 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour l'intégrateur WebSphere MQ |
2.0.2, 2.1 |
N/A |
Solaris 8, Solaris 9 |
Le service de données Sun Cluster HA pour Oracle 3.0 peut fonctionner sur Sun Cluster 3.1 uniquement s'il est utilisé avec les versions suivantes de l'environnement d'exploitation Solaris :
Solaris 8, version 32 bits ;
Solaris 8, version 64 bits ;
Solaris 9, version 32 bits.
le service de données Sun Cluster HA pour Oracle 3.0 ne peut pas fonctionner sur Sun Cluster 3.1 s'il est utilisé avec la version 64 bits de Solaris 9.
Conformez-vous à la documentation de l'option Oracle Parallel Fail Safe/Real Application Clusters Guard des clusters Oracle Parallel Server/Real Application car il est impossible de modifier les noms d'hôtes après l'installation du logiciel Sun Cluster.
Pour de plus amples informations sur cette restriction concernant les noms d'hôtes et les noms de noeuds, reportez-vous à la documentation Oracle Parallel Fail Safe/Real Application Clusters Guard.
Si le client NetBackup VERITAS est un cluster, un seul hôte logique peut être configuré comme client car il n'y a qu'un seul fichier bp.conf.
Si le client NetBackup est un cluster et que l'un de ses hôtes logiques est configuré comme client NetBackup, NetBackup ne peut pas sauvegarder les hôtes physiques.
Sur le cluster exécutant le serveur maître, ce dernier est le seul hôte logique pouvant être sauvegardé.
Aucun support de sauvegarde ne peut être relié au serveur maître, il faut donc installer un ou plusieurs serveur(s) de support.
Dans un environnement Sun Cluster, le contrôle robotisé n'est pris en charge que sur les serveurs de supports et non sur le serveur maître NetBackup tournant sur Sun Cluster.
Aucun noeud Sun Cluster ne peut être le client NFS d'un système de fichiers exporté Sun Cluster HA pour NFS contrôlé sur un noeud du même cluster. Un tel montage croisé de Sun Cluster HA pour NFS est interdit. Utilisez le système de fichiers de cluster pour répartir les fichiers entre les noeuds.
Les applications exécutées localement sur le cluster ne doivent pas verrouiller les fichiers sur un système de fichiers exporté via NFS. Sinon, un blocage local (par exemple, flock(3UCB) ou fcntl (2)) risque d'empêcher le gestionnaire de verrouillage (lockd) de redémarrer. Au redémarrage, il est possible qu'un processus local bloqué soit verrouillé et que seul un client distant puisse le déverrouiller. Le comportement qui s'ensuit est imprévisible.
Sun Cluster HA pour NFS requiert que tous les montages de clients NFS soient « rigides ».
Avec Sun Cluster HA pour NFS, n'utilisez pas d'alias de noms d'hôtes pour les ressources réseau. Des clients NFS montant des systèmes de fichiers de cluster à l'aide d'alias de noms d'hôtes risquent de rencontrer des problèmes de récupération en cas de verrouillage statd.
Le logiciel Sun Cluster 3.1 ne prend pas en charge l'option Secure NFS ni l'utilisation conjointe de Kerberos et de NFS, et en particulier les options secure et kerberos appliquées au sous-système share_nfs(1M). Néanmoins, le logiciel Sun Cluster 3.1prend en charge l'utilisation de ports sécurisés pour NFS en ajoutant l'entrée set nfssrv:nfs_portmon=1 au fichier /etc/system sur les noeuds du cluster.
N'utilisez pas NIS pour les services de noms d'un cluster exécutant Sun Cluster HA pour SAP liveCache car l'entrée NIS n'est utilisée que si les fichiers ne sont pas disponibles.
Pour de plus amples informations sur les exigences du mot de passe nssswitch.conf par rapport à cette restriction, reportez-vous à la rubrique “Preparing the Nodes and Disks” in Sun Cluster 3.1 Data Service for SAP liveCache Guide .
Identifiez la configuration minimale requise pour l'ensemble des services de données avant d'installer Solaris et Sun Cluster. Sinon vous risquez de faire des erreurs d'installation et vous devrez réinstaller complètement les logiciels Solaris et Sun Cluster.
Par exemple, l'option Oracle Parallel Fail Safe/Real Application Clusters Guard des clusters Oracle Parallel Server/Real Application impose certaines contraintes pour les noms d'hôtes et de noeuds utilisés dans le cluster. Vous devez prendre connaissance de ces contraintes avant de procéder à l'installation du logiciel Sun Cluster, les noms d'hôtes ne pouvant être modifiés après l'installation. Pour de plus amples informations sur les exigences relatives aux noms d'hôtes et aux noms des noeuds, consultez la documentation Oracle Parallel Fail Safe/Real Application Clusters Guard.
NIS ne peut pas être utilisé dans un cluster exécutant liveCache, car l'entrée NIS n'est utilisée que si les fichiers ne sont pas disponibles. Pour de plus amples informations, reportez-vous à la rubrique Sun Cluster HA pour SAP liveCache.
Les instances Oracle ne démarrent pas si l'interconnexion SCI est désactivée sur un noeud de cluster à l'aide de la commande scconf -c -A.
Si vous utilisez Solaris 9, entrez les éléments suivants dans les fichiers de configuration /etc/nsswitch.conf de chaque noeud susceptible d'être noeud principal de la ressource oracle_server ou oracle_listener , de sorte que le service de données démarre et s'arrête correctement lors d'une panne réseau :
passwd: files groups: files publickey: files project: files
Le service de données Sun Cluster HA pour Oracle démarre et arrête la base de données à l'aide de la commande superutilisateur, su(1M). Lorsque le réseau public d'un noeud de cluster échoue, le service du réseau peut devenir indisponible. L'ajout des entrées mentionnées ci-dessus assure que la commande su ne se réfère pas aux services de noms NIS/NIS+.
Si vous utilisez Solaris 9, ajoutez l'une des entrées suivantes, concernant la base de données publickey, dans les fichiers de configuration /etc/nsswitch.conf de chaque noeud susceptible d'être noeud principal des ressources liveCache de sorte que le service de données démarre et s'arrête correctement lors d'une panne réseau :
publickey: publickey: files publickey: files [NOTFOUND=return] nis publickey: files [NOTFOUND=return] nisplus
Le service de données Sun Cluster HA pour SAP liveCache utilise la commande dbmcli pour démarrer et arrêter le liveCache. Lorsque le réseau public d'un noeud de cluster échoue, le service du réseau peut devenir indisponible. L'ajout d'une des entrées mentionnées ci-dessus et des mises à jour indiquées dans le document Sun Cluster 3.1 Data Service for SAP liveCache Guide assure que les commandes su et dbmcli ne se réfèrent pas aux services de noms NIS/NIS+.
Sur un système à forte charge, la sonde d'écoute Oracle est susceptible d'interrompre son activité. Pour empêcher cela, augmentez la valeur de la propriété d'extension Intervalle_sonde_complet. La valeur du temps d'inactivité de la sonde d'écoute Oracle dépend de celle de cette propriété d'extension. La première ne peut donc pas être définie indépendamment de la seconde.
L'agent Sun Cluster HA-Siebel ne contrôle pas les composants Siebel individuels. En cas d'échec d'un composant Siebel, seul un message d'avertissement est consigné dans syslog.
Pour corriger ce problème, relancez le groupe de ressources du serveur Siebel dans lequel les composants sont hors ligne, à l'aide de la commande scswitch -R - h noeud -g groupe_ressources.
Le message « SAP xserver is not available » apparaît au cours du démarrage de ce serveur car il n'est pas considéré comme disponible tant qu'il n'est pas totalement actif.
Ignorez ce message lors du démarrage de SAP xserver.
Ne configurez pas la ressource xserver en tant que ressource de basculement. Le service de données Sun Cluster HA pour SAP liveCache ne bascule pas correctement lorsque xserver est configuré en tant que ressource de basculement.
Pour utiliser la propriété d'extension Liste_Uri_détecteur de Sun Cluster HA for Apache et Sun Cluster HA for Sun ONE Web Server, vous devez définir la propriété version_type sur 4.
Vous pouvez aussi, à tout moment, mettre à niveau la propriété d'une ressource version_type sur 4. Pour de plus amples informations sur la procédure de mise à niveau d'un type de ressources, reportez-vous à la rubrique “Upgrading a Resource Type” in Sun Cluster 3.1 Data Service Planning and Administration Guide.
Certains services de données utilisent la commande su pour définir un ID utilisateur spécifique. Dans l'environnement d'exploitation Solaris 9, cette commande redéfinit l'identificateur de projet sur sa valeur par défaut ( default). Ce comportement permet d'ignorer la définition de l'identificateur de projet par les propriétés système Nom_projet_GR ou Nom_projet_ressource.
Pour garantir que le nom de projet adéquat est utilisé à chaque fois, définissez-le dans le fichier d'environnement de l'utilisateur. Pour cela, vous pouvez ajouter la ligne suivante au fichier .cshrc de l'utilisateur :
/usr/bin/newtask -p nom_projet -c $$
nom_projet correspond au nom de projet à utiliser.
Cette rubrique fournit des informations sur les patchs applicables à la configuration de Sun Cluster. .
vous devez être enregistré comme utilisateur SunSolveTM pour pouvoir afficher et télécharger les patchs nécessaires à Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant Sun ou enregistrez-vous en ligne à l'adresse http://sunsolve.sun.com.
PatchPro est un outil de gestion de patchs destiné à faciliter la sélection et le téléchargement des patchs nécessaires à l'installation ou à la maintenance du logiciel Sun Cluster. PatchPro fournit un outil spécifique à Sun Cluster d'installation simplifiée des patchs en mode interactif, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers patchs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des patchs développés, pas uniquement des patchs de sécurité et de haut niveau de disponibilité.
Pour accéder à l'outil PatchPro pour le logiciel Sun Cluster, allez à l'adresse http://www.sun.com/PatchPro/, cliquez sur Sun Cluster puis choisissez Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre cluster et télécharger les patchs applicables.
Le site web SunSolveTM Online vous offre un accès permanent aux dernières mises à jour et versions des patchs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve Online à l'adresse http://sunsolve.sun.com pour consulter les grilles actualisées des versions de logiciels, microprogrammes et patchs prises en charge.
Vous pouvez trouver des informations sur les patchs de Sun Cluster 3.1 dans les Info Docs. Pour y accéder, connectez-vous à SunSolve et sélectionnez Simple Search en haut de la page principale. Dans la page Simple Search, cliquez sur la boîte Info Docs et entrez Sun Cluster 3.1 dans le champ des critères de recherche. La page Info Docs du logiciel Sun Cluster 3.1 s'affiche.
Avant d'installer le logiciel Sun Cluster 3.1 et d'appliquer les patchs à un élément de cluster (environnement d'exploitation Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou matériel de disque), consultez les Info Docs et les fichiers README accompagnant les patchs. Le même niveau de patchs doit être appliqué à tous les noeuds du cluster pour qu'il puisse fonctionner correctement.
Pour consulter les procédures et astuces concernant l'administration des patchs, reportez-vous à la rubrique “ Patching Sun Cluster Software and Firmware” in Guide d'administration système de Sun Cluster 3.1 10/03.
HAStorage risque de ne plus être pris en charge dans une version ultérieure du logiciel Sun Cluster. Des fonctions presque équivalentes sont toutefois prises en charge par HAStoragePlus. Pour mettre à niveau HAStorage vers HAStoragePlus lorsque vous utilisez des systèmes de fichiers de cluster ou des groupes de périphériques, reportez-vous à la rubrique “ Upgrading from HAStorage to HAStoragePlus” in Sun Cluster 3.1 Data Service Planning and Administration Guide.
Les packages de localisation présentés ci-après sont accessibles depuis le CD des services de données. Lorsque vous installez ou mettez à niveau vers Sun Cluster 3.1, les packages de localisation des services de données sélectionnés sont installés automatiquement.
Langue |
Nom |
Description du progiciel |
---|---|---|
Français
|
SUNWfscapc |
Composant du Sun Cluster Apache Web Server en français |
SUNWfscbv |
Composant du Sun Cluster BV Server en français |
|
SUNWfscdns |
Composant du serveur de noms de domaines de Sun Cluster en français |
|
SUNWfschtt |
Composant du Sun Cluster Sun ONE Web Server en français |
|
SUNWfsclc |
Type de ressource Sun Cluster pour SAP liveCache en français |
|
SUNWfscnb |
Type de ressource Sun Cluster pour le serveur netbackup_master en français |
|
SUNWfscnfs |
Composant du Sun Cluster NFS Server en français |
|
SUNWfscnsl |
Composant du Sun Cluster Sun ONE Directory Server en français |
|
SUNWfscor |
Service de données Sun Cluster HA Oracle en français |
|
SUNWfscs1as |
Service de données Sun Cluster HA Sun ONE Application Server en français |
|
SUNWfscs1mq |
Service de données Sun Cluster HA Sun ONE Message Queue en français |
|
SUNWfscsap |
Composant de Sun Cluster SAP R/3 en français |
|
SUNWfscsbl |
Types de ressources Sun Cluster pour la passerelle et le serveur Siebel en français |
|
SUNWfscsyb |
Service de données Sun Cluster HA Sybase en français |
|
SUNWfscwls |
Composant du Sun Cluster BEA WebLogic Server en français |
|
Japonais
|
SUNWjscapc |
Composant du Sun Cluster Apache Web Server en japonais |
SUNWjscbv |
Composant du Sun Cluster BV Server en japonais |
|
SUNWjscdns |
Composant du serveur de noms de domaines de Sun Cluster en japonais |
|
SUNWjschtt |
Composant du Sun Cluster Sun ONE Web Server en japonais |
|
SUNWjsclc |
Type de ressource Sun Cluster pour SAP liveCache en japonais |
|
SUNWjscnb |
Type de ressource Sun Cluster pour le serveur netbackup_master en japonais |
|
SUNWjscnfs |
Composant du Sun Cluster NFS Server en japonais |
|
SUNWjscnsl |
Composant du Sun Cluster Sun ONE Directory Server en japonais |
|
SUNWjscor |
Service de données Sun Cluster HA Oracle en japonais |
|
SUNWjscs1as |
Service de données Sun Cluster HA Sun ONE Application Server en japonais |
|
SUNWjscs1mq |
Service de données Sun Cluster HA Sun ONE Message Queue en japonais |
|
SUNWjscsap |
Composant de Sun Cluster SAP R/3 en japonais |
|
SUNWjscsbl |
Types de ressources Sun Cluster pour la passerelle et le serveur Siebel en japonais |
|
SUNWjscsyb |
Service de données Sun Cluster HA Sybase en japonais |
|
SUNWjscwls |
Composant du Sun Cluster BEA WebLogic Server en japonais |
L'ensemble de la documentation utilisateur relative aux services de données Sun Cluster 3.1 10/03 est accessible au format PDF et HTML sur le Sun Cluster Agents CD-ROM. Vous n'avez pas besoin du logiciel serveur AnswerBook2TM pour lire la documentation Sun Cluster 3.1. Pour de plus amples informations, consultez le fichier index.html au niveau supérieur des CD. Ce fichier vous permet de lire les manuels PDF et HTML directement à partir du disque et d'accéder aux instructions concernant l'installation des modules de documentation.
vous devez installer le package SUNWsdocs avant d'installer tout package Sun Cluster. Vous pouvez utiliser la commande pkgadd pour installer le package SUNWsdocs à partir du répertoire SunCluster_3.1/Sol_N/Packages/ du Sun Cluster CD-ROM ou du répertoire components/SunCluster_Docs_3.1/Sol_ N/Packages/ du Sun Cluster Agents CD-ROM, où N correspond à 8 pour Solaris 8 ou à 9 pour Solaris 9. Le package SUNWsdocs est installé automatiquement lorsque vous exécutez le programme d'installation du Solaris 9 Documentation CD.
La documentation Sun Cluster 3.1 est composée des collections indiquées ci-dessous.
La Sun Cluster 3.1 Software Collection, composée des manuels suivants :
Guide des notions fondamentales de Sun Cluster 3.1 10/03
Guide des développeurs pour les services de données Sun Cluster 3.1 10/03
Sun Cluster 3.1 10/03 Error Messages Guide
Guide d'installation du logiciel Sun Cluster 3.1 10/03
La Sun Cluster 3.x Hardware Administration Collection, composée des manuels suivants :
Sun Cluster 3.x Hardware Administration Manual
Sun Cluster 3.x With Sun StorEdge 3310 Array Manual
Sun Cluster 3.x With Sun StorEdge 3510 FC Array Manual
Sun Cluster 3.x With Sun StorEdge 3900 or 6900 Series System Manual
Sun Cluster 3.x With Sun StorEdge 6120 Array Manual
Sun Cluster 3.x With Sun StorEdge 6320 System Manual
Sun Cluster 3.x With Sun StorEdge 9900 Series Storage Device Manual
Sun Cluster 3.x With Sun StorEdge A1000 or Netra st A1000 Array Manual
Sun Cluster 3.x With Sun StorEdge A3500/A3500FC System Manual
Sun Cluster 3.x With Sun StorEdge A5x00 Array Manual
Sun Cluster 3.x With Sun StorEdge D1000 or Netra st D1000 Disk Array Manual
Sun Cluster 3.x With Sun StorEdge D2 Array Manual
Sun Cluster 3.x With Sun StorEdge MultiPack Enclosure Manual
Sun Cluster 3.x With Sun StorEdge Netra D130 or StorEdge S1 Enclosure Manual
Sun Cluster 3.x With Sun StorEdge T3 or T3+ Array Partner-Group Configuration Manual
Sun Cluster 3.x With Sun StorEdge T3 or T3+ Array Single-Controller Configuration Manual
La Sun Cluster 3.1 Data Services Collection, composée des manuels suivants :
Sun Cluster 3.1 Data Service Planning and Administration Guide
Sun Cluster 3.1 Data Service for Apache Guide
Sun Cluster 3.1 Data Service for Apache Tomcat Guide
Sun Cluster 3.1 Data Service for BroadVision One-To-One Enterprise Guide
Sun Cluster 3.1 Data Service for DHCP Guide
Sun Cluster 3.1 Data Service for Domain Name Service (DNS) Guide
Sun Cluster 3.1 Data Service for MySQL Guide
Sun Cluster 3.1 Data Service for Netbackup Guide
Sun Cluster 3.1 Data Service for Network File System (NFS) Guide
Sun Cluster 3.1 Data Service for Oracle E-Business Suite Guide
Sun Cluster 3.1 Data Service for Oracle Guide
Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide
Sun Cluster 3.1 Data Service for SAP Guide
Sun Cluster 3.1 Data Service for SAP liveCache Guide
Sun Cluster 3.1 Data Service for SWIFTAlliance Access Guide
Sun Cluster 3.1 Data Service for Samba Guide
Sun Cluster 3.1 Data Service for Siebel Guide
Guide des services de données Sun Cluster 3.1 pour Sun ONE Application Server
Sun Cluster 3.1 Data Service for Sun ONE Directory Server Guide
Guide des services de données Sun Cluster 3.1 pour Sun ONE Message Queue
Guide des services de données Sun Cluster 3.1 pour Sun ONE Web Server
Sun Cluster 3.1 Data Service for Sybase ASE Guide
Sun Cluster 3.1 Data Service for WebLogic Server Guide
Sun Cluster 3.1 Data Service for WebSphere MQ Guide
Sun Cluster 3.1 Data Service for WebSphere MQ Integrator Guide
En outre, le site web docs.sun.comSM vous permet d'accéder à la documentation de Sun Cluster sur l'internet. Vous pouvez le parcourir ou y rechercher un titre de manuel ou un sujet particulier.
Cette rubrique détaille les erreurs connues et les omissions de la documentation, de l'aide en ligne et des pages de manuel, et indique la marche à suivre pour y remédier.
Cette rubrique traite des erreurs et omissions contenues dans le document Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide.
La rubrique “Requirements for Using the Cluster File System” indique à tort qu'il est possible de stocker des fichiers de données sur le système de fichiers de cluster. Il ne faut pas stocker de fichiers de données sur le système de fichiers de cluster. Ignorez donc toute référence aux fichiers de données dans cette rubrique.
Après l'installation du logiciel Oracle sur le système de fichiers de cluster, tous les fichiers du répertoire spécifiés par la variable d'environnement ORACLE_HOME
sont accessibles à tous les noeuds du cluster.
Certaines installations peuvent requérir la maintenance d'informations spécifiques aux noeuds par des fichiers ou répertoires Oracle. Cette exigence peut être satisfaite par la création d'un lien symbolique dont la cible est un fichier ou répertoire d'un système de fichiers local du noeud. Ce type de système de fichiers n'existe pas dans le système de fichiers de cluster.
La création d'un lien symbolique implique donc l'allocation d'une zone sur un système de fichiers local. Avant de pouvoir créer des liens symboliques vers les fichiers de cette zone, les applications Oracle doivent d'abord pouvoir accéder aux fichiers. Les liens symboliques résidant sur le système de fichiers du cluster, les références aux liens sont les mêmes depuis tous les noeuds. Ainsi, tous les noeuds doivent avoir le même espace de nom pour la zone du système de fichiers local.
Cette procédure doit être exécutée pour tous les répertoires devant maintenir des informations spécifiques aux noeuds. Les répertoires suivants doivent généralement maintenir ces informations :
$ORACLE_HOME
/network/agent ;
$ORACLE_HOME
/network/log ;
$ORACLE_HOME
/network/trace ;
$ORACLE_HOME
/srvm/log ;
$ORACLE_HOME
/apache.
Pour de plus amples informations sur les autres répertoires susceptibles de devoir maintenir des informations spécifiques aux noeuds, reportez-vous à votre documentation Oracle.
Créez sur chaque noeud du cluster le répertoire local devant maintenir des informations spécifiques aux noeuds.
# mkdir -p rép_local |
Indique que tous les répertoires parents non existants sont créés d'abord.
Spécifie le nom de chemin d'accès complet du répertoire que vous créez.
Sur chaque noeud du cluster, faites une copie locale du répertoire global devant maintenir des informations spécifiques aux noeuds.
# cp -pr rép_global parent_rép_local |
Indique que le propriétaire, le groupe, les modes d'autorisations d'accès, la date de modification, la date d'accès et les listes de contrôle d'accès sont préservés.
Indique que le répertoire et tous ses fichiers, avec les éventuels sous-répertoires et leurs fichiers sont copiés.
Spécifie le chemin d'accès complet du répertoire global que vous copiez. Ce répertoire réside sur le système de fichiers du cluster dans le répertoire défini par la variable d'environnement ORACLE_HOME
.
Spécifie le répertoire du noeud local destiné à contenir la copie locale. Il s'agit du répertoire parent de celui que vous avez créé à l'Étape 1.
Remplacez le répertoire global copié à l'Étape 2 par un lien symbolique vers la copie locale du répertoire global.
Supprimez le répertoire global copié à l'Étape 2 à partir de n'importe quel noeud du cluster.
# rm -r rép_global |
Indique que le répertoire et tous ses fichiers, avec les éventuels sous-répertoires et leurs fichiers sont supprimés.
Spécifie le nom de fichier et le chemin d'accès complet du répertoire global que vous supprimez. Il s'agit du répertoire global copié à l'Étape 2.
Créez un lien symbolique depuis la copie locale du répertoire vers le répertoire global supprimé à l'Étape a à partir de n'importe quel noeud du cluster.
# ln -s rép_local rép_global |
Cet exemple montre les différentes étapes de création de répertoires spécifiques aux noeuds sur un cluster à deux noeuds. Ce cluster est configuré de la manière suivante :
La variable d'environnement ORACLE_HOME
spécifie le répertoire /global/oracle.
Le système de fichiers local de chaque noeud est situé dans le répertoire /local.
Effectuez les opérations indiquées ci-dessous sur chaque noeud.
Pour créer les répertoires requis sur le système de fichiers local, exécutez les commandes suivantes :
# mkdir -p /local/oracle/network/agent |
# mkdir -p /local/oracle/network/log |
# mkdir -p /local/oracle/network/trace |
# mkdir -p /local/oracle/srvm/log |
# mkdir -p /local/oracle/apache |
Pour faire des copies locales des répertoires globaux devant maintenir des informations spécifiques aux noeuds, exécutez les commandes suivantes :
# cp -pr $ORACLE_HOME/network/agent /local/oracle/network/. |
# cp -pr $ORACLE_HOME/network/log /local/oracle/network/. |
# cp -pr $ORACLE_HOME/network/trace /local/oracle/network/. |
# cp -pr $ORACLE_HOME/srvm/log /local/oracle/srvm/. |
# cp -pr $ORACLE_HOME/apache /local/oracle/. |
Effectuez les opérations indiquées ci-dessous sur un noeud uniquement.
Pour supprimer les répertoires globaux, exécutez les commandes suivantes :
# rm -r $ORACLE_HOME/network/agent |
# rm -r $ORACLE_HOME/network/log |
# rm -r $ORACLE_HOME/network/trace |
# rm -r $ORACLE_HOME/srvm/log |
# rm -r $ORACLE_HOME/apache |
Pour créer des liens symboliques depuis les répertoires locaux vers leurs répertoires globaux correspondants, exécutez les commandes suivantes :
# ln -s /local/oracle/network/agent $ORACLE_HOME/network/agent |
# ln -s /local/oracle/network/log $ORACLE_HOME/network/log |
# ln -s /local/oracle/network/trace $ORACLE_HOME/network/trace |
# ln -s /local/oracle/srvm/log $ORACLE_HOME/srvm/log |
# ln -s /local/oracle/apache $ORACLE_HOME/apache |
Cette procédure doit être exécutée pour tous les fichiers devant maintenir des informations spécifiques aux noeuds. Les fichiers suivants doivent généralement maintenir ces informations :
$ORACLE_HOME
/network/admin/snmp_ro.ora ;
$ORACLE_HOME
/network/admin/snmp_rw.ora.
Pour de plus amples informations sur les autres fichiers susceptibles de devoir maintenir des informations spécifiques aux noeuds, reportez-vous à votre documentation Oracle.
Sur chaque noeud du cluster, créez le répertoire local du fichier devant maintenir des informations spécifiques aux noeuds.
# mkdir -p rép_local |
Indique que tous les répertoires parents non existants sont créés d'abord.
Spécifie le nom de chemin d'accès complet du répertoire que vous créez.
Sur chaque noeud du cluster, faites une copie locale du fichier global devant maintenir des informations spécifiques aux noeuds.
# cp -p fichier_global rép_local |
Indique que le propriétaire, le groupe, les modes d'autorisations d'accès, la date de modification, la date d'accès et les listes de contrôle d'accès sont préservés.
Spécifie le nom de fichier et le chemin d'accès complet du fichier global que vous copiez. Ce fichier a été installé dans le système de fichiers du cluster dans le répertoire défini par la variable d'environnement ORACLE_HOME
.
Spécifie le répertoire destiné à contenir la copie locale du fichier. Il s'agit du répertoire créé à l'Étape 1.
Remplacez le fichier global copié à l'Étape 2 par un lien symbolique vers la copie locale du fichier.
Supprimez le fichier global copié à l'Étape 2 à partir de n'importe quel noeud du cluster.
# rm fichier_global |
Spécifie le nom de fichier et le chemin d'accès complet du fichier global que vous supprimez. Il s'agit du fichier global copié à l'Étape 2.
Créez un lien symbolique depuis la copie locale du fichier vers le répertoire où le fichier global a été supprimé à l'Étape a à partir de n'importe quel noeud du cluster.
# ln -s fichier_local rép_global |
Cet exemple montre les différentes étapes de création de fichiers spécifiques aux noeuds sur un cluster à deux noeuds. Ce cluster est configuré de la manière suivante :
La variable d'environnement ORACLE_HOME
spécifie le répertoire /global/oracle.
Le système de fichiers local de chaque noeud est situé dans le répertoire /local.
Effectuez les opérations indiquées ci-dessous sur chaque noeud.
Pour créer le répertoire local des fichiers devant maintenir des informations spécifiques aux noeuds, exécutez la commande suivante :
# mkdir -p /local/oracle/network/admin |
Pour faire une copie locale des fichiers globaux devant maintenir des informations spécifiques aux noeuds, exécutez les commandes suivantes :
# cp -p $ORACLE_HOME/network/admin/snmp_ro.ora \ /local/oracle/network/admin/. |
# cp -p $ORACLE_HOME/network/admin/snmp_rw.ora \ /local/oracle/network/admin/. |
Effectuez les opérations indiquées ci-dessous sur un noeud uniquement.
Pour supprimer les fichiers globaux, exécutez les commandes suivantes :
# rm $ORACLE_HOME/network/admin/snmp_ro.ora |
# rm $ORACLE_HOME/network/admin/snmp_rw.ora |
Pour créer des liens symboliques depuis les copies locales des fichiers vers leurs fichiers globaux correspondants, exécutez les commandes suivantes :
# ln -s /local/oracle/network/admin/snmp_ro.ora \ $ORACLE_HOME/network/admin/snmp_rw.ora |
# ln -s /local/oracle/network/admin/snmp_rw.ora \ $ORACLE_HOME/network/admin/snmp_rw.ora |
Cette rubrique traite des erreurs et omissions du document Sun Cluster 3.1 Data Service for Oracle E-Business Suite Guide.
L'étape 13 de la procédure “How to Register and Configure Sun Cluster HA for Oracle E-Business Suite as a Failover Service” est erronée. Le texte correct est le suivant :
13. Create a resource for the Oracle E-Business Suite Concurrent Manager Server.
# grep PROD.CON_COMNTOP /var/tmp/config.txt PROD.CON_COMNTOP=/global/mnt10/d01/oracle/prodcomn <- CON_COMNTOP # # grep PROD.DBS_ORA806= /var/tmp/config.txt PROD.DBS_ORA806=/global/mnt10/d01/oracle/prodora/8.0.6 <- ORACLE_HOME |
L'exemple suivant cette étape est également incorrect. Corrigez-le comme suit :
RS=ebs-cmg-res RG=ebs-rg HAS_RS=ebs-has-res LSR_RS=ebs-cmglsr-res CON_HOST=lhost1 CON_COMNTOP=/global/mnt10/d01/oracle/prodcomn CON_APPSUSER=ebs APP_SID=PROD APPS_PASSWD=apps ORACLE_HOME=/global/mnt10/d01/oracle/prodora/8.0.6 CON_LIMIT=70 MODE=32/Y
Cette rubrique présente les erreurs et omissions relevées dans les documents Sun Cluster 3.1 Data Service for Sun ONE Directory Server Guide et Guide des services de données Sun Cluster 3.1 pour Sun ONE Web Server.
Les noms d'iPlanet Web Server et iPlanet Directory Server ont été modifiés ; ils s'appellent désormais Sun ONE Web Server et Sun ONE Directory Server. Les noms des services de données sont maintenant Sun Cluster HA pour Sun ONE Web Server et Sun Cluster HA pour Sun ONE Directory Server.
Les noms d'applications sur le Sun Cluster Agents CD-ROM sont peut-être toujours iPlanet Web Server et iPlanet Directory Server.
Cette rubrique présente les erreurs et omissions relevées dans le document Sun Cluster 3.1 Data Service for SAP liveCache.
La rubrique « Registering and Configuring Sun Cluster HA for SAP liveCache » devrait indiquer que SAP xserver ne peut être configuré que comme ressource évolutive. La configuration de SAP xserver comme ressource de basculement empêche la ressource SAP liveCache de basculer. Ignorez toute référence à la configuration de la ressource SAP xserver comme ressource de basculement dans le document Sun Cluster 3.1 Data Service for SAP liveCache.
La rubrique « Registering and Configuring Sun Cluster HA for SAP liveCache » devrait également contenir une étape supplémentaire. Après l'étape 10, « Enable the scalable resource group that now includes the SAP xserver resource », vous devez enregistrer la ressource liveCache en entrant le texte suivant :
# scrgadm -a -j ressource_livecache -g groupe_ressources_livecache \ -t SUNW.sap_livecache -x livecache_name=nom_LC \ -y resource_dependencies=ressource_stockage_livecache |
Après avoir enregistré la ressource liveCache, passez à l'étape suivante, « Set up a resource group dependency between SAP xserver and liveCache ».
Cette rubrique présente les erreurs et omissions relevées dans le document Sun Cluster 3.1 Data Service for WebLogic Server .
Le tableau « Protection of BEA WebLogic Server Component » devrait indiquer que la base de données du serveur BEA WebLogic est protégée par toutes celles prises en charge par le serveur BEA WebLogic et par Sun Cluster. Il devrait également indiquer que les serveurs HTTP sont protégés par tous ceux pris en charge par le serveur BEA WebLogic et par Sun Cluster.
Cette rubrique présente les erreurs et omissions relevées dans le document Sun Cluster 3.1 Data Service for Apache Guide.
La rubrique « Planning the Installation and Configuration » ne devrait pas comporter de remarque sur l'utilisation de serveurs proxy évolutifs servant une ressource Web évolutive. L'utilisation de serveurs proxy évolutifs n'est pas prise en charge.
Si vous utilisez la propriété d'extension Liste_Uri_détecteur pour le service de données Sun Cluster HA pour Apache, la valeur requise pour la propriété version_type est 4. Vous pouvez mettre à niveau le type de ressource vers version_type 4.
Si vous utilisez la propriété d'extension Liste_Uri_détecteur pour le service de données Sun Cluster HA pour Sun ONE Web Server, la valeur requise pour la propriété version_type est 4. Vous pouvez mettre à niveau le type de ressource vers version_type 4.
La rubrique « See Also » de cette page de manuel comporte une erreur. Il convient de se reporter non pas au document Sun Cluster 3.1 Data Services Installation and Configuration Guide, mais au document Sun Cluster 3.1 Data Service for WebLogic Server Guide.