Notes de version des services de données Sun Cluster 3.1 10/03

Notes de version des services de données Sun Cluster 3.1 10/03

Ce document fournit les informations suivantes concernant le logiciel de services de données SunTM Cluster 3.1 10/03 :

Nouveautés concernant les services de données Sun Cluster 3.1 10/03

Cette rubrique décrit les nouvelles fonctions et fonctionnalités. Contactez votre représentant commercial Sun pour obtenir une liste complète du matériel et des logiciels pris en charge.

Améliorations apportées au service de données Sun Cluster HA for Oracle

Le détecteur de pannes du serveur Sun Cluster HA for Oracle a été optimisé afin de vous permettre de le personnaliser de la manière suivante :

Pour de plus amples informations, reportez-vous au document Sun Cluster 3.1 Data Service for Oracle Guide.

Améliorations apportées au service de données de Prise en charge Sun Cluster des clusters Oracle Parallel Server/Real Application

Le service de données Prise en charge Sun Cluster des clusters Oracle Parallel Server/Real Application a été optimisé afin de pouvoir être géré avec les commandes Sun Cluster.

Pour de plus amples informations, reportez-vous au document Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide.

Améliorations apportées aux types de ressources

Les types de ressources suivants ont été améliorés dans les services de données Sun Cluster 3.1 10/03 :

Pour des informations d'ordre général concernant la mise à niveau d'un type de ressource, reportez-vous à la rubrique “ Upgrading a Resource Type” in Sun Cluster 3.1 Data Service Planning and Administration Guide

Nouveaux services de données pris en charge

Les services de données Sun Cluster 3.1 10/03 prennent en charge les services de données suivants :

Produits pris en charge

Cette rubrique décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.1.

Sun Cluster Security Hardening

Sun Cluster Security Hardening utilise les techniques de renforcement de l'environnement d'exploitation Solaris, recommandées par le programme Sun BluePrintsTM, afin de renforcer la sécurité de base des grappes. Solaris Security Toolkit assure la mise en oeuvre automatique de Sun Cluster Security Hardening.

La documentation relative à Sun Cluster Security Hardening est disponible à l'adresse http://www.sun.com/blueprints/0203/817–1079.pdf . Vous pouvez aussi y accéder depuis http://wwws.sun.com/software/security/blueprints. À partir de cet URL, faites dérouler le texte jusqu'à l'en-tête Architecture afin de localiser l'article « Securing the Sun Cluster 3.x Software ». La documentation décrit la procédure de sécurisation des déploiements de Sun Cluster 3.1 dans un environnement Solaris 8 et Solaris 9. L'utilisation de Solaris Security Toolkit et d'autres techniques de sécurité de pointe conseillées par les experts de Sun y sont également décrites.

Tableau 1–2 Services de données pris en charge par Sun Cluster Security Hardening

Agent de service de données 

Version de l'application : de basculement 

Version de l'application : évolutive 

Version de Solaris 

Sun Cluster HA pour Apache 

1.3.9 

1.3.9 

Solaris 8, Solaris 9 (version 1.3.9) 

Sun Cluster HA pour Apache Tomcat 

3.3, 4.0, 4.1 

3.3, 4.0, 4.1 

Solaris 8, Solaris 9 

Sun Cluster HA pour DHCP 

S8U7+ 

N/A 

Solaris 8, Solaris 9 

Sun Cluster HA pour DNS 

avec SE 

N/A 

Solaris 8, Solaris 9 

Serveur de messagerie Sun Cluster HA pour iPlanet 

6.0 

4.1 

Solaris 8 

Sun Cluster HA pour MySQL 

3.23.54a - 4.0.15 

N/A 

Solaris 8, Solaris 9 

Sun Cluster HA pour NetBackup 

3.4  

N/A 

Solaris 8 

Sun Cluster HA pour NFS 

avec SE 

N/A 

Solaris 8, Solaris 9 

Sun Cluster HA pour Oracle E-Business Suite 

11.5.8 

N/A  

Solaris 8, Solaris 9 

Sun Cluster HA pour Oracle  

8.1.7 et 9i (32 et 64 bits) 

N/A 

Solaris 8, Solaris 9 (HA Oracle 9iR2) 

Prise en charge Sun Cluster des clusters Oracle Parallel Server/Real Application 

8.1.7 et 9i (32 et 64 bits) 

N/A 

Solaris 8, Solaris 9 

Sun Cluster HA pour NetBackup 

4.6D (32 et 64 bits) et 6.20 

4.6D (32 et 64 bits) et 6.20 

Solaris 8, Solaris 9 

Sun Cluster HA pour SWIFTAlliance Access 

4.1, 5.0 

N/A 

Solaris 8 

Sun Cluster HA pour Samba 

2.2.2, 2.2.7, 2.2.7a, 2.2.8, 2.2.8a 

N/A 

Solaris 8, Solaris 9 

Sun Cluster HA pour Siebel  

7.5 

N/A 

Solaris 8 

Sun Cluster HA pour Sun ONE Application Server  

7.0, 7.0 mise à jour 1 

N/A 

Solaris 8, Solaris 9 

Sun Cluster HA pour Sun ONE Directory Server 

4.12 

N/A 

Solaris 8, Solaris 9 (version 5.1) 

Sun Cluster HA pour Sun ONE Message Queue 

3.0.1 

N/A  

Solaris 8, Solaris 9 

Sun Cluster HA pour Sun ONE Web Server 

6.0 

4.1 

Solaris 8, Solaris 9 (version 4.1) 

Sun Cluster HA pour Sybase ASE  

12.0 (32 bit) 

N/A 

Solaris 8 

Sun Cluster HA pour le serveur BEA WebLogic 

7.0 

N/A 

Solaris 8, Solaris 9 

Sun Cluster HA pour WebSphere MQ 

5.2, 5.3 

N/A 

Solaris 8, Solaris 9 

Sun Cluster HA pour l'intégrateur WebSphere MQ 

2.0.2, 2.1 

N/A 

Solaris 8, Solaris 9 

Restrictions

Exécution de Sun Cluster HA pour Oracle 3.0 sur Sun Cluster 3.1

Le service de données Sun Cluster HA pour Oracle 3.0 peut fonctionner sur Sun Cluster 3.1 uniquement s'il est utilisé avec les versions suivantes de l'environnement d'exploitation Solaris :


Remarque :

le service de données Sun Cluster HA pour Oracle 3.0 ne peut pas fonctionner sur Sun Cluster 3.1 s'il est utilisé avec la version 64 bits de Solaris 9.


Sun Cluster HA pour le cluster Oracle Parallel Server/Real Application

Conformez-vous à la documentation de l'option Oracle Parallel Fail Safe/Real Application Clusters Guard des clusters Oracle Parallel Server/Real Application car il est impossible de modifier les noms d'hôtes après l'installation du logiciel Sun Cluster.

Pour de plus amples informations sur cette restriction concernant les noms d'hôtes et les noms de noeuds, reportez-vous à la documentation Oracle Parallel Fail Safe/Real Application Clusters Guard.

Sun Cluster HA pour NetBackup

Sun Cluster HA pour NFS

Sun Cluster HA pour SAP liveCache

N'utilisez pas NIS pour les services de noms d'un cluster exécutant Sun Cluster HA pour SAP liveCache car l'entrée NIS n'est utilisée que si les fichiers ne sont pas disponibles.

Pour de plus amples informations sur les exigences du mot de passe nssswitch.conf par rapport à cette restriction, reportez-vous à la rubrique “Preparing the Nodes and Disks” in Sun Cluster 3.1 Data Service for SAP liveCache Guide .

Problèmes et bogues d'installation

Directives pour l'installation

Identifiez la configuration minimale requise pour l'ensemble des services de données avant d'installer Solaris et Sun Cluster. Sinon vous risquez de faire des erreurs d'installation et vous devrez réinstaller complètement les logiciels Solaris et Sun Cluster.

Par exemple, l'option Oracle Parallel Fail Safe/Real Application Clusters Guard des clusters Oracle Parallel Server/Real Application impose certaines contraintes pour les noms d'hôtes et de noeuds utilisés dans le cluster. Vous devez prendre connaissance de ces contraintes avant de procéder à l'installation du logiciel Sun Cluster, les noms d'hôtes ne pouvant être modifiés après l'installation. Pour de plus amples informations sur les exigences relatives aux noms d'hôtes et aux noms des noeuds, consultez la documentation Oracle Parallel Fail Safe/Real Application Clusters Guard.

Exigences de Sun Cluster HA pour liveCache nsswitch.conf pour que passwd rende NIS inutilisable (4904975)

NIS ne peut pas être utilisé dans un cluster exécutant liveCache, car l'entrée NIS n'est utilisée que si les fichiers ne sont pas disponibles. Pour de plus amples informations, reportez-vous à la rubrique Sun Cluster HA pour SAP liveCache.

Problèmes et bogues d'administration

Échec de démarrage des instances HA Oracle en cas de désactivation de l'interconnexion SCI (4823212)

Les instances Oracle ne démarrent pas si l'interconnexion SCI est désactivée sur un noeud de cluster à l'aide de la commande scconf -c -A.

Temps d'inactivité de la méthode d'arrêt HA Oracle (4644289)

Si vous utilisez Solaris 9, entrez les éléments suivants dans les fichiers de configuration /etc/nsswitch.conf de chaque noeud susceptible d'être noeud principal de la ressource oracle_server ou oracle_listener , de sorte que le service de données démarre et s'arrête correctement lors d'une panne réseau :

passwd: files
groups: files
publickey: files
project:  files

Le service de données Sun Cluster HA pour Oracle démarre et arrête la base de données à l'aide de la commande superutilisateur, su(1M). Lorsque le réseau public d'un noeud de cluster échoue, le service du réseau peut devenir indisponible. L'ajout des entrées mentionnées ci-dessus assure que la commande su ne se réfère pas aux services de noms NIS/NIS+.

Temps d'inactivité de la méthode d'arrêt SAP liveCache (4836272)

Si vous utilisez Solaris 9, ajoutez l'une des entrées suivantes, concernant la base de données publickey, dans les fichiers de configuration /etc/nsswitch.conf de chaque noeud susceptible d'être noeud principal des ressources liveCache de sorte que le service de données démarre et s'arrête correctement lors d'une panne réseau :

publickey: 
publickey:  files
publickey:  files [NOTFOUND=return] nis 
publickey:  files [NOTFOUND=return] nisplus

Le service de données Sun Cluster HA pour SAP liveCache utilise la commande dbmcli pour démarrer et arrêter le liveCache. Lorsque le réseau public d'un noeud de cluster échoue, le service du réseau peut devenir indisponible. L'ajout d'une des entrées mentionnées ci-dessus et des mises à jour indiquées dans le document Sun Cluster 3.1 Data Service for SAP liveCache Guide assure que les commandes su et dbmcli ne se réfèrent pas aux services de noms NIS/NIS+.

Temps d'inactivité de la sonde d'écoute HA Oracle (4900140)

Sur un système à forte charge, la sonde d'écoute Oracle est susceptible d'interrompre son activité. Pour empêcher cela, augmentez la valeur de la propriété d'extension Intervalle_sonde_complet. La valeur du temps d'inactivité de la sonde d'écoute Oracle dépend de celle de cette propriété d'extension. La première ne peut donc pas être définie indépendamment de la seconde.

Échec du redémarrage des composants Siebel par HA-Siebel (4722288)

L'agent Sun Cluster HA-Siebel ne contrôle pas les composants Siebel individuels. En cas d'échec d'un composant Siebel, seul un message d'avertissement est consigné dans syslog.

Pour corriger ce problème, relancez le groupe de ressources du serveur Siebel dans lequel les composants sont hors ligne, à l'aide de la commande scswitch -R - h noeud -g groupe_ressources.

Indisponibilité du xserver rapportée par xserver_svc_start lors du démarrage (4738554)

Le message « SAP xserver is not available » apparaît au cours du démarrage de ce serveur car il n'est pas considéré comme disponible tant qu'il n'est pas totalement actif.

Ignorez ce message lors du démarrage de SAP xserver.

Impossibilité de configurer la ressource xserver en tant que ressource de basculement (4836248)

Ne configurez pas la ressource xserver en tant que ressource de basculement. Le service de données Sun Cluster HA pour SAP liveCache ne bascule pas correctement lorsque xserver est configuré en tant que ressource de basculement.

Définition de version_type sur 4 requise pour l'utilisation de Liste_Uri_détecteur (4924147)

Pour utiliser la propriété d'extension Liste_Uri_détecteur de Sun Cluster HA for Apache et Sun Cluster HA for Sun ONE Web Server, vous devez définir la propriété version_type sur 4.

Vous pouvez aussi, à tout moment, mettre à niveau la propriété d'une ressource version_type sur 4. Pour de plus amples informations sur la procédure de mise à niveau d'un type de ressources, reportez-vous à la rubrique “Upgrading a Resource Type” in Sun Cluster 3.1 Data Service Planning and Administration Guide.

Réinitialisation de l'identificateur de projet par la commande su (4868654)

Certains services de données utilisent la commande su pour définir un ID utilisateur spécifique. Dans l'environnement d'exploitation Solaris 9, cette commande redéfinit l'identificateur de projet sur sa valeur par défaut ( default). Ce comportement permet d'ignorer la définition de l'identificateur de projet par les propriétés système Nom_projet_GR ou Nom_projet_ressource.

Pour garantir que le nom de projet adéquat est utilisé à chaque fois, définissez-le dans le fichier d'environnement de l'utilisateur. Pour cela, vous pouvez ajouter la ligne suivante au fichier .cshrc de l'utilisateur :

/usr/bin/newtask -p nom_projet -c $$

nom_projet correspond au nom de projet à utiliser.

Patchs et niveaux de microprogrammes requis

Cette rubrique fournit des informations sur les patchs applicables à la configuration de Sun Cluster. .


Remarque :

vous devez être enregistré comme utilisateur SunSolveTM pour pouvoir afficher et télécharger les patchs nécessaires à Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant Sun ou enregistrez-vous en ligne à l'adresse http://sunsolve.sun.com.


PatchPro

PatchPro est un outil de gestion de patchs destiné à faciliter la sélection et le téléchargement des patchs nécessaires à l'installation ou à la maintenance du logiciel Sun Cluster. PatchPro fournit un outil spécifique à Sun Cluster d'installation simplifiée des patchs en mode interactif, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers patchs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des patchs développés, pas uniquement des patchs de sécurité et de haut niveau de disponibilité.

Pour accéder à l'outil PatchPro pour le logiciel Sun Cluster, allez à l'adresse http://www.sun.com/PatchPro/, cliquez sur Sun Cluster puis choisissez Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre cluster et télécharger les patchs applicables.

SunSolve Online

Le site web SunSolveTM Online vous offre un accès permanent aux dernières mises à jour et versions des patchs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve Online à l'adresse http://sunsolve.sun.com pour consulter les grilles actualisées des versions de logiciels, microprogrammes et patchs prises en charge.

Vous pouvez trouver des informations sur les patchs de Sun Cluster 3.1 dans les Info Docs. Pour y accéder, connectez-vous à SunSolve et sélectionnez Simple Search en haut de la page principale. Dans la page Simple Search, cliquez sur la boîte Info Docs et entrez Sun Cluster 3.1 dans le champ des critères de recherche. La page Info Docs du logiciel Sun Cluster 3.1 s'affiche.

Avant d'installer le logiciel Sun Cluster 3.1 et d'appliquer les patchs à un élément de cluster (environnement d'exploitation Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou matériel de disque), consultez les Info Docs et les fichiers README accompagnant les patchs. Le même niveau de patchs doit être appliqué à tous les noeuds du cluster pour qu'il puisse fonctionner correctement.

Pour consulter les procédures et astuces concernant l'administration des patchs, reportez-vous à la rubrique “ Patching Sun Cluster Software and Firmware” in Guide d'administration système de Sun Cluster 3.1 10/03.

Annonces de fin de prise en charge d'une fonction

HAStorage

HAStorage risque de ne plus être pris en charge dans une version ultérieure du logiciel Sun Cluster. Des fonctions presque équivalentes sont toutefois prises en charge par HAStoragePlus. Pour mettre à niveau HAStorage vers HAStoragePlus lorsque vous utilisez des systèmes de fichiers de cluster ou des groupes de périphériques, reportez-vous à la rubrique “ Upgrading from HAStorage to HAStoragePlus” in Sun Cluster 3.1 Data Service Planning and Administration Guide.

Localisation du logiciel de services de données Sun Cluster 3.1 10/03

Les packages de localisation présentés ci-après sont accessibles depuis le CD des services de données. Lorsque vous installez ou mettez à niveau vers Sun Cluster 3.1, les packages de localisation des services de données sélectionnés sont installés automatiquement.

Langue 

Nom 

Description du progiciel 

Français 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

SUNWfscapc

Composant du Sun Cluster Apache Web Server en français 

SUNWfscbv

Composant du Sun Cluster BV Server en français 

SUNWfscdns

Composant du serveur de noms de domaines de Sun Cluster en français 

SUNWfschtt

Composant du Sun Cluster Sun ONE Web Server en français 

SUNWfsclc

Type de ressource Sun Cluster pour SAP liveCache en français 

SUNWfscnb

Type de ressource Sun Cluster pour le serveur netbackup_master en français 

SUNWfscnfs

Composant du Sun Cluster NFS Server en français 

SUNWfscnsl

Composant du Sun Cluster Sun ONE Directory Server en français 

SUNWfscor

Service de données Sun Cluster HA Oracle en français 

SUNWfscs1as

Service de données Sun Cluster HA Sun ONE Application Server en français 

SUNWfscs1mq

Service de données Sun Cluster HA Sun ONE Message Queue en français 

SUNWfscsap

Composant de Sun Cluster SAP R/3 en français 

SUNWfscsbl

Types de ressources Sun Cluster pour la passerelle et le serveur Siebel en français 

SUNWfscsyb

Service de données Sun Cluster HA Sybase en français 

SUNWfscwls

Composant du Sun Cluster BEA WebLogic Server en français 

Japonais 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

SUNWjscapc

Composant du Sun Cluster Apache Web Server en japonais 

SUNWjscbv

Composant du Sun Cluster BV Server en japonais 

SUNWjscdns

Composant du serveur de noms de domaines de Sun Cluster en japonais 

SUNWjschtt

Composant du Sun Cluster Sun ONE Web Server en japonais 

SUNWjsclc

Type de ressource Sun Cluster pour SAP liveCache en japonais 

SUNWjscnb

Type de ressource Sun Cluster pour le serveur netbackup_master en japonais 

SUNWjscnfs

Composant du Sun Cluster NFS Server en japonais 

SUNWjscnsl

Composant du Sun Cluster Sun ONE Directory Server en japonais 

SUNWjscor

Service de données Sun Cluster HA Oracle en japonais 

SUNWjscs1as

Service de données Sun Cluster HA Sun ONE Application Server en japonais 

SUNWjscs1mq

Service de données Sun Cluster HA Sun ONE Message Queue en japonais 

SUNWjscsap

Composant de Sun Cluster SAP R/3 en japonais 

SUNWjscsbl

Types de ressources Sun Cluster pour la passerelle et le serveur Siebel en japonais 

SUNWjscsyb

Service de données Sun Cluster HA Sybase en japonais 

SUNWjscwls

Composant du Sun Cluster BEA WebLogic Server en japonais 

Documentation relative aux services de données Sun Cluster 3.1 10/03

L'ensemble de la documentation utilisateur relative aux services de données Sun Cluster 3.1 10/03 est accessible au format PDF et HTML sur le Sun Cluster Agents CD-ROM. Vous n'avez pas besoin du logiciel serveur AnswerBook2TM pour lire la documentation Sun Cluster 3.1. Pour de plus amples informations, consultez le fichier index.html au niveau supérieur des CD. Ce fichier vous permet de lire les manuels PDF et HTML directement à partir du disque et d'accéder aux instructions concernant l'installation des modules de documentation.


Remarque :

vous devez installer le package SUNWsdocs avant d'installer tout package Sun Cluster. Vous pouvez utiliser la commande pkgadd pour installer le package SUNWsdocs à partir du répertoire SunCluster_3.1/Sol_N/Packages/ du Sun Cluster CD-ROM ou du répertoire components/SunCluster_Docs_3.1/Sol_ N/Packages/ du Sun Cluster Agents CD-ROM, où N correspond à 8 pour Solaris 8 ou à 9 pour Solaris 9. Le package SUNWsdocs est installé automatiquement lorsque vous exécutez le programme d'installation du Solaris 9 Documentation CD.


La documentation Sun Cluster 3.1 est composée des collections indiquées ci-dessous.

En outre, le site web docs.sun.comSM vous permet d'accéder à la documentation de Sun Cluster sur l'internet. Vous pouvez le parcourir ou y rechercher un titre de manuel ou un sujet particulier.

http://docs.sun.com

Problèmes liés à la documentation

Cette rubrique détaille les erreurs connues et les omissions de la documentation, de l'aide en ligne et des pages de manuel, et indique la marche à suivre pour y remédier.

Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide

Cette rubrique traite des erreurs et omissions contenues dans le document Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide.

Configuration minimale requise pour l'utilisation du système de fichiers de cluster

La rubrique “Requirements for Using the Cluster File System” indique à tort qu'il est possible de stocker des fichiers de données sur le système de fichiers de cluster. Il ne faut pas stocker de fichiers de données sur le système de fichiers de cluster. Ignorez donc toute référence aux fichiers de données dans cette rubrique.

Création de fichiers et répertoires spécifiques aux noeuds destinés à être utilisés avec le logiciel Oracle Parallel Server/Real Application Clusters sur le système de fichiers de cluster

Après l'installation du logiciel Oracle sur le système de fichiers de cluster, tous les fichiers du répertoire spécifiés par la variable d'environnement ORACLE_HOME sont accessibles à tous les noeuds du cluster.

Certaines installations peuvent requérir la maintenance d'informations spécifiques aux noeuds par des fichiers ou répertoires Oracle. Cette exigence peut être satisfaite par la création d'un lien symbolique dont la cible est un fichier ou répertoire d'un système de fichiers local du noeud. Ce type de système de fichiers n'existe pas dans le système de fichiers de cluster.

La création d'un lien symbolique implique donc l'allocation d'une zone sur un système de fichiers local. Avant de pouvoir créer des liens symboliques vers les fichiers de cette zone, les applications Oracle doivent d'abord pouvoir accéder aux fichiers. Les liens symboliques résidant sur le système de fichiers du cluster, les références aux liens sont les mêmes depuis tous les noeuds. Ainsi, tous les noeuds doivent avoir le même espace de nom pour la zone du système de fichiers local.

Procédure de création d'un répertoire spécifique à un noeud destiné à être utilisé avec le logiciel Oracle Parallel Server/Real Application Clusters sur le système de fichiers de cluster

Cette procédure doit être exécutée pour tous les répertoires devant maintenir des informations spécifiques aux noeuds. Les répertoires suivants doivent généralement maintenir ces informations :

Pour de plus amples informations sur les autres répertoires susceptibles de devoir maintenir des informations spécifiques aux noeuds, reportez-vous à votre documentation Oracle.

  1. Créez sur chaque noeud du cluster le répertoire local devant maintenir des informations spécifiques aux noeuds.


    # mkdir -p rép_local
    
    -p

    Indique que tous les répertoires parents non existants sont créés d'abord.

    rép_local

    Spécifie le nom de chemin d'accès complet du répertoire que vous créez.

  2. Sur chaque noeud du cluster, faites une copie locale du répertoire global devant maintenir des informations spécifiques aux noeuds.


    # cp -pr rép_global parent_rép_local
    
    -p

    Indique que le propriétaire, le groupe, les modes d'autorisations d'accès, la date de modification, la date d'accès et les listes de contrôle d'accès sont préservés.

    -r

    Indique que le répertoire et tous ses fichiers, avec les éventuels sous-répertoires et leurs fichiers sont copiés.

    rép_global

    Spécifie le chemin d'accès complet du répertoire global que vous copiez. Ce répertoire réside sur le système de fichiers du cluster dans le répertoire défini par la variable d'environnement ORACLE_HOME.

    parent_rép_local

    Spécifie le répertoire du noeud local destiné à contenir la copie locale. Il s'agit du répertoire parent de celui que vous avez créé à l'Étape 1.

  3. Remplacez le répertoire global copié à l'Étape 2 par un lien symbolique vers la copie locale du répertoire global.

    1. Supprimez le répertoire global copié à l'Étape 2 à partir de n'importe quel noeud du cluster.


      # rm -r rép_global
      
      -r

      Indique que le répertoire et tous ses fichiers, avec les éventuels sous-répertoires et leurs fichiers sont supprimés.

      rép_global

      Spécifie le nom de fichier et le chemin d'accès complet du répertoire global que vous supprimez. Il s'agit du répertoire global copié à l'Étape 2.

    2. Créez un lien symbolique depuis la copie locale du répertoire vers le répertoire global supprimé à l'Étape a à partir de n'importe quel noeud du cluster.


      # ln -s rép_local rép_global
      
      -s

      Indique qu'il s'agit d'un lien symbolique.

      rép_local

      Indique que le répertoire local créé à l'Étape 1 est la source du lien.

      rép_global

      Indique que le répertoire global supprimé à l'Étape a est la cible du lien.


Exemple 1–1 Création de répertoires spécifiques aux noeuds

Cet exemple montre les différentes étapes de création de répertoires spécifiques aux noeuds sur un cluster à deux noeuds. Ce cluster est configuré de la manière suivante :

Effectuez les opérations indiquées ci-dessous sur chaque noeud.

  1. Pour créer les répertoires requis sur le système de fichiers local, exécutez les commandes suivantes :


    # mkdir -p /local/oracle/network/agent

    # mkdir -p /local/oracle/network/log

    # mkdir -p /local/oracle/network/trace

    # mkdir -p /local/oracle/srvm/log

    # mkdir -p /local/oracle/apache
  2. Pour faire des copies locales des répertoires globaux devant maintenir des informations spécifiques aux noeuds, exécutez les commandes suivantes :


    # cp -pr $ORACLE_HOME/network/agent /local/oracle/network/.

    # cp -pr $ORACLE_HOME/network/log /local/oracle/network/.

    # cp -pr $ORACLE_HOME/network/trace /local/oracle/network/.

    # cp -pr $ORACLE_HOME/srvm/log /local/oracle/srvm/.

    # cp -pr $ORACLE_HOME/apache /local/oracle/.

Effectuez les opérations indiquées ci-dessous sur un noeud uniquement.

  1. Pour supprimer les répertoires globaux, exécutez les commandes suivantes :


    # rm -r $ORACLE_HOME/network/agent

    # rm -r $ORACLE_HOME/network/log

    # rm -r $ORACLE_HOME/network/trace

    # rm -r $ORACLE_HOME/srvm/log

    # rm -r $ORACLE_HOME/apache
  2. Pour créer des liens symboliques depuis les répertoires locaux vers leurs répertoires globaux correspondants, exécutez les commandes suivantes :


    # ln -s /local/oracle/network/agent $ORACLE_HOME/network/agent 

    # ln -s /local/oracle/network/log $ORACLE_HOME/network/log

    # ln -s /local/oracle/network/trace $ORACLE_HOME/network/trace

    # ln -s /local/oracle/srvm/log $ORACLE_HOME/srvm/log

    # ln -s /local/oracle/apache $ORACLE_HOME/apache

Procédure de création d'un fichier spécifique à un noeud destiné à être utilisé avec le logiciel Oracle Parallel Server/Real Application Clusters sur le système fichiers de cluster

Cette procédure doit être exécutée pour tous les fichiers devant maintenir des informations spécifiques aux noeuds. Les fichiers suivants doivent généralement maintenir ces informations :

Pour de plus amples informations sur les autres fichiers susceptibles de devoir maintenir des informations spécifiques aux noeuds, reportez-vous à votre documentation Oracle.

  1. Sur chaque noeud du cluster, créez le répertoire local du fichier devant maintenir des informations spécifiques aux noeuds.


    # mkdir -p rép_local
    
    -p

    Indique que tous les répertoires parents non existants sont créés d'abord.

    rép_local

    Spécifie le nom de chemin d'accès complet du répertoire que vous créez.

  2. Sur chaque noeud du cluster, faites une copie locale du fichier global devant maintenir des informations spécifiques aux noeuds.


    # cp -p fichier_global rép_local
    
    -p

    Indique que le propriétaire, le groupe, les modes d'autorisations d'accès, la date de modification, la date d'accès et les listes de contrôle d'accès sont préservés.

    fichier_global

    Spécifie le nom de fichier et le chemin d'accès complet du fichier global que vous copiez. Ce fichier a été installé dans le système de fichiers du cluster dans le répertoire défini par la variable d'environnement ORACLE_HOME.

    rép_local

    Spécifie le répertoire destiné à contenir la copie locale du fichier. Il s'agit du répertoire créé à l'Étape 1.

  3. Remplacez le fichier global copié à l'Étape 2 par un lien symbolique vers la copie locale du fichier.

    1. Supprimez le fichier global copié à l'Étape 2 à partir de n'importe quel noeud du cluster.


      # rm fichier_global
      
      fichier_global

      Spécifie le nom de fichier et le chemin d'accès complet du fichier global que vous supprimez. Il s'agit du fichier global copié à l'Étape 2.

    2. Créez un lien symbolique depuis la copie locale du fichier vers le répertoire où le fichier global a été supprimé à l'Étape a à partir de n'importe quel noeud du cluster.


      # ln -s fichier_local rép_global
      
      -s

      Indique qu'il s'agit d'un lien symbolique.

      fichier_local

      Indique que le fichier copié à l'Étape 2 est la source du lien.

      rép_global

      Indique que le répertoire à partir duquel la version globale du fichier a été supprimée à l'Étape a est la cible du lien.


Exemple 1–2 Création de fichiers spécifiques aux noeuds

Cet exemple montre les différentes étapes de création de fichiers spécifiques aux noeuds sur un cluster à deux noeuds. Ce cluster est configuré de la manière suivante :

Effectuez les opérations indiquées ci-dessous sur chaque noeud.

  1. Pour créer le répertoire local des fichiers devant maintenir des informations spécifiques aux noeuds, exécutez la commande suivante :


    # mkdir -p /local/oracle/network/admin
  2. Pour faire une copie locale des fichiers globaux devant maintenir des informations spécifiques aux noeuds, exécutez les commandes suivantes :


    # cp -p $ORACLE_HOME/network/admin/snmp_ro.ora \
      /local/oracle/network/admin/.

    # cp -p $ORACLE_HOME/network/admin/snmp_rw.ora \
      /local/oracle/network/admin/.

Effectuez les opérations indiquées ci-dessous sur un noeud uniquement.

  1. Pour supprimer les fichiers globaux, exécutez les commandes suivantes :


    # rm $ORACLE_HOME/network/admin/snmp_ro.ora

    # rm $ORACLE_HOME/network/admin/snmp_rw.ora
  2. Pour créer des liens symboliques depuis les copies locales des fichiers vers leurs fichiers globaux correspondants, exécutez les commandes suivantes :


    # ln -s /local/oracle/network/admin/snmp_ro.ora \
     $ORACLE_HOME/network/admin/snmp_rw.ora

    # ln -s /local/oracle/network/admin/snmp_rw.ora \
      $ORACLE_HOME/network/admin/snmp_rw.ora

Sun Cluster 3.1 Data Service for Oracle E-Business Suite Guide

Cette rubrique traite des erreurs et omissions du document Sun Cluster 3.1 Data Service for Oracle E-Business Suite Guide.

Procédure d'enregistrement et de configuration de Sun Cluster HA pour Oracle E-Business Suite en tant que service de basculement

L'étape 13 de la procédure “How to Register and Configure Sun Cluster HA for Oracle E-Business Suite as a Failover Service” est erronée. Le texte correct est le suivant :

L'exemple suivant cette étape est également incorrect. Corrigez-le comme suit :

RS=ebs-cmg-res
RG=ebs-rg
HAS_RS=ebs-has-res
LSR_RS=ebs-cmglsr-res
CON_HOST=lhost1
CON_COMNTOP=/global/mnt10/d01/oracle/prodcomn
CON_APPSUSER=ebs
APP_SID=PROD
APPS_PASSWD=apps
ORACLE_HOME=/global/mnt10/d01/oracle/prodora/8.0.6
CON_LIMIT=70
MODE=32/Y

Service de données Sun Cluster 3.1 10/03 pour Sun ONE Directory Server et Sun ONE Web Server

Cette rubrique présente les erreurs et omissions relevées dans les documents Sun Cluster 3.1 Data Service for Sun ONE Directory Server Guide et Guide des services de données Sun Cluster 3.1 pour Sun ONE Web Server.

Modification de nom pour iPlanet Web Server et iPlanet Directory Server

Les noms d'iPlanet Web Server et iPlanet Directory Server ont été modifiés ; ils s'appellent désormais Sun ONE Web Server et Sun ONE Directory Server. Les noms des services de données sont maintenant Sun Cluster HA pour Sun ONE Web Server et Sun Cluster HA pour Sun ONE Directory Server.

Les noms d'applications sur le Sun Cluster Agents CD-ROM sont peut-être toujours iPlanet Web Server et iPlanet Directory Server.

Service de données Sun Cluster 3.1 10/03 pour SAP liveCache

Cette rubrique présente les erreurs et omissions relevées dans le document Sun Cluster 3.1 Data Service for SAP liveCache.

La rubrique « Registering and Configuring Sun Cluster HA for SAP liveCache » devrait indiquer que SAP xserver ne peut être configuré que comme ressource évolutive. La configuration de SAP xserver comme ressource de basculement empêche la ressource SAP liveCache de basculer. Ignorez toute référence à la configuration de la ressource SAP xserver comme ressource de basculement dans le document Sun Cluster 3.1 Data Service for SAP liveCache.

La rubrique « Registering and Configuring Sun Cluster HA for SAP liveCache » devrait également contenir une étape supplémentaire. Après l'étape 10, « Enable the scalable resource group that now includes the SAP xserver resource », vous devez enregistrer la ressource liveCache en entrant le texte suivant :


# scrgadm -a -j ressource_livecache -g groupe_ressources_livecache \
-t SUNW.sap_livecache -x livecache_name=nom_LC \
-y resource_dependencies=ressource_stockage_livecache

Après avoir enregistré la ressource liveCache, passez à l'étape suivante, « Set up a resource group dependency between SAP xserver and liveCache ».

Service de données Sun Cluster 3.1 10/03 pour le serveur WebLogic

Cette rubrique présente les erreurs et omissions relevées dans le document Sun Cluster 3.1 Data Service for WebLogic Server .

Le tableau « Protection of BEA WebLogic Server Component » devrait indiquer que la base de données du serveur BEA WebLogic est protégée par toutes celles prises en charge par le serveur BEA WebLogic et par Sun Cluster. Il devrait également indiquer que les serveurs HTTP sont protégés par tous ceux pris en charge par le serveur BEA WebLogic et par Sun Cluster.

Service de données Sun Cluster 3.1 10/03 pour Apache

Cette rubrique présente les erreurs et omissions relevées dans le document Sun Cluster 3.1 Data Service for Apache Guide.

La rubrique « Planning the Installation and Configuration » ne devrait pas comporter de remarque sur l'utilisation de serveurs proxy évolutifs servant une ressource Web évolutive. L'utilisation de serveurs proxy évolutifs n'est pas prise en charge.

Si vous utilisez la propriété d'extension Liste_Uri_détecteur pour le service de données Sun Cluster HA pour Apache, la valeur requise pour la propriété version_type est 4. Vous pouvez mettre à niveau le type de ressource vers version_type 4.

Service de données Sun Cluster 3.1 10/03 pour Sun ONE Web Server

Si vous utilisez la propriété d'extension Liste_Uri_détecteur pour le service de données Sun Cluster HA pour Sun ONE Web Server, la valeur requise pour la propriété version_type est 4. Vous pouvez mettre à niveau le type de ressource vers version_type 4.

Pages de manuel

SUNW.wls(5)

La rubrique « See Also » de cette page de manuel comporte une erreur. Il convient de se reporter non pas au document Sun Cluster 3.1 Data Services Installation and Configuration Guide, mais au document Sun Cluster 3.1 Data Service for WebLogic Server Guide.