Supplément Sun Cluster 3.0 5/02

Chapitre 5 Services de données

Ce chapitre présente de nouvelles informations relatives à l'installation et à la configuration des services de données. Il s'agit d'un ajout à la version de mise à jour Sun Cluster 3.0 5/02. Ces informations sont un complément au Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide. Pour de nouvelles informations sur l'installation de la structure de grappes, reportez-vous au "Installation" à la page 39.

Ce chapitre contient de nouvelles informations sur les sujets suivants :

Installation et configuration de Sun Cluster HA for SAP

Les informations suivantes s'appliquent à cette version de mise à jour ainsi qu'à toutes les mises à jour ultérieures.

Synchronisation du démarrage entre les groupes de ressources et les groupes d'unités de disques

La fonction suivante a été ajoutée à la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

Les périphériques globaux et les systèmes de fichiers de la grappe peuvent avoir besoin d'un certain délai avant d'être de nouveau opérationnels après l'initialisation d'une grappe ou un basculement vers un nouveau noeud. Néanmoins, les services de données peuvent utiliser la méthode START avant la mise en ligne des périphériques globaux et des systèmes de fichiers de la grappe --dont dépend le service de données. Dans ce cas, la méthode START arrive au bout de son délai et vous devez réinitialiser l'état des groupes de ressources utilisés par le service de données avant de le redémarrer manuellement. Les types de ressources HAStorage et HAStoragePlus contrôlent les périphériques globaux et les systèmes de fichiers de la grappe et forcent la méthode START des autres ressources du même groupe de ressources à attendre qu'ils redeviennent disponibles. (Pour déterminer le type de ressources à utiliser, reportez-vous à la section "Recommendations" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.) Pour éviter des tâches d'administration superflues, configurez HAStorage ou HAStoragePlus pour tous les groupes de ressources dont les ressources de services de données dépendent des périphériques globaux ou des systèmes de fichiers de la grappe.

Pour créer un type de ressource HAStoragePlus, reportez-vous à la section"Comment installer les types de ressources HAStoragePlus (5/02)".

Activation des systèmes de fichiers locaux à haut niveau de disponibilité

La fonction suivante a été ajoutée à la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

Vous pouvez utiliser le type de ressources HAStoragePlus afin de conférer un haut niveau de disponibilité aux systèmes de fichiers locaux dans l'environnement Sun Cluster. Les partitions du système de fichiers local doivent résider sur des groupes de disques globaux sur lesquels les commutateurs sont activés. En outre, la reprise sur panne doit être configurée pour l'environnement Sun Cluster. Ceci permet à l'utilisateur de rendre n'importe quel système de fichiers disponible à n'importe quel hôte connecté directement à ces disques multi-hôtes. (Il n'est pas possible d'utiliser HAStoragePlus pour conférer un haut niveau de disponibilité à un système de fichiers racine.)

Nous conseillons vivement l'utilisation d'un système de fichiers local à haut niveau de disponibilité pour certains services de données intensifs en termes d'E/S, de même que la configuration du type de ressources HAStoragePlus ajouté aux procédures d'enregistrement et de configuration pour ces services de données. Pour les procédures relatives à l'installation du type de ressources HAStoragePlus pour ces services de données, reportez-vous aux sections suivantes du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.

Pour la procédure d'installation d'un type de ressources HAStoragePlus pour les autres services de données, reportez-vous à la section "Comment installer les types de ressources HAStoragePlus (5/02)".

Comment installer les types de ressources HAStoragePlus (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

Le type de ressources HAStoragePlus a été présenté dans Sun Cluster 3.0 5/02. Ce nouveau type de ressources assume les mêmes fonctions que HAStorage, et synchronise les démarrages entre les groupes de ressources et les groupes de périphériques de disque. Le type de ressources HAStoragePlus a une fonction supplémentaire permettant de conférer un haut niveau de disponibilité à un système de fichiers local. (Pour plus d'informations sur la manière de conférer un haut niveau de disponibilité à un système de fichiers local, reportez-vous à la section "Activation des systèmes de fichiers locaux à haut niveau de disponibilité".) Pour utiliser ces deux fonctions, installez le type de ressources HAStoragePlus.

Pour installer HAStoragePlus, les partitions du système de fichiers local doivent résider sur des groupes de disque locaux sur lesquels les commutateurs sont activés et l'environnement Sun Cluster doit être configuré pour la reprise sur panne.

L'exemple ci-dessous montre l'utilisation d'un simple service NFS qui partage les données du répertoire d'accueil à partir d'un répertoire monté localement /global/local-fs/nfs/export/home. Dans cet exemple, on admet que :

  1. Devenez superutilisateur sur un membre de la grappe.

  2. Déterminez si le type de ressources est enregistré ou non.

    La commande suivante imprime une liste des types de ressources enregistrés.


    # scrgadm -p | egrep Type
    

  3. Si nécessaire, enregistrez le type de ressources.


    # scrgadm -a -t SUNW.nfs
    

  4. Créez le groupe de ressources de reprise sur panne du serveur nfs-r


    # scrgadm -a -g nfs-rg -y PathPrefix=/global/local-fs/nfs
    

  5. Créez une ressource d'hôte logique du type SUNW.LogicalHostname.


    # scrgadm -a -j nfs-lh-rs -g nfs-rg -L -l log-nfs
    

  6. Enregistrez le type de ressource HAStoragePlus avec la grappe.


    # scrgadm -a -t SUNW.HAStoragePlus
    

  7. Créez le nfs-hastp-rs de la ressource de type SUNW.HAStoragePlus.


    # scrgadm -a -j nfs-hastp-rs -g nfs-rg -t SUNW.HAStoragePlus \
    -x FilesystemMountPoints=/global/local-fs/nfs \
    -x AffinityOn=TRUE
    

  8. Mettez en ligne le groupe de ressources nfs-rg sur un noeud de la grappe.

    Ce noeud deviendra le noeud principal pour la partition de périphérique global sous-jacent au système de fichiers /global/local-fs/nfs. Ensuite, le système de fichiers /global/local-fs/nfs est monté localement sur le noeud.


    # scswitch -Z -g nfs-rg
    

  9. Enregistrez le type de ressource SUNW.NFS avec la grappe. Créez la ressource nfs-rs de type SUNW.nfs et spécifiez sa dépendance par rapport à la ressource nfs-hastp-rs.

    dfstab.nfs-rs sera présent dans /global/local-fs/nfs/SUNW.nfs.


    # scrgadm -a -t SUNW.nfs
    # scrgadm -a -g nfs-rg -j nfs-rs -t SUNW.nfs \
    -y Resource_dependencies=nfs-hastp-rs
    


    Remarque :

    La ressource nfs-hastp-rs doit être en ligne avant de pouvoir définir la dépendance dans la ressource nfs.


  10. Mettez la ressource nfs-rs en ligne.


    # scswitch -Z -g nfs-rg
    

A présent, chaque fois que le service migre vers un nouveau noeud, le chemin d'E/S principal pour /global/local-fs/nfs sera toujours en ligne et co-localisé avec les serveurs NFS. Le système de fichiers /global/local-fs/nfs sera monté localement avant de démarrer le serveur NFS.

Enregistrement et configuration de Sun Cluster HA for Oracle

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0. Enregistrez et configurez Sun Cluster HA for Oracle en tant que service de données de reprise sur panne. Vous devez enregistrer le service de données et configurer les groupes de ressources et les ressources pour le serveur et l'écouteur Oracle. Voir "Planning for Sun Cluster Data Services" dans Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide et Sun Cluster 3.0 12/01 Concepts pour de plus amples informations sur les ressources et les groupes de ressources.

Comment enregistrer et configurer Sun Cluster HA for Oracle (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0. Cette procédure explique comment utiliser la commande scrgadm pour enregistrer et configurer Sun Cluster HA for Oracle.

Cette procédure comprend la création du type de ressources HAStoragePlus. Ce dernier synchronise les actions entre HAStoragePlus et le service de données et vous permet d'utiliser un système de fichiers local à haut niveau de disponibilité. Sun Cluster HA for Oracle utilise les disques de façon intensive, vous devez donc configurer le type de ressources HAStoragePlus.

Pour de plus amples informations, reportez vous à la page SUNW.HAStoragePlus(5) du manuel et à la section "Relationship between Resource Groups and Disks Device Groups" à la page 5.


Remarque :

Il existe aussi d'autres options permettant d'enregistrer et de configurer le service de données. Reportez-vous à la section "Tools for Data Service Resource Administration" en page 10 pour de plus amples informations concernant ces options.


Vous devez avoir les informations suivantes pour réaliser cette procédure.


Remarque :

Effectuez cette procédure sur n'importe quel membre de la grappe.


  1. Devenez superutilisateur sur un membre de la grappe.

  2. Exécutez la commande scrgadm pour enregsitrer les types de ressources pour le service de données.

    Pour Sun Cluster HA for Oracle, enregistrez deux types de ressources, SUNW.oracle_server et SUNW.oracle_listener, comme suit.


    # scrgadm -a -t SUNW.oracle_server
    # scrgadm -a -t SUNW.oracle_listener
    

    -a

    Ajoute le type de ressource du service de données.

    -t SUNW.oracle_type

    Indique le nom du type de ressource prédéfini pour le service de données.

  3. Créez un groupe de ressources de reprise sur panne qui contiendra les ressources du réseau et de l'application.

    Vous pouvez éventuellement sélectionner l'ensemble de noeuds sur lequel le service de données peut fonctionner à l'aide de l'option -h, comme suit.


    # scrgadm -a -g groupe-ressources [-h liste_noeuds]
    -g groupe_ressources

    Indique le nom du groupe de ressources. Vous pouvez choisir librement ce nom, mais il doit être différent pour chacun des groupes de ressources de la grappe.

    -h liste_noeuds

    Spécifie une liste (avec séparation par virgules) répertoriant les différents noms ou ID de noeuds physiques qui identifient les maîtres potentiels. L'ordre de cette liste détermine l'ordre dans lequel les noeuds seront utilisés comme noeud principal durant une reprise sur panne.


    Remarque :

    Utilisez l'option -h pour spécifier l'ordre de la liste de noeuds. Si tous les noeuds de la grappe sont des maîtres potentiels, vous n'avez pas besoin d'utiliser l'option -h.


  4. Vérifiez que toutes les ressources réseau que vous utilisez ont été ajoutées à la base de données de votre service d'attribution de noms.

    Vous avez dû effectuer cette vérification durant l'installation de Sun Cluster.


    Remarque :

    Assurez-vous que toutes les ressources réseau sont présentes dans le fichier /etc/hosts du serveur et du client, afin d'éviter tout échec lié à la recherche du service d'attribution de noms.


  5. Ajoutez une ressource réseau au groupe de ressources de reprise sur panne.


    # scrgadm -a -L -g groupe-ressources -l nom-hôte-logique [-n netiflist]
    -l nom-hôte-logique

    Spécifie une ressource réseau. La ressource réseau est le nom d'hôte logique ou l'adresse partagée (adresse IP) utilisée par les clients pour accéder à Sun Cluster HA for Oracle.

    [-n netiflist]

    Spécifie une liste facultative (avec séparation par virgules) qui identifie les groupes NAFO sur chaque noeud. Tous les noeuds de la liste_noeuds du groupe de ressources doivent être représentés dans la liste netiflist. Si vous ne spécifiez pas cette option, scrgadm(1M) essaie de trouver un adaptateur réseau sur le sous-réseau identifié par la liste des noms_hôtes pour chaque noeud dans liste_noeuds. Par exemple, -n nafo0@nom_noeud, nafo0@nom_noeud_2.

  6. Enregistrez le type de ressource HAStoragePlus avec la grappe.


    # scrgadm -a -t SUNW.HAStoragePlus
    

  7. Créez la ressource oracle-hastp-rs de type HAStoragePlus.


    # scrgadm -a -j oracle-hastp-rs -g oracle-rg -t SUNW.HAStoragePlus \
     
    [If your database is on a raw device, specify the global device path.]
    -x GlobalDevicePaths=ora-set1,/dev/global/dsk/dl \
     
    [If your database in on a Cluster File Service, specify the global filesystem mount points.]
    -x FilesystemMountPoints=/global/ora-inst,/global/ora-data/logs \
     
    [If your database is on a highly available local file system, specify the local 
    filesystem mount points.]
    -x FilesystemMountPoints=/local/ora-data \
     
    [Set AffinityOn to true.]
    -x AffinityOn=TRUE
    


    Remarque :

    AffinityOn doit être défini sur TRUE et le système de fichiers local doit se trouver sur des groupes de disques globaux pour permettre un basculement en cas de panne.


  8. Exécutez la commande scrgadm pour effectuer les tâches suivantes et mettre en ligne le groupe de ressources oracle-rg sur un noeud de la grappe.

    • Mettez le groupe de ressources à l'état géré.

    • Mettez le groupe de ressources en ligne.

    Ce noeud deviendra le noeud principal du groupe de périphériques ora-set1 et l'unité brute /dev/global/dsk/d1. Les groupes de périphériques associés aux systèmes de fichiers comme /global/ora-inst et /global/ora-data/logs deviendront également principaux sur ce noeud.


    # scrgadm -Z -g oracle-rg
    

  9. Créez les ressources de l'application Oracle dans le groupe de ressources de reprise sur panne.


    # scrgadm -a -j ressource -g groupe-ressources \
    
    -t SUNW.oracle_server \
    -x Connect_string=utilisateur/mot_de_passe \
    -x ORACLE_SID=instance \
    -x ORACLE_HOME=accueil-Oracle \
    -x Alert_log_file=chemin-vers-journal \
    -y resource_dependencies=storageplus-ressource
     
    # scrgadm -a -j ressource -g groupe_ressources \
    -t SUNW.oracle_listener \
    -x LISTENER_NAME=écouteur \
    -x ORACLE_HOME=accueil-Oracle \
    -y resource_dependencies=ressource-storageplus
    

    -j ressource

    Spécifie le nom de la ressource à ajouter.

    -g groupe_ressources

    Indique le nom du groupe de ressources dans lequel les ressources doivent être placées.

    -t SUNW.oracle_server/listener

    Indique le type de ressource à ajouter.

    -x Alert_log_file=chemin-ver-journal

    Détermine le chemin sous $ORACLE_HOME pour le journal de messages du serveur.

    -x Connect_string=utilisateur/mot_de_passe

    Indique l'utilisateur et le mot de passe que le contrôleur de panne utilise pour se connecter à la base de données. Ces paramètres doivent correspondre aux autorisations que vous avez définies dans "How to Set Up Oracle Database Permissions" à la page 23 du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide. Si vous utilisez une autorisation Solaris, entrez une barre oblique (/) au lieu du nom de l'utilisateur et du mot de passe.

    -x ORACLE_SID=instance

    Détermine l'identificateur du système Oracle.

    -x LISTENER_NAME=écouteur

    Détermine le nom de l'instance de l'écouteur Oracle. Ce nom doit correspondre à l'entrée située dans le fichier listener.ora.

    -x ORACLE_HOME=accueil-Oracle

    Détermine le chemin vers le répertoire principal d'Oracle.


    Remarque :

    Lorsqu'une panne survient au niveau d'une ressource de serveur Oracle et provoque un redémarrage, l'ensemble du groupe de ressources redémarre. Toutes les autres ressources (par exemple Apache ou DNS) du groupe de ressources redémarrent, même si elles ne présentent aucun problème. Pour éviter que les autres ressources ne redémarrent en même temps qu'une ressource de serveur Oracle, placez-les dans un groupe de ressources séparé.

    Vous pouvez éventuellement déterminer des propriétés d'extension supplémentaires appartenant au service de données Oracle pour remplacer leurs valeurs par défaut. Pour obtenir la liste des propriétés d'extension, reportez-vous à la section "Configuring Sun Cluster HA for Oracle Extension Properties" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.


  10. Exécutez la commande scswitch pour effectuer la tâche suivante.

    • Activez la fonction de contrôle des ressources et des pannes.


      # scswitch -Z -g groupe-ressources
      
      -Z

      Active la ressource et le moniteur, met le groupe de ressources à l'état géré et le met en ligne.

      -g groupe_ressources

      Indique le nom du groupe de ressources.

Exemple d'enregistrement de Sun Cluster HA for Oracle

L'exemple ci-dessous indique comment enregistrer Sun Cluster HA for Oracle sur une grappe comportant deux noeuds.


Cluster Information
Node names: phys-schost-1, phys-schost-2
Logical Hostname: schost-1
Resource group: resource-group-1 (failover resource group)
Oracle Resources: oracle-server-1, oracle-listener-1
Oracle Instances: ora-lsnr (listener), ora-srvr (server)
 
(Add the failover resource group to contain all of the resources.)
# scrgadm -a -g resource-group-1
 
(Add the logical hostname resource to the resource group.)
# scrgadm -a -L -g resource-group-1 -l schost-1 
 
(Register the Oracle resource types)
# scrgadm -a -t SUNW.oracle_server
# scrgadm -a -t SUNW.oracle_listener
 
(Add the Oracle application resources to the resource group.)
# scrgadm -a -j oracle-server-1 -g resource-group-1 \
-t SUNW.oracle_server -x ORACLE_HOME=/global/oracle \
-x Alert_log_file=/global/oracle/message-log \
-x ORACLE_SID=ora-srvr -x Connect_string=scott/tiger
 
# scrgadm -a -j oracle-listener-1 -g resource-group-1 \
-t SUNW.oracle_listener -x ORACLE_HOME=/global/oracle \
-x LISTENER_NAME=ora-lsnr
 
(Bring the resource group online.)
# scswitch -Z -g resource-group-1

Enregistrement et configuration de Sun Cluster HA for Sybase ASE

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0. Utilisez les procédures de cette section pour enregistrer et configurer le service de données Sun Cluster HA for Sybase ASE. Enregistrez et configurez Sun Cluster HA for Sybase ASE en tant que service de données de reprise sur panne.

Comment enregistrer et configurer Sun Cluster HA for Sybase ASE (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultéreures du logiciel Sun Cluster 3.0. Cette procédure explique comment utiliser la commande scrgadm(1M) pour enregistrer et configurer Sun Cluster HA for Sybase ASE.

Cette procédure comprend la création du type de ressource HAStoragePlus. Ce type de ressource synchronise les actions entre HAStorage et Sun Cluster HA for Sybase ASE et vous permet d'utiliser un système de fichiers local à haut niveau de disponibilité. Sun Cluster HA for Sybase ASE utilise les disques de façon intensive, vous devez donc configurer le type de ressource HAStoragePlus.

Reportez-vous à la page SUNW.HAStoragePlus(5) du manuel et à la section "Relationship between Resource Groups and Disk Device Groups" en page 5 pour de plus amples informations concernant le type de ressource HAStoragePlus.


Remarque :

Il existe aussi d'autres options permettant d'enregistrer et de configurer le service de données. Reportez-vous à la section "Tools for Data Service Resource Administration" en page 10 pour de plus amples informations concernant ces options.


Pour effectuer cette procédure, vous avez besoin des informations suivantes.


Remarque :

Effectuez les étapes suivantes sur un membre de la grappe.


  1. Devenez superutilisateur sur un membre de la grappe.

  2. Exécutez la commande scrgadm pour enregistrer les types de ressource pour Sun Cluster HA for Sybase ASE.


    # scrgadm -a -t SUNW.sybase
    

    -a

    Ajoute le type de ressource pour le service de données.

    -t SUNW.sybase

    Indique le nom du type de ressource prédéfini pour votre service de données.

  3. Créez un groupe de ressources de reprise sur panne qui contiendra les ressources du réseau et de l'application.

    Vous pouvez éventuellement sélectionner l'ensemble de noeuds sur lequel le service de données peut fonctionner à l'aide de l'option -h, comme suit.


    # scrgadm -a -g groupe-ressources [-h liste_noeuds]
    -g groupe_ressources

    Indique le nom du groupe de ressources. Vous pouvez choisir librement ce nom, mais il doit être différent pour chacun des groupes de ressources de la grappe.

    -h liste_noeud

    Spécifie une liste (avec séparation par virgules) répertoriant les différents noms ou ID de noeuds physiques qui identifient les maîtres potentiels. L'ordre de cette liste détermine l'ordre dans lequel les noeuds seront utilisés comme noeud principal durant une reprise sur panne.


    Remarque :

    Utilisez l'option -h pour spécifier l'ordre de la liste de noeuds. Si tous les noeuds de la grappe sont des maîtres potentiels, vous n'avez pas besoin d'utiliser l'option -h.


  4. Vérifiez que toutes les ressources réseau que vous utilisez ont été ajoutées à la base de données de votre service d'attribution de noms.

    Vous avez dû effectuer cette vérification durant l'installation de Sun Cluster.


    Remarque :

    Assurez-vous que toutes les ressources réseau sont présentes dans le fichier /etc/hosts du serveur et du client, afin d'éviter tout échec lié à la recherche du service d'attribution de noms.


  5. Ajoutez une ressource réseau au groupe de ressources de reprise sur panne.


    # scrgadm -a -L -g groupe-ressources -l nom -hôte-logique [-n netiflist]
    -l nom-hôte-logique

    Spécifie une ressource réseau. La ressource réseau est le nom d'hôte logique ou l'adresse partagée (adresse IP) utilisée par les clients pour accéder à Sun Cluster HA for Oracle.

    [-n netiflist]

    Spécifie une liste facultative (avec séparation par virgules) qui identifie les groupes NAFO sur chaque noeud. Tous les noeuds de la liste_noeuds du groupe de ressources doivent être représentés dans la liste netiflist. Si vous ne spécifiez pas cette option, scrgadm(1M) essaie de trouver un adaptateur réseau sur le sous-réseau identifié par la liste des noms_hôtes pour chaque noeud dans liste_noeuds. Par exemple, -n nafo0@nom_noeud, nafo0@nom_noeud_2.

  6. Enregistrez le type de ressource HAStoragePlus avec la grappe.


    # scrgadm -a -t SUNW.HAStoragePlus
    

  7. Créez la ressource sybase-hastp-rs de type HAStoragePlus.


    # scrgadm -a -j sybase-hastp-rs -g sybase-rg \
    -t SUNW.HAStoragePlus \
    -x GlobalDevicePaths=sybase-set1,/dev/global/dsk/dl \
    -x FilesystemMountPoints=/global/sybase-inst \
    -x AffinityOn=TRUE
    


    Remarque :

    AffinityOn doit être défini sur TRUE et le système de fichiers local doit se trouver sur des groupes de disques globaux pour permettre un basculement en cas de panne.


  8. Exécutez la commande scrgadm pour effectuer les tâches suivantes et mettre en ligne le groupe de ressources sybase-rg sur un noeud de la grappe.

    • Mettez le groupe de ressources à l'état géré.

    • Mettez le groupe de ressources en ligne.

    Ce noeud va devenir principal pour le groupe d'unités sybase-set1 et l'unité brute /dev/global/dsk/d1. Les groupes de périphériques associés à des systèmes de fichiers comme /global/sybase-inst seront aussi principaux sur ce noeud.


    # scrgadm -Z -g sybase-rg
    

  9. Créez les ressources de l'application Sybase ASE dans le groupe de ressources de reprise sur panne.


    # scrgadm -a -j ressource -g groupe-ressources \
    -t SUNW.sybase \
    -x Environment_File=chemin-fichier-environnement \
    -x Adaptive_Server_Name=nom-serveur-adaptatif \
    -x Backup_Server_Name=nom-serveur-sauvegarde \
    -x Text_Server_Name=nom-serveur-texte \
    -x Monitor_Server_Name=nom-serveur-moniteur \
    -x Adaptive_Server_Log_File=chemin-fichier-journal \
    -x Stop_File=chemin-fichier-arrêt \
    -x Connect_string=utilisateur/mot de passe \
    -y resource_dependencies=ressource-storageplus
    

    -j ressource

    Spécifie le nom de la ressource à ajouter.

    -g groupe-ressources

    Spécifie le nom du groupe de ressources dans lequel le RGM place les ressources.

    -t SUNW.sybase

    Spécifie le type de ressource à ajouter.

    -x Environment_File=chemin-fichier-environnement

    Détermine le nom du fichier environnement.

    -x Adaptive_Server_Name=nom-serveur-adaptatif

    Détermine le nom du serveur adaptatif.

    -x Backup_Server_Name=nom_serveur_sauvegarde

    Détermine le nom du serveur de sauvegarde.

    -x Text_Server_Name=nom-serveur-texte

    Détermine le nom du serveur texte.

    -x Monitor_Server_Name=nom-serveur-moniteur

    Détermine le nom du serveur moniteur.

    -x Adaptive_Server_Log_File=chemin-fichier-journal

    Détermine le chemin vers le fichier journal pour le serveur adaptatif.

    -x Stop_File=chemin-fichier-arrêt

    Détermine le chemin vers le fichier d'arrêt.

    -x Connect_string=utilisateur/mot_de_passe

    Indique l'utilisateur et le mot de passe que le contrôleur de panne utilise pour se connecter à la base de données.

    Vous ne devez pas nécessairement spécifier des propriétés d'extension ayant des valeurs par défaut. Reportez-vous à la section "Configuring Sun Cluster HA for Sybase ASE Extension Properties" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide pour de plus amples informations.

  10. Exécutez la commande scswitch(1M) pour effectuer la tâche suivante.

    • Activez la fonction de contrôle des ressources et des pannes.


    # scswitch -Z -g groupe-ressources
    

Etape suivante

Après avoir enregistré et configuré Sun Cluster HA for Sybase ASE, allez à la section "Comment vérifier l'installation de Sun Cluster HA pour Sybase ASE" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.

Directives pour la configuration des services de données Sun Cluster

Les informations suivantes s'appliquent à cette version de mise à jour ainsi qu'à toutes les mises à jour ultérieures.

Définition de l'emplacement des binaires de l'application (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

Planification de la configuration du système de fichiers de la grappe (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

Le type de ressource HAStoragePlus permet d'utiliser un système de fichiers local à haute disponibilité dans un environnement Sun Cluster configuré pour la reprise sur panne. Ce type de ressource est pris en charge par Sun Cluster 3.0 5/02. Reportez-vous à la section "Activation des systèmes de fichiers locaux à haut niveau de disponibilité" pour de plus amples informations sur l'installation du type de ressource HAStoragePlus.

Reportez-vous au chapitre sur la planification du Guide d'installation du logiciel Sun Cluster 3.0 12/01 pour de plus amples informations sur la création des systèmes de fichiers de grappe.

Relations entre les groupes de ressources et les groupes d'unités de disques

Les informations suivantes s'appliquent à cette version de mise à jour ainsi qu'à toutes les versions ultérieures.

Types de ressources HAStorage et HAStoragePlus (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0. Les types de ressources HAStorage et HAStoragePlus peuvent être utilisés pour configurer les options suivantes.

En outre, HAStoragePlus est capable de monter tout système de fichiers de grappe qui ne serait pas encore monté. Reportez-vous à la section "Planning the Cluster File System Configuration" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide pour de plus amples informations.


Remarque :

Si le groupe d'unités est commuté sur un autre noeud tandis que la ressource HAStorage ou HAStoragePlus est en ligne, AffinityOn reste sans effet, et le groupe de ressources ne migre pas avec le groupe d'unités. En revanche, si le groupe de ressources est commuté sur un autre noeud, AffinityOn étant configuré sur True, le groupe d'unités suit le groupe de ressources vers le nouveau noeud.


Recommandations (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

Pour déterminer s'il convient de créer des ressources HAStorage ou des ressources HAStoragePlus dans le groupe de ressources d'un service de données, prenez en considération les critères suivants.

Pour obtenir des recommandations spécifiques, reportez-vous aux différents chapitres consacrés aux services de données du présent manuel.

Reportez-vous à la section "Synchronisation du démarrage entre les groupes de ressources et les groupes d'unités de disques" pour de plus amples informations sur la relation entre les groupes d'unités de disques et les groupes de ressources. Vous trouverez de plus amples informations dans les pages des manuels SUNW.HAStorage(5) et SUNW.HAStoragePlus(5).

Reportez-vous à la section "Activation des systèmes de fichiers locaux à haut niveau de disponibilité" pour les procédures de montage de systèmes de fichiers comme VxFS en mode local. Vous trouverez de plus amples informations à la page SUNW.HAStoragePlus du manuel.

Libération de ressources de noeud en déchargeant les groupes de ressources non critiques

La fonction suivante a été ajoutée à la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

Prioritized Service Management (RGOffload) permet à la grappe de libérer automatiquement les ressources d'un noeud pour les services de données critiques. RGOffload est utilisé lorsque le démarrage d'un service de données de reprise sur panne nécessite qu'un service de données non critique, modulaire ou de reprise sur panne soit mis hors ligne. RGOffload est utilisé pour décharger les groupes de ressources contenant des services de données non critiques.


Remarque :

Le service de données critique doit être un service de données de reprise sur panne. Le service de données à décharger peut être un service de données de reprise sur panne ou modulaire.


Comment installer une ressource RGOffload (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

  1. Devenez superutilisateur sur un membre de la grappe.

  2. Déterminez si le type de ressource RGOffload est enregistré ou non.

    La commande suivante imprime une liste de types de ressources.


    # scrgadm -p|egrep SUNW.RGOffload
    

  3. Si nécessaire, enregistrez le type de ressource.


    # scrgadm -a -t SUNW.RGOffload
    

  4. Définissez les Desired_primaries sur zéro dans chaque groupe de ressources à décharger par la ressource RGOffload.


    # scrgadm -c -g offload-rg -y Desired_primaries=0
    

  5. Ajoutez la ressource RGOffload au groupe de ressources de reprise sur panne critique et définissez les propriétés d'extension.


    Caution - Caution -

    Ne placez pas de groupe de ressources sur plus d'une liste rg_to_offload de ressource. Si vous placez un groupe de ressources sur plusieurs listes rg_to_offload , le groupe de ressources sera mis successivement en ligne puis hors ligne de manière répétée.


    Pour obtenir une description des propriétés d'extension, reportez-vous à la section "Configuration des propriétés d'extension RGOffload (5/02)".


    # scrgadm -aj rgoffload-resource -t SUNW.RGOffload -g critical-rg \
    -x rg_to_offload=offload-rg-1, offload-rg-2, ... \
    -x continue_to_offload=TRUE -x max_offload_retry=15
    


    Remarque :

    Voici les propriétés d'extension autres que rg_to_offload, accompagnées de leurs valeurs par défaut. rg_to_offload est une liste (avec séparation par virgules) de groupes de ressources qui ne dépendent pas les uns des autres. Cette liste ne peut inclure le groupe de ressources auquel est ajoutée la ressource RGOffload.


  6. Activez la ressource RGOffload.


    # scswitch -ej rgoffload-resource
    

  7. Définissez la dépendance de la ressource de reprise sur panne critique sur la ressource RGOffload.


    # scrgadm -c -j ressource-critique \
    -y Resource_dependencies=resource-rgoffload
    

    Il est également possible d'utiliser Resource_dependencies_weak. L'utilisation de Resource_dependencies_weak sur le type de ressource RGOffload permet à la ressource de reprise sur panne critique de démarrer, même si des erreurs se sont produites pendant le déchargement de offload-rg.

  8. Mettez en ligne les groupes de ressources à décharger.


    # scswitch -z -g offload-rg, offload-rg-2, ... -h liste_noeuds
    

    Le groupe de ressources demeure en ligne sur tous les noeuds où le groupe de ressources critique est hors ligne. Le contrôleur de panne empêche le groupe de ressources de fonctionner sur le noeud lorsque le groupe de ressources critique est en ligne.

    Les Desired_primaries des groupes de ressources à décharger étant définis sur 0 (reportez-vous à la section Étape 4), l'option -Z ne mettra pas ces groupes de ressources en ligne.

  9. Mettez en ligne le groupe de ressources critique, si ce n'est déjà fait.


    # scswitch -Z -g critical-rg
    

Exemple de configuration d'une ressource RGOffload

Cet exemple montre comment configurer une ressource RGOffload (rgofl), le groupe de ressources critique contenant la ressource RGOffload (oracle_rg), et les groupes de ressources modulaires qui sont déchargés lors de la mise en ligne du groupe de ressources critique (IWS-SC, IWS-SC-2). Dans cet exemple, la ressource critique est oracle-server-rs.

Dans cet exemple, oracle_rg, IWS-SC, et IWS-SC-2 peuvent être contrôlés sur n'importe quel noeud de la grappe triped :phys-triped-1, phys-triped-2, phys-triped-3.


[Determine whether the SUNW.RGOffload resource type is registered.]
# scrgadm -p|egrep SUNW.RGOffload
 
[If needed, register the resource type.]
# scrgadm -a -t SUNW.RGOffload
 
[Set the Desired_primaries to zero in each resource group to be offloaded by 
the RGOffload resource.]
# scrgadm -c -g IWS-SC-2 -y Desired_primaries=0
# scrgadm -c -g IWS-SC -y Desired_primaries=0
 
[Add the RGOffload resource to the critical resource group and set the extension 
properties.]
# scrgadm -aj rgofl -t SUNW.RGOffload -g oracle_rg \
-x rg_to_offload=IWS-SC,IWS-SC-2 -x continue_to_offload=TRUE \
-x max_offload_retry=15
 
[Enable the RGOffload resource.]
# scswitch -ej rgofl
 
[Set the dependency of the critical failover resource to the RGOffload resource.]
# scrgadm -c -j oracle-server-rs -y Resource_dependencies=rgofl
 
[Bring the resource groups to be offloaded online on all nodes.]
# scswitch -z -g IWS-SC,IWS-SC-2 -h phys-triped-1,phys-triped-2,phys-triped-3
 
[If the critical failover resource group is not online, bring it online.]
# scswitch -Z -g oracle_rg

Configuration des propriétés d'extension RGOffload (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

En règle générale, vous utilisez la ligne de commande scrgadm -x paramètre=valeur pour configurer les propriétés d'extension lors de la création de la ressource RGOffload. Reportez-vous à la section "Standard Properties" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide pour de plus amples informations sur l'ensemble des propriétés standard Sun Cluster.

Le Tableau 5-1 décrit les propriétés d'extension configurables pour RGOffload. Les entrées réglables indiquent que vous pouvez mettre à jour la propriété.

Tableau 5-1 Propriétés d'extension RGOffload

Nom/Type de données 

Default 

rg_to_offload (chaîne)

Liste (avec séparation par virgules) de groupes de ressources devant être déchargés sur un noeud lorsqu'un groupe de ressources de reprise sur panne critique démarre sur ce noeud. Cette liste ne doit pas comprendre de groupes de ressources dépendants les uns des autres. Cette propriété n'a pas de valeur par défaut et doit être paramétrée. 

 

RGOffload ne vérifie pas l'absence de boucles de dépendance dans la liste des groupes de ressources définie dans la propriété d'extension rg_to_offload. Par exemple, si le groupe de ressources RG-B dépend de RG-A, alors ni RG-A ni RG-B ne doivent faire partie de rg_to_offload.

 

Par défaut : None

Réglable : à tout moment

continue_to_offload (Booléen) 

Fonction booléenne indiquant s'il faut ou non continuer le déchargement du reste des groupes de ressources dans la liste rg_to_offload après une erreur dans le déchargement d'un groupe de ressources.

 

Cette propriété est uniquement utilisée par la méthode START. 

 

Par défaut : True

Réglable : à tout moment

max_offload_retry (entier)

Nombre de tentatives de déchargement d'un groupe de ressources durant le démarrage en cas d'échecs dus à la reconfiguration de la grappe ou du groupe de ressources. Les tentatives successives sont séparées par un intervalle de 10 secondes. 

 

Définissez max_offload_retry de sorte que (le nombre de groupes de ressources à décharger * max_offload_retry * 10 secondes) soit inférieur au Start_timeout pour la ressource RGOffload. Si ce nombre est égal ou supérieur au nombre de Start_timeout, la méthode START de la ressource RGOffload peut arriver au bout de son délai avant d'avoir effectué le nombre normal de tentatives de déchargement.

 

Cette propriété est uniquement utilisée par la méthode START. 

 

Par défaut : 15

Réglable : à tout moment

Fault Monitor (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

La recherche de Fault Monitor pour la ressource RGOffload est utilisée pour garder hors ligne les groupes de ressources spécifiés dans la propriété d'extension rg_to_offload sur le noeud maître de la ressource critique. Pendant chaque cycle d'essai, Fault Monitor vérifie que les groupes à décharger (offload-rg) ne sont pas en ligne sur le noeud maître de la ressource critique. Si offload-rg est en ligne sur le noeud qui contrôle la ressource critique, Fault Monitor essaie de démarrer offload-rg sur des noeuds autres que celui qui contrôle la ressource critique et met ainsi hors ligne offload-rg sur le noeud qui contrôle la ressource critique.

desired_primaries pour offload-rg étant défini sur 0, les groupes de ressources déchargés ne sont pas redémarrés sur les noeuds qui deviennent disponibles ultérieurement. En conséquence, RGOffload essaie de démarrer offload-rg sur autant de noeuds primaires que possible, jusqu'à ce que la limite maximum_primaries soit atteinte, tout en gardant offload-rg hors ligne sur le noeud qui contrôle la ressource critique.

RGOffload essaie de démarrer tous les groupes de ressources déchargés sauf s'ils sont à l'état non géré ou à l'état de maintenance. Pour placer un groupe de ressources à l'état non géré, utilisez la commande scswitch.


# scswitch -u -g groupe_ressource

Le cycle de recherche Fault Monitor est activé au terme de chaque Thorough_probe_interval.

Installation et configuration du serveur iPlanet Directory

Les informations suivantes s'appliquent à cette version de mise à jour ainsi qu'à toutes les mises à jour ultérieures.

Comment installer iPlanet Directory Server pour Solaris 9 (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

Le serveur iPlanet Directory est lié à l'environnement d'exploitation Solaris 9. Si vous utilisez Solaris 9, utilisez les CD-ROM Solaris 9 pour l'installation du serveur iPlanet Directory.

  1. Installez les modules iPlanet Directory sur tous les noeuds de la grappe, s'ils ne le sont pas déjà.

  2. Trouvez un emplacement sur une grappe où conserver tous vos serveurs de répertoire (par exemple /global/nsldap).

    Si vous le souhaitez, vous pouvez créer un répertoire distinct pour le système de fichiers.

  3. Sur tous les noeuds, créez un lien vers le répertoire à partir de /var/ds5. Si /var/ds5 existe déjà sur un noeud, supprimez-le et créez le lien.


    # rmdir /var/ds5
    # ln -s /global/nsldap /var/ds5
    
  4. Sur un noeud (n'importe lequel), configurez le ou les serveur(s) de répertoire de la façon habituelle.


    # directoryserver setup
    

    Un lien, /usr/iplanet/ds5/slapd-instance-name, sera créé automatiquement sur ce noeud. Sur tous les autres noeuds, vous devrez créer le lien manuellement.

    Dans l'exemple ci-dessous, dixon-1 est le nom du serveur de répertoire.


    # ln -s /var/ds5/slapd-dixon-1 /usr/iplanet/ds5/slapd-dixon-1
    
  5. Donnez le nom d'hôte logique lorsque la commande d'installation vous demande d'entrer le nom du serveur.

    Cette étape est indispensable pour que la reprise sur panne s'effectue correctement.


    Remarque :

    L'hôte logique spécifié doit être en ligne sur le noeud à partir duquel vous exécutez la commande directoryserver setup. Cet état est nécessaire, car à la fin de l'installation de iPlanet Directory Server, iPlanet Directory Server démarre automatiquement et échoue si l'hôte logique n'est pas en ligne sur le noeud.


  6. Si on vous demande le nom d'hôte logique, sélectionnez ce nom ainsi que le domaine pour le nom de l'ordinateur, par exemple phys-schost-1.example.com.

    Donnez le nom d'hôte associé à une ressource réseau lorsque la commande d'installation vous demande d'entrer le nom entier du serveur.

  7. Lorsque qu'une invite vous demande l'adresse IP à utiliser comme serveur d'administration iPlanet Directory Server, spécifiez l'adresse IP du noeud de grappe sur lequel vous exécutez directoryserver setup.

Dans le cadre de l'installation, vous installez un Serveur d'administration iPlanet Directory Server. L'adresse IP spécifiée pour ce serveur doit être celle d'un noeud de grappe physique, et non le nom de l'hôte logique de reprise sur panne.

Etape suivante

Après avoir configuré et activé les ressources réseau, allez à la section "How to Configure iPlanet Directory Server" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.

Installation et configuration d'un serveur Web iPlanet

Les informations suivantes s'appliquent à cette version de mise à jour ainsi qu'à toutes les mises à jour ultérieures.

Comment configurer un iPlanet Web Server (5/02)

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

Cette procédure explique comment configurer une instance de serveur Web iPlanet pour que celui-ci ait un haut niveau de disponibilité. Utilisez le navigateur NetscapeTM pour interagir avec cette procédure.

Prenez en considération les éléments ci-dessous lors de cette procédure.

  1. Créez un répertoire sur le disque local de tous les noeuds afin de contenir les journaux, les fichiers d'erreur et le fichier PID gérés par iPlanet Web Server.

    Pour qu'iPlanet fonctionne normalement, ces fichiers doivent se trouver sur chaque noeud de la grappe, et non sur le système de fichiers de la grappe.

    Choisissez le même emplacement sur le disque local pour tous les noeuds de la grappe. Utilisez la commande mkdir -p pour créer le répertoire. Spécifiez nobody comme propriétaire du répertoire.

    L'exemple suivant montre comment réaliser cette étape.


    phys-schost-1# mkdir -p /var/nom_chemin/http-instance/logs/
    

    Remarque :

    Si vous pensez que les journaux d'erreurs et les fichiers PID seront volumineux, ne les placez pas dans un répertoire sous /var car ils dépasseraient la taille de ce répertoire. Au lieu de cela, créez un répertoire dans une partition ayant assez d'espace pour traiter les fichiers volumineux.


  2.  Lancez le navigateur Netscape à partir de la station d'administration ou d'un noeud de la grappe.

  3. Sur l'un des noeuds de la grappe, rendez-vous dans le répertoire https-admserv, et lancez le serveur admin iPlanet.


    # cd https-admserv
    # ./start
    

  4. Entrez l'URL du serveur admin iPlanet dans le navigateur Netscape.

    L'URL se compose du nom d'hôte physique et du numéro de port établis par le script d'installation iPlanet à l'étape 4 de la procédure d'installation du serveur, par exemple n1.example.com:8888. Lorsque vous effectuez l'Étape 2 dans cette procédure, la commande ./start affiche l'URL admin.

    Lorsque vous y êtes invité, utilisez l'ID utilisateur et le mot de passe spécifiés à l'étape 6 de la procédure d'installation du serveur afin de vous connecter à l'interface du serveur d'administration iPlanet.

  5. En utilisant le serveur d'administration lorsque c'est possible et en procédant manuellement aux modifications dans le cas contraire, effectuez les étapes suivantes :

    • Vérifiez que le nom du serveur est correct.

    • Vérifiez que l'utilisateur du serveur est configuré comme superutilisateur.

    • Modifiez le champ d'adresse et sélectionnez une des adresses ci-dessous.

      • Un nom d'hôte logique ou une adresse partagée si vous utilisez DNS comme service d'attribution de noms

      • L'adresse IP associée au nom d'hôte logique ou à l'adresse partagée si vous utilisez NIS comme service d'attribution de noms

    • Mettez à jour les entrées ErrorLog, PidLog et Access Log afin de refléter le répertoire créé à l'étape 1 de cette section.

    • Enregistrez les modifications.

Propriétés du groupe de ressources

La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.

Une nouvelle propriété du groupe de ressources, Auto_start_on_new_cluster, a été ajoutée à la liste des propriétés du groupe de ressources.

Tableau 5-2 Propriétés des groupes de ressources

Nom de la propriété 

Description 

Auto_start_on_new_cluster (Booléen) 

Cette propriété peut être utilisée pour désactiver le démarrage automatique du groupe de ressources lors de la formation d'une nouvelle grappe. 

 

La valeur par défaut est TRUE. S'il est configuré sur TRUE, le gestionnaire de groupes de ressources essaie de démarrer le groupe de ressources automatiquement afin d'obtenir les Desired_primaries lors de la réinitialisation de la grappe. S'il est configuré sur FALSE, le groupe de ressources ne démarre pas automatiquement lors de la réinitialisation de la grappe.

 

Catégorie : Facultatif

Par défaut : True

Réglable : à tout moment