Ce chapitre présente de nouvelles informations relatives à l'installation et à la configuration des services de données. Il s'agit d'un ajout à la version de mise à jour Sun Cluster 3.0 5/02. Ces informations sont un complément au Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide. Pour de nouvelles informations sur l'installation de la structure de grappes, reportez-vous au "Installation" à la page 39.
Ce chapitre contient de nouvelles informations sur les sujets suivants :
"Synchronisation du démarrage entre les groupes de ressources et les groupes d'unités de disques"
"Activation des systèmes de fichiers locaux à haut niveau de disponibilité"
"Enregistrement et configuration de Sun Cluster HA for Oracle"
"Enregistrement et configuration de Sun Cluster HA for Sybase ASE"
"Directives pour la configuration des services de données Sun Cluster"
"Relations entre les groupes de ressources et les groupes d'unités de disques"
"Libération de ressources de noeud en déchargeant les groupes de ressources non critiques"
"Installation et configuration du serveur iPlanet Directory"
Les informations suivantes s'appliquent à cette version de mise à jour ainsi qu'à toutes les mises à jour ultérieures.
Mise à jour du chapitre Sun Cluster HA for SAP comprenant des procédures de prise en charge de SAP comme service de données modulaire. Reportez-vous à l'Annexe B à la page 143.
Mise à jour du chapitre Sun Cluster HA for SAP comprenant des procédures de configuration d'un fichier de verrouillage. Reportez-vous à la section "Définition d'un fichier de verrouillage".
La fonction suivante a été ajoutée à la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Les périphériques globaux et les systèmes de fichiers de la grappe peuvent avoir besoin d'un certain délai avant d'être de nouveau opérationnels après l'initialisation d'une grappe ou un basculement vers un nouveau noeud. Néanmoins, les services de données peuvent utiliser la méthode START avant la mise en ligne des périphériques globaux et des systèmes de fichiers de la grappe --dont dépend le service de données. Dans ce cas, la méthode START arrive au bout de son délai et vous devez réinitialiser l'état des groupes de ressources utilisés par le service de données avant de le redémarrer manuellement. Les types de ressources HAStorage et HAStoragePlus contrôlent les périphériques globaux et les systèmes de fichiers de la grappe et forcent la méthode START des autres ressources du même groupe de ressources à attendre qu'ils redeviennent disponibles. (Pour déterminer le type de ressources à utiliser, reportez-vous à la section "Recommendations" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.) Pour éviter des tâches d'administration superflues, configurez HAStorage ou HAStoragePlus pour tous les groupes de ressources dont les ressources de services de données dépendent des périphériques globaux ou des systèmes de fichiers de la grappe.
Pour créer un type de ressource HAStoragePlus, reportez-vous à la section"Comment installer les types de ressources HAStoragePlus (5/02)".
La fonction suivante a été ajoutée à la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Vous pouvez utiliser le type de ressources HAStoragePlus afin de conférer un haut niveau de disponibilité aux systèmes de fichiers locaux dans l'environnement Sun Cluster. Les partitions du système de fichiers local doivent résider sur des groupes de disques globaux sur lesquels les commutateurs sont activés. En outre, la reprise sur panne doit être configurée pour l'environnement Sun Cluster. Ceci permet à l'utilisateur de rendre n'importe quel système de fichiers disponible à n'importe quel hôte connecté directement à ces disques multi-hôtes. (Il n'est pas possible d'utiliser HAStoragePlus pour conférer un haut niveau de disponibilité à un système de fichiers racine.)
Nous conseillons vivement l'utilisation d'un système de fichiers local à haut niveau de disponibilité pour certains services de données intensifs en termes d'E/S, de même que la configuration du type de ressources HAStoragePlus ajouté aux procédures d'enregistrement et de configuration pour ces services de données. Pour les procédures relatives à l'installation du type de ressources HAStoragePlus pour ces services de données, reportez-vous aux sections suivantes du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.
"Enregistrement et configuration de Sun Cluster HA for Oracle"
"Enregistrement et configuration de Sun Cluster HA for Sybase ASE"
Pour la procédure d'installation d'un type de ressources HAStoragePlus pour les autres services de données, reportez-vous à la section "Comment installer les types de ressources HAStoragePlus (5/02)".
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Le type de ressources HAStoragePlus a été présenté dans Sun Cluster 3.0 5/02. Ce nouveau type de ressources assume les mêmes fonctions que HAStorage, et synchronise les démarrages entre les groupes de ressources et les groupes de périphériques de disque. Le type de ressources HAStoragePlus a une fonction supplémentaire permettant de conférer un haut niveau de disponibilité à un système de fichiers local. (Pour plus d'informations sur la manière de conférer un haut niveau de disponibilité à un système de fichiers local, reportez-vous à la section "Activation des systèmes de fichiers locaux à haut niveau de disponibilité".) Pour utiliser ces deux fonctions, installez le type de ressources HAStoragePlus.
Pour installer HAStoragePlus, les partitions du système de fichiers local doivent résider sur des groupes de disque locaux sur lesquels les commutateurs sont activés et l'environnement Sun Cluster doit être configuré pour la reprise sur panne.
L'exemple ci-dessous montre l'utilisation d'un simple service NFS qui partage les données du répertoire d'accueil à partir d'un répertoire monté localement /global/local-fs/nfs/export/home. Dans cet exemple, on admet que :
Le point de montage /global/local-fs/nfs est utilisé pour monter un système de fichiers local UFS sur une partition de périphérique global de Sun Cluster.
L'entrée /etc/vfstab pour le système de fichiers /global/local-fs/nfs doit indiquer qu'il s'agit d'un système de fichiers local et que l'indicateur d'initialisation de montage est fixé sur non.
Le répertoire PathPrefix (utilisé par HA-NFS pour maintenir les informations d'administration et de statut) se trouve sur le répertoire racine du système de fichiers à monter (par exemple /global/local-fs/nfs).
Devenez superutilisateur sur un membre de la grappe.
Déterminez si le type de ressources est enregistré ou non.
La commande suivante imprime une liste des types de ressources enregistrés.
# scrgadm -p | egrep Type |
Si nécessaire, enregistrez le type de ressources.
# scrgadm -a -t SUNW.nfs |
Créez le groupe de ressources de reprise sur panne du serveur nfs-r
# scrgadm -a -g nfs-rg -y PathPrefix=/global/local-fs/nfs |
Créez une ressource d'hôte logique du type SUNW.LogicalHostname.
# scrgadm -a -j nfs-lh-rs -g nfs-rg -L -l log-nfs |
Enregistrez le type de ressource HAStoragePlus avec la grappe.
# scrgadm -a -t SUNW.HAStoragePlus |
Créez le nfs-hastp-rs de la ressource de type SUNW.HAStoragePlus.
# scrgadm -a -j nfs-hastp-rs -g nfs-rg -t SUNW.HAStoragePlus \ -x FilesystemMountPoints=/global/local-fs/nfs \ -x AffinityOn=TRUE |
Mettez en ligne le groupe de ressources nfs-rg sur un noeud de la grappe.
Ce noeud deviendra le noeud principal pour la partition de périphérique global sous-jacent au système de fichiers /global/local-fs/nfs. Ensuite, le système de fichiers /global/local-fs/nfs est monté localement sur le noeud.
# scswitch -Z -g nfs-rg |
Enregistrez le type de ressource SUNW.NFS avec la grappe. Créez la ressource nfs-rs de type SUNW.nfs et spécifiez sa dépendance par rapport à la ressource nfs-hastp-rs.
dfstab.nfs-rs sera présent dans /global/local-fs/nfs/SUNW.nfs.
# scrgadm -a -t SUNW.nfs # scrgadm -a -g nfs-rg -j nfs-rs -t SUNW.nfs \ -y Resource_dependencies=nfs-hastp-rs |
La ressource nfs-hastp-rs doit être en ligne avant de pouvoir définir la dépendance dans la ressource nfs.
Mettez la ressource nfs-rs en ligne.
# scswitch -Z -g nfs-rg |
A présent, chaque fois que le service migre vers un nouveau noeud, le chemin d'E/S principal pour /global/local-fs/nfs sera toujours en ligne et co-localisé avec les serveurs NFS. Le système de fichiers /global/local-fs/nfs sera monté localement avant de démarrer le serveur NFS.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0. Enregistrez et configurez Sun Cluster HA for Oracle en tant que service de données de reprise sur panne. Vous devez enregistrer le service de données et configurer les groupes de ressources et les ressources pour le serveur et l'écouteur Oracle. Voir "Planning for Sun Cluster Data Services" dans Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide et Sun Cluster 3.0 12/01 Concepts pour de plus amples informations sur les ressources et les groupes de ressources.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0. Cette procédure explique comment utiliser la commande scrgadm pour enregistrer et configurer Sun Cluster HA for Oracle.
Cette procédure comprend la création du type de ressources HAStoragePlus. Ce dernier synchronise les actions entre HAStoragePlus et le service de données et vous permet d'utiliser un système de fichiers local à haut niveau de disponibilité. Sun Cluster HA for Oracle utilise les disques de façon intensive, vous devez donc configurer le type de ressources HAStoragePlus.
Pour de plus amples informations, reportez vous à la page SUNW.HAStoragePlus(5) du manuel et à la section "Relationship between Resource Groups and Disks Device Groups" à la page 5.
Il existe aussi d'autres options permettant d'enregistrer et de configurer le service de données. Reportez-vous à la section "Tools for Data Service Resource Administration" en page 10 pour de plus amples informations concernant ces options.
Vous devez avoir les informations suivantes pour réaliser cette procédure.
Les noms des noeuds de la grappe qui contrôlent le service de données.
La ressource réseau utilisée par les clients pour accéder au service de données. Normalement, vous définissez cette adresse IP lors de l'installation de la grappe. Reportez-vous au Sun Cluster 3.0 12/01 Concepts pour de plus amples informations sur les ressources réseau.
Le chemin vers les binaires de l'application Oracle pour les ressources à configurer.
Effectuez cette procédure sur n'importe quel membre de la grappe.
Devenez superutilisateur sur un membre de la grappe.
Exécutez la commande scrgadm pour enregsitrer les types de ressources pour le service de données.
Pour Sun Cluster HA for Oracle, enregistrez deux types de ressources, SUNW.oracle_server et SUNW.oracle_listener, comme suit.
# scrgadm -a -t SUNW.oracle_server # scrgadm -a -t SUNW.oracle_listener |
Ajoute le type de ressource du service de données.
Indique le nom du type de ressource prédéfini pour le service de données.
Créez un groupe de ressources de reprise sur panne qui contiendra les ressources du réseau et de l'application.
Vous pouvez éventuellement sélectionner l'ensemble de noeuds sur lequel le service de données peut fonctionner à l'aide de l'option -h, comme suit.
# scrgadm -a -g groupe-ressources [-h liste_noeuds] |
Indique le nom du groupe de ressources. Vous pouvez choisir librement ce nom, mais il doit être différent pour chacun des groupes de ressources de la grappe.
Spécifie une liste (avec séparation par virgules) répertoriant les différents noms ou ID de noeuds physiques qui identifient les maîtres potentiels. L'ordre de cette liste détermine l'ordre dans lequel les noeuds seront utilisés comme noeud principal durant une reprise sur panne.
Utilisez l'option -h pour spécifier l'ordre de la liste de noeuds. Si tous les noeuds de la grappe sont des maîtres potentiels, vous n'avez pas besoin d'utiliser l'option -h.
Vérifiez que toutes les ressources réseau que vous utilisez ont été ajoutées à la base de données de votre service d'attribution de noms.
Vous avez dû effectuer cette vérification durant l'installation de Sun Cluster.
Assurez-vous que toutes les ressources réseau sont présentes dans le fichier /etc/hosts du serveur et du client, afin d'éviter tout échec lié à la recherche du service d'attribution de noms.
Ajoutez une ressource réseau au groupe de ressources de reprise sur panne.
# scrgadm -a -L -g groupe-ressources -l nom-hôte-logique [-n netiflist] |
Spécifie une ressource réseau. La ressource réseau est le nom d'hôte logique ou l'adresse partagée (adresse IP) utilisée par les clients pour accéder à Sun Cluster HA for Oracle.
Spécifie une liste facultative (avec séparation par virgules) qui identifie les groupes NAFO sur chaque noeud. Tous les noeuds de la liste_noeuds du groupe de ressources doivent être représentés dans la liste netiflist. Si vous ne spécifiez pas cette option, scrgadm(1M) essaie de trouver un adaptateur réseau sur le sous-réseau identifié par la liste des noms_hôtes pour chaque noeud dans liste_noeuds. Par exemple, -n nafo0@nom_noeud, nafo0@nom_noeud_2.
Enregistrez le type de ressource HAStoragePlus avec la grappe.
# scrgadm -a -t SUNW.HAStoragePlus |
Créez la ressource oracle-hastp-rs de type HAStoragePlus.
# scrgadm -a -j oracle-hastp-rs -g oracle-rg -t SUNW.HAStoragePlus \ [If your database is on a raw device, specify the global device path.] -x GlobalDevicePaths=ora-set1,/dev/global/dsk/dl \ [If your database in on a Cluster File Service, specify the global filesystem mount points.] -x FilesystemMountPoints=/global/ora-inst,/global/ora-data/logs \ [If your database is on a highly available local file system, specify the local filesystem mount points.] -x FilesystemMountPoints=/local/ora-data \ [Set AffinityOn to true.] -x AffinityOn=TRUE |
AffinityOn doit être défini sur TRUE et le système de fichiers local doit se trouver sur des groupes de disques globaux pour permettre un basculement en cas de panne.
Exécutez la commande scrgadm pour effectuer les tâches suivantes et mettre en ligne le groupe de ressources oracle-rg sur un noeud de la grappe.
Mettez le groupe de ressources à l'état géré.
Mettez le groupe de ressources en ligne.
Ce noeud deviendra le noeud principal du groupe de périphériques ora-set1 et l'unité brute /dev/global/dsk/d1. Les groupes de périphériques associés aux systèmes de fichiers comme /global/ora-inst et /global/ora-data/logs deviendront également principaux sur ce noeud.
# scrgadm -Z -g oracle-rg |
Créez les ressources de l'application Oracle dans le groupe de ressources de reprise sur panne.
# scrgadm -a -j ressource -g groupe-ressources \ -t SUNW.oracle_server \ -x Connect_string=utilisateur/mot_de_passe \ -x ORACLE_SID=instance \ -x ORACLE_HOME=accueil-Oracle \ -x Alert_log_file=chemin-vers-journal \ -y resource_dependencies=storageplus-ressource # scrgadm -a -j ressource -g groupe_ressources \ -t SUNW.oracle_listener \ -x LISTENER_NAME=écouteur \ -x ORACLE_HOME=accueil-Oracle \ -y resource_dependencies=ressource-storageplus |
Spécifie le nom de la ressource à ajouter.
Indique le nom du groupe de ressources dans lequel les ressources doivent être placées.
Indique le type de ressource à ajouter.
Détermine le chemin sous $ORACLE_HOME pour le journal de messages du serveur.
Indique l'utilisateur et le mot de passe que le contrôleur de panne utilise pour se connecter à la base de données. Ces paramètres doivent correspondre aux autorisations que vous avez définies dans "How to Set Up Oracle Database Permissions" à la page 23 du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide. Si vous utilisez une autorisation Solaris, entrez une barre oblique (/) au lieu du nom de l'utilisateur et du mot de passe.
Détermine l'identificateur du système Oracle.
Détermine le nom de l'instance de l'écouteur Oracle. Ce nom doit correspondre à l'entrée située dans le fichier listener.ora.
Détermine le chemin vers le répertoire principal d'Oracle.
Lorsqu'une panne survient au niveau d'une ressource de serveur Oracle et provoque un redémarrage, l'ensemble du groupe de ressources redémarre. Toutes les autres ressources (par exemple Apache ou DNS) du groupe de ressources redémarrent, même si elles ne présentent aucun problème. Pour éviter que les autres ressources ne redémarrent en même temps qu'une ressource de serveur Oracle, placez-les dans un groupe de ressources séparé.
Vous pouvez éventuellement déterminer des propriétés d'extension supplémentaires appartenant au service de données Oracle pour remplacer leurs valeurs par défaut. Pour obtenir la liste des propriétés d'extension, reportez-vous à la section "Configuring Sun Cluster HA for Oracle Extension Properties" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.
Exécutez la commande scswitch pour effectuer la tâche suivante.
L'exemple ci-dessous indique comment enregistrer Sun Cluster HA for Oracle sur une grappe comportant deux noeuds.
Cluster Information Node names: phys-schost-1, phys-schost-2 Logical Hostname: schost-1 Resource group: resource-group-1 (failover resource group) Oracle Resources: oracle-server-1, oracle-listener-1 Oracle Instances: ora-lsnr (listener), ora-srvr (server) (Add the failover resource group to contain all of the resources.) # scrgadm -a -g resource-group-1 (Add the logical hostname resource to the resource group.) # scrgadm -a -L -g resource-group-1 -l schost-1 (Register the Oracle resource types) # scrgadm -a -t SUNW.oracle_server # scrgadm -a -t SUNW.oracle_listener (Add the Oracle application resources to the resource group.) # scrgadm -a -j oracle-server-1 -g resource-group-1 \ -t SUNW.oracle_server -x ORACLE_HOME=/global/oracle \ -x Alert_log_file=/global/oracle/message-log \ -x ORACLE_SID=ora-srvr -x Connect_string=scott/tiger # scrgadm -a -j oracle-listener-1 -g resource-group-1 \ -t SUNW.oracle_listener -x ORACLE_HOME=/global/oracle \ -x LISTENER_NAME=ora-lsnr (Bring the resource group online.) # scswitch -Z -g resource-group-1 |
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0. Utilisez les procédures de cette section pour enregistrer et configurer le service de données Sun Cluster HA for Sybase ASE. Enregistrez et configurez Sun Cluster HA for Sybase ASE en tant que service de données de reprise sur panne.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultéreures du logiciel Sun Cluster 3.0. Cette procédure explique comment utiliser la commande scrgadm(1M) pour enregistrer et configurer Sun Cluster HA for Sybase ASE.
Cette procédure comprend la création du type de ressource HAStoragePlus. Ce type de ressource synchronise les actions entre HAStorage et Sun Cluster HA for Sybase ASE et vous permet d'utiliser un système de fichiers local à haut niveau de disponibilité. Sun Cluster HA for Sybase ASE utilise les disques de façon intensive, vous devez donc configurer le type de ressource HAStoragePlus.
Reportez-vous à la page SUNW.HAStoragePlus(5) du manuel et à la section "Relationship between Resource Groups and Disk Device Groups" en page 5 pour de plus amples informations concernant le type de ressource HAStoragePlus.
Il existe aussi d'autres options permettant d'enregistrer et de configurer le service de données. Reportez-vous à la section "Tools for Data Service Resource Administration" en page 10 pour de plus amples informations concernant ces options.
Pour effectuer cette procédure, vous avez besoin des informations suivantes.
Les noms des noeuds de la grappe qui contrôlent le service de données.
La ressource réseau utilisée par les clients pour accéder au service de données. D'ordinaire, vous configurez l'adresse IP lors de l'installation de la grappe. Pour de plus amples d'informations, reportez-vous aux sections du Guide d'installation du logiciel Sun Cluster 3.0 12/01 consacrées à la planification de l'environnement Sun Cluster et à l'installation de l'environnement d'exploitation Solaris.
Le chemin vers l'installation de l'application Sybase ASE.
Effectuez les étapes suivantes sur un membre de la grappe.
Devenez superutilisateur sur un membre de la grappe.
Exécutez la commande scrgadm pour enregistrer les types de ressource pour Sun Cluster HA for Sybase ASE.
# scrgadm -a -t SUNW.sybase |
Ajoute le type de ressource pour le service de données.
Indique le nom du type de ressource prédéfini pour votre service de données.
Créez un groupe de ressources de reprise sur panne qui contiendra les ressources du réseau et de l'application.
Vous pouvez éventuellement sélectionner l'ensemble de noeuds sur lequel le service de données peut fonctionner à l'aide de l'option -h, comme suit.
# scrgadm -a -g groupe-ressources [-h liste_noeuds] |
Indique le nom du groupe de ressources. Vous pouvez choisir librement ce nom, mais il doit être différent pour chacun des groupes de ressources de la grappe.
Spécifie une liste (avec séparation par virgules) répertoriant les différents noms ou ID de noeuds physiques qui identifient les maîtres potentiels. L'ordre de cette liste détermine l'ordre dans lequel les noeuds seront utilisés comme noeud principal durant une reprise sur panne.
Utilisez l'option -h pour spécifier l'ordre de la liste de noeuds. Si tous les noeuds de la grappe sont des maîtres potentiels, vous n'avez pas besoin d'utiliser l'option -h.
Vérifiez que toutes les ressources réseau que vous utilisez ont été ajoutées à la base de données de votre service d'attribution de noms.
Vous avez dû effectuer cette vérification durant l'installation de Sun Cluster.
Assurez-vous que toutes les ressources réseau sont présentes dans le fichier /etc/hosts du serveur et du client, afin d'éviter tout échec lié à la recherche du service d'attribution de noms.
Ajoutez une ressource réseau au groupe de ressources de reprise sur panne.
# scrgadm -a -L -g groupe-ressources -l nom -hôte-logique [-n netiflist] |
Spécifie une ressource réseau. La ressource réseau est le nom d'hôte logique ou l'adresse partagée (adresse IP) utilisée par les clients pour accéder à Sun Cluster HA for Oracle.
Spécifie une liste facultative (avec séparation par virgules) qui identifie les groupes NAFO sur chaque noeud. Tous les noeuds de la liste_noeuds du groupe de ressources doivent être représentés dans la liste netiflist. Si vous ne spécifiez pas cette option, scrgadm(1M) essaie de trouver un adaptateur réseau sur le sous-réseau identifié par la liste des noms_hôtes pour chaque noeud dans liste_noeuds. Par exemple, -n nafo0@nom_noeud, nafo0@nom_noeud_2.
Enregistrez le type de ressource HAStoragePlus avec la grappe.
# scrgadm -a -t SUNW.HAStoragePlus |
Créez la ressource sybase-hastp-rs de type HAStoragePlus.
# scrgadm -a -j sybase-hastp-rs -g sybase-rg \ -t SUNW.HAStoragePlus \ -x GlobalDevicePaths=sybase-set1,/dev/global/dsk/dl \ -x FilesystemMountPoints=/global/sybase-inst \ -x AffinityOn=TRUE |
AffinityOn doit être défini sur TRUE et le système de fichiers local doit se trouver sur des groupes de disques globaux pour permettre un basculement en cas de panne.
Exécutez la commande scrgadm pour effectuer les tâches suivantes et mettre en ligne le groupe de ressources sybase-rg sur un noeud de la grappe.
Mettez le groupe de ressources à l'état géré.
Mettez le groupe de ressources en ligne.
Ce noeud va devenir principal pour le groupe d'unités sybase-set1 et l'unité brute /dev/global/dsk/d1. Les groupes de périphériques associés à des systèmes de fichiers comme /global/sybase-inst seront aussi principaux sur ce noeud.
# scrgadm -Z -g sybase-rg |
Créez les ressources de l'application Sybase ASE dans le groupe de ressources de reprise sur panne.
# scrgadm -a -j ressource -g groupe-ressources \ -t SUNW.sybase \ -x Environment_File=chemin-fichier-environnement \ -x Adaptive_Server_Name=nom-serveur-adaptatif \ -x Backup_Server_Name=nom-serveur-sauvegarde \ -x Text_Server_Name=nom-serveur-texte \ -x Monitor_Server_Name=nom-serveur-moniteur \ -x Adaptive_Server_Log_File=chemin-fichier-journal \ -x Stop_File=chemin-fichier-arrêt \ -x Connect_string=utilisateur/mot de passe \ -y resource_dependencies=ressource-storageplus |
Spécifie le nom de la ressource à ajouter.
Spécifie le nom du groupe de ressources dans lequel le RGM place les ressources.
Spécifie le type de ressource à ajouter.
Détermine le nom du fichier environnement.
Détermine le nom du serveur adaptatif.
Détermine le nom du serveur de sauvegarde.
Détermine le nom du serveur texte.
Détermine le nom du serveur moniteur.
Détermine le chemin vers le fichier journal pour le serveur adaptatif.
Détermine le chemin vers le fichier d'arrêt.
Indique l'utilisateur et le mot de passe que le contrôleur de panne utilise pour se connecter à la base de données.
Vous ne devez pas nécessairement spécifier des propriétés d'extension ayant des valeurs par défaut. Reportez-vous à la section "Configuring Sun Cluster HA for Sybase ASE Extension Properties" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide pour de plus amples informations.
Exécutez la commande scswitch(1M) pour effectuer la tâche suivante.
Activez la fonction de contrôle des ressources et des pannes.
# scswitch -Z -g groupe-ressources |
Après avoir enregistré et configuré Sun Cluster HA for Sybase ASE, allez à la section "Comment vérifier l'installation de Sun Cluster HA pour Sybase ASE" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.
Les informations suivantes s'appliquent à cette version de mise à jour ainsi qu'à toutes les mises à jour ultérieures.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Système de fichiers local à haut niveau de disponibilité - En utilisant HAStoragePlus, vous pouvez intégrer votre système de fichiers local dans l'environnement Sun Cluster, conférant ainsi un haut niveau de disponibilité au système de fichiers local. HAStoragePlus fournit des fonctions supplémentaires pour les systèmes de fichiers, par exemple les vérifications, les montages et les démontages, permettant ainsi à Sun Cluster de basculer, en cas de panne, sur des systèmes de fichiers locaux. Pour basculer, le système de fichiers local doit se trouver sur des groupes de disques globaux dont les commutateurs sont activés.
Reportez-vous aux différents chapitres sur les services de données, ou à "Activation des systèmes de fichiers locaux à haut niveau de disponibilité" pour de plus amples informations sur l'utilisation du type de ressource HAStoragePlus.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Le type de ressource HAStoragePlus permet d'utiliser un système de fichiers local à haute disponibilité dans un environnement Sun Cluster configuré pour la reprise sur panne. Ce type de ressource est pris en charge par Sun Cluster 3.0 5/02. Reportez-vous à la section "Activation des systèmes de fichiers locaux à haut niveau de disponibilité" pour de plus amples informations sur l'installation du type de ressource HAStoragePlus.
Reportez-vous au chapitre sur la planification du Guide d'installation du logiciel Sun Cluster 3.0 12/01 pour de plus amples informations sur la création des systèmes de fichiers de grappe.
Les informations suivantes s'appliquent à cette version de mise à jour ainsi qu'à toutes les versions ultérieures.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0. Les types de ressources HAStorage et HAStoragePlus peuvent être utilisés pour configurer les options suivantes.
Coordonner l'ordre d'initialisation des unités de disques et des groupes de ressources en faisant attendre les méthodes START des autres ressources dans le groupe de ressources contenant la ressource HAStorage ou HAStoragePlus jusqu'à ce que les ressources de l'unité de disque deviennent disponibles.
Si AffinityOn est défini sur True, les groupes de ressources et groupes d'unités de disques seront co-localisés sur le même noeud, améliorant ainsi le fonctionnement des services de données utilisant les disques de façon intensive.
En outre, HAStoragePlus est capable de monter tout système de fichiers de grappe qui ne serait pas encore monté. Reportez-vous à la section "Planning the Cluster File System Configuration" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide pour de plus amples informations.
Si le groupe d'unités est commuté sur un autre noeud tandis que la ressource HAStorage ou HAStoragePlus est en ligne, AffinityOn reste sans effet, et le groupe de ressources ne migre pas avec le groupe d'unités. En revanche, si le groupe de ressources est commuté sur un autre noeud, AffinityOn étant configuré sur True, le groupe d'unités suit le groupe de ressources vers le nouveau noeud.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Pour déterminer s'il convient de créer des ressources HAStorage ou des ressources HAStoragePlus dans le groupe de ressources d'un service de données, prenez en considération les critères suivants.
Déterminez s'il convient d'utiliser HAStorage ou HAStoragePlus.
Utilisez HAStorage si vous travaillez avec Sun Cluster 3.0 12/01 (ou une version antérieure).
Utilisez HAStoragePlus si vous travaillez avec Sun Cluster 3.0 5/02. (Si vous voulez intégrer un système de fichiers localement dans un Sun Cluster configuré pour la reprise sur panne, vous devez effectuer une niveau vers Sun Cluster 3.0 5/02 et utiliser le type de ressource HAStoragePlus. Reportez-vous à la section "Planning the Cluster File System Configuration" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide pour obtenir de plus amples informations.
Si le groupe de ressources d'un service de données a une liste de noeuds dans laquelle certains noeuds ne sont pas directement connectés au stockage, vous devez configurer les ressources HAStorage ou HAStoragePlus dans le groupe de ressources et définir la dépendance des autres ressources du service de données sur la ressource HAStorage ou HAStoragePlus. Cette exigence permet de coordonner les ordres d'initialisation entre le stockage et les services de données.
Si votre service de données utilise les disques de façon intensive, comme c'est le cas pour Sun Cluster HA for Oracle et Sun Cluster HA for NFS, veillez à effectuer les tâches suivantes.
Ajoutez une ressource HAStorage ou HAStoragePlus au groupe de ressources de votre service de données.
Mettez la ressource HAStorage ou HAStoragePlus en ligne.
Placez la dépendance des ressources de votre service de données sur la ressource HAStorage ou HAStoragePlus.
Définissez AffinityOn sur True.
Lorsque vous effectuez ces tâches, les groupes de ressources et les groupes d'unités de disques sont co-localisés sur le même noeud.
Si votre service de données n'utilise pas les disques de façon intensive--comme celui qui lit tous ses fichiers au démarrage (par exemple Sun Cluster HA for DNS)--il est facultatif de configurer le type de ressource HAStorage ou HAStoragePlus.
Pour obtenir des recommandations spécifiques, reportez-vous aux différents chapitres consacrés aux services de données du présent manuel.
Reportez-vous à la section "Synchronisation du démarrage entre les groupes de ressources et les groupes d'unités de disques" pour de plus amples informations sur la relation entre les groupes d'unités de disques et les groupes de ressources. Vous trouverez de plus amples informations dans les pages des manuels SUNW.HAStorage(5) et SUNW.HAStoragePlus(5).
Reportez-vous à la section "Activation des systèmes de fichiers locaux à haut niveau de disponibilité" pour les procédures de montage de systèmes de fichiers comme VxFS en mode local. Vous trouverez de plus amples informations à la page SUNW.HAStoragePlus du manuel.
La fonction suivante a été ajoutée à la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Prioritized Service Management (RGOffload) permet à la grappe de libérer automatiquement les ressources d'un noeud pour les services de données critiques. RGOffload est utilisé lorsque le démarrage d'un service de données de reprise sur panne nécessite qu'un service de données non critique, modulaire ou de reprise sur panne soit mis hors ligne. RGOffload est utilisé pour décharger les groupes de ressources contenant des services de données non critiques.
Le service de données critique doit être un service de données de reprise sur panne. Le service de données à décharger peut être un service de données de reprise sur panne ou modulaire.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Devenez superutilisateur sur un membre de la grappe.
Déterminez si le type de ressource RGOffload est enregistré ou non.
La commande suivante imprime une liste de types de ressources.
# scrgadm -p|egrep SUNW.RGOffload |
Si nécessaire, enregistrez le type de ressource.
# scrgadm -a -t SUNW.RGOffload |
Définissez les Desired_primaries sur zéro dans chaque groupe de ressources à décharger par la ressource RGOffload.
# scrgadm -c -g offload-rg -y Desired_primaries=0 |
Ajoutez la ressource RGOffload au groupe de ressources de reprise sur panne critique et définissez les propriétés d'extension.
Ne placez pas de groupe de ressources sur plus d'une liste rg_to_offload de ressource. Si vous placez un groupe de ressources sur plusieurs listes rg_to_offload , le groupe de ressources sera mis successivement en ligne puis hors ligne de manière répétée.
Pour obtenir une description des propriétés d'extension, reportez-vous à la section "Configuration des propriétés d'extension RGOffload (5/02)".
# scrgadm -aj rgoffload-resource -t SUNW.RGOffload -g critical-rg \ -x rg_to_offload=offload-rg-1, offload-rg-2, ... \ -x continue_to_offload=TRUE -x max_offload_retry=15 |
Voici les propriétés d'extension autres que rg_to_offload, accompagnées de leurs valeurs par défaut. rg_to_offload est une liste (avec séparation par virgules) de groupes de ressources qui ne dépendent pas les uns des autres. Cette liste ne peut inclure le groupe de ressources auquel est ajoutée la ressource RGOffload.
Activez la ressource RGOffload.
# scswitch -ej rgoffload-resource |
Définissez la dépendance de la ressource de reprise sur panne critique sur la ressource RGOffload.
# scrgadm -c -j ressource-critique \ -y Resource_dependencies=resource-rgoffload |
Il est également possible d'utiliser Resource_dependencies_weak. L'utilisation de Resource_dependencies_weak sur le type de ressource RGOffload permet à la ressource de reprise sur panne critique de démarrer, même si des erreurs se sont produites pendant le déchargement de offload-rg.
Mettez en ligne les groupes de ressources à décharger.
# scswitch -z -g offload-rg, offload-rg-2, ... -h liste_noeuds |
Le groupe de ressources demeure en ligne sur tous les noeuds où le groupe de ressources critique est hors ligne. Le contrôleur de panne empêche le groupe de ressources de fonctionner sur le noeud lorsque le groupe de ressources critique est en ligne.
Les Desired_primaries des groupes de ressources à décharger étant définis sur 0 (reportez-vous à la section Étape 4), l'option -Z ne mettra pas ces groupes de ressources en ligne.
Mettez en ligne le groupe de ressources critique, si ce n'est déjà fait.
# scswitch -Z -g critical-rg |
Cet exemple montre comment configurer une ressource RGOffload (rgofl), le groupe de ressources critique contenant la ressource RGOffload (oracle_rg), et les groupes de ressources modulaires qui sont déchargés lors de la mise en ligne du groupe de ressources critique (IWS-SC, IWS-SC-2). Dans cet exemple, la ressource critique est oracle-server-rs.
Dans cet exemple, oracle_rg, IWS-SC, et IWS-SC-2 peuvent être contrôlés sur n'importe quel noeud de la grappe triped :phys-triped-1, phys-triped-2, phys-triped-3.
[Determine whether the SUNW.RGOffload resource type is registered.] # scrgadm -p|egrep SUNW.RGOffload [If needed, register the resource type.] # scrgadm -a -t SUNW.RGOffload [Set the Desired_primaries to zero in each resource group to be offloaded by the RGOffload resource.] |
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
En règle générale, vous utilisez la ligne de commande scrgadm -x paramètre=valeur pour configurer les propriétés d'extension lors de la création de la ressource RGOffload. Reportez-vous à la section "Standard Properties" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide pour de plus amples informations sur l'ensemble des propriétés standard Sun Cluster.
Le Tableau 5-1 décrit les propriétés d'extension configurables pour RGOffload. Les entrées réglables indiquent que vous pouvez mettre à jour la propriété.
Tableau 5-1 Propriétés d'extension RGOffload
Nom/Type de données |
Default |
---|---|
rg_to_offload (chaîne) |
Liste (avec séparation par virgules) de groupes de ressources devant être déchargés sur un noeud lorsqu'un groupe de ressources de reprise sur panne critique démarre sur ce noeud. Cette liste ne doit pas comprendre de groupes de ressources dépendants les uns des autres. Cette propriété n'a pas de valeur par défaut et doit être paramétrée.
RGOffload ne vérifie pas l'absence de boucles de dépendance dans la liste des groupes de ressources définie dans la propriété d'extension rg_to_offload. Par exemple, si le groupe de ressources RG-B dépend de RG-A, alors ni RG-A ni RG-B ne doivent faire partie de rg_to_offload.
Par défaut : None Réglable : à tout moment |
continue_to_offload (Booléen) |
Fonction booléenne indiquant s'il faut ou non continuer le déchargement du reste des groupes de ressources dans la liste rg_to_offload après une erreur dans le déchargement d'un groupe de ressources.
Cette propriété est uniquement utilisée par la méthode START.
Par défaut : True Réglable : à tout moment |
max_offload_retry (entier) |
Nombre de tentatives de déchargement d'un groupe de ressources durant le démarrage en cas d'échecs dus à la reconfiguration de la grappe ou du groupe de ressources. Les tentatives successives sont séparées par un intervalle de 10 secondes.
Définissez max_offload_retry de sorte que (le nombre de groupes de ressources à décharger * max_offload_retry * 10 secondes) soit inférieur au Start_timeout pour la ressource RGOffload. Si ce nombre est égal ou supérieur au nombre de Start_timeout, la méthode START de la ressource RGOffload peut arriver au bout de son délai avant d'avoir effectué le nombre normal de tentatives de déchargement.
Cette propriété est uniquement utilisée par la méthode START.
Par défaut : 15 Réglable : à tout moment |
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
La recherche de Fault Monitor pour la ressource RGOffload est utilisée pour garder hors ligne les groupes de ressources spécifiés dans la propriété d'extension rg_to_offload sur le noeud maître de la ressource critique. Pendant chaque cycle d'essai, Fault Monitor vérifie que les groupes à décharger (offload-rg) ne sont pas en ligne sur le noeud maître de la ressource critique. Si offload-rg est en ligne sur le noeud qui contrôle la ressource critique, Fault Monitor essaie de démarrer offload-rg sur des noeuds autres que celui qui contrôle la ressource critique et met ainsi hors ligne offload-rg sur le noeud qui contrôle la ressource critique.
desired_primaries pour offload-rg étant défini sur 0, les groupes de ressources déchargés ne sont pas redémarrés sur les noeuds qui deviennent disponibles ultérieurement. En conséquence, RGOffload essaie de démarrer offload-rg sur autant de noeuds primaires que possible, jusqu'à ce que la limite maximum_primaries soit atteinte, tout en gardant offload-rg hors ligne sur le noeud qui contrôle la ressource critique.
RGOffload essaie de démarrer tous les groupes de ressources déchargés sauf s'ils sont à l'état non géré ou à l'état de maintenance. Pour placer un groupe de ressources à l'état non géré, utilisez la commande scswitch.
# scswitch -u -g groupe_ressource |
Le cycle de recherche Fault Monitor est activé au terme de chaque Thorough_probe_interval.
Les informations suivantes s'appliquent à cette version de mise à jour ainsi qu'à toutes les mises à jour ultérieures.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Le serveur iPlanet Directory est lié à l'environnement d'exploitation Solaris 9. Si vous utilisez Solaris 9, utilisez les CD-ROM Solaris 9 pour l'installation du serveur iPlanet Directory.
Installez les modules iPlanet Directory sur tous les noeuds de la grappe, s'ils ne le sont pas déjà.
Trouvez un emplacement sur une grappe où conserver tous vos serveurs de répertoire (par exemple /global/nsldap).
Si vous le souhaitez, vous pouvez créer un répertoire distinct pour le système de fichiers.
Sur tous les noeuds, créez un lien vers le répertoire à partir de /var/ds5. Si /var/ds5 existe déjà sur un noeud, supprimez-le et créez le lien.
# rmdir /var/ds5 # ln -s /global/nsldap /var/ds5 |
Sur un noeud (n'importe lequel), configurez le ou les serveur(s) de répertoire de la façon habituelle.
# directoryserver setup |
Un lien, /usr/iplanet/ds5/slapd-instance-name, sera créé automatiquement sur ce noeud. Sur tous les autres noeuds, vous devrez créer le lien manuellement.
Dans l'exemple ci-dessous, dixon-1 est le nom du serveur de répertoire.
# ln -s /var/ds5/slapd-dixon-1 /usr/iplanet/ds5/slapd-dixon-1 |
Donnez le nom d'hôte logique lorsque la commande d'installation vous demande d'entrer le nom du serveur.
Cette étape est indispensable pour que la reprise sur panne s'effectue correctement.
L'hôte logique spécifié doit être en ligne sur le noeud à partir duquel vous exécutez la commande directoryserver setup. Cet état est nécessaire, car à la fin de l'installation de iPlanet Directory Server, iPlanet Directory Server démarre automatiquement et échoue si l'hôte logique n'est pas en ligne sur le noeud.
Si on vous demande le nom d'hôte logique, sélectionnez ce nom ainsi que le domaine pour le nom de l'ordinateur, par exemple phys-schost-1.example.com.
Donnez le nom d'hôte associé à une ressource réseau lorsque la commande d'installation vous demande d'entrer le nom entier du serveur.
Lorsque qu'une invite vous demande l'adresse IP à utiliser comme serveur d'administration iPlanet Directory Server, spécifiez l'adresse IP du noeud de grappe sur lequel vous exécutez directoryserver setup.
Dans le cadre de l'installation, vous installez un Serveur d'administration iPlanet Directory Server. L'adresse IP spécifiée pour ce serveur doit être celle d'un noeud de grappe physique, et non le nom de l'hôte logique de reprise sur panne.
Après avoir configuré et activé les ressources réseau, allez à la section "How to Configure iPlanet Directory Server" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.
Les informations suivantes s'appliquent à cette version de mise à jour ainsi qu'à toutes les mises à jour ultérieures.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Cette procédure explique comment configurer une instance de serveur Web iPlanet pour que celui-ci ait un haut niveau de disponibilité. Utilisez le navigateur NetscapeTM pour interagir avec cette procédure.
Prenez en considération les éléments ci-dessous lors de cette procédure.
Avant de commencer, assurez-vous d'avoir installé le navigateur sur une machine pouvant avoir accès au réseau sur lequel se trouve la grappe. Vous pouvez installer le navigateur sur un noeud de grappe ou sur la station d'administration de la grappe.
Vos fichiers de configuration peuvent se trouver soit sur un système de fichiers local, soit sur le système de fichiers de la grappe.
Les certificats éventuels installés pour les instances de sécurité doivent être installés à partir de tous les noeuds de la grappe. Pour effectuer cette installation, la console admin doit fonctionner sur chaque noeud. Donc, si une grappe a les noeuds n1, n2, n3 et n4, les étapes de l'installation sont les suivantes.
Exécutez le serveur admin sur le noeud n1.
A partir du navigateur Web, connectez-vous au serveur admin en tant que http://n1.domaine:port--par exemple, http://n1.example.com:8888--ou l'élément que vous avez spécifié comme port du serveur admin. D'ordinaire, le port est 8888.
Installez le certificat.
Arrêtez le serveur admin sur le noeud n1 et exécutez le serveur admin à partir du noeud n2.
A partir du navigateur Web, connectez-vous au nouveau serveur admin en tant que http://n2.domaine:port, par exemple, http://n2.example.com:8888.
Répétez ces étapes pour les noeuds n3 et n4.
Après avoir pris en considération les éléments ci-dessus, effectuez les tâches suivantes.
Créez un répertoire sur le disque local de tous les noeuds afin de contenir les journaux, les fichiers d'erreur et le fichier PID gérés par iPlanet Web Server.
Pour qu'iPlanet fonctionne normalement, ces fichiers doivent se trouver sur chaque noeud de la grappe, et non sur le système de fichiers de la grappe.
Choisissez le même emplacement sur le disque local pour tous les noeuds de la grappe. Utilisez la commande mkdir -p pour créer le répertoire. Spécifiez nobody comme propriétaire du répertoire.
L'exemple suivant montre comment réaliser cette étape.
phys-schost-1# mkdir -p /var/nom_chemin/http-instance/logs/ |
Si vous pensez que les journaux d'erreurs et les fichiers PID seront volumineux, ne les placez pas dans un répertoire sous /var car ils dépasseraient la taille de ce répertoire. Au lieu de cela, créez un répertoire dans une partition ayant assez d'espace pour traiter les fichiers volumineux.
Lancez le navigateur Netscape à partir de la station d'administration ou d'un noeud de la grappe.
Sur l'un des noeuds de la grappe, rendez-vous dans le répertoire https-admserv, et lancez le serveur admin iPlanet.
# cd https-admserv # ./start |
Entrez l'URL du serveur admin iPlanet dans le navigateur Netscape.
L'URL se compose du nom d'hôte physique et du numéro de port établis par le script d'installation iPlanet à l'étape 4 de la procédure d'installation du serveur, par exemple n1.example.com:8888. Lorsque vous effectuez l'Étape 2 dans cette procédure, la commande ./start affiche l'URL admin.
Lorsque vous y êtes invité, utilisez l'ID utilisateur et le mot de passe spécifiés à l'étape 6 de la procédure d'installation du serveur afin de vous connecter à l'interface du serveur d'administration iPlanet.
En utilisant le serveur d'administration lorsque c'est possible et en procédant manuellement aux modifications dans le cas contraire, effectuez les étapes suivantes :
Vérifiez que le nom du serveur est correct.
Vérifiez que l'utilisateur du serveur est configuré comme superutilisateur.
Modifiez le champ d'adresse et sélectionnez une des adresses ci-dessous.
Un nom d'hôte logique ou une adresse partagée si vous utilisez DNS comme service d'attribution de noms
L'adresse IP associée au nom d'hôte logique ou à l'adresse partagée si vous utilisez NIS comme service d'attribution de noms
Mettez à jour les entrées ErrorLog, PidLog et Access Log afin de refléter le répertoire créé à l'étape 1 de cette section.
Enregistrez les modifications.
La modification suivante a été introduite dans la mise à jour Sun Cluster 3.0 5/02 et s'applique à cette version, ainsi qu'à toutes les mises à jour ultérieures du logiciel Sun Cluster 3.0.
Une nouvelle propriété du groupe de ressources, Auto_start_on_new_cluster, a été ajoutée à la liste des propriétés du groupe de ressources.
Tableau 5-2 Propriétés des groupes de ressources
Nom de la propriété |
Description |
---|---|
Auto_start_on_new_cluster (Booléen) |
Cette propriété peut être utilisée pour désactiver le démarrage automatique du groupe de ressources lors de la formation d'une nouvelle grappe.
La valeur par défaut est TRUE. S'il est configuré sur TRUE, le gestionnaire de groupes de ressources essaie de démarrer le groupe de ressources automatiquement afin d'obtenir les Desired_primaries lors de la réinitialisation de la grappe. S'il est configuré sur FALSE, le groupe de ressources ne démarre pas automatiquement lors de la réinitialisation de la grappe.
Catégorie : Facultatif Par défaut : True Réglable : à tout moment |