Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster 4.1 (Français) |
1. Présentation de l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Fermeture et initialisation d'un cluster
4. Méthodes de réplication de données
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un noeud
10. Configuration du contrôle de l'utilisation de la CPU
12. Sauvegarde et restauration d'un cluster
Présentation du logiciel Availability Suite dans un cluster
Méthodes de réplication de données utilisées par le logiciel Availability Suite
La réplication dans l'exemple de configuration
Directives pour la configuration de la réplication de données basée sur les hôtes entre les clusters
Configuration des groupes de ressources de réplication
Configuration des groupes de ressources d'application
Configuration des groupes de ressources pour une application de basculement
Configuration des groupes de ressources pour une application évolutive
Directives pour la gestion d'un remplacement
Liste des tâches : exemple d'une configuration de réplication de données
Connexion et installation des clusters
Exemple de configuration des groupes de périphériques et des groupes de ressources
Configuration d'un groupe de périphériques sur le cluster principal
Configuration d'un groupe de périphérique sur le cluster secondaire
Configuration du système de fichiers sur le cluster principal pour l'application NFS
Configuration du système de fichiers sur le cluster secondaire pour l'application NFS
Création d'un groupe de ressources de réplication sur le cluster principal
Création d'un groupe de ressources de réplication sur le cluster secondaire
Création d'un groupe de ressources d'application NFS sur le cluster primaire
Création d'un groupe de ressources d'application NFS sur le cluster secondaire
Exemple d'activation de la réplication de données
Activation de la réplication sur le cluster principal
Activation de la réplication sur le cluster secondaire
Exemple de réalisation de la réplication de données
Réalisation d'une réplication distante
Réalisation d'un instantané ponctuel
Vérification de la configuration correcte de la réplication
Cette annexe fournit une alternative à la réplication basée sur les hôtes qui n'utilise pas Oracle Solaris Cluster Geographic Edition. Utilisez Oracle Solaris Cluster Geographic Edition pour la réplication basée sur les hôtes pour simplifier la configuration et le fonctionnement de la réplication basée sur les hôtes entre clusters. Reportez-vous à la section Présentation de la réplication de données.
L'exemple de cette annexe montre la procédure de configuration de la réplication de données basée sur les hôtes entre des clusters à l'aide du logiciel Fonction Availability Suite d'Oracle Solaris. L'exemple illustre une configuration en cluster complète pour une application NFS qui fournit des informations détaillées à propos de la réalisation des tâches individuelles. Toutes les tâches doivent être effectuées dans le cluster global. L'exemple n'inclut pas toutes les étapes requises par d'autres applications ou d'autres configurations en cluster.
Si vous utilisez le contrôle d'accès basé sur les rôles (RBAC) pour accéder aux noeuds du cluster, assurez-vous de disposer des droits RBAC fournissant l'autorisation pour toutes les commandes d'Oracle Solaris Cluster. Cette série de procédures de réplication de données nécessite les autorisations RBAC Oracle Solaris Cluster suivantes :
solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read
Reportez-vous à la section Administration d’Oracle Solaris 11.1 : Services de sécurité pour plus d'informations sur l'utilisation des rôles RBAC. Reportez-vous aux pages de manuel d'Oracle Solaris Cluster pour les autorisations RBAC que nécessite chaque sous-commande d'Oracle Solaris Cluster.
Cette section présente la tolérance de sinistre et décrit les méthodes de réplication de données utilisées par le logiciel Availability Suite.
La tolérance de sinistre correspond à l'aptitude à restaurer une application sur un cluster alternatif en cas de défaillance du cluster principal. La tolérance de sinistre se base sur la réplication de données et le remplacement. Un remplacement déplace un service d'application vers un cluster secondaire en mettant en ligne un ou plusieurs groupes de ressources et de périphériques.
Si les données sont répliquées de manière synchrone entre le cluster principal et le cluster secondaire, aucune donnée validée n'est perdue en cas de défaillance du site principal. Cependant, si les données sont répliquées de manière asynchrone, il peut arriver que des données ne soient pas répliquées vers le cluster secondaire avant la défaillance du site principal et soient donc perdues.
Cette section décrit la méthode de réplication distante et la méthode d'instantané ponctuel utilisées par le logiciel Availability Suite. Ce logiciel utilise les commandes sndradm et iiadm pour répliquer les données. Pour plus informations, reportez-vous aux pages de manuel sndradm(1M) et iiadm(1M).
La Figure A-1 illustre la réplication distante. Les données du volume principal du disque principal sont répliquées sur le volume principal du disque secondaire par le biais d'une connexion TCP/IP. Un bitmap miroir distant répertorie les différences entre les volumes principaux du disque principal et du disque secondaire.
Figure A-1 Réplication distante
La réplication distante peut être effectuée de manière synchrone en temps réel ou non. Chaque volume définit dans chaque cluster peut être configuré individuellement pour la réplication synchrone ou la réplication asynchrone.
Pour la réplication de données synchrone, une opération d'écriture est uniquement confirmée comme étant terminé lorsque le volume distant a été mis à jour.
Pour la réplication de données asynchrone, une opération d'écriture est confirmée comme étant terminé avant que le volume distant ait été mis à jour. La réplication de données asynchrone fournit une plus grande flexibilité sur de longues distances et une connexion faible débit.
La Figure A-2 représente un instantané ponctuel. Les données du volume principal de chaque disque sont copiées sur le volume shadow du même disque. Le bitmap ponctuel répertorie les différences entre le volume principal et le volume shadow. Lorsque les données sont copiées sur le volume shadow, le bitmap ponctuel est réinitialisé.
Figure A-2 Instantané ponctuel
La Figure A-3 montre l'utilisation de la réplication distante et de l'instantané ponctuel dans cet exemple de configuration.
Figure A-3 La réplication dans l'exemple de configuration
Cette section fournit des directives pour la configuration de la réplication de données entre les clusters. Cette section contient également des conseils pour la configuration des groupes de ressources de réplication et des groupes de ressources d'application. Utilisez ces directives lors de la configuration de la réplication de données pour votre cluster.
Cette section traite des sujets suivants :
Les groupes de ressources de réplication colocalisent le groupe de périphériques sous le contrôle du logiciel Availability Suite à l'aide de la ressource de nom d'hôte logique. Un nom d'hôte logique doit exister à chaque extrémité du flux de réplication de données et être sur le même noeud de cluster qui fait office de chemin d'E/S principal vers le périphérique. Un groupe de ressources de réplication doit disposer des caractéristiques suivantes :
Etre un groupe de ressources de basculement
Une ressource de basculement peut uniquement être exécutée sur un seul noeud à la fois. En cas de basculement, les ressources de basculement prennent part au basculement.
Avoir une ressource de nom d'hôte logique
Un nom d'hôte logique est hébergé sur un noeud de chaque cluster (principal et secondaire) et sert à fournir des adresses source et cible pour le flux de réplication de données du logiciel Availability Suite.
Avoir une ressource HAStoragePlus.
La ressource HAStoragePlus force le basculement du groupe de périphériques lorsque le groupe de ressources de réplication est commuté ou basculé. Le logiciel Oracle Solaris Cluster force également le basculement du groupe de ressources de réplication lorsque le groupe de périphériques est commuté. De cette manière, le groupe de ressources de réplication et le groupe de périphériques sont toujours colocalisés ou contrôlés par le même noeud.
Les propriétés d'extension suivantes doivent être définies dans la ressource HAStoragePlus :
GlobalDevicePaths. Cette propriété d'extension définit le groupe de périphériques auquel appartient un volume.
AffinityOn property = True. Cette propriété d'extension provoque la commutation ou le basculement du groupe de périphériques lors de la commutation ou du basculement du groupe de ressources de réplication. Cette fonction s'appelle une commutation d'analogie.
Pour plus d'informations sur HAStoragePlus, reportez-vous à la page de manuel SUNW.HAStoragePlus(5).
Etre nommé d'après le groupe de périphériques avec lequel il est colocalisé, suivi de -stor-rg
Par exemple, devgrp-stor-rg.
Etre en ligne sur le cluster principal et le cluster secondaire
Pour être hautement disponible, une application doit être gérée en tant que ressource dans un groupe de ressources d'application. Un groupe de ressources d'application peut être configuré pour une application de basculement ou une application évolutive.
La propriété d'extension ZPoolsSearchDir doit être définie dans la ressource HAStoragePlus. Cette propriété d'extension est nécessaire pour utiliser le système de fichiers ZFS.
Les ressources d'application et les groupes de ressources d'application configurés sur le cluster principal doivent aussi être configurés sur le cluster secondaire. De plus, les données auxquelles accèdent les ressources d'application doivent être répliquées sur le cluster secondaire.
Cette section fournit des directives pour la configuration des groupes de ressources d'application suivants :
Configuration des groupes de ressources pour une application de basculement
Configuration des groupes de ressources pour une application évolutive
Dans une application de basculement, une application s'exécute sur un noeud à la fois. Si ce noeud échoue, l'application bascule sur un autre noeud du même cluster. Un groupe de ressources pour une application de basculement doit disposer des caractéristiques suivantes :
Avoir une ressource HAStoragePlus pour forcer le basculement du système de fichiers ou zpool lorsque le groupe de ressources d'application est commuté ou basculé.
Le groupe de périphériques est colocalisé avec le groupe de ressources de réplication et le groupe de ressources d'application. Par conséquent, le basculement du groupe de ressources d'application force le basculement du groupe de périphériques et du groupe de ressources de réplication. Le groupe de ressources d'application, le groupe de ressources de réplication et le groupe de périphériques sont contrôlés par le même noeud.
Notez cependant qu'un basculement du groupe de périphériques ou du groupe de ressources de réplication ne provoque pas le basculement du groupe de ressources d'application.
Si les données d'application sont globalement montées, la présence d'une ressource HAStoragePlus dans le groupe de ressources d'application n'est pas nécessaire mais recommandée.
Si les données d'application sont montées localement, la présence d'une ressource HAStoragePlus dans le groupe de ressources d'application est nécessaire.
Pour plus d'informations sur HAStoragePlus, reportez-vous à la page de manuel SUNW.HAStoragePlus(5).
Doit être en ligne sur le cluster principal et hors ligne sur le cluster secondaire.
Le groupe de ressources d'application doit être mis en ligne sur le cluster secondaire lorsque le cluster secondaire prend la place du cluster principal.
La Figure A-4 illustre la configuration d'un groupe de ressources d'application et d'un groupe de ressources de réplication dans une application de basculement.
Figure A-4 Configuration des groupes de ressources dans une application de basculement
Dans une application évolutive, une application s'exécute sur plusieurs noeuds pour créer un service logique unique. Si un noeud exécutant une application évolutive échoue, le basculement ne s'effectue pas. L'application continue de s'exécuter sur les autres noeuds.
Lorsqu'une application évolutive est gérée en tant que ressource dans un groupe de ressources d'application, il n'est pas nécessaire de colocaliser le groupe de ressources d'application et le groupe de périphériques. Par conséquent, il n'est pas nécessaire de créer une ressource HAStoragePlus pour le groupe de ressources d'application.
Un groupe de ressources pour une application évolutive doit disposer des caractéristiques suivantes :
Avoir une dépendance au groupe de ressources d'adresse partagée
Les noeuds qui exécutent l'application évolutive utilisent l'adresse partagée pour distribuer les données entrantes.
Etre en ligne sur le cluster principal et hors ligne sur le cluster secondaire
La Figure A-5 illustre la configuration des groupes de ressources dans une application évolutive.
Figure A-5 Configuration des groupes de ressources dans une application évolutive
Si le cluster principal échoue, l'application doit être commutée sur le cluster secondaire dès que possible. Pour activer le cluster secondaire pour qu'il récupère, le DNS doit être mis à jour.
Les clients utilisent DNS pour faire correspondre le nom d'hôte logique d'une application à une adresse IP. Après un remplacement, pendant lequel une application est déplacée vers un cluster secondaire, les informations DNS doivent être mises à jour pour refléter la correspondance entre le nom d'hôte logique de l'application et la nouvelle adresse IP.
Figure A-6 Mappage DNS d'un client à un cluster
Pour mettre le DNS à jour, utilisez la commande nsupdate. Pour plus d'informations, reportez-vous à la page de manuel nsupdate(1M). Pour un exemple de gestion d'un remplacement, reportez-vous à la section Exemple de gestion d'un remplacement.
Après réparation, le cluster principal peut être remis en ligne. Pour repasser au cluster principal d'origine, effectuez les tâches suivantes :
Synchronisez le cluster principal au cluster secondaire pour garantir que le volume principal est à jour. Vous pouvez atteindre ce résultat en arrêtant le groupe de ressources sur le noeud secondaire pour que le flux de données de réplication puisse se purger.
Inversez la direction de la réplication des données pour que le cluster principal d'origine réplique à nouveau les données vers le cluster secondaire d'origine.
Démarrez le groupe de ressources sur le cluster principal.
Mettez le DNS à jour pour que les clients puissent accéder à l'application sur le cluster principal.
La Tableau A-1 répertorie dans cet exemple les tâches de configuration de la réplication de données pour une application NFS à l'aide du logiciel Availability Suite.
Tableau A-1 Liste des tâches : exemple d'une configuration de réplication de données
|
La Figure A-7 illustre la configuration en cluster utilisée par l'exemple de configuration. Le cluster secondaire de l'exemple de configuration contient un noeud, mais d'autres configurations en cluster peuvent être utilisées.
Figure A-7 Exemple de configuration en cluster
La Tableau A-2 récapitule le matériel et les logiciels requis par l'exemple de configuration. Le SE Oracle Solaris, le logiciel Oracle Solaris Cluster et le gestionnaire de volumes doivent être installés sur les noeuds du cluster avant le logiciel Availability Suite et les patchs.
Tableau A-2 Exigences matérielles et logicielles
|
Cette section décrit la configuration des groupes de périphériques et des groupes de ressources pour une application NFS. Pour plus d'informations, reportez-vous aux sections Configuration des groupes de ressources de réplication et Configuration des groupes de ressources d'application.
Cette section contient les procédures suivantes :
Configuration d'un groupe de périphériques sur le cluster principal
Configuration d'un groupe de périphérique sur le cluster secondaire
Configuration du système de fichiers sur le cluster principal pour l'application NFS
Configuration du système de fichiers sur le cluster secondaire pour l'application NFS
Création d'un groupe de ressources de réplication sur le cluster principal
Création d'un groupe de ressources de réplication sur le cluster secondaire
Création d'un groupe de ressources d'application NFS sur le cluster primaire
Création d'un groupe de ressources d'application NFS sur le cluster secondaire
Le tableau suivant répertorie les noms des groupes et des ressources créés par l'exemple de configuration.
Tableau A-3 Récapitulatif des groupes et des ressources dans l'exemple de configuration
|
A l'exception de devgrp-stor-rg, les noms des groupes et des ressources sont des exemples de noms qui peuvent être modifiés en fonction des besoins. Le groupe de ressources de réplication doit comprendre un nom au format devicegroupname-stor-rg.
Pour plus d'informations sur le logiciel Solaris Volume Manager, reportez-vous au Chapitre 4, Configuration du logiciel Solaris Volume Manager du manuel Guide d’installation du logiciel Oracle Solaris Cluster.