JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster 4.1 (Français)
search filter icon
search icon

Informations document

Préface

1.  Présentation de l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers de cluster

6.  Gestion du quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation de la CPU

11.  Mise à jour du logiciel

12.  Sauvegarde et restauration d'un cluster

A.  Exemple

Configuration de la réplication de données basée sur les hôtes à l'aide du logiciel Availability Suite

Présentation du logiciel Availability Suite dans un cluster

Méthodes de réplication de données utilisées par le logiciel Availability Suite

Réplication distante

Instantané ponctuel

La réplication dans l'exemple de configuration

Directives pour la configuration de la réplication de données basée sur les hôtes entre les clusters

Configuration des groupes de ressources de réplication

Configuration des groupes de ressources d'application

Configuration des groupes de ressources pour une application de basculement

Configuration des groupes de ressources pour une application évolutive

Directives pour la gestion d'un remplacement

Liste des tâches : exemple d'une configuration de réplication de données

Connexion et installation des clusters

Exemple de configuration des groupes de périphériques et des groupes de ressources

Configuration d'un groupe de périphériques sur le cluster principal

Configuration d'un groupe de périphérique sur le cluster secondaire

Configuration du système de fichiers sur le cluster principal pour l'application NFS

Configuration du système de fichiers sur le cluster secondaire pour l'application NFS

Création d'un groupe de ressources de réplication sur le cluster principal

Création d'un groupe de ressources de réplication sur le cluster secondaire

Création d'un groupe de ressources d'application NFS sur le cluster primaire

Création d'un groupe de ressources d'application NFS sur le cluster secondaire

Exemple d'activation de la réplication de données

Activation de la réplication sur le cluster principal

Activation de la réplication sur le cluster secondaire

Exemple de réalisation de la réplication de données

Réalisation d'une réplication distante

Réalisation d'un instantané ponctuel

Vérification de la configuration correcte de la réplication

Exemple de gestion d'un remplacement

Mise à jour d'une entrée DNS

Index

Activation de la réplication sur le cluster principal

  1. Accédez au noeud nodeA en tant que rôle octroyant une autorisation RBAC solaris.cluster.read.
  2. Videz toutes les transactions.
    nodeA# lockfs -a -f
  3. Confirmez que les noms d'hôtes logiques lhost-reprg-prim et lhost-reprg-sec sont en ligne.
    nodeA# clresourcegroup status
    nodeC# clresourcegroup status

    Examinez le champ de l'état du groupe de ressources.

  4. Activez la réplication distante du cluster principal vers le cluster secondaire.

    Cette étape active la réplication du cluster principal vers le cluster secondaire. Cette étape active la réplication du volume principal (d200) du cluster principal vers le volume principal (d200) du cluster secondaire. De plus, cette étape active la réplication vers le bitmap miroir distant sur d203.

    • Si le cluster principal et le cluster secondaire ne sont pas synchronisés, exécutez cette commande :

      nodeA# /usr/sbin/sndradm -n -e lhost-reprg-prim \
      /dev/md/nfsset/rdsk/d200 \
      /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \
      /dev/md/nfsset/rdsk/d200 \
      /dev/md/nfsset/rdsk/d203 ip sync
    • Si le cluster principal et le cluster secondaire sont synchronisés, exécutez cette commande :

      nodeA# /usr/sbin/sndradm -n -E lhost-reprg-prim \
      /dev/md/nfsset/rdsk/d200 \
      /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \
      /dev/md/nfsset/rdsk/d200 \
      /dev/md/nfsset/rdsk/d203 ip sync
  5. Activez la synchronisation automatique.

    Exécutez cette commande pour le logiciel Availability Suite :

    nodeA# /usr/sbin/sndradm -n -a on lhost-reprg-prim \
    /dev/md/nfsset/rdsk/d200 \
    /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \
    /dev/md/nfsset/rdsk/d200 \
    /dev/md/nfsset/rdsk/d203 ip sync

    Cette étape active la synchronisation automatique. Lorsque l'état actif de la synchronisation automatique est défini sur activé, les ensembles de volumes sont resynchronisés si le système redémarre ou si une panne se produit.

  6. Vérifiez que le cluster se trouve en mode de journalisation.

    Utilisez la commande suivante pour le logiciel Availability Suite :

    nodeA# /usr/sbin/sndradm -P

    La sortie doit ressembler à ce qui suit :

    /dev/md/nfsset/rdsk/d200 ->
    lhost-reprg-sec:/dev/md/nfsset/rdsk/d200
    autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devgrp, state: logging

    En mode de journalisation, l'état est journalisation et l'état actif de la synchronisation est désactivé. Lorsque quelque chose est écrit sur le volume de données du disque, le fichier bitmap sur le même disque est mis à jour.

  7. Activez l'instantané ponctuel.

    Utilisez la commande suivante pour le logiciel Availability Suite :

    nodeA# /usr/sbin/iiadm -e ind \
    /dev/md/nfsset/rdsk/d200 \
    /dev/md/nfsset/rdsk/d201 \
    /dev/md/nfsset/rdsk/d202
    nodeA# /usr/sbin/iiadm -w \
    /dev/md/nfsset/rdsk/d201

    Cette étape permet au volume principal du cluster principal d'être copié sur le volume shadow du même cluster. Le volume principal, le volume shadow et le volume bitmap ponctuel doivent se trouver dans le même groupe de périphériques. Dans cet exemple, d200 correspond au volume principal, d201 au volume shadow et d203 au volume bitmap ponctuel.

  8. Joignez l'instantané ponctuel au jeu de mise en miroir distant.

    Utilisez la commande suivante pour le logiciel Availability Suite :

    nodeA# /usr/sbin/sndradm -I a \
    /dev/md/nfsset/rdsk/d200 \
    /dev/md/nfsset/rdsk/d201 \
    /dev/md/nfsset/rdsk/d202

    Cette étape associe l'instantané ponctuel au jeu de volume de mise en miroir distant. Le logiciel Availability Suite garantit la prise d'un instantané ponctuel avant que la réplication distante ne puisse avoir lieu.

Étapes suivantes

Passez à la section Activation de la réplication sur le cluster secondaire.