Guide d'administration système d'Oracle® Solaris Cluster

Quitter la vue de l'impression

Mis à jour : Octobre 2015
 
 

Administration des périphériques répliqués EMC Symmetrix Remote Data Facility

Le tableau suivant répertorie les tâches à accomplir pour configurer et gérer un périphérique répliqué basé sur le stockage EMC Symmetrix Remote Data Facility (SRDF).

Table 5-2  Liste des tâches : administration d'un périphérique répliqué basé sur le stockage EMC SRDF
Tâche
Instructions
Installation du logiciel SRDF sur vos noeuds et périphérique de stockage.
La documentation livrée avec votre périphérique de stockage EMC.
Configuration du groupe de réplication EMC.
Configuration du périphérique DID.
Enregistrement du groupe répliqué.
Vérification de la configuration
Récupération manuelle des données après l'échec complet de la salle principale du cluster de campus.

Configuration d'un groupe de réplication EMC SRDF

Avant de commencer

  • EMC Solutions Enabler doit être installé sur tous les noeuds du cluster avant la configuration du groupe de réplication EMC Symmetrix Remote Data Facility (SRDF). Tout d'abord, configurez les groupes de périphériques EMC SRDF sur des disques partagés du cluster. Pour plus d'informations sur la configuration des groupes de périphériques EMC SRDF, reportez-vous à la documentation du produit EMC SRDF.

  • Lors de l'utilisation d'EMC SRDF, utilisez des périphériques dynamiques plutôt que statiques. Les périphériques statiques ont besoin de plusieurs minutes pour modifier le noeud principal de réplication et peuvent affecter la durée de basculement.


Caution

Mise en garde  -  Le nom du groupe de périphériques Oracle Solaris Cluster que vous créez (Solaris Volume Manager ou disque brut) doit être identique au nom du groupe de périphériques répliqué.


  1. Prenez un rôle octroyant une autorisation RBAC de type solaris.cluster.modify sur tous les noeuds connectés à la baie de stockage.
  2. Pour une implémentation sur trois sites ou trois centres de données à l'aide de périphériques en cascade ou de périphériques SRDF simultanés, définissez le paramètre SYMAPI_2SITE_CLUSTER_DG.

    Ajoutez l'entrée suivante au fichier d'options de Solutions Enabler sur tous les noeuds de cluster participants :

    SYMAPI_2SITE_CLUSTER_DG=:rdf-group-number
    device-group

    Indique le nom du groupe de périphériques.

    rdf-group-number

    Indique le groupe RDF qui connecte le système Symmetrix local de l'hôte au système Symmetrix du second site.

    Cette entrée permet au logiciel du cluster d'automatiser le mouvement de l'application entre les deux sites SRDF synchrones.

    Pour plus d'informations sur les configurations à trois centres de données, reportez-vous à la section Three-Data-Center (3DC) Topologies du manuel Oracle Solaris Cluster Geographic Edition Overview .

  3. Sur chaque noeud configuré avec les données répliquées, détectez la configuration de périphérique symmetrix.

    Cette opération peut prendre quelques minutes.

    # /usr/symcli/bin/symcfg discover
  4. Si vous n'avez pas encore créé des paires de répliques, créez-les maintenant.

    Exécutez la commande symrdf pour créer vos paires de répliques. Pour obtenir des instructions sur la création des paires de répliques, reportez-vous à votre documentation SRDF.


    Remarque -  Si vous utilisez des périphériques RDF simultanés pour une implémentation sur trois sites ou trois centres de données, ajoutez le paramètre suivant à toutes les commandes symrdf :
    -rdfg rdf-group-number

    La spécification du numéro de groupe RDF à la commande symrdf garantit que l'opération symrdf est dirigée vers le bon groupe RDF.


  5. Sur chaque noeud configuré avec des périphériques répliqués, vérifiez que la réplication de données est correctement configurée.
    # /usr/symcli/bin/symdg show group-name
  6. Permutez le groupe de périphériques.
    1. Vérifiez que les répliques principale et secondaire sont synchronisées.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
    2. Déterminez le noeud devant contenir la réplique principale et le noeud devant contenir la réplique secondaire à l'aide de la commande symdg show.
      # /usr/symcli/bin/symdg show group-name

      Le noeud doté du périphérique RDF1 contient la réplique principale, tandis que le noeud doté de l'état du périphérique RDF2 contient la réplique secondaire.

    3. Activez la réplique secondaire.
      # /usr/symcli/bin/symrdf -g group-name failover
    4. Permutez les périphériques RDF1 et RDF2.
      # /usr/symcli/bin/symrdf -g group-name swap -refresh R1
    5. Activez la paire de répliques.
      # /usr/symcli/bin/symrdf -g group-name establish
    6. Vérifiez que le noeud principal et les répliques secondaires sont synchronisés.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
  7. Renouvelez toutes les opérations de l'étape 5 sur le noeud qui hébergeait à l'origine la réplique principale.

Etapes suivantes

Après avoir configuré un groupe de périphériques pour votre périphérique répliqué EMC SRDF, vous devez configurer le pilote de l'identificateur de périphérique (DID) que le périphérique répliqué utilise.

Configuration de périphériques DID pour la réplication à l'aide d'EMC SRDF

Cette procédure permet de configurer le pilote de l'identificateur de périphérique (DID) que le périphérique répliqué utilise. Assurez-vous que les instances de périphériques DID spécifiées sont des répliques l'une de l'autre et qu'elles appartiennent au groupe de réplication indiqué.

Avant de commencer

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Prenez un rôle octroyant l'autorisation RBAC de type solaris.cluster.modify sur n'importe quel noeud du cluster.
  2. Déterminez les périphériques DID qui correspondent aux périphériques RDF1 et RDF2 configurés.
    # /usr/symcli/bin/symdg show group-name

    Remarque -  Si votre système n'affiche pas l'ensemble du patch de périphérique Oracle Solaris, définissez la variable d'environnement SYMCLI_FULL_PDEVNAME sur 1 et saisissez à nouveau la commande symdg -show.
  3. Déterminez les périphériques DID qui correspondent aux périphériques Oracle Solaris.
    # cldevice list -v
  4. Pour chaque paire de périphériques DID qui correspondent, combinez les instances en un périphérique DID répliqué unique. Exécutez la commande suivante à partir du côté RDF2/secondaire.
    # cldevice combine -t srdf -g replication-device-group \
    -d destination-instance source-instance

    Remarque -  L'option –T n'est pas prise en charge pour les périphériques de réplication de données SRDF.
    -t replication-type

    Indique le type de réplication. Pour EMC SRDF, saisissez SRDF.

    -g replication-device-group

    Indique le nom du groupe de périphériques, comme illustré dans la commande symdg show.

    -d destination-instance

    Indique l'instance DID correspondant au périphérique RDF1.

    source-instance

    Indique l'instance DID correspondant au périphérique RDF2.


    Remarque -  Si vous combinez un périphérique DID incorrect, utilisez l'option –b de la commande scdidadm pour annuler la combinaison des deux périphériques DID.
    # scdidadm -b device
    –b device

    L'instance DID correspondant à destination_device lorsque les instances ont été combinées.


  5. Si le nom d'un groupe de périphériques de réplication est modifié, des étapes supplémentaires sont nécessaires pour SRDF. Après avoir terminé les étapes 1 à 4, passez à l'étape supplémentaire appropriée.
    Elément
    Description
    SRDF
    Si le nom du groupe de périphériques de réplication (et le groupe de périphériques globaux correspondant) est modifié, vous devez mettre à jour les informations de périphérique répliqué, tout d'abord à l'aide de la commande scdidadm –b pour supprimer les informations existantes. La dernière étape consiste à utiliser la commande cldevice combine pour créer un nouveau périphérique mis à jour.
  6. Vérifiez que les instances DID ont été combinées.
    # cldevice list -v device
  7. Vérifiez que la réplication SRDF est définie.
    # cldevice show device
  8. Sur tous les noeuds, vérifiez que les périphériques DID pour toutes les instances DID combinées sont accessibles.
    # cldevice list -v

Etapes suivantes

Après avoir configuré le pilote de l'identificateur de périphérique (DID) utilisé par le périphérique répliqué, vous devez vérifier la configuration du groupe de périphériques globaux répliqués EMC SRDF.

Vérification de la configuration d'un groupe de périphériques globaux répliqués EMC SRDF

Avant de commencer

Avant de vérifier le groupe de périphériques globaux, vous devez d'abord le créer. Vous pouvez utiliser des groupes de périphériques à partir de Solaris Volume Manager ZFS ou d'un disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :


Caution

Mise en garde  -  Le nom du groupe de périphériques Oracle Solaris Cluster que vous avez créé (Solaris Volume Manager ou disque brut) doit être le même que le nom du groupe de périphériques répliqué.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Assurez-vous que le groupe de périphériques principal correspond au même noeud que le noeud qui contient la réplique principale.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
  2. Effectuez un essai de commutation afin de garantir que les groupes de périphériques sont configurés correctement et que les répliques peuvent passer d'un noeud à l'autre.

    Si le groupe de périphériques est hors ligne, mettez-le en ligne.

    # cldevicegroup switch -n nodename group-name
    -n nodename

    Le noeud vers lequel le groupe de périphériques est commuté. Ce noeud devient le nouveau noeud principal.

  3. Vérifiez que la commutation a réussi en comparant la sortie des commandes suivantes.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name

Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster

Cet exemple présente les étapes spécifiques d'Oracle Solaris Cluster et nécessaires à la configuration de la réplication SRDF dans votre cluster. Il part du principe que vous avez déjà réalisé les tâches suivantes :

  • Appariement terminé de LUNS pour la réplication entre les baies.

  • Installation du logiciel SRDF sur votre périphérique de stockage et vos noeuds de cluster.

Cet exemple implique un cluster à quatre noeuds où deux noeuds sont connectés à un Symmetrix et les deux autres sont connectés au deuxième Symmetrix. Le groupe de périphériques SRDF est appelé dg1.

Exemple 5-1  Création de paires de réplique

Exécutez la commande suivante sur tous les noeuds.

# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd

Symmetrix ID: 000187990182

        Device Name          Directors                   Device                
--------------------------- ------------ --------------------------------------
                                                                           Cap 
Sym  Physical               SA :P DA :IT  Config        Attribute    Sts   (MB)
--------------------------- ------------- -------------------------------------

0067 c5t600604800001879901* 16D:0 02A:C1  RDF2+Mir      N/Grp'd      RW    4315
0068 c5t600604800001879901* 16D:0 16B:C0  RDF1+Mir      N/Grp'd      RW    4315
0069 c5t600604800001879901* 16D:0 01A:C0  RDF1+Mir      N/Grp'd      RW    4315
...

Sur tous les noeuds du côté RDF1, saisissez :

# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

Sur tous les noeuds du côté RDF2, saisissez :

# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067
Exemple 5-2  Vérification de la configuration de la réplication de données

A partir d'un noeud du cluster, saisissez :

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
    Device Group in GNS                          : No
    Valid                                        : Yes
    Symmetrix ID                                 : 000187900023
    Group Creation Time                          : Thu Sep 13 13:21:15 2007
    Vendor ID                                    : EMC Corp
    Application ID                               : SYMCLI

    Number of STD Devices in Group               :    1
    Number of Associated GK's                    :    0
    Number of Locally-associated BCV's           :    0
    Number of Locally-associated VDEV's          :    0
    Number of Remotely-associated BCV's (STD RDF):    0
    Number of Remotely-associated BCV's (BCV RDF):    0
    Number of Remotely-assoc'd RBCV's (RBCV RDF) :    0

    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...
# symrdf -g dg1 establish

Execute an RDF 'Incremental Establish' operation for device
group 'dg1' (y/[n]) ? y

An RDF 'Incremental Establish' operation execution is
in progress for device group 'dg1'. Please wait...

    Write Disable device(s) on RA at target (R2)..............Done.
    Suspend RDF link(s).......................................Done.
    Mark target (R2) devices to refresh from source (R1)......Started.
    Device: 0067 ............................................ Marked.
    Mark target (R2) devices to refresh from source (R1)......Done.
    Merge device track tables between source and target.......Started.
    Device: 0067 ............................................ Merged.
    Merge device track tables between source and target.......Done.
    Resume RDF link(s)........................................Started.
    Resume RDF link(s)........................................Done.

The RDF 'Incremental Establish' operation successfully initiated for
device group 'dg1'.

#  
# symrdf -g dg1 query  


Device Group (DG) Name             : dg1
DG's Type                          : RDF2
DG's Symmetrix ID                  : 000187990182


       Target (R2) View                 Source (R1) View     MODES           
--------------------------------    ------------------------ ----- ------------
             ST                  LI      ST                                    
Standard      A                   N       A                                   
Logical       T  R1 Inv   R2 Inv  K       T  R1 Inv   R2 Inv       RDF Pair    
Device  Dev   E  Tracks   Tracks  S Dev   E  Tracks   Tracks MDA   STATE       
-------------------------------- -- ------------------------ ----- ------------

DEV001  0067 WD       0        0 RW 0067 RW       0        0 S..   Synchronized

Total          -------- --------           -------- --------
  MB(s)             0.0      0.0                0.0      0.0

Legend for MODES:

 M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
 D(omino)           : X = Enabled, . = Disabled
 A(daptive Copy)    : D = Disk Mode, W = WP Mode, . = ACp off

# 
Exemple 5-3  Affichage des DID correspondant aux disques utilisés

La même procédure s'applique aux côtés RDF1 et RDF2.

Vous pouvez examiner le champ Pdevname de la sortie de la commande dymdg show dg.

Sur le côté RDF1, saisissez :

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...

Pour obtenir le DID correspondant, saisissez :

# scdidadm -L | grep c5t6006048000018790002353594D303637d0
217      pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217   
217      pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 
#

Pour répertorier le DID correspondant, saisissez :

# cldevice show d217

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 

Sur le côté RDF2, saisissez :

Vous pouvez examiner le champ Pdevname de la sortie de la commande dymdg show dg.

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF2     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067      WD      4315
        }

    Device Group RDF Information
...

Pour obtenir le DID correspondant, saisissez :

# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108      pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
108      pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
# 

Pour répertorier le DID correspondant, saisissez :

# cldevice show d108

=== DID Device Instances ===                   

DID Device Name:            /dev/did/rdsk/d108
  Full Device Path:               pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:               pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                    none
  default_fencing:                global

# 
Exemple 5-4  Combinaison d'instances DID

Du côté RDF2, saisissez :

# cldevice combine -t srdf -g dg1 -d d217 d108
# 
Exemple 5-5  Affichage des DID combinés

A partir de n'importe quel noeud du cluster, saisissez :

# cldevice show d217 d108
cldevice:  (C727402) Could not locate instance "108".

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     srdf
  default_fencing:                                 global

# 

Récupération des données EMC SRDF après l'échec complet de la salle principale

Cette procédure permet la récupération des données en cas d'échec complet de la salle principale du cluster d'un campus, la salle principale bascule sur la salle secondaire, puis la salle principale revient en ligne. La salle principale du cluster de campus est le noeud principal et le site de stockage. L'échec complet d'une salle entraîne celui de son hôte et de son stockage. En cas d'échec de la salle principale, Oracle Solaris Cluster bascule automatiquement sur la salle secondaire, rend le périphérique de stockage de la salle secondaire accessible en lecture et en écriture et permet le basculement des groupes de périphériques et de ressources correspondants.

Lors du retour en ligne de la salle principale, il est possible de récupérer manuellement les données du groupe de périphériques SRDF enregistrées dans la salle secondaire et de les resynchroniser. Cette procédure permet de récupérer le groupe de périphériques SRDF en synchronisant les données de la salle secondaire d'origine (cette procédure utilise phys-campus-2 pour la salle secondaire) vers la salle principale d'origine (phys-campus-1). La procédure définit également le type de groupe de périphériques SRDF sur RDF1 sur phys-campus-2 et sur RDF2 sur phys-campus-1.

Avant de commencer

Vous devez configurer le groupe de réplications EMC et les périphériques DID ainsi qu'enregistrer ce groupe avant d'effectuer un basculement manuel. Pour plus d'informations sur la création d'un groupe de périphériques Solaris Volume Manager, reportez-vous à la section Ajout et enregistrement d'un groupe de périphériques (Solaris Volume Manager).


Remarque -  Ces instructions illustrent une méthode que vous pouvez utiliser pour récupérer manuellement des données SRDF après le basculement total de la salle principale et son retour en ligne. Consultez la documentation EMC pour obtenir d'autres méthodes.

Connectez-vous à la salle principale du cluster de campus pour effectuer ces étapes. Dans la procédure ci-dessous, dg1 est le nom du groupe de périphériques SRDF. Lors de l'incident, la salle principale dans cette procédure est phys-campus-1 et la salle secondaire est phys-campus-2.

  1. Connectez-vous à la salle principale du cluster de campus et prenez un rôle octroyant une autorisation RBAC de type solaris.cluster.modify.
  2. Dans la salle principale, utilisez la commande symrdf pour interroger l'état de réplication des périphériques RDF et afficher les informations les concernant.
    phys-campus-1# symrdf -g dg1 query

    Conseil  -  Un groupe de périphériques dans l'état split n'est pas synchronisé.
  3. Si l'état de la paire RDF est séparé et si le type du groupe de périphériques est RDF1, forcez un basculement du groupe de périphériques SRDF.
    phys-campus-1# symrdf -g dg1 -force failover
  4. Affichez le statut des périphériques RDF.
    phys-campus-1# symrdf -g dg1 query
  5. Après le basculement, vous pouvez échanger les données des périphériques RDF qui ont basculé.
    phys-campus-1# symrdf -g dg1 swap
  6. Vérifiez le statut et les autres informations concernant les périphériques RDF.
    phys-campus-1# symrdf -g dg1 query
  7. Etablissez le groupe de périphériques SRDF dans la salle principale.
    phys-campus-1# symrdf -g dg1 establish
  8. Confirmez que l'état du groupe de périphériques est synchronisé et que son type est RDF2.
    phys-campus-1# symrdf -g dg1 query
Exemple 5-6  Récupération manuelle des données EMC SRDF après le basculement d'un site principal

Cet exemple fournit les étapes spécifiques à Oracle Solaris Cluster et nécessaires pour récupérer manuellement les données EMC SRDF après le basculement de la salle principale d'un cluster de campus, la reprise de la salle secondaire et sa consignation de données, puis le retour en ligne de la salle principale. Dans cet exemple, le groupe de périphériques SRDF est nommé dg1 et le périphérique logique standard est nommé DEV001. La salle principale est phys-campus-1 au moment de l'échec et la salle secondaire est phys-campus-2. Effectuez la procédure à partir de la salle principale du cluster du campus, phys-campus-1.

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012RW  0  0NR 0012RW  2031   O S.. Split

phys-campus-1# symdg list | grep RDF
dg1 RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 -force failover
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012  WD  0  0 NR 0012 RW  2031  O S..  Failed Over

phys-campus-1# symdg list | grep RDF
dg1  RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 swap
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 NR 0012 RW  0  2031 S.. Suspended

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 establish
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 RW 0012 RW  0  0 S.. Synchronized

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0