JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Introduction à l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers du cluster

Présentation de l'administration des périphériques globaux et de l'espace de noms global

Permissions du périphérique global pour Solaris Volume Manager

Reconfiguration dynamique avec les périphériques globaux

Considérations d'administration Veritas Volume Manager

Administration de périphériques répliqués et basés sur le stockage

Administration de périphériques répliqués Hitachi TrueCopy

Configuration d'un groupe de réplication Hitachi TrueCopy

Configuration de la réplication de périphériques DID à l'aide de Hitachi TrueCopy

Vérification de la configuration d'un groupe de périphériques global répliqué Hitachi TrueCopy

Exemple : configuration d'un groupe de réplication TrueCopy pour Oracle Solaris Cluster

Administration de périphériques répliqués EMC Symmetrix Remote Data Facility

Configuration d'un groupe de réplication EMC SRDF

Configuration de la réplication de périphériques DID à l'aide du logiciel EMC SRDF

Vérification de la configuration d'un groupe de périphériques global répliqué EMC SRFD

Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster

Présentation de l'administration des systèmes de fichiers de cluster

Restrictions du système de fichiers du cluster

Directives relatives à la prise en charge VxFS

Administration de groupes de périphériques

Mise à jour de l'espace de noms des périphériques globaux

Modification de la taille d'un périphérique lofi utilisé pour l'espace de noms de périphériques globaux

Migration de l'espace de noms des périphériques globaux

Migration de l'espace de noms des périphériques globaux d'une partition dédiée vers un périphérique lofi

Migration de l'espace de noms des périphériques globaux d'un périphérique lofi vers une partition dédiée

Ajout et enregistrement de groupes de périphériques

Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager)

Ajout et enregistrement d'un groupe de périphériques (disque brut)

Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)

Création d'un groupe de disques lors de l'initialisation des disques (Veritas Volume Manager)

Maintenance des groupes de périphériques

Suppression et annulation de l'enregistrement d'un groupe de périphériques (Solaris Volume Manager)

Suppression d'un noeligud de tous les groupes de périphériques

Suppression d'un noeligud d'un groupe de périphériques (Solaris Volume Manager)

Création d'un groupe de disques lors de l'encapsulation des disques (Veritas Volume Manager)

Ajout d'un nouveau volume à un groupe de périphériques existant (Veritas Volume Manager)

Conversion d'un groupe de disques en groupe de périphériques (Veritas Volume Manager)

Assignation d'un nouveau code mineur à un groupe de périphériques (Veritas Volume Manager)

Enregistrement d'un groupe de disques en tant que groupe de périphériques (Veritas Volume Manager)

Enregistrement des modifications apportées à la configuration d'un groupe de disques (Veritas Volume Manager)

Conversion d'un groupe de disques local en groupe de périphériques (VxVM)

Conversion d'un groupe de périphériques en groupe de disques local (VxVM)

Suppression d'un volume d'un groupe de périphériques (Veritas Volume Manager)

Suppression et annulation de l'enregistrement d'un groupe de périphériques (Veritas Volume Manager)

Ajout d'un noeligud à un groupe de périphériques (Veritas Volume Manager)

Suppression d'un noeligud d'un groupe de périphériques (Veritas Volume Manager)

Suppression d'un noeligud d'un groupe de périphériques de disque brut

Modification des propriétés des groupes de périphériques

Définition du nombre souhaité de noeliguds secondaires pour un groupe de périphériques

Affichage sous forme de liste de la configuration d'un groupe de périphériques

Changement du noeligud principal d'un groupe de périphériques

Mise en état de maintenance du groupe de périphériques

Administration des paramètres du protocole SCSI pour les périphériques de stockage

Affichage des paramètres du protocole SCSI global par défaut pour tous les périphériques de stockage

Affichage du protocole SCSI d'un seul périphérique de stockage

Modification des paramètres du protocole de séparation globaux par défaut pour tous les périphériques de stockage

Modification du protocole de séparation d'un seul périphérique de stockage

Administration des systèmes de fichiers du cluster

Ajout d'un système de fichiers du cluster

Suppression d'un système de fichiers du cluster

Vérification des montages globaux dans un cluster

Administration du contrôle de chemin de disque

Contrôle d'un chemin de disque

Désactivation du contrôle d'un chemin de disque

Impression des chemins de disques défectueux

Correction d'une erreur d'état du chemin de disque

Contrôle des chemins de disques à partir d'un fichier

Activation de la réinitialisation automatique d'un noeligud en cas d'échec de tous les chemins contrôlés de disques partagés

Désactivation de la réinitialisation automatique d'un noeligud en cas d'échec de tous les chemins contrôlés de disques partagés

6.  Gestion de Quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeligud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation du CPU

11.  Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

13.  Administration de Oracle Solaris Cluster avec les interfaces graphiques

A.  exemple

Index

Administration de périphériques répliqués et basés sur le stockage

Vous pouvez configurer un groupe de périphériques Oracle Solaris Cluster dont les périphériques seront répliqués à l'aide de la réplication basée sur le stockage. Oracle Solaris Cluster prend en charge les logiciels de réplication basée sur le stockage Hitachi TrueCopy et EMC Symmetrix Remote Data Facility.

Avant de répliquer des données avec les logiciels Hitachi TrueCopy et EMC Symmetrix Remote Data Facility, familiarisez-vous avec la documentation sur la réplication basée sur le stockage et installez sur votre système le logiciel de réplication basée sur le stockage ainsi que les patchs les plus récents. Pour plus d'informations sur l'installation de logiciels de réplication basée sur le stockage, consultez la documentation produit.

Le logiciel de réplication basée sur le stockage configure deux périphériques en tant que répliques (l'un en tant que réplique principale, l'autre en tant que réplique secondaire). À tout moment, le périphérique connecté à un jeu de nœuds fait office de réplique principale, tandis que le périphérique connecté à l'autre jeu de nœuds de réplique secondaire.

Dans une configuration Oracle Solaris Cluster, la réplique principale suit automatiquement les déplacements du groupe de périphériques Oracle Solaris Cluster auquel elle appartient. Ainsi, vous ne devez jamais déplacer la réplique principale directement dans une configuration Oracle Solaris Cluster. La reprise doit plutôt s'opérer par déplacement du groupe de périphériques Oracle Solaris Cluster associé.


Attention

Attention - Le nom du groupe de périphériques Oracle Solaris Cluster que vous créez (Solaris Volume Manager, Veritas Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué.


Cette section contient les procédures suivantes :

Administration de périphériques répliqués Hitachi TrueCopy

Le tableau suivant énumère les tâches à accomplir pour configurer un périphérique répliqué basé sur le stockage.

Tableau 5-2 Liste des tâches : administration d'un périphérique de réplique basée sur le stockage Hitachi TrueCopy

Tâche
Instructions
Installez le logiciel TrueCopy sur vos nœuds et votre périphérique de stockage.
Consultez la documentation livrée avec votre périphérique de stockage Hitachi.
Configurez le groupe de réplication Hitachi.
Configurez le périphérique DID.
Enregistrez le groupe répliqué.
Vérifiez la configuration.

Configuration d'un groupe de réplication Hitachi TrueCopy

Avant de commencer

En premier lieu, configurez les groupes de périphériques Hitachi TrueCopy sur des disques partagés du cluster principal. Ces informations de configuration sont indiquées dans le fichier /etc/horcm.conf sur chaque nœud du cluster ayant accès à la baie Hitachi. Pour plus d'informations sur la configuration du fichier /etc/horcm.conf, consultez le Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide.


Attention

Attention - Le nom du groupe de périphériques Oracle Solaris Cluster que vous créez (Solaris Volume Manager, Veritas Volume Manager, ZFS ou disque brut) doit être identique à celui du groupe de périphériques répliqué.


  1. Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une autorisation RBAC solaris.cluster.modify sur tous les nœuds connectés à la baie de stockage.
  2. Ajoutez l'entrée horcm au fichier /etc/services.
    horcm  9970/udp

    Précisez le numéro de port et le nom de protocole de la nouvelle entrée.

  3. Spécifiez les informations de configuration de groupe de périphériques Hitachi TrueCopy dans le fichier /etc/horcm.conf.

    La documentation livrée avec le logiciel TrueCopy contient les instructions auxquelles vous reporter.

  4. Démarrez le démon CCI TrueCopy en exécutant la commande horcmstart.sh sur tous les nœuds.
    # /usr/bin/horcmstart.sh
  5. Créez les paires de répliques, si ce n'est déjà fait.

    Pour créer les paires de répliques du niveau de clôture souhaité, faites appel à la commande paircreate. La documentation TrueCopy contient les instructions relatives à la création des paires de répliques.

  6. Sur chacun des nœuds configurés avec des périphériques répliqués, vérifiez que la configuration de la réplication des données est correcte à l'aide de la commande pairdisplay. Un groupe de périphériques Hitachi TrueCopy ou Hitachi Universal Replicator d'un niveau de clôture ASYNC ne peut partager son ctgid avec aucun autre groupe de périphériques du système.
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -
  7. Vérifiez que tous les nœuds peuvent administrer les groupes de réplication.
    1. À l'aide de la commande pairdisplay, choisissez les deux nœuds devant héberger la réplique principale et la réplique secondaire respectivement.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

      Le nœud doté du périphérique local (L) dans l'état P-VOL contient la réplique principale, tandis que le nœud doté du périphérique local (L) dans l'état S-VOL contient la réplique secondaire.

    2. Exécutez la commande horctakeover sur le nœud contenant la réplique secondaire pour faire du nœud secondaire le maître.
      # horctakeover -g group-name

      Attendez la fin de la copie des données d'origine avant de passer à l'étape suivante.

    3. Vérifiez que le périphérique local (L) sur le nœud ayant exécuté la commande horctakeover est à présent dans l'état P-VOL.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..S-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..P-VOL PAIR NEVER ,----- 58   -
    4. Exécutez la commande horctakeover sur le nœud qui contenait la réplique principale initialement.
      # horctakeover -g group-name
    5. À l'aide de la commande pairdisplay, vérifiez que la configuration d'origine du nœud principal est rétablie.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

Étapes suivantes

Poursuivez la configuration de votre périphérique répliqué d'après les instructions décrites dans la section Configuration de la réplication de périphériques DID à l'aide de Hitachi TrueCopy.

Configuration de la réplication de périphériques DID à l'aide de Hitachi TrueCopy

Avant de commencer

Après avoir configuré un groupe de périphériques pour votre périphérique répliqué, vous devez configurer le pilote DID (device identifier, identificateur de périphérique) que ce dernier utilise.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une autorisation RBAC solaris.cluster.modify sur un nœud du cluster.
  2. Vérifiez que le démon horcmd est exécuté sur tous les nœuds.

    La commande suivante lance le démon s'il n'est pas en cours d'exécution. En cas contraire, un message s'affiche.

    # /usr/bin/horcmstart.sh
  3. À l'aide de la commande pairdisplay, choisissez le nœud qui héberge la réplique secondaire.
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

    Le nœud doté du périphérique local (L) dans l'état S-VOL contient la réplique secondaire.

  4. Sur le nœud contenant la réplique secondaire (déterminé au cours de l'étape précédente), configurez les périphériques DID à utiliser avec la réplication basée sur le stockage.

    Cette commande combine les deux instances DID des paires de répliques de périphérique en une seule et unique instance DID logique. Grâce à cette instance unique, le logiciel de gestion de volumes peut utiliser le périphérique des deux côtés.


    Attention

    Attention - Si plusieurs nœuds sont connectés à la réplique secondaire, exécutez cette commande sur l'un d'eux uniquement.


    # cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
    primary-replica-nodename

    Spécifie le nom du nœud distant qui contient la réplique principale.

    -S

    Spécifie un nœud source, autre que le nœud actuel.

    secondary replica-nodename

    Spécifie le nom du nœud distant qui contient la réplique secondaire.


    Remarque - Par défaut, le nœud actuel est le nœud source. Pour en spécifier un autre, utilisez l'option -S.


  5. Vérifiez que les instances DID ont été combinées.
    # cldevice list -v logical_DID_device
  6. Vérifiez que la réplication TrueCopy est définie.
    # cldevice show logical_DID_device

    La sortie de commande doit indiquer que la réplication est de type TrueCopy.

  7. Si la reconfiguration DID n'a pas réussi à combiner tous les périphériques répliqués, combinez manuellement ceux qui ne l'ont pas été.

    Attention

    Attention - Procédez à la combinaison manuelle des instances DID avec grande précaution. Une reconfiguration de périphérique inadéquate risque d'endommager des données.


    1. Exécutez la commande cldevice combine sur tous les nœuds qui contiennent la réplique secondaire.
      # cldevice combine -d destination-instance source-instance
      -d destination-instance

      Instance DID distante qui correspond à la réplique principale.

      source-instance

      Instance DID locale qui correspond à la réplique secondaire.

    2. Vérifiez que la reconfiguration DID a réussi.
      # cldevice list desination-instance source-instance

    Une des instances DID ne doit pas apparaître dans la liste.

  8. Sur tous les nœuds, vérifiez que les périphériques DID pour toutes les instances DID combinées sont accessibles.
    # cldevice list -v

Étapes suivantes

Pour terminer la configuration de votre groupe de périphériques répliqués, procédez comme suit, étape par étape.

Vérification de la configuration d'un groupe de périphériques global répliqué Hitachi TrueCopy

Avant de commencer

Vous devez créer le groupe de périphériques global avant de pouvoir le vérifier. Vous pouvez utiliser des groupes de périphériques du type Solaris Volume Manager, Veritas Volume Manager, ZFS ou disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :


Attention

Attention - Le nom du groupe de périphériques Oracle Solaris Cluster que vous avez créé (Solaris Volume Manager, Veritas Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Vérifiez que le groupe de périphériques principal correspond au nœud qui contient la réplique principale.
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
  2. Veillez à ce que la propriété de réplication du groupe de périphériques soit définie.
    # cldevicegroup show -n nodename group-name
  3. Veillez à ce que la propriété répliquée du périphérique soit définie.
    # usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
  4. Réalisez un essai de commutation afin de garantir que les groupes de périphériques sont configurés correctement et que les répliques peuvent passer d'un nœud à l'autre.

    Si le groupe de périphériques est déconnecté, mettez-le en ligne.

    # cldevicegroup switch -n nodename group-name
    -n nodename

    Nœud vers lequel le groupe de périphériques est commuté. Ce nœud devient le nœud principal.

  5. Pour vérifier que la commutation a réussi, comparez la sortie des commandes suivantes.
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name

Exemple : configuration d'un groupe de réplication TrueCopy pour Oracle Solaris Cluster

Cet exemple représente la procédure spécifique à Oracle Solaris Cluster que vous devez effectuer pour configurer la réplication TrueCopy dans votre cluster. Il part du principe que vous avez déjà réalisé les tâches suivantes :

Le cluster à trois nœuds de cet exemple utilise TrueCopy. Il s'étend sur deux sites distants, comportant un nœud et deux nœuds respectivement. Chaque site possède son propre périphérique de stockage Hitachi.

Le fichier de configuration TrueCopy /etc/horcm.conf sur chaque nœud est illustré dans les exemples suivants.

Exemple 5-1 Fichier de configuration TrueCopy sur le nœud 1

HORCM_DEV 
#dev_group     dev_name    port#       TargetID     LU#       MU# 
VG01           pair1       CL1-A         0          29 
VG01           pair2       CL1-A         0          30 
VG01           pair3       CL1-A         0          31 
HORCM_INST 
#dev_group     ip_address   service 
VG01           node-3       horcm

Exemple 5-2 Fichier de configuration TrueCopy sur le nœud 2

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU#
VG01              pair1          CL1-A         0         29 
VG01              pair2          CL1-A         0         30 
VG01              pair3          CL1-A         0         31 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-3          horcm

Exemple 5-3 Fichier de configuration TrueCopy sur le nœud 3

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU# 
VG01              pair1          CL1-C         0         09 
VG01              pair2          CL1-C         0         10 
VG01              pair3          CL1-C         0         11 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-1          horcm 
VG01              node-2          horcm

Dans les exemples précédents, trois LUN sont répliqués entre les deux sites. Ils se trouvent tous dans le groupe de réplication nommé VG01. La commande pairdisplay vérifie ces informations et indique que le nœud 3 contient la réplique principale.

Exemple 5-4 Sortie de la commande pairdisplay sur le nœud 1

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

Exemple 5-5 Sortie de la commande pairdisplay sur le nœud 2

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

Exemple 5-6 Sortie de la commande pairdisplay sur le nœud 3

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair1(R)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair2(L)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair2(R)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair3(L)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  - 
VG01    pair3(R)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 

L'option -fd de la commande pairdisplay affiche les disques utilisés, comme illustré dans les exemples suivants.

Exemple 5-7 Sortie de la commande pairdisplay sur le nœud 1, indiquant les disques utilisés

# pairdisplay -fd -g VG01 
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M 
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  - 
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

Exemple 5-8 Sortie de la commande pairdisplay sur le nœud 2, indiquant les disques utilisés

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  -
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  -
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  -
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER  ,61114    30  -
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  -
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

Exemple 5-9 Sortie de la commande pairdisplay sur le nœud 3, indiquant les disques utilisés

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M 
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064  58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114  29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114  30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064  60..P-VOL PAIR NEVER  ,61114    31  - 
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114  31..S-VOL PAIR NEVER  ,-----    60  -

Dans ces exemples, les disques utilisés sont les suivants :

Pour afficher les périphériques DID correspondant à ces disques, utilisez la commande cldevice list, comme décrit dans les exemples suivants.

Exemple 5-10 Affichage des DID correspondant aux disques utilisés

# cldevice list -v

DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
12              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
12              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
13              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
13              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
14              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
14              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223  
23              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

Lors de la combinaison des instances DID pour chaque paire de périphériques répliqués, la commande cldevice list doit combiner les instances 12 et 22, 13 et 23, et 14 et 24. Le nœud 3 contenant la réplique principale, exécutez la commande cldevice-T à partir du nœud 1 ou 2. Vous devez toujours combiner les instances à partir d'un nœud contenant la réplique secondaire. Exécutez cette commande à partir d'un seul et unique nœud.

L'exemple suivant illustre la sortie lorsque les instances DID sont combinées en exécutant la commande sur le nœud 1.

Exemple 5-11 Combinaison des instances DID

# cldevice replicate -D node-3
Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

La sortie de la commande cldevice list indique que les LUN des deux sites possèdent à présent la même instance DID. Ainsi, chaque paire de répliques ressemble à un périphérique unique, comme illustré dans l'exemple suivant.

Exemple 5-12 Affichage des DID combinés

# cldevice list -v
DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222  
22          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22
23          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

L'étape suivante consiste à créer le groupe de périphériques gestionnaire de volumes. Exécutez cette commande à partir du nœud contenant la réplique principale (le nœud 3, dans cet exemple). Attribuez au groupe de périphériques le nom du groupe de répliques, comme illustré dans l'exemple suivant.

Exemple 5-13 Création du groupe de périphériques Solaris Volume Manager

# metaset -s VG01 -ah phys-deneb-3
# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1

Host                Owner
  phys-deneb-3       Yes
  phys-deneb-1
  phys-deneb-2

Drive Dbase
d22   Yes
d23   Yes
d24   Yes

À ce stade, vous pouvez utiliser le groupe de périphériques, créer les métapériphériques et déplacer le groupe de périphériques sur l'un des trois nœuds. Toutefois, l'efficacité des commutations et des basculements peut être améliorée si vous exécutez la commande cldevicegroup set qui signale le groupe de périphériques comme étant répliqué dans la configuration du cluster.

Exemple 5-14 Efficacité des commutations et des basculements

# cldevicegroup sync VG01 
# cldevicegroup show VG01
=== Device Groups===

Device Group Name                       VG01   
  Type:                                   SVM   
  failback:                               no   
  Node List:                              phys-deneb-3, phys-deneb-1, phys-deneb-2   
  preferenced:                            yes   
  numsecondaries:                         1   
  device names:                           VG01   
  Replication type:                       truecopy

Cette étape met fin à la configuration du groupe de réplication. Pour vérifier la réussite de la configuration, suivez la procédure décrite à la section Vérification de la configuration d'un groupe de périphériques global répliqué Hitachi TrueCopy.

Administration de périphériques répliqués EMC Symmetrix Remote Data Facility

Le tableau suivant énumère les tâches à accomplir pour configurer et gérer un périphérique répliqué basé sur le stockage Symmetrix Remote Data Facility (SRDF) d'EMC.

Tableau 5-3 Liste des tâches : administration d'un périphérique répliqué basé sur le stockage SRDF d'EMC

Tâche
Instructions
Installez le logiciel SRDF sur vos nœuds et votre périphérique de stockage.
Consultez la documentation livrée avec votre périphérique de stockage EMC.
Configurez le groupe de réplication EMC.
Configurez le périphérique DID.
Enregistrez le groupe répliqué.
Vérifiez la configuration.
Récupérez manuellement des données après la défaillance totale de la salle principale du cluster campus.

Configuration d'un groupe de réplication EMC SRDF

Avant de commencer

Le logiciel EMC Solutions Enabler doit être installé sur tous les nœuds du cluster préalablement à la configuration d'un groupe de réplication EMC Symmetrix Remote Data Facility (SRDF). En premier lieu, configurez les groupes de périphériques EMC SRDF sur des disques partagés du cluster. Pour plus d'informations sur la configuration des groupes de périphériques EMC SRFD, consultez la documentation du produit SRFD d'EMC.

Lors de l'utilisation du logiciel EMC SRDF, utilisez des périphériques dynamiques plutôt que statiques. Les périphériques statiques peuvent nécessiter plusieurs minutes pour changer le nœud principal de réplication et affecter ainsi la durée de basculement.


Attention

Attention - Le nom du groupe de périphériques Oracle Solaris Cluster que vous créez (Solaris Volume Manager, Veritas Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué.


  1. Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une autorisation RBAC solaris.cluster.modify sur tous les nœuds connectés à la baie de stockage.
  2. Sur chaque nœud configuré avec les données répliquées, détectez la configuration de périphérique Symmetrix.

    Cette opération peut prendre quelques minutes.

    # /usr/symcli/bin/symcfg discover
  3. Créez les paires de répliques, si ce n'est déjà fait.

    Pour créer les paires de répliques, faites appel à la commande symrdf. La documentation SRDF contient les instructions relatives à la création des paires de répliques.

  4. Sur chacun des nœuds configurés avec des périphériques répliqués, vérifiez que la configuration de la réplication des données est correcte.
    # /usr/symcli/bin/symdg show group-name
  5. Permutez le groupe de périphériques.
    1. Vérifiez que les répliques principale et secondaire sont synchronisées.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
    2. À l'aide de la commande symdg show, choisissez les deux nœuds devant héberger la réplique principale et la réplique secondaire respectivement.
      # /usr/symcli/bin/symdg show group-name

      Le nœud doté du périphérique RDF1 contient la réplique principale, tandis que le nœud doté de l'état du périphérique RDF2 contient la réplique secondaire.

    3. Activez la réplique secondaire.
      # /usr/symcli/bin/symrdf -g group-name failover
    4. Permutez les périphériques RDF1 et RDF2.
      # /usr/symcli/bin/symrdf -g group-name swap -refresh R1
    5. Activez la paire de répliques.
      # /usr/symcli/bin/symrdf -g group-name establish
    6. Vérifiez que le nœud principal et les répliques secondaires sont synchronisés.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
  6. Renouvelez toutes les opérations de l'étape 5 sur le nœud qui hébergeait la réplique principale à l'origine.

Étapes suivantes

Après avoir configuré un groupe de périphériques pour votre périphérique répliqué EMC SRDF, vous devez configurer le pilote DID (device identifier, identificateur de périphérique) que ce dernier utilise.

Configuration de la réplication de périphériques DID à l'aide du logiciel EMC SRDF

Pour configurer le pilote DID (device identifier, identificateur de périphérique) du périphérique répliqué, procédez comme suit.

Avant de commencer

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une autorisation RBAC solaris.cluster.modify sur un nœud du cluster.
  2. Identifiez les périphériques DID qui correspondent aux périphériques configurés RDF1 et RDF2.
    # /usr/symcli/bin/symdg show group-name

    Remarque - Si le système n'affiche pas l'intégralité du patch de périphérique Oracle Solaris, définissez la variable d'environnement SYMCLI_FULL_PDEVNAME sur 1 et saisissez à nouveau la commande symdg -show.


  3. Identifiez les périphériques DID qui correspondent aux périphériques Oracle Solaris.
    # cldevice list -v
  4. Pour chaque paire de périphériques DID associés, combinez les instances en un périphérique DID répliqué unique. Exécutez la commande suivante du côté RDF2/secondaire.
    # cldevice combine -t srdf -g replication-device-group \
     -d destination-instance source-instance

    Remarque - L'option -T n'est pas prise en charge pour les périphériques de réplication de données SRDF.


    -t replication-type

    Spécifie le type de réplication. Pour EMC SRDF, tapez SRDF.

    -g replication-device-group

    Spécifie le nom du groupe de périphériques, comme illustré dans la commande symdg show.

    -d destination-instance

    Spécifie l'instance DID correspondant au périphérique RDF1.

    source-instance

    Spécifie l'instance DID correspondant au périphérique RDF2.


    Remarque - Si vous combinez le périphérique DID incorrect, annulez la combinaison des deux périphériques DID à l'aide de l'option -b de la commande scdidadm.

    # scdidadm -b device 
    -b device

    Instance DID qui correspondait au périphérique de destination lorsque les instances étaient combinées.


  5. En cas de modification du nom d'un groupe de périphériques de réplication, Hitachi TrueCopy et SRDF exigent que vous effectuiez une étape supplémentaire. Une fois les étapes 1 à 4 terminées, passez à l'étape supplémentaire qui convient.
    Élément
    Description
    TrueCopy
    En cas de modification du nom du groupe de périphériques de réplication (et du groupe de périphériques global correspondant), vous devez réexécuter la commande cldevice replicate en vue de mettre à jour les informations de périphérique répliqué.
    SRDF
    En cas de modification du nom du groupe de périphériques de réplication (et du groupe de périphériques global, vous devez mettre à jour les informations de périphérique répliqué. Commencez par supprimer les informations existantes à l'aide de scdidadm -b. Créez ensuite un périphérique mis à jour à l'aide de la commande cldevice combine.
  6. Vérifiez que les instances DID ont été combinées.
    # cldevice list -v device
  7. Vérifiez que la réplication SRDF est définie.
    # cldevice show device
  8. Sur tous les nœuds, vérifiez que les périphériques DID pour toutes les instances DID combinées sont accessibles.
    # cldevice list -v

Étapes suivantes

Après avoir configuré le pilote DID utilisé par le périphérique répliqué, vous devez vérifier la configuration du groupe de périphériques global répliqué EMC SRDF.

Vérification de la configuration d'un groupe de périphériques global répliqué EMC SRFD

Avant de commencer

Vous devez créer le groupe de périphériques global avant de pouvoir le vérifier. Vous pouvez utiliser des groupes de périphériques du type Solaris Volume Manager, Veritas Volume Manager, ZFS ou disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :


Attention

Attention - Le nom du groupe de périphériques Oracle Solaris Cluster que vous avez créé (Solaris Volume Manager, Veritas Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Vérifiez que le groupe de périphériques principal correspond au nœud qui contient la réplique principale.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
  2. Réalisez un essai de commutation afin de garantir que les groupes de périphériques sont configurés correctement et que les répliques peuvent passer d'un nœud à l'autre.

    Si le groupe de périphériques est déconnecté, mettez-le en ligne.

    # cldevicegroup switch -n nodename group-name
    -n nodename

    Nœud vers lequel le groupe de périphériques est commuté. Ce nœud devient le nœud principal.

  3. Pour vérifier que la commutation a réussi, comparez la sortie des commandes suivantes.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name

Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster

Cet exemple représente la procédure spécifique à Oracle Solaris Cluster que vous devez effectuer pour configurer la réplication SRDF dans votre cluster. Il part du principe que vous avez déjà réalisé les tâches suivantes :

Cet exemple présente un cluster à quatre nœuds dont deux sont connectés à un périphérique Symmetrix et les deux autres au second périphérique Symmetrix. Le nom du groupe de périphériques SRDF est dg1.

Exemple 5-15 Création de paires de réplication

Exécutez la commande suivante sur tous les nœuds.

# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd

Symmetrix ID: 000187990182

        Device Name          Directors                   Device                
--------------------------- ------------ --------------------------------------
                                                                           Cap 
Sym  Physical               SA :P DA :IT  Config        Attribute    Sts   (MB)
--------------------------- ------------- -------------------------------------

0067 c5t600604800001879901* 16D:0 02A:C1  RDF2+Mir      N/Grp'd      RW    4315
0068 c5t600604800001879901* 16D:0 16B:C0  RDF1+Mir      N/Grp'd      RW    4315
0069 c5t600604800001879901* 16D:0 01A:C0  RDF1+Mir      N/Grp'd      RW    4315
...

Sur tous les nœuds du côté RDF1, tapez :

# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

Sur tous les nœuds du côté RDF2, tapez :

# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067

Exemple 5-16 Vérification de la configuration de la réplication de données

À partir d'un nœud du cluster, tapez :

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
    Device Group in GNS                          : No
    Valid                                        : Yes
    Symmetrix ID                                 : 000187900023
    Group Creation Time                          : Thu Sep 13 13:21:15 2007
    Vendor ID                                    : EMC Corp
    Application ID                               : SYMCLI

    Number of STD Devices in Group               :    1
    Number of Associated GK's                    :    0
    Number of Locally-associated BCV's           :    0
    Number of Locally-associated VDEV's          :    0
    Number of Remotely-associated BCV's (STD RDF):    0
    Number of Remotely-associated BCV's (BCV RDF):    0
    Number of Remotely-assoc'd RBCV's (RBCV RDF) :    0

    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...
# symrdf -g dg1 establish

Execute an RDF 'Incremental Establish' operation for device
group 'dg1' (y/[n]) ? y

An RDF 'Incremental Establish' operation execution is
in progress for device group 'dg1'. Please wait...

    Write Disable device(s) on RA at target (R2)..............Done.
    Suspend RDF link(s).......................................Done.
    Mark target (R2) devices to refresh from source (R1)......Started.
    Device: 0067 ............................................ Marked.
    Mark target (R2) devices to refresh from source (R1)......Done.
    Merge device track tables between source and target.......Started.
    Device: 0067 ............................................ Merged.
    Merge device track tables between source and target.......Done.
    Resume RDF link(s)........................................Started.
    Resume RDF link(s)........................................Done.

The RDF 'Incremental Establish' operation successfully initiated for
device group 'dg1'.

#  
# symrdf -g dg1 query  


Device Group (DG) Name             : dg1
DG's Type                          : RDF2
DG's Symmetrix ID                  : 000187990182


       Target (R2) View                 Source (R1) View     MODES           
--------------------------------    ------------------------ ----- ------------
             ST                  LI      ST                                    
Standard      A                   N       A                                   
Logical       T  R1 Inv   R2 Inv  K       T  R1 Inv   R2 Inv       RDF Pair    
Device  Dev   E  Tracks   Tracks  S Dev   E  Tracks   Tracks MDA   STATE       
-------------------------------- -- ------------------------ ----- ------------

DEV001  0067 WD       0        0 RW 0067 RW       0        0 S..   Synchronized

Total          -------- --------           -------- --------
  MB(s)             0.0      0.0                0.0      0.0

Legend for MODES:

 M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
 D(omino)           : X = Enabled, . = Disabled
 A(daptive Copy)    : D = Disk Mode, W = WP Mode, . = ACp off

# 

Exemple 5-17 Affichage des DID correspondant aux disques utilisés

Appliquez la même procédure aux côtés RDF1 et RDF2.

Examinez le champ PdevName de la sortie de la commande dymdg show dg.

Sur le côté RDF1, tapez :

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...

Pour obtenir le DID correspondant, tapez :

# scdidadm -L | grep c5t6006048000018790002353594D303637d0
217      pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217   
217      pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 
#

Pour répertorier le DID correspondant, tapez :

# cldevice show d217

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 

Sur le côté RDF2, tapez :

Examinez le champ PdevName de la sortie de la commande dymdg show dg.

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF2     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067      WD      4315
        }

    Device Group RDF Information
...

Pour obtenir le DID correspondant, tapez :

# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108      pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
108      pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
# 

Pour répertorier le DID correspondant, tapez :

# cldevice show d108

=== DID Device Instances ===                   

DID Device Name:            /dev/did/rdsk/d108
  Full Device Path:               pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:               pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                    none
  default_fencing:                global

# 

Exemple 5-18 Combinaison des instances DID

Sur le côté RDF2, tapez :

# cldevice combine -t srdf -g dg1 -d d217 d108
# 

Exemple 5-19 Affichage des DID combinés

À partir d'un nœud du cluster, tapez :

# cldevice show d217 d108
cldevice:  (C727402) Could not locate instance "108".

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     srdf
  default_fencing:                                 global

# 

Récupération de données EMC SRDF après la défaillance totale de la salle principale

Cette procédure permet de récupérer les données perdues suite à la défaillance totale de la salle principale du cluster campus, suivi du basculement de la salle principale sur la salle secondaire et du retour en ligne de la salle principale. La salle principale du cluster campus correspond au nœud principal et au site de stockage. La défaillance totale d'une salle entraîne celle de son hôte et de son stockage. En cas de défaillance du cluster principal, Oracle Solaris Cluster bascule automatiquement sur le cluster secondaire, et active l'accès en lecture et en écriture du périphérique de stockage ainsi que le basculement des groupes de périphériques et de ressources correspondants.

Au retour en ligne de la salle principale, il est possible de récupérer manuellement les données du groupe de périphériques SRDF enregistrées dans la salle secondaire et de les resynchroniser. Cette procédure permet de récupérer le groupe de périphériques SRDF par synchronisation des données de la salle secondaire initiale (phys-campus-2 ) vers la salle principale initiale (phys-campus-1). Au cours de la procédure, le type du groupe de périphériques SRDF est remplacé par RDF1 sur phys-campus-2 et par RDF2 sur phys-campus-1.

Avant de commencer

Avant de procéder à un basculement manuel, il est nécessaire de configurer le groupe de réplication EMC et les périphériques DID, et d'enregistrer le groupe de réplication EMC. Pour plus d'informations sur la création d'un groupe de périphériques Solaris Volume Manager, reportez-vous à la section Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager). Pour plus d'informations sur la création d'un groupe de périphériques Veritas Volume Manager, reportez-vous à la section Création d'un groupe de disques lors de l'encapsulation des disques (Veritas Volume Manager).


Remarque - Ces instructions illustrent une méthode que vous pouvez utiliser pour récupérer manuellement des données SRDF après la défaillance d'une salle principale et son retour en ligne. La documentation EMC présente d'autres méthodes.


Pour effectuer la procédure, connectez-vous à la salle principale du cluster campus. Dans la procédure décrite ci-dessous, dg1 est le nom du groupe de périphériques SRDF. Au moment de la défaillance, phys-campus-1 est la salle principale et phys-campus-2 la salle secondaire.

  1. Connectez-vous à la salle principale du cluster campus en tant que superutilisateur ou utilisateur doté d'une autorisation RBAC solaris.cluster.modify.
  2. Dans la salle principale, utilisez la commande symrdf pour interroger l'état de réplication des périphériques RDF et afficher les informations les concernant.
    phys-campus-1# symrdf -g dg1 query

    Astuce - Un groupe de périphériques dont l'état est split (séparé) n'est pas synchronisé.


  3. Lorsque l'état de la paire RDF est séparé et le type du groupe de périphériques RDF1, faites basculer le groupe de périphériques SRDF.
    phys-campus-1# symrdf -g dg1 -force failover
  4. Affichez le statut des périphériques RDF.
    phys-campus-1# symrdf -g dg1 query
  5. Après le basculement des périphériques RDF, vous pouvez échanger leurs données.
    phys-campus-1# symrdf -g dg1 swap
  6. Vérifiez le statut et les autres informations concernant les périphériques RDF.
    phys-campus-1# symrdf -g dg1 query
  7. Établissez le groupe de périphériques SRDF dans la salle principale.
    phys-campus-1# symrdf -g dg1 establish
  8. Confirmez que l'état du groupe de périphériques est synchronisé et que son type est RDF2.
    phys-campus-1# symrdf -g dg1 query

Exemple 5-20 Récupération manuelle des données EMC SRDF après le basculement d'un site principal

Cet exemple décrit la procédure spécifique à Oracle Solaris Cluster permettant de récupérer manuellement des données EMC SRDF après le basculement du cluster principal du cluster campus, la reprise et l'enregistrement des données par le cluster secondaire et le retour en ligne du cluster principal. Dans cet exemple, dg1 est le nom du groupe de périphériques SRDF et DEV001 est le périphérique logique standard. Au moment de la défaillance, phys-campus-1 est la salle principale et phys-campus-2 la salle secondaire. Effectuez la procédure à partir de la salle principale du cluster campus, phys-campus-1.

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012RW  0  0NR 0012RW  2031   O S.. Split

phys-campus-1# symdg list | grep RDF
dg1 RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 -force failover
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012  WD  0  0 NR 0012 RW  2031  O S..  Failed Over

phys-campus-1# symdg list | grep RDF
dg1  RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 swap
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 NR 0012 RW  0  2031 S.. Suspended

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 establish
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 RW 0012 RW  0  0 S.. Synchronized

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0