JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster 3.3 3/13 (Français)
search filter icon
search icon

Informations document

Préface

1.  Présentation de l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Arrêt et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers de cluster

Présentation de l'administration des périphériques globaux et de l'espace de noms global

Autorisations du périphérique global pour Solaris Volume Manager

Reconfiguration dynamique avec les périphériques globaux

Administration des périphériques répliqués basés sur le stockage

Administration des périphériques répliqués Hitachi TrueCopy

Configuration d'un groupe de réplication Hitachi TrueCopy

Configuration des périphériques DID pour la réplication à l'aide de Hitachi TrueCopy

Vérification d'une configuration de groupe de périphériques global répliqué Hitachi TrueCopy

Exemple : configuration d'un groupe de réplication TrueCopy pour Oracle Solaris Cluster

Administration des périphériques répliqués EMC Symmetrix Remote Data Facility

Configuration d'un groupe de réplication EMC SRDF

Configuration de périphériques DID pour la réplication à l'aide d'EMC SRDF

Vérification de la configuration d'un groupe de périphériques globaux répliqués EMC SRDF

Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster

Présentation de l'administration des systèmes de fichiers de cluster

Restrictions du système de fichiers de cluster

Administration des groupes de périphériques

Mise à jour de l'espace de noms des périphériques globaux

Modification de la taille d'un périphérique lofi utilisé pour l'espace de noms de périphériques globaux

Migration de l'espace de noms des périphériques globaux

Migration de l'espace de noms des périphériques globaux d'une partition dédiée vers un périphérique lofi

Migration de l'espace de noms des périphériques globaux d'un périphérique lofi vers une partition dédiée

Ajout et enregistrement de groupes de périphériques

Ajout et enregistrement d'un groupe de périphériques (Solaris Volume Manager)

Ajout et enregistrement d'un groupe de périphériques (disque brut)

Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)

Maintenance des groupes de périphériques

Suppression et annulation de l'enregistrement d'un groupe de périphériques (Solaris Volume Manager)

Suppression d'un noeud de tous les groupes de périphériques

Suppression d'un noeud d'un groupe de périphériques (Solaris Volume Manager)

Suppression d'un noeud d'un groupe de périphériques de disque brut

Modification des propriétés des groupes de périphériques

Définition du nombre souhaité de noeuds secondaires pour un groupe de périphériques

Affichage sous forme de liste de la configuration d'un groupe de périphériques

Changement du noeud principal d'un groupe de périphériques

Mise en état de maintenance du groupe de périphériques

Administration des paramètres du protocole SCSI pour les périphériques de stockage

Affichage du paramétrage global par défaut du protocole SCSI pour tous les périphériques de stockage

Affichage du protocole SCSI d'un seul périphérique de stockage

Modification du paramétrage global par défaut du protocole de séparation pour tous les périphériques de stockage

Modification du protocole de séparation d'un seul périphérique de stockage

Administration des systèmes de fichiers de cluster

Ajout d'un système de fichiers de cluster

Suppression d'un système de fichiers de cluster

Vérification des montages globaux dans un cluster

Administration du contrôle de chemin de disque

Contrôle d'un chemin de disque

Désactivation du contrôle d'un chemin de disque

Impression des chemins de disques défectueux

Correction d'une erreur d'état du chemin de disque

Contrôle des chemins de disques à partir d'un fichier

Activation de la réinitialisation automatique d'un noeud en cas d'échec de tous les chemins contrôlés de disques partagés

Désactivation de la réinitialisation automatique d'un noeud en cas d'échec de tous les chemins contrôlés de disques partagés

6.  Gestion du quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation de la CPU

11.  Application de patchs au logiciel et au microprogramme d'Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

13.  Administration d'Oracle Solaris Cluster avec les interfaces graphiques

A.  Exemple

Index

Administration des périphériques répliqués basés sur le stockage

Vous pouvez configurer un groupe de périphériques Oracle Solaris Cluster pour qu'il contienne les périphériques qui sont répliqués à l'aide de la réplication basée sur le stockage. Le logiciel Oracle Solaris Cluster prend en charge Hitachi TrueCopy et le logiciel EMC Symmetrix Remote Data Facility pour la réplication basée sur le stockage.

Avant de répliquer des données avec Hitachi TrueCopy ou le logiciel EMC Symmetrix Remote Data Facility, vous devez vous familiariser avec la documentation sur la réplication basée sur le stockage. De plus, le produit de réplication basée sur le stockage et les derniers patchs doivent être installés sur votre système. Pour plus d'informations sur l'installation du logiciel de réplication basée sur le stockage, reportez-vous à la documentation produit.

Le logiciel de réplication basée sur le stockage configure une paire de périphériques en tant que répliques : l'un en tant que réplique principale, l'autre en tant que réplique secondaire. A tout moment, le périphérique associé à un jeu de noeuds fait office de réplique principale. Tandis que le périphérique associé à l'autre jeu de noeuds fait office de réplique secondaire.

Dans la configuration d'Oracle Solaris Cluster, la réplique principale est automatiquement déplacée lorsque le groupe de périphériques Oracle Solaris Cluster auquel elle appartient est déplacé. Par conséquent, vous ne devez jamais déplacer la réplique principale directement dans la configuration d'Oracle Solaris Cluster. Vous devez plutôt accomplir la reprise en déplaçant le groupe de périphériques Oracle Solaris Cluster associé.


Attention

Attention - Le nom du groupe de périphériques Oracle Solaris Cluster créé (Solaris Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué.


Cette section contient les procédures suivantes :

Administration des périphériques répliqués Hitachi TrueCopy

Le tableau suivant répertorie les tâches que vous devez effectuer pour configurer un périphérique répliqué basé sur le stockage Hitachi TrueCopy.

Tableau 5-2 Liste des tâches : administration d'un périphérique répliqué basé sur le stockage Hitachi TrueCopy

Tâche
Instructions
Installation du logiciel TrueCopy sur le périphérique de stockage et les noeuds
Voir la documentation fournie avec le périphérique de stockage Hitachi.
Configuration du groupe de réplication Hitachi
Configuration du périphérique DID.
Enregistrement du groupe répliqué.
Vérification de la configuration.

Configuration d'un groupe de réplication Hitachi TrueCopy

Avant de commencer

Configurez tout d'abord les groupes de périphériques Hitachi TrueCopy sur des disques partagés du cluster principal. Ces informations de configuration sont spécifiées dans le fichier /etc/horcm.conf sur chacun des noeuds du cluster qui a accès à la baie Hitachi. Pour plus d'informations sur la configuration du fichier /etc/horcm.conf, reportez-vous au manuel Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide.


Attention

Attention - Le nom du groupe de périphériques Oracle Solaris Cluster créé (Solaris Volume Manager, ZFS ou disque brut) doit être identique à celui du groupe de périphériques répliqué.


  1. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.modify sur tous les noeuds connectés à la baie de stockage.
  2. Ajoutez l'entrée horcm au fichier /etc/services.
    horcm  9970/udp

    Indiquez un numéro de port et un nom de protocole pour la nouvelle entrée.

  3. Indiquez les informations de configuration du groupe de périphériques Hitachi TrueCopy dans le fichier /etc/horcm.conf.

    Pour obtenir des instructions, reportez-vous à la documentation fournie avec votre logiciel TrueCopy.

  4. Démarrez le démon CCI TrueCopy en exécutant la commande horcmstart.sh sur tous les noeuds.
    # /usr/bin/horcmstart.sh
  5. Si vous n'avez pas encore créé des paires de répliques, créez-les maintenant.

    Exécutez la commande paircreate pour créer vos paires de répliques avec le niveau de séparation souhaité. Pour obtenir des instructions sur la création des paires de répliques, reportez-vous à votre documentation TrueCopy.

  6. Sur chaque noeud configuré avec des périphériques répliqués, vérifiez que la réplication des données est correctement configurée à l'aide de la commande pairdisplay. Un groupe de périphériques Hitachi TrueCopy ou Hitachi Universal Replicator avec un fence_level de ASYNC ne peut pas partager son ctgid avec un autre groupe de périphériques sur le système.
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -
  7. Vérifiez que tous les noeuds peuvent administrer les groupes de réplication.
    1. Déterminez le noeud qui contient la réplique principale et le noeud qui contient la réplique secondaire à l'aide de la commande pairdisplay.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

      Le noeud dont le périphérique local (L) est dans l'état P-VOL contient la réplique principale et le noeud dont le périphérique local (L) est dans l'état S-VOL contient la réplique secondaire.

    2. Transformez le noeud secondaire en noeud principal en exécutant la commande horctakeover sur le noeud qui contient la réplique secondaire.
      # horctakeover -g group-name

      Attendez la fin de la copie de données initiale avant de passer à l'étape suivante.

    3. Vérifiez que le périphérique local (L) du noeud qui a exécuté la commande horctakeover présente maintenant l'état P-VOL.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..S-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..P-VOL PAIR NEVER ,----- 58   -
    4. Exécutez la commande horctakeover sur le noeud qui contenait la réplique principale à l'origine.
      # horctakeover -g group-name
    5. Vérifiez que le noeud principal est revenu à la configuration d'origine en exécutant la commande pairdisplay.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

Étapes suivantes

Poursuivez la configuration de votre périphérique répliqué en suivant les instructions de la section Configuration des périphériques DID pour la réplication à l'aide de Hitachi TrueCopy.

Configuration des périphériques DID pour la réplication à l'aide de Hitachi TrueCopy

Avant de commencer

Après avoir configuré un groupe de périphériques pour votre périphérique répliqué, vous devez configurer le pilote de l'identificateur de périphérique (DID) utilisé par le périphérique répliqué.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.modify sur un noeud du cluster.
  2. Vérifiez que le démon horcmd est en cours d'exécution sur tous les noeuds.

    La commande suivante permet de démarrer le démon s'il n'est pas en cours d'exécution. Le système affiche un message si le démon est déjà en cours d'exécution.

    # /usr/bin/horcmstart.sh
  3. Déterminez quel noeud contient la réplique secondaire en exécutant la commande pairdisplay.
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

    Le noeud dont le périphérique local (L) présente l'état S-VOL contient la réplique secondaire.

  4. Sur le noeud comportant la réplique secondaire (déterminé à l'étape précédente), configurez les périphériques DID afin de pouvoir les utiliser avec la réplication basée sur le stockage.

    Cette commande combine les deux instances DID distinctes pour les paires de répliques de périphériques en une seule instance DID logique. L'instance unique permet au périphérique d'être utilisé par le logiciel de gestion de volumes à partir des deux côtés.


    Attention

    Attention - Si plusieurs noeuds sont connectés à la réplique secondaire, exécutez cette commande sur un seul de ces noeuds.


    # cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
    primary-replica-nodename

    Indique le nom du noeud distant contenant la réplique principale.

    -S

    Spécifie un noeud source autre que le noeud actuel.

    secondary replica-nodename

    Indique le nom du noeud distant contenant la réplique secondaire.


    Remarque - Par défaut, le noeud actuel est le noeud source. Utilisez l'option -S pour spécifier un noeud source différent.


  5. Vérifiez que les instances DID ont été combinées.
    # cldevice list -v logical_DID_device
  6. Vérifiez que la réplication TrueCopy est définie.
    # cldevice show logical_DID_device

    La sortie de la commande doit indiquer que le type de réplication est TrueCopy.

  7. Si le remappage DID n'a pas combiné tous les périphériques répliqués, combinez manuellement les différents périphériques répliqués.

    Attention

    Attention - Soyez très prudent lorsque vous combinez manuellement des instances DID. Un remappage de périphérique incorrect peut endommager les données.


    1. Exécutez la commande cldevice combine sur tous les noeuds qui contiennent la réplique secondaire.
      # cldevice combine -d destination-instance source-instance
      -d destination-instance

      Instance DID distante, qui correspond à la réplique principale.

      source-instance

      Instance DID locale, qui correspond à la réplique secondaire.

    2. Vérifiez que le remappage DID a été correctement effectué.
      # cldevice list desination-instance source-instance

    L'une des instances DID ne doit pas être listée.

  8. Sur tous les noeuds, vérifiez que les périphériques DID pour toutes les instances DID combinées sont accessibles.
    # cldevice list -v

Étapes suivantes

Pour terminer la configuration de votre groupe de périphériques répliqué, effectuez les étapes des procédures suivantes.

Vérification d'une configuration de groupe de périphériques global répliqué Hitachi TrueCopy

Avant de commencer

Avant de vérifier le groupe de périphériques globaux, vous devez d'abord le créer. Vous pouvez utiliser des groupes de périphériques Solaris Volume Manager, ZFS ou de disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :


Attention

Attention - Le nom du groupe de périphériques Oracle Solaris Cluster créé (Solaris Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Assurez-vous que le groupe de périphériques principal correspond au même noeud que le noeud qui contient la réplique principale.
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
  2. Vérifiez que la propriété de réplication est définie pour le groupe de périphériques.
    # cldevicegroup show -n nodename group-name
  3. Vérifiez que la propriété de réplication est définie pour le périphérique.
    # usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
  4. Effectuez un essai de commutation afin de garantir que les groupes de périphériques sont configurés correctement et que les répliques peuvent passer d'un noeud à l'autre.

    Si le groupe de périphériques est hors ligne, mettez-le en ligne.

    # cldevicegroup switch -n nodename group-name
    -n nodename

    Le noeud vers lequel le groupe de périphériques est commuté. Ce noeud devient le nouveau noeud principal

  5. Vérifiez que la commutation a réussi en comparant la sortie des commandes suivantes.
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name

Exemple : configuration d'un groupe de réplication TrueCopy pour Oracle Solaris Cluster

Cet exemple termine les étapes spécifiques à Oracle Solaris Cluster que vous devez effectuer pour configurer la réplication TrueCopy dans votre cluster. Il part du principe que vous avez déjà réalisé les tâches suivantes :

Cet exemple fait intervenir un cluster à trois noeuds qui utilise TrueCopy. Le cluster est réparti sur deux sites distants, deux noeuds se trouvant sur un site et un noeud sur l'autre site. Chaque site dispose de son propre périphérique de stockage Hitachi.

Les exemples suivants illustrent le fichier de configuration TrueCopy /etc/horcm.conf sur chaque noeud.

Exemple 5-1 Fichier de configuration TrueCopy sur le noeud 1

HORCM_DEV 
#dev_group     dev_name    port#       TargetID     LU#       MU# 
VG01           pair1       CL1-A         0          29 
VG01           pair2       CL1-A         0          30 
VG01           pair3       CL1-A         0          31 
HORCM_INST 
#dev_group     ip_address   service 
VG01           node-3       horcm

Exemple 5-2 Fichier de configuration TrueCopy sur le noeud 2

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU#
VG01              pair1          CL1-A         0         29 
VG01              pair2          CL1-A         0         30 
VG01              pair3          CL1-A         0         31 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-3          horcm

Exemple 5-3 Fichier de configuration TrueCopy sur le noeud 3

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU# 
VG01              pair1          CL1-C         0         09 
VG01              pair2          CL1-C         0         10 
VG01              pair3          CL1-C         0         11 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-1          horcm 
VG01              node-2          horcm

Dans les exemples précédents, trois LUN sont répliqués entre les deux sites. Les LUN appartiennent tous à un groupe de réplication nommé VG01. La commande pairdisplay vérifie ces informations et indique que le noeud 3 héberge la réplique principale.

Exemple 5-4 Sortie de la commande pairdisplay sur le noeud 1

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

Exemple 5-5 Sortie de la commande pairdisplay sur le noeud 2

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

Exemple 5-6 Sortie de la commande pairdisplay sur le noeud 3

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair1(R)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair2(L)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair2(R)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair3(L)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  - 
VG01    pair3(R)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 

Pour identifier les disques en cours d'utilisation, exécutez l'option -fd de la commande pairdisplay, comme indiqué dans les exemples suivants.

Exemple 5-7 Sortie de la commande pairdisplay sur le noeud 1, indiquant les disques utilisés

# pairdisplay -fd -g VG01 
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M 
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  - 
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

Exemple 5-8 Sortie de la commande pairdisplay sur le noeud 2, indiquant les disques utilisés

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  -
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  -
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  -
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER  ,61114    30  -
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  -
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

Exemple 5-9 Sortie de la commande pairdisplay sur le noeud 3, indiquant les disques utilisés

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M 
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064  58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114  29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114  30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064  60..P-VOL PAIR NEVER  ,61114    31  - 
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114  31..S-VOL PAIR NEVER  ,-----    60  -

Ces exemples montrent que les disques suivants sont utilisés :

Pour voir les périphériques DID correspondant à ces disques, exécutez la commande cldevice list comme indiqué dans les exemples suivants.

Exemple 5-10 Affichage des DID correspondant aux disques utilisés

# cldevice list -v

DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
12              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
12              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
13              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
13              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
14              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
14              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223  
23              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

Lors de la combinaison des instances DID pour chaque paire de périphériques répliqués, cldevice list doit combiner les instances 12 et 22, les instances 13 et 23 et les instances 14 et 24. Etant donné que le noeud 3 contient la réplique principale, exécutez la commande cldevice -T à partir du noeud 1 ou du noeud 2. Combinez toujours les instances à partir d'un noeud hébergeant la réplique secondaire. Exécutez cette commande à partir d'un seul noeud, et non à partir des deux.

L'exemple suivant présente la sortie lorsque la combinaison d'instances DID est effectuée par exécution de la commande sur le noeud 1.

Exemple 5-11 Combinaison d'instances DID

# cldevice replicate -D node-3
Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

Si vous vérifiez la sortie de la commande cldevice list, les LUN des deux sites ont maintenant la même instance DID. Les répliques étant dotées de la même instance DID, chaque paire de répliques semble constituer un périphérique DID unique, comme le montre l'exemple suivant.

Exemple 5-12 Affichage des DID combinés

# cldevice list -v
DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222  
22          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22
23          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

L'étape suivante consiste à créer le groupe de périphériques Volume Manager. Emettez cette commande à partir du noeud qui contient la réplique principale, à savoir le noeud 3 dans cet exemple. Affectez au groupe de périphériques le nom du groupe de répliques, comme illustré dans l'exemple suivant.

Exemple 5-13 Création du groupe de périphériques Solaris Volume Manager

# metaset -s VG01 -ah phys-deneb-3
# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1

Host                Owner
  phys-deneb-3       Yes
  phys-deneb-1
  phys-deneb-2

Drive Dbase
d22   Yes
d23   Yes
d24   Yes

A ce stade, le groupe de périphériques peut être utilisé, des métapériphériques peuvent être créés et le groupe de périphériques peut être déplacé sur n'importe lequel des trois noeuds. Cependant, pour rendre plus efficaces les commutations et les basculements, exécutez cldevicegroup set pour marquer le groupe de périphériques comme répliqué dans la configuration du cluster.

Exemple 5-14 Procédure permettant de rendre efficaces les commutations et les basculements

# cldevicegroup sync VG01 
# cldevicegroup show VG01
=== Device Groups===

Device Group Name                       VG01   
  Type:                                   SVM   
  failback:                               no   
  Node List:                              phys-deneb-3, phys-deneb-1, phys-deneb-2   
  preferenced:                            yes   
  numsecondaries:                         1   
  device names:                           VG01   
  Replication type:                       truecopy

Cette étape achève la configuration du groupe de réplication. Pour vérifier le déroulement correct de la configuration, effectuez les étapes de la section Vérification d'une configuration de groupe de périphériques global répliqué Hitachi TrueCopy.

Administration des périphériques répliqués EMC Symmetrix Remote Data Facility

Le tableau suivant répertorie les tâches à accomplir pour configurer et gérer un périphérique répliqué basé sur le stockage EMC Symmetrix Remote Data Facility (SRDF).

Tableau 5-3 Liste des tâches : administration d'un périphérique répliqué basé sur le stockage EMC SRDF

Tâche
Instructions
Installation du logiciel SRDF sur vos noeuds et périphérique de stockage.
La documentation livrée avec votre périphérique de stockage EMC.
Configuration du groupe de réplication EMC.
Configuration du périphérique DID.
Enregistrement du groupe répliqué.
Vérification de la configuration.
Récupération manuelle des données après l'échec complet de la salle principale du cluster de campus.

Configuration d'un groupe de réplication EMC SRDF

Avant de commencer

EMC Solutions Enabler doit être installé sur tous les noeuds du cluster avant la configuration du groupe de réplication EMC Symmetrix Remote Data Facility (SRDF). Tout d'abord, configurez les groupes de périphériques EMC SRDF sur des disques partagés du cluster. Pour plus d'informations sur la configuration des groupes de périphériques EMC SRDF, reportez-vous à la documentation du produit EMC SRDF.

Lors de l'utilisation d'EMC SRDF, utilisez des périphériques dynamiques plutôt que statiques. Les périphériques statiques ont besoin de plusieurs minutes pour modifier le noeud principal de réplication et peuvent affecter la durée de basculement.


Attention

Attention - Le nom du groupe de périphériques Oracle Solaris Cluster créé (Solaris Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué.


  1. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.modify sur tous les noeuds connectés à la baie de stockage.
  2. Pour une implémentation sur trois sites ou trois centres de données à l'aide de périphériques en cascade ou de périphériques SRDF simultanés, définissez le paramètre SYMAPI_2SITE_CLUSTER_DG.

    Ajoutez l'entrée suivante au fichier d'options de Solutions Enabler sur tous les noeuds de cluster participants :

    SYMAPI_2SITE_CLUSTER_DG=:rdf-group-number
    device-group

    Indique le nom du groupe de périphériques.

    rdf-group-number

    Indique le groupe RDF qui connecte le système Symmetrix local de l'hôte au système Symmetrix du second site.

    Cette entrée permet au logiciel du cluster d'automatiser le mouvement de l'application entre les deux sites SRDF synchrones.

    Pour plus d'informations sur les configurations à trois centres de données, reportez-vous à la section Three-Data-Center (3DC) Topologies du manuel Oracle Solaris Cluster Geographic Edition Overview.

  3. Sur chaque noeud configuré avec les données répliquées, détectez la configuration de périphérique symmetrix.

    Cette opération peut prendre quelques minutes.

    # /usr/symcli/bin/symcfg discover
  4. Si vous n'avez pas encore créé des paires de répliques, créez-les maintenant.

    Exécutez la commande symrdf pour créer vos paires de répliques. Pour obtenir des instructions sur la création des paires de répliques, reportez-vous à votre documentation SRDF.


    Remarque - Si vous utilisez des périphériques RDF simultanés pour une implémentation sur trois sites ou trois centres de données, ajoutez le paramètre suivant à toutes les commandes symrdf :

    -rdfg rdf-group-number

    La spécification du numéro de groupe RDF à la commande symrdf garantit que l'opération symrdf est dirigée vers le bon groupe RDF.


  5. Sur chaque noeud configuré avec des périphériques répliqués, vérifiez que la réplication de données est correctement configurée.
    # /usr/symcli/bin/symdg show group-name
  6. Permutez le groupe de périphériques.
    1. Vérifiez que les répliques principale et secondaire sont synchronisées.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
    2. Déterminez le noeud devant contenir la réplique principale et le noeud devant contenir la réplique secondaire à l'aide de la commande symdg show.
      # /usr/symcli/bin/symdg show group-name

      Le noeud doté du périphérique RDF1 contient la réplique principale, tandis que le noeud doté de l'état du périphérique RDF2 contient la réplique secondaire.

    3. Activez la réplique secondaire.
      # /usr/symcli/bin/symrdf -g group-name failover
    4. Permutez les périphériques RDF1 et RDF2.
      # /usr/symcli/bin/symrdf -g group-name swap -refresh R1
    5. Activez la paire de répliques.
      # /usr/symcli/bin/symrdf -g group-name establish
    6. Vérifiez que le noeud principal et les répliques secondaires sont synchronisés.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
  7. Renouvelez toutes les opérations de l'étape 5 sur le noeud qui hébergeait à l'origine la réplique principale.

Étapes suivantes

Après avoir configuré un groupe de périphériques pour votre périphérique répliqué EMC SRDF, vous devez configurer le pilote de l'identificateur de périphérique (DID) que le périphérique répliqué utilise.

Configuration de périphériques DID pour la réplication à l'aide d'EMC SRDF

Cette procédure permet de configurer le pilote de l'identificateur de périphérique (DID) que le périphérique répliqué utilise.

Avant de commencer

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.modify sur un noeud du cluster.
  2. Déterminez les périphériques DID qui correspondent aux périphériques RDF1 et RDF2 configurés.
    # /usr/symcli/bin/symdg show group-name

    Remarque - Si votre système n'affiche pas l'ensemble du patch de périphérique Oracle Solaris, définissez la variable d'environnement SYMCLI_FULL_PDEVNAME sur 1 et saisissez à nouveau la commande symdg -show.


  3. Déterminez les périphériques DID qui correspondent aux périphériques Oracle Solaris.
    # cldevice list -v
  4. Pour chaque paire de périphériques DID qui correspondent, combinez les instances en un périphérique DID répliqué unique. Exécutez la commande suivante à partir du côté RDF2/secondaire.
    # cldevice combine -t srdf -g replication-device-group \
     -d destination-instance source-instance

    Remarque - L'option -T n'est pas prise en charge pour les périphériques de réplication de données SRDF.


    -t replication-type

    Indique le type de réplication. Pour EMC SRDF, saisissez SRDF .

    -g replication-device-group

    Indique le nom du groupe de périphériques, comme illustré dans la commande symdg show.

    -d destination-instance

    Indique l'instance DID correspondant au périphérique RDF1.

    source-instance

    Indique l'instance DID correspondant au périphérique RDF2.


    Remarque - Si vous combinez un périphérique DID incorrect, utilisez l'option -b de la commande scdidadm pour annuler la combinaison des deux périphériques DID.

    # scdidadm -b device 
    -b device

    L'instance DID correspondant à destination_device lorsque les instances ont été combinées.


  5. Si le nom d'un groupe de périphériques de réplication est modifié, des étapes supplémentaires sont nécessaires pour Hitachi TrueCopy et SRDF. Après avoir terminé les étapes 1 à 4, passez à l'étape supplémentaire appropriée.
    Elément
    Description
    TrueCopy
    Si le nom du groupe de périphériques de réplication (et du groupe de périphériques global correspondant) est modifié, vous devez exécuter à nouveau la commande cldevice replicate pour mettre à jour les informations du périphérique répliqué.
    SRDF
    Si le nom du groupe de périphériques de réplication (et le groupe de périphériques globaux correspondant) est modifié, vous devez mettre à jour les informations de périphérique répliqué, tout d'abord à l'aide de la commande scdidadm -b pour supprimer les informations existantes. La dernière étape consiste à utiliser la commande cldevice combine pour créer un nouveau périphérique mis à jour.
  6. Vérifiez que les instances DID ont été combinées.
    # cldevice list -v device
  7. Vérifiez que la réplication SRDF est définie.
    # cldevice show device
  8. Sur tous les noeuds, vérifiez que les périphériques DID pour toutes les instances DID combinées sont accessibles.
    # cldevice list -v

Étapes suivantes

Après avoir configuré le pilote de l'identificateur de périphérique (DID) utilisé par le périphérique répliqué, vous devez vérifier la configuration du groupe de périphériques globaux répliqués EMC SRDF.

Vérification de la configuration d'un groupe de périphériques globaux répliqués EMC SRDF

Avant de commencer

Avant de vérifier le groupe de périphériques globaux, vous devez d'abord le créer. Vous pouvez utiliser des groupes de périphériques Solaris Volume Manager, ZFS ou de disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :


Attention

Attention - Le nom du groupe de périphériques Oracle Solaris Cluster créé (Solaris Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Assurez-vous que le groupe de périphériques principal correspond au même noeud que le noeud qui contient la réplique principale.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
  2. Effectuez un essai de commutation afin de garantir que les groupes de périphériques sont configurés correctement et que les répliques peuvent passer d'un noeud à l'autre.

    Si le groupe de périphériques est hors ligne, mettez-le en ligne.

    # cldevicegroup switch -n nodename group-name
    -n nodename

    Le noeud vers lequel le groupe de périphériques est commuté. Ce noeud devient le nouveau noeud principal.

  3. Vérifiez que la commutation a réussi en comparant la sortie des commandes suivantes.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name

Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster

Cet exemple termine les étapes spécifiques d'Oracle Solaris Cluster que vous devez effectuer pour configurer la réplication SRDF dans votre cluster. Il part du principe que vous avez déjà réalisé les tâches suivantes :

Cet exemple implique un cluster à quatre noeuds où deux noeuds sont connectés à un Symmetrix et les deux autres sont connectés au deuxième Symmetrix. Le groupe de périphériques SRDF est appelé dg1.

Exemple 5-15 Création de paires de réplique

Exécutez la commande suivante sur tous les noeuds.

# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd

Symmetrix ID: 000187990182

        Device Name          Directors                   Device                
--------------------------- ------------ --------------------------------------
                                                                           Cap 
Sym  Physical               SA :P DA :IT  Config        Attribute    Sts   (MB)
--------------------------- ------------- -------------------------------------

0067 c5t600604800001879901* 16D:0 02A:C1  RDF2+Mir      N/Grp'd      RW    4315
0068 c5t600604800001879901* 16D:0 16B:C0  RDF1+Mir      N/Grp'd      RW    4315
0069 c5t600604800001879901* 16D:0 01A:C0  RDF1+Mir      N/Grp'd      RW    4315
...

Sur tous les noeuds du côté RDF1, saisissez :

# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

Sur tous les noeuds du côté RDF2, saisissez :

# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067

Exemple 5-16 Vérification de la configuration de la réplication de données

A partir d'un noeud du cluster, saisissez :

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
    Device Group in GNS                          : No
    Valid                                        : Yes
    Symmetrix ID                                 : 000187900023
    Group Creation Time                          : Thu Sep 13 13:21:15 2007
    Vendor ID                                    : EMC Corp
    Application ID                               : SYMCLI

    Number of STD Devices in Group               :    1
    Number of Associated GK's                    :    0
    Number of Locally-associated BCV's           :    0
    Number of Locally-associated VDEV's          :    0
    Number of Remotely-associated BCV's (STD RDF):    0
    Number of Remotely-associated BCV's (BCV RDF):    0
    Number of Remotely-assoc'd RBCV's (RBCV RDF) :    0

    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...
# symrdf -g dg1 establish

Execute an RDF 'Incremental Establish' operation for device
group 'dg1' (y/[n]) ? y

An RDF 'Incremental Establish' operation execution is
in progress for device group 'dg1'. Please wait...

    Write Disable device(s) on RA at target (R2)..............Done.
    Suspend RDF link(s).......................................Done.
    Mark target (R2) devices to refresh from source (R1)......Started.
    Device: 0067 ............................................ Marked.
    Mark target (R2) devices to refresh from source (R1)......Done.
    Merge device track tables between source and target.......Started.
    Device: 0067 ............................................ Merged.
    Merge device track tables between source and target.......Done.
    Resume RDF link(s)........................................Started.
    Resume RDF link(s)........................................Done.

The RDF 'Incremental Establish' operation successfully initiated for
device group 'dg1'.

#  
# symrdf -g dg1 query  


Device Group (DG) Name             : dg1
DG's Type                          : RDF2
DG's Symmetrix ID                  : 000187990182


       Target (R2) View                 Source (R1) View     MODES           
--------------------------------    ------------------------ ----- ------------
             ST                  LI      ST                                    
Standard      A                   N       A                                   
Logical       T  R1 Inv   R2 Inv  K       T  R1 Inv   R2 Inv       RDF Pair    
Device  Dev   E  Tracks   Tracks  S Dev   E  Tracks   Tracks MDA   STATE       
-------------------------------- -- ------------------------ ----- ------------

DEV001  0067 WD       0        0 RW 0067 RW       0        0 S..   Synchronized

Total          -------- --------           -------- --------
  MB(s)             0.0      0.0                0.0      0.0

Legend for MODES:

 M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
 D(omino)           : X = Enabled, . = Disabled
 A(daptive Copy)    : D = Disk Mode, W = WP Mode, . = ACp off

# 

Exemple 5-17 Affichage des DID correspondant aux disques utilisés

La même procédure s'applique aux côtés RDF1 et RDF2.

Vous pouvez examiner le champ Pdevname de la sortie de la commande dymdg show dg.

Sur le côté RDF1, saisissez :

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...

Pour obtenir le DID correspondant, saisissez :

# scdidadm -L | grep c5t6006048000018790002353594D303637d0
217      pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217   
217      pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 
#

Pour répertorier le DID correspondant, saisissez :

# cldevice show d217

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 

Sur le côté RDF2, saisissez :

Vous pouvez examiner le champ Pdevname de la sortie de la commande dymdg show dg.

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF2     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067      WD      4315
        }

    Device Group RDF Information
...

Pour obtenir le DID correspondant, saisissez :

# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108      pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
108      pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
# 

Pour répertorier le DID correspondant, saisissez :

# cldevice show d108

=== DID Device Instances ===                   

DID Device Name:            /dev/did/rdsk/d108
  Full Device Path:               pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:               pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                    none
  default_fencing:                global

# 

Exemple 5-18 Combinaison d'instances DID

Du côté RDF2, saisissez :

# cldevice combine -t srdf -g dg1 -d d217 d108
# 

Exemple 5-19 Affichage des DID combinés

A partir de n'importe quel noeud du cluster, saisissez :

# cldevice show d217 d108
cldevice:  (C727402) Could not locate instance "108".

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     srdf
  default_fencing:                                 global

# 

Récupération des données EMC SRDF après l'échec complet de la salle principale

Cette procédure permet la récupération des données en cas d'échec complet de la salle principale du cluster d'un campus, la salle principale bascule sur la salle secondaire, puis la salle principale revient en ligne. La salle principale du cluster de campus est le noeud principal et le site de stockage. L'échec complet d'une salle entraîne celui de son hôte et de son stockage. En cas d'échec de la salle principale, Oracle Solaris Cluster bascule automatiquement sur la salle secondaire, rend le périphérique de stockage de la salle secondaire accessible en lecture et en écriture et permet le basculement des groupes de périphériques et de ressources correspondants.

Lors du retour en ligne de la salle principale, il est possible de récupérer manuellement les données du groupe de périphériques SRDF enregistrées dans la salle secondaire et de les resynchroniser. Cette procédure permet de récupérer le groupe de périphériques SRDF par synchronisation des données de la salle secondaire initiale (cette procédure utilise phys-campus-2) vers la salle principale initiale ( phys-campus-1). Au cours de la procédure, le type de groupe de périphériques SRDF est également remplacé par RDF1 sur phys-campus-2 et par RDF2 sur phys-campus-1.

Avant de commencer

Vous devez configurer le groupe de réplications EMC et les périphériques DID ainsi qu'enregistrer ce groupe avant d'effectuer un basculement manuel. Pour plus d'informations sur la création d'un groupe de périphériques Solaris Volume Manager, reportez-vous à la section Ajout et enregistrement d'un groupe de périphériques (Solaris Volume Manager).


Remarque - Ces instructions illustrent une méthode que vous pouvez utiliser pour récupérer manuellement des données SRDF après le basculement total de la salle principale et son retour en ligne. Consultez la documentation EMC pour obtenir d'autres méthodes.


Connectez-vous à la salle principale du cluster de campus pour effectuer ces étapes. Dans la procédure ci-dessous, dg1 est le nom du groupe de périphériques SRDF. Lors de l'échec, la salle principale de cette procédure est phys-campus-1 et la salle secondaire est phys-campus-2.

  1. Connectez-vous à la salle principale du cluster de campus en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.modify.
  2. Dans la salle principale, utilisez la commande symrdf pour interroger l'état de réplication des périphériques RDF et afficher les informations les concernant.
    phys-campus-1# symrdf -g dg1 query

    Astuce - Un groupe de périphériques dans l'état split n'est pas synchronisé.


  3. Si l'état de la paire RDF est séparé et si le type du groupe de périphériques est RDF1, forcez un basculement du groupe de périphériques SRDF.
    phys-campus-1# symrdf -g dg1 -force failover
  4. Affichez le statut des périphériques RDF.
    phys-campus-1# symrdf -g dg1 query
  5. Après le basculement, vous pouvez échanger les données des périphériques RDF qui ont basculé.
    phys-campus-1# symrdf -g dg1 swap
  6. Vérifiez le statut et les autres informations concernant les périphériques RDF.
    phys-campus-1# symrdf -g dg1 query
  7. Etablissez le groupe de périphériques SRDF dans la salle principale.
    phys-campus-1# symrdf -g dg1 establish
  8. Confirmez que l'état du groupe de périphériques est synchronisé et que son type est RDF2.
    phys-campus-1# symrdf -g dg1 query

Exemple 5-20 Récupération manuelle des données EMC SRDF après le basculement d'un site principal

Cet exemple fournit les étapes spécifiques à Oracle Solaris Cluster permettant de récupérer manuellement des données EMC SRDF après le basculement de la salle principale du cluster d'un campus, la prise de relais de la salle secondaire et sa consignation de données puis le retour en ligne de la salle principale. Dans cet exemple, le groupe de périphériques SRDF est appelé dg1 et le périphérique logique standard est DEV001. La salle principale est phys-campus-1 au moment de l'échec et la salle secondaire est phys-campus-2. Effectuez la procédure à partir de la salle principale du cluster du campus, phys-campus-1.

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012RW  0  0NR 0012RW  2031   O S.. Split

phys-campus-1# symdg list | grep RDF
dg1 RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 -force failover
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012  WD  0  0 NR 0012 RW  2031  O S..  Failed Over

phys-campus-1# symdg list | grep RDF
dg1  RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 swap
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 NR 0012 RW  0  2031 S.. Suspended

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 establish
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 RW 0012 RW  0  0 S.. Synchronized

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0