Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Français) |
1. Présentation de l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Arrêt et initialisation d'un cluster
4. Méthodes de réplication de données
Présentation de l'administration des périphériques globaux et de l'espace de noms global
Autorisations du périphérique global pour Solaris Volume Manager
Reconfiguration dynamique avec les périphériques globaux
Administration des périphériques répliqués basés sur le stockage
Administration des périphériques répliqués Hitachi TrueCopy
Configuration d'un groupe de réplication Hitachi TrueCopy
Configuration des périphériques DID pour la réplication à l'aide de Hitachi TrueCopy
Vérification d'une configuration de groupe de périphériques global répliqué Hitachi TrueCopy
Exemple : configuration d'un groupe de réplication TrueCopy pour Oracle Solaris Cluster
Administration des périphériques répliqués EMC Symmetrix Remote Data Facility
Configuration d'un groupe de réplication EMC SRDF
Configuration de périphériques DID pour la réplication à l'aide d'EMC SRDF
Vérification de la configuration d'un groupe de périphériques globaux répliqués EMC SRDF
Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster
Présentation de l'administration des systèmes de fichiers de cluster
Restrictions du système de fichiers de cluster
Administration des groupes de périphériques
Mise à jour de l'espace de noms des périphériques globaux
Migration de l'espace de noms des périphériques globaux
Ajout et enregistrement de groupes de périphériques
Ajout et enregistrement d'un groupe de périphériques (Solaris Volume Manager)
Ajout et enregistrement d'un groupe de périphériques (disque brut)
Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)
Maintenance des groupes de périphériques
Suppression et annulation de l'enregistrement d'un groupe de périphériques (Solaris Volume Manager)
Suppression d'un noeud de tous les groupes de périphériques
Suppression d'un noeud d'un groupe de périphériques (Solaris Volume Manager)
Suppression d'un noeud d'un groupe de périphériques de disque brut
Modification des propriétés des groupes de périphériques
Définition du nombre souhaité de noeuds secondaires pour un groupe de périphériques
Affichage sous forme de liste de la configuration d'un groupe de périphériques
Changement du noeud principal d'un groupe de périphériques
Mise en état de maintenance du groupe de périphériques
Administration des paramètres du protocole SCSI pour les périphériques de stockage
Affichage du paramétrage global par défaut du protocole SCSI pour tous les périphériques de stockage
Affichage du protocole SCSI d'un seul périphérique de stockage
Modification du protocole de séparation d'un seul périphérique de stockage
Administration des systèmes de fichiers de cluster
Ajout d'un système de fichiers de cluster
Suppression d'un système de fichiers de cluster
Vérification des montages globaux dans un cluster
Administration du contrôle de chemin de disque
Contrôle d'un chemin de disque
Désactivation du contrôle d'un chemin de disque
Impression des chemins de disques défectueux
Correction d'une erreur d'état du chemin de disque
Contrôle des chemins de disques à partir d'un fichier
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un noeud
10. Configuration du contrôle de l'utilisation de la CPU
11. Application de patchs au logiciel et au microprogramme d'Oracle Solaris Cluster
12. Sauvegarde et restauration d'un cluster
13. Administration d'Oracle Solaris Cluster avec les interfaces graphiques
Vous pouvez configurer un groupe de périphériques Oracle Solaris Cluster pour qu'il contienne les périphériques qui sont répliqués à l'aide de la réplication basée sur le stockage. Le logiciel Oracle Solaris Cluster prend en charge Hitachi TrueCopy et le logiciel EMC Symmetrix Remote Data Facility pour la réplication basée sur le stockage.
Avant de répliquer des données avec Hitachi TrueCopy ou le logiciel EMC Symmetrix Remote Data Facility, vous devez vous familiariser avec la documentation sur la réplication basée sur le stockage. De plus, le produit de réplication basée sur le stockage et les derniers patchs doivent être installés sur votre système. Pour plus d'informations sur l'installation du logiciel de réplication basée sur le stockage, reportez-vous à la documentation produit.
Le logiciel de réplication basée sur le stockage configure une paire de périphériques en tant que répliques : l'un en tant que réplique principale, l'autre en tant que réplique secondaire. A tout moment, le périphérique associé à un jeu de noeuds fait office de réplique principale. Tandis que le périphérique associé à l'autre jeu de noeuds fait office de réplique secondaire.
Dans la configuration d'Oracle Solaris Cluster, la réplique principale est automatiquement déplacée lorsque le groupe de périphériques Oracle Solaris Cluster auquel elle appartient est déplacé. Par conséquent, vous ne devez jamais déplacer la réplique principale directement dans la configuration d'Oracle Solaris Cluster. Vous devez plutôt accomplir la reprise en déplaçant le groupe de périphériques Oracle Solaris Cluster associé.
![]() | Attention - Le nom du groupe de périphériques Oracle Solaris Cluster créé (Solaris Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué. |
Cette section contient les procédures suivantes :
Le tableau suivant répertorie les tâches que vous devez effectuer pour configurer un périphérique répliqué basé sur le stockage Hitachi TrueCopy.
Tableau 5-2 Liste des tâches : administration d'un périphérique répliqué basé sur le stockage Hitachi TrueCopy
|
Avant de commencer
Configurez tout d'abord les groupes de périphériques Hitachi TrueCopy sur des disques partagés du cluster principal. Ces informations de configuration sont spécifiées dans le fichier /etc/horcm.conf sur chacun des noeuds du cluster qui a accès à la baie Hitachi. Pour plus d'informations sur la configuration du fichier /etc/horcm.conf, reportez-vous au manuel Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide.
![]() | Attention - Le nom du groupe de périphériques Oracle Solaris Cluster créé (Solaris Volume Manager, ZFS ou disque brut) doit être identique à celui du groupe de périphériques répliqué. |
horcm 9970/udp
Indiquez un numéro de port et un nom de protocole pour la nouvelle entrée.
Pour obtenir des instructions, reportez-vous à la documentation fournie avec votre logiciel TrueCopy.
# /usr/bin/horcmstart.sh
Exécutez la commande paircreate pour créer vos paires de répliques avec le niveau de séparation souhaité. Pour obtenir des instructions sur la création des paires de répliques, reportez-vous à votre documentation TrueCopy.
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
Le noeud dont le périphérique local (L) est dans l'état P-VOL contient la réplique principale et le noeud dont le périphérique local (L) est dans l'état S-VOL contient la réplique secondaire.
# horctakeover -g group-name
Attendez la fin de la copie de données initiale avant de passer à l'étape suivante.
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..S-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..P-VOL PAIR NEVER ,----- 58 -
# horctakeover -g group-name
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
Étapes suivantes
Poursuivez la configuration de votre périphérique répliqué en suivant les instructions de la section Configuration des périphériques DID pour la réplication à l'aide de Hitachi TrueCopy.
Avant de commencer
Après avoir configuré un groupe de périphériques pour votre périphérique répliqué, vous devez configurer le pilote de l'identificateur de périphérique (DID) utilisé par le périphérique répliqué.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
La commande suivante permet de démarrer le démon s'il n'est pas en cours d'exécution. Le système affiche un message si le démon est déjà en cours d'exécution.
# /usr/bin/horcmstart.sh
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
Le noeud dont le périphérique local (L) présente l'état S-VOL contient la réplique secondaire.
Cette commande combine les deux instances DID distinctes pour les paires de répliques de périphériques en une seule instance DID logique. L'instance unique permet au périphérique d'être utilisé par le logiciel de gestion de volumes à partir des deux côtés.
![]() | Attention - Si plusieurs noeuds sont connectés à la réplique secondaire, exécutez cette commande sur un seul de ces noeuds. |
# cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
Indique le nom du noeud distant contenant la réplique principale.
Spécifie un noeud source autre que le noeud actuel.
Indique le nom du noeud distant contenant la réplique secondaire.
Remarque - Par défaut, le noeud actuel est le noeud source. Utilisez l'option -S pour spécifier un noeud source différent.
# cldevice list -v logical_DID_device
# cldevice show logical_DID_device
La sortie de la commande doit indiquer que le type de réplication est TrueCopy.
![]() | Attention - Soyez très prudent lorsque vous combinez manuellement des instances DID. Un remappage de périphérique incorrect peut endommager les données. |
# cldevice combine -d destination-instance source-instance
Instance DID distante, qui correspond à la réplique principale.
Instance DID locale, qui correspond à la réplique secondaire.
# cldevice list desination-instance source-instance
L'une des instances DID ne doit pas être listée.
# cldevice list -v
Étapes suivantes
Pour terminer la configuration de votre groupe de périphériques répliqué, effectuez les étapes des procédures suivantes.
Ajout et enregistrement d'un groupe de périphériques (Solaris Volume Manager)
Lors de l'enregistrement du groupe de périphériques, prenez garde de lui donner le même nom qu'au groupe de réplication TrueCopy.
Vérification d'une configuration de groupe de périphériques global répliqué Hitachi TrueCopy
Avant de commencer
Avant de vérifier le groupe de périphériques globaux, vous devez d'abord le créer. Vous pouvez utiliser des groupes de périphériques Solaris Volume Manager, ZFS ou de disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :
Ajout et enregistrement d'un groupe de périphériques (Solaris Volume Manager)
Ajout et enregistrement d'un groupe de périphériques (disque brut)
Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)
![]() | Attention - Le nom du groupe de périphériques Oracle Solaris Cluster créé (Solaris Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué. |
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
# cldevicegroup show -n nodename group-name
# usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
Si le groupe de périphériques est hors ligne, mettez-le en ligne.
# cldevicegroup switch -n nodename group-name
Le noeud vers lequel le groupe de périphériques est commuté. Ce noeud devient le nouveau noeud principal
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
Cet exemple termine les étapes spécifiques à Oracle Solaris Cluster que vous devez effectuer pour configurer la réplication TrueCopy dans votre cluster. Il part du principe que vous avez déjà réalisé les tâches suivantes :
Configuration de vos LUN Hitachi
Installation du logiciel TrueCopy sur votre périphérique de stockage et vos noeuds de cluster
Configuration des paires de réplication sur vos noeuds de cluster
Pour plus d'informations sur la configuration des paires de réplication, reportez-vous à la section Configuration d'un groupe de réplication Hitachi TrueCopy.
Cet exemple fait intervenir un cluster à trois noeuds qui utilise TrueCopy. Le cluster est réparti sur deux sites distants, deux noeuds se trouvant sur un site et un noeud sur l'autre site. Chaque site dispose de son propre périphérique de stockage Hitachi.
Les exemples suivants illustrent le fichier de configuration TrueCopy /etc/horcm.conf sur chaque noeud.
Exemple 5-1 Fichier de configuration TrueCopy sur le noeud 1
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
Exemple 5-2 Fichier de configuration TrueCopy sur le noeud 2
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
Exemple 5-3 Fichier de configuration TrueCopy sur le noeud 3
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-C 0 09 VG01 pair2 CL1-C 0 10 VG01 pair3 CL1-C 0 11 HORCM_INST #dev_group ip_address service VG01 node-1 horcm VG01 node-2 horcm
Dans les exemples précédents, trois LUN sont répliqués entre les deux sites. Les LUN appartiennent tous à un groupe de réplication nommé VG01. La commande pairdisplay vérifie ces informations et indique que le noeud 3 héberge la réplique principale.
Exemple 5-4 Sortie de la commande pairdisplay sur le noeud 1
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
Exemple 5-5 Sortie de la commande pairdisplay sur le noeud 2
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
Exemple 5-6 Sortie de la commande pairdisplay sur le noeud 3
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 -
Pour identifier les disques en cours d'utilisation, exécutez l'option -fd de la commande pairdisplay, comme indiqué dans les exemples suivants.
Exemple 5-7 Sortie de la commande pairdisplay sur le noeud 1, indiquant les disques utilisés
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
Exemple 5-8 Sortie de la commande pairdisplay sur le noeud 2, indiquant les disques utilisés
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
Exemple 5-9 Sortie de la commande pairdisplay sur le noeud 3, indiquant les disques utilisés
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 -
Ces exemples montrent que les disques suivants sont utilisés :
Sur le noeud 1 :
c6t500060E8000000000000EEBA0000001Dd0s2
c6t500060E8000000000000EEBA0000001Ed0s2
c6t500060E8000000000000EEBA0000001Fd0s
Sur le noeud 2 :
c5t500060E8000000000000EEBA0000001Dd0s2
c5t500060E8000000000000EEBA0000001Ed0s2
c5t500060E8000000000000EEBA0000001Fd0s2
Sur le noeud 3 :
c5t50060E800000000000004E600000003Ad0s2
c5t50060E800000000000004E600000003Bd0s2
c5t50060E800000000000004E600000003Cd0s2
Pour voir les périphériques DID correspondant à ces disques, exécutez la commande cldevice list comme indiqué dans les exemples suivants.
Exemple 5-10 Affichage des DID correspondant aux disques utilisés
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 12 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 12 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 13 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 13 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 14 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 14 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
Lors de la combinaison des instances DID pour chaque paire de périphériques répliqués, cldevice list doit combiner les instances 12 et 22, les instances 13 et 23 et les instances 14 et 24. Etant donné que le noeud 3 contient la réplique principale, exécutez la commande cldevice -T à partir du noeud 1 ou du noeud 2. Combinez toujours les instances à partir d'un noeud hébergeant la réplique secondaire. Exécutez cette commande à partir d'un seul noeud, et non à partir des deux.
L'exemple suivant présente la sortie lorsque la combinaison d'instances DID est effectuée par exécution de la commande sur le noeud 1.
Exemple 5-11 Combinaison d'instances DID
# cldevice replicate -D node-3 Remapping instances for devices replicated with node-3... VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 Combining instance 14 with 24 VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 Combining instance 13 with 23 VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 Combining instance 12 with 22
Si vous vérifiez la sortie de la commande cldevice list, les LUN des deux sites ont maintenant la même instance DID. Les répliques étant dotées de la même instance DID, chaque paire de répliques semble constituer un périphérique DID unique, comme le montre l'exemple suivant.
Exemple 5-12 Affichage des DID combinés
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222 22 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22 23 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
L'étape suivante consiste à créer le groupe de périphériques Volume Manager. Emettez cette commande à partir du noeud qui contient la réplique principale, à savoir le noeud 3 dans cet exemple. Affectez au groupe de périphériques le nom du groupe de répliques, comme illustré dans l'exemple suivant.
Exemple 5-13 Création du groupe de périphériques Solaris Volume Manager
# metaset -s VG01 -ah phys-deneb-3 # metaset -s VG01 -ah phys-deneb-1 # metaset -s VG01 -ah phys-deneb-2 # metaset -s VG01 -a /dev/did/rdsk/d22 # metaset -s VG01 -a /dev/did/rdsk/d23 # metaset -s VG01 -a /dev/did/rdsk/d24 # metaset Set name = VG01, Set number = 1 Host Owner phys-deneb-3 Yes phys-deneb-1 phys-deneb-2 Drive Dbase d22 Yes d23 Yes d24 Yes
A ce stade, le groupe de périphériques peut être utilisé, des métapériphériques peuvent être créés et le groupe de périphériques peut être déplacé sur n'importe lequel des trois noeuds. Cependant, pour rendre plus efficaces les commutations et les basculements, exécutez cldevicegroup set pour marquer le groupe de périphériques comme répliqué dans la configuration du cluster.
Exemple 5-14 Procédure permettant de rendre efficaces les commutations et les basculements
# cldevicegroup sync VG01 # cldevicegroup show VG01 === Device Groups=== Device Group Name VG01 Type: SVM failback: no Node List: phys-deneb-3, phys-deneb-1, phys-deneb-2 preferenced: yes numsecondaries: 1 device names: VG01 Replication type: truecopy
Cette étape achève la configuration du groupe de réplication. Pour vérifier le déroulement correct de la configuration, effectuez les étapes de la section Vérification d'une configuration de groupe de périphériques global répliqué Hitachi TrueCopy.
Le tableau suivant répertorie les tâches à accomplir pour configurer et gérer un périphérique répliqué basé sur le stockage EMC Symmetrix Remote Data Facility (SRDF).
Tableau 5-3 Liste des tâches : administration d'un périphérique répliqué basé sur le stockage EMC SRDF
|
Avant de commencer
EMC Solutions Enabler doit être installé sur tous les noeuds du cluster avant la configuration du groupe de réplication EMC Symmetrix Remote Data Facility (SRDF). Tout d'abord, configurez les groupes de périphériques EMC SRDF sur des disques partagés du cluster. Pour plus d'informations sur la configuration des groupes de périphériques EMC SRDF, reportez-vous à la documentation du produit EMC SRDF.
Lors de l'utilisation d'EMC SRDF, utilisez des périphériques dynamiques plutôt que statiques. Les périphériques statiques ont besoin de plusieurs minutes pour modifier le noeud principal de réplication et peuvent affecter la durée de basculement.
![]() | Attention - Le nom du groupe de périphériques Oracle Solaris Cluster créé (Solaris Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué. |
Ajoutez l'entrée suivante au fichier d'options de Solutions Enabler sur tous les noeuds de cluster participants :
SYMAPI_2SITE_CLUSTER_DG=:rdf-group-number
Indique le nom du groupe de périphériques.
Indique le groupe RDF qui connecte le système Symmetrix local de l'hôte au système Symmetrix du second site.
Cette entrée permet au logiciel du cluster d'automatiser le mouvement de l'application entre les deux sites SRDF synchrones.
Pour plus d'informations sur les configurations à trois centres de données, reportez-vous à la section Three-Data-Center (3DC) Topologies du manuel Oracle Solaris Cluster Geographic Edition Overview.
Cette opération peut prendre quelques minutes.
# /usr/symcli/bin/symcfg discover
Exécutez la commande symrdf pour créer vos paires de répliques. Pour obtenir des instructions sur la création des paires de répliques, reportez-vous à votre documentation SRDF.
Remarque - Si vous utilisez des périphériques RDF simultanés pour une implémentation sur trois sites ou trois centres de données, ajoutez le paramètre suivant à toutes les commandes symrdf :
-rdfg rdf-group-number
La spécification du numéro de groupe RDF à la commande symrdf garantit que l'opération symrdf est dirigée vers le bon groupe RDF.
# /usr/symcli/bin/symdg show group-name
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
# /usr/symcli/bin/symdg show group-name
Le noeud doté du périphérique RDF1 contient la réplique principale, tandis que le noeud doté de l'état du périphérique RDF2 contient la réplique secondaire.
# /usr/symcli/bin/symrdf -g group-name failover
# /usr/symcli/bin/symrdf -g group-name swap -refresh R1
# /usr/symcli/bin/symrdf -g group-name establish
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
Étapes suivantes
Après avoir configuré un groupe de périphériques pour votre périphérique répliqué EMC SRDF, vous devez configurer le pilote de l'identificateur de périphérique (DID) que le périphérique répliqué utilise.
Cette procédure permet de configurer le pilote de l'identificateur de périphérique (DID) que le périphérique répliqué utilise.
Avant de commencer
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
# /usr/symcli/bin/symdg show group-name
Remarque - Si votre système n'affiche pas l'ensemble du patch de périphérique Oracle Solaris, définissez la variable d'environnement SYMCLI_FULL_PDEVNAME sur 1 et saisissez à nouveau la commande symdg -show.
# cldevice list -v
# cldevice combine -t srdf -g replication-device-group \ -d destination-instance source-instance
Remarque - L'option -T n'est pas prise en charge pour les périphériques de réplication de données SRDF.
Indique le type de réplication. Pour EMC SRDF, saisissez SRDF .
Indique le nom du groupe de périphériques, comme illustré dans la commande symdg show.
Indique l'instance DID correspondant au périphérique RDF1.
Indique l'instance DID correspondant au périphérique RDF2.
Remarque - Si vous combinez un périphérique DID incorrect, utilisez l'option -b de la commande scdidadm pour annuler la combinaison des deux périphériques DID.
# scdidadm -b device
L'instance DID correspondant à destination_device lorsque les instances ont été combinées.
|
# cldevice list -v device
# cldevice show device
# cldevice list -v
Étapes suivantes
Après avoir configuré le pilote de l'identificateur de périphérique (DID) utilisé par le périphérique répliqué, vous devez vérifier la configuration du groupe de périphériques globaux répliqués EMC SRDF.
Avant de commencer
Avant de vérifier le groupe de périphériques globaux, vous devez d'abord le créer. Vous pouvez utiliser des groupes de périphériques Solaris Volume Manager, ZFS ou de disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :
Ajout et enregistrement d'un groupe de périphériques (Solaris Volume Manager)
Ajout et enregistrement d'un groupe de périphériques (disque brut)
Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)
![]() | Attention - Le nom du groupe de périphériques Oracle Solaris Cluster créé (Solaris Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué. |
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
# symdg -show group-name # cldevicegroup status -n nodename group-name
Si le groupe de périphériques est hors ligne, mettez-le en ligne.
# cldevicegroup switch -n nodename group-name
Le noeud vers lequel le groupe de périphériques est commuté. Ce noeud devient le nouveau noeud principal.
# symdg -show group-name # cldevicegroup status -n nodename group-name
Cet exemple termine les étapes spécifiques d'Oracle Solaris Cluster que vous devez effectuer pour configurer la réplication SRDF dans votre cluster. Il part du principe que vous avez déjà réalisé les tâches suivantes :
Appariement terminé de LUNS pour la réplication entre les baies.
Installation du logiciel SRDF sur votre périphérique de stockage et vos noeuds de cluster.
Cet exemple implique un cluster à quatre noeuds où deux noeuds sont connectés à un Symmetrix et les deux autres sont connectés au deuxième Symmetrix. Le groupe de périphériques SRDF est appelé dg1.
Exemple 5-15 Création de paires de réplique
Exécutez la commande suivante sur tous les noeuds.
# symcfg discover ! This operation might take up to a few minutes. # symdev list pd Symmetrix ID: 000187990182 Device Name Directors Device --------------------------- ------------ -------------------------------------- Cap Sym Physical SA :P DA :IT Config Attribute Sts (MB) --------------------------- ------------- ------------------------------------- 0067 c5t600604800001879901* 16D:0 02A:C1 RDF2+Mir N/Grp'd RW 4315 0068 c5t600604800001879901* 16D:0 16B:C0 RDF1+Mir N/Grp'd RW 4315 0069 c5t600604800001879901* 16D:0 01A:C0 RDF1+Mir N/Grp'd RW 4315 ...
Sur tous les noeuds du côté RDF1, saisissez :
# symdg -type RDF1 create dg1 # symld -g dg1 add dev 0067
Sur tous les noeuds du côté RDF2, saisissez :
# symdg -type RDF2 create dg1 # symld -g dg1 add dev 0067
Exemple 5-16 Vérification de la configuration de la réplication de données
A partir d'un noeud du cluster, saisissez :
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) Device Group in GNS : No Valid : Yes Symmetrix ID : 000187900023 Group Creation Time : Thu Sep 13 13:21:15 2007 Vendor ID : EMC Corp Application ID : SYMCLI Number of STD Devices in Group : 1 Number of Associated GK's : 0 Number of Locally-associated BCV's : 0 Number of Locally-associated VDEV's : 0 Number of Remotely-associated BCV's (STD RDF): 0 Number of Remotely-associated BCV's (BCV RDF): 0 Number of Remotely-assoc'd RBCV's (RBCV RDF) : 0 Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ... # symrdf -g dg1 establish Execute an RDF 'Incremental Establish' operation for device group 'dg1' (y/[n]) ? y An RDF 'Incremental Establish' operation execution is in progress for device group 'dg1'. Please wait... Write Disable device(s) on RA at target (R2)..............Done. Suspend RDF link(s).......................................Done. Mark target (R2) devices to refresh from source (R1)......Started. Device: 0067 ............................................ Marked. Mark target (R2) devices to refresh from source (R1)......Done. Merge device track tables between source and target.......Started. Device: 0067 ............................................ Merged. Merge device track tables between source and target.......Done. Resume RDF link(s)........................................Started. Resume RDF link(s)........................................Done. The RDF 'Incremental Establish' operation successfully initiated for device group 'dg1'. # # symrdf -g dg1 query Device Group (DG) Name : dg1 DG's Type : RDF2 DG's Symmetrix ID : 000187990182 Target (R2) View Source (R1) View MODES -------------------------------- ------------------------ ----- ------------ ST LI ST Standard A N A Logical T R1 Inv R2 Inv K T R1 Inv R2 Inv RDF Pair Device Dev E Tracks Tracks S Dev E Tracks Tracks MDA STATE -------------------------------- -- ------------------------ ----- ------------ DEV001 0067 WD 0 0 RW 0067 RW 0 0 S.. Synchronized Total -------- -------- -------- -------- MB(s) 0.0 0.0 0.0 0.0 Legend for MODES: M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy D(omino) : X = Enabled, . = Disabled A(daptive Copy) : D = Disk Mode, W = WP Mode, . = ACp off #
Exemple 5-17 Affichage des DID correspondant aux disques utilisés
La même procédure s'applique aux côtés RDF1 et RDF2.
Vous pouvez examiner le champ Pdevname de la sortie de la commande dymdg show dg.
Sur le côté RDF1, saisissez :
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ...
Pour obtenir le DID correspondant, saisissez :
# scdidadm -L | grep c5t6006048000018790002353594D303637d0 217 pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 217 pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 #
Pour répertorier le DID correspondant, saisissez :
# cldevice show d217 === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Replication: none default_fencing: global #
Sur le côté RDF2, saisissez :
Vous pouvez examiner le champ Pdevname de la sortie de la commande dymdg show dg.
# symdg show dg1 Group Name: dg1 Group Type : RDF2 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067 WD 4315 } Device Group RDF Information ...
Pour obtenir le DID correspondant, saisissez :
# scdidadm -L | grep c5t6006048000018799018253594D303637d0 108 pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 108 pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 #
Pour répertorier le DID correspondant, saisissez :
# cldevice show d108 === DID Device Instances === DID Device Name: /dev/did/rdsk/d108 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: none default_fencing: global #
Exemple 5-18 Combinaison d'instances DID
Du côté RDF2, saisissez :
# cldevice combine -t srdf -g dg1 -d d217 d108 #
Exemple 5-19 Affichage des DID combinés
A partir de n'importe quel noeud du cluster, saisissez :
# cldevice show d217 d108 cldevice: (C727402) Could not locate instance "108". === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: srdf default_fencing: global #
Cette procédure permet la récupération des données en cas d'échec complet de la salle principale du cluster d'un campus, la salle principale bascule sur la salle secondaire, puis la salle principale revient en ligne. La salle principale du cluster de campus est le noeud principal et le site de stockage. L'échec complet d'une salle entraîne celui de son hôte et de son stockage. En cas d'échec de la salle principale, Oracle Solaris Cluster bascule automatiquement sur la salle secondaire, rend le périphérique de stockage de la salle secondaire accessible en lecture et en écriture et permet le basculement des groupes de périphériques et de ressources correspondants.
Lors du retour en ligne de la salle principale, il est possible de récupérer manuellement les données du groupe de périphériques SRDF enregistrées dans la salle secondaire et de les resynchroniser. Cette procédure permet de récupérer le groupe de périphériques SRDF par synchronisation des données de la salle secondaire initiale (cette procédure utilise phys-campus-2) vers la salle principale initiale ( phys-campus-1). Au cours de la procédure, le type de groupe de périphériques SRDF est également remplacé par RDF1 sur phys-campus-2 et par RDF2 sur phys-campus-1.
Avant de commencer
Vous devez configurer le groupe de réplications EMC et les périphériques DID ainsi qu'enregistrer ce groupe avant d'effectuer un basculement manuel. Pour plus d'informations sur la création d'un groupe de périphériques Solaris Volume Manager, reportez-vous à la section Ajout et enregistrement d'un groupe de périphériques (Solaris Volume Manager).
Remarque - Ces instructions illustrent une méthode que vous pouvez utiliser pour récupérer manuellement des données SRDF après le basculement total de la salle principale et son retour en ligne. Consultez la documentation EMC pour obtenir d'autres méthodes.
Connectez-vous à la salle principale du cluster de campus pour effectuer ces étapes. Dans la procédure ci-dessous, dg1 est le nom du groupe de périphériques SRDF. Lors de l'échec, la salle principale de cette procédure est phys-campus-1 et la salle secondaire est phys-campus-2.
phys-campus-1# symrdf -g dg1 query
Astuce - Un groupe de périphériques dans l'état split n'est pas synchronisé.
phys-campus-1# symrdf -g dg1 -force failover
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 swap
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 establish
phys-campus-1# symrdf -g dg1 query
Exemple 5-20 Récupération manuelle des données EMC SRDF après le basculement d'un site principal
Cet exemple fournit les étapes spécifiques à Oracle Solaris Cluster permettant de récupérer manuellement des données EMC SRDF après le basculement de la salle principale du cluster d'un campus, la prise de relais de la salle secondaire et sa consignation de données puis le retour en ligne de la salle principale. Dans cet exemple, le groupe de périphériques SRDF est appelé dg1 et le périphérique logique standard est DEV001. La salle principale est phys-campus-1 au moment de l'échec et la salle secondaire est phys-campus-2. Effectuez la procédure à partir de la salle principale du cluster du campus, phys-campus-1.
phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012RW 0 0NR 0012RW 2031 O S.. Split phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 -force failover ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 2031 O S.. Failed Over phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 swap ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 0 2031 S.. Suspended phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 establish ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 RW 0012 RW 0 0 S.. Synchronized phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0