Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster (Français) |
1. Introduction à l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Fermeture et initialisation d'un cluster
4. Méthodes de réplication de données
Présentation de l'administration des périphériques globaux et de l'espace de noms global
Permissions du périphérique global pour Solaris Volume Manager
Reconfiguration dynamique avec les périphériques globaux
Considérations d'administration Veritas Volume Manager
Administration de périphériques répliqués et basés sur le stockage
Administration de périphériques répliqués Hitachi TrueCopy
Configuration d'un groupe de réplication Hitachi TrueCopy
Configuration de la réplication de périphériques DID à l'aide de Hitachi TrueCopy
Vérification de la configuration d'un groupe de périphériques global répliqué Hitachi TrueCopy
Exemple : configuration d'un groupe de réplication TrueCopy pour Oracle Solaris Cluster
Administration de périphériques répliqués EMC Symmetrix Remote Data Facility
Configuration d'un groupe de réplication EMC SRDF
Configuration de la réplication de périphériques DID à l'aide du logiciel EMC SRDF
Vérification de la configuration d'un groupe de périphériques global répliqué EMC SRFD
Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster
Présentation de l'administration des systèmes de fichiers de cluster
Restrictions du système de fichiers du cluster
Directives relatives à la prise en charge VxFS
Administration de groupes de périphériques
Mise à jour de l'espace de noms des périphériques globaux
Migration de l'espace de noms des périphériques globaux
Ajout et enregistrement de groupes de périphériques
Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager)
Ajout et enregistrement d'un groupe de périphériques (disque brut)
Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)
Création d'un groupe de disques lors de l'initialisation des disques (Veritas Volume Manager)
Maintenance des groupes de périphériques
Suppression et annulation de l'enregistrement d'un groupe de périphériques (Solaris Volume Manager)
Suppression d'un nud de tous les groupes de périphériques
Suppression d'un nud d'un groupe de périphériques (Solaris Volume Manager)
Création d'un groupe de disques lors de l'encapsulation des disques (Veritas Volume Manager)
Ajout d'un nouveau volume à un groupe de périphériques existant (Veritas Volume Manager)
Conversion d'un groupe de disques en groupe de périphériques (Veritas Volume Manager)
Assignation d'un nouveau code mineur à un groupe de périphériques (Veritas Volume Manager)
Enregistrement d'un groupe de disques en tant que groupe de périphériques (Veritas Volume Manager)
Conversion d'un groupe de disques local en groupe de périphériques (VxVM)
Conversion d'un groupe de périphériques en groupe de disques local (VxVM)
Suppression d'un volume d'un groupe de périphériques (Veritas Volume Manager)
Suppression et annulation de l'enregistrement d'un groupe de périphériques (Veritas Volume Manager)
Ajout d'un nud à un groupe de périphériques (Veritas Volume Manager)
Suppression d'un nud d'un groupe de périphériques (Veritas Volume Manager)
Suppression d'un nud d'un groupe de périphériques de disque brut
Modification des propriétés des groupes de périphériques
Définition du nombre souhaité de nuds secondaires pour un groupe de périphériques
Affichage sous forme de liste de la configuration d'un groupe de périphériques
Changement du nud principal d'un groupe de périphériques
Mise en état de maintenance du groupe de périphériques
Administration des paramètres du protocole SCSI pour les périphériques de stockage
Affichage des paramètres du protocole SCSI global par défaut pour tous les périphériques de stockage
Affichage du protocole SCSI d'un seul périphérique de stockage
Modification du protocole de séparation d'un seul périphérique de stockage
Administration des systèmes de fichiers du cluster
Ajout d'un système de fichiers du cluster
Suppression d'un système de fichiers du cluster
Vérification des montages globaux dans un cluster
Administration du contrôle de chemin de disque
Contrôle d'un chemin de disque
Désactivation du contrôle d'un chemin de disque
Impression des chemins de disques défectueux
Correction d'une erreur d'état du chemin de disque
Contrôle des chemins de disques à partir d'un fichier
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un nud
10. Configuration du contrôle de l'utilisation du CPU
11. Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
12. Sauvegarde et restauration d'un cluster
13. Administration de Oracle Solaris Cluster avec les interfaces graphiques
Vous pouvez configurer un groupe de périphériques Oracle Solaris Cluster dont les périphériques seront répliqués à l'aide de la réplication basée sur le stockage. Oracle Solaris Cluster prend en charge les logiciels de réplication basée sur le stockage Hitachi TrueCopy et EMC Symmetrix Remote Data Facility.
Avant de répliquer des données avec les logiciels Hitachi TrueCopy et EMC Symmetrix Remote Data Facility, familiarisez-vous avec la documentation sur la réplication basée sur le stockage et installez sur votre système le logiciel de réplication basée sur le stockage ainsi que les patchs les plus récents. Pour plus d'informations sur l'installation de logiciels de réplication basée sur le stockage, consultez la documentation produit.
Le logiciel de réplication basée sur le stockage configure deux périphériques en tant que répliques (l'un en tant que réplique principale, l'autre en tant que réplique secondaire). À tout moment, le périphérique connecté à un jeu de nœuds fait office de réplique principale, tandis que le périphérique connecté à l'autre jeu de nœuds de réplique secondaire.
Dans une configuration Oracle Solaris Cluster, la réplique principale suit automatiquement les déplacements du groupe de périphériques Oracle Solaris Cluster auquel elle appartient. Ainsi, vous ne devez jamais déplacer la réplique principale directement dans une configuration Oracle Solaris Cluster. La reprise doit plutôt s'opérer par déplacement du groupe de périphériques Oracle Solaris Cluster associé.
![]() | Attention - Le nom du groupe de périphériques Oracle Solaris Cluster que vous créez (Solaris Volume Manager, Veritas Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué. |
Cette section contient les procédures suivantes :
Le tableau suivant énumère les tâches à accomplir pour configurer un périphérique répliqué basé sur le stockage.
Tableau 5-2 Liste des tâches : administration d'un périphérique de réplique basée sur le stockage Hitachi TrueCopy
|
Avant de commencer
En premier lieu, configurez les groupes de périphériques Hitachi TrueCopy sur des disques partagés du cluster principal. Ces informations de configuration sont indiquées dans le fichier /etc/horcm.conf sur chaque nœud du cluster ayant accès à la baie Hitachi. Pour plus d'informations sur la configuration du fichier /etc/horcm.conf, consultez le Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide.
![]() | Attention - Le nom du groupe de périphériques Oracle Solaris Cluster que vous créez (Solaris Volume Manager, Veritas Volume Manager, ZFS ou disque brut) doit être identique à celui du groupe de périphériques répliqué. |
horcm 9970/udp
Précisez le numéro de port et le nom de protocole de la nouvelle entrée.
La documentation livrée avec le logiciel TrueCopy contient les instructions auxquelles vous reporter.
# /usr/bin/horcmstart.sh
Pour créer les paires de répliques du niveau de clôture souhaité, faites appel à la commande paircreate. La documentation TrueCopy contient les instructions relatives à la création des paires de répliques.
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
Le nœud doté du périphérique local (L) dans l'état P-VOL contient la réplique principale, tandis que le nœud doté du périphérique local (L) dans l'état S-VOL contient la réplique secondaire.
# horctakeover -g group-name
Attendez la fin de la copie des données d'origine avant de passer à l'étape suivante.
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..S-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..P-VOL PAIR NEVER ,----- 58 -
# horctakeover -g group-name
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
Étapes suivantes
Poursuivez la configuration de votre périphérique répliqué d'après les instructions décrites dans la section Configuration de la réplication de périphériques DID à l'aide de Hitachi TrueCopy.
Avant de commencer
Après avoir configuré un groupe de périphériques pour votre périphérique répliqué, vous devez configurer le pilote DID (device identifier, identificateur de périphérique) que ce dernier utilise.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
La commande suivante lance le démon s'il n'est pas en cours d'exécution. En cas contraire, un message s'affiche.
# /usr/bin/horcmstart.sh
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
Le nœud doté du périphérique local (L) dans l'état S-VOL contient la réplique secondaire.
Cette commande combine les deux instances DID des paires de répliques de périphérique en une seule et unique instance DID logique. Grâce à cette instance unique, le logiciel de gestion de volumes peut utiliser le périphérique des deux côtés.
![]() | Attention - Si plusieurs nœuds sont connectés à la réplique secondaire, exécutez cette commande sur l'un d'eux uniquement. |
# cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
Spécifie le nom du nœud distant qui contient la réplique principale.
Spécifie un nœud source, autre que le nœud actuel.
Spécifie le nom du nœud distant qui contient la réplique secondaire.
Remarque - Par défaut, le nœud actuel est le nœud source. Pour en spécifier un autre, utilisez l'option -S.
# cldevice list -v logical_DID_device
# cldevice show logical_DID_device
La sortie de commande doit indiquer que la réplication est de type TrueCopy.
![]() | Attention - Procédez à la combinaison manuelle des instances DID avec grande précaution. Une reconfiguration de périphérique inadéquate risque d'endommager des données. |
# cldevice combine -d destination-instance source-instance
Instance DID distante qui correspond à la réplique principale.
Instance DID locale qui correspond à la réplique secondaire.
# cldevice list desination-instance source-instance
Une des instances DID ne doit pas apparaître dans la liste.
# cldevice list -v
Étapes suivantes
Pour terminer la configuration de votre groupe de périphériques répliqués, procédez comme suit, étape par étape.
Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager) ou Enregistrement d'un groupe de disques en tant que groupe de périphériques (Veritas Volume Manager)
Lors de l'enregistrement du groupe de périphériques, veillez à lui attribuer le nom du groupe de réplication TrueCopy.
Vérification de la configuration d'un groupe de périphériques global répliqué Hitachi TrueCopy
Avant de commencer
Vous devez créer le groupe de périphériques global avant de pouvoir le vérifier. Vous pouvez utiliser des groupes de périphériques du type Solaris Volume Manager, Veritas Volume Manager, ZFS ou disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :
Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager)
Ajout et enregistrement d'un groupe de périphériques (disque brut)
Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)
Création d'un groupe de disques lors de l'initialisation des disques (Veritas Volume Manager)
![]() | Attention - Le nom du groupe de périphériques Oracle Solaris Cluster que vous avez créé (Solaris Volume Manager, Veritas Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué. |
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
# cldevicegroup show -n nodename group-name
# usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
Si le groupe de périphériques est déconnecté, mettez-le en ligne.
# cldevicegroup switch -n nodename group-name
Nœud vers lequel le groupe de périphériques est commuté. Ce nœud devient le nœud principal.
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
Cet exemple représente la procédure spécifique à Oracle Solaris Cluster que vous devez effectuer pour configurer la réplication TrueCopy dans votre cluster. Il part du principe que vous avez déjà réalisé les tâches suivantes :
Configuration des LUN Hitachi ;
Installation du logiciel TrueCopy sur vos nœuds de cluster et votre périphérique de stockage ;
Configuration des paires de réplication sur vos nœuds de cluster.
La section Configuration d'un groupe de réplication Hitachi TrueCopy contient les instructions relatives à la configuration des paires de réplication.
Le cluster à trois nœuds de cet exemple utilise TrueCopy. Il s'étend sur deux sites distants, comportant un nœud et deux nœuds respectivement. Chaque site possède son propre périphérique de stockage Hitachi.
Le fichier de configuration TrueCopy /etc/horcm.conf sur chaque nœud est illustré dans les exemples suivants.
Exemple 5-1 Fichier de configuration TrueCopy sur le nœud 1
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
Exemple 5-2 Fichier de configuration TrueCopy sur le nœud 2
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
Exemple 5-3 Fichier de configuration TrueCopy sur le nœud 3
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-C 0 09 VG01 pair2 CL1-C 0 10 VG01 pair3 CL1-C 0 11 HORCM_INST #dev_group ip_address service VG01 node-1 horcm VG01 node-2 horcm
Dans les exemples précédents, trois LUN sont répliqués entre les deux sites. Ils se trouvent tous dans le groupe de réplication nommé VG01. La commande pairdisplay vérifie ces informations et indique que le nœud 3 contient la réplique principale.
Exemple 5-4 Sortie de la commande pairdisplay sur le nœud 1
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
Exemple 5-5 Sortie de la commande pairdisplay sur le nœud 2
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
Exemple 5-6 Sortie de la commande pairdisplay sur le nœud 3
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 -
L'option -fd de la commande pairdisplay affiche les disques utilisés, comme illustré dans les exemples suivants.
Exemple 5-7 Sortie de la commande pairdisplay sur le nœud 1, indiquant les disques utilisés
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
Exemple 5-8 Sortie de la commande pairdisplay sur le nœud 2, indiquant les disques utilisés
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
Exemple 5-9 Sortie de la commande pairdisplay sur le nœud 3, indiquant les disques utilisés
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 -
Dans ces exemples, les disques utilisés sont les suivants :
Sur le nœud 1 :
c6t500060E8000000000000EEBA0000001Dd0s2
c6t500060E8000000000000EEBA0000001Ed0s2
c6t500060E8000000000000EEBA0000001Fd0s
Sur le nœud 2 :
c5t500060E8000000000000EEBA0000001Dd0s2
c5t500060E8000000000000EEBA0000001Ed0s2
c5t500060E8000000000000EEBA0000001Fd0s2
Sur le nœud 3 :
c5t50060E800000000000004E600000003Ad0s2
c5t50060E800000000000004E600000003Bd0s2
c5t50060E800000000000004E600000003Cd0s2
Pour afficher les périphériques DID correspondant à ces disques, utilisez la commande cldevice list, comme décrit dans les exemples suivants.
Exemple 5-10 Affichage des DID correspondant aux disques utilisés
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 12 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 12 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 13 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 13 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 14 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 14 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
Lors de la combinaison des instances DID pour chaque paire de périphériques répliqués, la commande cldevice list doit combiner les instances 12 et 22, 13 et 23, et 14 et 24. Le nœud 3 contenant la réplique principale, exécutez la commande cldevice-T à partir du nœud 1 ou 2. Vous devez toujours combiner les instances à partir d'un nœud contenant la réplique secondaire. Exécutez cette commande à partir d'un seul et unique nœud.
L'exemple suivant illustre la sortie lorsque les instances DID sont combinées en exécutant la commande sur le nœud 1.
Exemple 5-11 Combinaison des instances DID
# cldevice replicate -D node-3 Remapping instances for devices replicated with node-3... VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 Combining instance 14 with 24 VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 Combining instance 13 with 23 VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 Combining instance 12 with 22
La sortie de la commande cldevice list indique que les LUN des deux sites possèdent à présent la même instance DID. Ainsi, chaque paire de répliques ressemble à un périphérique unique, comme illustré dans l'exemple suivant.
Exemple 5-12 Affichage des DID combinés
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222 22 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22 23 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
L'étape suivante consiste à créer le groupe de périphériques gestionnaire de volumes. Exécutez cette commande à partir du nœud contenant la réplique principale (le nœud 3, dans cet exemple). Attribuez au groupe de périphériques le nom du groupe de répliques, comme illustré dans l'exemple suivant.
Exemple 5-13 Création du groupe de périphériques Solaris Volume Manager
# metaset -s VG01 -ah phys-deneb-3 # metaset -s VG01 -ah phys-deneb-1 # metaset -s VG01 -ah phys-deneb-2 # metaset -s VG01 -a /dev/did/rdsk/d22 # metaset -s VG01 -a /dev/did/rdsk/d23 # metaset -s VG01 -a /dev/did/rdsk/d24 # metaset Set name = VG01, Set number = 1 Host Owner phys-deneb-3 Yes phys-deneb-1 phys-deneb-2 Drive Dbase d22 Yes d23 Yes d24 Yes
À ce stade, vous pouvez utiliser le groupe de périphériques, créer les métapériphériques et déplacer le groupe de périphériques sur l'un des trois nœuds. Toutefois, l'efficacité des commutations et des basculements peut être améliorée si vous exécutez la commande cldevicegroup set qui signale le groupe de périphériques comme étant répliqué dans la configuration du cluster.
Exemple 5-14 Efficacité des commutations et des basculements
# cldevicegroup sync VG01 # cldevicegroup show VG01 === Device Groups=== Device Group Name VG01 Type: SVM failback: no Node List: phys-deneb-3, phys-deneb-1, phys-deneb-2 preferenced: yes numsecondaries: 1 device names: VG01 Replication type: truecopy
Cette étape met fin à la configuration du groupe de réplication. Pour vérifier la réussite de la configuration, suivez la procédure décrite à la section Vérification de la configuration d'un groupe de périphériques global répliqué Hitachi TrueCopy.
Le tableau suivant énumère les tâches à accomplir pour configurer et gérer un périphérique répliqué basé sur le stockage Symmetrix Remote Data Facility (SRDF) d'EMC.
Tableau 5-3 Liste des tâches : administration d'un périphérique répliqué basé sur le stockage SRDF d'EMC
|
Avant de commencer
Le logiciel EMC Solutions Enabler doit être installé sur tous les nœuds du cluster préalablement à la configuration d'un groupe de réplication EMC Symmetrix Remote Data Facility (SRDF). En premier lieu, configurez les groupes de périphériques EMC SRDF sur des disques partagés du cluster. Pour plus d'informations sur la configuration des groupes de périphériques EMC SRFD, consultez la documentation du produit SRFD d'EMC.
Lors de l'utilisation du logiciel EMC SRDF, utilisez des périphériques dynamiques plutôt que statiques. Les périphériques statiques peuvent nécessiter plusieurs minutes pour changer le nœud principal de réplication et affecter ainsi la durée de basculement.
![]() | Attention - Le nom du groupe de périphériques Oracle Solaris Cluster que vous créez (Solaris Volume Manager, Veritas Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué. |
Cette opération peut prendre quelques minutes.
# /usr/symcli/bin/symcfg discover
Pour créer les paires de répliques, faites appel à la commande symrdf. La documentation SRDF contient les instructions relatives à la création des paires de répliques.
# /usr/symcli/bin/symdg show group-name
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
# /usr/symcli/bin/symdg show group-name
Le nœud doté du périphérique RDF1 contient la réplique principale, tandis que le nœud doté de l'état du périphérique RDF2 contient la réplique secondaire.
# /usr/symcli/bin/symrdf -g group-name failover
# /usr/symcli/bin/symrdf -g group-name swap -refresh R1
# /usr/symcli/bin/symrdf -g group-name establish
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
Étapes suivantes
Après avoir configuré un groupe de périphériques pour votre périphérique répliqué EMC SRDF, vous devez configurer le pilote DID (device identifier, identificateur de périphérique) que ce dernier utilise.
Pour configurer le pilote DID (device identifier, identificateur de périphérique) du périphérique répliqué, procédez comme suit.
Avant de commencer
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
# /usr/symcli/bin/symdg show group-name
Remarque - Si le système n'affiche pas l'intégralité du patch de périphérique Oracle Solaris, définissez la variable d'environnement SYMCLI_FULL_PDEVNAME sur 1 et saisissez à nouveau la commande symdg -show.
# cldevice list -v
# cldevice combine -t srdf -g replication-device-group \ -d destination-instance source-instance
Remarque - L'option -T n'est pas prise en charge pour les périphériques de réplication de données SRDF.
Spécifie le type de réplication. Pour EMC SRDF, tapez SRDF.
Spécifie le nom du groupe de périphériques, comme illustré dans la commande symdg show.
Spécifie l'instance DID correspondant au périphérique RDF1.
Spécifie l'instance DID correspondant au périphérique RDF2.
Remarque - Si vous combinez le périphérique DID incorrect, annulez la combinaison des deux périphériques DID à l'aide de l'option -b de la commande scdidadm.
# scdidadm -b device
Instance DID qui correspondait au périphérique de destination lorsque les instances étaient combinées.
|
# cldevice list -v device
# cldevice show device
# cldevice list -v
Étapes suivantes
Après avoir configuré le pilote DID utilisé par le périphérique répliqué, vous devez vérifier la configuration du groupe de périphériques global répliqué EMC SRDF.
Avant de commencer
Vous devez créer le groupe de périphériques global avant de pouvoir le vérifier. Vous pouvez utiliser des groupes de périphériques du type Solaris Volume Manager, Veritas Volume Manager, ZFS ou disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :
Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager)
Ajout et enregistrement d'un groupe de périphériques (disque brut)
Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)
Création d'un groupe de disques lors de l'initialisation des disques (Veritas Volume Manager)
![]() | Attention - Le nom du groupe de périphériques Oracle Solaris Cluster que vous avez créé (Solaris Volume Manager, Veritas Volume Manager ou disque brut) doit être identique à celui du groupe de périphériques répliqué. |
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
# symdg -show group-name # cldevicegroup status -n nodename group-name
Si le groupe de périphériques est déconnecté, mettez-le en ligne.
# cldevicegroup switch -n nodename group-name
Nœud vers lequel le groupe de périphériques est commuté. Ce nœud devient le nœud principal.
# symdg -show group-name # cldevicegroup status -n nodename group-name
Cet exemple représente la procédure spécifique à Oracle Solaris Cluster que vous devez effectuer pour configurer la réplication SRDF dans votre cluster. Il part du principe que vous avez déjà réalisé les tâches suivantes :
Appariement des LUN pour la réplication entre les baies ;
Installation du logiciel SRDF sur vos nœuds de cluster et votre périphérique de stockage.
Cet exemple présente un cluster à quatre nœuds dont deux sont connectés à un périphérique Symmetrix et les deux autres au second périphérique Symmetrix. Le nom du groupe de périphériques SRDF est dg1.
Exemple 5-15 Création de paires de réplication
Exécutez la commande suivante sur tous les nœuds.
# symcfg discover ! This operation might take up to a few minutes. # symdev list pd Symmetrix ID: 000187990182 Device Name Directors Device --------------------------- ------------ -------------------------------------- Cap Sym Physical SA :P DA :IT Config Attribute Sts (MB) --------------------------- ------------- ------------------------------------- 0067 c5t600604800001879901* 16D:0 02A:C1 RDF2+Mir N/Grp'd RW 4315 0068 c5t600604800001879901* 16D:0 16B:C0 RDF1+Mir N/Grp'd RW 4315 0069 c5t600604800001879901* 16D:0 01A:C0 RDF1+Mir N/Grp'd RW 4315 ...
Sur tous les nœuds du côté RDF1, tapez :
# symdg -type RDF1 create dg1 # symld -g dg1 add dev 0067
Sur tous les nœuds du côté RDF2, tapez :
# symdg -type RDF2 create dg1 # symld -g dg1 add dev 0067
Exemple 5-16 Vérification de la configuration de la réplication de données
À partir d'un nœud du cluster, tapez :
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) Device Group in GNS : No Valid : Yes Symmetrix ID : 000187900023 Group Creation Time : Thu Sep 13 13:21:15 2007 Vendor ID : EMC Corp Application ID : SYMCLI Number of STD Devices in Group : 1 Number of Associated GK's : 0 Number of Locally-associated BCV's : 0 Number of Locally-associated VDEV's : 0 Number of Remotely-associated BCV's (STD RDF): 0 Number of Remotely-associated BCV's (BCV RDF): 0 Number of Remotely-assoc'd RBCV's (RBCV RDF) : 0 Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ... # symrdf -g dg1 establish Execute an RDF 'Incremental Establish' operation for device group 'dg1' (y/[n]) ? y An RDF 'Incremental Establish' operation execution is in progress for device group 'dg1'. Please wait... Write Disable device(s) on RA at target (R2)..............Done. Suspend RDF link(s).......................................Done. Mark target (R2) devices to refresh from source (R1)......Started. Device: 0067 ............................................ Marked. Mark target (R2) devices to refresh from source (R1)......Done. Merge device track tables between source and target.......Started. Device: 0067 ............................................ Merged. Merge device track tables between source and target.......Done. Resume RDF link(s)........................................Started. Resume RDF link(s)........................................Done. The RDF 'Incremental Establish' operation successfully initiated for device group 'dg1'. # # symrdf -g dg1 query Device Group (DG) Name : dg1 DG's Type : RDF2 DG's Symmetrix ID : 000187990182 Target (R2) View Source (R1) View MODES -------------------------------- ------------------------ ----- ------------ ST LI ST Standard A N A Logical T R1 Inv R2 Inv K T R1 Inv R2 Inv RDF Pair Device Dev E Tracks Tracks S Dev E Tracks Tracks MDA STATE -------------------------------- -- ------------------------ ----- ------------ DEV001 0067 WD 0 0 RW 0067 RW 0 0 S.. Synchronized Total -------- -------- -------- -------- MB(s) 0.0 0.0 0.0 0.0 Legend for MODES: M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy D(omino) : X = Enabled, . = Disabled A(daptive Copy) : D = Disk Mode, W = WP Mode, . = ACp off #
Exemple 5-17 Affichage des DID correspondant aux disques utilisés
Appliquez la même procédure aux côtés RDF1 et RDF2.
Examinez le champ PdevName de la sortie de la commande dymdg show dg.
Sur le côté RDF1, tapez :
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ...
Pour obtenir le DID correspondant, tapez :
# scdidadm -L | grep c5t6006048000018790002353594D303637d0 217 pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 217 pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 #
Pour répertorier le DID correspondant, tapez :
# cldevice show d217 === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Replication: none default_fencing: global #
Sur le côté RDF2, tapez :
Examinez le champ PdevName de la sortie de la commande dymdg show dg.
# symdg show dg1 Group Name: dg1 Group Type : RDF2 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067 WD 4315 } Device Group RDF Information ...
Pour obtenir le DID correspondant, tapez :
# scdidadm -L | grep c5t6006048000018799018253594D303637d0 108 pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 108 pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 #
Pour répertorier le DID correspondant, tapez :
# cldevice show d108 === DID Device Instances === DID Device Name: /dev/did/rdsk/d108 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: none default_fencing: global #
Exemple 5-18 Combinaison des instances DID
Sur le côté RDF2, tapez :
# cldevice combine -t srdf -g dg1 -d d217 d108 #
Exemple 5-19 Affichage des DID combinés
À partir d'un nœud du cluster, tapez :
# cldevice show d217 d108 cldevice: (C727402) Could not locate instance "108". === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: srdf default_fencing: global #
Cette procédure permet de récupérer les données perdues suite à la défaillance totale de la salle principale du cluster campus, suivi du basculement de la salle principale sur la salle secondaire et du retour en ligne de la salle principale. La salle principale du cluster campus correspond au nœud principal et au site de stockage. La défaillance totale d'une salle entraîne celle de son hôte et de son stockage. En cas de défaillance du cluster principal, Oracle Solaris Cluster bascule automatiquement sur le cluster secondaire, et active l'accès en lecture et en écriture du périphérique de stockage ainsi que le basculement des groupes de périphériques et de ressources correspondants.
Au retour en ligne de la salle principale, il est possible de récupérer manuellement les données du groupe de périphériques SRDF enregistrées dans la salle secondaire et de les resynchroniser. Cette procédure permet de récupérer le groupe de périphériques SRDF par synchronisation des données de la salle secondaire initiale (phys-campus-2 ) vers la salle principale initiale (phys-campus-1). Au cours de la procédure, le type du groupe de périphériques SRDF est remplacé par RDF1 sur phys-campus-2 et par RDF2 sur phys-campus-1.
Avant de commencer
Avant de procéder à un basculement manuel, il est nécessaire de configurer le groupe de réplication EMC et les périphériques DID, et d'enregistrer le groupe de réplication EMC. Pour plus d'informations sur la création d'un groupe de périphériques Solaris Volume Manager, reportez-vous à la section Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager). Pour plus d'informations sur la création d'un groupe de périphériques Veritas Volume Manager, reportez-vous à la section Création d'un groupe de disques lors de l'encapsulation des disques (Veritas Volume Manager).
Remarque - Ces instructions illustrent une méthode que vous pouvez utiliser pour récupérer manuellement des données SRDF après la défaillance d'une salle principale et son retour en ligne. La documentation EMC présente d'autres méthodes.
Pour effectuer la procédure, connectez-vous à la salle principale du cluster campus. Dans la procédure décrite ci-dessous, dg1 est le nom du groupe de périphériques SRDF. Au moment de la défaillance, phys-campus-1 est la salle principale et phys-campus-2 la salle secondaire.
phys-campus-1# symrdf -g dg1 query
Astuce - Un groupe de périphériques dont l'état est split (séparé) n'est pas synchronisé.
phys-campus-1# symrdf -g dg1 -force failover
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 swap
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 establish
phys-campus-1# symrdf -g dg1 query
Exemple 5-20 Récupération manuelle des données EMC SRDF après le basculement d'un site principal
Cet exemple décrit la procédure spécifique à Oracle Solaris Cluster permettant de récupérer manuellement des données EMC SRDF après le basculement du cluster principal du cluster campus, la reprise et l'enregistrement des données par le cluster secondaire et le retour en ligne du cluster principal. Dans cet exemple, dg1 est le nom du groupe de périphériques SRDF et DEV001 est le périphérique logique standard. Au moment de la défaillance, phys-campus-1 est la salle principale et phys-campus-2 la salle secondaire. Effectuez la procédure à partir de la salle principale du cluster campus, phys-campus-1.
phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012RW 0 0NR 0012RW 2031 O S.. Split phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 -force failover ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 2031 O S.. Failed Over phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 swap ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 0 2031 S.. Suspended phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 establish ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 RW 0012 RW 0 0 S.. Synchronized phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0