Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
Guía de administración del sistema de Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Español) |
1. Introducción a la administración de Oracle Solaris Cluster
2. Oracle Solaris Cluster y RBAC
3. Cierre y arranque de un cluster
4. Métodos de replicación de datos
Información general sobre la administración de dispositivos globales y el espacio de nombre global
Permisos de dispositivos globales en Solaris Volume Manager
Reconfiguración dinámica con dispositivos globales
Administración de dispositivos replicados basados en el almacenamiento
Administración de dispositivos replicados de Hitachi TrueCopy
Configuración de un grupo de replicación de Hitachi TrueCopy
Configuración de dispositivos DID para la replicación con Hitachi TrueCopy
Verificación de la configuración de un grupo de dispositivos globales replicados de Hitachi TrueCopy
Ejemplo: configuración de un grupo de replicación de TrueCopy para Oracle Solaris Cluster
Administración de dispositivos replicados de EMC Symmetrix Remote Data Facility
Cómo configurar un grupo de replicación de EMC SRDF
Configuración de dispositivos DID para la replicación con EMC SRDF
Cómo comprobar la configuración del grupo de dispositivos globales replicados de EMC SRDF
Ejemplo: Configuración de un grupo de replicaciones de SRDF para Oracle Solaris Cluster
Información general sobre la administración de sistemas de archivos de clusters
Restricciones del sistema de archivos de cluster
Administración de grupos de dispositivos
Actualización del espacio de nombre de dispositivos globales
Migración del espacio de nombre de dispositivos globales
Adición y registro de grupos de dispositivos
Adición y registro de un grupo de dispositivos (Solaris Volume Manager)
Adición y registro de un grupo de dispositivos (disco básico)
Adición y registro de un grupo de dispositivos replicado (ZFS)
Mantenimiento de grupos de dispositivos
Eliminación y anulación del registro de un grupo de dispositivos (Solaris Volume Manager)
Eliminación de un nodo de todos los grupos de dispositivos
Eliminación de un nodo de un grupo de dispositivos (Solaris Volume Manager)
Eliminación de un nodo de un grupo de dispositivos de discos básicos
Cambio de propiedades de los grupos de dispositivos
Establecimiento del número de secundarios para un grupo de dispositivos
Enumeración de la configuración de grupos de dispositivos
Conmutación al nodo primario de un grupo de dispositivos
Colocación de un grupo de dispositivos en estado de mantenimiento
Administración de la configuración del protocolo SCSI para dispositivos de almacenamiento
Visualización del protocolo SCSI de un solo dispositivo de almacenamiento
Modificación del protocolo de protección en un solo dispositivo de almacenamiento
Administración de sistemas de archivos de cluster
Adición de un sistema de archivos de cluster
Eliminación de un sistema de archivos de cluster
Comprobación de montajes globales en un cluster
Administración de la supervisión de rutas de disco
Supervisión de una ruta de disco
Anulación de la supervisión de una ruta de disco
Impresión de rutas de disco erróneas
Resolución de un error de estado de ruta de disco
Supervisión de rutas de disco desde un archivo
7. Administración de interconexiones de clusters y redes públicas
8. Adición y eliminación de un nodo
10. Configuración del control del uso de la CPU
11. Aplicación de parches de software y firmware de Oracle Solaris Cluster
12. Copias de seguridad y restauraciones de clusters
13. Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario
Puede configurar un grupo de dispositivos de Oracle Solaris Cluster para que contenga dispositivos que se repliquen mediante la replicación basada en almacenamiento. El software de Oracle Solaris Cluster es compatible con el software de Hitachi TrueCopy y EMC Symmetrix Remote Data Facility para la replicación basada en almacenamiento.
Antes de replicar los datos con el software de Hitachi TrueCopy o EMC Symmetrix Remote Data Facility, debe estar familiarizado con la documentación de replicación basada en almacenamiento y tener instalados en el sistema el producto de replicación basada en almacenamiento y los parches más recientes. Si desea obtener información sobre cómo instalar el software de replicación basada en almacenamiento, consulte la documentación del producto.
El software de replicación basada en almacenamiento configura un par de dispositivos como réplicas, uno como réplica principal y el otro como réplica secundaria. En un momento dado, el dispositivo conectado a un conjunto de nodos será la réplica principal. El dispositivo conectado al otro conjunto de nodos será la réplica secundaria.
En una configuración de Oracle Solaris Cluster, la réplica principal se mueve automáticamente cada vez que se mueve el grupo de dispositivos de Oracle Solaris Cluster al que pertenece la réplica. Por lo tanto, la réplica principal nunca debe moverse directamente en una configuración de Oracle Solaris Cluster. En su lugar, la recuperación debe realizarse moviendo el grupo de dispositivos de Oracle Solaris Cluster asociado.
Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager o disco sin procesar) debe ser idéntico al del grupo de dispositivos replicado. |
Esta sección incluye los procedimientos siguientes:
Administración de dispositivos replicados de Hitachi TrueCopy
Administración de dispositivos replicados de EMC Symmetrix Remote Data Facility
En la siguiente tabla, se enumeran las tareas que debe realizar para configurar un dispositivo replicado basado en almacenamiento de Hitachi TrueCopy.
Tabla 5-2 Mapa de tareas: administración de un dispositivo replicado basado en almacenamiento de Hitachi TrueCopy
|
Antes de empezar
En primer lugar, configure los grupos de dispositivos de Hitachi TrueCopy en discos compartidos del cluster principal. Esta información de configuración se especifica en el archivo /etc/horcm.conf en cada uno de los nodos del cluster que tiene acceso a la matriz de Hitachi. Para obtener más información sobre cómo configurar el archivo /etc/horcm.conf, consulte Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide.
Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager, ZFS o disco sin procesar) debe ser idéntico al del grupo de dispositivos replicado. |
horcm 9970/udp
Especifique un número de puerto y un nombre de protocolo para la nueva entrada.
Para obtener instrucciones, consulte la documentación incluida con el software de TrueCopy.
# /usr/bin/horcmstart.sh
Utilice el comando paircreate para crear los pares de réplicas con el nivel de aislamiento deseado. Para obtener instrucciones sobre la creación de los pares de réplicas, consulte la documentación de TrueCopy.
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
El nodo con el dispositivo local (L) en el estado P-VOL contiene la réplica principal y el nodo con el dispositivo local (L) en el estado S-VOL contiene la réplica secundaria.
# horctakeover -g group-name
Espere hasta que la copia de datos inicial se complete antes de continuar con el paso siguiente.
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..S-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..P-VOL PAIR NEVER ,----- 58 -
# horctakeover -g group-name
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
Pasos siguientes
Continúe la configuración del dispositivo replicado. Para ello, siga las instrucciones detalladas en Configuración de dispositivos DID para la replicación con Hitachi TrueCopy.
Antes de empezar
Después de configurar un grupo de dispositivos para el dispositivo replicado, debe configurar el controlador del identificador de dispositivos (DID) que usa el dispositivo replicado.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
El siguiente comando iniciará el daemon si no se está ejecutando. El sistema mostrará un mensaje si el daemon ya está en ejecución.
# /usr/bin/horcmstart.sh
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
El nodo con el dispositivo local (L) en el estado S-VOL contiene la réplica secundaria.
Este comando combina las dos instancias DID independientes para los pares de réplicas del dispositivo en una instancia DID lógica única. La instancia única permite que el software de administración de volúmenes utilice el dispositivo desde ambos lados.
Precaución - Si hay varios nodos conectados a la réplica secundaria, ejecute este comando solamente en uno de estos nodos. |
# cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
Especifica el nombre del nodo remoto que contiene la réplica principal.
Especifica un nodo de origen distinto del nodo actual.
Especifica el nombre del nodo remoto que contiene la réplica secundaria.
Nota - De forma predeterminada, el nodo actual es el nodo de origen. Utilice la opción -S para especificar un nodo de origen diferente.
# cldevice list -v logical_DID_device
# cldevice show logical_DID_device
La salida del comando debe indicar que el tipo de replicación es TrueCopy.
Precaución - Tenga mucho cuidado cuando combine instancias DID manualmente. La reasignación inadecuada de dispositivos puede causar daños en los datos. |
# cldevice combine -d destination-instance source-instance
La instancia DID remota, que corresponde a la réplica principal.
La instancia DID local, que corresponde a la réplica secundaria.
# cldevice list desination-instance source-instance
Una de las instancias DID no se debe enumerar.
# cldevice list -v
Pasos siguientes
Para completar la configuración del grupo de dispositivos replicado, lleve a cabo los pasos indicados en los siguientes procedimientos.
Adición y registro de un grupo de dispositivos (Solaris Volume Manager)
Al registrar el grupo de dispositivos, asegúrese de asignarle el mismo nombre que el grupo de replicación de TrueCopy.
Verificación de la configuración de un grupo de dispositivos globales replicados de Hitachi TrueCopy
Antes de empezar
Antes de verificar el grupo de dispositivos globales, primero debe crearlo. Puede utilizar grupos de dispositivos de Solaris Volume Manager, ZFS o disco sin procesar. Para obtener más información, consulte lo siguiente:
Adición y registro de un grupo de dispositivos (Solaris Volume Manager)
Adición y registro de un grupo de dispositivos (disco básico)
Adición y registro de un grupo de dispositivos replicado (ZFS)
Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager o disco sin procesar) debe ser idéntico al del grupo de dispositivos replicado. |
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
# cldevicegroup show -n nodename group-name
# usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
Si el grupo de dispositivos está fuera de línea, póngalo en línea.
# cldevicegroup switch -n nodename group-name
Nodo en el que se cambia el grupo de dispositivos. Este nodo se convierte en el nuevo nodo principal
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
En este ejemplo, se completan los pasos específicos de Oracle Solaris Cluster necesarios para configurar la replicación de TrueCopy en el cluster. En el ejemplo, se supone que ya se han realizado las tareas siguientes:
Se han configurado los LUN de Hitachi
Se ha instalado el software de TrueCopy en los nodos del cluster y el dispositivo de almacenamiento
Se han configurado los pares replicación en los nodos del cluster
Para obtener instrucciones sobre la configuración de los pares de replicación, consulte Configuración de un grupo de replicación de Hitachi TrueCopy.
En este ejemplo, se utiliza un cluster de tres nodos con TrueCopy. El cluster se distribuye entre dos sitios remotos, con dos nodos en un sitio y un nodo en el otro. Cada sitio tiene su propio dispositivo de almacenamiento de Hitachi.
En los siguientes ejemplos, se muestra el archivo de configuración /etc/horcm.conf de TrueCopy en cada nodo.
Ejemplo 5-1 Archivo de configuración de TrueCopy en el nodo 1
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
Ejemplo 5-2 Archivo de configuración de TrueCopy en el nodo 2
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
Ejemplo 5-3 Archivo de configuración de TrueCopy en el nodo 3
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-C 0 09 VG01 pair2 CL1-C 0 10 VG01 pair3 CL1-C 0 11 HORCM_INST #dev_group ip_address service VG01 node-1 horcm VG01 node-2 horcm
En los ejemplos anteriores, se replican tres LUN entre los dos sitios. Los LUN están todos en un grupo de replicación con el nombre VG01. El comando pairdisplay verifica esta información y muestra que el nodo 3 tiene la réplica principal.
Ejemplo 5-4 Salida del comando pairdisplay en el nodo 1
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
Ejemplo 5-5 Salida del comando pairdisplay en el nodo 2
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
Ejemplo 5-6 Salida del comando pairdisplay en el nodo 3
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 -
Para ver qué discos están en uso, utilice la opción -fd del comando pairdisplay como se muestra en los siguientes ejemplos.
Ejemplo 5-7 Salida del comando pairdisplay en el nodo 1, que muestra los discos utilizados
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
Ejemplo 5-8 Salida del comando pairdisplay en el nodo 2, que muestra los discos utilizados
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
Ejemplo 5-9 Salida del comando pairdisplay en el nodo 3, que muestra los discos utilizados
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 -
En estos ejemplos, se muestra que se están utilizando los siguientes discos:
En el nodo 1:
c6t500060E8000000000000EEBA0000001Dd0s2
c6t500060E8000000000000EEBA0000001Ed0s2
c6t500060E8000000000000EEBA0000001Fd0s
En el nodo 2:
c5t500060E8000000000000EEBA0000001Dd0s2
c5t500060E8000000000000EEBA0000001Ed0s2
c5t500060E8000000000000EEBA0000001Fd0s2
En el nodo 3:
c5t50060E800000000000004E600000003Ad0s2
c5t50060E800000000000004E600000003Bd0s2
c5t50060E800000000000004E600000003Cd0s2
Para ver los dispositivos DID que corresponden a estos discos, utilice el comando cldevice list como se muestra en los siguientes ejemplos.
Ejemplo 5-10 Visualización de DID correspondientes a los discos utilizados
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 12 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 12 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 13 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 13 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 14 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 14 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
Al combinar las instancias DID para cada par de dispositivos replicados, cldevice list debe combinar la instancia DID 12 con 22, la instancia 13 con 23 y la instancia 14 con 24. Dado que el nodo 3 tiene la réplica principal, ejecute el comando cldevice -T desde el nodo 1 o el nodo 2. Combine siempre las instancias de un nodo que tenga la réplica secundaria. Ejecute este comando desde un único nodo, no en ambos nodos.
En el siguiente ejemplo, se muestra el resultado de combinar instancias DID mediante la ejecución del comando en el nodo 1.
Ejemplo 5-11 Combinación de instancias DID
# cldevice replicate -D node-3 Remapping instances for devices replicated with node-3... VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 Combining instance 14 with 24 VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 Combining instance 13 with 23 VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 Combining instance 12 with 22
Al comprobar la salida de cldevice list, los LUN de ambos sitios tienen ahora la misma instancia DID. Al tener la misma instancia DID, cada par de réplica parece un único dispositivo DID, como se indica en el siguiente ejemplo.
Ejemplo 5-12 Visualización de DID combinados
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222 22 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22 23 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
El paso siguiente consiste en crear el grupo de dispositivos del administrador de volúmenes. Ejecute este comando desde el nodo que tiene la réplica principal, en este ejemplo, el nodo 3. Asigne al grupo de dispositivos el mismo nombre que al grupo de réplica, como se muestra en el ejemplo siguiente.
Ejemplo 5-13 Creación del grupo de dispositivos de Solaris Volume Manager
# metaset -s VG01 -ah phys-deneb-3 # metaset -s VG01 -ah phys-deneb-1 # metaset -s VG01 -ah phys-deneb-2 # metaset -s VG01 -a /dev/did/rdsk/d22 # metaset -s VG01 -a /dev/did/rdsk/d23 # metaset -s VG01 -a /dev/did/rdsk/d24 # metaset Set name = VG01, Set number = 1 Host Owner phys-deneb-3 Yes phys-deneb-1 phys-deneb-2 Drive Dbase d22 Yes d23 Yes d24 Yes
En este punto, el grupo de dispositivos se puede utilizar, es posible crear metadispositivos y el grupo de dispositivos se puede mover a cualquiera de los tres nodos. No obstante, para optimizar los switchovers y las conmutaciones por error, ejecute cldevicegroup set para marcar el grupo de dispositivos como replicado en la configuración del cluster.
Ejemplo 5-14 Optimización de los switchovers y las conmutaciones por error
# cldevicegroup sync VG01 # cldevicegroup show VG01 === Device Groups=== Device Group Name VG01 Type: SVM failback: no Node List: phys-deneb-3, phys-deneb-1, phys-deneb-2 preferenced: yes numsecondaries: 1 device names: VG01 Replication type: truecopy
La configuración del grupo de replicación ha terminado con este paso. Para verificar que la configuración se realizó correctamente, siga los pasos descritos en Verificación de la configuración de un grupo de dispositivos globales replicados de Hitachi TrueCopy.
En la siguiente tabla, se enumeran las tareas que debe realizar para configurar y gestionar un dispositivo replicado basado en almacenamiento de EMC Symmetrix Remote Data Facility (SRDF).
Tabla 5-3 Mapa de tareas: Administración de dispositivo replicado basado en almacenamiento de EMC SRDF
|
Antes de empezar
El software EMC Solutions Enabler debe estar instalado en todos los nodos del cluster antes de configurar un grupo de replicaciones de EMC Symmetrix Remote Data Facility (SRDF). En primer lugar, configure los grupos de dispositivos EMC SRDF en los discos compartidos del cluster. Para obtener más información acerca de cómo configurar los grupos de dispositivos de EMC SRDF, consulte la documentación del producto EMC SRDF.
Cuando use EMC SRDF, utilice los dispositivos dinámicos en lugar de los estáticos. Los dispositivos estáticos requieren varios minutos para cambiar la replicación principal y pueden afectar el tiempo de conmutación por error.
Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager o disco sin procesar) debe ser idéntico al del grupo de dispositivos replicado. |
Agregue la siguiente entrada al archivo de opciones de Solutions Enabler en todos los nodos participantes del cluster:
SYMAPI_2SITE_CLUSTER_DG=:rdf-group-number
Especifica el nombre del grupo de dispositivos.
Especifica el grupo RDF que se conecta el symmetrix local del host al symmetrix del segundo sitio.
Esta entrada permite que el software del cluster automatice el movimiento de la aplicación entre los dos sitios SRDF síncronos.
Para obtener más información sobre las configuraciones de tres centros de datos, consulte Three-Data-Center (3DC) Topologies de Oracle Solaris Cluster Geographic Edition Overview.
Esta acción puede tardar varios minutos.
# /usr/symcli/bin/symcfg discover
Utilice el comando symrdf para crear los pares de réplicas. Para obtener instrucciones sobre la creación de los pares de réplicas, consulte la documentación de SRDF.
Nota - Si utiliza dispositivos RDF simultáneos para una implementación de tres sitios o de tres centros de datos, agregue el siguiente parámetro a todos los comandos symrdf:
-rdfg rdf-group-number
Especificar el número de grupo RDF en el comando symrdf garantiza que la operación de symrdf se dirija al grupo RDF correcto.
# /usr/symcli/bin/symdg show group-name
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
# /usr/symcli/bin/symdg show group-name
El nodo con el dispositivo RDF1 contiene la réplica principal y el nodo con el estado del dispositivo RDF2 contiene la réplica secundaria.
# /usr/symcli/bin/symrdf -g group-name failover
# /usr/symcli/bin/symrdf -g group-name swap -refresh R1
# /usr/symcli/bin/symrdf -g group-name establish
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
Pasos siguientes
Después de configurar un grupo de dispositivos para el dispositivo replicado de EMC SRDF, debe configurar el controlador del identificador de dispositivos (DID) que usan los dispositivos replicados.
Este procedimiento sirve para configurar el controlador del identificador de dispositivos (DID) que usa el dispositivo replicado.
Antes de empezar
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
# /usr/symcli/bin/symdg show group-name
Nota - Si el sistema no muestra todo el parche del dispositivo de Oracle Solaris, defina la variable de entorno SYMCLI_FULL_PDEVNAME en 1 y vuelva a escribir el comando symdg -show.
# cldevice list -v
# cldevice combine -t srdf -g replication-device-group \ -d destination-instance source-instance
Nota - No se admite la opción -T para los dispositivos de replicación de datos de SRDF.
Especifica el tipo de replicación. Para EMC SRDF, el tipo es SRDF .
Especifica el nombre del grupo de dispositivos tal y como se muestra en el comando symdg show.
Especifica la instancia DID que corresponde al dispositivo RDF1.
Especifica la instancia DID que corresponde al dispositivo RDF2.
Nota - Si comete una equivocación al combinar un dispositivo DID, use la opción -b con el comando scdidadm para deshacer la combinación de dos dispositivos DID.
# scdidadm -b device
La instancia DID que se correspondía con el dispositivo de destino cuando las instancias estaban combinadas.
|
# cldevice list -v device
# cldevice show device
# cldevice list -v
Pasos siguientes
Después de haber configurado el controlador del identificador de dispositivos (DID) que usa el dispositivo replicado, debe comprobar la configuración del grupo de dispositivos globales replicados de EMC SRDF.
Antes de empezar
Antes de verificar el grupo de dispositivos globales, primero debe crearlo. Puede utilizar grupos de dispositivos de Solaris Volume Manager, ZFS o disco sin procesar. Para obtener más información, consulte lo siguiente:
Adición y registro de un grupo de dispositivos (Solaris Volume Manager)
Adición y registro de un grupo de dispositivos (disco básico)
Adición y registro de un grupo de dispositivos replicado (ZFS)
Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager o disco sin procesar) debe ser idéntico al nombre del grupo de dispositivos replicados. |
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
# symdg -show group-name # cldevicegroup status -n nodename group-name
Si el grupo de dispositivos está fuera de línea, póngalo en línea.
# cldevicegroup switch -n nodename group-name
Nodo en el que se cambia el grupo de dispositivos. Este nodo se convierte en el nuevo nodo principal.
# symdg -show group-name # cldevicegroup status -n nodename group-name
En este ejemplo, se completan los pasos específicos necesarios de Oracle Solaris Cluster para configurar la replicación de SRDF en el cluster. En el ejemplo, se supone que ya se han realizado las tareas siguientes:
Se ha completado la creación de los pares de LUN para la replicación entre matrices.
Se ha instalado el software de SRDF en el dispositivo de almacenamiento y los nodos del cluster.
En este ejemplo, se muestra un cluster de cuatro nodos en el que hay dos nodos conectados a un Symmetrix y otros dos nodos conectados al segundo Symmetrix. El grupo de dispositivos SRDF se denomina dg1.
Ejemplo 5-15 Creación de los pares de réplicas
Ejecute el siguiente comando en todos los nodos.
# symcfg discover ! This operation might take up to a few minutes. # symdev list pd Symmetrix ID: 000187990182 Device Name Directors Device --------------------------- ------------ -------------------------------------- Cap Sym Physical SA :P DA :IT Config Attribute Sts (MB) --------------------------- ------------- ------------------------------------- 0067 c5t600604800001879901* 16D:0 02A:C1 RDF2+Mir N/Grp'd RW 4315 0068 c5t600604800001879901* 16D:0 16B:C0 RDF1+Mir N/Grp'd RW 4315 0069 c5t600604800001879901* 16D:0 01A:C0 RDF1+Mir N/Grp'd RW 4315 ...
En todos los nodos del lado RDF1, escriba:
# symdg -type RDF1 create dg1 # symld -g dg1 add dev 0067
En todos los nodos del lado RDF2, escriba:
# symdg -type RDF2 create dg1 # symld -g dg1 add dev 0067
Ejemplo 5-16 Comprobación de la configuración de la replicación de datos
Desde un nodo del cluster, escriba:
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) Device Group in GNS : No Valid : Yes Symmetrix ID : 000187900023 Group Creation Time : Thu Sep 13 13:21:15 2007 Vendor ID : EMC Corp Application ID : SYMCLI Number of STD Devices in Group : 1 Number of Associated GK's : 0 Number of Locally-associated BCV's : 0 Number of Locally-associated VDEV's : 0 Number of Remotely-associated BCV's (STD RDF): 0 Number of Remotely-associated BCV's (BCV RDF): 0 Number of Remotely-assoc'd RBCV's (RBCV RDF) : 0 Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ... # symrdf -g dg1 establish Execute an RDF 'Incremental Establish' operation for device group 'dg1' (y/[n]) ? y An RDF 'Incremental Establish' operation execution is in progress for device group 'dg1'. Please wait... Write Disable device(s) on RA at target (R2)..............Done. Suspend RDF link(s).......................................Done. Mark target (R2) devices to refresh from source (R1)......Started. Device: 0067 ............................................ Marked. Mark target (R2) devices to refresh from source (R1)......Done. Merge device track tables between source and target.......Started. Device: 0067 ............................................ Merged. Merge device track tables between source and target.......Done. Resume RDF link(s)........................................Started. Resume RDF link(s)........................................Done. The RDF 'Incremental Establish' operation successfully initiated for device group 'dg1'. # # symrdf -g dg1 query Device Group (DG) Name : dg1 DG's Type : RDF2 DG's Symmetrix ID : 000187990182 Target (R2) View Source (R1) View MODES -------------------------------- ------------------------ ----- ------------ ST LI ST Standard A N A Logical T R1 Inv R2 Inv K T R1 Inv R2 Inv RDF Pair Device Dev E Tracks Tracks S Dev E Tracks Tracks MDA STATE -------------------------------- -- ------------------------ ----- ------------ DEV001 0067 WD 0 0 RW 0067 RW 0 0 S.. Synchronized Total -------- -------- -------- -------- MB(s) 0.0 0.0 0.0 0.0 Legend for MODES: M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy D(omino) : X = Enabled, . = Disabled A(daptive Copy) : D = Disk Mode, W = WP Mode, . = ACp off #
Ejemplo 5-17 Visualización de DID correspondientes a los discos utilizados
El mismo procedimiento se aplica a los lados RDF1 y RDF2.
Puede buscar en el campo PdevName de salida del comando dymdg show dg.
En el lado RDF1, escriba:
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ...
Para obtener los DID correspondientes, escriba:
# scdidadm -L | grep c5t6006048000018790002353594D303637d0 217 pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 217 pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 #
Para listar los DID correspondientes, escriba:
# cldevice show d217 === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Replication: none default_fencing: global #
En el lado RDF2, escriba:
Puede buscar en el campo PdevName de salida del comando dymdg show dg.
# symdg show dg1 Group Name: dg1 Group Type : RDF2 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067 WD 4315 } Device Group RDF Information ...
Para obtener los DID correspondientes, escriba:
# scdidadm -L | grep c5t6006048000018799018253594D303637d0 108 pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 108 pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 #
Para listar los DID correspondientes, escriba:
# cldevice show d108 === DID Device Instances === DID Device Name: /dev/did/rdsk/d108 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: none default_fencing: global #
Ejemplo 5-18 Combinación de instancias DID
Desde el lado RDF2, escriba:
# cldevice combine -t srdf -g dg1 -d d217 d108 #
Ejemplo 5-19 Visualización de DID combinados
Desde cualquier nodo del cluster, escriba:
# cldevice show d217 d108 cldevice: (C727402) Could not locate instance "108". === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: srdf default_fencing: global #
En este procedimiento, se realiza la recuperación de datos cuando la sala primaria de un cluster de campus ha fallado por completo, la sala primaria conmuta por error a la sala secundaria y, luego, se vuelve a conectar. La sala primaria de un cluster de campus es el nodo principal y el sitio de almacenamiento. Todo el fallo de una sala incluye el fallo del host y del almacenamiento en dicha sala. Si la sala primaria sala falla, Oracle Solaris Cluster pasa automáticamente conmuta por error automáticamente a la sala secundaria, hace que se pueda leer y escribir en el dispositivo de almacenamiento de la sala secundaria, y permite la conmutación por error de los grupos de dispositivos correspondientes y grupos de dispositivos y recursos correspondientes.
Cuando la sala primaria vuelve a conectarse, puede recuperar manualmente los datos del grupo de dispositivos SRDF que se hayan escrito en la sala secundaria y vuelva a sincronizar los datos. En este procedimiento, se recupera el grupo de dispositivos SRDF mediante la sincronización de los datos de la sala de secundaria original (en este procedimiento, se utiliza phys-campus-2 para la sala secundaria) a la sala primaria original ( phys-campus-1). También se cambia el tipo de grupo de dispositivos SRDF a RDF1 en phys-campus-2 y RDF2 en phys-campus-1.
Antes de empezar
Debe configurar el grupo de dispositivos DID y replicaciones EMC, además de registrar grupo de replicaciones EMC antes de realizar una conmutación por error manual. Para obtener información sobre cómo crear un grupo de dispositivos de Solaris Volume Manager, consulte Adición y registro de un grupo de dispositivos (Solaris Volume Manager).
Nota - En estas instrucciones, se muestra un método que puede utilizar para recuperar datos de SRDF manualmente después de que la sala primaria conmuta por error completamente y, luego, se vuelve a conectar. Compruebe la documentación de EMC para obtener más métodos.
Inicie sesión en la sala primaria de un cluster de campus para realizar estos pasos. En el procedimiento que se indica a continuación, dg1 es el nombre de grupo de dispositivos SRDF. En el momento del fallo, la sala primaria de este procedimiento es phys-campus-1 y la segunda sala es phys-campus-2.
phys-campus-1# symrdf -g dg1 query
Consejo - Un grupo que está en el estado dividido no está sincronizado.
phys-campus-1# symrdf -g dg1 -force failover
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 swap
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 establish
phys-campus-1# symrdf -g dg1 query
Ejemplo 5-20 Recuperación manual de datos de EMC SRDF después de una conmutación por error del sitio principal
En este ejemplo, se proporcionan los pasos específicos de Oracle Solaris Cluster que son necesarios para recuperar manualmente los datos de EMC SRDF después de que una sala primaria de un cluster de campus conmuta por error, una sala secundaria toma su lugar y registra los datos y, luego, la sala primaria vuelve a estar en línea. En el ejemplo, el grupo de dispositivos SRDF se denomina dg1 y el dispositivo lógico estándar es DEV001. La sala primaria es phys-campus-1 en el momento del fallo, y la sala secundaria es phys-campus-2. Siga los pasos que se indican en la sala primaria de un cluster de campus, phys-campus-1.
phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012RW 0 0NR 0012RW 2031 O S.. Split phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 -force failover ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 2031 O S.. Failed Over phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 swap ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 0 2031 S.. Suspended phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 establish ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 RW 0012 RW 0 0 S.. Synchronized phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0