Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
Guía de administración del sistema de Oracle Solaris Cluster Oracle Solaris Cluster (Español) |
1. Introducción a la administración de Oracle Solaris Cluster
2. Oracle Solaris Cluster y RBAC
3. Cierre y arranque de un clúster
4. Métodos de replicación de datos
Información general sobre la administración de dispositivos globales y el espacio de nombre global
Permisos de dispositivos globales en Solaris Volume Manager
Reconfiguración dinámica con dispositivos globales
Aspectos que tener en cuenta en la administración de Veritas Volume Manager
Administración de dispositivos replicados basados en almacenamiento
Administración de dispositivos replicados mediante Hitachi TrueCopy
Configuración de un grupo de replicaciones de Hitachi TrueCopy
Configuración de dispositivos de DID para replicación mediante Hitachi TrueCopy
Comprobación de la configuración de un grupo de dispositivos globales replicado con Hitachi TrueCopy
Ejemplo: Configuración de un grupo de replicaciones de TrueCopy para Oracle Solaris Cluster
Administración de dispositivos replicados de EMC Symmetrix Remote Data Facility
Configuración de un grupo de replicaciones de EMC SRDF
Configuración de dispositivos de DID para la replicación con EMC SRDF
Comprobación de la configuración de un grupo de dispositivos globales replicado con EMC SRDF
Ejemplo: configurar un grupo de replicaciones de SRDF para Oracle Solaris Cluster
Información general sobre la administración de sistemas de archivos de clústers
Restricciones del sistema de archivos de clúster
Administración de grupos de dispositivos
Actualización del espacio de nombre de dispositivos globales
Migración del espacio de nombre de dispositivos globales
Adición y registro de grupos de dispositivos
Adición y registro de un grupo de dispositivos (Solaris Volume Manager)
Adición y registro de un grupo de dispositivos (disco básico)
Adición y registro de un grupo de dispositivos replicado (ZFS)
Creación de un nuevo grupo de discos al inicializar discos (Veritas Volume Manager)
Mantenimiento de grupos de dispositivos
Eliminación y anulación del registro de un grupo de dispositivos (Solaris Volume Manager)
Eliminación de un nodo de todos los grupos de dispositivos
Eliminación de un nodo de un grupo de dispositivos (Solaris Volume Manager)
Creación de un nuevo grupo de discos al encapsular discos (Veritas Volume Manager)
Adición de un volumen nuevo a un grupo de dispositivos ya creado (Veritas Volume Manager)
Conversión de un grupo de discos en un grupo de dispositivos (Veritas Volume Manager)
Asignación de un número menor nuevo a un grupo de dispositivos (Veritas Volume Manager)
Registro de un grupo de discos como grupo de dispositivos (Veritas Volume Manager)
Registro de modificaciones en la configuración de grupos de discos (Veritas Volume Manager)
Conversión de un grupo de discos local en un grupo de dispositivos (VxVM)
Conversión de un grupo de dispositivos en un grupo de discos local (VxVM)
Eliminación de un volumen de un grupo de dispositivos (Veritas Volume Manager)
Eliminación y anulación del registro de un grupo de dispositivos (Veritas Volume Manager)
Adición de un nodo a un grupo de dispositivos (Veritas Volume Manager)
Eliminación de un nodo de un grupo de dispositivos (Veritas Volume Manager)
Eliminación de un nodo de un grupo de dispositivos de discos básicos
Cambio de propiedades de los grupos de dispositivos
Establecimiento del número de secundarios para un grupo de dispositivos
Enumeración de la configuración de grupos de dispositivos
Conmutación al nodo primario de un grupo de dispositivos
Colocación de un grupo de dispositivos en estado de mantenimiento
Administración de la configuración del protocolo SCSI para dispositivos de almacenamiento
Visualización del protocolo SCSI de un solo dispositivo de almacenamiento
Modificación del protocolo de protección en un solo dispositivo de almacenamiento
Administración de sistemas de archivos de clúster
Adición de un sistema de archivos de clúster
Eliminación de un sistema de archivos de clúster
Comprobación de montajes globales en un clúster
Administración de la supervisión de rutas de disco
Supervisión de una ruta de disco
Anulación de la supervisión de una ruta de disco
Impresión de rutas de disco erróneas
Resolución de un error de estado de ruta de disco
Supervisión de rutas de disco desde un archivo
7. Administración de interconexiones de clústers y redes públicas
8. Adición y eliminación de un nodo
10. Configuración del control del uso de la CPU
11. Aplicación de parches en el software y el firmware de Oracle Solaris Cluster
12. Copias de seguridad y restauraciones de clústers
13. Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario
Puede configurar un grupo de dispositivos de Oracle Solaris Cluster para que contenga dispositivos que se repliquen mediante la replicación basada en almacenamiento. Oracle Solaris Cluster admite el uso de Hitachi TrueCopy y EMC Symmetrix Remote Data Facility para la replicación basada en almacenamiento.
Antes de poder replicar datos con Hitachi TrueCopy o EMC Symmetrix Remote Data Facility, debe familiarizarse con la documentación sobre replicación basada en almacenamiento, y tener instalados en el sistema el producto de replicación basada en almacenamiento y sus parches más actuales. Si desea obtener información sobre cómo instalar el software de replicación basada en almacenamiento, consulte la documentación del producto.
El software de replicación basada en almacenamiento configura un par de dispositivos como réplicas: un dispositivo como réplica primaria y el otro como réplica secundaria. En un determinado momento, el dispositivo conectado a un conjunto de nodos convierte en la réplica primaria. El dispositivo conectado a otro conjunto de nodos es la réplica secundaria.
En la configuración de Oracle Solaris Cluster, la réplica primaria se desplaza automáticamente cada vez que se desplaza el grupo de dispositivos de Oracle Solaris Cluster al que pertenece. Por lo tanto, en una configuración de Oracle Solaris Cluster en principio la réplica primaria nunca se debe desplazar directamente. La toma de control debería tener lugar mediante el desplazamiento del grupo de dispositivos de Oracle Solaris Cluster asociado.
Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager, Veritas Volume Manager o disco básico) debe ser idéntico al del grupo de dispositivos replicado. |
Esta sección incluye los procedimientos siguientes:
Administración de dispositivos replicados mediante Hitachi TrueCopy
Administración de dispositivos replicados de EMC Symmetrix Remote Data Facility
En la tabla siguiente figuran las tareas necesarias para configurar con Hitachi TrueCopy un dispositivo replicado basado en almacenamiento.
Tabla 5-2 Mapa de tareas: administrar un dispositivo replicado con Hitachi TrueCopy
|
Antes de empezar
En primer lugar, configure los grupos de dispositivos de Hitachi TrueCopy en discos compartidos del clúster primario. La información sobre la configuración se especifica en el archivo /etc/horcm.conf en cada uno de los nodos del clúster que tenga acceso a la matriz de Hitachi. Si desea más información sobre cómo configurar el archivo /etc/horcm.conf, consulte Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide.
Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que cree (Solaris Volume Manager, Veritas Volume Manager, ZFS o disco básico) debe ser idéntico al del grupo de dispositivos replicado. |
horcm 9970/udp
Asigne un número de puerto y un nombre de protocolo a la nueva entrada.
Si desea obtener instrucciones, consulte la documentación incluida con el software de TrueCopy.
# /usr/bin/horcmstart.sh
Use el comando paircreate para crear los pares de réplicas con el nivel de protección que desee. Para obtener instrucciones sobre cómo crear los pares de réplicas, consulte la documentación de TrueCopy.
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
El nodo con el dispositivo local (L) en el estado P-VOL contiene la réplica primaria; el nodo con el dispositivo local (L) en el estado S-VOL contiene la réplica secundaria.
# horctakeover -g group-name
Espere a que finalice la copia inicial de los datos antes de continuar con el paso siguiente.
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..S-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..P-VOL PAIR NEVER ,----- 58 -
# horctakeover -g group-name
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
Pasos siguientes
Continúe la configuración del dispositivo replicado conforme a las instrucciones de Configuración de dispositivos de DID para replicación mediante Hitachi TrueCopy.
Antes de empezar
Tras haber configurado un grupo de dispositivos para el dispositivo replicado, debe configurar el controlador del DID utilizado por el dispositivo replicado.
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
El comando siguiente inicia el daemon si no todavía no está ejecutándose. Si el daemon ya se está ejecutando, el sistema muestra un mensaje.
# /usr/bin/horcmstart.sh
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
El nodo con el dispositivo local (L) en estado S-VOL contiene la réplica secundaria.
Este comando combina las dos instancias de DID de los pares de réplicas de dispositivos en una sola instancia de DID lógica. La instancia única permite que el software de administración de volúmenes use el dispositivo desde ambas partes.
Precaución - Si hay varios nodos conectados a la réplica secundaria, ejecute este comando sólo en uno de ellos. |
# cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
Especifica el nombre del nodo remoto que contiene la réplica primaria.
Especifica un nodo de origen distinto del nodo actual.
Especifica el nombre del nodo remoto que contiene la réplica secundaria.
Nota - De forma predeterminada, el nodo actual es el nodo de origen. Use la opción -S para indicar otro nodo de origen.
# cldevice list -v logical_DID_device
# cldevice show logical_DID_device
En principio, la salida del comando indica que el tipo de replicación es TrueCopy.
Precaución - Extreme las precauciones al combinar instancias de DID de forma manual. Una reasignación incorrecta de los dispositivos podría causar daños en los datos. |
# cldevice combine -d destination-instance source-instance
La instancia de DID remota, que corresponde a la réplica primaria.
La instancia de DID local, que corresponde a la réplica secundaria.
# cldevice list desination-instance source-instance
Una de las instancias de DID no debería figurar en la lista.
# cldevice list -v
Pasos siguientes
Para finalizar la configuración del grupo de dispositivos replicado, efectúe los pasos de los procedimientos siguientes.
Adición y registro de un grupo de dispositivos (Solaris Volume Manager) o Registro de un grupo de discos como grupo de dispositivos (Veritas Volume Manager)
Al registrar el grupo de dispositivos, debe asignársele el mismo nombre que al grupo de replicaciones de TrueCopy.
Comprobación de la configuración de un grupo de dispositivos globales replicado con Hitachi TrueCopy
Antes de empezar
Antes de poder comprobarse es preciso crear el grupo de dispositivos globales. Puede usar grupos de dispositivos de Solaris Volume Manager, Veritas Volume Manager, ZFS o disco básico. Si desea obtener más información, consulte:
Adición y registro de un grupo de dispositivos (Solaris Volume Manager)
Adición y registro de un grupo de dispositivos (disco básico)
Adición y registro de un grupo de dispositivos replicado (ZFS)
Creación de un nuevo grupo de discos al inicializar discos (Veritas Volume Manager)
Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager, Veritas Volume Manager o disco básico) debe ser idéntico al del grupo de dispositivos replicado. |
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
# cldevicegroup show -n nodename group-name
# usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
Si el grupo de dispositivos está fuera de línea, póngalo en línea.
# cldevicegroup switch -n nodename group-name
El nodo al que se conmuta el grupo de dispositivos. Este nodo se convierte en el nuevo nodo primario.
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
En este ejemplo se realizan todos los pasos de Oracle Solaris Cluster necesarios para configurar una replicación de TrueCopy en el clúster. En el ejemplo se supone que ya se han realizado las tareas siguientes:
Se han configurado los LUN de Hitachi
Se ha instalado el software de TrueCopy en los nodos del clúster y el dispositivo de almacenamiento
Se han configurado los pares de replicación de los nodos del clúster
Si desea obtener instrucciones sobre la configuración de los pares de replicación, consulte Configuración de un grupo de replicaciones de Hitachi TrueCopy.
En este ejemplo aparece un clúster de tres nodos que usa TrueCopy. El clúster se distribuye en dos sitios remotos: dos nodos en el primero, y otro nodo en el segundo. Cada sitio dispone de su propio dispositivo de almacenamiento de Hitachi.
Los ejemplos siguientes muestran el archivo de configuración /etc/horcm.conf de TrueCopy en cada nodo.
Ejemplo 5-1 Archivo de configuración de TrueCopy en el nodo 1
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
Ejemplo 5-2 Archivo de configuración de TrueCopy en el nodo 2
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
Ejemplo 5-3 Archivo de configuración de TrueCopy en el nodo 3
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-C 0 09 VG01 pair2 CL1-C 0 10 VG01 pair3 CL1-C 0 11 HORCM_INST #dev_group ip_address service VG01 node-1 horcm VG01 node-2 horcm
En los ejemplos anteriores, se replican tres LUN entre los dos sitios. Todos los LUN están en un grupo de replicaciones denominado VG01. El comando pairdisplay comprueba esta información y muestra que el nodo 3 tiene la réplica primaria.
Ejemplo 5-4 Salida del comando pairdisplay en el nodo 1
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
Ejemplo 5-5 Salida del comando pairdisplay en el nodo 2
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
Ejemplo 5-6 Salida del comando pairdisplay en el nodo 3
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 -
Para ver los discos que se están usando, emplee la opción -fd del comando pairdisplay, como se muestra en los ejemplos siguientes.
Ejemplo 5-7 Salida del comando pairdisplay en el nodo 1 con los discos usados
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
Ejemplo 5-8 Salida del comando pairdisplay en el nodo 2 con los discos usados
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
Ejemplo 5-9 Salida del comando pairdisplay en el nodo 3 con los discos usados
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 -
Los ejemplos muestran que están en uso los discos siguientes:
En el nodo 1:
c6t500060E8000000000000EEBA0000001Dd0s2
c6t500060E8000000000000EEBA0000001Ed0s2
c6t500060E8000000000000EEBA0000001Fd0s
En el nodo 2:
c5t500060E8000000000000EEBA0000001Dd0s2
c5t500060E8000000000000EEBA0000001Ed0s2
c5t500060E8000000000000EEBA0000001Fd0s2
En el nodo 3:
c5t50060E800000000000004E600000003Ad0s2
c5t50060E800000000000004E600000003Bd0s2
c5t50060E800000000000004E600000003Cd0s2
Para ver los dispositivos de DID que corresponden a estos discos, use el comando cldevice list como se muestra en los ejemplos siguientes.
Ejemplo 5-10 Visualización de los DID correspondientes a los discos usados
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 12 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 12 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 13 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 13 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 14 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 14 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
Al combinar las instancias de DID de cada par de dispositivos replicados, cldevice list debe combinar la instancia de DID 12 con la 22, la instancia 13 con la 23 y la instancia 14 con la 24. Como el nodo 3 tiene la réplica primaria, ejecute el comando cldevice -T, desde el nodo 1 o el nodo 2. Combine siempre las instancias desde un nodo que tenga la réplica secundaria. Ejecute este comando sólo desde un nodo, no en ambos nodos.
El ejemplo siguiente muestra la salida obtenida al combinar instancias de DID ejecutando el comando en el nodo 1.
Ejemplo 5-11 Combinación de instancias de DID
# cldevice replicate -D node-3 Remapping instances for devices replicated with node-3... VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 Combining instance 14 with 24 VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 Combining instance 13 with 23 VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 Combining instance 12 with 22
Al comprobar la salida de cldevice list, los LUN de ambos sitios tienen la misma instancia de DID. Al tener la misma instancia de DID, cada par de réplicas parece un único dispositivo de DID, como se muestra en el ejemplo siguiente.
Ejemplo 5-12 Visualización de DID combinados
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222 22 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22 23 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
El paso siguiente es crear el grupo de dispositivos de administrador de volúmenes. Ejecute este comando desde el nodo que tenga la réplica primaria, en este ejemplo el nodo 3. Asigne al grupo de dispositivos el mismo nombre que al grupo de réplica, como se muestra en el ejemplo siguiente.
Ejemplo 5-13 Creación del grupo de dispositivos de Solaris Volume Manager
# metaset -s VG01 -ah phys-deneb-3 # metaset -s VG01 -ah phys-deneb-1 # metaset -s VG01 -ah phys-deneb-2 # metaset -s VG01 -a /dev/did/rdsk/d22 # metaset -s VG01 -a /dev/did/rdsk/d23 # metaset -s VG01 -a /dev/did/rdsk/d24 # metaset Set name = VG01, Set number = 1 Host Owner phys-deneb-3 Yes phys-deneb-1 phys-deneb-2 Drive Dbase d22 Yes d23 Yes d24 Yes
En este punto, el grupo de dispositivos está disponible para su uso, se pueden crear metadispositivos y el grupo de dispositivos se puede desplazar a cualquiera de los tres nodos. Sin embargo, para incrementar la eficiencia de las conmutaciones y las migraciones tras error, ejecute cldevicegroup set para marcar el grupo de dispositivos como replicado en la configuración del clúster.
Ejemplo 5-14 Transformación de las conmutaciones y las migraciones tras error en procesos eficientes
# cldevicegroup sync VG01 # cldevicegroup show VG01 === Device Groups=== Device Group Name VG01 Type: SVM failback: no Node List: phys-deneb-3, phys-deneb-1, phys-deneb-2 preferenced: yes numsecondaries: 1 device names: VG01 Replication type: truecopy
La configuración del grupo de replicaciones se completa con este paso. Para comprobar que la configuración haya sido correcta, siga los pasos descritos en Comprobación de la configuración de un grupo de dispositivos globales replicado con Hitachi TrueCopy.
En la tabla siguiente se enumeran las tareas necesarias para configurar y administrar un dispositivo replicado basado en almacenamiento de EMC Symmetrix Remote Data Facility (SRDF).
Tabla 5-3 Mapa de tareas: administrar un dispositivo replicado basado en almacenamiento de EMC SRDF
|
Antes de empezar
Antes de configurar un grupo de replicaciones de EMC SRDF, el software EMC Solutions Enabler debe estar instalado en todos los nodos del clúster . En primer lugar, configure los grupos de dispositivos EMC SRDF en los discos compartidos del clúster. Si desea más información sobre cómo configurar los grupos de dispositivos EMC SRDF, consulte la documentación de EMC SRDF.
Con EMC SRDF, emplee dispositivos dinámicos, no estáticos. Los dispositivos estáticos necesitan varios minutos para cambiar el nodo primario de replicación y pueden afectar al tiempo de migración tras error.
Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager, Veritas Volume Manager o disco básico) debe ser idéntico al del grupo de dispositivos replicado. |
Este proceso puede tardar unos minutos.
# /usr/symcli/bin/symcfg discover
Para crear los pares de réplicas, use el comando symrdf. Si desea obtener instrucciones sobre cómo crear pares de réplicas, consulte la documentación de SRDF.
# /usr/symcli/bin/symdg show group-name
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
# /usr/symcli/bin/symdg show group-name
El nodo con el estado de dispositivo de RDF1 contiene la réplica primaria; el nodo con el estado de dispositivo de RDF2 contiene la réplica secundaria.
# /usr/symcli/bin/symrdf -g group-name failover
# /usr/symcli/bin/symrdf -g group-name swap -refresh R1
# /usr/symcli/bin/symrdf -g group-name establish
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
Pasos siguientes
Tras haber configurado un grupo de dispositivos para el dispositivo replicado EMC SRDF, debe configurar el controlador de DID utilizado por el dispositivo replicado.
Este procedimiento configura el controlador de DID que emplea el dispositivo replicado.
Antes de empezar
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
# /usr/symcli/bin/symdg show group-name
Nota - Si el sistema no muestra todos los parches del dispositivo de Oracle Solaris, establezca en 1 la variable de entorno SYMCLI_FULL_PDEVNAME y vuelva a escribir el comando symdg -show.
# cldevice list -v
# cldevice combine -t srdf -g replication-device-group \ -d destination-instance source-instance
Nota - Los dispositivos de replicación de datos de SRDF no admiten la opción -T.
Especifica el tipo de replicación. Para EMC SRDF, escriba SRDF.
Especifica el nombre del grupo de dispositivos como se muestra en el comando symdg show.
Especifica la instancia de DID que se corresponde con el dispositivo de RDF1.
Especifica la instancia de DID que se corresponde con el dispositivo de RDF2.
Nota - Si comete una equivocación al combinar un dispositivo de DID, use la opción -b con el comando scdidadm para deshacer la combinación de dos dispositivos de DID.
# scdidadm -b device
La instancia de DID que se correspondía con el dispositivo de destino cuando las instancias estaban combinadas.
|
# cldevice list -v device
# cldevice show device
# cldevice list -v
Pasos siguientes
Tras configurar el controlador de identificador de dispositivos (DID) empleado por el dispositivo replicado, compruebe la configuración del grupo de dispositivos globales replicado con EMC SRDF.
Antes de empezar
Antes de poder comprobarse es preciso crear el grupo de dispositivos globales. Puede usar grupos de dispositivos de Solaris Volume Manager, Veritas Volume Manager, ZFS o disco básico. Si desea obtener más información, consulte:
Adición y registro de un grupo de dispositivos (Solaris Volume Manager)
Adición y registro de un grupo de dispositivos (disco básico)
Adición y registro de un grupo de dispositivos replicado (ZFS)
Creación de un nuevo grupo de discos al inicializar discos (Veritas Volume Manager)
Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager, Veritas Volume Manager o disco básico) debe ser idéntico al del grupo de dispositivos replicado. |
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
# symdg -show group-name # cldevicegroup status -n nodename group-name
Si el grupo de dispositivos está fuera de línea, póngalo en línea.
# cldevicegroup switch -n nodename group-name
El nodo al que se conmuta el grupo de dispositivos. Este nodo se convierte en el nuevo nodo primario.
# symdg -show group-name # cldevicegroup status -n nodename group-name
Este ejemplo muestra cómo efectuar los pasos de Oracle Solaris Cluster que necesarios para configurar la replicación con SRDF en el clúster. En el ejemplo se supone que ya se han realizado las tareas siguientes:
Se ha completado el emparejamiento de los LUN para la replicación entre matrices.
Se ha instalado el software de SRDF en el dispositivo de almacenamiento y los nodos del clúster.
Este ejemplo aparece un clúster de cuatro nodos: dos de ellos están conectados a un dispositivo de Symmetrix y los otros dos están conectados a un segundo dispositivo de Symmetrix. El grupo de dispositivos de SRDF se denomina dg1.
Ejemplo 5-15 Creación de pares de réplicas
Ejecute los comandos siguientes en todos los nodos.
# symcfg discover ! This operation might take up to a few minutes. # symdev list pd Symmetrix ID: 000187990182 Device Name Directors Device --------------------------- ------------ -------------------------------------- Cap Sym Physical SA :P DA :IT Config Attribute Sts (MB) --------------------------- ------------- ------------------------------------- 0067 c5t600604800001879901* 16D:0 02A:C1 RDF2+Mir N/Grp'd RW 4315 0068 c5t600604800001879901* 16D:0 16B:C0 RDF1+Mir N/Grp'd RW 4315 0069 c5t600604800001879901* 16D:0 01A:C0 RDF1+Mir N/Grp'd RW 4315 ...
En todos los nodos de la parte de RDF1, escriba:
# symdg -type RDF1 create dg1 # symld -g dg1 add dev 0067
En todos los nodos de la parte de RDF2, escriba:
# symdg -type RDF2 create dg1 # symld -g dg1 add dev 0067
Ejemplo 5-16 Comprobación de la configuración de la replicación de datos
Desde un nodo del clúster, escriba:
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) Device Group in GNS : No Valid : Yes Symmetrix ID : 000187900023 Group Creation Time : Thu Sep 13 13:21:15 2007 Vendor ID : EMC Corp Application ID : SYMCLI Number of STD Devices in Group : 1 Number of Associated GK's : 0 Number of Locally-associated BCV's : 0 Number of Locally-associated VDEV's : 0 Number of Remotely-associated BCV's (STD RDF): 0 Number of Remotely-associated BCV's (BCV RDF): 0 Number of Remotely-assoc'd RBCV's (RBCV RDF) : 0 Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ... # symrdf -g dg1 establish Execute an RDF 'Incremental Establish' operation for device group 'dg1' (y/[n]) ? y An RDF 'Incremental Establish' operation execution is in progress for device group 'dg1'. Please wait... Write Disable device(s) on RA at target (R2)..............Done. Suspend RDF link(s).......................................Done. Mark target (R2) devices to refresh from source (R1)......Started. Device: 0067 ............................................ Marked. Mark target (R2) devices to refresh from source (R1)......Done. Merge device track tables between source and target.......Started. Device: 0067 ............................................ Merged. Merge device track tables between source and target.......Done. Resume RDF link(s)........................................Started. Resume RDF link(s)........................................Done. The RDF 'Incremental Establish' operation successfully initiated for device group 'dg1'. # # symrdf -g dg1 query Device Group (DG) Name : dg1 DG's Type : RDF2 DG's Symmetrix ID : 000187990182 Target (R2) View Source (R1) View MODES -------------------------------- ------------------------ ----- ------------ ST LI ST Standard A N A Logical T R1 Inv R2 Inv K T R1 Inv R2 Inv RDF Pair Device Dev E Tracks Tracks S Dev E Tracks Tracks MDA STATE -------------------------------- -- ------------------------ ----- ------------ DEV001 0067 WD 0 0 RW 0067 RW 0 0 S.. Synchronized Total -------- -------- -------- -------- MB(s) 0.0 0.0 0.0 0.0 Legend for MODES: M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy D(omino) : X = Enabled, . = Disabled A(daptive Copy) : D = Disk Mode, W = WP Mode, . = ACp off #
Ejemplo 5-17 Visualización de los DID correspondientes a los discos usados
El mismo procedimiento es válido para las partes de RDF1 y de RDF2.
Observe el campo PdevName de la salida del comando dymdg show dg.
En la parte de RDF1, escriba:
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ...
Para obtener el DID correspondiente, escriba:
# scdidadm -L | grep c5t6006048000018790002353594D303637d0 217 pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 217 pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 #
Para que se muestre el DID correspondiente, escriba:
# cldevice show d217 === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Replication: none default_fencing: global #
En la parte de RDF2, escriba:
Observe el campo PdevName de la salida del comando dymdg show dg.
# symdg show dg1 Group Name: dg1 Group Type : RDF2 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067 WD 4315 } Device Group RDF Information ...
Para obtener el DID correspondiente, escriba:
# scdidadm -L | grep c5t6006048000018799018253594D303637d0 108 pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 108 pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 #
Para que se muestre el DID correspondiente, escriba:
# cldevice show d108 === DID Device Instances === DID Device Name: /dev/did/rdsk/d108 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: none default_fencing: global #
Ejemplo 5-18 Combinación de instancias de DID
Desde la parte de RDF2, escriba:
# cldevice combine -t srdf -g dg1 -d d217 d108 #
Ejemplo 5-19 Visualización de DID combinados
Desde cualquier nodo del clúster, escriba:
# cldevice show d217 d108 cldevice: (C727402) Could not locate instance "108". === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: srdf default_fencing: global #
Este procedimiento realiza una recuperación de los datos cuando la sala primaria de un clúster de campus experimenta un error completo; la sala primaria migra tras error a una sala secundaria; posteriormente, la sala primaria vuelve a estar en línea. La sala primaria del clúster de campus es el nodo primario y el sitio de almacenamiento. El error completo de una sala incluye el del host y el del almacenamiento de dicha sala. Si hay un error en la sala primaria, automáticamente Oracle Solaris Cluster migra tras error a la sala secundaria, posibilita la lectura y escritura en el almacenamiento de la sala secundaria, y habilita la migración tras error de los grupos de dispositivos y de recursos correspondientes.
Cuando la sala primaria vuelve a estar en línea, los datos del grupo de dispositivos de SRDF escritos en la sala secundaria se pueden recuperar manualmente y volver a sincronizarse. Este procedimiento recupera el grupo de dispositivos de SRDF sincronizando la sala secundaria original (este procedimiento emplea phys-campus-2 para la sala secundaria) con la sala primaria original (phys-campus-1). El procedimiento también cambia el tipo de grupo de dispositivos de SRDF a RDF1 en phys-campus-2 y a RDF2 en phys-campus-1.
Antes de empezar
Antes de poder realizar manualmente una migración tras error, debe configurar el grupo de replicaciones de EMC y los dispositivos de DID, así como registrar el grupo de replicaciones de EMC. Si desea obtener información sobre cómo crear un grupo de dispositivos de Solaris Volume Manager, consulte Adición y registro de un grupo de dispositivos (Solaris Volume Manager). Si desea obtener información sobre cómo crear un grupo de dispositivos de Veritas Volume Manager, consulte Creación de un nuevo grupo de discos al encapsular discos (Veritas Volume Manager).
Nota - Estas instrucciones presentan un método válido para recuperar datos de SRDF manualmente tras error completo de la sala primaria y volver a estar en línea. Consulte la documentación de EMC para ver otros métodos.
Inicie sesión en la sala primaria del clúster de campus para seguir estos pasos. En el procedimiento que se describe a continuación, dg1 es el nombre del grupo de dispositivos de SRDF. En el momento del error, la sala primaria de este procedimiento es phys-campus-1 y la sala secundaria es phys-campus-2.
phys-campus-1# symrdf -g dg1 query
Consejo - Los grupos de dispositivos con estado split (dividido) no están sincronizados.
phys-campus-1# symrdf -g dg1 -force failover
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 swap
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 establish
phys-campus-1# symrdf -g dg1 query
Ejemplo 5-20 Recuperación manual de datos de EMC SRDF después de una migración tras error habida en un sitio primario
Este ejemplo muestra los pasos necesarios en Oracle Solaris Cluster para recuperar manualmente los datos de EMC SRDF después de que la sala primaria de un clúster de campus migre tras error, una sala secundaria controle y registre los datos y, posteriormente, la sala primaria vuelva a estar en línea. En el ejemplo, el grupo de dispositivos de SRDF se denomina dg1 y el dispositivo lógico estándar es DEV001. En el momento del error, la sala primaria es phys-campus-1 y la sala secundaria es phys-campus-2. Efectúe los pasos desde la sala primaria del clúster de campus, phys-campus-1.
phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012RW 0 0NR 0012RW 2031 O S.. Split phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 -force failover ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 2031 O S.. Failed Over phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 swap ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 0 2031 S.. Suspended phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 establish ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 RW 0012 RW 0 0 S.. Synchronized phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0