JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Guía de administración del sistema de Oracle Solaris Cluster     Oracle Solaris Cluster 3.3 3/13 (Español)
search filter icon
search icon

Información del documento

Prefacio

1.  Introducción a la administración de Oracle Solaris Cluster

2.  Oracle Solaris Cluster y RBAC

3.  Cierre y arranque de un cluster

4.  Métodos de replicación de datos

5.  Administración de dispositivos globales, supervisión de rutas de disco y sistemas de archivos de cluster

Información general sobre la administración de dispositivos globales y el espacio de nombre global

Permisos de dispositivos globales en Solaris Volume Manager

Reconfiguración dinámica con dispositivos globales

Administración de dispositivos replicados basados en el almacenamiento

Administración de dispositivos replicados de Hitachi TrueCopy

Configuración de un grupo de replicación de Hitachi TrueCopy

Configuración de dispositivos DID para la replicación con Hitachi TrueCopy

Verificación de la configuración de un grupo de dispositivos globales replicados de Hitachi TrueCopy

Ejemplo: configuración de un grupo de replicación de TrueCopy para Oracle Solaris Cluster

Administración de dispositivos replicados de EMC Symmetrix Remote Data Facility

Cómo configurar un grupo de replicación de EMC SRDF

Configuración de dispositivos DID para la replicación con EMC SRDF

Cómo comprobar la configuración del grupo de dispositivos globales replicados de EMC SRDF

Ejemplo: Configuración de un grupo de replicaciones de SRDF para Oracle Solaris Cluster

Información general sobre la administración de sistemas de archivos de clusters

Restricciones del sistema de archivos de cluster

Administración de grupos de dispositivos

Actualización del espacio de nombre de dispositivos globales

Cómo cambiar el tamaño de un dispositivo lofi que se utiliza para el espacio de nombres de dispositivos globales

Migración del espacio de nombre de dispositivos globales

Migración del espacio de nombre de dispositivos globales desde una partición dedicada hasta un dispositivo de lofi

Migración del espacio de nombre de dispositivos globales desde un dispositivo de lofi hasta una partición dedicada

Adición y registro de grupos de dispositivos

Adición y registro de un grupo de dispositivos (Solaris Volume Manager)

Adición y registro de un grupo de dispositivos (disco básico)

Adición y registro de un grupo de dispositivos replicado (ZFS)

Mantenimiento de grupos de dispositivos

Eliminación y anulación del registro de un grupo de dispositivos (Solaris Volume Manager)

Eliminación de un nodo de todos los grupos de dispositivos

Eliminación de un nodo de un grupo de dispositivos (Solaris Volume Manager)

Eliminación de un nodo de un grupo de dispositivos de discos básicos

Cambio de propiedades de los grupos de dispositivos

Establecimiento del número de secundarios para un grupo de dispositivos

Enumeración de la configuración de grupos de dispositivos

Conmutación al nodo primario de un grupo de dispositivos

Colocación de un grupo de dispositivos en estado de mantenimiento

Administración de la configuración del protocolo SCSI para dispositivos de almacenamiento

Visualización de la configuración del protocolo SCSI global predeterminado de todos los dispositivos de almacenamiento

Visualización del protocolo SCSI de un solo dispositivo de almacenamiento

Modificación de la configuración del protocolo de protección global predeterminado para todos los dispositivos de almacenamiento

Modificación del protocolo de protección en un solo dispositivo de almacenamiento

Administración de sistemas de archivos de cluster

Adición de un sistema de archivos de cluster

Eliminación de un sistema de archivos de cluster

Comprobación de montajes globales en un cluster

Administración de la supervisión de rutas de disco

Supervisión de una ruta de disco

Anulación de la supervisión de una ruta de disco

Impresión de rutas de disco erróneas

Resolución de un error de estado de ruta de disco

Supervisión de rutas de disco desde un archivo

Habilitación del rearranque automático de un nodo si fallan todas las rutas de disco compartido supervisadas

Inhabilitación del rearranque automático de un nodo si fallan todas las rutas de disco compartido supervisadas

6.  Administración de quórum

7.  Administración de interconexiones de clusters y redes públicas

8.  Adición y eliminación de un nodo

9.  Administración del cluster

10.  Configuración del control del uso de la CPU

11.  Aplicación de parches de software y firmware de Oracle Solaris Cluster

12.  Copias de seguridad y restauraciones de clusters

13.  Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario

A.  Ejemplo

Índice

Administración de dispositivos replicados basados en el almacenamiento

Puede configurar un grupo de dispositivos de Oracle Solaris Cluster para que contenga dispositivos que se repliquen mediante la replicación basada en almacenamiento. El software de Oracle Solaris Cluster es compatible con el software de Hitachi TrueCopy y EMC Symmetrix Remote Data Facility para la replicación basada en almacenamiento.

Antes de replicar los datos con el software de Hitachi TrueCopy o EMC Symmetrix Remote Data Facility, debe estar familiarizado con la documentación de replicación basada en almacenamiento y tener instalados en el sistema el producto de replicación basada en almacenamiento y los parches más recientes. Si desea obtener información sobre cómo instalar el software de replicación basada en almacenamiento, consulte la documentación del producto.

El software de replicación basada en almacenamiento configura un par de dispositivos como réplicas, uno como réplica principal y el otro como réplica secundaria. En un momento dado, el dispositivo conectado a un conjunto de nodos será la réplica principal. El dispositivo conectado al otro conjunto de nodos será la réplica secundaria.

En una configuración de Oracle Solaris Cluster, la réplica principal se mueve automáticamente cada vez que se mueve el grupo de dispositivos de Oracle Solaris Cluster al que pertenece la réplica. Por lo tanto, la réplica principal nunca debe moverse directamente en una configuración de Oracle Solaris Cluster. En su lugar, la recuperación debe realizarse moviendo el grupo de dispositivos de Oracle Solaris Cluster asociado.


Precaución

Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager o disco sin procesar) debe ser idéntico al del grupo de dispositivos replicado.


Esta sección incluye los procedimientos siguientes:

Administración de dispositivos replicados de Hitachi TrueCopy

En la siguiente tabla, se enumeran las tareas que debe realizar para configurar un dispositivo replicado basado en almacenamiento de Hitachi TrueCopy.

Tabla 5-2 Mapa de tareas: administración de un dispositivo replicado basado en almacenamiento de Hitachi TrueCopy

Tarea
Instrucciones
Instalar el software de TrueCopy en el dispositivo de almacenamiento y en los nodos
Consulte la documentación incluida con el dispositivo de almacenamiento de Hitachi.
Configurar el grupo de replicación de Hitachi
Configurar el dispositivo DID
Registrar el grupo replicado
Comprobar la configuración

Configuración de un grupo de replicación de Hitachi TrueCopy

Antes de empezar

En primer lugar, configure los grupos de dispositivos de Hitachi TrueCopy en discos compartidos del cluster principal. Esta información de configuración se especifica en el archivo /etc/horcm.conf en cada uno de los nodos del cluster que tiene acceso a la matriz de Hitachi. Para obtener más información sobre cómo configurar el archivo /etc/horcm.conf, consulte Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide.


Precaución

Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager, ZFS o disco sin procesar) debe ser idéntico al del grupo de dispositivos replicado.


  1. Conviértase en superusuario o asuma un rol que proporcione la autorización RBAC solaris.cluster.modify en todos los nodos conectados a la matriz de almacenamiento.
  2. Agregue la entrada horcm al archivo /etc/services.
    horcm  9970/udp

    Especifique un número de puerto y un nombre de protocolo para la nueva entrada.

  3. Especifique la información de configuración del grupo de dispositivos de Hitachi TrueCopy en el archivo /etc/horcm.conf.

    Para obtener instrucciones, consulte la documentación incluida con el software de TrueCopy.

  4. Inicie el daemon CCI de TrueCopy. Para ello, ejecute el comando horcmstart.sh en todos los nodos.
    # /usr/bin/horcmstart.sh
  5. Si aún no ha creado los pares de réplicas, hágalo ahora.

    Utilice el comando paircreate para crear los pares de réplicas con el nivel de aislamiento deseado. Para obtener instrucciones sobre la creación de los pares de réplicas, consulte la documentación de TrueCopy.

  6. En cada nodo configurado con dispositivos replicados, verifique que la replicación de datos esté configurada correctamente con el comando pairdisplay. Un grupo de dispositivos de Hitachi TrueCopy o Hitachi Universal Replicator con un fence_level de ASYNC no puede compartir su ctgid con ningún otro grupo de dispositivos del sistema.
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -
  7. Verifique que todos los nodos pueden controlar los grupos de replicación.
    1. Determine qué nodo contiene la réplica principal y qué nodo contiene la réplica secundaria mediante el comando pairdisplay.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

      El nodo con el dispositivo local (L) en el estado P-VOL contiene la réplica principal y el nodo con el dispositivo local (L) en el estado S-VOL contiene la réplica secundaria.

    2. Ejecute el comando horctakeover en el nodo que contiene la réplica secundaria para convertir el nodo secundario en el nodo maestro.
      # horctakeover -g group-name

      Espere hasta que la copia de datos inicial se complete antes de continuar con el paso siguiente.

    3. Verifique que el nodo que ejecutó el comando horctakeover tenga ahora el dispositivo local (L) en el estado P-VOL.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..S-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..P-VOL PAIR NEVER ,----- 58   -
    4. Ejecute el comando horctakeover en el nodo que originalmente contenía la réplica principal.
      # horctakeover -g group-name
    5. Verifique que el nodo principal haya regresado a la configuración original mediante la ejecución del comando pairdisplay.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

Pasos siguientes

Continúe la configuración del dispositivo replicado. Para ello, siga las instrucciones detalladas en Configuración de dispositivos DID para la replicación con Hitachi TrueCopy.

Configuración de dispositivos DID para la replicación con Hitachi TrueCopy

Antes de empezar

Después de configurar un grupo de dispositivos para el dispositivo replicado, debe configurar el controlador del identificador de dispositivos (DID) que usa el dispositivo replicado.

phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify en todos los nodos del cluster.
  2. Verifique que el daemon horcmd se ejecuta en todos los nodos.

    El siguiente comando iniciará el daemon si no se está ejecutando. El sistema mostrará un mensaje si el daemon ya está en ejecución.

    # /usr/bin/horcmstart.sh
  3. Determine qué nodo contiene la réplica secundaria mediante el comando pairdisplay.
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

    El nodo con el dispositivo local (L) en el estado S-VOL contiene la réplica secundaria.

  4. En el nodo con la réplica secundaria (según se determinó en el paso anterior), configure los dispositivos DID que se utilizarán con la replicación basada en almacenamiento.

    Este comando combina las dos instancias DID independientes para los pares de réplicas del dispositivo en una instancia DID lógica única. La instancia única permite que el software de administración de volúmenes utilice el dispositivo desde ambos lados.


    Precaución

    Precaución - Si hay varios nodos conectados a la réplica secundaria, ejecute este comando solamente en uno de estos nodos.


    # cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
    primary-replica-nodename

    Especifica el nombre del nodo remoto que contiene la réplica principal.

    -S

    Especifica un nodo de origen distinto del nodo actual.

    secondary replica-nodename

    Especifica el nombre del nodo remoto que contiene la réplica secundaria.


    Nota - De forma predeterminada, el nodo actual es el nodo de origen. Utilice la opción -S para especificar un nodo de origen diferente.


  5. Verifique que las instancias DID se hayan combinado.
    # cldevice list -v logical_DID_device
  6. Verifique que la replicación de TrueCopy esté definida.
    # cldevice show logical_DID_device

    La salida del comando debe indicar que el tipo de replicación es TrueCopy.

  7. Si la reasignación de DID no combinó correctamente todos los dispositivos replicados, combine los dispositivos replicados manualmente.

    Precaución

    Precaución - Tenga mucho cuidado cuando combine instancias DID manualmente. La reasignación inadecuada de dispositivos puede causar daños en los datos.


    1. En todos los nodos que contienen la réplica secundaria, ejecute el comando cldevice combine.
      # cldevice combine -d destination-instance source-instance
      -d destination-instance

      La instancia DID remota, que corresponde a la réplica principal.

      source-instance

      La instancia DID local, que corresponde a la réplica secundaria.

    2. Verifique que la reasignación DID se ha producido correctamente.
      # cldevice list desination-instance source-instance

    Una de las instancias DID no se debe enumerar.

  8. En todos los nodos, compruebe que se pueda acceder a los dispositivos DID para todas las instancias DID combinadas.
    # cldevice list -v

Pasos siguientes

Para completar la configuración del grupo de dispositivos replicado, lleve a cabo los pasos indicados en los siguientes procedimientos.

Verificación de la configuración de un grupo de dispositivos globales replicados de Hitachi TrueCopy

Antes de empezar

Antes de verificar el grupo de dispositivos globales, primero debe crearlo. Puede utilizar grupos de dispositivos de Solaris Volume Manager, ZFS o disco sin procesar. Para obtener más información, consulte lo siguiente:


Precaución

Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager o disco sin procesar) debe ser idéntico al del grupo de dispositivos replicado.


phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Compruebe que el grupo de dispositivos principal corresponda al mismo nodo que el nodo que contiene la réplica primaria.
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
  2. Verifique que la propiedad de replicación esté definida para el grupo de dispositivos.
    # cldevicegroup show -n nodename group-name
  3. Verifique que la propiedad replicada esté definida para el dispositivo.
    # usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
  4. Realice una conmutación de prueba para asegurarse de que estos grupos de dispositivos están configurados correctamente y de que las replicas puedan moverse entre los nodos.

    Si el grupo de dispositivos está fuera de línea, póngalo en línea.

    # cldevicegroup switch -n nodename group-name
    -n nodename

    Nodo en el que se cambia el grupo de dispositivos. Este nodo se convierte en el nuevo nodo principal

  5. Compruebe que la operación de conmutación se haya realizado correctamente mediante la comparación de la salida de los siguientes comandos.
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name

Ejemplo: configuración de un grupo de replicación de TrueCopy para Oracle Solaris Cluster

En este ejemplo, se completan los pasos específicos de Oracle Solaris Cluster necesarios para configurar la replicación de TrueCopy en el cluster. En el ejemplo, se supone que ya se han realizado las tareas siguientes:

En este ejemplo, se utiliza un cluster de tres nodos con TrueCopy. El cluster se distribuye entre dos sitios remotos, con dos nodos en un sitio y un nodo en el otro. Cada sitio tiene su propio dispositivo de almacenamiento de Hitachi.

En los siguientes ejemplos, se muestra el archivo de configuración /etc/horcm.conf de TrueCopy en cada nodo.

Ejemplo 5-1 Archivo de configuración de TrueCopy en el nodo 1

HORCM_DEV 
#dev_group     dev_name    port#       TargetID     LU#       MU# 
VG01           pair1       CL1-A         0          29 
VG01           pair2       CL1-A         0          30 
VG01           pair3       CL1-A         0          31 
HORCM_INST 
#dev_group     ip_address   service 
VG01           node-3       horcm

Ejemplo 5-2 Archivo de configuración de TrueCopy en el nodo 2

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU#
VG01              pair1          CL1-A         0         29 
VG01              pair2          CL1-A         0         30 
VG01              pair3          CL1-A         0         31 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-3          horcm

Ejemplo 5-3 Archivo de configuración de TrueCopy en el nodo 3

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU# 
VG01              pair1          CL1-C         0         09 
VG01              pair2          CL1-C         0         10 
VG01              pair3          CL1-C         0         11 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-1          horcm 
VG01              node-2          horcm

En los ejemplos anteriores, se replican tres LUN entre los dos sitios. Los LUN están todos en un grupo de replicación con el nombre VG01. El comando pairdisplay verifica esta información y muestra que el nodo 3 tiene la réplica principal.

Ejemplo 5-4 Salida del comando pairdisplay en el nodo 1

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

Ejemplo 5-5 Salida del comando pairdisplay en el nodo 2

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

Ejemplo 5-6 Salida del comando pairdisplay en el nodo 3

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair1(R)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair2(L)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair2(R)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair3(L)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  - 
VG01    pair3(R)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 

Para ver qué discos están en uso, utilice la opción -fd del comando pairdisplay como se muestra en los siguientes ejemplos.

Ejemplo 5-7 Salida del comando pairdisplay en el nodo 1, que muestra los discos utilizados

# pairdisplay -fd -g VG01 
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M 
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  - 
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

Ejemplo 5-8 Salida del comando pairdisplay en el nodo 2, que muestra los discos utilizados

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  -
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  -
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  -
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER  ,61114    30  -
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  -
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

Ejemplo 5-9 Salida del comando pairdisplay en el nodo 3, que muestra los discos utilizados

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M 
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064  58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114  29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114  30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064  60..P-VOL PAIR NEVER  ,61114    31  - 
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114  31..S-VOL PAIR NEVER  ,-----    60  -

En estos ejemplos, se muestra que se están utilizando los siguientes discos:

Para ver los dispositivos DID que corresponden a estos discos, utilice el comando cldevice list como se muestra en los siguientes ejemplos.

Ejemplo 5-10 Visualización de DID correspondientes a los discos utilizados

# cldevice list -v

DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
12              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
12              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
13              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
13              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
14              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
14              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223  
23              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

Al combinar las instancias DID para cada par de dispositivos replicados, cldevice list debe combinar la instancia DID 12 con 22, la instancia 13 con 23 y la instancia 14 con 24. Dado que el nodo 3 tiene la réplica principal, ejecute el comando cldevice -T desde el nodo 1 o el nodo 2. Combine siempre las instancias de un nodo que tenga la réplica secundaria. Ejecute este comando desde un único nodo, no en ambos nodos.

En el siguiente ejemplo, se muestra el resultado de combinar instancias DID mediante la ejecución del comando en el nodo 1.

Ejemplo 5-11 Combinación de instancias DID

# cldevice replicate -D node-3
Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

Al comprobar la salida de cldevice list, los LUN de ambos sitios tienen ahora la misma instancia DID. Al tener la misma instancia DID, cada par de réplica parece un único dispositivo DID, como se indica en el siguiente ejemplo.

Ejemplo 5-12 Visualización de DID combinados

# cldevice list -v
DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222  
22          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22
23          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

El paso siguiente consiste en crear el grupo de dispositivos del administrador de volúmenes. Ejecute este comando desde el nodo que tiene la réplica principal, en este ejemplo, el nodo 3. Asigne al grupo de dispositivos el mismo nombre que al grupo de réplica, como se muestra en el ejemplo siguiente.

Ejemplo 5-13 Creación del grupo de dispositivos de Solaris Volume Manager

# metaset -s VG01 -ah phys-deneb-3
# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1

Host                Owner
  phys-deneb-3       Yes
  phys-deneb-1
  phys-deneb-2

Drive Dbase
d22   Yes
d23   Yes
d24   Yes

En este punto, el grupo de dispositivos se puede utilizar, es posible crear metadispositivos y el grupo de dispositivos se puede mover a cualquiera de los tres nodos. No obstante, para optimizar los switchovers y las conmutaciones por error, ejecute cldevicegroup set para marcar el grupo de dispositivos como replicado en la configuración del cluster.

Ejemplo 5-14 Optimización de los switchovers y las conmutaciones por error

# cldevicegroup sync VG01 
# cldevicegroup show VG01
=== Device Groups===

Device Group Name                       VG01   
  Type:                                   SVM   
  failback:                               no   
  Node List:                              phys-deneb-3, phys-deneb-1, phys-deneb-2   
  preferenced:                            yes   
  numsecondaries:                         1   
  device names:                           VG01   
  Replication type:                       truecopy

La configuración del grupo de replicación ha terminado con este paso. Para verificar que la configuración se realizó correctamente, siga los pasos descritos en Verificación de la configuración de un grupo de dispositivos globales replicados de Hitachi TrueCopy.

Administración de dispositivos replicados de EMC Symmetrix Remote Data Facility

En la siguiente tabla, se enumeran las tareas que debe realizar para configurar y gestionar un dispositivo replicado basado en almacenamiento de EMC Symmetrix Remote Data Facility (SRDF).

Tabla 5-3 Mapa de tareas: Administración de dispositivo replicado basado en almacenamiento de EMC SRDF

Tarea
Instrucciones
Instalar el software de SRDF en el dispositivo de almacenamiento y en los nodos
La documentación incluida con el dispositivo de almacenamiento de EMC.
Configurar el grupo de replicaciones de EMC
Configurar el dispositivo DID
Registrar el grupo replicado
Comprobar la configuración
Recuperar manualmente los datos después de que falla por completo la sala primaria de un cluster de campus.

Cómo configurar un grupo de replicación de EMC SRDF

Antes de empezar

El software EMC Solutions Enabler debe estar instalado en todos los nodos del cluster antes de configurar un grupo de replicaciones de EMC Symmetrix Remote Data Facility (SRDF). En primer lugar, configure los grupos de dispositivos EMC SRDF en los discos compartidos del cluster. Para obtener más información acerca de cómo configurar los grupos de dispositivos de EMC SRDF, consulte la documentación del producto EMC SRDF.

Cuando use EMC SRDF, utilice los dispositivos dinámicos en lugar de los estáticos. Los dispositivos estáticos requieren varios minutos para cambiar la replicación principal y pueden afectar el tiempo de conmutación por error.


Precaución

Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager o disco sin procesar) debe ser idéntico al del grupo de dispositivos replicado.


  1. Conviértase en superusuario o asuma un rol que proporcione la autorización RBAC solaris.cluster.modify en todos los nodos conectados a la matriz de almacenamiento.
  2. Para una implementación de tres sitios o de tres centros de datos con dispositivos en cascada o SRDF simultáneos, defina el parámetro SYMAPI_2SITE_CLUSTER_DG.

    Agregue la siguiente entrada al archivo de opciones de Solutions Enabler en todos los nodos participantes del cluster:

    SYMAPI_2SITE_CLUSTER_DG=:rdf-group-number
    device-group

    Especifica el nombre del grupo de dispositivos.

    rdf-group-number

    Especifica el grupo RDF que se conecta el symmetrix local del host al symmetrix del segundo sitio.

    Esta entrada permite que el software del cluster automatice el movimiento de la aplicación entre los dos sitios SRDF síncronos.

    Para obtener más información sobre las configuraciones de tres centros de datos, consulte Three-Data-Center (3DC) Topologies de Oracle Solaris Cluster Geographic Edition Overview.

  3. En cada nodo configurado con los datos replicados, detecte la configuración de dispositivos de Symmetrix.

    Esta acción puede tardar varios minutos.

    # /usr/symcli/bin/symcfg discover
  4. Si aún no ha creado los pares de réplicas, hágalo ahora.

    Utilice el comando symrdf para crear los pares de réplicas. Para obtener instrucciones sobre la creación de los pares de réplicas, consulte la documentación de SRDF.


    Nota - Si utiliza dispositivos RDF simultáneos para una implementación de tres sitios o de tres centros de datos, agregue el siguiente parámetro a todos los comandos symrdf:

    -rdfg rdf-group-number

    Especificar el número de grupo RDF en el comando symrdf garantiza que la operación de symrdf se dirija al grupo RDF correcto.


  5. En cada nodo configurado con dispositivos replicados, compruebe que la replicación de datos esté configurada de manera correcta.
    # /usr/symcli/bin/symdg show group-name
  6. Realice un intercambio del grupo de dispositivos.
    1. Verifique que la réplica principal y la secundaria estén sincronizadas.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
    2. Determine qué nodo contiene la réplica principal y qué nodo contiene la réplica secundaria mediante el comando symdg show.
      # /usr/symcli/bin/symdg show group-name

      El nodo con el dispositivo RDF1 contiene la réplica principal y el nodo con el estado del dispositivo RDF2 contiene la réplica secundaria.

    3. Active la réplica secundaria.
      # /usr/symcli/bin/symrdf -g group-name failover
    4. Intercambie los dispositivos RDF1 y RDF2.
      # /usr/symcli/bin/symrdf -g group-name swap -refresh R1
    5. Active el par de réplicas.
      # /usr/symcli/bin/symrdf -g group-name establish
    6. Verifique que el nodo principal y las replicas secundarias estén sincronizados.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
  7. Repita todo el paso 5 en el nodo que tenía originalmente la réplica principal.

Pasos siguientes

Después de configurar un grupo de dispositivos para el dispositivo replicado de EMC SRDF, debe configurar el controlador del identificador de dispositivos (DID) que usan los dispositivos replicados.

Configuración de dispositivos DID para la replicación con EMC SRDF

Este procedimiento sirve para configurar el controlador del identificador de dispositivos (DID) que usa el dispositivo replicado.

Antes de empezar

phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify en todos los nodos del cluster.
  2. Determine qué dispositivos DID se corresponden con los dispositivos RDF1 y RDF2 configurados.
    # /usr/symcli/bin/symdg show group-name

    Nota - Si el sistema no muestra todo el parche del dispositivo de Oracle Solaris, defina la variable de entorno SYMCLI_FULL_PDEVNAME en 1 y vuelva a escribir el comando symdg -show.


  3. Determine qué dispositivos DID se corresponden con los dispositivos de Oracle Solaris.
    # cldevice list -v
  4. Para cada par de dispositivos DID coincidentes, combine las instancias en un único dispositivo DID replicado. Ejecute el siguiente comando desde el lado RDF2/secundario.
    # cldevice combine -t srdf -g replication-device-group \
     -d destination-instance source-instance

    Nota - No se admite la opción -T para los dispositivos de replicación de datos de SRDF.


    -t replication-type

    Especifica el tipo de replicación. Para EMC SRDF, el tipo es SRDF .

    -g replication-device-group

    Especifica el nombre del grupo de dispositivos tal y como se muestra en el comando symdg show.

    -d destination-instance

    Especifica la instancia DID que corresponde al dispositivo RDF1.

    source-instance

    Especifica la instancia DID que corresponde al dispositivo RDF2.


    Nota - Si comete una equivocación al combinar un dispositivo DID, use la opción -b con el comando scdidadm para deshacer la combinación de dos dispositivos DID.

    # scdidadm -b device 
    -b device

    La instancia DID que se correspondía con el dispositivo de destino cuando las instancias estaban combinadas.


  5. Si cambia el nombre de un grupo de dispositivos de replicación, se necesitan pasos adicionales para Hitachi TrueCopy y SRDF. Cuando haya completado los pasos del 1 al 4, lleve a cabo los pasos adicionales que correspondan.
    Elemento
    Descripción
    TrueCopy
    Si cambia el nombre del grupo de dispositivos de replicación (y el grupo de dispositivos globales correspondiente), debe volver a ejecutar el comando cldevice replicate para actualizar la información de los dispositivos replicados.
    SRDF
    Si cambia el nombre del grupo de dispositivos de replicación (con el grupo de dispositivos globales correspondiente), debe actualizar la información de los dispositivos replicados usando primero el comando scdidadm -b para eliminar la información existente. El último paso consiste en utilizar el comando cldevice combine para crear un nuevo dispositivo actualizado.
  6. Verifique que las instancias DID se hayan combinado.
    # cldevice list -v device
  7. Verifique que la replicación de SRDF esté definida.
    # cldevice show device
  8. En todos los nodos, compruebe que se pueda acceder a los dispositivos DID para todas las instancias DID combinadas.
    # cldevice list -v

Pasos siguientes

Después de haber configurado el controlador del identificador de dispositivos (DID) que usa el dispositivo replicado, debe comprobar la configuración del grupo de dispositivos globales replicados de EMC SRDF.

Cómo comprobar la configuración del grupo de dispositivos globales replicados de EMC SRDF

Antes de empezar

Antes de verificar el grupo de dispositivos globales, primero debe crearlo. Puede utilizar grupos de dispositivos de Solaris Volume Manager, ZFS o disco sin procesar. Para obtener más información, consulte lo siguiente:


Precaución

Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager o disco sin procesar) debe ser idéntico al nombre del grupo de dispositivos replicados.


phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Compruebe que el grupo de dispositivos principal corresponda al mismo nodo que el nodo que contiene la réplica primaria.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
  2. Realice una conmutación de prueba para asegurarse de que estos grupos de dispositivos están configurados correctamente y de que las replicas puedan moverse entre los nodos.

    Si el grupo de dispositivos está fuera de línea, póngalo en línea.

    # cldevicegroup switch -n nodename group-name
    -n nodename

    Nodo en el que se cambia el grupo de dispositivos. Este nodo se convierte en el nuevo nodo principal.

  3. Compruebe que la operación de conmutación se haya realizado correctamente mediante la comparación de la salida de los siguientes comandos.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name

Ejemplo: Configuración de un grupo de replicaciones de SRDF para Oracle Solaris Cluster

En este ejemplo, se completan los pasos específicos necesarios de Oracle Solaris Cluster para configurar la replicación de SRDF en el cluster. En el ejemplo, se supone que ya se han realizado las tareas siguientes:

En este ejemplo, se muestra un cluster de cuatro nodos en el que hay dos nodos conectados a un Symmetrix y otros dos nodos conectados al segundo Symmetrix. El grupo de dispositivos SRDF se denomina dg1.

Ejemplo 5-15 Creación de los pares de réplicas

Ejecute el siguiente comando en todos los nodos.

# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd

Symmetrix ID: 000187990182

        Device Name          Directors                   Device                
--------------------------- ------------ --------------------------------------
                                                                           Cap 
Sym  Physical               SA :P DA :IT  Config        Attribute    Sts   (MB)
--------------------------- ------------- -------------------------------------

0067 c5t600604800001879901* 16D:0 02A:C1  RDF2+Mir      N/Grp'd      RW    4315
0068 c5t600604800001879901* 16D:0 16B:C0  RDF1+Mir      N/Grp'd      RW    4315
0069 c5t600604800001879901* 16D:0 01A:C0  RDF1+Mir      N/Grp'd      RW    4315
...

En todos los nodos del lado RDF1, escriba:

# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

En todos los nodos del lado RDF2, escriba:

# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067

Ejemplo 5-16 Comprobación de la configuración de la replicación de datos

Desde un nodo del cluster, escriba:

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
    Device Group in GNS                          : No
    Valid                                        : Yes
    Symmetrix ID                                 : 000187900023
    Group Creation Time                          : Thu Sep 13 13:21:15 2007
    Vendor ID                                    : EMC Corp
    Application ID                               : SYMCLI

    Number of STD Devices in Group               :    1
    Number of Associated GK's                    :    0
    Number of Locally-associated BCV's           :    0
    Number of Locally-associated VDEV's          :    0
    Number of Remotely-associated BCV's (STD RDF):    0
    Number of Remotely-associated BCV's (BCV RDF):    0
    Number of Remotely-assoc'd RBCV's (RBCV RDF) :    0

    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...
# symrdf -g dg1 establish

Execute an RDF 'Incremental Establish' operation for device
group 'dg1' (y/[n]) ? y

An RDF 'Incremental Establish' operation execution is
in progress for device group 'dg1'. Please wait...

    Write Disable device(s) on RA at target (R2)..............Done.
    Suspend RDF link(s).......................................Done.
    Mark target (R2) devices to refresh from source (R1)......Started.
    Device: 0067 ............................................ Marked.
    Mark target (R2) devices to refresh from source (R1)......Done.
    Merge device track tables between source and target.......Started.
    Device: 0067 ............................................ Merged.
    Merge device track tables between source and target.......Done.
    Resume RDF link(s)........................................Started.
    Resume RDF link(s)........................................Done.

The RDF 'Incremental Establish' operation successfully initiated for
device group 'dg1'.

#  
# symrdf -g dg1 query  


Device Group (DG) Name             : dg1
DG's Type                          : RDF2
DG's Symmetrix ID                  : 000187990182


       Target (R2) View                 Source (R1) View     MODES           
--------------------------------    ------------------------ ----- ------------
             ST                  LI      ST                                    
Standard      A                   N       A                                   
Logical       T  R1 Inv   R2 Inv  K       T  R1 Inv   R2 Inv       RDF Pair    
Device  Dev   E  Tracks   Tracks  S Dev   E  Tracks   Tracks MDA   STATE       
-------------------------------- -- ------------------------ ----- ------------

DEV001  0067 WD       0        0 RW 0067 RW       0        0 S..   Synchronized

Total          -------- --------           -------- --------
  MB(s)             0.0      0.0                0.0      0.0

Legend for MODES:

 M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
 D(omino)           : X = Enabled, . = Disabled
 A(daptive Copy)    : D = Disk Mode, W = WP Mode, . = ACp off

# 

Ejemplo 5-17 Visualización de DID correspondientes a los discos utilizados

El mismo procedimiento se aplica a los lados RDF1 y RDF2.

Puede buscar en el campo PdevName de salida del comando dymdg show dg.

En el lado RDF1, escriba:

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...

Para obtener los DID correspondientes, escriba:

# scdidadm -L | grep c5t6006048000018790002353594D303637d0
217      pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217   
217      pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 
#

Para listar los DID correspondientes, escriba:

# cldevice show d217

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 

En el lado RDF2, escriba:

Puede buscar en el campo PdevName de salida del comando dymdg show dg.

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF2     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067      WD      4315
        }

    Device Group RDF Information
...

Para obtener los DID correspondientes, escriba:

# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108      pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
108      pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
# 

Para listar los DID correspondientes, escriba:

# cldevice show d108

=== DID Device Instances ===                   

DID Device Name:            /dev/did/rdsk/d108
  Full Device Path:               pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:               pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                    none
  default_fencing:                global

# 

Ejemplo 5-18 Combinación de instancias DID

Desde el lado RDF2, escriba:

# cldevice combine -t srdf -g dg1 -d d217 d108
# 

Ejemplo 5-19 Visualización de DID combinados

Desde cualquier nodo del cluster, escriba:

# cldevice show d217 d108
cldevice:  (C727402) Could not locate instance "108".

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     srdf
  default_fencing:                                 global

# 

Cómo recuperar los datos de EMC SRDF después de un fallo completo de la sala primaria

En este procedimiento, se realiza la recuperación de datos cuando la sala primaria de un cluster de campus ha fallado por completo, la sala primaria conmuta por error a la sala secundaria y, luego, se vuelve a conectar. La sala primaria de un cluster de campus es el nodo principal y el sitio de almacenamiento. Todo el fallo de una sala incluye el fallo del host y del almacenamiento en dicha sala. Si la sala primaria sala falla, Oracle Solaris Cluster pasa automáticamente conmuta por error automáticamente a la sala secundaria, hace que se pueda leer y escribir en el dispositivo de almacenamiento de la sala secundaria, y permite la conmutación por error de los grupos de dispositivos correspondientes y grupos de dispositivos y recursos correspondientes.

Cuando la sala primaria vuelve a conectarse, puede recuperar manualmente los datos del grupo de dispositivos SRDF que se hayan escrito en la sala secundaria y vuelva a sincronizar los datos. En este procedimiento, se recupera el grupo de dispositivos SRDF mediante la sincronización de los datos de la sala de secundaria original (en este procedimiento, se utiliza phys-campus-2 para la sala secundaria) a la sala primaria original ( phys-campus-1). También se cambia el tipo de grupo de dispositivos SRDF a RDF1 en phys-campus-2 y RDF2 en phys-campus-1.

Antes de empezar

Debe configurar el grupo de dispositivos DID y replicaciones EMC, además de registrar grupo de replicaciones EMC antes de realizar una conmutación por error manual. Para obtener información sobre cómo crear un grupo de dispositivos de Solaris Volume Manager, consulte Adición y registro de un grupo de dispositivos (Solaris Volume Manager).


Nota - En estas instrucciones, se muestra un método que puede utilizar para recuperar datos de SRDF manualmente después de que la sala primaria conmuta por error completamente y, luego, se vuelve a conectar. Compruebe la documentación de EMC para obtener más métodos.


Inicie sesión en la sala primaria de un cluster de campus para realizar estos pasos. En el procedimiento que se indica a continuación, dg1 es el nombre de grupo de dispositivos SRDF. En el momento del fallo, la sala primaria de este procedimiento es phys-campus-1 y la segunda sala es phys-campus-2.

  1. Inicie sesión en la sala principal de un cluster de campus, y conviértase en superusuario o asuma un rol que proporcione la autorización RBAC solaris.cluster.modify.
  2. De la sala primaria, utilice el comando symrdf para consultar el estado de la replicación de dispositivos RDF y ver la información acerca de los dispositivos.
    phys-campus-1# symrdf -g dg1 query

    Consejo - Un grupo que está en el estado dividido no está sincronizado.


  3. Si el par de RDF tiene estado dividido y el tipo de grupo de dispositivos es RDF1, fuerce una conmutación por error del grupo de dispositivos SRDF.
    phys-campus-1# symrdf -g dg1 -force failover
  4. Vea el estado de los dispositivos RDF.
    phys-campus-1# symrdf -g dg1 query
  5. Después de la conmutación por error, puede intercambiar los datos de los dispositivos RDF que tuvieron conmutación por error.
    phys-campus-1# symrdf -g dg1 swap
  6. Verifique el estado y otra información sobre dispositivos RDF.
    phys-campus-1# symrdf -g dg1 query
  7. Establezca el grupo de dispositivos SRDF en la sala primaria.
    phys-campus-1# symrdf -g dg1 establish
  8. Confirme si el grupo de dispositivos está en un estado sincronizado y si el tipo de grupo de dispositivos es RDF2.
    phys-campus-1# symrdf -g dg1 query

Ejemplo 5-20 Recuperación manual de datos de EMC SRDF después de una conmutación por error del sitio principal

En este ejemplo, se proporcionan los pasos específicos de Oracle Solaris Cluster que son necesarios para recuperar manualmente los datos de EMC SRDF después de que una sala primaria de un cluster de campus conmuta por error, una sala secundaria toma su lugar y registra los datos y, luego, la sala primaria vuelve a estar en línea. En el ejemplo, el grupo de dispositivos SRDF se denomina dg1 y el dispositivo lógico estándar es DEV001. La sala primaria es phys-campus-1 en el momento del fallo, y la sala secundaria es phys-campus-2. Siga los pasos que se indican en la sala primaria de un cluster de campus, phys-campus-1.

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012RW  0  0NR 0012RW  2031   O S.. Split

phys-campus-1# symdg list | grep RDF
dg1 RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 -force failover
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012  WD  0  0 NR 0012 RW  2031  O S..  Failed Over

phys-campus-1# symdg list | grep RDF
dg1  RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 swap
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 NR 0012 RW  0  2031 S.. Suspended

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 establish
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 RW 0012 RW  0  0 S.. Synchronized

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0