JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Guía de administración del sistema de Oracle Solaris Cluster
search filter icon
search icon

Información del documento

Prefacio

1.  Introducción a la administración de Oracle Solaris Cluster

2.  Oracle Solaris Cluster y RBAC

3.  Cierre y arranque de un clúster

4.  Métodos de replicación de datos

5.  Administración de dispositivos globales, supervisión de rutas de disco y sistemas de archivos de clúster

Información general sobre la administración de dispositivos globales y el espacio de nombre global

Permisos de dispositivos globales en Solaris Volume Manager

Reconfiguración dinámica con dispositivos globales

Aspectos que tener en cuenta en la administración de Veritas Volume Manager

Administración de dispositivos replicados basados en almacenamiento

Administración de dispositivos replicados mediante Hitachi TrueCopy

Configuración de un grupo de replicaciones de Hitachi TrueCopy

Configuración de dispositivos de DID para replicación mediante Hitachi TrueCopy

Comprobación de la configuración de un grupo de dispositivos globales replicado con Hitachi TrueCopy

Ejemplo: Configuración de un grupo de replicaciones de TrueCopy para Oracle Solaris Cluster

Administración de dispositivos replicados de EMC Symmetrix Remote Data Facility

Configuración de un grupo de replicaciones de EMC SRDF

Configuración de dispositivos de DID para la replicación con EMC SRDF

Comprobación de la configuración de un grupo de dispositivos globales replicado con EMC SRDF

Ejemplo: configurar un grupo de replicaciones de SRDF para Oracle Solaris Cluster

Información general sobre la administración de sistemas de archivos de clústers

Restricciones del sistema de archivos de clúster

Directrices para admitir VxFS

Administración de grupos de dispositivos

Actualización del espacio de nombre de dispositivos globales

Cómo cambiar el tamaño de un dispositivo lofi que se utiliza para el espacio de nombres de dispositivos globales

Migración del espacio de nombre de dispositivos globales

Migración del espacio de nombre de dispositivos globales desde una partición dedicada hasta un dispositivo de lofi

Migración del espacio de nombre de dispositivos globales desde un dispositivo de lofi hasta una partición dedicada

Adición y registro de grupos de dispositivos

Adición y registro de un grupo de dispositivos (Solaris Volume Manager)

Adición y registro de un grupo de dispositivos (disco básico)

Adición y registro de un grupo de dispositivos replicado (ZFS)

Creación de un nuevo grupo de discos al inicializar discos (Veritas Volume Manager)

Mantenimiento de grupos de dispositivos

Eliminación y anulación del registro de un grupo de dispositivos (Solaris Volume Manager)

Eliminación de un nodo de todos los grupos de dispositivos

Eliminación de un nodo de un grupo de dispositivos (Solaris Volume Manager)

Creación de un nuevo grupo de discos al encapsular discos (Veritas Volume Manager)

Adición de un volumen nuevo a un grupo de dispositivos ya creado (Veritas Volume Manager)

Conversión de un grupo de discos en un grupo de dispositivos (Veritas Volume Manager)

Asignación de un número menor nuevo a un grupo de dispositivos (Veritas Volume Manager)

Registro de un grupo de discos como grupo de dispositivos (Veritas Volume Manager)

Registro de modificaciones en la configuración de grupos de discos (Veritas Volume Manager)

Conversión de un grupo de discos local en un grupo de dispositivos (VxVM)

Conversión de un grupo de dispositivos en un grupo de discos local (VxVM)

Eliminación de un volumen de un grupo de dispositivos (Veritas Volume Manager)

Eliminación y anulación del registro de un grupo de dispositivos (Veritas Volume Manager)

Adición de un nodo a un grupo de dispositivos (Veritas Volume Manager)

Eliminación de un nodo de un grupo de dispositivos (Veritas Volume Manager)

Eliminación de un nodo de un grupo de dispositivos de discos básicos

Cambio de propiedades de los grupos de dispositivos

Establecimiento del número de secundarios para un grupo de dispositivos

Enumeración de la configuración de grupos de dispositivos

Conmutación al nodo primario de un grupo de dispositivos

Colocación de un grupo de dispositivos en estado de mantenimiento

Administración de la configuración del protocolo SCSI para dispositivos de almacenamiento

Visualización de la configuración del protocolo SCSI global predeterminado de todos los dispositivos de almacenamiento

Visualización del protocolo SCSI de un solo dispositivo de almacenamiento

Modificación de la configuración del protocolo de protección global predeterminado para todos los dispositivos de almacenamiento

Modificación del protocolo de protección en un solo dispositivo de almacenamiento

Administración de sistemas de archivos de clúster

Adición de un sistema de archivos de clúster

Eliminación de un sistema de archivos de clúster

Comprobación de montajes globales en un clúster

Administración de la supervisión de rutas de disco

Supervisión de una ruta de disco

Anulación de la supervisión de una ruta de disco

Impresión de rutas de disco erróneas

Resolución de un error de estado de ruta de disco

Supervisión de rutas de disco desde un archivo

Habilitación del rearranque automático de un nodo si fallan todas las rutas de disco compartido supervisadas

Inhabilitación del rearranque automático de un nodo si fallan todas las rutas de disco compartido supervisadas

6.  Administración de quórum

7.  Administración de interconexiones de clústers y redes públicas

8.  Adición y eliminación de un nodo

9.  Administración del clúster

10.  Configuración del control del uso de la CPU

11.  Aplicación de parches en el software y el firmware de Oracle Solaris Cluster

12.  Copias de seguridad y restauraciones de clústers

13.  Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario

A.  Ejemplo

Índice

Administración de dispositivos replicados basados en almacenamiento

Puede configurar un grupo de dispositivos de Oracle Solaris Cluster para que contenga dispositivos que se repliquen mediante la replicación basada en almacenamiento. Oracle Solaris Cluster admite el uso de Hitachi TrueCopy y EMC Symmetrix Remote Data Facility para la replicación basada en almacenamiento.

Antes de poder replicar datos con Hitachi TrueCopy o EMC Symmetrix Remote Data Facility, debe familiarizarse con la documentación sobre replicación basada en almacenamiento, y tener instalados en el sistema el producto de replicación basada en almacenamiento y sus parches más actuales. Si desea obtener información sobre cómo instalar el software de replicación basada en almacenamiento, consulte la documentación del producto.

El software de replicación basada en almacenamiento configura un par de dispositivos como réplicas: un dispositivo como réplica primaria y el otro como réplica secundaria. En un determinado momento, el dispositivo conectado a un conjunto de nodos convierte en la réplica primaria. El dispositivo conectado a otro conjunto de nodos es la réplica secundaria.

En la configuración de Oracle Solaris Cluster, la réplica primaria se desplaza automáticamente cada vez que se desplaza el grupo de dispositivos de Oracle Solaris Cluster al que pertenece. Por lo tanto, en una configuración de Oracle Solaris Cluster en principio la réplica primaria nunca se debe desplazar directamente. La toma de control debería tener lugar mediante el desplazamiento del grupo de dispositivos de Oracle Solaris Cluster asociado.


Precaución

Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager, Veritas Volume Manager o disco básico) debe ser idéntico al del grupo de dispositivos replicado.


Esta sección incluye los procedimientos siguientes:

Administración de dispositivos replicados mediante Hitachi TrueCopy

En la tabla siguiente figuran las tareas necesarias para configurar con Hitachi TrueCopy un dispositivo replicado basado en almacenamiento.

Tabla 5-2 Mapa de tareas: administrar un dispositivo replicado con Hitachi TrueCopy

Tarea
Instrucciones
Instalar el software de TrueCopy en los nodos y dispositivos de almacenamiento
Consulte la documentación proporcionada con el dispositivo de almacenamiento Hitachi.
Configurar el grupo de replicaciones de Hitachi
Configurar el dispositivo de DID
Registrar el grupo replicado
Comprobar la configuración

Configuración de un grupo de replicaciones de Hitachi TrueCopy

Antes de empezar

En primer lugar, configure los grupos de dispositivos de Hitachi TrueCopy en discos compartidos del clúster primario. La información sobre la configuración se especifica en el archivo /etc/horcm.conf en cada uno de los nodos del clúster que tenga acceso a la matriz de Hitachi. Si desea más información sobre cómo configurar el archivo /etc/horcm.conf, consulte Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide.


Precaución

Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que cree (Solaris Volume Manager, Veritas Volume Manager, ZFS o disco básico) debe ser idéntico al del grupo de dispositivos replicado.


  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify en todos los nodos conectados a la matriz de almacenamiento.
  2. Agregue la entrada horcm al archivo /etc/services.
    horcm  9970/udp

    Asigne un número de puerto y un nombre de protocolo a la nueva entrada.

  3. Especifique la información de configuración del grupo de dispositivos de Hitachi TrueCopy en el archivo /etc/horcm.conf.

    Si desea obtener instrucciones, consulte la documentación incluida con el software de TrueCopy.

  4. Inicie el daemon CCI de TrueCopy. Para ello, ejecute el comando horcmstart.sh en todos los nodos.
    # /usr/bin/horcmstart.sh
  5. Si aún no ha creado los pares de réplicas, hágalo ahora.

    Use el comando paircreate para crear los pares de réplicas con el nivel de protección que desee. Para obtener instrucciones sobre cómo crear los pares de réplicas, consulte la documentación de TrueCopy.

  6. Con el comando pairdisplay, compruebe que la replicación de datos se haya configurado correctamente en todos los nodos configurados. Un grupo de dispositivos de Hitachi TrueCopy o Hitachi Universal Replicator con un nivel de protección (fence_level) de ASYNC (asíncrono) no puede compartir el ctgid con ningún otro grupo de dispositivos del sistema.
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -
  7. Compruebe que todos los nodos puedan controlar los grupos de replicación.
    1. Con el comando pairdisplay, determine los nodos que contendrán la réplica primaria y la secundaria.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

      El nodo con el dispositivo local (L) en el estado P-VOL contiene la réplica primaria; el nodo con el dispositivo local (L) en el estado S-VOL contiene la réplica secundaria.

    2. Convierta al nodo secundario en el primario; para ello, ejecute el comando horctakeover en el nodo que contenga la réplica secundaria.
      # horctakeover -g group-name

      Espere a que finalice la copia inicial de los datos antes de continuar con el paso siguiente.

    3. Compruebe que el nodo que ejecutó horctakeover tenga el dispositivo local (L) en estado P-VOL.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..S-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..P-VOL PAIR NEVER ,----- 58   -
    4. Ejecute el comando horctakeover en el nodo que contenía originalmente la réplica primaria.
      # horctakeover -g group-name
    5. Compruebe, mediante la ejecución del comando pairdisplay, que el nodo primario haya vuelto a la configuración original.
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -
Pasos siguientes

Continúe la configuración del dispositivo replicado conforme a las instrucciones de Configuración de dispositivos de DID para replicación mediante Hitachi TrueCopy.

Configuración de dispositivos de DID para replicación mediante Hitachi TrueCopy

Antes de empezar

Tras haber configurado un grupo de dispositivos para el dispositivo replicado, debe configurar el controlador del DID utilizado por el dispositivo replicado.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify en todos los nodos del clúster.
  2. Compruebe que el daemon horcmd se ejecute en todos los nodos.

    El comando siguiente inicia el daemon si no todavía no está ejecutándose. Si el daemon ya se está ejecutando, el sistema muestra un mensaje.

    # /usr/bin/horcmstart.sh
  3. Determine el nodo que contiene la réplica secundaria; para ello, ejecute el comando pairdisplay.
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

    El nodo con el dispositivo local (L) en estado S-VOL contiene la réplica secundaria.

  4. En el nodo con la réplica secundaria (determinado por el paso anterior), configure los dispositivos de DID para usarlos con la replicación basada en almacenamiento.

    Este comando combina las dos instancias de DID de los pares de réplicas de dispositivos en una sola instancia de DID lógica. La instancia única permite que el software de administración de volúmenes use el dispositivo desde ambas partes.


    Precaución

    Precaución - Si hay varios nodos conectados a la réplica secundaria, ejecute este comando sólo en uno de ellos.


    # cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
    nombre_nodo_réplica_primaria

    Especifica el nombre del nodo remoto que contiene la réplica primaria.

    -S

    Especifica un nodo de origen distinto del nodo actual.

    nombre_nodo_réplica_secundaria

    Especifica el nombre del nodo remoto que contiene la réplica secundaria.


    Nota - De forma predeterminada, el nodo actual es el nodo de origen. Use la opción -S para indicar otro nodo de origen.


  5. Compruebe que se hayan combinado las instancias de DID.
    # cldevice list -v logical_DID_device
  6. Compruebe que esté establecida la replicación de TrueCopy.
    # cldevice show logical_DID_device

    En principio, la salida del comando indica que el tipo de replicación es TrueCopy.

  7. Si la reasignación de DID no combina correctamente todos los dispositivos replicados, combine los dispositivos replicados uno por uno manualmente.

    Precaución

    Precaución - Extreme las precauciones al combinar instancias de DID de forma manual. Una reasignación incorrecta de los dispositivos podría causar daños en los datos.


    1. Ejecute el comando cldevice combine en todos los nodos que contengan la réplica secundaria.
      # cldevice combine -d destination-instance source-instance
      -d instancia_destino

      La instancia de DID remota, que corresponde a la réplica primaria.

      instancia_origen

      La instancia de DID local, que corresponde a la réplica secundaria.

    2. Compruebe que la reasignación de DID haya sido correcta.
      # cldevice list desination-instance source-instance

    Una de las instancias de DID no debería figurar en la lista.

  8. Compruebe que en todos los nodos se pueda tener acceso a los dispositivos de DID de todas las instancias de DID combinadas.
    # cldevice list -v
Pasos siguientes

Para finalizar la configuración del grupo de dispositivos replicado, efectúe los pasos de los procedimientos siguientes.

Comprobación de la configuración de un grupo de dispositivos globales replicado con Hitachi TrueCopy

Antes de empezar

Antes de poder comprobarse es preciso crear el grupo de dispositivos globales. Puede usar grupos de dispositivos de Solaris Volume Manager, Veritas Volume Manager, ZFS o disco básico. Si desea obtener más información, consulte:


Precaución

Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager, Veritas Volume Manager o disco básico) debe ser idéntico al del grupo de dispositivos replicado.


phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Compruebe que el grupo de dispositivos primario se corresponda con el mismo nodo que contiene la réplica primaria.
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
  2. Compruebe que la propiedad de replicación esté configurada para el grupo de dispositivos.
    # cldevicegroup show -n nodename group-name
  3. Compruebe que la propiedad replicada esté configurada para el dispositivo.
    # usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
  4. Realice una conmutación de prueba para asegurarse de que los grupos de dispositivos estén bien configurados y que las réplicas puedan desplazarse de unos nodos a otros.

    Si el grupo de dispositivos está fuera de línea, póngalo en línea.

    # cldevicegroup switch -n nodename group-name
    -n nombre_nodo

    El nodo al que se conmuta el grupo de dispositivos. Este nodo se convierte en el nuevo nodo primario.

  5. Compruebe que la conmutación haya sido correcta. Para ello, compare la salida de los comandos siguientes.
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
Ejemplo: Configuración de un grupo de replicaciones de TrueCopy para Oracle Solaris Cluster

En este ejemplo se realizan todos los pasos de Oracle Solaris Cluster necesarios para configurar una replicación de TrueCopy en el clúster. En el ejemplo se supone que ya se han realizado las tareas siguientes:

En este ejemplo aparece un clúster de tres nodos que usa TrueCopy. El clúster se distribuye en dos sitios remotos: dos nodos en el primero, y otro nodo en el segundo. Cada sitio dispone de su propio dispositivo de almacenamiento de Hitachi.

Los ejemplos siguientes muestran el archivo de configuración /etc/horcm.conf de TrueCopy en cada nodo.

Ejemplo 5-1 Archivo de configuración de TrueCopy en el nodo 1

HORCM_DEV 
#dev_group     dev_name    port#       TargetID     LU#       MU# 
VG01           pair1       CL1-A         0          29 
VG01           pair2       CL1-A         0          30 
VG01           pair3       CL1-A         0          31 
HORCM_INST 
#dev_group     ip_address   service 
VG01           node-3       horcm

Ejemplo 5-2 Archivo de configuración de TrueCopy en el nodo 2

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU#
VG01              pair1          CL1-A         0         29 
VG01              pair2          CL1-A         0         30 
VG01              pair3          CL1-A         0         31 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-3          horcm

Ejemplo 5-3 Archivo de configuración de TrueCopy en el nodo 3

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU# 
VG01              pair1          CL1-C         0         09 
VG01              pair2          CL1-C         0         10 
VG01              pair3          CL1-C         0         11 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-1          horcm 
VG01              node-2          horcm

En los ejemplos anteriores, se replican tres LUN entre los dos sitios. Todos los LUN están en un grupo de replicaciones denominado VG01. El comando pairdisplay comprueba esta información y muestra que el nodo 3 tiene la réplica primaria.

Ejemplo 5-4 Salida del comando pairdisplay en el nodo 1

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

Ejemplo 5-5 Salida del comando pairdisplay en el nodo 2

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

Ejemplo 5-6 Salida del comando pairdisplay en el nodo 3

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair1(R)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair2(L)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair2(R)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair3(L)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  - 
VG01    pair3(R)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 

Para ver los discos que se están usando, emplee la opción -fd del comando pairdisplay, como se muestra en los ejemplos siguientes.

Ejemplo 5-7 Salida del comando pairdisplay en el nodo 1 con los discos usados

# pairdisplay -fd -g VG01 
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M 
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  - 
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

Ejemplo 5-8 Salida del comando pairdisplay en el nodo 2 con los discos usados

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  -
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  -
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  -
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER  ,61114    30  -
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  -
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

Ejemplo 5-9 Salida del comando pairdisplay en el nodo 3 con los discos usados

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M 
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064  58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114  29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114  30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064  60..P-VOL PAIR NEVER  ,61114    31  - 
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114  31..S-VOL PAIR NEVER  ,-----    60  -

Los ejemplos muestran que están en uso los discos siguientes:

Para ver los dispositivos de DID que corresponden a estos discos, use el comando cldevice list como se muestra en los ejemplos siguientes.

Ejemplo 5-10 Visualización de los DID correspondientes a los discos usados

# cldevice list -v

DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
12              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
12              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
13              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
13              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
14              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
14              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223  
23              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

Al combinar las instancias de DID de cada par de dispositivos replicados, cldevice list debe combinar la instancia de DID 12 con la 22, la instancia 13 con la 23 y la instancia 14 con la 24. Como el nodo 3 tiene la réplica primaria, ejecute el comando cldevice -T, desde el nodo 1 o el nodo 2. Combine siempre las instancias desde un nodo que tenga la réplica secundaria. Ejecute este comando sólo desde un nodo, no en ambos nodos.

El ejemplo siguiente muestra la salida obtenida al combinar instancias de DID ejecutando el comando en el nodo 1.

Ejemplo 5-11 Combinación de instancias de DID

# cldevice replicate -D node-3
Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

Al comprobar la salida de cldevice list, los LUN de ambos sitios tienen la misma instancia de DID. Al tener la misma instancia de DID, cada par de réplicas parece un único dispositivo de DID, como se muestra en el ejemplo siguiente.

Ejemplo 5-12 Visualización de DID combinados

# cldevice list -v
DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222  
22          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22
23          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

El paso siguiente es crear el grupo de dispositivos de administrador de volúmenes. Ejecute este comando desde el nodo que tenga la réplica primaria, en este ejemplo el nodo 3. Asigne al grupo de dispositivos el mismo nombre que al grupo de réplica, como se muestra en el ejemplo siguiente.

Ejemplo 5-13 Creación del grupo de dispositivos de Solaris Volume Manager

# metaset -s VG01 -ah phys-deneb-3
# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1

Host                Owner
  phys-deneb-3       Yes
  phys-deneb-1
  phys-deneb-2

Drive Dbase
d22   Yes
d23   Yes
d24   Yes

En este punto, el grupo de dispositivos está disponible para su uso, se pueden crear metadispositivos y el grupo de dispositivos se puede desplazar a cualquiera de los tres nodos. Sin embargo, para incrementar la eficiencia de las conmutaciones y las migraciones tras error, ejecute cldevicegroup set para marcar el grupo de dispositivos como replicado en la configuración del clúster.

Ejemplo 5-14 Transformación de las conmutaciones y las migraciones tras error en procesos eficientes

# cldevicegroup sync VG01 
# cldevicegroup show VG01
=== Device Groups===

Device Group Name                       VG01   
  Type:                                   SVM   
  failback:                               no   
  Node List:                              phys-deneb-3, phys-deneb-1, phys-deneb-2   
  preferenced:                            yes   
  numsecondaries:                         1   
  device names:                           VG01   
  Replication type:                       truecopy

La configuración del grupo de replicaciones se completa con este paso. Para comprobar que la configuración haya sido correcta, siga los pasos descritos en Comprobación de la configuración de un grupo de dispositivos globales replicado con Hitachi TrueCopy.

Administración de dispositivos replicados de EMC Symmetrix Remote Data Facility

En la tabla siguiente se enumeran las tareas necesarias para configurar y administrar un dispositivo replicado basado en almacenamiento de EMC Symmetrix Remote Data Facility (SRDF).

Tabla 5-3 Mapa de tareas: administrar un dispositivo replicado basado en almacenamiento de EMC SRDF

Tarea
Instrucciones
Instalar el software de SRDF en el dispositivo de almacenamiento y los nodos
La documentación incluida con el dispositivo de almacenamiento EMC.
Configurar el grupo de replicaciones de EMC
Configurar el dispositivo de DID
Registrar el grupo replicado
Comprobar la configuración
Recuperar los datos de forma manual después de que la sala primaria de un clúster de campus falle por completo

Configuración de un grupo de replicaciones de EMC SRDF

Antes de empezar

Antes de configurar un grupo de replicaciones de EMC SRDF, el software EMC Solutions Enabler debe estar instalado en todos los nodos del clúster . En primer lugar, configure los grupos de dispositivos EMC SRDF en los discos compartidos del clúster. Si desea más información sobre cómo configurar los grupos de dispositivos EMC SRDF, consulte la documentación de EMC SRDF.

Con EMC SRDF, emplee dispositivos dinámicos, no estáticos. Los dispositivos estáticos necesitan varios minutos para cambiar el nodo primario de replicación y pueden afectar al tiempo de migración tras error.


Precaución

Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager, Veritas Volume Manager o disco básico) debe ser idéntico al del grupo de dispositivos replicado.


  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify en todos los nodos conectados a la matriz de almacenamiento.
  2. En cada nodo configurado con los datos replicados, descubra la configuración de dispositivo de Symmetrix.

    Este proceso puede tardar unos minutos.

    # /usr/symcli/bin/symcfg discover
  3. Si aún no ha creado los pares de réplicas, hágalo ahora.

    Para crear los pares de réplicas, use el comando symrdf. Si desea obtener instrucciones sobre cómo crear pares de réplicas, consulte la documentación de SRDF.

  4. Compruebe que la replicación de datos esté correctamente configurada en cada nodo configurado con dispositivos replicados.
    # /usr/symcli/bin/symdg show group-name
  5. Realice un intercambio del grupo de dispositivos.
    1. Compruebe que las réplicas primaria y secundaria estén sincronizadas.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
    2. Determine los nodos que contienen la réplica primaria y la secundaria. Para ello, ejecute el comando symdg show.
      # /usr/symcli/bin/symdg show group-name

      El nodo con el estado de dispositivo de RDF1 contiene la réplica primaria; el nodo con el estado de dispositivo de RDF2 contiene la réplica secundaria.

    3. Habilite la réplica secundaria.
      # /usr/symcli/bin/symrdf -g group-name failover
    4. Intercambie los dispositivos de RDF1 y RDF2.
      # /usr/symcli/bin/symrdf -g group-name swap -refresh R1
    5. Habilite el par de réplicas.
      # /usr/symcli/bin/symrdf -g group-name establish
    6. Compruebe que el nodo primario y las réplicas secundarias estén sincronizados.
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
  6. Repita todo el paso 5 en el nodo que contenía originalmente la réplica primaria.
Pasos siguientes

Tras haber configurado un grupo de dispositivos para el dispositivo replicado EMC SRDF, debe configurar el controlador de DID utilizado por el dispositivo replicado.

Configuración de dispositivos de DID para la replicación con EMC SRDF

Este procedimiento configura el controlador de DID que emplea el dispositivo replicado.

Antes de empezar

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify en todos los nodos del clúster.
  2. Determine los dispositivos de DID que se corresponden con los dispositivos de RDF1 y de RDF2 configurados.
    # /usr/symcli/bin/symdg show group-name

    Nota - Si el sistema no muestra todos los parches del dispositivo de Oracle Solaris, establezca en 1 la variable de entorno SYMCLI_FULL_PDEVNAME y vuelva a escribir el comando symdg -show.


  3. Determine los dispositivos de DID que se corresponden con los dispositivos de Oracle Solaris.
    # cldevice list -v
  4. Para cada par de dispositivos de DID emparejados, combine las instancias de forma que obtenga un único dispositivo de DID replicado. Ejecute el comando siguiente desde la parte secundaria o RDF2.
    # cldevice combine -t srdf -g replication-device-group \ -d destination-instance source-instance

    Nota - Los dispositivos de replicación de datos de SRDF no admiten la opción -T.


    -t tipo_replicación

    Especifica el tipo de replicación. Para EMC SRDF, escriba SRDF.

    -g grupo_dispositivos_replicación

    Especifica el nombre del grupo de dispositivos como se muestra en el comando symdg show.

    -d instancia_destino

    Especifica la instancia de DID que se corresponde con el dispositivo de RDF1.

    instancia_origen

    Especifica la instancia de DID que se corresponde con el dispositivo de RDF2.


    Nota - Si comete una equivocación al combinar un dispositivo de DID, use la opción -b con el comando scdidadm para deshacer la combinación de dos dispositivos de DID.

    # scdidadm -b device 
    -b dispositivo

    La instancia de DID que se correspondía con el dispositivo de destino cuando las instancias estaban combinadas.


  5. Si se modifica el nombre de un grupo de dispositivos de replicación, en Hitachi TrueCopy y SRDF habrá que efectuar más pasos. Tras haber completado los pasos del 1 al 4, realice el paso adicional correspondiente.
    Elemento
    Descripción
    TrueCopy
    Si se cambia el nombre del grupo de dispositivos de replicación (y del grupo de dispositivos globales correspondiente), debe volver a ejecutar el comando cldevice replicate para actualizar la información sobre el dispositivo replicado.
    SRDF
    Si se cambia el nombre del grupo de dispositivos de replicación (y el del grupo de dispositivos globales correspondiente); debe actualizar la información del dispositivo replicado con el comando scdidadm -b para eliminar la información ya presente. El último paso consiste en emplear el comando cldevice combine para crear un dispositivo actualizado.
  6. Compruebe que se hayan combinado las instancias de DID.
    # cldevice list -v device
  7. Compruebe que esté configurada la replicación de SRDF.
    # cldevice show device
  8. Compruebe que en todos los nodos se pueda tener acceso a los dispositivos de DID de todas las instancias de DID combinadas.
    # cldevice list -v
Pasos siguientes

Tras configurar el controlador de identificador de dispositivos (DID) empleado por el dispositivo replicado, compruebe la configuración del grupo de dispositivos globales replicado con EMC SRDF.

Comprobación de la configuración de un grupo de dispositivos globales replicado con EMC SRDF

Antes de empezar

Antes de poder comprobarse es preciso crear el grupo de dispositivos globales. Puede usar grupos de dispositivos de Solaris Volume Manager, Veritas Volume Manager, ZFS o disco básico. Si desea obtener más información, consulte:


Precaución

Precaución - El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado (Solaris Volume Manager, Veritas Volume Manager o disco básico) debe ser idéntico al del grupo de dispositivos replicado.


phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Compruebe que el grupo de dispositivos primario se corresponda con el mismo nodo que contiene la réplica primaria.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
  2. Realice una conmutación de prueba para asegurarse de que los grupos de dispositivos estén bien configurados y que las réplicas puedan desplazarse de unos nodos a otros.

    Si el grupo de dispositivos está fuera de línea, póngalo en línea.

    # cldevicegroup switch -n nodename group-name
    -n nombre_nodo

    El nodo al que se conmuta el grupo de dispositivos. Este nodo se convierte en el nuevo nodo primario.

  3. Compruebe que la conmutación haya sido correcta. Para ello, compare la salida de los comandos siguientes.
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
Ejemplo: configurar un grupo de replicaciones de SRDF para Oracle Solaris Cluster

Este ejemplo muestra cómo efectuar los pasos de Oracle Solaris Cluster que necesarios para configurar la replicación con SRDF en el clúster. En el ejemplo se supone que ya se han realizado las tareas siguientes:

Este ejemplo aparece un clúster de cuatro nodos: dos de ellos están conectados a un dispositivo de Symmetrix y los otros dos están conectados a un segundo dispositivo de Symmetrix. El grupo de dispositivos de SRDF se denomina dg1.

Ejemplo 5-15 Creación de pares de réplicas

Ejecute los comandos siguientes en todos los nodos.

# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd

Symmetrix ID: 000187990182

        Device Name          Directors                   Device                
--------------------------- ------------ --------------------------------------
                                                                           Cap 
Sym  Physical               SA :P DA :IT  Config        Attribute    Sts   (MB)
--------------------------- ------------- -------------------------------------

0067 c5t600604800001879901* 16D:0 02A:C1  RDF2+Mir      N/Grp'd      RW    4315
0068 c5t600604800001879901* 16D:0 16B:C0  RDF1+Mir      N/Grp'd      RW    4315
0069 c5t600604800001879901* 16D:0 01A:C0  RDF1+Mir      N/Grp'd      RW    4315
...

En todos los nodos de la parte de RDF1, escriba:

# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

En todos los nodos de la parte de RDF2, escriba:

# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067

Ejemplo 5-16 Comprobación de la configuración de la replicación de datos

Desde un nodo del clúster, escriba:

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
    Device Group in GNS                          : No
    Valid                                        : Yes
    Symmetrix ID                                 : 000187900023
    Group Creation Time                          : Thu Sep 13 13:21:15 2007
    Vendor ID                                    : EMC Corp
    Application ID                               : SYMCLI

    Number of STD Devices in Group               :    1
    Number of Associated GK's                    :    0
    Number of Locally-associated BCV's           :    0
    Number of Locally-associated VDEV's          :    0
    Number of Remotely-associated BCV's (STD RDF):    0
    Number of Remotely-associated BCV's (BCV RDF):    0
    Number of Remotely-assoc'd RBCV's (RBCV RDF) :    0

    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...
# symrdf -g dg1 establish

Execute an RDF 'Incremental Establish' operation for device
group 'dg1' (y/[n]) ? y

An RDF 'Incremental Establish' operation execution is
in progress for device group 'dg1'. Please wait...

    Write Disable device(s) on RA at target (R2)..............Done.
    Suspend RDF link(s).......................................Done.
    Mark target (R2) devices to refresh from source (R1)......Started.
    Device: 0067 ............................................ Marked.
    Mark target (R2) devices to refresh from source (R1)......Done.
    Merge device track tables between source and target.......Started.
    Device: 0067 ............................................ Merged.
    Merge device track tables between source and target.......Done.
    Resume RDF link(s)........................................Started.
    Resume RDF link(s)........................................Done.

The RDF 'Incremental Establish' operation successfully initiated for
device group 'dg1'.

#  
# symrdf -g dg1 query  


Device Group (DG) Name             : dg1
DG's Type                          : RDF2
DG's Symmetrix ID                  : 000187990182


       Target (R2) View                 Source (R1) View     MODES           
--------------------------------    ------------------------ ----- ------------
             ST                  LI      ST                                    
Standard      A                   N       A                                   
Logical       T  R1 Inv   R2 Inv  K       T  R1 Inv   R2 Inv       RDF Pair    
Device  Dev   E  Tracks   Tracks  S Dev   E  Tracks   Tracks MDA   STATE       
-------------------------------- -- ------------------------ ----- ------------

DEV001  0067 WD       0        0 RW 0067 RW       0        0 S..   Synchronized

Total          -------- --------           -------- --------
  MB(s)             0.0      0.0                0.0      0.0

Legend for MODES:

 M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
 D(omino)           : X = Enabled, . = Disabled
 A(daptive Copy)    : D = Disk Mode, W = WP Mode, . = ACp off

# 

Ejemplo 5-17 Visualización de los DID correspondientes a los discos usados

El mismo procedimiento es válido para las partes de RDF1 y de RDF2.

Observe el campo PdevName de la salida del comando dymdg show dg.

En la parte de RDF1, escriba:

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...

Para obtener el DID correspondiente, escriba:

# scdidadm -L | grep c5t6006048000018790002353594D303637d0
217      pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217   
217      pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 
#

Para que se muestre el DID correspondiente, escriba:

# cldevice show d217

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 

En la parte de RDF2, escriba:

Observe el campo PdevName de la salida del comando dymdg show dg.

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF2     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067      WD      4315
        }

    Device Group RDF Information
...

Para obtener el DID correspondiente, escriba:

# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108      pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
108      pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
# 

Para que se muestre el DID correspondiente, escriba:

# cldevice show d108

=== DID Device Instances ===                   

DID Device Name:            /dev/did/rdsk/d108
  Full Device Path:               pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:               pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                    none
  default_fencing:                global

# 

Ejemplo 5-18 Combinación de instancias de DID

Desde la parte de RDF2, escriba:

# cldevice combine -t srdf -g dg1 -d d217 d108
# 

Ejemplo 5-19 Visualización de DID combinados

Desde cualquier nodo del clúster, escriba:

# cldevice show d217 d108
cldevice:  (C727402) Could not locate instance "108".

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     srdf
  default_fencing:                                 global

# 

Recuperación de datos de EMC SRDF tras un error completo de la sala primaria

Este procedimiento realiza una recuperación de los datos cuando la sala primaria de un clúster de campus experimenta un error completo; la sala primaria migra tras error a una sala secundaria; posteriormente, la sala primaria vuelve a estar en línea. La sala primaria del clúster de campus es el nodo primario y el sitio de almacenamiento. El error completo de una sala incluye el del host y el del almacenamiento de dicha sala. Si hay un error en la sala primaria, automáticamente Oracle Solaris Cluster migra tras error a la sala secundaria, posibilita la lectura y escritura en el almacenamiento de la sala secundaria, y habilita la migración tras error de los grupos de dispositivos y de recursos correspondientes.

Cuando la sala primaria vuelve a estar en línea, los datos del grupo de dispositivos de SRDF escritos en la sala secundaria se pueden recuperar manualmente y volver a sincronizarse. Este procedimiento recupera el grupo de dispositivos de SRDF sincronizando la sala secundaria original (este procedimiento emplea phys-campus-2 para la sala secundaria) con la sala primaria original (phys-campus-1). El procedimiento también cambia el tipo de grupo de dispositivos de SRDF a RDF1 en phys-campus-2 y a RDF2 en phys-campus-1.

Antes de empezar

Antes de poder realizar manualmente una migración tras error, debe configurar el grupo de replicaciones de EMC y los dispositivos de DID, así como registrar el grupo de replicaciones de EMC. Si desea obtener información sobre cómo crear un grupo de dispositivos de Solaris Volume Manager, consulte Adición y registro de un grupo de dispositivos (Solaris Volume Manager). Si desea obtener información sobre cómo crear un grupo de dispositivos de Veritas Volume Manager, consulte Creación de un nuevo grupo de discos al encapsular discos (Veritas Volume Manager).


Nota - Estas instrucciones presentan un método válido para recuperar datos de SRDF manualmente tras error completo de la sala primaria y volver a estar en línea. Consulte la documentación de EMC para ver otros métodos.


Inicie sesión en la sala primaria del clúster de campus para seguir estos pasos. En el procedimiento que se describe a continuación, dg1 es el nombre del grupo de dispositivos de SRDF. En el momento del error, la sala primaria de este procedimiento es phys-campus-1 y la sala secundaria es phys-campus-2.

  1. Inicie sesión en la sala primaria del clúster de campus y conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify.
  2. En la sala primaria, use el comando symrdf para consultar el estado de replicación de los dispositivos de RDF y visualizar información acerca de ellos.
    phys-campus-1# symrdf -g dg1 query

    Consejo - Los grupos de dispositivos con estado split (dividido) no están sincronizados.


  3. Si el estado del par de RDF es split (dividido) y el tipo de grupo de dispositivos es RDF1, fuerce una migración tras error del grupo de dispositivos de SRDF.
    phys-campus-1# symrdf -g dg1 -force failover
  4. Visualice el estado de los dispositivos de RDF.
    phys-campus-1# symrdf -g dg1 query
  5. Después de la migración tras error, puede intercambiar los datos de los dispositivos de RDF que efectuaron la migración.
    phys-campus-1# symrdf -g dg1 swap
  6. Compruebe el estado y demás información relativa a los dispositivos de RDF.
    phys-campus-1# symrdf -g dg1 query
  7. Establezca el grupo de dispositivos de SRDF en la sala primaria.
    phys-campus-1# symrdf -g dg1 establish
  8. Confirme que el grupo de dispositivos esté sincronizado y que sea del tipo RDF2.
    phys-campus-1# symrdf -g dg1 query

Ejemplo 5-20 Recuperación manual de datos de EMC SRDF después de una migración tras error habida en un sitio primario

Este ejemplo muestra los pasos necesarios en Oracle Solaris Cluster para recuperar manualmente los datos de EMC SRDF después de que la sala primaria de un clúster de campus migre tras error, una sala secundaria controle y registre los datos y, posteriormente, la sala primaria vuelva a estar en línea. En el ejemplo, el grupo de dispositivos de SRDF se denomina dg1 y el dispositivo lógico estándar es DEV001. En el momento del error, la sala primaria es phys-campus-1 y la sala secundaria es phys-campus-2. Efectúe los pasos desde la sala primaria del clúster de campus, phys-campus-1.

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012RW  0  0NR 0012RW  2031   O S.. Split

phys-campus-1# symdg list | grep RDF
dg1 RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 -force failover
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012  WD  0  0 NR 0012 RW  2031  O S..  Failed Over

phys-campus-1# symdg list | grep RDF
dg1  RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 swap
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 NR 0012 RW  0  2031 S.. Suspended

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 establish
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 RW 0012 RW  0  0 S.. Synchronized

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0