En este apéndice, se proporciona una replicación alternativa basada en host que no utiliza Oracle Solaris Cluster Cluster Geographic Edition. Oracle recomienda el uso de Oracle Solaris Cluster Geographic Edition para la replicación basada en host con el fin de simplificar la configuración y el funcionamiento de la replicación basada en host entre clusters. Consulte Comprensión de la replicación de datos.
En el ejemplo de este apéndice, se muestra cómo configurar la replicación de datos basada en host entre clusters con el software Función Availability Suite de Oracle Solaris. El ejemplo muestra una configuración de cluster completa para una aplicación NFS que proporciona información detallada sobre cómo realizar tareas individuales. Todas las tareas deben llevarse a cabo en el cluster global. El ejemplo no incluye todos los pasos necesarios para otras aplicaciones ni las configuraciones de otros clusters.
Si utiliza el control de acceso basado en roles (RBAC) para acceder a los nodos del cluster, asegúrese de poder asumir un rol de RBAC que proporcione autorización para todos los comandos de Oracle Solaris Cluster. Esta serie de replicación de datos necesita las siguientes autorizaciones RBAC de Oracle Solaris Cluster:
solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read
Consulte Protección de los usuarios y los procesos en Oracle Solaris 11.2 para obtener más información sobre el uso de roles RBAC. Consulte las páginas del comando man de Oracle Solaris Cluster para saber la autorización de RBAC que requiere cada subcomando de Oracle Solaris Cluster.
Esta sección presenta la tolerancia ante desastres y describe los métodos de replicación de datos que utiliza el software de Sun StorageTek Availability Suite
La tolerancia a desastres es la capacidad de restaurar una aplicación en un cluster alternativo cuando el cluster principal falla. La tolerancia a desastres se basa en la replicación de datos y la recuperación. Una recuperación reubica un servicio de aplicaciones en un cluster secundario estableciendo en línea uno o más grupos de recursos y grupos de dispositivos.
Si los datos se replican de manera síncrona entre el cluster principal y el secundario, no se pierde ningún dato comprometido cuando el sitio principal falla. Sin embargo, si los datos se replican de manera asíncrona, es posible que algunos datos no se repliquen en el cluster secundario antes del fallo del sitio principal y, por lo tanto, se pierdan.
Esta sección describe los métodos de replicación por duplicación remota y de instantánea de un momento determinado utilizados por Sun StorageTek Availability Suite. Este software utiliza los comandos sndradm e iiadm para replicar datos. Para obtener más información, consulte las páginas del comando man sndradm(1M) y iiadm(1M).
La Figure A–1 muestra la replicación de reflejo remoto. Los datos del volumen maestro del disco primario se duplican en el volumen maestro del disco secundario mediante una conexión TCP/IP. Un mapa de bits de duplicación remota controla las diferencias entre el volumen maestro del disco primario y el del secundario.
Figura A-1 Replicación de reflejo remoto
La replicación por duplicación remota se puede efectuar de manera sincrónica en tiempo real o de manera asincrónica. Cada volumen definido en cada cluster se puede configurar de manera individual, para replicación sincrónica o asincrónica.
En una replicación de datos síncrona, no se confirma la finalización de una operación de escritura hasta que se haya actualizado el volumen remoto.
En una replicación de datos asíncrona, se confirma la finalización de una operación de escritura antes de que se actualice el volumen remoto La replicación asincrónica de datos proporciona una mayor flexibilidad en largas distancias y poco ancho de banda.
La Figure A–2 muestra una instantánea de un momento determinado. Los datos del volumen primario de cada disco se copian en el volumen sombra del mismo disco. El mapa de bits instantáneo controla y detecta las diferencias entre el volumen primario y el volumen sombra. Cuando los datos se copian en el volumen sombra, el mapa de bits de un momento determinado se vuelve a configurar.
Figura A-2 Instantánea de un momento determinado
La Figure A–3 ilustra la forma en que se usan la replicación por duplicación remota y la instantánea de un momento determinado en este ejemplo de configuración.
Figura A-3 Replicación en la configuración de ejemplo
En esta sección, se proporcionan directrices para configurar la replicación de datos entre clusters. Asimismo, se proporcionan consejos para configurar los grupos de recursos de replicaciones y los de recursos de aplicaciones. Use estas directrices cuando esté configurando la replicación de datos en el cluster.
En esta sección se analizan los aspectos siguientes:
Los grupos de recursos de replicaciones sitúan el grupo de dispositivos bajo el control del software Sun StorageTek Availability Suite con un recurso de nombre de host lógico. Debe existir un nombre de host lógico en cada extremo del flujo de replicación de datos y debe encontrarse en el mismo nodo del cluster que actúa como la ruta de E/S principal para el dispositivo. Un grupo de recursos de replicaciones debe tener las características siguientes:
Ser un grupo de recursos de migración tras error.
Un recurso de migración tras error sólo puede ejecutarse en un nodo a la vez. Cuando se produce la migración tras error, los recursos de recuperación participan en ella.
Tener un recurso de nombre de host lógico.
Un nombre de host lógico se aloja en un nodo de cada cluster (principal y secundario) y se utiliza para proporcionar direcciones de origen y destino para el flujo de replicación de datos del software Sun StorageTek Availability Suite.
Tener un recurso HAStoragePlus.
El recurso de HAStoragePlus fuerza la migración tras error del grupo de dispositivos si el grupo de recursos de replicaciones se conmuta o migra tras error. Oracle Solaris Cluster también fuerza la migración tras error del grupo de recursos de replicaciones si el grupo de dispositivos se conmuta. De este modo, es siempre el mismo nodo el que sitúa o controla el grupo de recursos de replicaciones y el de dispositivos.
Las propiedades de extensión siguientes se deben definir en el recurso de HAStoragePlus:
GlobalDevicePaths. La propiedad de esta extensión define el grupo de dispositivos al que pertenece un volumen.
AffinityOn property = True. La propiedad de esta extensión provoca que el grupo de dispositivos se conmute o migre tras error si el grupo de recursos de replicaciones también lo hace. Esta función se denomina conmutación de afinidad.
Para obtener más información sobre HAStoragePlus, consulte la página del comando man SUNW.HAStoragePlus(5).
Recibir el nombre del grupo de dispositivos con el que se coloca, seguido de -stor-rg
Por ejemplo, devgrp-stor-rg.
Estar en línea en el cluster primario y en el secundario
Para estar ampliamente disponible, una aplicación se debe gestionar como un recurso en un grupo de recursos de aplicaciones. Un grupo de recursos de aplicaciones se puede configurar en una aplicación de migración tras error o en una aplicación escalable.
La propiedad de extensión ZPoolsSearchDir se debe definir en el recurso HAStoragePlus. Esta propiedad de extensión es necesaria para utilizar el sistema de archivos ZFS.
Los recursos de aplicaciones y los grupos de recursos de aplicaciones configurados en el cluster primario también se deben configurar en el cluster secundario. Asimismo, se deben replicar en el cluster secundario los datos a los que tiene acceso el recurso de aplicaciones.
Esta sección proporciona directrices para la configuración de grupos de recursos de aplicaciones siguientes:
Configuración de grupos de recursos en una aplicación de migración tras error
Configuración de grupos de recursos en una aplicación escalable
En una aplicación de migración tras error, una aplicación se ejecuta en un solo nodo a la vez. Si éste falla, la aplicación migra a otro nodo del mismo cluster. Un grupo de recursos de una aplicación de migración tras error debe tener las características siguientes:
Debe tener un recurso de HAStoragePlus para aplicar la conmutación por error del sistema de archivos o zpool cuando el grupo de recursos de aplicaciones se conmuta.
El grupo de dispositivos se coloca con el grupo de recursos de replicaciones y el grupo de recursos de aplicaciones. Por este motivo, la migración tras error del grupo de recursos de aplicaciones fuerza la migración de los grupos de dispositivos y de recursos de replicaciones. El mismo nodo controla los grupos de recursos de aplicaciones y de recursos de replicaciones, y el grupo de dispositivos.
Sin embargo, que una migración tras error del grupo de dispositivos o del grupo de recursos de replicaciones no desencadena una migración tras error en el grupo de recursos de aplicaciones.
Si los datos de la aplicación están montados de manera global, la presencia de un recurso de HAStoragePlus en el grupo de recursos de aplicaciones no es obligatoria, aunque sí aconsejable.
Si los datos de la aplicación se montan de manera local, la presencia de un recurso de HAStoragePlus en el grupo de recursos de aplicaciones es obligatoria.
Para obtener más información sobre HAStoragePlus, consulte la página del comando man SUNW.HAStoragePlus(5).
Debe estar en línea en el cluster principal y sin conexión en el cluster secundario.
El grupo de recursos de aplicaciones debe estar en línea en el cluster secundario cuando éste hace las funciones de cluster primario.
La Figure A–4 ilustra la configuración de grupos de recursos de aplicaciones y de recursos de replicaciones en una aplicación de migración tras error.
Figura A-4 Configuración de grupos de recursos en una aplicación de migración tras error
En una aplicación escalable, una aplicación se ejecuta en varios nodos con el fin de crear un único servicio lógico. Si se produce un error en un nodo que ejecuta una aplicación escalable, no habrá migración tras error. La aplicación continúa ejecutándose en los otros nodos.
Cuando una aplicación escalable se administra como recurso en un grupo de recursos de aplicaciones, no es necesario acoplar el grupo de recursos de aplicaciones con el grupo de dispositivos. Por este motivo, no es necesario crear un recurso de HAStoragePlus para el grupo de recursos de aplicaciones.
Un grupo de recursos de una aplicación escalable debe tener las características siguientes:
Tener una dependencia en el grupo de recursos de direcciones compartidas.
Los nodos que ejecutan la aplicación escalable utilizan la dirección compartida para distribuir datos entrantes.
Estar en línea en el cluster primario y fuera de línea en el secundario.
La Figure A–5 ilustra la configuración de grupos de recursos en una aplicación escalable.
Figura A-5 Configuración de grupos de recursos en una aplicación escalable
Si el cluster principal falla, la aplicación se debe conmutar al cluster secundario lo antes posible. Para que el cluster secundario pueda realizar las funciones del principal, se debe actualizar el DNS.
Los clientes usan el DNS para asignar el nombre de host lógico de una aplicación a una dirección IP. Después de una recuperación, donde la aplicación se mueve a un cluster secundario, la información del DNS debe actualizarse para reflejar la asignación entre el nombre de host lógico de la aplicación y la dirección IP nueva.
Figura A-6 Asignación del DNS de un cliente a un cluster
Si desea actualizar el DNS, utilice el comando nsupdate. Para obtener información, consulte la página del comando man nsupdate(1M). Por ver un ejemplo de cómo gestionar una recuperación, consulte Ejemplo de cómo gestionar una recuperación.
Después de la reparación, el cluster principal se puede volver a colocar en línea. Para volver al cluster primario original, siga estos pasos:
Sincronice el cluster primario con el secundario para asegurarse de que el volumen principal esté actualizado. Puede hacerlo deteniendo el grupo de recursos en el nodo secundario, de modo que el flujo de datos de replicación pueda drenar.
Revierta la dirección de la replicación de datos, de modo que el nodo principal original esté ahora, otra vez, replicando los datos en el nodo secundario original.
Inicie el grupo de recursos en el cluster principal.
Actualice el DNS de modo que los clientes tengan acceso a la aplicación en el cluster primario.
La Table A–1 enumera las tareas pertenecientes a este ejemplo de configuración de replicación de datos para una aplicación NFS mediante el software de Sun StorageTek Availability Suite.
|
La Figure A–7 ilustra la configuración de clusters utilizada en la configuración de ejemplo. El cluster secundario de la configuración de ejemplo contiene un nodo, pero se pueden usar otras configuraciones de cluster.
Figura A-7 Ejemplo de configuración del cluster
La Table A–2 resume el hardware y el software necesarios para la configuración de ejemplo. El sistema operativo Oracle Solaris, el software Oracle Solaris Cluster y el software Volume Manager deben instalarse en los nodos del cluster antes de instalar las actualizaciones del software y el software Sun StorageTek Availability Suite.
|
Esta sección describe cómo se configuran los grupos de dispositivos y los de recursos en una aplicación NFS. Para obtener más información, consulte Configuración de grupos de recursos de replicaciones y Configuración de grupos de recursos de aplicaciones.
Esta sección incluye los procedimientos siguientes:
Configuración de un grupo de dispositivos en el cluster primario
Configuración de un grupo de dispositivos en el cluster secundario
Configuración de sistemas de archivos en el cluster primario para la aplicación NFS
Configuración del sistema de archivos en el cluster secundario para la aplicación NFS
Creación de un grupo de recursos de replicaciones en el cluster primario
Creación de un grupo de recursos de replicaciones en el cluster secundario
Creación de un grupo de recursos de aplicaciones NFS en el cluster primario
Creación de un grupo de recursos de aplicaciones NFS en el cluster secundario
Procedimiento para comprobar la configuración de la replicación
La tabla siguiente enumera los nombres de los grupos y recursos creados para la configuración de ejemplo.
|
Con la excepción de devgrp-stor-rg, los nombres de los grupos y recursos son nombres de ejemplos que se pueden cambiar cuando sea necesario. El grupo de recursos de replicaciones debe tener un nombre con el formato devicegroupname-stor-rg.
Para obtener información sobre el software de Solaris Volume Manager, consulte el Capítulo 4, Configuración del software de Solaris Volume Manager de Guía de instalación del software de Oracle Solaris Cluster .
Antes de empezar
Asegúrese de realizar las tareas siguientes:
Lea las directrices y los requisitos de las secciones siguientes:
Configure los clusters primario y secundario como se describe en Conexión e instalación de clusters.
El nodo nodeA es el primero del cluster primario. Si desea recordar qué nodo es nodeA, consulte la Figure A–7.
nodeA# metaset -s nfsset a -h nodeA nodeB
nodeA# metaset -s nfsset -a /dev/did/dsk/d6 /dev/did/dsk/d7
nodeA# metaset -s nfsset -a -m nodeA nodeB
Cree dos componentes de un reflejo:
nodeA# metainit -s nfsset d101 1 1 /dev/did/dsk/d6s2 nodeA# metainit -s nfsset d102 1 1 /dev/did/dsk/d7s2
Cree el reflejo con uno de los componentes:
nodeA# metainit -s nfsset d100 -m d101
Conecte el otro componente al reflejo y deje que se sincronice:
nodeA# metattach -s nfsset d100 d102
Cree particiones de software a partir del reflejo, siguiendo estos ejemplos:
d200: los datos NFS (volumen maestro).
nodeA# metainit -s nfsset d200 -p d100 50G
d201: el volumen de copia puntual para los datos NFS.
nodeA# metainit -s nfsset d201 -p d100 50G
d202: el volumen de mapa de bits puntual.
nodeA# metainit -s nfsset d202 -p d100 10M
d203: el volumen de mapa de bits de sombra remoto.
nodeA# metainit -s nfsset d203 -p d100 10M
d204: el volumen para la información de configuración SUNW.NFS de Oracle Solaris Cluster.
nodeA# metainit -s nfsset d204 -p d100 100M
nodeA# yes | newfs /dev/md/nfsset/rdsk/d200 nodeA# yes | newfs /dev/md/nfsset/rdsk/d204
Pasos siguientes
Vaya a Configuración de un grupo de dispositivos en el cluster secundario.
Antes de empezar
Complete el procedimiento Configuración de un grupo de dispositivos en el cluster primario.
nodeC# metaset -s nfsset a -h nodeC
En el siguiente ejemplo, se asume que los números DID del disco son diferentes.
nodeC# metaset -s nfsset -a /dev/did/dsk/d3 /dev/did/dsk/d4
Cree dos componentes de un reflejo:
nodeC# metainit -s nfsset d101 1 1 /dev/did/dsk/d3s2 nodeC# metainit -s nfsset d102 1 1 /dev/did/dsk/d4s2
Cree el reflejo con uno de los componentes:
nodeC# metainit -s nfsset d100 -m d101
Conecte el otro componente al reflejo y deje que se sincronice:
metattach -s nfsset d100 d102
Cree particiones de software a partir del reflejo, siguiendo estos ejemplos:
d200: el volumen maestro de los datos NFS.
nodeC# metainit -s nfsset d200 -p d100 50G
d201: el volumen de copia puntual para los datos NFS.
nodeC# metainit -s nfsset d201 -p d100 50G
d202: el volumen de mapa de bits puntual.
nodeC# metainit -s nfsset d202 -p d100 10M
d203: el volumen de mapa de bits de sombra remoto.
nodeC# metainit -s nfsset d203 -p d100 10M
d204: el volumen para la información de configuración SUNW.NFS de Oracle Solaris Cluster.
nodeC# metainit -s nfsset d204 -p d100 100M
nodeC# yes | newfs /dev/md/nfsset/rdsk/d200 nodeC# yes | newfs /dev/md/nfsset/rdsk/d204
Pasos siguientes
Vaya a Configuración de sistemas de archivos en el cluster primario para la aplicación NFS.
Antes de empezar
Complete el procedimiento Configuración de un grupo de dispositivos en el cluster secundario.
Por ejemplo:
nodeA# mkdir /global/mountpoint
Agregue o sustituya el texto siguiente en el archivo /etc/vfstab del nodo nodeA y el nodo nodeB. El texto debe estar en una sola línea.
/dev/md/nfsset/dsk/d200 /dev/md/nfsset/rdsk/d200 \ /global/mountpoint ufs 3 no global,logging
El ejemplo siguiente crea el punto de montaje /global/etc.
nodeA# mkdir /global/etc
Agregue o sustituya el texto siguiente en el archivo /etc/vfstab del nodo nodeA y el nodo nodeB. El texto debe estar en una sola línea.
/dev/md/nfsset/dsk/d204 /dev/md/nfsset/rdsk/d204 \ /global/etc ufs 3 yes global,logging
nodeA# mount /global/etc
nodeA# mkdir -p /global/etc/SUNW.nfs
nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
share -F nfs -o rw -d "HA NFS" /global/mountpoint
Pasos siguientes
Vaya a Configuración del sistema de archivos en el cluster secundario para la aplicación NFS.
Antes de empezar
Complete el procedimiento Configuración de sistemas de archivos en el cluster primario para la aplicación NFS.
Por ejemplo:
nodeC# mkdir /global/mountpoint
Agregue o sustituya el texto siguiente en el archivo /etc/vfstab del nodo nodeC. El texto debe estar en una sola línea.
/dev/md/nfsset/dsk/d200 /dev/md/nfsset/rdsk/d200 \ /global/mountpoint ufs 3 yes global,logging
nodeC# mount /global/etc
nodeC# mkdir -p /global/etc/SUNW.nfs
nodeC# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
share -F nfs -o rw -d "HA NFS" /global/mountpoint
Pasos siguientes
Vaya a Creación de un grupo de recursos de replicaciones en el cluster primario.
Antes de empezar
Complete el procedimiento Configuración del sistema de archivos en el cluster secundario para la aplicación NFS.
Asegúrese de que el archivo /etc/netmasks tenga las entradas de la máscara de red y la subred de la dirección IP para todos los nombres de host lógicos. Si es necesario, edite el archivo /etc/netmasks para agregar las entradas que faltan.
nodeA# clresourcetype register SUNW.HAStoragePlus
nodeA# clresourcegroup create -n nodeA,nodeB devgrp-stor-rg
Especifica que los nodos del cluster nodeA y nodeB pueden controlar el grupo de recursos de replicaciones.
El nombre del grupo de recursos de replicaciones. En este nombre, devgrp especifica el nombre del grupo de dispositivos.
nodeA# clresource create -g devgrp-stor-rg -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=nfsset \ -p AffinityOn=True \ devgrp-stor
Especifica el grupo de recursos en el que se agrega el recurso.
Especifica el grupo de dispositivos del que depende el software de Sun StorageTek Availability Suite.
Especifica que el recurso SUNW.HAStoragePlus debe realizar un switchover de afinidad para los dispositivos globales y los sistemas de archivos de cluster definidos por -p GlobalDevicePaths=. Por ese motivo, si el grupo de recursos de replicaciones migra tras error o se conmuta, el grupo de dispositivos asociados también se conmuta.
Para obtener más información sobre estas propiedades de extensión, consulte la página del comando man SUNW.HAStoragePlus(5).
nodeA# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-prim
El nombre de host lógico para el grupo de recursos de replicaciones en el cluster primario es lhost-reprg-prim.
nodeA# clresourcegroup online -emM -n nodeA devgrp-stor-rg
Activa los recursos asociados.
Administra el grupo de recursos.
Especifica el nodo en el que poner el grupo de recursos en línea.
nodeA# clresourcegroup status devgrp-stor-rg
Examine el campo de estado del grupo de recursos para confirmar que el grupo de recursos de replicaciones esté en línea para el nodo nodeA.
Pasos siguientes
Vaya a Creación de un grupo de recursos de replicaciones en el cluster secundario.
Antes de empezar
Complete el procedimiento Creación de un grupo de recursos de replicaciones en el cluster primario.
Asegúrese de que el archivo /etc/netmasks tenga las entradas de la máscara de red y la subred de la dirección IP para todos los nombres de host lógicos. Si es necesario, edite el archivo /etc/netmasks para agregar las entradas que faltan.
nodeC# clresourcetype register SUNW.HAStoragePlus
nodeC# clresourcegroup create -n nodeC devgrp-stor-rg
Crea el grupo de recursos.
Especifica la lista de nodos para el grupo de recursos.
El nombre del grupo de dispositivos.
El nombre del grupo de recursos de replicaciones.
nodeC# clresource create \ -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=nfsset \ -p AffinityOn=True \ devgrp-stor
Crea el recurso.
Especifica el tipo de recurso.
Especifica el grupo de dispositivos en el que se basa el software Sun StorageTek Availability Suite.
Especifica que el recurso SUNW.HAStoragePlus debe realizar un switchover de afinidad para los dispositivos globales y los sistemas de archivos de cluster definidos por -p GlobalDevicePaths=. Por ese motivo, si el grupo de recursos de replicaciones migra tras error o se conmuta, el grupo de dispositivos asociados también se conmuta.
El recurso de HAStoragePlus para el grupo de recursos de replicaciones.
Para obtener más información sobre estas propiedades de extensión, consulte la página del comando man SUNW.HAStoragePlus(5).
nodeC# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-sec
El nombre de host lógico para el grupo de recursos de replicaciones en el cluster secundario es lhost-reprg-sec.
nodeC# clresourcegroup online -eM -n nodeC devgrp-stor-rg
Lo establece en línea.
Activa los recursos asociados.
Administra el grupo de recursos.
Especifica el nodo en el que poner el grupo de recursos en línea.
nodeC# clresourcegroup status devgrp-stor-rg
Examine el campo de estado del grupo de recursos para confirmar que el grupo de recursos de replicaciones esté en línea para el nodo nodeC.
Pasos siguientes
Vaya a Creación de un grupo de recursos de aplicaciones NFS en el cluster primario.
Este procedimiento describe la creación de los grupos de recursos de aplicaciones para NFS. Es un procedimiento específico de esta aplicación: no se puede usar para otro tipo de aplicación.
Antes de empezar
Complete el procedimiento Creación de un grupo de recursos de replicaciones en el cluster secundario.
Asegúrese de que el archivo /etc/netmasks tenga las entradas de la máscara de red y la subred de la dirección IP para todos los nombres de host lógicos. Si es necesario, edite el archivo /etc/netmasks para agregar las entradas que faltan.
nodeA# clresourcetype register SUNW.nfs
nodeA# clresourcetype register SUNW.HAStoragePlus
nodeA# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_affinities=+++devgrp-stor-rg \ nfs-rg
Especifica el directorio en el que los recursos del grupo pueden guardar los archivos de administración.
Especifica que el grupo de recursos de aplicaciones no se inicie de forma automática.
Especifica el grupo de recursos con el que el grupo de recursos de aplicaciones se debe colocar. En este ejemplo, el grupo de recursos de aplicaciones debe colocarse con el grupo de recursos de replicaciones devgrp-stor-rg.
Si el grupo de recursos de replicaciones se conmuta a un nodo principal nuevo, el grupo de recursos de aplicaciones se conmuta automáticamente. Sin embargo, los intentos de conmutar el grupo de recursos de aplicaciones a un nodo principal nuevo se bloquean porque la acción interrumpe el requisito de colocación.
El nombre del grupo de recursos de aplicaciones.
nodeA# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/mountpoint \ -p AffinityOn=True \ nfs-dg-rs
Crea el recurso.
Especifica el grupo de recursos en el que se agrega el recurso.
Especifica que el recurso es del tipo SUNW.HAStoragePlus.
Especifica que el punto de montaje del sistema de archivos es global.
Especifica que el recurso de aplicaciones debe efectuar una conmutación de afinidad para los dispositivos globales y los sistemas de archivos del cluster definidos por -p FileSystemMountPoints. Por lo tanto, si el grupo de recursos de aplicaciones migra tras error o se conmuta, el grupo de dispositivos asociados también se conmuta.
El nombre del recurso de HAStoragePlus para la aplicación NFS.
Para obtener más información sobre estas propiedades de extensión, consulte la página del comando man SUNW.HAStoragePlus(5).
nodeA# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-prim
El nombre de host lógico del grupo de recursos de aplicaciones del cluster primario es lhost-nfsrg-prim.
nodeA# mkdir -p /global/etc/SUNW.nfs
nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
share -F nfs -o rw -d "HA NFS" /global/mountpoint
nodeA# clresourcegroup online -M -n nodeA nfs-rg
Pone el grupo de recursos en línea.
Activa los recursos asociados.
Administra el grupo de recursos.
Especifica el nodo en el que poner el grupo de recursos en línea.
El nombre del grupo de recursos.
nodeA# clresourcegroup status
Examine el campo de estado del grupo de recursos para determinar si el grupo de recursos de aplicaciones está en línea para el nodo nodeA y el nodo nodeB.
Pasos siguientes
Vaya a Creación de un grupo de recursos de aplicaciones NFS en el cluster secundario.
Antes de empezar
Siga los pasos de Creación de un grupo de recursos de aplicaciones NFS en el cluster primario.
Asegúrese de que el archivo /etc/netmasks tenga las entradas de la máscara de red y la subred de la dirección IP para todos los nombres de host lógicos. Si es necesario, edite el archivo /etc/netmasks para agregar las entradas que faltan.
nodeC# clresourcetype register SUNW.nfs
nodeC# clresourcetype register SUNW.HAStoragePlus
nodeC# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_affinities=+++devgrp-stor-rg \ nfs-rg
Crea el grupo de recursos.
Especifica una propiedad del grupo de recursos.
Especifica un directorio en el que los recursos del grupo pueden guardar los archivos de administración.
Especifica que el grupo de recursos de aplicaciones no se inicie de forma automática.
Especifica el grupo de recursos donde el grupo de recursos de aplicaciones debe colocarse. En este ejemplo, el grupo de recursos de aplicaciones debe colocarse con el grupo de recursos de replicaciones devgrp-stor-rg.
Si el grupo de recursos de replicaciones se conmuta a un nodo principal nuevo, el grupo de recursos de aplicaciones se conmuta automáticamente. Sin embargo, los intentos de conmutar el grupo de recursos de aplicaciones a un nodo principal nuevo se bloquean porque la acción interrumpe el requisito de colocación.
El nombre del grupo de recursos de aplicaciones.
nodeC# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/mountpoint \ -p AffinityOn=True \ nfs-dg-rs
Crea el recurso.
Especifica el grupo de recursos en el que se agrega el recurso.
Especifica que el recurso es del tipo SUNW.HAStoragePlus.
Especifica una propiedad del recurso.
Especifica que el punto de montaje del sistema de archivos es global.
Especifica que el recurso de aplicaciones debe efectuar una conmutación de afinidad para los dispositivos globales y los sistemas de archivos del cluster definidos por -p FileSystemMountPoints=. Por lo tanto, si el grupo de recursos de aplicaciones migra tras error o se conmuta, el grupo de dispositivos asociados también se conmuta.
El nombre del recurso de HAStoragePlus para la aplicación NFS.
nodeC# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-sec
El nombre de host lógico del grupo de recursos de aplicaciones del cluster secundario es lhost-nfsrg-sec.
nodeC# clresource create -g nfs-rg \ -t SUNW.nfs -p Resource_dependencies=nfs-dg-rs nfs-rg
nodeC# umount /global/mountpoint
Si el volumen está montado en un cluster secundario, se da un error de sincronización.
Pasos siguientes
Vaya a Ejemplo de cómo activar la replicación de datos.
Esta sección describe cómo activar la replicación de datos en la configuración de ejemplo. Esta sección utiliza los comandos sndradm e iiadm del software de Sun StorageTek Availability Suite. Si desea más información sobre estos comandos, consulte la documentación de. Sun StorageTek Availability Suite
Esta sección incluye los procedimientos siguientes:
nodeA# lockfs -a -f
nodeA# clresourcegroup status nodeC# clresourcegroup status
Examine el campo de estado del grupo de recursos.
Este paso permite realizar la replicación del cluster principal al secundario. Este paso permite realizar la replicación del volumen maestro (d200) en el cluster principal al volumen maestro (d200) en el cluster secundario. Además, este paso permite la replicación en el mapa de bits de reflejo remoto de d203.
Si los clusters primario y secundario no están sincronizados, ejecute este comando para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
Si el cluster primario y el secundario están sincronizados, ejecute este comando para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -n -E lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
Ejecute este comando para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
Este paso activa la sincronización automática. Si el estado activo de la sincronización automática es on, los conjuntos de volúmenes se vuelven a sincronizar cuando el sistema reinicie o cuando haya un error.
Utilice el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -P
La salida debe ser similar a la siguiente:
/dev/md/nfsset/rdsk/d200 -> lhost-reprg-sec:/dev/md/nfsset/rdsk/d200 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging
En modo de registro, el estado es logging y el estado activo de la sincronización automática es off. Cuando se escribe el volumen de datos en el disco, se actualiza el archivo de mapa de bits en el mismo disco.
Utilice el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/iiadm -e ind \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d201 \ /dev/md/nfsset/rdsk/d202 nodeA# /usr/sbin/iiadm -w \ /dev/md/nfsset/rdsk/d201
Este paso activa la copia del volumen maestro del cluster primario en el volumen sombra del mismo cluster. El volumen maestro, el volumen sombra y el volumen de mapa de bits de un momento determinado deben estar en el mismo grupo de dispositivos. En este ejemplo, el volumen maestro es d200, el volumen shadow es d201 y el volumen de mapa de bits de un momento determinado es d203.
Utilice el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -I a \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d201 \ /dev/md/nfsset/rdsk/d202
Este paso asocia la instantánea de un momento determinado con el conjunto duplicado remoto de volúmenes. El software Sun StorageTek Availability Suite comprueba que se tome una instantánea de un momento determinado antes de que pueda haber una replicación por duplicación remota.
Pasos siguientes
Vaya a Activación de la replicación en el cluster secundario.
Antes de empezar
Complete el procedimiento Activación de la replicación en el cluster primario.
nodeC# lockfs -a -f
Utilice el comando siguiente para el software Sun StorageTek Availability Suite:
nodeC# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
El cluster primario detecta la presencia del cluster secundario y comienza la sincronización. Si desea información sobre el estado de los clusters, consulte el archivo de registro del sistema /var/adm de Sun StorageTek Availability Suite.
Utilice el comando siguiente para el software Sun StorageTek Availability Suite:
nodeC# /usr/sbin/iiadm -e ind \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d201 \ /dev/md/nfsset/rdsk/d202 nodeC# /usr/sbin/iiadm -w \ /dev/md/nfsset/rdsk/d201
Utilice el comando siguiente para el software Sun StorageTek Availability Suite:
nodeC# /usr/sbin/sndradm -I a \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d201 \ /dev/md/nfsset/rdsk/d202
Pasos siguientes
Vaya a Ejemplo de cómo efectuar una replicación de datos.
Esta sección describe la ejecución de la replicación de datos en la configuración de ejemplo. Esta sección utiliza los comandos sndradm e iiadm del software de Sun StorageTek Availability Suite. Si desea más información sobre estos comandos, consulte la documentación de. Sun StorageTek Availability Suite
Esta sección incluye los procedimientos siguientes:
Procedimiento para comprobar la configuración de la replicación
En este procedimiento, el volumen maestro del disco primario se replica en el volumen maestro del disco secundario. El volumen maestro es d200 y el volumen del mapa de bits de reflejo remoto es d203.
Ejecute el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -P
La salida debe ser similar a la siguiente:
/dev/md/nfsset/rdsk/d200 -> lhost-reprg-sec:/dev/md/nfsset/rdsk/d200 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging
En modo de registro, el estado es logging y el estado activo de la sincronización automática es off. Cuando se escribe el volumen de datos en el disco, se actualiza el archivo de mapa de bits en el mismo disco.
nodeA# lockfs -a -f
Ejecute el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -n -m lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
Ejecute el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -n -w lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
Ejecute el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -P
La salida debe ser similar a la siguiente:
/dev/md/nfsset/rdsk/d200 -> lhost-reprg-sec:/dev/md/nfsset/rdsk/d200 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating
En modo de replicación, el estado es logging y el estado activo de la sincronización automática es off. Cuando se escribe en el volumen principal, el software Sun StorageTek Availability Suite, actualiza el volumen secundario.
Pasos siguientes
Vaya a Instantánea de un momento determinado.
En este procedimiento, la instantánea de un momento determinado se ha utilizado para sincronizar el volumen sombra del cluster primario con el volumen maestro del cluster primario. El volumen maestro es d200, el volumen de mapa de bits es d203 y el volumen shadow es d201.
Antes de empezar
Realice el procedimiento Replicación por duplicación remota.
nodeA# clresource disable nfs-rs
Ejecute el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
Cuando se escribe el volumen de datos en el disco, se actualiza el archivo de mapa de bits en el mismo disco. No se produce ninguna replicación.
Ejecute el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/iiadm -u s /dev/md/nfsset/rdsk/d201 nodeA# /usr/sbin/iiadm -w /dev/md/nfsset/rdsk/d201
Ejecute el comando siguiente para el software Sun StorageTek Availability Suite:
nodeC# /usr/sbin/iiadm -u s /dev/md/nfsset/rdsk/d201 nodeC# /usr/sbin/iiadm -w /dev/md/nfsset/rdsk/d201
nodeA# clresource enable nfs-rs
Ejecute el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
Pasos siguientes
Vaya a Procedimiento para comprobar la configuración de la replicación.
Antes de empezar
Complete el procedimiento Instantánea de un momento determinado.
Utilice el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -P
La salida debe ser similar a la siguiente:
/dev/md/nfsset/rdsk/d200 -> lhost-reprg-sec:/dev/md/nfsset/rdsk/d200 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating
En modo de replicación, el estado es logging y el estado activo de la sincronización automática es off. Cuando se escribe en el volumen principal, el software Sun StorageTek Availability Suite, actualiza el volumen secundario.
Utilice el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
client-machine# umount /dir
nodeA# clresource disable -g nfs-rg + nodeA# clresourcegroup offline nfs-rg
Ejecute el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
Cuando se escribe el volumen de datos en el disco, se actualiza el archivo de mapa de bits en el mismo disco. No se produce ninguna replicación.
nodeC# mount | grep /global/etc
nodeC# fsck -y /dev/md/nfsset/rdsk/d200
nodeC# clresourcegroup online -eM nodeC nfs-rg
Verá un indicador con un aspecto similar al siguiente:
client-machine#
client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir
client-machine# ls /dir
nodeC# clresource disable -g nfs-rg + nodeC# clresourcegroup offline nfs-rg
nodeC# umount /global/mountpoint
nodeA# clresourcegroup online -eM nodeA nfs-rg
Ejecute el comando siguiente para el software Sun StorageTek Availability Suite:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
Cuando se escribe en el volumen principal, el software Sun StorageTek Availability Suite, actualiza el volumen secundario.
Véase también
Ejemplo de cómo gestionar una recuperación
En esta sección, se describe cómo actualizar las entradas DNS. Para obtener más información, consulte Directrices para la gestión de una recuperación.
En esta sección, se incluye el siguiente procedimiento:
Si desea una ilustración de cómo asigna el DNS un cliente a un cluster, consulte la Figure A–6.
Para obtener más información, consulte la página del comando man nsupdate(1M).
> update delete lhost-nfsrg-prim A > update delete lhost-nfsrg-sec A > update delete ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update delete ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec
Dirección IP del cluster primario en orden inverso.
Dirección IP del cluster secundario en orden inverso.
Tiempo de vida, en segundos. Un valor normal es 3600.
Asigne el nombre de host lógico principal a la dirección IP del cluster secundario y el nombre sistema lógico secundario a la dirección IP del cluster primario.
> update add lhost-nfsrg-prim ttl A ipaddress2fwd > update add lhost-nfsrg-sec ttl A ipaddress1fwd > update add ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update add ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-sec
Dirección IP del cluster secundario hacia delante.
Dirección IP del cluster primario hacia delante.