Sun Cluster: Guía de administración del sistema para el SO Solaris

Capítulo 9 Copia de seguridad y restauración de un clúster

Ésta es la lista de las instrucciones paso a paso incluidas en este capítulo.

Copia de seguridad de un clúster

Tabla 9–1 Mapa de tareas: efectuar una copia de seguridad de los archivos de un clúster

Tarea 

Si desea obtener más instrucciones, vaya a … 

Buscar los nombres de los sistemas de archivos de los que desee realizar copias de seguridad 

Cómo buscar los nombres de los sistemas de archivos de los que se debe efectuar una copia de seguridad

Calcular cuántas cintas serán necesarias para la copia de seguridad 

Cómo determinar el número de cintas necesarias para efectuar una copia de seguridad completa

Efectuar una copia de seguridad del sistema de archivos raíz 

Cómo efectuar una copia de seguridad del sistema de archivos raíz (/)

Efectuar una copia de seguridad en línea en sistemas con duplicaciones o plex. 

Cómo efectuar copias de seguridad en línea de duplicaciones (Solstice DiskSuite/Solaris Volume Manager)

 

SPARC: Cómo efectuar copias de seguridad en línea de volúmenes (VERITAS Volume Manager)

ProcedureCómo buscar los nombres de los sistemas de archivos de los que se debe efectuar una copia de seguridad

Utilice este procedimiento para determinar los nombres de los sistemas de archivos de los que desea efectuar copia de seguridad.

Pasos
  1. Muestre el contenido del archivo /etc/vfstab.

    No es necesario ser usuario root o asumir un rol similar para ejecutar este comando.


    % more /etc/vfstab
    
  2. En la columna del punto de montaje, busque el nombre del sistema de archivos del que desee efectuar una copia de seguridad.

    Utilice este nombre al efectuar la copia de seguridad del sistema de archivos.


    % more /etc/vfstab 
    

Ejemplo 9–1 Búsqueda de nombres de los sistemas de archivos para la copia de seguridad

En el ejemplo siguiente se muestran los nombres de los sistemas de archivos disponibles incluidos en el archivo /etc/vfstab.


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

ProcedureCómo determinar el número de cintas necesarias para efectuar una copia de seguridad completa

Utilice este procedimiento para calcular el número de cintas que serán necesarias para efectuar una copia de seguridad de un sistema de archivos.

Pasos
  1. Conviértase en usuario root o asuma un rol equivalente en el nodo del clúster del que desee realizar una copia de seguridad.

  2. Haga una estimación del tamaño de la copia, en bytes.


    # ufsdump S filesystem 
    
    S

    Muestra el tamaño estimado en bytes necesario para efectuar la copia de seguridad.

    sistema_de_archivos

    Especifica el nombre del sistema de archivos del que se desea efectuar la copia de seguridad.

  3. Divida el tamaño estimado por la capacidad de la cinta para averiguar el número de cintas necesarias.


Ejemplo 9–2 Determinar el número de cintas necesarias

En el el ejemplo siguiente, el tamaño del sistema de archivos es de 905.881.620 bytes, por lo que cabrá perfectamente en una cinta de 4 GB (905.881.620 ÷ 4.000.000.000).


# ufsdump S /global/phys-schost-1
905881620

ProcedureCómo efectuar una copia de seguridad del sistema de archivos raíz (/)

Utilice este procedimiento para efectuar una copia de seguridad del sistema de archivos raíz (/) de un nodo del clúster. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de copia de seguridad.

Pasos
  1. Conviértase en usuario root o asuma un rol equivalente en el nodo del clúster del que desea realizar una copia de seguridad.

  2. Conmute todos los servicios de datos del clúster del cual se va a efectuar la copia de seguridad a otro nodo del clúster.


    # scswitch -z -D disk-device-group[,...] -h node[,...]
    
    -z

    Efectúa la conmutación.

    -D grupo_de_dispositivos_de_disco

    Nombre del grupo de dispositivos de disco que se debe conmutar.

    -h nodo

    Nombre del nodo del clúster al que se debe conmutar el grupo de dispositivos de disco. Este nodo se convierte en el nuevo principal.

  3. Pare el nodo.


    # shutdown -g0 -y -i0
    
  4. Rearranque el nodo en modo sin clúster.

    • SPARC:


      ok boot -x
      
    • x86:


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type  b [file-name] [boot-flags] <ENTER> to boot with options
      or    i <ENTER>                          to enter boot interpreter
      or    <ENTER>                            to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      
  5. Efectúe la copia de seguridad del sistema de archivos raíz (/).

    • Si el disco raíz no está encapsulado, utilice el comando siguiente.


      # ufsdump 0ucf dump-device /
      
    • Si el disco raíz está encapsulado, utilice el comando siguiente.


      # ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol
      

    Para obtener información adicional, consulte la página de comando man ufsdump(1M).

  6. Rearranque el nodo en el modo de clúster.


    # init 6
    

Ejemplo 9–3 Copia de seguridad del sistema de archivos raíz (/)

En el ejemplo siguiente se efectúa una copia de seguridad del sistema de archivos raíz (/) en el dispositivo de cinta /dev/rmt/0.


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

ProcedureCómo efectuar copias de seguridad en línea de duplicaciones (Solstice DiskSuite/Solaris Volume Manager)

Se puede efectuar una copia de seguridad de un metadispositivo duplicado Solstice DiskSuite o de un volumen Solaris Volume Manager sin desmontarlo ni poner fuera de línea toda la duplicación. Una de las subduplicaciones se debe poner temporalmente fuera de línea, perdiendo así la propiedad de duplicación, pero puede volver a ponerse en línea y resincronizarse tan pronto como finalice la copia de seguridad, sin tener que detener el sistema ni denegar al usuario el acceso a los datos. El uso de duplicaciones para efectuar copias de seguridad crea copias que son “capturas” de un sistema de archivos activo.

Puede haber problemas si un programa escribe datos en el volumen inmediatamente antes de que se ejecute el comando lockfs. Para evitarlos, pare temporalmente todos los servicios que se ejecuten en este nodo. Asegúrese también de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de copia de seguridad.

Pasos
  1. Conviértase en usuario root o asuma un rol equivalente en el nodo del clúster del que desea realizar una copia de seguridad.

  2. Utilice el comando metaset(1M) para determinar qué nodo es el propietario del volumen copiado.


    # metaset -s setname
    
    -s nombre_grupo

    Especifica el nombre del conjunto de discos.

  3. Utilice el comandolockfs(1M) con la opción -w para bloquear el sistema de archivos contra escritura.


    # lockfs -w mountpoint 
    

    Nota –

    Sólo será necesario bloquear el sistema de archivos si en la duplicación reside un sistema de archivos UFS. Por ejemplo, si el metadispositivo Solstice DiskSuite o el volumen Solaris Volume Manager se configuran como dispositivo básico para software de gestión de bases de datos u otra aplicación específica, no será necesario utilizar el comando lockfs. No obstante, puede ser conveniente ejecutar la utilidad apropiada, en función del proveedor, para vaciar las memorias intermedias y bloquear el acceso.


  4. Utilice el comando metastat(1M) para determinar los nombres de las subduplicaciones.


    # metastat -s setname -p
    
    -p

    Muestra el estado en un formato similar al del archivo md.tab.

  5. Utilice el comando metadetach(1M) para poner fuera de línea una subduplicación de la duplicación.


    # metadetach -s setname mirror submirror
    

    Nota –

    Se seguirán efectuando lecturas en las demás subduplicaciones. Sin embargo, la subduplicación que esté fuera de línea perderá la sincronía en cuanto se efectúe la primera escritura en la duplicación. Esta incoherencia se corregirá al volver a poner dicha subduplicación en línea. No es necesario ejecutar fsck.


  6. Utilice el comando lockfs con la opción -u para desbloquear los sistemas de archivos y permitir que prosigan las operaciones de escritura.


    # lockfs -u mountpoint 
    
  7. Efectúe una comprobación del sistema de archivos.


    # fsck /dev/md/diskset/rdsk/submirror
    
  8. Efectúe la copia de seguridad de la subduplicación en una cinta u otro soporte.

    Utilice el comando ufsdump(1M) o la función de copia de seguridad que acostumbre a usar.


    # ufsdump 0ucf dump-device submirror
    

    Nota –

    Utilice para la subduplicación el nombre de dispositivo básico (/rdsk), en lugar del nombre de dispositivo de bloques (/dsk).


  9. Use el comando metattach(1M) para volver a poner en línea el metadispositivo o el volumen.


    # metattach -s setname mirror submirror
    

    Cuando el metadispositivo o el volumen vuelvan a ponerse en línea, se resincronizarán automáticamente con la duplicación.

  10. Utilice el comando metastat para comprobar que la subduplicación se resincronice.


    # metastat -s setname mirror
    

Ejemplo 9–4 Realización de copias de seguridad en línea de duplicaciones (Solstice DiskSuite/Solaris Volume Manager)

En el ejemplo siguiente, el nodo phys-schost- del clúster es el propietario del metaset schost-1, por lo que el procedimiento de copia de seguridad se lleva a cabo desde phys-schost-1. La duplicación /dev/md/schost-1/dsk/d0 consta de las subduplicaciones d10, d20 y d30.


[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Lock the file system from writes:] 
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resync the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

ProcedureSPARC: Cómo efectuar copias de seguridad en línea de volúmenes (VERITAS Volume Manager)

VERITAS Volume Manager identifica un volumen duplicado como plex. Se puede efectuar una copia de seguridad de un plex sin desmontarlo ni poner todo el volumen fuera de línea. Para ello se crea una captura del volumen y se efectúa una copia de seguridad de este volumen temporal sin parar el sistema ni denegar al usuario el acceso a los datos.

Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de copia de seguridad.

Pasos
  1. Inicie sesión en cualquier nodo del clúster, y conviértase en usuario root o asuma un rol equivalente en el nodo principal actual del grupo de discos del clúster.

  2. Muestre la información del grupo de discos.


    # vxprint -g diskgroup
    
  3. Ejecute el comando scstat(1M) para ver qué nodo tiene actualmente importado el grupo de discos, lo que indica que se trata del nodo principal del grupo de discos.


    # scstat -D
    
    -D

    Muestra el estado de todos los grupos de dispositivos de disco.

  4. Cree una captura del volumen mediante el comando vxassist(1M).


    # vxassist -g diskgroup snapstart volume
    

    Nota –

    La creación de una captura puede ser un proceso largo, según el tamaño del volumen.


  5. Compruebe que se haya creado el nuevo volumen.


    # vxprint -g diskgroup
    

    Una vez finalizada la captura, el campo State del grupo de discos seleccionado muestra el estado Snapdone.

  6. Detenga los servicios de datos que accedan al sistema de archivos.


    # scswitch -z -g resource-group[,...] -h ““
    

    Nota –

    Pare todos los servicios de datos para garantizar que la copia de seguridad del sistema de archivos de los datos se efectúe de forma correcta. Si no se está ejecutando ningún servicio de datos, no es necesario que lleve a cabo el Paso 6 y el Paso 8.


  7. Cree un volumen de copia de seguridad con el nombre bkup-vol y adjunte al mismo el volumen de captura mediante el comando vxassist.


    # vxassist -g diskgroup snapshot volume bkup-vol
    
  8. Reinicie los servicios de datos detenidos en el Paso 6 con el comando scswitch(1M).


    # scswitch -z -g resource-group[,...] -h node[,...]
    
  9. Compruebe que el volumen se haya adjuntado al nuevo volumen volumen_copia_seguridad mediante el comando vxprint.


    # vxprint -g diskgroup
    
  10. Registre el cambio de configuración del grupo de discos.


    # scconf -c -D name=diskgroup,sync
    
  11. Verifique el volumen de copia de seguridad mediante el comando fsck.


    # fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
    
  12. Efectúe una copia de seguridad del volumen volumen_copia_seguridad en cinta u otro soporte.

    Use el comando ufsdump(1M) o la utilidad de copia de seguridad que suela usar.


    # ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
    
  13. Suprima el volumen temporal mediante vxedit(1M).


    # vxedit -rf rm bkup-vol
    
  14. Registre los cambios en la configuración del grupo de discos mediante el comando scconf(1M).


    # scconf -c -D name=diskgroup,sync
    

Ejemplo 9–5 SPARC: Realización de copias de seguridad en línea de volúmenes (VERITAS Volume Manager)

En el siguiente ejemplo, el nodo del clúster phys-schost-2 es el propietario principal del grupo de dispositivos de disco schost-1; por lo tanto, el proceso de copia de seguridad se realiza desde phys-schost-2. Se copia el volumen /vo101 y, a continuación, se asocia con un nuevo volumen, bkup-vol.


[Become superuser or assume an equivalent role on the primary node.]
[Identify the current primary node for the disk device group:]
# scstat -D
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1

-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[List the disk device group information:]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stop data services, if necessary:]
# scswitch -z -g nfs-rg -h ““
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# scswitch -z -g nfs-rg -h phys-schost-1
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronize the disk group with cluster framework:]
# scconf -c -D name=schost-1,sync
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# scconf -c -D name=schost-1,sync

Restauración de los archivos del clúster: información general

El comando ufsrestore(1M) copia archivos en disco, en una ubicación relativa al directorio de trabajo actual, a partir de copias de seguridad creadas mediante el comando ufsdump(1M). Puede utilizar ufsrestore para volver a cargar toda la jerarquía de sistemas de archivos a partir de un volcado de nivel 0 y los volcados incrementales subsiguientes o para restaurar uno o más archivos individuales desde cualquier cinta de volcado. Si se ejecuta ufsrestore como usuario root o un rol equivalente, los archivos se restauran con su propietario original, última fecha y hora de modificación y modo (permisos).

Antes de empezar a restaurar archivos o sistemas de archivos deberá conocer la siguiente información.

Restauración de los archivos del clúster

Tabla 9–2 Mapa de tareas: Restauración de los archivos del clúster

Tarea 

Si desea obtener más instrucciones, vaya a … 

Para Solstice DiskSuite/Solaris Volume Manager, restaurar archivos de forma interactiva según los procedimientos de restauración de Solaris 

Cómo restaurar archivos individuales de forma interactiva (Solstice DiskSuite/Solaris Volume Manager)

Para Solstice DiskSuite/Solaris Volume Manager, restaurar el sistema de archivos raíz (/)

Cómo restaurar el sistema de archivos raíz (/) (Solstice DiskSuite/Solaris Volume Manager)

  

Cómo restaurar un sistema de archivos raíz (/) ubicado en un metadispositivo (Solstice DiskSuite/Solaris Volume Manager)

En el caso de VERITAS Volume Manager, restaure un sistema de archivos raíz no encapsulado ( /).

SPARC: Cómo restaurar un sistema de archivos raíz (/) no encapsulado (VERITAS Volume Manager)

En el caso de VERITAS Volume Manager, restaure un sistema de archivos raíz encapsulado ( /).

SPARC: Cómo restaurar un sistema de archivos raíz (/) encapsulado (VERITAS Volume Manager)

ProcedureCómo restaurar archivos individuales de forma interactiva (Solstice DiskSuite/Solaris Volume Manager)

Utilice este procedimiento para restaurar uno o más archivos individuales. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de restauración.

Pasos
  1. Conviértase en usuario root o asuma un rol equivalente en el nodo del clúster que desea restaurar.

  2. Pare todos los servicios de datos que utilicen los archivos que se vayan a restaurar.


    # scswitch -z -g resource-group[,...] -h ““
    
  3. Restaure los archivos mediante el comando ufsrestore.

ProcedureCómo restaurar el sistema de archivos raíz (/) (Solstice DiskSuite/Solaris Volume Manager)

Utilice este procedimiento para restaurar el sistema de archivos raíz (/) en un nuevo disco, como en el caso de reemplazar un disco raíz averiado. No se debe arrancar el nodo que se vaya a restaurar. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de restauración.


Nota –

Como debe dividir el nuevo disco en particiones utilizando el mismo formato que el disco con fallos, determine el esquema de partición antes de comenzar este proceso y vuelva a crear los sistemas de archivos como sea pertinente.


Pasos
  1. Conviértase en usuario root o asuma un rol equivalente en un nodo del clúster con acceso a los conjuntos de discos a los que está vinculado también el nodo.

    Conviértase en usuario root o asuma un rol equivalente en un nodo diferente al que desee restaurar.

  2. Suprima de todos los metasets el nombre de host del nodo que se va a restaurar.

    Ejecute este comando desde un nodo del metaset distinto del que va a suprimir.


    # metaset -s setname -f -d -h nodelist
    
    -s nombre_conjunto

    Especifica el nombre del conjunto de discos.

    -f

    Forzar.

    -d

    Elimina un elemento del conjunto de discos.

    -h lista_nodos

    Especifica el nombre del nodo que se debe borrar del conjunto de discos.

  3. Restaure los sistemas de archivos root (/) y /usr.

    Para restaurar los sistemas de archivos root y /usr, siga el procedimiento descrito en el Capítulo 26, Restoring Files and File Systems (Tasks) de System Administration Guide: Devices and File Systems. Omita el paso del procedimiento de Solaris para reiniciar el sistema.


    Nota –

    No olvide crear el sistema de archivos /global/.devices/nodo@id_nodo


  4. Reinicie el nodo en el modo multiusuario.


    # reboot
    
  5. Sustituya el ID del disco mediante el comando scdidadm(1M).


    # scdidadm -R rootdisk
    
  6. Utilice el comando metadb(1M) para volver a crear las réplicas de la base de datos de estado.


    # metadb -c copies -af raw-disk-device
    
    -c copias

    Especifica el número de réplicas que se deben crear.

    -f dispositivo_de_disco_básico

    Dispositivo de disco básico en el que se deben crear las réplicas.

    -a

    Agrega réplicas.

  7. Utilice el comando metaset en un nodo del clúster distinto del nodo que se ha restaurado para agregar éste a todos los metasets.


    phys-schost-2# metaset -s setname -a -h nodelist
    
    -a

    Crea y agrega el host al conjunto de discos.

    El nodo se rearranca en modo de clúster. El clúster está listo para ser utilizado.


Ejemplo 9–6 Restauración del sistema de archivos raíz (/) (Solstice DiskSuite/Solaris Volume Manager)

En el ejemplo siguiente se muestra cómo se restaura el sistema de archivos raíz (/) en el nodo phys-schost-1 desde el dispositivo de cinta /dev/rmt/0. El comando metaset se ejecuta desde otro de los nodos del clúster, phys-schost-2, para eliminar y más adelante volver a agregar el nodo phys-schost-1 al grupo de discos schost-1. El resto de comandos se ejecutan desde phys-schost-1. Se crea un nuevo bloque de arranque en /dev/rdsk/c0t0d0s0, así como tres réplicas de la base de datos de estado en /dev/rdsk/c0t0d0s4 .


[Become superuser or assume an equivalent role on a cluster node other than the node to be restored
.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
Restore the root (/) and /usr file system using the procedure in the Solaris system administration documentation
 [Reboot:]
# reboot
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

ProcedureCómo restaurar un sistema de archivos raíz (/) ubicado en un metadispositivo (Solstice DiskSuite/Solaris Volume Manager)

Use este procedimiento para restaurar un sistema de archivos raíz (/) que estaba en un metadispositivo Solstice DiskSuite o en un volumen Solaris Volume Manager cuando se realizaron las copias de seguridad. Este procedimiento se debe llevar a cabo cuando, por ejemplo, un disco raíz se ha deteriorado y sustituido por un disco nuevo. No se debe arrancar el nodo que se vaya a restaurar. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de restauración.


Nota –

Puesto que es necesario efectuar la partición del nuevo disco con el mismo formato que el disco averiado, identifique el esquema de partición de éste antes de iniciar el procedimiento y vuelva a crear los sistemas de archivos apropiados.


Pasos
  1. Conviértase en usuario root o asuma un rol equivalente en un nodo del clúster con acceso al conjunto de discos, diferente del nodo que desea restaurar.

  2. Elimine de todos conjuntos de discos el nombre de host del nodo que se va a restaurar.


    # metaset -s setname -f -d -h nodelist
    
    -s nombre_grupo

    Especifica el nombre del metaset.

    -f

    Forzar.

    -d

    Borrar del metaset.

    -h lista_nodos

    Especifica el nombre del nodo que se debe borrar del metaset.

  3. Sustituya el disco averiado en el nodo en el que se va a restaurar el sistema de archivos raíz (/).

    Consulte los procedimientos de sustitución de discos en la documentación de su servidor.

  4. Arranque el nodo que se va a restaurar.

    • Si utiliza el CD de Solaris:

      • SPARC: En el indicador ok de OpenBoot PROM, escriba el siguiente comando:


        ok boot cdrom -s
        
      • x86: Inserte el CD en la unidad de CD del sistema y arránquelo; para ello, apáguelo y vuelva a encenderlo. En la pantalla de parámetros de arranque actuales, escriba el siguiente comando:


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        
    • Si utiliza un servidor Solaris JumpStartTM:

      • SPARC: En el indicador ok de OpenBoot PROM, escriba el siguiente comando:


        ok boot net -s
        
      • x86: Arranque el sistema; para ello, apáguelo y vuelva a encenderlo. En la pantalla de parámetros de arranque actuales, escriba el siguiente comando:


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        
  5. Cree todas las particiones y el espacio de intercambio en el disco raíz mediante el comando format.

    Vuelva a crear el esquema de particiones original del disco averiado.

  6. Cree el sistema de archivos raíz (/) y otros sistemas de archivos requeridos mediante el comando newfs(1M).

    Vuelva a crear los sistemas de archivos originales del disco averiado.


    Nota –

    No olvide crear el sistema de archivos /global/.devices/nodo@id_nodo


  7. Monte el sistema de archivos raíz (/) en un punto de montaje temporal.


    # mount device temp-mountpoint
    
  8. Utilice los comandos siguientes para restaurar el sistema de archivos raíz (/).


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    
  9. Instale un nuevo bloque de arranque en el nuevo disco.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk 
    raw-disk-device
    
  10. Suprima las líneas correspondientes a la información de raíz de MDD del archivo /punto_de_montaje_temporal/etc/system.


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)
  11. Edite el archivo /temp-mountpoint/etc/vfstab para cambiar la entrada raíz desde un metadispositivo Solstice DiskSuite o un volumen Solaris Volume Manager a un segmento normal correspondiente para cada uno de los sistemas de archivos del disco raíz que forme parte del metadispositivo o del volumen.


    Example: 
    Change from—
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /      ufs   1     no       -
  12. Desmonte el sistema de archivos temporal y verifique el dispositivo de disco básico.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    
  13. Reinicie el nodo en el modo multiusuario.


    # reboot
    
  14. Sustituya el ID del disco mediante el comando scdidadm.


    # scdidadm -R rootdisk
    
  15. Utilice el comando metadb(1M) para volver a crear las réplicas de la base de datos de estado.


    # metadb -c copies -af raw-disk-device
    
    -c copias

    Especifica el número de réplicas que se deben crear.

    -af dispositivo_de_disco_básico

    Crea réplicas de la base de datos de estado inicial en el dispositivo de disco básico especificado.

  16. Utilice el comando metaset en un nodo del clúster distinto del nodo que se ha restaurado para agregar éste a todos los conjuntos de discos.


    phys-schost-2# metaset -s setname -a -h nodelist
    
    -a

    Agrega (crea) el metaset.

    Configure el metadispositivo o volumen/duplicación ( /) de acuerdo con lo indicado en la documentación de Solstice DiskSuite.

    El nodo se rearranca en modo de clúster. El clúster está listo para ser utilizado.


Ejemplo 9–7 Restauración del sistema de archivos raíz (/) incluido en el metadispositivo de Solstice DiskSuite o el volumen de Solaris Volume Manager

En el ejemplo siguiente se muestra cómo se restaura el sistema de archivos raíz (/) en el nodo phys-schost-1 desde el dispositivo de cinta /dev/rmt/0. El comando metaset se ejecuta desde otro de los nodos del clúster, phys-schost-2, para suprimir y más adelante volver a agregar el nodo phys-schost-1 al grupo de discos schost-1. El resto de comandos se ejecutan desde phys-schost-1. Se crea un nuevo bloque de arranque en /dev/rdsk/c0t0d0s0, así como tres réplicas de la base de datos de estado en /dev/rdsk/c0t0d0s4 .


[Become superuser or assume an equivalent role on a cluster node with access to the metaset, 
other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]

Arranque el nodo desde el CD de Solaris:


[Use format
 and newfs to recreate partitions and file systems
.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Remove the lines in /
temp-mountpoint/etc/system file for MDD root information:
]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab
file]
Example: 
Change from—
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:
]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Replace the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

ProcedureSPARC: Cómo restaurar un sistema de archivos raíz (/) no encapsulado (VERITAS Volume Manager)

Utilice este procedimiento para restaurar un sistema de archivos raíz (/) no encapsulado en un nodo. No se debe arrancar el nodo que se vaya a restaurar. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de restauración.


Nota –

Puesto que es necesario efectuar la partición del nuevo disco con el mismo formato que el disco averiado, identifique el esquema de partición de éste antes de iniciar el procedimiento y vuelva a crear los sistemas de archivos apropiados.


Pasos
  1. Sustituya el disco averiado en el nodo en el que se va a restaurar el sistema de archivos raíz (/).

    Consulte los procedimientos de sustitución de discos en la documentación de su servidor.

  2. Arranque el nodo que se va a restaurar.

    • Si usa el CD de Solaris, en el indicador ok de OpenBoot PROM, escriba el siguiente comando:


      ok boot cdrom -s
      
    • Si usa un servidor Solaris JumpStartTM, en el indicador ok de OpenBoot PROM, escriba el siguiente comando:


      ok boot net -s
      
  3. Cree todas las particiones y el espacio de intercambio en el disco raíz mediante el comando format.

    Vuelva a crear el esquema de particiones original del disco averiado.

  4. Cree el sistema de archivos raíz (/) y otros sistemas de archivos requeridos mediante el comando newfs(1M).

    Vuelva a crear los sistemas de archivos originales del disco averiado.


    Nota –

    No olvide crear el sistema de archivos /global/.devices/nodo@id_nodo


  5. Monte el sistema de archivos raíz (/) en un punto de montaje temporal.


    # mount device temp-mountpoint
    
  6. Restaure el sistema de archivos raíz (/) de la copia de seguridad y desmonte y verifique el sistema de archivos.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    Se ha restaurado el sistema de archivos.

  7. Instale un nuevo bloque de arranque en el nuevo disco.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  8. Reinicie el nodo en el modo multiusuario.


    # reboot
    
  9. Actualice el ID del disco mediante el comando scdidadm.


    # scdidadm -R /dev/rdsk/disk-device
    
  10. Pulse Control-d para reanudar en modo multiusuario.

    El nodo rearranca en modo de clúster. El clúster está listo para ser utilizado.


Ejemplo 9–8 SPARC: Restauración de un sistema de archivos raíz (/) no encapsulado (VERITAS Volume Manager)

En el ejemplo siguiente se muestra cómo se restaura un sistema de archivos raíz (/) no encapsulado en el nodo phys-schost-1 desde el dispositivo de cinta /dev/rmt/0.


[Replace the failed disk and boot the node:]

Arranque el nodo desde el CD de Solaris: En el indicador ok de OpenBoot PROM, escriba el siguiente comando:


ok boot cdrom -s
...
[Use format and 
newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Reboot:]
# reboot
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0

ProcedureSPARC: Cómo restaurar un sistema de archivos raíz (/) encapsulado (VERITAS Volume Manager)

Utilice este procedimiento para restaurar un sistema de archivos raíz (/) encapsulado en un nodo. No se debe arrancar el nodo que se vaya a restaurar. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de restauración.


Nota –

Puesto que es necesario efectuar la partición del nuevo disco con el mismo formato que el disco averiado, identifique el esquema de partición de éste antes de iniciar el procedimiento y vuelva a crear los sistemas de archivos apropiados.


Pasos
  1. Sustituya el disco averiado en el nodo en el que se va a restaurar el sistema de archivos raíz (/).

    Consulte los procedimientos de sustitución de discos en la documentación de su servidor.

  2. Arranque el nodo que se va a restaurar.

    • Si usa el CD de Solaris, en el indicador ok de OpenBoot PROM, escriba el siguiente comando:


      ok boot cdrom -s
      
    • Si usa un servidor Solaris JumpStart TM, en el indicador ok de OpenBoot PROM, escriba el siguiente comando:


      ok boot net -s
      
  3. Cree todas las particiones y el espacio de intercambio en el disco raíz mediante el comando format.

    Vuelva a crear el esquema de particiones original del disco averiado.

  4. Cree el sistema de archivos raíz (/) y otros sistemas de archivos requeridos mediante el comando newfs(1M).

    Vuelva a crear los sistemas de archivos originales del disco averiado.


    Nota –

    No olvide crear el sistema de archivos /global/.devices/nodo@id_nodo.


  5. Monte el sistema de archivos raíz (/) en un punto de montaje temporal.


    # mount device temp-mountpoint
    
  6. Restaure el sistema de archivos raíz (/) de la copia de seguridad.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    
  7. Cree un archivo install-db vacío.

    Esta acción pondrá el nodo en modo de instalación de VxVM en el siguiente rearranque.


    # touch \
    /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
    
  8. Elimine las siguientes entradas del archivo / temp-mountpoint/etc/system.


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1
  9. Edite el archivo /temp-mountpoint /etc/vfstab y sustituya todos los puntos de montaje de VxVM por los dispositivos de disco estándar del disco raíz, como /dev/dsk/c0t0d0s0.


    Example: 
    Change from—
    /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
  10. Desmonte el sistema de archivos temporal y verifique el sistema de archivos.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    
  11. Instale el bloque de arranque en el nuevo disco.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  12. Reinicie el nodo en el modo multiusuario.


    # reboot
    
  13. Actualice el ID del disco con scdidadm(1M).


    # scdidadm -R /dev/rdsk/c0t0d0
    
  14. Ejecute vxinstall para encapsular el disco y rearrancar.


    # vxinstall
    
  15. En caso de conflicto de número menor con otro sistema, desmonte los dispositivos globales y asigne otro número menor al grupo de discos.

    • Desmonte el sistema de archivos de los dispositivos globales del nodo del clúster.


      # umount /global/.devices/node@nodeid
      
    • Asigne un nuevo número menor al grupo de discos rootdg en el nodo del clúster.


      # vxdg reminor rootdg 100
      
  16. Pare y rearranque el nodo en el modo de clúster.


    # shutdown -g0 -i6 -y
    

Ejemplo 9–9 SPARC: Restauración de un sistema de archivos raíz (/) encapsulado (VERITAS Volume Manager)

En el ejemplo siguiente se muestra cómo se restaura un sistema de archivos raíz (/) encapsulado en el nodo phys-schost-1 desde el dispositivo de cinta /dev/rmt/0.


[Replace the failed disk and boot the node:]

Arranque el nodo desde el CD de Solaris: En el indicador ok de OpenBoot PROM, escriba el siguiente comando:


ok boot cdrom -s
...
[Use format and 
newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and 
remove or comment out the following entries:]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from—
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no-

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Reboot:]
# reboot
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Run vxinstall:]
# vxinstall
Choose to encapsulate the root disk.
[If there is a conflict in minor number, reminor the rootdg disk group
:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

Véase también

Para obtener instrucciones sobre cómo duplicar el disco raíz encapsulado, consulte Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.