Ésta es la lista de las instrucciones paso a paso incluidas en este capítulo.
Cómo determinar el número de cintas necesarias para efectuar una copia de seguridad completa
Cómo efectuar una copia de seguridad del sistema de archivos raíz (/)
SPARC: Cómo efectuar copias de seguridad en línea de volúmenes (VERITAS Volume Manager)
Cómo restaurar el sistema de archivos raíz (/) (Solstice DiskSuite/Solaris Volume Manager)
SPARC: Cómo restaurar un sistema de archivos raíz (/) no encapsulado (VERITAS Volume Manager)
SPARC: Cómo restaurar un sistema de archivos raíz (/) encapsulado (VERITAS Volume Manager)
Tarea |
Si desea obtener más instrucciones, vaya a … |
---|---|
Buscar los nombres de los sistemas de archivos de los que desee realizar copias de seguridad | |
Calcular cuántas cintas serán necesarias para la copia de seguridad |
Cómo determinar el número de cintas necesarias para efectuar una copia de seguridad completa |
Efectuar una copia de seguridad del sistema de archivos raíz |
Cómo efectuar una copia de seguridad del sistema de archivos raíz (/) |
Efectuar una copia de seguridad en línea en sistemas con duplicaciones o plex. | |
SPARC: Cómo efectuar copias de seguridad en línea de volúmenes (VERITAS Volume Manager) |
Utilice este procedimiento para determinar los nombres de los sistemas de archivos de los que desea efectuar copia de seguridad.
Muestre el contenido del archivo /etc/vfstab.
No es necesario ser usuario root o asumir un rol similar para ejecutar este comando.
% more /etc/vfstab |
En la columna del punto de montaje, busque el nombre del sistema de archivos del que desee efectuar una copia de seguridad.
Utilice este nombre al efectuar la copia de seguridad del sistema de archivos.
% more /etc/vfstab |
En el ejemplo siguiente se muestran los nombres de los sistemas de archivos disponibles incluidos en el archivo /etc/vfstab.
% more /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # #/dev/dsk/c1d0s2 /dev/rdsk/c1d0s2 /usr ufs 1 yes - f - /dev/fd fd - no - /proc - /proc proc - no - /dev/dsk/c1t6d0s1 - - swap - no - /dev/dsk/c1t6d0s0 /dev/rdsk/c1t6d0s0 / ufs 1 no - /dev/dsk/c1t6d0s3 /dev/rdsk/c1t6d0s3 /cache ufs 2 yes - swap - /tmp tmpfs - yes - |
Utilice este procedimiento para calcular el número de cintas que serán necesarias para efectuar una copia de seguridad de un sistema de archivos.
Conviértase en usuario root o asuma un rol equivalente en el nodo del clúster del que desee realizar una copia de seguridad.
Haga una estimación del tamaño de la copia, en bytes.
# ufsdump S filesystem |
Muestra el tamaño estimado en bytes necesario para efectuar la copia de seguridad.
Especifica el nombre del sistema de archivos del que se desea efectuar la copia de seguridad.
Divida el tamaño estimado por la capacidad de la cinta para averiguar el número de cintas necesarias.
En el el ejemplo siguiente, el tamaño del sistema de archivos es de 905.881.620 bytes, por lo que cabrá perfectamente en una cinta de 4 GB (905.881.620 ÷ 4.000.000.000).
# ufsdump S /global/phys-schost-1 905881620 |
Utilice este procedimiento para efectuar una copia de seguridad del sistema de archivos raíz (/) de un nodo del clúster. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de copia de seguridad.
Conviértase en usuario root o asuma un rol equivalente en el nodo del clúster del que desea realizar una copia de seguridad.
Conmute todos los servicios de datos del clúster del cual se va a efectuar la copia de seguridad a otro nodo del clúster.
# scswitch -z -D disk-device-group[,...] -h node[,...] |
Efectúa la conmutación.
Nombre del grupo de dispositivos de disco que se debe conmutar.
Nombre del nodo del clúster al que se debe conmutar el grupo de dispositivos de disco. Este nodo se convierte en el nuevo principal.
Pare el nodo.
# shutdown -g0 -y -i0 |
Rearranque el nodo en modo sin clúster.
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
Efectúe la copia de seguridad del sistema de archivos raíz (/).
Si el disco raíz no está encapsulado, utilice el comando siguiente.
# ufsdump 0ucf dump-device / |
Si el disco raíz está encapsulado, utilice el comando siguiente.
# ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol |
Para obtener información adicional, consulte la página de comando man ufsdump(1M).
Rearranque el nodo en el modo de clúster.
# init 6 |
En el ejemplo siguiente se efectúa una copia de seguridad del sistema de archivos raíz (/) en el dispositivo de cinta /dev/rmt/0.
# ufsdump 0ucf /dev/rmt/0 / DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0 DUMP: Mapping (Pass I) [regular files] DUMP: Mapping (Pass II) [directories] DUMP: Estimated 859086 blocks (419.48MB). DUMP: Dumping (Pass III) [directories] DUMP: Dumping (Pass IV) [regular files] DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec DUMP: DUMP IS DONE DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000 |
Se puede efectuar una copia de seguridad de un metadispositivo duplicado Solstice DiskSuite o de un volumen Solaris Volume Manager sin desmontarlo ni poner fuera de línea toda la duplicación. Una de las subduplicaciones se debe poner temporalmente fuera de línea, perdiendo así la propiedad de duplicación, pero puede volver a ponerse en línea y resincronizarse tan pronto como finalice la copia de seguridad, sin tener que detener el sistema ni denegar al usuario el acceso a los datos. El uso de duplicaciones para efectuar copias de seguridad crea copias que son “capturas” de un sistema de archivos activo.
Puede haber problemas si un programa escribe datos en el volumen inmediatamente antes de que se ejecute el comando lockfs. Para evitarlos, pare temporalmente todos los servicios que se ejecuten en este nodo. Asegúrese también de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de copia de seguridad.
Conviértase en usuario root o asuma un rol equivalente en el nodo del clúster del que desea realizar una copia de seguridad.
Utilice el comando metaset(1M) para determinar qué nodo es el propietario del volumen copiado.
# metaset -s setname |
Especifica el nombre del conjunto de discos.
Utilice el comandolockfs(1M) con la opción -w para bloquear el sistema de archivos contra escritura.
# lockfs -w mountpoint |
Sólo será necesario bloquear el sistema de archivos si en la duplicación reside un sistema de archivos UFS. Por ejemplo, si el metadispositivo Solstice DiskSuite o el volumen Solaris Volume Manager se configuran como dispositivo básico para software de gestión de bases de datos u otra aplicación específica, no será necesario utilizar el comando lockfs. No obstante, puede ser conveniente ejecutar la utilidad apropiada, en función del proveedor, para vaciar las memorias intermedias y bloquear el acceso.
Utilice el comando metastat(1M) para determinar los nombres de las subduplicaciones.
# metastat -s setname -p |
Muestra el estado en un formato similar al del archivo md.tab.
Utilice el comando metadetach(1M) para poner fuera de línea una subduplicación de la duplicación.
# metadetach -s setname mirror submirror |
Se seguirán efectuando lecturas en las demás subduplicaciones. Sin embargo, la subduplicación que esté fuera de línea perderá la sincronía en cuanto se efectúe la primera escritura en la duplicación. Esta incoherencia se corregirá al volver a poner dicha subduplicación en línea. No es necesario ejecutar fsck.
Utilice el comando lockfs con la opción -u para desbloquear los sistemas de archivos y permitir que prosigan las operaciones de escritura.
# lockfs -u mountpoint |
Efectúe una comprobación del sistema de archivos.
# fsck /dev/md/diskset/rdsk/submirror |
Efectúe la copia de seguridad de la subduplicación en una cinta u otro soporte.
Utilice el comando ufsdump(1M) o la función de copia de seguridad que acostumbre a usar.
# ufsdump 0ucf dump-device submirror |
Utilice para la subduplicación el nombre de dispositivo básico (/rdsk), en lugar del nombre de dispositivo de bloques (/dsk).
Use el comando metattach(1M) para volver a poner en línea el metadispositivo o el volumen.
# metattach -s setname mirror submirror |
Cuando el metadispositivo o el volumen vuelvan a ponerse en línea, se resincronizarán automáticamente con la duplicación.
Utilice el comando metastat para comprobar que la subduplicación se resincronice.
# metastat -s setname mirror |
En el ejemplo siguiente, el nodo phys-schost- del clúster es el propietario del metaset schost-1, por lo que el procedimiento de copia de seguridad se lleva a cabo desde phys-schost-1. La duplicación /dev/md/schost-1/dsk/d0 consta de las subduplicaciones d10, d20 y d30.
[Determine the owner of the metaset:] # metaset -s schost-1 Set name = schost-1, Set number = 1 Host Owner phys-schost-1 Yes ... [Lock the file system from writes:] # lockfs -w /global/schost-1 [List the submirrors:] # metastat -s schost-1 -p schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1 schost-1/d10 1 1 d4s0 schost-1/d20 1 1 d6s0 schost-1/d30 1 1 d8s0 [Take a submirror offline:] # metadetach -s schost-1 d0 d30 [Unlock the file system:] # lockfs -u / [Check the file system:] # fsck /dev/md/schost-1/rdsk/d30 [Copy the submirror to the backup device:] # ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30 DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0. ... DUMP: DUMP IS DONE [Bring the submirror back online:] # metattach -s schost-1 d0 d30 schost-1/d0: submirror schost-1/d30 is attached [Resync the submirror:] # metastat -s schost-1 d0 schost-1/d0: Mirror Submirror 0: schost-0/d10 State: Okay Submirror 1: schost-0/d20 State: Okay Submirror 2: schost-0/d30 State: Resyncing Resync in progress: 42% done Pass: 1 Read option: roundrobin (default) ... |
VERITAS Volume Manager identifica un volumen duplicado como plex. Se puede efectuar una copia de seguridad de un plex sin desmontarlo ni poner todo el volumen fuera de línea. Para ello se crea una captura del volumen y se efectúa una copia de seguridad de este volumen temporal sin parar el sistema ni denegar al usuario el acceso a los datos.
Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de copia de seguridad.
Inicie sesión en cualquier nodo del clúster, y conviértase en usuario root o asuma un rol equivalente en el nodo principal actual del grupo de discos del clúster.
Muestre la información del grupo de discos.
# vxprint -g diskgroup |
Ejecute el comando scstat(1M) para ver qué nodo tiene actualmente importado el grupo de discos, lo que indica que se trata del nodo principal del grupo de discos.
# scstat -D |
Muestra el estado de todos los grupos de dispositivos de disco.
Cree una captura del volumen mediante el comando vxassist(1M).
# vxassist -g diskgroup snapstart volume |
La creación de una captura puede ser un proceso largo, según el tamaño del volumen.
Compruebe que se haya creado el nuevo volumen.
# vxprint -g diskgroup |
Una vez finalizada la captura, el campo State del grupo de discos seleccionado muestra el estado Snapdone.
Detenga los servicios de datos que accedan al sistema de archivos.
# scswitch -z -g resource-group[,...] -h ““ |
Pare todos los servicios de datos para garantizar que la copia de seguridad del sistema de archivos de los datos se efectúe de forma correcta. Si no se está ejecutando ningún servicio de datos, no es necesario que lleve a cabo el Paso 6 y el Paso 8.
Cree un volumen de copia de seguridad con el nombre bkup-vol y adjunte al mismo el volumen de captura mediante el comando vxassist.
# vxassist -g diskgroup snapshot volume bkup-vol |
Reinicie los servicios de datos detenidos en el Paso 6 con el comando scswitch(1M).
# scswitch -z -g resource-group[,...] -h node[,...] |
Compruebe que el volumen se haya adjuntado al nuevo volumen volumen_copia_seguridad mediante el comando vxprint.
# vxprint -g diskgroup |
Registre el cambio de configuración del grupo de discos.
# scconf -c -D name=diskgroup,sync |
Verifique el volumen de copia de seguridad mediante el comando fsck.
# fsck -y /dev/vx/rdsk/diskgroup/bkup-vol |
Efectúe una copia de seguridad del volumen volumen_copia_seguridad en cinta u otro soporte.
Use el comando ufsdump(1M) o la utilidad de copia de seguridad que suela usar.
# ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol |
Suprima el volumen temporal mediante vxedit(1M).
# vxedit -rf rm bkup-vol |
Registre los cambios en la configuración del grupo de discos mediante el comando scconf(1M).
# scconf -c -D name=diskgroup,sync |
En el siguiente ejemplo, el nodo del clúster phys-schost-2 es el propietario principal del grupo de dispositivos de disco schost-1; por lo tanto, el proceso de copia de seguridad se realiza desde phys-schost-2. Se copia el volumen /vo101 y, a continuación, se asocia con un nuevo volumen, bkup-vol.
[Become superuser or assume an equivalent role on the primary node.] [Identify the current primary node for the disk device group:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: schost-1 Online [List the disk device group information:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - dm schost-102 c1t2d0s2 - 17678493 - - - - dm schost-103 c2t1d0s2 - 8378640 - - - - dm schost-104 c2t2d0s2 - 17678493 - - - - dm schost-105 c1t3d0s2 - 17678493 - - - - dm schost-106 c2t3d0s2 - 17678493 - - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - [Start the snapshot operation:] # vxassist -g schost-1 snapstart vol01 [Verify the new volume was created:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - dm schost-102 c1t2d0s2 - 17678493 - - - - dm schost-103 c2t1d0s2 - 8378640 - - - - dm schost-104 c2t2d0s2 - 17678493 - - - - dm schost-105 c1t3d0s2 - 17678493 - - - - dm schost-106 c2t3d0s2 - 17678493 - - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - pl vol01-04 vol01 ENABLED 208331 - SNAPDONE - - sd schost-105-01 vol01-04 ENABLED 104139 0 - - - sd schost-106-01 vol01-04 ENABLED 104139 0 - - - [Stop data services, if necessary:] # scswitch -z -g nfs-rg -h ““ [Create a copy of the volume:] # vxassist -g schost-1 snapshot vol01 bkup-vol [Restart data services, if necessary:] # scswitch -z -g nfs-rg -h phys-schost-1 [Verify bkup-vol was created:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - ... v bkup-vol gen ENABLED 204800 - ACTIVE - - pl bkup-vol-01 bkup-vol ENABLED 208331 - ACTIVE - - sd schost-105-01 bkup-vol-01 ENABLED 104139 0 - - - sd schost-106-01 bkup-vol-01 ENABLED 104139 0 - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - [Synchronize the disk group with cluster framework:] # scconf -c -D name=schost-1,sync [Check the file systems:] # fsck -y /dev/vx/rdsk/schost-1/bkup-vol [Copy bkup-vol to the backup device:] # ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0. ... DUMP: DUMP IS DONE [Remove the bkup-volume:] # vxedit -rf rm bkup-vol [Synchronize the disk group:] # scconf -c -D name=schost-1,sync |
El comando ufsrestore(1M) copia archivos en disco, en una ubicación relativa al directorio de trabajo actual, a partir de copias de seguridad creadas mediante el comando ufsdump(1M). Puede utilizar ufsrestore para volver a cargar toda la jerarquía de sistemas de archivos a partir de un volcado de nivel 0 y los volcados incrementales subsiguientes o para restaurar uno o más archivos individuales desde cualquier cinta de volcado. Si se ejecuta ufsrestore como usuario root o un rol equivalente, los archivos se restauran con su propietario original, última fecha y hora de modificación y modo (permisos).
Antes de empezar a restaurar archivos o sistemas de archivos deberá conocer la siguiente información.
Qué cintas necesita
El nombre del dispositivo básico en el que desee restaurar el sistema de archivos
El tipo de unidad de cinta que vaya a utilizar
El nombre de dispositivo (local o remoto) correspondiente a la unidad de cinta
El esquema de partición de los posibles discos averiados, porque las particiones y los sistemas de archivos se deben duplicar de forma exacta en el disco de repuesto
Tarea |
Si desea obtener más instrucciones, vaya a … |
---|---|
Para Solstice DiskSuite/Solaris Volume Manager, restaurar archivos de forma interactiva según los procedimientos de restauración de Solaris | |
Para Solstice DiskSuite/Solaris Volume Manager, restaurar el sistema de archivos raíz (/) |
Cómo restaurar el sistema de archivos raíz (/) (Solstice DiskSuite/Solaris Volume Manager) |
| |
En el caso de VERITAS Volume Manager, restaure un sistema de archivos raíz no encapsulado ( /). |
SPARC: Cómo restaurar un sistema de archivos raíz (/) no encapsulado (VERITAS Volume Manager) |
En el caso de VERITAS Volume Manager, restaure un sistema de archivos raíz encapsulado ( /). |
SPARC: Cómo restaurar un sistema de archivos raíz (/) encapsulado (VERITAS Volume Manager) |
Utilice este procedimiento para restaurar uno o más archivos individuales. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de restauración.
Conviértase en usuario root o asuma un rol equivalente en el nodo del clúster que desea restaurar.
Pare todos los servicios de datos que utilicen los archivos que se vayan a restaurar.
# scswitch -z -g resource-group[,...] -h ““ |
Restaure los archivos mediante el comando ufsrestore.
Utilice este procedimiento para restaurar el sistema de archivos raíz (/) en un nuevo disco, como en el caso de reemplazar un disco raíz averiado. No se debe arrancar el nodo que se vaya a restaurar. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de restauración.
Como debe dividir el nuevo disco en particiones utilizando el mismo formato que el disco con fallos, determine el esquema de partición antes de comenzar este proceso y vuelva a crear los sistemas de archivos como sea pertinente.
Conviértase en usuario root o asuma un rol equivalente en un nodo del clúster con acceso a los conjuntos de discos a los que está vinculado también el nodo.
Conviértase en usuario root o asuma un rol equivalente en un nodo diferente al que desee restaurar.
Suprima de todos los metasets el nombre de host del nodo que se va a restaurar.
Ejecute este comando desde un nodo del metaset distinto del que va a suprimir.
# metaset -s setname -f -d -h nodelist |
Especifica el nombre del conjunto de discos.
Forzar.
Elimina un elemento del conjunto de discos.
Especifica el nombre del nodo que se debe borrar del conjunto de discos.
Restaure los sistemas de archivos root (/) y /usr.
Para restaurar los sistemas de archivos root y /usr, siga el procedimiento descrito en el Capítulo 26, Restoring Files and File Systems (Tasks) de System Administration Guide: Devices and File Systems. Omita el paso del procedimiento de Solaris para reiniciar el sistema.
No olvide crear el sistema de archivos /global/.devices/nodo@id_nodo
Reinicie el nodo en el modo multiusuario.
# reboot |
Sustituya el ID del disco mediante el comando scdidadm(1M).
# scdidadm -R rootdisk |
Utilice el comando metadb(1M) para volver a crear las réplicas de la base de datos de estado.
# metadb -c copies -af raw-disk-device |
Especifica el número de réplicas que se deben crear.
Dispositivo de disco básico en el que se deben crear las réplicas.
Agrega réplicas.
Utilice el comando metaset en un nodo del clúster distinto del nodo que se ha restaurado para agregar éste a todos los metasets.
phys-schost-2# metaset -s setname -a -h nodelist |
Crea y agrega el host al conjunto de discos.
El nodo se rearranca en modo de clúster. El clúster está listo para ser utilizado.
En el ejemplo siguiente se muestra cómo se restaura el sistema de archivos raíz (/) en el nodo phys-schost-1 desde el dispositivo de cinta /dev/rmt/0. El comando metaset se ejecuta desde otro de los nodos del clúster, phys-schost-2, para eliminar y más adelante volver a agregar el nodo phys-schost-1 al grupo de discos schost-1. El resto de comandos se ejecutan desde phys-schost-1. Se crea un nuevo bloque de arranque en /dev/rdsk/c0t0d0s0, así como tres réplicas de la base de datos de estado en /dev/rdsk/c0t0d0s4 .
[Become superuser or assume an equivalent role on a cluster node other than the node to be restored .] [Remove the node from the metaset:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Replace the failed disk and boot the node:] Restore the root (/) and /usr file system using the procedure in the Solaris system administration documentation [Reboot:] # reboot [Replace the disk ID:] # scdidadm -R /dev/dsk/c0t0d0 [Recreate state database replicas:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 [Add the node back to the metaset:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
Use este procedimiento para restaurar un sistema de archivos raíz (/) que estaba en un metadispositivo Solstice DiskSuite o en un volumen Solaris Volume Manager cuando se realizaron las copias de seguridad. Este procedimiento se debe llevar a cabo cuando, por ejemplo, un disco raíz se ha deteriorado y sustituido por un disco nuevo. No se debe arrancar el nodo que se vaya a restaurar. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de restauración.
Puesto que es necesario efectuar la partición del nuevo disco con el mismo formato que el disco averiado, identifique el esquema de partición de éste antes de iniciar el procedimiento y vuelva a crear los sistemas de archivos apropiados.
Conviértase en usuario root o asuma un rol equivalente en un nodo del clúster con acceso al conjunto de discos, diferente del nodo que desea restaurar.
Elimine de todos conjuntos de discos el nombre de host del nodo que se va a restaurar.
# metaset -s setname -f -d -h nodelist |
Especifica el nombre del metaset.
Forzar.
Borrar del metaset.
Especifica el nombre del nodo que se debe borrar del metaset.
Sustituya el disco averiado en el nodo en el que se va a restaurar el sistema de archivos raíz (/).
Consulte los procedimientos de sustitución de discos en la documentación de su servidor.
Arranque el nodo que se va a restaurar.
Si utiliza el CD de Solaris:
SPARC: En el indicador ok de OpenBoot PROM, escriba el siguiente comando:
ok boot cdrom -s |
x86: Inserte el CD en la unidad de CD del sistema y arránquelo; para ello, apáguelo y vuelva a encenderlo. En la pantalla de parámetros de arranque actuales, escriba el siguiente comando:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
Si utiliza un servidor Solaris JumpStartTM:
SPARC: En el indicador ok de OpenBoot PROM, escriba el siguiente comando:
ok boot net -s |
x86: Arranque el sistema; para ello, apáguelo y vuelva a encenderlo. En la pantalla de parámetros de arranque actuales, escriba el siguiente comando:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
Cree todas las particiones y el espacio de intercambio en el disco raíz mediante el comando format.
Vuelva a crear el esquema de particiones original del disco averiado.
Cree el sistema de archivos raíz (/) y otros sistemas de archivos requeridos mediante el comando newfs(1M).
Vuelva a crear los sistemas de archivos originales del disco averiado.
No olvide crear el sistema de archivos /global/.devices/nodo@id_nodo
Monte el sistema de archivos raíz (/) en un punto de montaje temporal.
# mount device temp-mountpoint |
Utilice los comandos siguientes para restaurar el sistema de archivos raíz (/).
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable |
Instale un nuevo bloque de arranque en el nuevo disco.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device |
Suprima las líneas correspondientes a la información de raíz de MDD del archivo /punto_de_montaje_temporal/etc/system.
* Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) |
Edite el archivo /temp-mountpoint/etc/vfstab para cambiar la entrada raíz desde un metadispositivo Solstice DiskSuite o un volumen Solaris Volume Manager a un segmento normal correspondiente para cada uno de los sistemas de archivos del disco raíz que forme parte del metadispositivo o del volumen.
Example: Change from— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - |
Desmonte el sistema de archivos temporal y verifique el dispositivo de disco básico.
# cd / # umount temp-mountpoint # fsck raw-disk-device |
Reinicie el nodo en el modo multiusuario.
# reboot |
Sustituya el ID del disco mediante el comando scdidadm.
# scdidadm -R rootdisk |
Utilice el comando metadb(1M) para volver a crear las réplicas de la base de datos de estado.
# metadb -c copies -af raw-disk-device |
Especifica el número de réplicas que se deben crear.
Crea réplicas de la base de datos de estado inicial en el dispositivo de disco básico especificado.
Utilice el comando metaset en un nodo del clúster distinto del nodo que se ha restaurado para agregar éste a todos los conjuntos de discos.
phys-schost-2# metaset -s setname -a -h nodelist |
Agrega (crea) el metaset.
Configure el metadispositivo o volumen/duplicación ( /) de acuerdo con lo indicado en la documentación de Solstice DiskSuite.
El nodo se rearranca en modo de clúster. El clúster está listo para ser utilizado.
En el ejemplo siguiente se muestra cómo se restaura el sistema de archivos raíz (/) en el nodo phys-schost-1 desde el dispositivo de cinta /dev/rmt/0. El comando metaset se ejecuta desde otro de los nodos del clúster, phys-schost-2, para suprimir y más adelante volver a agregar el nodo phys-schost-1 al grupo de discos schost-1. El resto de comandos se ejecutan desde phys-schost-1. Se crea un nuevo bloque de arranque en /dev/rdsk/c0t0d0s0, así como tres réplicas de la base de datos de estado en /dev/rdsk/c0t0d0s4 .
[Become superuser or assume an equivalent role on a cluster node with access to the metaset, other than the node to be restored.] [Remove the node from the metaset:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Replace the failed disk and boot the node:] |
Arranque el nodo desde el CD de Solaris:
SPARC: En el indicador ok de OpenBoot PROM, escriba el siguiente comando:
ok boot cdrom -s |
x86: Inserte el CD en la unidad de CD del sistema y arránquelo; para ello, apáguelo y vuelva a encenderlo. En la pantalla de parámetros de arranque actuales, escriba el siguiente comando:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
[Use format and newfs to recreate partitions and file systems .] [Mount the root file system on a temporary mount point:] # mount /dev/dsk/c0t0d0s0 /a [Restore the root file system:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [Install a new boot block:] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Remove the lines in / temp-mountpoint/etc/system file for MDD root information: ] * Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) [Edit the /temp-mountpoint/etc/vfstab file] Example: Change from— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /usr ufs 1 no - [Unmount the temporary file system and check the raw disk device: ] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Reboot:] # reboot [Replace the disk ID:] # scdidadm -R /dev/rdsk/c0t0d0 [Recreate state database replicas:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 [Add the node back to the metaset:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
Utilice este procedimiento para restaurar un sistema de archivos raíz (/) no encapsulado en un nodo. No se debe arrancar el nodo que se vaya a restaurar. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de restauración.
Puesto que es necesario efectuar la partición del nuevo disco con el mismo formato que el disco averiado, identifique el esquema de partición de éste antes de iniciar el procedimiento y vuelva a crear los sistemas de archivos apropiados.
Sustituya el disco averiado en el nodo en el que se va a restaurar el sistema de archivos raíz (/).
Consulte los procedimientos de sustitución de discos en la documentación de su servidor.
Arranque el nodo que se va a restaurar.
Si usa el CD de Solaris, en el indicador ok de OpenBoot PROM, escriba el siguiente comando:
ok boot cdrom -s |
Si usa un servidor Solaris JumpStartTM, en el indicador ok de OpenBoot PROM, escriba el siguiente comando:
ok boot net -s |
Cree todas las particiones y el espacio de intercambio en el disco raíz mediante el comando format.
Vuelva a crear el esquema de particiones original del disco averiado.
Cree el sistema de archivos raíz (/) y otros sistemas de archivos requeridos mediante el comando newfs(1M).
Vuelva a crear los sistemas de archivos originales del disco averiado.
No olvide crear el sistema de archivos /global/.devices/nodo@id_nodo
Monte el sistema de archivos raíz (/) en un punto de montaje temporal.
# mount device temp-mountpoint |
Restaure el sistema de archivos raíz (/) de la copia de seguridad y desmonte y verifique el sistema de archivos.
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable # cd / # umount temp-mountpoint # fsck raw-disk-device |
Se ha restaurado el sistema de archivos.
Instale un nuevo bloque de arranque en el nuevo disco.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device |
Reinicie el nodo en el modo multiusuario.
# reboot |
Actualice el ID del disco mediante el comando scdidadm.
# scdidadm -R /dev/rdsk/disk-device |
Pulse Control-d para reanudar en modo multiusuario.
El nodo rearranca en modo de clúster. El clúster está listo para ser utilizado.
En el ejemplo siguiente se muestra cómo se restaura un sistema de archivos raíz (/) no encapsulado en el nodo phys-schost-1 desde el dispositivo de cinta /dev/rmt/0.
[Replace the failed disk and boot the node:] |
Arranque el nodo desde el CD de Solaris: En el indicador ok de OpenBoot PROM, escriba el siguiente comando:
ok boot cdrom -s ... [Use format and newfs to create partitions and file systems] [Mount the root file system on a temporary mount point:] # mount /dev/dsk/c0t0d0s0 /a [Restore the root file system:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Install a new boot block:] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Reboot:] # reboot [Update the disk ID:] # scdidadm -R /dev/rdsk/c0t0d0 |
Utilice este procedimiento para restaurar un sistema de archivos raíz (/) encapsulado en un nodo. No se debe arrancar el nodo que se vaya a restaurar. Asegúrese de que el clúster funcione sin problemas antes de llevar a cabo el procedimiento de restauración.
Puesto que es necesario efectuar la partición del nuevo disco con el mismo formato que el disco averiado, identifique el esquema de partición de éste antes de iniciar el procedimiento y vuelva a crear los sistemas de archivos apropiados.
Sustituya el disco averiado en el nodo en el que se va a restaurar el sistema de archivos raíz (/).
Consulte los procedimientos de sustitución de discos en la documentación de su servidor.
Arranque el nodo que se va a restaurar.
Si usa el CD de Solaris, en el indicador ok de OpenBoot PROM, escriba el siguiente comando:
ok boot cdrom -s |
Si usa un servidor Solaris JumpStart TM, en el indicador ok de OpenBoot PROM, escriba el siguiente comando:
ok boot net -s |
Cree todas las particiones y el espacio de intercambio en el disco raíz mediante el comando format.
Vuelva a crear el esquema de particiones original del disco averiado.
Cree el sistema de archivos raíz (/) y otros sistemas de archivos requeridos mediante el comando newfs(1M).
Vuelva a crear los sistemas de archivos originales del disco averiado.
No olvide crear el sistema de archivos /global/.devices/nodo@id_nodo.
Monte el sistema de archivos raíz (/) en un punto de montaje temporal.
# mount device temp-mountpoint |
Restaure el sistema de archivos raíz (/) de la copia de seguridad.
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable |
Cree un archivo install-db vacío.
Esta acción pondrá el nodo en modo de instalación de VxVM en el siguiente rearranque.
# touch \ /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db |
Elimine las siguientes entradas del archivo / temp-mountpoint/etc/system.
* rootdev:/pseudo/vxio@0:0 * set vxio:vol_rootdev_is_volume=1 |
Edite el archivo /temp-mountpoint /etc/vfstab y sustituya todos los puntos de montaje de VxVM por los dispositivos de disco estándar del disco raíz, como /dev/dsk/c0t0d0s0.
Example: Change from— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - |
Desmonte el sistema de archivos temporal y verifique el sistema de archivos.
# cd / # umount temp-mountpoint # fsck raw-disk-device |
Instale el bloque de arranque en el nuevo disco.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device |
Reinicie el nodo en el modo multiusuario.
# reboot |
Actualice el ID del disco con scdidadm(1M).
# scdidadm -R /dev/rdsk/c0t0d0 |
Ejecute vxinstall para encapsular el disco y rearrancar.
# vxinstall |
En caso de conflicto de número menor con otro sistema, desmonte los dispositivos globales y asigne otro número menor al grupo de discos.
Desmonte el sistema de archivos de los dispositivos globales del nodo del clúster.
# umount /global/.devices/node@nodeid |
Asigne un nuevo número menor al grupo de discos rootdg en el nodo del clúster.
# vxdg reminor rootdg 100 |
Pare y rearranque el nodo en el modo de clúster.
# shutdown -g0 -i6 -y |
En el ejemplo siguiente se muestra cómo se restaura un sistema de archivos raíz (/) encapsulado en el nodo phys-schost-1 desde el dispositivo de cinta /dev/rmt/0.
[Replace the failed disk and boot the node:] |
Arranque el nodo desde el CD de Solaris: En el indicador ok de OpenBoot PROM, escriba el siguiente comando:
ok boot cdrom -s ... [Use format and newfs to create partitions and file systems] [Mount the root file system on a temporary mount point:] # mount /dev/dsk/c0t0d0s0 /a [Restore the root file system:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [Create an empty install-db file:] # touch /a/etc/vx/reconfig.d/state.d/install-db [Edit /etc/system on the temporary file system and remove or comment out the following entries:] # rootdev:/pseudo/vxio@0:0 # set vxio:vol_rootdev_is_volume=1 [Edit /etc/vfstab on the temporary file system:] Example: Change from— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no- Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - [Unmount the temporary file system, then check the file system:] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Install a new boot block:] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Reboot:] # reboot [Update the disk ID:] # scdidadm -R /dev/rdsk/c0t0d0 [Run vxinstall:] # vxinstall Choose to encapsulate the root disk. [If there is a conflict in minor number, reminor the rootdg disk group :] # umount /global/.devices/node@nodeid # vxdg reminor rootdg 100 # shutdown -g0 -i6 -y |
Para obtener instrucciones sobre cómo duplicar el disco raíz encapsulado, consulte Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.