Solaris 11.2 se basa en un sistema de archivos ZFS. La E/S de disco, la partición de disco y el reflejo de disco (o RAID) son manejados completamente por ZFS. En consecuencia, no habría necesidad de realizar la partición del disco (como se hacía generalmente con los sistemas de archivos UFS). La totalidad del disco del sistema se debe presentar como una partición única.
Su matriz de almacenamiento ya está configurada con RAID; por lo tanto, no es esencial configurar un nivel adicional de RAID mediante ZFS para su sistema de archivos ACSLS. La RAID de ZFS es esencial si utiliza discos JBOD simples, pero la RAID adicional es opcional si emplea una matriz de discos completa. Los siguientes ejemplos muestran cada enfoque.
Su plataforma Solaris debe estar configurada con dos unidades de disco físicas. Particione el disco del sistema y su unidad reflejada para obtener un óptimo rendimiento de ZFS.
En un nuevo sistema, antes de la instalación del sistema operativo, puede particionar cada una de las unidades de disco del sistema de manera que la partición 0 contenga la mayoría (o la totalidad) del espacio en disco. ZFS opera más rápido y con mayor confiabilidad si tiene acceso a todo el disco. Asegúrese de que la partición que defina para ZFS en el segundo disco tenga el mismo tamaño que aquella definida en el disco principal.
En un sistema donde ya está instalado Solaris 11.2, utilice format
o fdisk
en el disco del sistema principal para ver el tamaño de la partición root
. Luego, formatee el segundo disco del sistema con una partición que tenga el mismo tamaño. Etiquete el disco cuando haya finalizado el formateo.
Cuando el sistema esté en funcionamiento, verifique rpool
con el comando zpool
status
.
# zpool status pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c0t5000C5000EA48903d0s0 ONLINE 0 0 0
Identifique el segundo disco del sistema y determine el ID del dispositivo.
# echo | format AVAILABLE DISK SELECTIONS: 0. c0t5000C5000EA48893d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848> /scsi_vhci/disk@g5000c5000ea48893 1. c0t5000C5000EA48903d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848> /scsi_vhci/disk@g5000c5000ea48903
Elija el dispositivo alternativo que tenga el tamaño más parecido al del dispositivo que se muestra en el paso 2. En este ejemplo, el ID del segundo disco es c0t5000C5000EA48893d0s.
Agregue el segundo disco a rpool
.
# zpool attach -f rpool \ c0t5000C5000EA48903d0 \ c0t5000C5000EA48893d0
El sistema comienza la reconstrucción de la unidad reflejada y copia los contenidos de la unidad de inicio en la segunda unidad. Esta operación tarda varios minutos y no debe ser interrumpida por un reinicio.
Puede supervisar el progreso mediante lo siguiente:
zpool status -v
Nota 1: Hasta finalizar la reconstrucción, cualquier pantalla de estado muestra el disco en modo degradado. El disco permanece en estado degradado mientras se copia la información del disco principal al reflejo.
Nota 2: Si se produce un error en zpool
attach
porque el disco está etiquetado como disco EFI, siga el proceso que se describe en el documento Administración de Solaris: dispositivos y sistemas de archivos: http://docs.oracle.com/cd/E23824_01/pdf/821-1459.pdf
. Este proceso convierte el disco EFI a SMI de la siguiente manera:
# format -e (select the drive to serve as the rpool mirror). format> partition partition> print partition> label (specify label type "0") Ready to label? y partition> modify (select "1" All free Hog) Do you wish to continue ... yes Free Hog Partition[6]? (specify partition "0") (Specify a size of "0" to the remaining partitions) Okay to make this current partition table? yes Enter table name: "c1t1d0" Ready to label disk? y partition> quit format> quit
Confirme la configuración de rpool
reflejada.
# zpool status pool: rpool state: ONLINE scan: resilvered 6.89G in 0h3m with 0 errors config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t5000C5000EA48903d0 ONLINE 0 0 0 c0t5000C5000EA48893d0 ONLINE 0 0 0
Repita esta operación en el nodo adyacente.
El sistema de archivos ACSLS reside en un zpool
en la matriz de almacenamiento compartido externo. En los siguientes ejemplos, se utiliza una matriz reflejada simple (RAID1) que utiliza solo dos discos. Pueden ser unidades reales, pero es más probable que sean dispositivos virtuales presentados como unidades discretas de la matriz de almacenamiento conectado.
La matriz de almacenamiento ya está configurada con RAID; por lo tanto, no es esencial configurar un nivel adicional de RAID mediante ZFS para su sistema de archivos ACSLS. La RAID de ZFS es esencial si utiliza discos JBOD simples, pero la RAID adicional es opcional si emplea una matriz de discos completa. Los siguientes ejemplos muestran cada enfoque.
Prepare la matriz de almacenamiento compartido.
En las configuraciones estándar, utilice una única unidad virtual de su matriz de discos. De lo contrario, la configuración reflejada RAID de ZFS utiliza dos unidades virtuales del mismo tamaño. Puede utilizar la herramienta de administración con la matriz de discos o la utilidad de formato Solaris para particionar las dos unidades virtuales con el fin de que tengan el mismo tamaño.
Determine el directorio base que desea para la instalación de ACSLS.
ACSLS 8.4 se puede instalar en cualquier sistema de archivos. El sistema de archivos base elegido no debe existir en el sistema rpool
. Si ya existe, debe destruir el sistema de archivos existente antes de crearlo en el nuevo zpool
.
Si se utiliza el directorio base /export/home
por defecto para ACSLS, es necesario destruir el sistema de archivos /expor
t de la agrupación root
por defecto en Solaris 11.2.
Para confirmar si /export/home
está conectado a rpool
, ejecute el siguiente comando:
# zfs list
Para separar /export/home
de rpool
, primero, guarde los archivos o los directorios que desea preservar. Asegúrese de que no existan directorios de inicio de usuarios actualmente activos en /export/home
. Luego use zfs
destroy
para eliminar todo en /export
:
# zfs destroy -r rpool/export
Repita este paso para separar rpool/export
en el nodo adyacente.
Use format
para identificar los nombres de dispositivos de las unidades en la matriz de discos conectados:
# echo | format AVAILABLE DISK SELECTIONS: 0. c0t5000C5000EA48893d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB> /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@0,0 /dev/chassis/SYS/HD0/disk 1. c0t5000C5000EA48893d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB> /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@1,0 /dev/chassis/SYS/HD1/disk 3. c0t600A0B800049EDD600000C9952CAA03Ed0 <SUN-LCSM100_F-50.00GB> /scsi_vhci/disk@g600a0b800049edd600000c9952caa03e 4. c0t600A0B800049EE1A0000832652CAA899d0 <SUN-LCSM100_F-50.00GB> /scsi_vhci/disk@g600a0b800049ee1a0000832652caa899
En este ejemplo, hay dos discos del sistema y los dos discos virtuales presentados de la matriz de discos con nombres de dispositivos que comienzan con c0t600A...
Cree el acslspool
.
Para las configuraciones estándar que utilizan una matriz de discos completa, cree el acslspool
de la siguiente manera:
# zpool create -m /export/home acslspool\ /dev/dsk/c0t600A0B800049EDD600000C9952CAA03Ed0
Si se agrega la RAID de ZFS, tal como se sugiere en el paso 1, cree una configuración reflejada de la siguiente manera:
# zpool create -m /export/home acslspool mirror \ /dev/dsk/c0t600A0B800049EDD600000C9952CAA03Ed0 \ /dev/dsk/c0t600A0B800049EE1A0000832652CAA899d0
Verifique el nuevo acslspool
.
# zpool status acslspool pool: acslspool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM acslspool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t600A0B800049EDD600000C9952CAA03Ed0 ONLINE 0 0 0 c0t600A0B800049EE1A0000832652CAA899d0 ONLINE 0 0 0
Nota:
Cuando utiliza una matriz de discos RAID, la configuración de ZFS reflejada es opcional.Cree un archivo de prueba en la nueva agrupación y verifíquelo.
# cd /export/home # date > test # ls test # cat test Tue Jan 7 11:48:05 MST 2015
Exporte la agrupación.
# cd / # zpool export acslspool
Inicie sesión en el nodo adyacente (al que se hará referencia como el nuevo nodo actual).
Desde el nuevo nodo actual, confirme que /export/home
(o el sistema de archivos destinado para ACSLS) no esté montado en ningún lugar de la agrupación root
.
# zfs list
Si el sistema de archivos existe en rpool
, repita el paso 2 (anterior) en este nodo actual.
Desde el nuevo nodo actual, importe el acslspool
y verifique que acslspool
esté presente en este nodo.
# zpool import acslspool # zpool status pool: acslspool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM acslspool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t600A0B800049EDD600000C9952CAA03Ed0 ONLINE 0 0 0 c0t600A0B800049EE1A0000832652CAA899d0 ONLINE 0 0 0
Si se produjo un error en zpool import
, puede intentar la operación con zpool import -f
.
Nota:
Cuando utiliza una matriz de discos RAID, la configuración de ZFS reflejada es opcional.Verifique que el archivo de prueba esté presente en el nuevo nodo actual.
# cd /export/home # ls test # cat test Tue Jan 7 11:48:05 MST 2015