3 Configuración del sistema de archivos con ZFS

Solaris 11.2 se basa en un sistema de archivos ZFS. La E/S de disco, la partición de disco y el reflejo de disco (o RAID) son manejados completamente por ZFS. En consecuencia, no habría necesidad de realizar la partición del disco (como se hacía generalmente con los sistemas de archivos UFS). La totalidad del disco del sistema se debe presentar como una partición única.

Su matriz de almacenamiento ya está configurada con RAID; por lo tanto, no es esencial configurar un nivel adicional de RAID mediante ZFS para su sistema de archivos ACSLS. La RAID de ZFS es esencial si utiliza discos JBOD simples, pero la RAID adicional es opcional si emplea una matriz de discos completa. Los siguientes ejemplos muestran cada enfoque.

Creación de un sistema de archivos raíz reflejado

  1. Su plataforma Solaris debe estar configurada con dos unidades de disco físicas. Particione el disco del sistema y su unidad reflejada para obtener un óptimo rendimiento de ZFS.

    En un nuevo sistema, antes de la instalación del sistema operativo, puede particionar cada una de las unidades de disco del sistema de manera que la partición 0 contenga la mayoría (o la totalidad) del espacio en disco. ZFS opera más rápido y con mayor confiabilidad si tiene acceso a todo el disco. Asegúrese de que la partición que defina para ZFS en el segundo disco tenga el mismo tamaño que aquella definida en el disco principal.

    En un sistema donde ya está instalado Solaris 11.2, utilice format o fdisk en el disco del sistema principal para ver el tamaño de la partición root. Luego, formatee el segundo disco del sistema con una partición que tenga el mismo tamaño. Etiquete el disco cuando haya finalizado el formateo.

  2. Cuando el sistema esté en funcionamiento, verifique rpool con el comando zpool status.

    # zpool status
      pool: rpool
      state: ONLINE
      scan: none requested
      config:
         NAME                      STATE     READ WRITE CKSUM
         rpool                     ONLINE       0     0     0
          c0t5000C5000EA48903d0s0  ONLINE       0     0     0
    
  3. Identifique el segundo disco del sistema y determine el ID del dispositivo.

    # echo | format
    AVAILABLE DISK SELECTIONS:
      0. c0t5000C5000EA48893d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
        /scsi_vhci/disk@g5000c5000ea48893
      1. c0t5000C5000EA48903d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
        /scsi_vhci/disk@g5000c5000ea48903
    

    Elija el dispositivo alternativo que tenga el tamaño más parecido al del dispositivo que se muestra en el paso 2. En este ejemplo, el ID del segundo disco es c0t5000C5000EA48893d0s.

  4. Agregue el segundo disco a rpool.

    # zpool attach -f rpool \
           c0t5000C5000EA48903d0 \
           c0t5000C5000EA48893d0
    

    El sistema comienza la reconstrucción de la unidad reflejada y copia los contenidos de la unidad de inicio en la segunda unidad. Esta operación tarda varios minutos y no debe ser interrumpida por un reinicio.

    Puede supervisar el progreso mediante lo siguiente:

    zpool status -v
    

    Nota 1: Hasta finalizar la reconstrucción, cualquier pantalla de estado muestra el disco en modo degradado. El disco permanece en estado degradado mientras se copia la información del disco principal al reflejo.

    Nota 2: Si se produce un error en zpool attach porque el disco está etiquetado como disco EFI, siga el proceso que se describe en el documento Administración de Solaris: dispositivos y sistemas de archivos: http://docs.oracle.com/cd/E23824_01/pdf/821-1459.pdf. Este proceso convierte el disco EFI a SMI de la siguiente manera:

    # format -e
      (select the drive to serve as the rpool mirror).
      format> partition
      partition> print
      partition> label
        (specify label type "0")
        Ready to label? y
      partition> modify
        (select "1" All free Hog)
        Do you wish to continue ... yes
        Free Hog Partition[6]? (specify partition "0")
        (Specify a size of "0" to the remaining partitions)
        Okay to make this current partition table? yes
        Enter table name: "c1t1d0"
        Ready to label disk? y
     partition> quit
     format> quit
    
  5. Confirme la configuración de rpool reflejada.

    # zpool status
      pool: rpool
     state: ONLINE
      scan: resilvered 6.89G in 0h3m with 0 errors
    config:
            NAME                       STATE     READ WRITE CKSUM
            rpool                      ONLINE       0     0     0
              mirror-0                 ONLINE       0     0     0
                c0t5000C5000EA48903d0  ONLINE       0     0     0
                c0t5000C5000EA48893d0  ONLINE       0     0     0
    

    Repita esta operación en el nodo adyacente.

Creación de un sistema de archivos reflejado para la aplicación ACSLS

El sistema de archivos ACSLS reside en un zpool en la matriz de almacenamiento compartido externo. En los siguientes ejemplos, se utiliza una matriz reflejada simple (RAID1) que utiliza solo dos discos. Pueden ser unidades reales, pero es más probable que sean dispositivos virtuales presentados como unidades discretas de la matriz de almacenamiento conectado.

La matriz de almacenamiento ya está configurada con RAID; por lo tanto, no es esencial configurar un nivel adicional de RAID mediante ZFS para su sistema de archivos ACSLS. La RAID de ZFS es esencial si utiliza discos JBOD simples, pero la RAID adicional es opcional si emplea una matriz de discos completa. Los siguientes ejemplos muestran cada enfoque.

  1. Prepare la matriz de almacenamiento compartido.

    En las configuraciones estándar, utilice una única unidad virtual de su matriz de discos. De lo contrario, la configuración reflejada RAID de ZFS utiliza dos unidades virtuales del mismo tamaño. Puede utilizar la herramienta de administración con la matriz de discos o la utilidad de formato Solaris para particionar las dos unidades virtuales con el fin de que tengan el mismo tamaño.

  2. Determine el directorio base que desea para la instalación de ACSLS.

    ACSLS 8.4 se puede instalar en cualquier sistema de archivos. El sistema de archivos base elegido no debe existir en el sistema rpool. Si ya existe, debe destruir el sistema de archivos existente antes de crearlo en el nuevo zpool.

    Si se utiliza el directorio base /export/home por defecto para ACSLS, es necesario destruir el sistema de archivos /export de la agrupación root por defecto en Solaris 11.2.

    Para confirmar si /export/home está conectado a rpool, ejecute el siguiente comando:

    # zfs list
    

    Para separar /export/home de rpool, primero, guarde los archivos o los directorios que desea preservar. Asegúrese de que no existan directorios de inicio de usuarios actualmente activos en /export/home. Luego use zfs destroy para eliminar todo en /export:

    # zfs destroy -r rpool/export
    

    Repita este paso para separar rpool/export en el nodo adyacente.

  3. Use format para identificar los nombres de dispositivos de las unidades en la matriz de discos conectados:

    # echo | format
    AVAILABLE DISK SELECTIONS:
       0. c0t5000C5000EA48893d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB>
       /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@0,0
       /dev/chassis/SYS/HD0/disk
    1. c0t5000C5000EA48893d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB>
       /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@1,0
       /dev/chassis/SYS/HD1/disk
    3. c0t600A0B800049EDD600000C9952CAA03Ed0 <SUN-LCSM100_F-50.00GB>
       /scsi_vhci/disk@g600a0b800049edd600000c9952caa03e
    4. c0t600A0B800049EE1A0000832652CAA899d0 <SUN-LCSM100_F-50.00GB>
       /scsi_vhci/disk@g600a0b800049ee1a0000832652caa899
    

    En este ejemplo, hay dos discos del sistema y los dos discos virtuales presentados de la matriz de discos con nombres de dispositivos que comienzan con c0t600A...

  4. Cree el acslspool.

    Para las configuraciones estándar que utilizan una matriz de discos completa, cree el acslspool de la siguiente manera:

    # zpool create -m /export/home acslspool\
      /dev/dsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    

    Si se agrega la RAID de ZFS, tal como se sugiere en el paso 1, cree una configuración reflejada de la siguiente manera:

    # zpool create -m /export/home acslspool mirror \
       /dev/dsk/c0t600A0B800049EDD600000C9952CAA03Ed0 \
       /dev/dsk/c0t600A0B800049EE1A0000832652CAA899d0
    
  5. Verifique el nuevo acslspool.

    # zpool status acslspool
      pool: acslspool
     state: ONLINE
      scan: none requested
    config:
      NAME                                       STATE   READ WRITE CKSUM
      acslspool                                  ONLINE   0     0     0
        mirror-0                                 ONLINE   0     0     0
          c0t600A0B800049EDD600000C9952CAA03Ed0  ONLINE   0     0     0
          c0t600A0B800049EE1A0000832652CAA899d0  ONLINE   0     0     0
    

    Nota:

    Cuando utiliza una matriz de discos RAID, la configuración de ZFS reflejada es opcional.
  6. Cree un archivo de prueba en la nueva agrupación y verifíquelo.

    # cd /export/home
    # date > test
    # ls
    test
    # cat test
    Tue Jan  7 11:48:05 MST 2015
    
  7. Exporte la agrupación.

    # cd /
    # zpool export acslspool
    
  8. Inicie sesión en el nodo adyacente (al que se hará referencia como el nuevo nodo actual).

  9. Desde el nuevo nodo actual, confirme que /export/home (o el sistema de archivos destinado para ACSLS) no esté montado en ningún lugar de la agrupación root.

    # zfs list
    

    Si el sistema de archivos existe en rpool, repita el paso 2 (anterior) en este nodo actual.

  10. Desde el nuevo nodo actual, importe el acslspool y verifique que acslspool esté presente en este nodo.

    # zpool import acslspool
    # zpool status
      pool: acslspool
     state: ONLINE
      scan: none requested
    config:
    NAME                                       STATE   READ WRITE CKSUM
    acslspool                                  ONLINE   0     0     0
      mirror-0                                 ONLINE   0     0     0
        c0t600A0B800049EDD600000C9952CAA03Ed0  ONLINE   0     0     0
        c0t600A0B800049EE1A0000832652CAA899d0  ONLINE   0     0     0
    

    Si se produjo un error en zpool import, puede intentar la operación con zpool import -f.

    Nota:

    Cuando utiliza una matriz de discos RAID, la configuración de ZFS reflejada es opcional.
  11. Verifique que el archivo de prueba esté presente en el nuevo nodo actual.

    # cd /export/home
    # ls
    test
    # cat test
    Tue Jan  7 11:48:05 MST 2015