Skip Headers
StorageTek Automated Cartridge System Library Software Instalación, configuración y operación del cluster de High Availability 8.3
Versión 8.3
E54096-01
  Ir a Tabla de Contenido
Contenido
Ir a Índice
Índice

Anterior
Anterior
 
Siguiente
Siguiente
 

3 Configuración del sistema de archivos con ZFS

Solaris 11 se basa en un sistema de archivos ZFS. La E/S de disco, la partición de disco y el reflejo de disco (o RAID) son manejados completamente por ZFS. En consecuencia, no habría necesidad de realizar la partición del disco (como se hacía generalmente con los sistemas de archivos UFS). La totalidad del disco del sistema se debe presentar como una partición única.

Su matriz de almacenamiento ya está configurada con RAID; por lo tanto, no es esencial configurar un nivel adicional de RAID mediante ZFS para su sistema de archivos ACSLS. La RAID de ZFS es esencial si utiliza discos JBOD simples, pero la RAID adicional es opcional si emplea una matriz de discos completa. Los siguientes ejemplos muestran cada enfoque.

Creación de un sistema de archivos raíz reflejado

  1. Su plataforma Solaris debe estar configurada con dos unidades de disco físicas. Particione el disco del sistema y su unidad reflejada para obtener un óptimo rendimiento de ZFS.

    En un nuevo sistema, antes de la instalación del sistema operativo, puede particionar cada una de las unidades de disco del sistema de manera que la partición 0 contenga la mayoría (o la totalidad) del espacio en disco. ZFS opera más rápido y con mayor confiabilidad si tiene acceso a todo el disco. Asegúrese de que la partición que defina para ZFS en el segundo disco tenga el mismo tamaño que aquella definida en el disco principal.

    En un sistema donde ya está instalado Solaris 11.1, utilice format o fdisk en el disco del sistema principal para ver el tamaño de la partición de raíz. Luego, formatee el segundo disco del sistema con una partición que tenga el mismo tamaño. Etiquete el disco cuando haya finalizado el formateo.

  2. Cuando el sistema esté en funcionamiento, verifique el rpool con el comando zpool status.

    # zpool status
      pool: rpool
      state: ONLINE
      scan: none requested
      config:
         NAME        STATE     READ WRITE CKSUM
         rpool       ONLINE       0     0     0
         c1t0d0s0    ONLINE       0     0     0
    

    Nota:

    Observe el formato c/t/d/s de la expresión del disco en su sistema. Seguirá ese formato idéntico cuando refleje la unidad más adelante en el paso 4.

  3. Identifique el segundo disco del sistema y determine el ID del dispositivo.

    # echo | format
    AVAILABLE DISK SELECTIONS:
    0. c1t0d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB>
       /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@0,0
       /dev/chassis/SYS/HD0/disk
    1. c1t1d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB>
       /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@1,0
       /dev/chassis/SYS/HD1/disk
    

    En este ejemplo, el ID del segundo disco es c1t1d0.

  4. Agregue el segundo disco a rpool.

    # zpool attach -f rpool c1t0d0s0 c1t1d0s0
    

    Nota:

    Asegúrese de utilizar el mismo formato c/t/d/s que observó en el paso 2 anterior.

    El sistema comenzará la reconstrucción de la unidad reflejada y copiará los contenidos de la unidad de inicio en la segunda unidad. Esta operación toma varios minutos y no debe ser interrumpida por un reinicio.

    Puede supervisar el progreso mediante lo siguiente:

    zpool status -v
    

    Nota 1: Hasta finalizar la reconstrucción, cualquier pantalla de estado mostrará el disco en modo degradado. El disco permanecerá en estado degradado mientras se copia la información del disco principal al reflejo.

    Nota 2: Si se produce un error en zpool attach porque el disco está etiquetado como disco EFI, siga el proceso que se describe en la página 220 del documento Solaris Admin: Devices and File Systems (Administración de Solaris: dispositivos y sistemas de archivos): http://docs.oracle.com/cd/E23824_01/pdf/821-1459.pdf. Este proceso convierte el disco EFI a SMI de la siguiente manera:

    # format -e
      (select the drive to serve as the rpool mirror).
      format> partition
      partition> print
      partition> label
        (specify label type "0")
        Ready to label? y
      partition> modify
        (select "1" All free Hog)
        Do you wish to continue ... yes
        Free Hog Partition[6]? (specify partition "0")
        (Specify a size of "0" to the remaining partitions)
        Okay to make this current partition table? yes
        Enter table name: "c1t1d0"
        Ready to label disk? y
     partition> quit
     format> quit
    
  5. Confirme la configuración rpool reflejada.

    # zpool status
      pool: rpool
     state: ONLINE
      scan: resilvered 6.89G in 0h3m with 0 errors
    config:
            NAME        STATE     READ WRITE CKSUM
            rpool       ONLINE       0     0     0
              mirror-0  ONLINE       0     0     0
                c1t0d0  ONLINE       0     0     0
                c1t1d0  ONLINE       0     0     0
    

    Repita esta operación en el nodo adyacente.

Creación de un sistema de archivos reflejado para la aplicación ACSLS

El sistema de archivos ACSLS residirá en zpool en la matriz de almacenamiento compartido externo. En los siguientes ejemplos, se utiliza una matriz reflejada simple (RAID-1) que utiliza sólo dos discos. Pueden ser unidades reales, pero es más probable que sean dispositivos virtuales presentados como unidades discretas de la matriz de almacenamiento conectado.

Su matriz de almacenamiento ya está configurada con RAID; por lo tanto, no es esencial configurar un nivel adicional de RAID mediante ZFS para su sistema de archivos ACSLS. La RAID de ZFS es esencial si utiliza discos JBOD simples, pero la RAID adicional es opcional si emplea una matriz de discos completa. Los siguientes ejemplos muestran cada enfoque.

  1. Prepare la matriz de almacenamiento compartido.

    En las configuraciones estándares, utilice una única unidad virtual de su matriz de discos. De lo contrario, la configuración reflejada RAID de ZFS utilizará dos unidades virtuales del mismo tamaño. Puede utilizar la herramienta de administración con la matriz de discos o la utilidad de formato Solaris para particionar las dos unidades virtuales con el fin de que tengan el mismo tamaño.

  2. Determine el directorio base que desea para la instalación de ACSLS.

    ACSLS 8.3 se puede instalar en cualquier sistema de archivos. El sistema de archivos base que eligió no debe existir en el sistema rpool. Si ya existe, debe destruir el sistema de archivos existente antes de crearlo en el nuevo zpool.

    Si desea utilizar el directorio base /export/home predeterminado para ACSLS, será necesario destruir el sistema de archivos /export de la agrupación raíz predeterminada en Solaris 11.

    Para confirmar si /export/home está conectado a rpool, ejecute el siguiente comando:

    # zfs list
    

    Para separar /export/home de rpool, primero guarde los archivos o los directorios que desea preservar. Asegúrese de que no existan directorios de inicio de usuarios actualmente activos en /export/home. Luego use zfs destroy para eliminar todo en /export:

    # zfs destroy -r rpool/export
    

    Repita este paso para separar rpool/export en el nodo adyacente.

  3. Use format para identificar los nombres de dispositivos de las unidades en la matriz de discos conectados:

    # echo | format
    AVAILABLE DISK SELECTIONS:
       0. c1t0d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB>
       /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@0,0
       /dev/chassis/SYS/HD0/disk
    1. c1t1d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB>
       /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@1,0
       /dev/chassis/SYS/HD1/disk
    3. c0t600A0B800049EDD600000C9952CAA03Ed0 <SUN-LCSM100_F-50.00GB>
       /scsi_vhci/disk@g600a0b800049edd600000c9952caa03e
    4. c0t600A0B800049EE1A0000832652CAA899d0 <SUN-LCSM100_F-50.00GB>
       /scsi_vhci/disk@g600a0b800049ee1a0000832652caa899
    

    En este ejemplo, hay dos discos del sistema y los dos discos virtuales presentados de la matriz de discos con nombres de dispositivos que comienzan con c0t600A...

  4. Cree el acslspool.

    Para las configuraciones estándares que utilizan una matriz de discos completa, cree el acslspool de la siguiente manera:

    # zpool create -m /export/home acslspool\
      /dev/dsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    

    Si elige agregar la RAID de ZFS como se indica en el paso 1, cree la configuración reflejada de la siguiente manera:

    # zpool create -m /export/home acslspool mirror \
       /dev/dsk/c0t600A0B800049EDD600000C9952CAA03Ed0 \
       /dev/dsk/c0t600A0B800049EE1A0000832652CAA899d0
    
  5. Verifique el nuevo acslspool.

    # zpool status acslspool
      pool: acslspool
     state: ONLINE
      scan: none requested
    config:
      NAME                                       STATE   READ WRITE CKSUM
      acslspool                                  ONLINE   0     0     0
        mirror-0                                 ONLINE   0     0     0
          c0t600A0B800049EDD600000C9952CAA03Ed0  ONLINE   0     0     0
          c0t600A0B800049EE1A0000832652CAA899d0  ONLINE   0     0     0
    

    Nota:

    Cuando utiliza una matriz de discos RAID, la configuración de ZFS reflejada es opcional.

  6. Cree un archivo de prueba en el nuevo grupo y verifíquelo.

    # cd /export/home
    # date > test
    # ls
    test
    # cat test
    Tue Jan  7 11:48:05 MST 2014
    
  7. Exporte la agrupación.

    # zpool export acslspool
    
  8. Inicie sesión en el nodo adyacente (al que se hará referencia como el nuevo nodo actual).

  9. Desde el nuevo nodo actual, confirme que /export/home (o el sistema de archivos destinado para ACSLS) no esté montado en ningún lugar de la agrupación raíz.

    # zfs list
    

    Si el sistema de archivos existe en rpool, repita el paso 2 (anterior) en este nodo actual.

  10. Desde el nuevo nodo actual, importe el acslspool y verifique que acslspool esté presente en este nodo.

    # zpool import acslspool
    # zpool status
      pool: acslspool
     state: ONLINE
      scan: none requested
    config:
    NAME                                       STATE   READ WRITE CKSUM
    acslspool                                  ONLINE   0     0     0
      mirror-0                                 ONLINE   0     0     0
        c0t600A0B800049EDD600000C9952CAA03Ed0  ONLINE   0     0     0
        c0t600A0B800049EE1A0000832652CAA899d0  ONLINE   0     0     0
    

    Si se produjo un error en zpool import, puede intentar la operación con zpool import -f.


    Nota:

    Cuando utiliza una matriz de discos RAID, la configuración de ZFS reflejada es opcional.

  11. Verifique que el archivo de prueba esté presente en el nuevo nodo actual.

    # cd /export/home
    # ls
    test
    # cat test
    Tue Jan  7 11:48:05 MST 2014