Software Sun Cluster: Guía de instalación para el sistema operativo Solaris

Cómo añadir sistemas de archivos del clúster

Lleve a cabo este procedimiento para cada sistema de archivos del clúster que añada. Se puede acceder a sistema de archivos de un clúster desde cualquier nodo de éste.


Precaución – Precaución –

Los datos de los discos se destruyen al crear un sistema de archivos. Compruebe que el nombre del dispositivo de disco especificado sea el correcto. Si especifica un nombre de dispositivo erróneo se borrarán datos que no quizás no deseara borrar.


Si ha utilizado SunPlex Manager para instalar los servicios de datos, es posible que SunPlex Manager ya haya creado uno o más sistemas de archivos en el clúster.

  1. Compruebe que el software del gestor de volúmenes esté instalado y configurado.

    Si desea conocer los procedimientos de instalación del gestor de volúmenes, consulte Instalación y configuración del software de Solstice DiskSuite/Solaris Volume Manager o SPARC: Instalación y configuración del software de VxVM .

  2. Conviértase en usuario root en cualquiera de los nodos del clúster.


    Consejo –

    Para acelerar la creación de los sistemas de archivos, conviértase en usuario root en el actual nodo principal del dispositivo global para el que va a crear un sistema de archivos.


  3. Cree un sistema de archivos.

    • En el caso de un sistema de archivos UFS, utilice la orden newfs(1M).


      # newfs dispositivo_de_disco_básico
      

    • SPARC: En el caso de un sistema de archivos de VxFS, siga los procedimientos proporcionados en la documentación de VxFS.

    La tabla siguiente muestra ejemplos de nombres para el argumento dispositivo_de_disco_básico. Tenga en cuenta que los convenios de denominación son distintos para cada gestor de volúmenes.

    Gestor de volúmenes 

    Nombre del dispositivo del disco de muestra 

    Descripción 

    Solstice DiskSuite o Solaris Volume Manager 

    /dev/md/nfs/rdsk/d1

    Dispositivo del disco básico d1 dentro del conjunto de discos nfs

    SPARC: VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Dispositivo de discos básicos vol01 dentro del grupo de discos oradg

    Ninguno 

    /dev/global/rdsk/d1s3

    Dispositivo de discos básicos d1s3

  4. Cree un directorio de punto de montaje para el sistema de archivos del clúster en cada uno de los nodos del clúster.

    Es necesario un punto de montaje en cada nodo, incluso si no se accede al sistema de archivos en ese nodo.


    Consejo –

    Para facilitar la administración, cree el punto de montaje en el directorio /global/grupo_de_dispositivos. Esta ubicación facilita la diferenciación de los sistemas de archivos del clúster, globalmente disponibles en los sistemas de archivos locales.



    # mkdir -p /global/grupo_de_dispositivos/punto_de_montaje
    
    grupo_dispositivos

    Nombre del directorio que se corresponde con el nombre del grupo de dispositivos que contiene el dispositivo.

    punto_montaje

    Nombre del directorio en el que se debe montar el sistema de archivos del clúster.

  5. En cada nodo del clúster, añada una entrada al archivo /etc/vfstab para el punto de montaje.

    Si precisa más detalles consulte la página de comando man vfstab(4).

    1. En cada entrada, especifique las opciones de montaje requeridas para el tipo del sistema de archivos que use. Consulte la Tabla 2–11 o la Tabla 2–12 para conocer la lista de opciones de montaje requeridas.


      Nota –

      El registro es requerido en todos los sistemas de archivos del clúster. No obstante, no use la opción de montaje logging en los transmetadispositivos de Solstice DiskSuite o en volúmenes de transacción de Solaris Volume Manager. Los transmetadispositivos y los volúmenes de transacción proporcionan su propio registro.

      Se ha decidido excluir el transactional-volume logging del Solaris Volume Manager, (anteriormente conocido como trans-metadevice logging de Solstice DiskSuite ) del sistema operativo Solaris en versiones futuras. Solaris UFS logging proporciona las mismas posibilidades pero un rendimiento superior, así como unos requisitos de administración del sistema y de sobrecarga inferiores.


      Tabla 2–11 Opciones de montaje de los sistemas de archivos UFS del clúster

      Opción de montaje 

      Descripción 

      global

      Necesario. Esta opción hace que el sistema de archivos sea visible para todos los nodos del clúster.

      logging

      Necesario. Esta opción habilita el registro.

      forcedirectio

      Necesario para los sistemas de archivos del clúster que alojarán los archivos de datos Oracle Parallel Server/Real Application Clusters RDBMS, archivos de registro y archivos de control.


      Nota –

      Sólo se admite el uso de Oracle Parallel Server/Real Application Clusters en los clústers basados en SPARC.


      syncdir

      Opcional. Si especifica syncdir, se le garantiza que el comportamiento del sistema de archivos sea compatible con POSIX en la llamada al sistema write(). Si write() es satisfactorio, esta opción de montaje asegura el espacio suficiente en el disco.

      Si no especifica syncdir se produce el mismo comportamiento que el observado en los sistemas de archivos UFS. Si no se especifica la opción syncdir, el rendimiento de las escrituras que asignan bloques de disco, como en el caso de agregar datos a un archivo, puede aumentar de forma significativa. Sin embargo, en ciertos casos la ausencia de la opción syncdir impide darse cuenta de un problema de falta de espacio (ENOSPC) hasta que no se cierra un archivo.

      Puede ver cómo ENOSPC se cierra sólo durante un período muy breve, después de recuperarse de un fallo. Con syncdir (al igual que ocurre con el comportamiento POSIX), el problema de falta de espacio se manifiesta antes de cerrar el archivo.


      Nota –

      No utilice las opciones de montaje onerror=umount o onerror=lock, ya que no se admiten en los sistemas de archivos del clúster por los motivos siguientes:

      • El uso de onerror=umount o onerror=lock puede provocar que el sistema de archivos del clúster se bloquee o se vuelva inaccesible. Esta situación puede darse si el sistema de archivos del clúster sufre daños en los archivos.

      • Las opciones del punto de montaje onerror=umount o onerror=lock pueden causar que el sistema de archivos del clúster no se pueda desmontar cuando sea necesario. Esta situación puede provocar que las aplicaciones que usen el sistema de archivos del clúster se bloqueen o puede impedir que se puedan terminar las aplicaciones.

      Es posible que se necesite rearrancar el nodo para que se recupere de estas situaciones.

      Sun Cluster sólo admite la opción de montaje onerror=panic. No necesita especificar la opción de montaje onerror=panic en el archivo /etc/vfstab. Éste ya es el valor predeterminado si no se especifica otra opción de montaje onerror.


      Consulte la página de comando man mount_ufs(1M) si desea más información sobre las opciones de montaje UFS.

      Tabla 2–12 SPARC: Opciones de montaje para los sistemas de archivos del clúster VxFS

      Opción de montaje 

      Descripción 

      global

      Necesario. Esta opción hace que el sistema de archivos sea visible para todos los nodos del clúster.

      log

      Necesario. Esta opción habilita el registro.

      Consulte la página de comando man VxFS mount_vxfs y “Administering Cluster File Systems Overview” in Sun Cluster System Administration Guide for Solaris OS para obtener más información sobre las opciones de montaje de VxFS.

    2. Para montar automáticamente el sistema de archivos del clúster, configure el campo mount at boot como yes.

    3. Compruebe que, en cada sistema de archivos del clúster, la información de la entrada /etc/vfstab sea idéntica en cada nodo.

    4. Compruebe que las entradas del archivo /etc/vfstab de cada nodo enumeren los dispositivos en el mismo orden.

    5. Compruebe las dependencias de orden de arranque de los sistemas de archivos.

      Por ejemplo, supongamos un caso en el que phys-schost- monta el dispositivo de disco d0 en /global/oracle, y phys-schost-2 monta el dispositivo de disco d1 en /global/oracle/logs. Con esta configuración, phys-schost-2 sólo puede arrancar y montar /global/oracle/logs una vez que phys-schost-1 haya arrancado y montado /global/oracle.

  6. En cualquier nodo del clúster, ejecute la utilidad sccheck(1M).

    La utilidad sccheck comprueba la existencia de los puntos de montaje, así como que las entradas del archivo /etc/vfstab sean las correctas en todos los nodos del clúster.


     # sccheck
    

    Si no hay ningún error, la orden no devuelve nada.

  7. Monte el sistema de archivos del clúster.


    # mount /global/grupo_de_dispositivos/punto_de_montaje
    

    • En el caso de UFS, monte el sistema de archivos del clúster en cualquier nodo del clúster.

    • SPARC: En el caso de VERITAS File System (VxFS), móntelo desde el maestro actual de grupo_dispositivos para asegurarse de que el sistema de archivos se monte correctamente. Si lo desea también puede desmontar un sistema de archivos VxFS del maestro actual de grupo_dispositivos para asegurarse de que el sistema de archivos se desmonte correctamente.


      Nota –

      Para gestionar un sistema de archivos del clúster de VxFS en un entorno de Sun Cluster, ejecute las órdenes administrativas sólo a partir del nodo principal donde el sistema de archivos del clúster de VxFS se monte.


  8. Compruebe que el sistema de archivos del clúster esté montado en cada uno de los nodos del clúster.

    Puede utilizar la orden df(1M) o mount(1M) para mostrar los sistemas de archivos montados.

  9. Configure los grupos de IP Network Multipathing.

    Vaya a Cómo configurar los grupos de Internet Protocol (IP) Network Multipathing .

Ejemplo: crear un sistema de archivos del clúster

El ejemplo siguiente crea un sistema de archivos del clúster UFS en el metadispositivo de Solstice DiskSuite /dev/md/oracle/rdsk/d1.


# newfs /dev/md/oracle/rdsk/d1
…
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000