Software Sun Cluster: Guía de instalación para el sistema operativo Solaris

Capítulo 6 Creación de sistemas de archivos y zonas no globales del clúster

Este capítulo incluye los siguientes procedimientos:

Creación de sistemas de archivos del clúster

Esta sección incluye los procedimientos de creación de sistemas de archivos del clúster para admitir servicios de datos.

ProcedureCómo crear sistemas de archivos del clúster

Realice este procedimiento para cada sistema de archivos del clúster que desee crear. A diferencia de un sistema de archivos local, todos los nodos de un clúster pueden acceder a un sistema de archivos del clúster.


Nota –

Asimismo, puede utilizar un sistema de archivos local con alta disponibilidad para que admita un servicio de datos. Si desea obtener información acerca de si crear un sistema de archivos del clúster o un sistema de archivos local de alta disponibilidad para ofrecer soporte a un servicio determinado, consulte el manual de dicho servicio de datos. Si desea obtener información general acerca de la creación de un sistema de archivos local de alta disponibilidad, consulte Enabling Highly Available Local File Systems de Sun Cluster Data Services Planning and Administration Guide for Solaris OS.


Antes de empezar

Lleve a cabo las siguientes tareas:

  1. Conviértase en usuario root en cualquiera de los nodos del clúster.

    En Solaris, debe realizar este procedimiento desde la zona global si no hay zonas globales configuradas en el clúster.


    Consejo –

    Para acelerar la creación de los sistemas de archivos, conviértase en usuario root en el actual nodo principal del dispositivo global para el que va a crear un sistema de archivos.


  2. Crear un sistema de archivos.


    Caution – Caution –

    Los datos de los discos se destruyen al crear un sistema de archivos. Asegúrese de que especifica el nombre de dispositivo de disco correcto. Si especifica un nombre de dispositivo erróneo se borrarán datos que quizás no deseara borrar.


    • En el caso de un sistema de archivos UFS, utilice el comando newfs(1M).


      phys-schost# newfs raw-disk-device
      

      La tabla siguiente muestra ejemplos de nombres para el argumento dispositivo_disco_básico. Tenga en cuenta que los convenios de denominación son distintos para cada gestor de volúmenes.

      Gestor de volúmenes 

      Nombre del dispositivo del disco de muestra 

      Descripción 

      Solaris Volume Manager 

      /dev/md/nfs/rdsk/d1

      Dispositivo del disco básico d1 dentro del conjunto de discos nfs

      VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      Dispositivo de discos básicos vol01 dentro del grupo de discos oradg

      Ninguna 

      /dev/global/rdsk/d1s3

      Dispositivo de discos básicos d1s3

    • SPARC: En el caso de un sistema de archivos de VERITAS File System (VxFS), siga los procedimientos proporcionados en la documentación de VxFS.

  3. Cree un directorio de punto de montaje para el sistema de archivos del clúster en cada nodo del clúster.

    Se requiere un punto de montaje en cada nodo, incluso si no se puede acceder al sistema de archivos del clúster en ese nodo.


    Consejo –

    Para facilitar la administración, cree el punto de montaje en el directorio /global/device-group/. Esta ubicación facilita la diferenciación de los sistemas de archivos del clúster, globalmente disponibles en los sistemas de archivos locales.



    phys-schost# mkdir -p /global/device-group/mountpoint/
    
    grupo_dispositivos

    Nombre del directorio que se corresponde con el nombre del grupo de dispositivos que contiene el dispositivo.

    punto_montaje

    Nombre del directorio en el que se debe montar el sistema de archivos del clúster.

  4. Agregue, en cada uno de los nodos del clúster, una entrada para el punto de montaje en el archivo /etc/vfstab.

    Consulte la página de comando man vfstab(4) para obtener más información.


    Nota –

    Si hay configuradas en el clúster zonas no globales, asegúrese de que monta los sistemas de archivos del clúster en la zona global en una ruta del directorio raíz de la zona global.


    1. Especifique las opciones de montaje necesarias en cada entrada para el tipo de sistema de archivos que utilice.


      Nota –

      No utilice la opción de montaje de registro para Solaris Volume Manager volúmenes transaccionales. Los volúmenes transaccionales proporcionan su propio registro.

      Además, Solaris Volume Manager registro de volúmenes transaccional se elimina del SO Solaris 10. Registro UFS de Solaris proporciona las mismas funciones con un rendimiento superior, así como unos requisitos de administración del sistema y de sobrecarga inferiores.


    2. Para montar automáticamente el sistema de archivos del clúster, configure el campo mount at boot como yes.

    3. Compruebe que, en cada sistema de archivos del clúster, la información de la entrada /etc/vfstab sea idéntica en cada nodo.

    4. Compruebe que las entradas del archivo /etc/vfstab de cada nodo enumeren los dispositivos en el mismo orden.

    5. Compruebe las dependencias de orden de arranque de los sistemas de archivos.

      Por ejemplo, considere el escenario donde phys-schost-1 monta el dispositivo de disco d0 en /global/oracle/, y phys-schost-2 monta el dispositivo de disco d1 en /global/oracle/logs/. Con esta configuración, phys-schost-2 sólo puede arrancar y montar /global/oracle/logs/ una vez que phys-schost-1 haya arrancado y montado /global/oracle/.

  5. En cualquier nodo del clúster, verifique que el punto de montaje exista.


    phys-schost# sccheck
    

    La utilidad de comprobación de la configuración comprueba que existe el punto de montaje, así como que las entradas del archivo /etc/vfstab sean las correctas en todos los nodos del clúster. Si no hay ningún error, el comando no devuelve nada.

    Si desea obtener más información, consulte la página de comando man sccheck(1M).

  6. Monte el sistema de archivos del clúster.


    phys-schost# mount /global/device-group/mountpoint/
    
    • En el caso de UFS, monte el sistema de archivos del clúster en cualquier nodo del clúster.

    • En el caso de SPARC: Para VERITAS File System (VxFS), monte el sistema de archivos del clúster a partir del sistema principal actual de device-group para asegurarse de que el sistema de archivos se monte satisfactoriamente.

      De forma adicional, desmonte un sistema de archivos de VxFS desde el sistema principal actual de grupo_de_dispositivos para asegurarse de que el sistema de archivos se desmonte satisfactoriamente.


      Nota –

      Para gestionar un sistema de archivos del clúster de VxFS en un entorno de Sun Cluster, ejecute los comandos administrativos sólo a partir del nodo principal donde el sistema de archivos del clúster de VxFS se monte.


  7. Compruebe que el sistema de archivos del clúster esté montado en cada uno de los nodos del clúster.

    Para enumerar los sistemas de archivos montados, puede emplear los comandos df o mount. Para obtener más información, consulte la página de comando man df(1M) o mount(1M).

    Para el SO Solaris 10, los sistemas de archivos del clúster son accesibles tanto desde la zona global como desde la zona no global.


Ejemplo 6–1 Creación de un sistema de archivos del clúster

En el ejemplo siguiente, se crea un sistema de archivos del clúster UFS en el volumen de Solaris Volume Manager /dev/md/oracle/rdsk/d1. Se agrega una entrada para el sistema de archivos del clúster al archivo vfstab de cada nodo. A continuación, se ejecuta el comando sccheck desde un nodo. Una vez completado correctamente el procesamiento de comprobación de la configuración, se monta el sistema de archivos del clúster desde un nodo y se verifica en todos los nodos.


phys-schost# newfs /dev/md/oracle/rdsk/d1
…
phys-schost# mkdir -p /global/oracle/d1
phys-schost# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
…
phys-schost# sccheck
phys-schost# mount /global/oracle/d1
phys-schost# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2005

Pasos siguientes

Determine de la siguiente lista la siguiente tarea que debe realizar que se aplique a su configuración de clúster. Si necesita realizar más de una tarea desde esta lista, diríjase a la primera de estas tareas de la lista.

Configuración de una zona no global en un nodo del clúster

Esta sección incluye procedimientos para crear una zona no global en un nodo del clúster.

ProcedureCómo crear una zona no global en un nodo del clúster

Realice este procedimiento en cada zona no global que cree en el clúster.


Nota –

Para obtener información completa acerca de cómo instalar una zona, consulte System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.


Puede configurar una zona no global de Solaris 10, conocida simplemente como una zona, en un nodo del clúster mientras el nodo se arranque en modo clúster o en modo no de clúster.

Antes de empezar

Realice las siguientes tareas:

Si desea obtener información adicional, consulte Zone Components de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.

  1. Conviértase en superusuario en el nodo en el que va a crear la zona no global.

    Debe encontrarse en la zona global.

  2. En el SO Solaris 10, compruebe en cada nodo que los servicios multiusuario de la Utilidad de administración de servicios (SMF) estén en línea.

    Si los servicios no están todavía en línea para un nodo, espere a que estén en línea antes de continuar con el paso siguiente.


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. Configure, instale y arranque la nueva zona.


    Nota –

    Debe establecer la propiedad autoboot en true (verdadero) para poder utilizar la función de grupo de recursos en la zona no global.


    Siga los procedimientos incluidos en la siguiente documentación:

    1. Lleve a cabo los procedimientos que aparecen en el Capítulo 18, Planning and Configuring Non-Global Zones (Tasks) de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.

    2. Lleve a cabo los procedimientos que aparecen en Installing and Booting Zones de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.

    3. Lleve a cabo los procedimientos que aparecen en How to Boot a Zone de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.

  4. Compruebe que la zona presente el estado ready (listo).


    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
    
  5. (Opcional) Asigne una dirección IP y un nombre de host privados a la zona.

    El siguiente comando selecciona y asigna una dirección IP disponible del intervalo de direcciones IP privadas del clúster. También asigna el nombre de host, o el alias de host, privado especificado a la zona y a la dirección IP privada asignada.


    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    
    -p

    Especifica una propiedad.

    zprivatehostname=hostalias

    Especifica el nombre de host, o el alias de host, privado de la zona.

    node

    El nombre del nodo.

    zone

    El nombre de la zona no global.

  6. Realice la configuración inicial de la zona interna.

    Siga los procedimientos que aparecen enPerforming the Initial Internal Zone Configuration de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones. Seleccione uno de los siguientes métodos:

    • Inicie una sesión en la zona.

    • Utilice un archivo /etc/sysidcfg.

  7. En la zona no global, modifique el archivo nsswitch.conf.

    Debe realizar estos cambios para permitir la búsqueda de nombres de host y direcciones IP específicos del clúster en la zona.

    1. Inicie una sesión en la zona.


      phys-schost# zogin -c zonename
      
    2. Abra el archivo /etc/nsswitch.conf para editarlo.


      phys-schost# vi /etc/nsswitch.conf
      
    3. Agregue el conmutador del clúster al comienzo de las búsquedas de entradas de hosts y máscaras de red.

      Las entradas modificadas presentarán un aspecto similar al siguiente:


      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
Pasos siguientes

Para instalar una aplicación en una zona no global, utilice el mismo procedimiento que para un sistema independiente. Consulte la documentación de instalación de su aplicación para conocer los procedimientos de instalación del software en una zona no global. Consulte también Adding and Removing Packages and Patches on a Solaris System With Zones Installed (Task Map) de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.

Para instalar y configurar un servicio de datos en una zona no global, consulte el manual de Sun Cluster de cada servicio de datos.