6 Instalación de Solaris Cluster 4.2

La instalación de Solaris Cluster se explica en detalle en la Guía de instalación del software Oracle Solaris Cluster, que está disponible en el sitio technetwork de Oracle (consulte Descarga de paquetes de software de este documento).

ACSLSHA 8.4 se admite en Solaris 11.2 con Oracle Solaris Cluster 4.2.

Instalación del paquete del cluster

Siga este procedimiento para instalar el software del cluster.

  1. Cree un directorio, /opt/OSC.

    # mkdir /opt/OSC
    
  2. Es posible que haya descargado una o dos imágenes ISO para el paquete de Solaris Cluster, según la versión del sistema operativo que haya determinado en Descarga de Oracle Cluster 4.2. Mueva cada paquete del cluster descargado al directorio /opt/OSC.

  3. Descomprima los paquetes. Identifique una imagen ISO para cada paquete descomprimido.

  4. Cree un pseudodispositivo a partir de cada imagen ISO.

    #  /usr/sbin/lofiadm -a /opt/OSC/V46190-01.iso
    
    #  /usr/sbin/lofiadm -a /opt/OSC/osc-4_2_5_1_0-repo-incr.iso
    

    Realice un seguimiento de los números de instancia de /dev/lofi que creó para cada una de ellas.

  5. En el directorio /opt/OSC, cree un punto de montaje para cada pseudodispositivo.

    # mkdir mnt
    
    # mkdir mnt1
    
  6. Monte los pseudodispositivos en estos puntos de montaje.

    # mount –F hsfs –o ro /dev/lofi/1 /opt/OSC/mnt
    
    # mount –F hsfs –o ro /dev/lofi/2 /opt/OSC/mnt1
    
  7. Seleccione uno de los siguientes:

    • Si la versión de Solaris es 11.2.13 o superior, continúe con el paso 8.

    • Si la versión de Solaris es 11.2.12 o inferior y se descargó solo la imagen base del cluster, ahora puede publicar el repositorio para esa imagen base.

      #  pkg set publisher –G  ’*’  –g  file:/opt/OSC/mnt/repo  ha-cluster
      

      Continúe con el paso 13 de esta sección para instalar el paquete.

  8. En los siguientes pasos, copie el paquete de OSC base en un sistema de archivos de lectura y escritura para fusionar la actualización del parche con el paquete base.

    Cree un sistema de archivos de lectura y escritura para fusionar los paquetes de OSC.

    # cd /opt/OSC
    
    # mkdir merged_iso
    
  9. Copie el repositorio de imágenes de OSC base en el directorio creado.

    # cp –r  mnt/repo  merged_iso
    
  10. Sincronice las dos imágenes juntas en el directorio fusionado.

    # rsync –aP mnt1/repo  merged_iso
    
  11. Vuelva a compilar los índices de búsqueda para el repositorio

    # pkgrepo rebuild –s  merged_iso/repo
    
  12. Publique el repositorio ha-cluster de los paquetes fusionados.

    # pkg set-publisher –g file:/opt/OSC/merged_iso/repo ha-cluster
    
  13. Instale el paquete de Oracle Solaris Cluster.

    # pkg install -–accept ha-cluster-full
    

Repita los pasos de 1 a 13 en el nodo adyacente.

Rutina scinstall

La rutina de instalación de Solaris Cluster realiza una serie de comprobaciones entre los dos nodos para asegurarse de que puede supervisar la operación del sistema desde ambos servidores y puede controlar las acciones de inicio y failover.

Pasos preliminares:

  1. Antes de ejecutar scinstall, es útil establecer un entorno para root que incluya la ruta a las utilidades del cluster que se acaban de instalar. Edite el archivo /root/.profile. Cambie las instrucciones de la ruta e incluya /usr/cluster/bin.

    export PATH=/usr/cluster/bin:/usr/bin:/usr/sbin
    

    Asegúrese de realizar este cambio en cada nodo. Para heredar la nueva ruta, cierre sesión y vuelva a iniciar sesión, o simplemente su -.

  2. Confirme que la propiedad config/local_only para rpc/bind sea false.

    # svccfg -s network/rpc/bind listprop config/local_only
    

    Si la propiedad es true, debe establecerla en false.

    # svccfg -s network/rpc/bind setprop config/local_only=false
    

    Ahora confirme lo siguiente:

    # svccfg -s network/rpc/bind listprop config/local_only
    
  3. Un requisito de configuración de hardware esencial para el software del cluster es la existencia de dos conexiones de red privada, que están reservadas para garantizar la comunicación ininterrumpida de la operación del cluster entre los dos nodos.

    La Figura 2-1, Tarjeta de interfaz de biblioteca HBRr única conectada a dos puertos Ethernet en cada nodo de servidor muestra estas conexiones físicas, etiquetadas como (2). Cada conexión se origina de un adaptador de red separado para asegurarse de que ningún punto único de error pueda interrumpir la comunicación interna del cluster. La rutina scinstall comprueba cada una de las dos conexiones para verificar que no se vea otro tráfico de red en el cable. Finalmente, scinstall verifica que la comunicación sea funcional entre las dos líneas. Después de verificar la conexión física, la rutina asocia cada interfaz con una dirección interna privada que comienza con 172.16.

    Antes de ejecutar scinstall, verifique el ID del dispositivo de red asignado para los dos puertos de red de cada servidor que ha configurado para esta conexión privada. Ejecute dladm show-phys para ver las asignaciones de interfaces.

    # dladm show-phys
    
  4. Se debe establecer un nombre de host lógico y una dirección IP para representar el cluster de cualquier nodo. Este host lógico responde de manera confiable a la comunicación de red si el host activo se ejecuta desde el nodo 1 o el nodo 2.

    Actualice el archivo /etc/hosts en ambos nodos para incluir el nombre de host lógico y la dirección IP lógica. Este host se activa cuando inicia ACSLS HA (Configuración de ACSLS HA).

  5. Para lograr una instalación correcta del cluster, debe tener activado Solaris Common Agent Container. Verifique que el contenedor de agentes esté activado.

    # cacaoadm status
    

    Si la respuesta del estado indica que el contenedor de agentes está DESACTIVADO en el inicio del sistema, actívelo de la siguiente manera:

    # cacaoadm enable
    

Ejecución de scinstall

Desde uno de los dos nodos, ejecute el comando scinstall y luego siga este procedimiento:

  1. Desde el menú principal, seleccione Create a new cluster (Crear un nuevo cluster).

  2. Desde el submenú, seleccione Create a new cluster (Crear un nuevo cluster).

  3. Acepte los valores por defecto iniciales.

  4. Seleccione la instalación Typical (Típica).

  5. Asigne un nombre al cluster, por ejemplo, acsls_cluster.

  6. En la petición de datos Cluster Nodes (Nodos del cluster), introduzca el nombre de host del nodo adyacente. Acepte la lista de nodos si es correcta.

  7. Defina las dos interconexiones de nodos privados que ha identificado con esta finalidad. Permita que la rutina de instalación asocie los enlaces TCP con las conexiones físicas.

  8. Siga las indicaciones para crear el cluster. A menos que haya identificado un dispositivo específico para actuar como dispositivo de quórum, permita a la rutina scinstall seleccionar los dispositivos de quórum.

  9. No se alarme si la utilidad informa que la comprobación del cluster falló en ambos nodos. Se informa un error incluso para las advertencias leves. Debe revisar el informe de cada nodo y buscar los errores graves o las violaciones que se pudieran devolver. La rutina muestra la ruta al archivo log que informa los detalles relacionados con errores o advertencias que se encuentran durante la operación. Revise el archivo log y corrija los problemas graves o moderadamente graves identificados.

    La rutina scinstall se ejecuta desde un nodo e instala Solaris Cluster en ambos nodos. Observe la rutina al configurar un nodo, reiniciar ese nodo, configurar el segundo nodo y reiniciar ese segundo nodo.

Verificación de la configuración del cluster

  1. Verifique que ambos nodos estén incluidos en el cluster.

    # clnode list -v
    Node                Type
    ----                ----
    node1               cluster
    node2               cluster
    
  2. Visualice la lista de dispositivos disponibles para Solaris Cluster.

    # cldevice list -v
    DID Device   Full Device Path
    d1           node1:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    d1           node2:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    d2           node1:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0
    d2           node2:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0
    d3           node1:/dev/rdsk/c1t0d0
    d4           node1:/dev/rdsk/c1t1d0
    d5           node2:/dev/rdsk/c1t0d0
    d6           node2:/dev/rdsk/c1t1d0
    

    En este ejemplo, los dispositivos de disco compartido son d1 y d2, mientras que d3 y d4 son los dispositivos de inicio del nodo 1, y d5 y d6 son los dispositivos de inicio del nodo 2. Tenga en cuenta que se puede acceder a d1 y d2 desde cualquier nodo.

  3. Un quórum se compone de tres o más dispositivos. Se utiliza durante los eventos de inicio para determinar qué nodo será el nodo activo.

    Confirme que se haya configurado un quórum completo.

    # clquorum list -v
    Quorum              Type
    ------              ----
    d1                  shared_disk
    node1               node
    node2               node
    

    Se puede agregar un segundo shared_disk a la lista de dispositivos de quórum.

    # clquorum add d2
    # clquorum list -v
    Quorum              Type
    ------              ----
    d1                  shared_disk
    d2                  shared_disk
    node1               node
    node2               node
    

    Si no aparecen los dispositivos de disco compartido, determine sus ID de dispositivo y, luego, agréguelos al quórum.

    1. Identifique el ID de dispositivo para cada disco compartido.

      # cldevice list -v
      
    2. Ejecute clsetup para agregar los dispositivos de quórum.

      # clsetup
      
      Select '1' for quorum.
      Select '1' to dd a quorum device.
      Select 'yes' to continue.
      Select 'Directly attached shared disk'
      Select 'yes' to continue.
      Enter the device id (d<n>) for the first shared drive.
      Answer 'yes' to add another quorum device.
      Enter the device id for the second shared drive.
      
    3. Ejecute clquorum show para confirmar la pertenencia al quórum.

      # clquorum show
      
  4. Revise la configuración general del cluster.

    # cluster check -v | egrep -v "not applicable|passed"
    

    Busque cualquier instancia violada en la lista.

  5. Verifique la lista de tipos de recursos registrados.

    # clrt list
    SUNW.LogicalHostname:4
    SUNW.SharedAddress:2
    SUNW.gds:6
    

    Si SUNW.gds no está en la lista, regístrelo.

    # clrt register SUNW.gds
    

    Confirme con clrt list.