Skip Headers
StorageTek Automated Cartridge System Library Software Instalación, configuración y operación del cluster de High Availability 8.3
Versión 8.3
E54096-01
  Ir a Tabla de Contenido
Contenido
Ir a Índice
Índice

Anterior
Anterior
 
Siguiente
Siguiente
 

6 Instalación de Solaris Cluster 4.1

La instalación de Solaris Cluster se explica en detalle en la Guía de instalación del software Oracle Solaris Cluster, que está disponible en el sitio technetwork de Oracle (consulte "Descarga de paquetes de software" de este documento).

En Solaris 11, ACSLSHA 8.3 es compatible con Oracle Solaris Cluster 4.1 y Support Repository Update (SRU-4) para OSC-4.1.

Instalación del paquete del cluster

Con este procedimiento, instalará el software Cluster.

  1. Cree un directorio, /opt/OSC.

    # mkdir /opt/OSC
    
  2. Mueva la imagen ISO de Cluster 4.1 descargada (osc-4_1-ga-repo-full.iso) al directorio /opt/OSC.

  3. Mueva la imagen del parche de SRU-4 OSC 4.1 descargada al directorio /opt/OSC y descomprima el archivo.

  4. Copie la imagen ISO de Cluster de sólo lectura a un sistema de archivos de lectura/escritura.

    1. Cree un pseudodispositivo a partir de la imagen ISO:

      # /usr/sbin/lofiadm -a /opt/OSC/osc-4_1-ga-repo-full.iso
      

      Observe la ruta del dispositivo que se devuelve y utilícela en el paso c.

    2. Cree un punto de montaje:

      # mkdir /opt/OSC/mnt
      
    3. Monte el pseudodispositivo en el punto de montaje:

      # mount -F hsfs -o ro /dev/lofi/1 /opt/OSC/mnt
      
    4. Copie la imagen ISO en un sistema de archivos de lectura/escritura temporal.

      # mkdir /opt/OSC/merged_iso
      # cp -r /opt/OSC/mnt/repo /opt/OSC/merged_iso
      
  5. Monte la imagen ISO SRU-4 en el sistema de archivos.

    # mount -F hsfs /opt/OSC/osc-4_1_4-1-repo-incr.iso /mnt
    
  6. Combine los cambios en SRU-4 con la versión de base Cluster 4.1.

    1. Sincronice las dos imágenes ISO en el sistema de archivos temporal.

      # rsync -aP /mnt/repo /opt/OSC/merged_iso
      
    2. Vuelva a compilar los índices de búsqueda del repositorio.

      # pkgrepo rebuild -s /opt/OSC/merged_iso/repo
      
  7. Instale Solaris Cluster desde la imagen ISO con parche.

    # pkg set-publisher -g file:///opt/OSC/merged_iso/repo ha-cluster
    # pkg install ha-cluster-full
    
  8. Repita los pasos 1 a 7 en el nodo adyacente.

Rutina scinstall

La rutina de instalación de Solaris Cluster realiza una serie de comprobaciones entre los dos nodos para asegurarse de que puede supervisar la operación del sistema desde ambos servidores y puede controlar las acciones de inicio y failover.

Pasos preliminares:

  1. Antes de ejecutar scinstall, es útil establecer un entorno para root que incluye la ruta a las utilidades del cluster que se acaban de instalar. Edite el archivo /root/.profile. Cambie las instrucciones de la ruta e incluya /usr/cluster/bin.

    export PATH=/usr/cluster/bin:/usr/bin:/usr/sbin
    

    Asegúrese de realizar este cambio en cada nodo. Para heredar la nueva ruta, puede cerrar sesión y volver a iniciar sesión, o simplemente su -.

  2. Confirme que la propiedad config/local_only para rpc/bind sea false.

    # svccfg -s network/rpc/bind listprop config/local_only
    

    Si la propiedad es true, debe establecerla en false.

    # svccfg -s network/rpc/bind setprop config/local_only=false
    

    Ahora confirme lo siguiente:

    # svccfg -s network/rpc/bind listprop config/local_only
    
  3. Un requisito de configuración de hardware esencial para el software Cluster es la existencia de dos conexiones de red privada, que están reservadas para garantizar la comunicación ininterrumpida de la operación del cluster entre los dos nodos. El Número 2-1, "Tarjeta de interfaz de biblioteca HBRr única conectada a dos puertos Ethernet en cada nodo de servidor" muestra estas conexiones físicas, etiquetadas como (2). Cada conexión se origina de un adaptador de red separado (NIC) para asegurarse de que ningún punto único de error pueda interrumpir la comunicación interna del cluster. La rutina scinstall comprueba cada una de las dos conexiones para verificar que no se vea otro tráfico de red en el cable. Finalmente, scinstall verifica que la comunicación sea funcional entre las dos líneas. Después de verificar la conexión física, la rutina asocia cada interfaz con una dirección interna privada que comienza con 172.16.

    Antes de ejecutar scinstall, debe verificar el ID del dispositivo de red asignado de los dos puertos de red de cada servidor que ha configurado para esta conexión privada. Ejecute dladm show-phys para ver las asignaciones de interfaces.

    # dladm show-phys
    
  4. Se debe establecer un nombre de host lógico y una dirección IP para representar el cluster de cualquier nodo. Este host lógico responderá de manera confiable a la comunicación de red si el host activo se ejecuta desde el nodo 1 o el nodo 2.

    Actualice el archivo /etc/hosts en ambos nodos para incluir el nombre de host lógico y la dirección IP lógica. Este host se activa cuando inicia ACSLS HA ("Inicio de ACSLS HA").

  5. Para una instalación exitosa del cluster, debe tener activado Solaris Common Agent Container. Verifique que el contenedor de agentes esté activado.

    # cacaoadm status
    

    Si la respuesta del estado indica que el contenedor de agentes está desactivado en el inicio del sistema, actívelo de la siguiente manera:

    # cacaoadm enable
    

Ejecución de scinstall

Desde uno de los dos nodos, ejecute el comando scinstall y luego siga este procedimiento:

  1. Desde el menú principal, seleccione Create a new cluster (Crear un nuevo cluster).

  2. Desde el submenú, seleccione Create a new cluster (Crear un nuevo cluster).

  3. Acepte los valores predeterminados iniciales.

  4. Seleccione la instalación Typical (Típica).

  5. Asigne un nombre al cluster, por ejemplo, acsls_cluster.

  6. En el indicador Cluster Nodes (Nodos del cluster), introduzca el nombre de host del nodo adyacente. Acepte la lista de nodos si es correcta.

  7. Defina las dos interconexiones de nodos privados que ha identificado con esta finalidad. Permita que la rutina de instalación asocie los enlaces tcp con las conexiones físicas.

  8. Siga las indicaciones para crear el cluster. A menos que haya identificado un dispositivo específico para actuar como dispositivo de quórum, permita a la rutina scinstall seleccionar los dispositivos de quórum.

  9. No se alarme si la utilidad informa que la comprobación del cluster falló en ambos nodos. Se informa un error incluso para las advertencias leves. Debe revisar el informe de cada nodo y buscar errores graves o violaciones que se pudieran devolver. La rutina muestra la ruta al archivo log que informa los detalles relacionados con errores o advertencias que se encuentran durante la operación. Revise el archivo log y corrija los problemas graves o moderadamente graves identificados.

Verificación de la configuración del cluster

  1. Verifique que ambos nodos estén incluidos en el cluster.

    # clnode list -v
    Node                Type
    ----                ----
    node1               cluster
    node2               cluster
    
  2. Visualice la lista de dispositivos disponibles para Solaris Cluster.

    # cldevice list -v
    DID Device   Full Device Path
    d1           node1:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    d1           node2:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    d2           node1:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0
    d2           node2:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0
    d3           node1:/dev/rdsk/c1t0d0
    d4           node1:/dev/rdsk/c1t1d0
    d5           node2:/dev/rdsk/c1t0d0
    d6           node2:/dev/rdsk/c1t1d0
    

    En este ejemplo, los dispositivos de disco compartido son d1 y d2, mientras que d3 y d4 son los dispositivos de inicio del nodo 1, y d5 y d6 son los dispositivos de inicio del nodo 2. Tenga en cuenta que se puede acceder a d1 y d2 desde cualquier nodo.

  3. Un quórum se compone de tres o más dispositivos. Se utiliza durante los eventos de inicio para determinar qué nodo será el nodo activo.

    Confirme que se haya configurado un quórum completo.

    # clquorum list -v
    Quorum              Type
    ------              ----
    d1                  shared_disk
    node1               node
    node2               node
    

    Puede (opcionalmente) agregar el segundo disco compartido a la lista de dispositivos de quórum.

    # clquorum add d2
    # clquorum list -v
    Quorum              Type
    ------              ----
    d1                  shared_disk
    d2                  shared_disk
    node1               node
    node2               node
    

    Si no aparecen los dispositivos de disco compartido, debe determinar los ID de dispositivo y, luego, agregarlos al quórum.

    1. Identifique la ID de dispositivo para cada disco compartido.

      # cldevice list -v
      
    2. Ejecute clsetup para agregar los dispositivos de quórum.

      # clsetup
      
      Select '1' for quorum.
      Select '1' to dd a quorum device.
      Select 'yes' to continue.
      Select 'Directly attached shared disk'
      Select 'yes' to continue.
      Enter the device id (d<n>) for the first shared drive.
      Answer 'yes' to add another quorum device.
      Enter the device id for the second shared drive.
      
    3. Ejecute clquorum show para confirmar la pertenencia al quórum.

      # clquorum show
      
  4. Revise la configuración general del cluster.

    # cluster check -v | egrep -v "not applicable|passed"
    

    Busque cualquier instancia violada en la lista.

  5. Verifique la lista de tipos de recursos registrados.

    # clrt list
    SUNW.LogicalHostname:4
    SUNW.SharedAddress:2
    SUNW.gds:6
    

    Si SUNW.gds no está en la lista, regístrelo.

    # clrt register SUNW.gds
    

    Confirme con clrt list.