StorageTek Automated Cartridge System Library Software Instalación, configuración y operación del cluster de High Availability 8.3 Versión 8.3 E54096-01 |
|
![]() Anterior |
![]() Siguiente |
La instalación de Solaris Cluster se explica en detalle en la Guía de instalación del software Oracle Solaris Cluster, que está disponible en el sitio technetwork de Oracle (consulte "Descarga de paquetes de software" de este documento).
En Solaris 11, ACSLSHA 8.3 es compatible con Oracle Solaris Cluster 4.1 y Support Repository Update (SRU-4) para OSC-4.1.
Con este procedimiento, instalará el software Cluster.
Cree un directorio, /opt/OSC
.
# mkdir /opt/OSC
Mueva la imagen ISO de Cluster 4.1 descargada (osc-4_1-ga-repo-full.iso) al directorio /opt/OSC
.
Mueva la imagen del parche de SRU-4 OSC 4.1 descargada al directorio /opt/OSC
y descomprima el archivo.
Copie la imagen ISO de Cluster de sólo lectura a un sistema de archivos de lectura/escritura.
Cree un pseudodispositivo a partir de la imagen ISO:
# /usr/sbin/lofiadm -a /opt/OSC/osc-4_1-ga-repo-full.iso
Observe la ruta del dispositivo que se devuelve y utilícela en el paso c.
Cree un punto de montaje:
# mkdir /opt/OSC/mnt
Monte el pseudodispositivo en el punto de montaje:
# mount -F hsfs -o ro /dev/lofi/1 /opt/OSC/mnt
Copie la imagen ISO en un sistema de archivos de lectura/escritura temporal.
# mkdir /opt/OSC/merged_iso # cp -r /opt/OSC/mnt/repo /opt/OSC/merged_iso
Monte la imagen ISO SRU-4 en el sistema de archivos.
# mount -F hsfs /opt/OSC/osc-4_1_4-1-repo-incr.iso /mnt
Combine los cambios en SRU-4 con la versión de base Cluster 4.1.
Sincronice las dos imágenes ISO en el sistema de archivos temporal.
# rsync -aP /mnt/repo /opt/OSC/merged_iso
Vuelva a compilar los índices de búsqueda del repositorio.
# pkgrepo rebuild -s /opt/OSC/merged_iso/repo
Instale Solaris Cluster desde la imagen ISO con parche.
# pkg set-publisher -g file:///opt/OSC/merged_iso/repo ha-cluster # pkg install ha-cluster-full
Repita los pasos 1 a 7 en el nodo adyacente.
scinstall
La rutina de instalación de Solaris Cluster realiza una serie de comprobaciones entre los dos nodos para asegurarse de que puede supervisar la operación del sistema desde ambos servidores y puede controlar las acciones de inicio y failover.
Pasos preliminares:
Antes de ejecutar scinstall
, es útil establecer un entorno para root
que incluye la ruta a las utilidades del cluster que se acaban de instalar. Edite el archivo /root/.profile
. Cambie las instrucciones de la ruta e incluya /usr/cluster/bin
.
export PATH=/usr/cluster/bin:/usr/bin:/usr/sbin
Asegúrese de realizar este cambio en cada nodo. Para heredar la nueva ruta, puede cerrar sesión y volver a iniciar sesión, o simplemente su -
.
Confirme que la propiedad config/local_only
para rpc/bind
sea false.
# svccfg -s network/rpc/bind listprop config/local_only
Si la propiedad es true, debe establecerla en false.
# svccfg -s network/rpc/bind setprop config/local_only=false
Ahora confirme lo siguiente:
# svccfg -s network/rpc/bind listprop config/local_only
Un requisito de configuración de hardware esencial para el software Cluster es la existencia de dos conexiones de red privada, que están reservadas para garantizar la comunicación ininterrumpida de la operación del cluster entre los dos nodos. El Número 2-1, "Tarjeta de interfaz de biblioteca HBRr única conectada a dos puertos Ethernet en cada nodo de servidor" muestra estas conexiones físicas, etiquetadas como (2). Cada conexión se origina de un adaptador de red separado (NIC) para asegurarse de que ningún punto único de error pueda interrumpir la comunicación interna del cluster. La rutina scinstall
comprueba cada una de las dos conexiones para verificar que no se vea otro tráfico de red en el cable. Finalmente, scinstall
verifica que la comunicación sea funcional entre las dos líneas. Después de verificar la conexión física, la rutina asocia cada interfaz con una dirección interna privada que comienza con 172.16.
Antes de ejecutar scinstall
, debe verificar el ID del dispositivo de red asignado de los dos puertos de red de cada servidor que ha configurado para esta conexión privada. Ejecute dladm show-phys
para ver las asignaciones de interfaces.
# dladm show-phys
Se debe establecer un nombre de host lógico y una dirección IP para representar el cluster de cualquier nodo. Este host lógico responderá de manera confiable a la comunicación de red si el host activo se ejecuta desde el nodo 1 o el nodo 2.
Actualice el archivo /etc/hosts
en ambos nodos para incluir el nombre de host lógico y la dirección IP lógica. Este host se activa cuando inicia ACSLS HA ("Inicio de ACSLS HA").
Para una instalación exitosa del cluster, debe tener activado Solaris Common Agent Container. Verifique que el contenedor de agentes esté activado.
# cacaoadm status
Si la respuesta del estado indica que el contenedor de agentes está desactivado en el inicio del sistema, actívelo de la siguiente manera:
# cacaoadm enable
scinstall
Desde uno de los dos nodos, ejecute el comando scinstall
y luego siga este procedimiento:
Desde el menú principal, seleccione Create a new cluster (Crear un nuevo cluster).
Desde el submenú, seleccione Create a new cluster (Crear un nuevo cluster).
Acepte los valores predeterminados iniciales.
Seleccione la instalación Typical (Típica).
Asigne un nombre al cluster, por ejemplo, acsls_cluster
.
En el indicador Cluster Nodes (Nodos del cluster), introduzca el nombre de host del nodo adyacente. Acepte la lista de nodos si es correcta.
Defina las dos interconexiones de nodos privados que ha identificado con esta finalidad. Permita que la rutina de instalación asocie los enlaces tcp con las conexiones físicas.
Siga las indicaciones para crear el cluster. A menos que haya identificado un dispositivo específico para actuar como dispositivo de quórum, permita a la rutina scinstall
seleccionar los dispositivos de quórum.
No se alarme si la utilidad informa que la comprobación del cluster falló en ambos nodos. Se informa un error incluso para las advertencias leves. Debe revisar el informe de cada nodo y buscar errores graves o violaciones que se pudieran devolver. La rutina muestra la ruta al archivo log que informa los detalles relacionados con errores o advertencias que se encuentran durante la operación. Revise el archivo log y corrija los problemas graves o moderadamente graves identificados.
Verifique que ambos nodos estén incluidos en el cluster.
# clnode list -v Node Type ---- ---- node1 cluster node2 cluster
Visualice la lista de dispositivos disponibles para Solaris Cluster.
# cldevice list -v DID Device Full Device Path d1 node1:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0 d1 node2:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0 d2 node1:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0 d2 node2:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0 d3 node1:/dev/rdsk/c1t0d0 d4 node1:/dev/rdsk/c1t1d0 d5 node2:/dev/rdsk/c1t0d0 d6 node2:/dev/rdsk/c1t1d0
En este ejemplo, los dispositivos de disco compartido son d1 y d2, mientras que d3 y d4 son los dispositivos de inicio del nodo 1, y d5 y d6 son los dispositivos de inicio del nodo 2. Tenga en cuenta que se puede acceder a d1 y d2 desde cualquier nodo.
Un quórum se compone de tres o más dispositivos. Se utiliza durante los eventos de inicio para determinar qué nodo será el nodo activo.
Confirme que se haya configurado un quórum completo.
# clquorum list -v Quorum Type ------ ---- d1 shared_disk node1 node node2 node
Puede (opcionalmente) agregar el segundo disco compartido a la lista de dispositivos de quórum.
# clquorum add d2 # clquorum list -v Quorum Type ------ ---- d1 shared_disk d2 shared_disk node1 node node2 node
Si no aparecen los dispositivos de disco compartido, debe determinar los ID de dispositivo y, luego, agregarlos al quórum.
Identifique la ID de dispositivo para cada disco compartido.
# cldevice list -v
Ejecute clsetup
para agregar los dispositivos de quórum.
# clsetup Select '1' for quorum. Select '1' to dd a quorum device. Select 'yes' to continue. Select 'Directly attached shared disk' Select 'yes' to continue. Enter the device id (d<n>) for the first shared drive. Answer 'yes' to add another quorum device. Enter the device id for the second shared drive.
Ejecute clquorum
show
para confirmar la pertenencia al quórum.
# clquorum show
Revise la configuración general del cluster.
# cluster check -v | egrep -v "not applicable|passed"
Busque cualquier instancia violada en la lista.
Verifique la lista de tipos de recursos registrados.
# clrt list SUNW.LogicalHostname:4 SUNW.SharedAddress:2 SUNW.gds:6
Si SUNW.gds
no está en la lista, regístrelo.
# clrt register SUNW.gds
Confirme con clrt list
.