Este capítulo incluye los siguientes procedimientos:
Esta sección incluye los procedimientos de creación de sistemas de archivos del clúster para admitir servicios de datos.
Realice este procedimiento para cada sistema de archivos del clúster que desee crear. A diferencia de un sistema de archivos local, todos los nodos de un clúster pueden acceder a un sistema de archivos del clúster.
Asimismo, puede utilizar un sistema de archivos local con alta disponibilidad para que admita un servicio de datos. Si desea obtener información acerca de si crear un sistema de archivos del clúster o un sistema de archivos local de alta disponibilidad para ofrecer soporte a un servicio determinado, consulte el manual de dicho servicio de datos. Si desea obtener información general acerca de la creación de un sistema de archivos local de alta disponibilidad, consulte Enabling Highly Available Local File Systems de Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Lleve a cabo las siguientes tareas:
Asegúrese de que ha instalado paquetes de software para el SO Solaris, marco de trabajo de Sun Cluster y otros productos, según lo descrito en Instalación del software.
Asegúrese de que ha establecido el nuevo clúster o nodo de clúster, tal y como se describe en Establecer un nuevo clúster o un nuevo nodo de clúster.
Si está utilizando un gestor de volúmenes, asegúrese de que el software de gestión de volúmenes está instalado y configurado. Si desea obtener información acerca de los procedimientos de instalación de gestión de volúmenes, consulte Configuración del software de Solaris Volume Manager o Instalación y configuración del software de VxVM.
Si ha agregado un nuevo nodo a un clúster que utiliza VxVM, debe realizar una de las siguientes tareas:
Instalar VxVM en dicho nodo.
Modificar el archivo /etc/name_to_major del nodo para que pueda coexistir con VxVM.
Siga los procedimientos que se indican en Cómo instalar el software de VERITAS Volume Manager para realizar una de estas tareas obligatorias.
Determine las opciones de montaje que se deben utilizar para cada sistema de archivos del clúster que desee crear. Consulte Elección de opciones de montaje para sistemas de archivos del clúster.
Conviértase en usuario root en cualquiera de los nodos del clúster.
En Solaris, debe realizar este procedimiento desde la zona global si no hay zonas globales configuradas en el clúster.
Para acelerar la creación de los sistemas de archivos, conviértase en usuario root en el actual nodo principal del dispositivo global para el que va a crear un sistema de archivos.
Crear un sistema de archivos.
Los datos de los discos se destruyen al crear un sistema de archivos. Asegúrese de que especifica el nombre de dispositivo de disco correcto. Si especifica un nombre de dispositivo erróneo se borrarán datos que quizás no deseara borrar.
En el caso de un sistema de archivos UFS, utilice el comando newfs(1M).
phys-schost# newfs raw-disk-device |
La tabla siguiente muestra ejemplos de nombres para el argumento dispositivo_disco_básico. Tenga en cuenta que los convenios de denominación son distintos para cada gestor de volúmenes.
Gestor de volúmenes |
Nombre del dispositivo del disco de muestra |
Descripción |
---|---|---|
Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
Dispositivo del disco básico d1 dentro del conjunto de discos nfs |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Dispositivo de discos básicos vol01 dentro del grupo de discos oradg |
Ninguna |
/dev/global/rdsk/d1s3 |
Dispositivo de discos básicos d1s3 |
SPARC: En el caso de un sistema de archivos de VERITAS File System (VxFS), siga los procedimientos proporcionados en la documentación de VxFS.
Cree un directorio de punto de montaje para el sistema de archivos del clúster en cada nodo del clúster.
Se requiere un punto de montaje en cada nodo, incluso si no se puede acceder al sistema de archivos del clúster en ese nodo.
Para facilitar la administración, cree el punto de montaje en el directorio /global/device-group/. Esta ubicación facilita la diferenciación de los sistemas de archivos del clúster, globalmente disponibles en los sistemas de archivos locales.
phys-schost# mkdir -p /global/device-group/mountpoint/ |
Nombre del directorio que se corresponde con el nombre del grupo de dispositivos que contiene el dispositivo.
Nombre del directorio en el que se debe montar el sistema de archivos del clúster.
Agregue, en cada uno de los nodos del clúster, una entrada para el punto de montaje en el archivo /etc/vfstab.
Consulte la página de comando man vfstab(4) para obtener más información.
Si hay configuradas en el clúster zonas no globales, asegúrese de que monta los sistemas de archivos del clúster en la zona global en una ruta del directorio raíz de la zona global.
Especifique las opciones de montaje necesarias en cada entrada para el tipo de sistema de archivos que utilice.
No utilice la opción de montaje de registro para Solaris Volume Manager volúmenes transaccionales. Los volúmenes transaccionales proporcionan su propio registro.
Además, Solaris Volume Manager registro de volúmenes transaccional se elimina del SO Solaris 10. Registro UFS de Solaris proporciona las mismas funciones con un rendimiento superior, así como unos requisitos de administración del sistema y de sobrecarga inferiores.
Para montar automáticamente el sistema de archivos del clúster, configure el campo mount at boot como yes.
Compruebe que, en cada sistema de archivos del clúster, la información de la entrada /etc/vfstab sea idéntica en cada nodo.
Compruebe que las entradas del archivo /etc/vfstab de cada nodo enumeren los dispositivos en el mismo orden.
Compruebe las dependencias de orden de arranque de los sistemas de archivos.
Por ejemplo, considere el escenario donde phys-schost-1 monta el dispositivo de disco d0 en /global/oracle/, y phys-schost-2 monta el dispositivo de disco d1 en /global/oracle/logs/. Con esta configuración, phys-schost-2 sólo puede arrancar y montar /global/oracle/logs/ una vez que phys-schost-1 haya arrancado y montado /global/oracle/.
En cualquier nodo del clúster, verifique que el punto de montaje exista.
phys-schost# sccheck |
La utilidad de comprobación de la configuración comprueba que existe el punto de montaje, así como que las entradas del archivo /etc/vfstab sean las correctas en todos los nodos del clúster. Si no hay ningún error, el comando no devuelve nada.
Si desea obtener más información, consulte la página de comando man sccheck(1M).
Monte el sistema de archivos del clúster.
phys-schost# mount /global/device-group/mountpoint/ |
En el caso de UFS, monte el sistema de archivos del clúster en cualquier nodo del clúster.
En el caso de SPARC: Para VERITAS File System (VxFS), monte el sistema de archivos del clúster a partir del sistema principal actual de device-group para asegurarse de que el sistema de archivos se monte satisfactoriamente.
De forma adicional, desmonte un sistema de archivos de VxFS desde el sistema principal actual de grupo_de_dispositivos para asegurarse de que el sistema de archivos se desmonte satisfactoriamente.
Para gestionar un sistema de archivos del clúster de VxFS en un entorno de Sun Cluster, ejecute los comandos administrativos sólo a partir del nodo principal donde el sistema de archivos del clúster de VxFS se monte.
Compruebe que el sistema de archivos del clúster esté montado en cada uno de los nodos del clúster.
Para enumerar los sistemas de archivos montados, puede emplear los comandos df o mount. Para obtener más información, consulte la página de comando man df(1M) o mount(1M).
Para el SO Solaris 10, los sistemas de archivos del clúster son accesibles tanto desde la zona global como desde la zona no global.
En el ejemplo siguiente, se crea un sistema de archivos del clúster UFS en el volumen de Solaris Volume Manager /dev/md/oracle/rdsk/d1. Se agrega una entrada para el sistema de archivos del clúster al archivo vfstab de cada nodo. A continuación, se ejecuta el comando sccheck desde un nodo. Una vez completado correctamente el procesamiento de comprobación de la configuración, se monta el sistema de archivos del clúster desde un nodo y se verifica en todos los nodos.
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# sccheck phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005 |
Determine de la siguiente lista la siguiente tarea que debe realizar que se aplique a su configuración de clúster. Si necesita realizar más de una tarea desde esta lista, diríjase a la primera de estas tareas de la lista.
Para crear zonas no globales en un nodo, diríjase a Cómo crear una zona no global en un nodo del clúster.
SPARC: Si desea configurar Sun Management Center para que supervise el clúster, vaya a SPARC: Instalación del módulo de Sun Cluster en Sun Management Center.
Instale las aplicaciones de otras empresas, registre los tipos de recursos, configure los grupos de recursos y los servicios de datos. Consulte la documentación que se suministra con el software desde la aplicación y Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Esta sección incluye procedimientos para crear una zona no global en un nodo del clúster.
Realice este procedimiento en cada zona no global que cree en el clúster.
Para obtener información completa acerca de cómo instalar una zona, consulte System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Puede configurar una zona no global de Solaris 10, conocida simplemente como una zona, en un nodo del clúster mientras el nodo se arranque en modo clúster o en modo no de clúster.
Si crea una zona mientras el nodo está arrancado en modo no de clúster, el software del clúster descubrirá la zona cuando el nodo se une al clúster.
Si crea o quita una zona mientras el nodo está en modo de clúster, el software de clúster cambia de forma dinámica su lista de zonas que puede controlar grupos de recursos.
Realice las siguientes tareas:
Diseñe la configuración de su zona no global. Observe los requisitos y las restricciones en Directrices para zonas no globales en un clúster.
Tenga a mano la información siguiente:
El número total de zonas no globales que creará.
El adaptador público y la dirección IP pública que utilizará cada zona.
La ruta de la zona de cada zona. Esta ruta de acceso debe ser un sistema de archivos local, no un sistema de archivos del clúster ni un sistema de archivos local de alta disponibilidad.
Al menos un dispositivo que debe aparecer en cada zona.
(opcional) El nombre que asignará a cada zona.
Si va a asignar a la zona una dirección IP privada, asegúrese de que el intervalo de direcciones IP del clúster puede admitir las direcciones IP privadas adicionales que configurará. Utilice el comando cluster show-netprops para visualizar la configuración actual de la red privada.
Si el intervalo de direcciones IP actual no es suficiente para admitir las direcciones IP privadas adicionales que va a configurar, siga los procedimientos indicados en Cómo cambiar la configuración de red privada al agregar nodos o redes privadas para volver a configurar el intervalo de direcciones IP privadas.
Si desea obtener información adicional, consulte Zone Components de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Conviértase en superusuario en el nodo en el que va a crear la zona no global.
Debe encontrarse en la zona global.
En el SO Solaris 10, compruebe en cada nodo que los servicios multiusuario de la Utilidad de administración de servicios (SMF) estén en línea.
Si los servicios no están todavía en línea para un nodo, espere a que estén en línea antes de continuar con el paso siguiente.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Configure, instale y arranque la nueva zona.
Debe establecer la propiedad autoboot en true (verdadero) para poder utilizar la función de grupo de recursos en la zona no global.
Siga los procedimientos incluidos en la siguiente documentación:
Lleve a cabo los procedimientos que aparecen en el Capítulo 18, Planning and Configuring Non-Global Zones (Tasks) de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Lleve a cabo los procedimientos que aparecen en Installing and Booting Zones de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Lleve a cabo los procedimientos que aparecen en How to Boot a Zone de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Compruebe que la zona presente el estado ready (listo).
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
(Opcional) Asigne una dirección IP y un nombre de host privados a la zona.
El siguiente comando selecciona y asigna una dirección IP disponible del intervalo de direcciones IP privadas del clúster. También asigna el nombre de host, o el alias de host, privado especificado a la zona y a la dirección IP privada asignada.
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
Especifica una propiedad.
Especifica el nombre de host, o el alias de host, privado de la zona.
El nombre del nodo.
El nombre de la zona no global.
Realice la configuración inicial de la zona interna.
Siga los procedimientos que aparecen enPerforming the Initial Internal Zone Configuration de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones. Seleccione uno de los siguientes métodos:
Inicie una sesión en la zona.
Utilice un archivo /etc/sysidcfg.
En la zona no global, modifique el archivo nsswitch.conf.
Debe realizar estos cambios para permitir la búsqueda de nombres de host y direcciones IP específicos del clúster en la zona.
Inicie una sesión en la zona.
phys-schost# zogin -c zonename |
Abra el archivo /etc/nsswitch.conf para editarlo.
phys-schost# vi /etc/nsswitch.conf |
Agregue el conmutador del clúster al comienzo de las búsquedas de entradas de hosts y máscaras de red.
Las entradas modificadas presentarán un aspecto similar al siguiente:
… hosts: cluster files nis [NOTFOUND=return] … netmasks: cluster files nis [NOTFOUND=return] … |
Para instalar una aplicación en una zona no global, utilice el mismo procedimiento que para un sistema independiente. Consulte la documentación de instalación de su aplicación para conocer los procedimientos de instalación del software en una zona no global. Consulte también Adding and Removing Packages and Patches on a Solaris System With Zones Installed (Task Map) de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Para instalar y configurar un servicio de datos en una zona no global, consulte el manual de Sun Cluster de cada servicio de datos.