Realice este procedimiento para crear un sistema de archivos del clúster. A diferencia de un sistema de archivos local, se puede acceder a un sistema de archivos del clúster desde cualquier nodo. Si ha utilizado SunPlex Installer para instalar los servicios de datos, SunPlex Installer puede que ya haya creado uno o más sistemas de archivos del clúster.
Los datos de los discos se destruyen al crear un sistema de archivos. Compruebe que el nombre del dispositivo de disco especificado sea el correcto. Si especifica un nombre de dispositivo erróneo, es posible que se borren datos que no desea suprimir.
Lleve a cabo este procedimiento para cada sistema de archivos del clúster que cree.
Compruebe que el software del gestor de volúmenes esté instalado y configurado.
Si desea conocer los procedimientos de instalación del gestor de volúmenes, consulte Instalación y configuración del software de Solstice DiskSuite o Solaris Volume Manager o SPARC: Instalación y configuración del software de VxVM .
Conviértase en usuario root en cualquiera de los nodos del clúster.
Para acelerar la creación de los sistemas de archivos, conviértase en usuario root en el actual nodo principal del dispositivo global para el que va a crear un sistema de archivos.
Cree un sistema de archivos.
En el caso de un sistema de archivos UFS, utilice la orden newfs(1M) command.
# newfs raw-disk-device |
La tabla siguiente muestra ejemplos de nombres para el argumento raw-disk-device. Tenga en cuenta que los convenios de denominación son distintos para cada gestor de volúmenes.
Gestor de volúmenes |
Nombre del dispositivo del disco de muestra |
Descripción |
---|---|---|
Solstice DiskSuite o Gestor de volúmenes de Solaris |
/dev/md/nfs/rdsk/d1 |
Dispositivo del disco básico d1 dentro del conjunto de discos nfs |
SPARC: VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Dispositivo de discos básicos vol01 dentro del grupo de discos oradg |
Ninguno |
/dev/global/rdsk/d1s3 |
Dispositivo de discos básicos d1s3 |
En el caso de un sistema de archivos Sun StorEdge QFS, siga los procedimientos para definir la configuración descritos en Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.
SPARC: En el caso de un sistema de archivos VERITAS File System (VxFS), siga los procedimientos proporcionados en la documentación de VxFS.
Cree un directorio de punto de montaje para el sistema de archivos del clúster en cada uno de los nodos del clúster.
Se requiere un punto de montaje en cada nodo, incluso si no se puede acceder al sistema de archivos del clúster en ese nodo.
Para facilitar la administración, cree el punto de montaje en el directorio /global/device-group/. Esta ubicación facilita la diferenciación de los sistemas de archivos del clúster, globalmente disponibles en los sistemas de archivos locales.
# mkdir -p /global/device-group/mountpoint/ |
Nombre del directorio que se corresponde con el nombre del grupo de dispositivos que contiene el dispositivo.
Nombre del directorio en el que se debe montar el sistema de archivos del clúster.
Añada, en cada uno de los nodos del clúster, una entrada para el punto de montaje en el archivo /etc/vfstab.
Si precisa más detalles consulte la página de comando man vfstab(4).
Especifique, en cada entrada, las opciones de montaje requeridas para el tipo de sistema de archivos que utiliza. Consulte Tabla 2–10, Tabla 2–11, o Tabla 2–12 para conocer la lista de opciones de montaje requeridas.
No utilice la opcion de montaje logging para los transmetadispositivos de Solstice DiskSuite o los volúmenes de transacción de Gestor de volúmenes de Solaris. Los transmetadispositivos y los volúmenes de transacción proporcionan su propio registro.
Además, Gestor de volúmenes de Solaris Se ha decidido excluir registro de volúmenes transaccional (anteriormente Solstice DiskSuite registro de transmetadispositivos) del sistema operativo Solaris en versiones futuras. Registro UFS de Solaris proporciona las mismas posibilidades pero un rendimiento superior, así como unos requisitos de administración del sistema y de sobrecarga inferiores.
Consulte la página de comando man mount_ufs(1M) para obtener más información acerca de las opciones de montaje de UFS.
Tabla 2–11 SPARC: Parámetros de montaje para los sistemas de archivos compartidos Sun StorEdge QFS
Parámetro de montaje |
Descripción |
---|---|
shared |
Necesario. Esta opción indica que se trata de un sistema de archivos compartido, por lo tanto, puede verse de forma global en todos los nodos del clúster. |
Asegúrese de que las preferencias del archivo /etc/vfstab no entran en conflicto con las del archivo /etc/opt/SUNWsamfs/samfs.cmd. Las preferencias del archivo /etc/vfstab sobrescriben las del archivo /etc/opt/SUNWsamfs/samfs.cmd.
Determinados servicios de datos, como Sun Cluster Support para Oracle Real Application Clusters, tienen requisitos y directrices adicionales para los parámetros de montaje de QFS. Consulte el manual del servicio de datos para conocer los requisitos adicionales.
Consulte la página de comando man mount_samfs( 1M) para obtener información sobre los parámetros de montaje de QFS.
El parámetro de montaje /etc/vfstab no habilita el registro. Para habilitar el registro, siga los procedimientos descritos en Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.
Opción de montaje |
Descripción |
---|---|
global |
Necesario. Esta opción hace que el sistema de archivos sea visible para todos los nodos del clúster. |
log |
Necesario. Esta opción habilita el registro. |
Consulte la página de comando man VxFS mount_vxfs y “Administering Cluster File Systems Overview” en Sun Cluster System Administration Guide for Solaris OS para obtener más información sobre las opciones de montaje VxFS.
Para montar automáticamente el sistema de archivos del clúster, configure el campo mount at boot como yes.
Compruebe que, en cada sistema de archivos del clúster, la información de la entrada /etc/vfstab sea idéntica en cada nodo.
Compruebe que las entradas del archivo /etc/vfstab de cada nodo enumeren los dispositivos en el mismo orden.
Compruebe las dependencias de orden de arranque de los sistemas de archivos.
Por ejemplo, supongamos un caso en el que phys-schost-1 monta el dispositivo de disco d0 en /global/oracle/, y phys-schost-2 monta el dispositivo de disco d1 en /global/oracle/logs/. Con esta configuración, phys-schost-2 sólo puede arrancar y montar /global/oracle/logs/ una vez que phys-schost-1 haya arrancado y montado /global/oracle/.
Ejecute la utilidad sccheck (1M) en cualquier nodo del clúster.
La utilidad sccheck comprueba la existencia de los puntos de montaje, así como que las entradas del archivo /etc/vfstab sean las correctas en todos los nodos del clúster.
# sccheck |
Si no hay ningún error, la orden no devuelve nada.
Monte el sistema de archivos del clúster.
# mount /global/device-group/mountpoint/ |
En el caso de UFS y QFS, monte el sistema de archivos del clúster en cualquier nodo del clúster.
SPARC: Para VxFS, monte el sistema de archivos del clúster desde el sistema principal actual de grupo_de_dispositivos para asegurarse de que se monte satisfactoriamente. De forma adicional, desmonte un sistema de archivos de VxFS desde el sistema principal actual de grupo_de_dispositivos para asegurarse de que el sistema de archivos se desmonte satisfactoriamente.
Para gestionar un sistema de archivos del clúster de VxFS en un entorno de Sun Cluster, ejecute las órdenes administrativas sólo a partir del nodo principal donde el sistema de archivos del clúster de VxFS se monte.
Compruebe que el sistema de archivos del clúster esté montado en cada uno de los nodos del clúster.
Puede utilizar la orden df(1M) o mount(1M) para mostar los sistemas de archivos montados.
Configure los grupos de Ruta múltiple de red IP.
Vaya a Cómo configurar los grupos de Ruta múltiple de red de protocolo de Internet (IP) .
El ejemplo siguiente crea un sistema de archivos del clúster UFS en el metadispositivo de Solstice DiskSuite /dev/md/oracle/rdsk/d1.
# newfs /dev/md/oracle/rdsk/d1 … (on each node) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |