Los sistemas de archivos de Oracle HSM se pueden compartir entre varios hosts de diferentes maneras. Cada enfoque tiene fortalezas determinadas en algunas situaciones y desventajas notables en otras. De modo que sus elecciones dependen de sus requisitos específicos. Entre otros métodos de uso compartido se incluyen:
Acceso a sistemas de archivos desde varios hosts mediante el software Oracle HSM
Acceso a sistemas de archivos desde varios hosts mediante el uso de NFS y SMB/CIFS
Oracle HSM pone a disposición los sistemas de archivos a varios hosts mediante la configuración de un servidor y uno o más clientes y todos montan el sistema de archivos simultáneamente. A continuación, los datos de archivos se transfieren directamente desde los dispositivos de disco a los hosts mediante E/S de ruta local de alto rendimiento, sin las latencias de servidor de red e intermedias asociadas con el recurso compartido de NFS y CIFS. Únicamente un host puede estar a activo como servidor de metadatos por vez, pero se pueden configurar una variedad de clientes como servidores de metadatos posibles para propósitos de redundancia. No hay un límite para la cantidad de puntos de montaje del sistema de archivos.
Oracle HSM admite acceso de varios hosts a sistemas de archivos de alto rendimiento (ma
) y propósito general (ms
) en configuraciones de escritor único/lectores múltiples y en configuraciones compartidas, con o sin archivado. Hay solamente unas pocas limitaciones:
No se admiten los archivos especiales de bloque (b
–).
No se admiten los archivos especiales de caracteres (c
–).
No se admiten archivos especiales de canal denominado por FIFO (p
–).
No se admiten los archivos segmentados.
No puede implementar un sistema de archivos compartido Oracle HSM en un entorno de archivos segmentados.
No se admiten bloqueos obligatorios.
Se devuelve un error EACCES
si se configura un bloqueo obligatorio. Sin embargo, se admiten los bloqueos de asesores. Para obtener más información sobre bloqueos de asesores, consulte la página del comando man fcntl
.
Los hosts del software Oracle HSM pueden acceder a los datos del sistema de archivos mediante una de dos configuraciones, cada una con sus propias ventajas y limitaciones en cualquier aplicación determinada.
En una configuración de escritor único/lectores múltiples, un único host monta el sistema de archivos con acceso de lectura y escritura, y todos los demás hosts lo montan con acceso de solo lectura. La configuración es un tema simple de configuración de opciones de montaje. Dado que un único host realiza todos los cambios en los archivos, la coherencia de archivos y la integridad de datos están garantizadas, sin bloqueo adicional de archivos ni comprobaciones de coherencia. Todos los hosts leen los metadatos y los datos directamente desde el disco para un mejor rendimiento. Sin embargo, todos los hosts deben tener acceso a los metadatos del sistema de archivos, de modo que todos los hosts de un sistema de archivos ma
deben tener acceso a los dispositivos de datos y metadatos.
En una configuración compartida, todos los hosts pueden leer, escribir y anexar datos de archivos mediante el uso de concesiones, que permite que un único host acceda a los archivos de una determinada manera por un período determinado. El servidor de metadatos emite concesiones de lectura, escritura y anexo, y gestiona las renovaciones y las solicitudes de licencia en conflicto. Los sistemas de archivos compartidos ofrecen gran flexibilidad, pero la configuración es un poco más compleja y hay una mayor sobrecarga del sistema de archivos. Todos los hosts leen los datos de archivos directamente desde el disco, pero los clientes acceden a los metadatos por la red. De modo que los clientes que no tienen acceso a los dispositivos de metadatos pueden compartir un sistema de archivos ma
.
Para configurar el acceso a datos de varios hosts, seleccione uno de los dos enfoques:
Configuración de un sistema de archivos de escritor único/lectores múltiples de Oracle HSM
Configuración de un sistema de archivos compartido Oracle HSM
Para configurar un sistema de archivos de escritor único y lectores múltiples, realice las siguientes tareas:
Siga estos pasos:
Inicie sesión en el host que actuará como writer
mediante el uso de la cuenta root
.
En el ejemplo, el host de writer
se denomina swriterfs-mds-writer
:
[swriterfs1-mds-writer]root@solaris:~#
En el host que actuará como writer
, abra el archivo /etc/opt/SUNWsamfs/mcf
en un editor de texto y agregue un sistema de archivos QFS. Puede configurar un sistema de archivos ms
de propósito general o ma
de alto rendimiento.
En un sistema de archivos ma
con dispositivos de metadatos separados, configure el servidor de metadatos para el sistema de archivos como escritor. En el ejemplo de abajo, editamos el archivo mcf
en el host swriterfs1-mds-writer
mediante el uso del editor de texto vi
. En el ejemplo, se especifica un sistema de archivos ma
con el identificador de equipo y el nombre de conjunto de familias swriterfs1
, y el número ordinal de equipo 300
:
[swriterfs1-mds-writer]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- swriterfs1 300 ma swriterfs1 on /dev/dsk/c0t0d0s0 301 mm swriterfs1 on /dev/dsk/c0t3d0s0 302 mr swriterfs1 on /dev/dsk/c0t3d0s1 303 mr swriterfs1 on
Guarde el archivo /etc/opt/SUNWsamfs/mcf
y salga del editor.
En el ejemplo, guardamos los cambios y salimos del editor vi
:
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#------------------ --------- --------- --------- ------ ---------------
swriterfs1 300 ma swriterfs1 on
/dev/dsk/c0t0d0s0 301 mm swriterfs1 on
/dev/dsk/c0t3d0s0 302 mr swriterfs1 on
/dev/dsk/c0t3d0s1 303 mr swriterfs1 on
:wq
[swriterfs1-mds-writer]root@solaris:~#
Verifique el archivo mcf
para detectar errores mediante la ejecución del comando sam-fsd
y corrija los errores encontrados.
El comando sam-fsd
lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error:
[swriterfs1-mds-writer]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[swriterfs1-mds-writer]root@solaris:~#
Indique al servicio de Oracle HSM que vuelva a leer el archivo mcf
y vuelva a realizar la configuración en consecuencia. Utilice el comando samd
config
.
[swriterfs1-mds-writer]root@solaris:~# samd config Configuring SAM-FS [swriterfs1-mds-writer]root@solaris:~#
Cree el sistema de archivos mediante el uso del comando sammkfs
y el nombre del conjunto de familias del sistema de archivos, tal como se describe en Configurar un sistema de archivos ma
de alto rendimiento.
En el ejemplo, el comando crea el sistema de archivos de escritor único/lectores múltiples swriterfs1
:
[swriterfs1-mds-writer]root@solaris:~# sammkfs swriterfs1 Building 'swriterfs1' will destroy the contents of devices: /dev/dsk/c0t0d0s0 /dev/dsk/c0t3d0s0 /dev/dsk/c0t3d0s1 Do you wish to continue? [y/N]yes ...
Realice una copia de seguridad del archivo /etc/vfstab
del sistema operativo.
[swriterfs1-mds-writer]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [swriterfs1-mds-writer]root@solaris:~#
Agregue el nuevo sistema de archivos al archivo /etc/vfstab
del sistema operativo, tal como se describe en Configurar un sistema de archivos ma
de alto rendimiento.
En el ejemplo, abrimos el archivo /etc/vfstab
en el editor de texto vi
y agregamos una línea para el dispositivo del conjunto de familias swriterfs1
:
[swriterfs1-mds-writer]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ----------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... swriterfs1 - /swriterfs1 samfs - no
En la columna Mount Options
del archivo /etc/vfstab
, introduzca la opción de montaje writer
.
Precaución:
Asegúrese de que solamente un host sea elwriter
en un determinado momento. Si se permite más de un host para montar un sistema de archivos de escritor único/lectores múltiples mediante el uso de la opción writer
, se puede dañar el sistema.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer
Realice otros cambios deseados en el archivo /etc/vfstab
. Agregue opciones de montaje mediante el uso de comas como separadores.
Por ejemplo, para montar el sistema de archivos en segundo plano, si el primer intento no es correcto, agregue la opción de montaje bg
al campo Mount Options
(consulte la página del comando man mount_samfs
para obtener una lista completa de las opciones de montaje disponibles):
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
Guarde el archivo /etc/vfstab
y salga del editor.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
:wq
[swriterfs1-mds-writer]root@solaris:~#
Cree el punto de montaje especificado en el archivo /etc/vfstab
y configure los permisos de acceso para el punto de montaje.
Los permisos de punto de montaje deben ser los mismos en todos los hosts y los usuarios deben haber ejecutado el permiso (x
) para cambiar el directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /swriterfs1
y configuramos los permisos en 755
(-rwxr-xr-x
):
[swriterfs1-mds-writer]root@solaris:~# mkdir /swriterfs1 [swriterfs1-mds-writer]root@solaris:~# chmod 755 /swriterfs1 [swriterfs1-mds-writer]root@solaris:~#
Monte el nuevo sistema de archivos:
[swriterfs1-mds-writer]root@solaris:~# mount /swriterfs1 [swriterfs1-mds-writer]root@solaris:~#
Una vez que se haya creado el sistema de archivos compartido, configure los lectores.
Un reader es un host que monta un sistema de archivos de solo lectura. Para cada host que va a configurar como un lector, realice lo siguiente:
Inicie sesión en el host como root
.
En el ejemplo, el host de reader
se denomina swriterfs-reader1]
:
[swriterfs-reader1]root@solaris:~#
En una ventana de terminal, recupere la información de configuración del sistema de archivos de escritor único y lectores múltiples con el comando samfsconfig
device-path
, donde device-path
es la ubicación donde el comando debería comenzar a buscar los dispositivos de disco del sistema de archivos (como /dev/dsk/*
).
La utilidad samfsconfig
recupera la información de configuración del sistema de archivos mediante la lectura del superbloque de identificación que sammkfs
escribe en cada dispositivo incluido en un sistema de archivos Oracle HSM. El comando devuelve las rutas correctas a cada dispositivo en la configuración, comenzando por el host actual y marca los dispositivos que no se pueden alcanzar (para obtener información completa sobre la sintaxis y los parámetros del comando, consulte la página del comando man samfsconfig
).
En el ejemplo, la salida de samfsconfig
muestra el mismo equipo que se muestra en el archivo mcf
en swriterfs1-mds-writer
, excepto que las rutas a los dispositivos se especifican a partir del host swriterfs1-reader1
:
[swriterfs1-reader1]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'swriterfs1' Created Thu Nov 21 07:17:00 2013 # Generation 0 Eq count 4 Eq meta count 1 # sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
Copie las entradas del sistema de archivos compartido desde la salida de samfsconfig
. Luego, en una segunda ventana, abra el archivo /etc/opt/SUNWsamfs/mcf
en un editor de texto y pegue las entradas copiadas en el archivo.
Como alternativa, puede redirigir la salida de samfsconfig
al archivo mcf
. O bien, puede utilizar el comando samd buildmcf
para ejecutar samfsconfig
y crear el archivo de cliente mcf
automáticamente.
En el ejemplo, el archivo mcf
para el host, swriterfs1-reader1
es similar al siguiente cuando agregamos los encabezados de columna comentados:
[swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
Asegúrese de que el campo Device State
esté configurado en on
para todos los dispositivos. A continuación, guarde el archivo mcf
.
[swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on /dev/dsk/c1t0d0s0 301 mm sharefs on /dev/dsk/c1t3d0s0 302 mr sharefs on /dev/dsk/c1t3d0s1 303 mr sharefs on :wq [swriterfs1-reader1]root@solaris:~#
Verifique el archivo mcf
para detectar errores mediante la ejecución del comando sam-fsd
y corrija los errores encontrados.
El comando sam-fsd
lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error:
[swriterfs1-reader1]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[swriterfs1-reader1]root@solaris:~#
Realice una copia de seguridad del archivo /etc/vfstab
del sistema operativo.
[swriterfs1-reader1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [swriterfs1-reader1]root@solaris:~#
Agregue el sistema de archivos de escritor único y lectores múltiples al archivo /etc/vfstab
del sistema operativo.
En el ejemplo, abrimos el archivo /etc/vfstab
en el editor de texto vi
y agregamos una línea para el dispositivo del conjunto de familias swriterfs1
:
[swriterfs1-reader1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ----------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... swriterfs1 - /swriterfs1 samfs - no
En la columna Mount
Options
del archivo /etc/vfstab
, introduzca la opción reader
.
Precaución:
Asegúrese de que el host monte el sistema de archivos mediante la opciónreader
. Si se usa la opción de montaje writer
de forma inadvertida en más de un host, es posible que se dañe el sistema de archivos.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no reader
Agregue cualquier otra opción de montaje que desee mediante una coma como separador, y efectúe los cambios que desee en el archivo /etc/vfstab
. Luego, guarde el archivo /etc/vfstab
.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
:wq
[swriterfs1-reader1]root@solaris:~#
Cree el punto de montaje especificado en el archivo /etc/vfstab
y configure los permisos de acceso para el punto de montaje.
Los permisos de punto de montaje deben ser los mismos en todos los hosts y los usuarios deben haber ejecutado el permiso (x
) para cambiar el directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /swriterfs1
y configuramos los permisos en 755
(-rwxr-xr-x
), tal como lo hicimos en el host del escritor:
[swriterfs1-reader1]root@solaris:~# mkdir /swriterfs1 [swriterfs1-reader1]root@solaris:~# chmod 755 /swriterfs1 [swriterfs1-reader1]root@solaris:~#
Monte el nuevo sistema de archivos:
[swriterfs1-reader1]root@solaris:~# mount /swriterfs1 [swriterfs1-reader1]root@solaris:~#
Repita este procedimiento hasta que se hayan configurado todos los hosts de lectores para montar el sistema de archivos de solo lectura.
Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.
En caso contrario, vaya a Configuración de notificaciones y registro.
Los sistemas de archivos compartidos de Oracle HSM otorgan a varios hosts de Oracle HSM acceso de lectura, escritura y anexo a los archivos. Todos los hosts montan el sistema de archivo y tienen conexiones directas a los dispositivos de almacenamiento. Además, un host, el servidor de metadatos (MDS), tiene control exclusivo en los metadatos del sistema de archivos y actúa de mediador entre los hosts que buscan acceder a los mismos archivos. El servidor proporciona hosts de cliente con actualizaciones de metadatos mediante una red local de Ethernet y controla el acceso de los archivos mediante la emisión, la renovación y la revocación de concesiones de lectura, escritura y anexo. Se pueden compartir los sistemas de archivos de almacenamiento y no de almacenamiento de alto rendimiento ma
o de propósito general ms
.
Para configurar el sistema de archivos compartido, realice las siguientes tareas:
Configurar un servidor de metadatos del sistema de archivos para uso compartido
Configurar los clientes del sistema de archivos para uso compartido
Configurar el almacenamiento en archivo para un sistema de archivos compartido
Para configurar un servidor de metadatos para que admita un sistema de archivos compartido, realice las siguientes tareas:
Creación de un archivo de hosts en los servidores de metadatos activos y posibles
Crear el sistema de archivos compartido en el servidor activo
Montar el sistema de archivos compartido en el servidor activo
En los servidores de metadatos activos y posibles debe crear un archivo de hosts que incluya la información de dirección de red de los servidores y clientes de un sistema de archivos compartido. El archivo de hosts se almacena junto con el archivo mcf
en el directorio /etc/opt/SUNWsamfs/
. Durante la creación inicial de un sistema de archivos compartido, el comando sammkfs -S
configura el uso compartido mediante los parámetros de configuración almacenados en este archivo. Por lo tanto, créelo ahora, utilizando el procedimiento que se indica a continuación.
Inicie sesión en el servidor como root
.
En el ejemplo, el servidor se denomina sharefs-mds
:
[sharefs-mds]root@solaris:~#
Con un editor de texto, creamos el archivo /etc/opt/SUNWsamfs/hosts.
family-set-name
en el servidor de metadatos y reemplazamos family-set-name
con el nombre del conjunto de familias del sistema de archivos que desea compartir.
En el ejemplo, creamos el archivo hosts.sharefs
mediante el editor de texto vi
. Agregamos algunos encabezados opcionales, comenzamos cada línea con un signo hash (#
) e indicamos un comentario:
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs # /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ----------
Agregue la dirección IP y el nombre del host o el nombre de dominio del servidor de metadatos en dos columnas, separadas por caracteres de espacio en blanco.
# /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117
Agregue una tercera columna, separada de la dirección de red por caracteres de espacio. En esta columna, introduzca 1
, el número ordinal para el servidor de metadatos activo.
En este ejemplo, sólo hay un servidor de metadatos, por lo tanto, introducimos 1
:
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1
Agregue una cuarta columna, separada de la dirección de red por caracteres de espacio. En esta columna, introduzca 0
(cero).
El valor 0
, -
(guión) o en blanco en la cuarta columna indica que el host está on, es decir, configurado con acceso al sistema de archivos compartido. El valor 1
(numeral uno) indica que el host está off, es decir, configurado pero sin acceso al sistema de archivos (para obtener información sobre el uso de estos valores para administrar sistemas de archivos compartidos, consulte la página del comando man samsharefs
).
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0
Agregue una quinta columna, separada de la dirección de red por caracteres de espacio. En esta columna, introduzca la palabra clave server
para indicar el servidor de metadatos activo en la actualidad:
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
Si tiene pensado incluir uno o varios hosts como servidores de metadatos posibles, cree una entrada para cada uno. Aumente el número ordinal del servidor cada vez que agregue uno. Pero no incluya la palabra clave server
(puede haber sólo un servidor de metadatos activo por sistema de archivos).
En el ejemplo, el host sharefs-mds_alt
es un servidor de metadatos posible con el número ordinal de servidor 2
:
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
sharefs-mds_alt 10.79.213.217 2 0
Agregue una línea para cada host de cliente, cada una con un valor ordinal de servidor de 0
.
El número ordinal de servidor 0
identifica el host como cliente. En el ejemplo, agregamos dos clientes, sharefs-client1
y sharefs-client2
.
# /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117 1 0 server sharefs-mds_alt 10.79.213.217 2 0 sharefs-client1 10.79.213.133 0 0 sharefs-client2 10.79.213.147 0 0
Guarde el archivo /etc/opt/SUNWsamfs/hosts.
family-set-name
y salga del editor.
En el ejemplo, guardamos los cambios en /etc/opt/SUNWsamfs/hosts.sharefs
y salimos del editor vi
:
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
sharefs-mds_alt 10.79.213.217 2 0
sharefs-client1 10.79.213.133 0 0
sharefs-client2 10.79.213.147 0 0
:wq
[sharefs-mds]root@solaris:~#
Coloque una copia del nuevo archivo /etc/opt/SUNWsamfs/hosts.
family-set-name
en cualquier servidor de metadatos posible incluido en la configuración del sistema de archivos compartido.
Ahora cree el sistema de archivos compartido en el servidor de metadatos activo.
Siga estos pasos:
Inicie sesión en el servidor como root
.
En el ejemplo, el servidor se denomina sharefs-mds
:
[sharefs-mds]root@solaris:~#
En el servidor de metadatos (MDS), abra el archivo /etc/opt/SUNWsamfs/mcf
en un editor de texto y agregue un sistema de archivos QFS. Puede configurar un sistema de archivos ms
de propósito general o ma
de alto rendimiento.
En el ejemplo de abajo, editamos el archivo mcf
en el host sharefs-mds
mediante el uso del editor de texto vi
. En el ejemplo, se especifica un sistema de archivos ma
con el identificador de equipo y el nombre de conjunto de familias sharefs
, y el número ordinal de equipo 300
:
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on /dev/dsk/c0t0d0s0 301 mm sharefs on /dev/dsk/c0t3d0s0 302 mr sharefs on /dev/dsk/c0t3d0s1 303 mr sharefs on
En el campo Additional
Parameters
de la fila del equipo del sistema de archivos ma
, introduzca el parámetro shared
:
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#------------------ --------- --------- --------- ------ ---------------
sharefs 300 ma sharefs on shared
/dev/dsk/c0t0d0s0 301 mm sharefs on
/dev/dsk/c0t3d0s0 302 mr sharefs on
/dev/dsk/c0t3d0s1 303 mr sharefs on
Guarde el archivo /etc/opt/SUNWsamfs/mcf
y salga del editor.
En el ejemplo, guardamos los cambios y salimos del editor vi
:
sharefs 300 ma sharefs on shared
/dev/dsk/c0t0d0s0 301 mm sharefs on
/dev/dsk/c0t3d0s0 302 mr sharefs on
/dev/dsk/c0t3d0s1 303 mr sharefs on
:wq
[sharefs-mds]root@solaris:~#
Verifique el archivo mcf
para detectar errores mediante la ejecución del comando sam-fsd
y corrija los errores encontrados.
El comando sam-fsd
lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error:
[sharefs-mds]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-mds]root@solaris:~#
Indique al servicio Oracle HSM que vuelva a leer el archivo mcf
y vuelva a realizar la configuración en consecuencia. Corrija los errores que se informen y, si es necesario, repita el procedimiento.
[sharefs-mds]root@solaris:~# samd config [sharefs-mds]root@solaris:~#
Cree el sistema de archivos mediante el uso del comando sammkfs -S
y el nombre del conjunto de familias del sistema de archivos, tal como se describe en Configurar un sistema de archivos ma
de alto rendimiento.
El comando sammkfs
lee los archivos hosts.
family-set-name
y mcf
y crea un sistema de archivos compartido con las propiedades especificadas. En el ejemplo, el comando lee los parámetros de uso compartido del archivo hosts.sharefs
y crea el sistema de archivos compartido sharefs
:
[sharefs-mds]root@solaris:~# sammkfs -S sharefs Building 'sharefs' will destroy the contents of devices: /dev/dsk/c0t0d0s0 /dev/dsk/c0t3d0s0 /dev/dsk/c0t3d0s1 Do you wish to continue? [y/N]yes ... [sharefs-mds]root@solaris:~#
Luego, monte el sistema de archivos compartido en el servidor de metadatos activo.
Inicie sesión en el servidor como root
.
En el ejemplo, el servidor se denomina sharefs-mds
:
[sharefs-mds]root@solaris:~#
Realice una copia de seguridad del archivo /etc/vfstab
del sistema operativo.
[sharefs-mds]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [sharefs-mds]root@solaris:~#
Agregue el nuevo sistema de archivos al archivo /etc/vfstab
del sistema operativo, tal como se describe en Configurar un sistema de archivos ma
de alto rendimiento.
En el ejemplo, abrimos el archivo /etc/vfstab
en el editor de texto vi
y agregamos una línea para el dispositivo del conjunto de familias sharefs
:
[sharefs-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sharefs - /sharefs samfs - no
En la columna Mount Options
, introduzca la opción shared
:
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared
Realice otros cambios deseados en el archivo /etc/vfstab
.
Por ejemplo, para reintentar el montaje del sistema de archivos en segundo plano, agregue la opción de montaje bg
al campo Mount Options
(para obtener una descripción completa de las opciones de montaje disponibles, consulte la página del comando man mount_samfs
):
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared,bg
Guarde el archivo /etc/vfstab
y salga del editor.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared,bg
:wq
[sharefs-mds]root@solaris:~#
Cree el punto de montaje especificado en el archivo /etc/vfstab
y configure los permisos de acceso para el punto de montaje.
Los permisos de punto de montaje deben ser los mismos en el servidor de metadatos y en todos los clientes, y los usuarios deben haber ejecutado el permiso (x
) para cambiar el directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /sharefs
y configuramos los permisos en 755
(-rwxr-xr-x
):
[sharefs-mds]root@solaris:~# mkdir /sharefs [sharefs-mds]root@solaris:~# chmod 755 /sharefs [sharefs-mds]root@solaris:~#
Monte el nuevo sistema de archivos:
[sharefs-mds]root@solaris:~# mount /sharefs
[sharefs-mds]root@solaris:~#
Si los hosts están configurados con varias interfaces de red, se recomienda usar los archivos de hosts locales para enrutar las comunicaciones de red.
De lo contrario, una vez que el sistema de archivos compartido se haya creado en el servidor de metadatos, configure el uso compartido en los clientes del sistema de archivos.
Los clientes incluyen hosts que se configuran exclusivamente como clientes y hosts que están configurados como servidores de metadatos posibles. En la mayoría de los sentidos, la configuración de un cliente es muy similar a la configuración de un servidor. Cada cliente incluye exactamente los mismos dispositivos que el servidor. Únicamente cambian las opciones de montaje y la ruta exacta a los dispositivos (los números de controlador son asignados por cada host de cliente y, por lo tanto, pueden variar).
Para configurar uno o más clientes para que admitan un sistema de archivos compartido, realice las siguientes tareas:
Crear el sistema de archivos compartido en los clientes de Solaris
Montar el sistema de archivos compartido en los clientes de Solaris
Crear el sistema de archivos compartido en los clientes de Linux (si corresponde)
Montar el sistema de archivos compartido en los clientes de Linux (si corresponde)
Para cada cliente, siga los pasos detallados a continuación:
En el cliente, inicie sesión como root
.
En el ejemplo, el servidor se denomina sharefs-client1
:
[sharefs-client1]root@solaris:~#
En una ventana de terminal, introduzca el comando samfsconfig
device-path
, donde device-path
es la ubicación donde el comando debe empezar a buscar los dispositivos de disco del sistema de archivos (como /dev/dsk/*
o /dev/zvol/dsk/rpool/*
).
El comando samfsconfig
recupera la información de configuración para el sistema de archivos compartido.
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
Si el host tiene acceso a los dispositivos de metadatos del sistema de archivos y, por lo tanto, es adecuado para utilizar como servidor de metadatos posible, la salida de samfsconfig
se asemeja al archivo mcf
que creó en el servidor de metadatos del sistema de archivos.
En nuestro ejemplo, el host sharefs-client1
tiene acceso a los dispositivos de metadatos (tipo de equipo mm
), entonces la salida del comando muestra el mismo equipo que aparece en el archivo mcf
en el servidor, sharefs-mds
. Solo difieren los números del controlador del dispositivo asignado por el host:
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # Generation 0 Eq count 4 Eq meta count 1 # sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
Si el host no tiene acceso a los dispositivos de metadatos para el sistema de archivos, el comando samfsconfig
no puede encontrar los dispositivos de metadatos y, por lo tanto, no puede ubicar los dispositivos de Oracle HSM que detecta en la configuración del sistema de archivos. La salida del comando muestra Ordinal
0
(el dispositivo de metadatos) en Missing Slices
, donde no se incluye la línea que identifica el conjunto de familias del sistema de archivos y se comentan las listas de los dispositivos de datos.
En nuestro ejemplo, el host sharefs-client2
sólo tiene acceso a los dispositivos de datos. Por lo tanto, la salida de samfsconfig
se ve de la siguiente manera:
[sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # # Missing slices # Ordinal 0 # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
Copie las entradas del sistema de archivos compartido desde la salida de samfsconfig
. Luego, en una segunda ventana, abra el archivo /etc/opt/SUNWsamfs/mcf
en un editor de texto y pegue las entradas copiadas en el archivo.
En nuestro primer ejemplo, el host, sharefs-client1
, tiene acceso a los dispositivos de metadatos para el sistema de archivos, entonces el archivo mcf
en un principio se ve de la siguiente manera:
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
En nuestro segundo ejemplo, el host, sharefs-client2
, no tiene acceso a los dispositivos de metadatos para el sistema de archivos, entonces el archivo mcf
en un principio se ve de la siguiente manera:
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
Si el host tiene acceso a los dispositivos de metadatos del sistema de archivos, agregue el parámetro shared
al campo Additional Parameters
de la entrada del sistema de archivos compartido.
En el ejemplo, el host, sharefs-client1
, tiene acceso a los metadatos:
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
Si el host no tiene acceso a los dispositivos de metadatos del sistema de archivos, agregue una línea para el sistema de archivos compartido e incluya el parámetro shared
.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
Si el host no tiene acceso a los dispositivos de metadatos del sistema de archivos, agregue una línea para el dispositivo de metadatos. Configure el campo Equipment Identifier
en nodev
(sin dispositvo) y configure los campos restantes exactamente con los mismos valores que tienen en el servidor de metadatos:
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
Si el host no tiene acceso a los dispositivos de metadatos del sistema de archivos, quite el comentario de las entradas para los dispositivos de datos.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ----------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs - /dev/dsk/c4t3d0s1 303 mr sharefs -
Asegúrese de que el campo Device State
esté configurado en on
para todos los dispositivos y guarde el archivo mcf
.
En nuestro primer ejemplo, el host, sharefs-client1
, tiene acceso a los dispositivos de metadatos para el sistema de archivos, entonces el archivo mcf
al finalizar se ve de la siguiente manera:
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared /dev/dsk/c1t0d0s0 301 mm sharefs on /dev/dsk/c1t3d0s0 302 mr sharefs on /dev/dsk/c1t3d0s1 303 mr sharefs on :wq [sharefs-client1]root@solaris:~#
En el segundo ejemplo, el host, sharefs-client2
, no tiene acceso a los dispositivos de metadatos para el sistema de archivos; por lo tanto, el archivo mcf
al finalizar se ve de la siguiente manera:
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs on /dev/dsk/c4t3d0s1 303 mr sharefs on :wq [sharefs-client2]root@solaris:~#
Verifique el archivo mcf
para detectar errores mediante la ejecución del comando sam-fsd
y corrija los errores encontrados.
El comando sam-fsd
lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error. En el ejemplo, verificamos el archivo mcf
en sharefs-client1
:
[sharefs-client1]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-client1]root@solaris:~#
En este momento, si los hosts están configurados con varias interfaces de red, se recomienda usar los archivos de hosts locales para enrutar las comunicaciones de red.
Luego, monte el sistema de archivos compartido en los clientes Solaris.
Para cada cliente, siga los pasos detallados a continuación:
En el cliente Solaris, inicie sesión como root
.
En el ejemplo, el servidor se denomina sharefs-client1
:
[sharefs-client1]root@solaris:~#
Realice una copia de seguridad del archivo /etc/vfstab
del sistema operativo.
[sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [sharefs-client1]root@solaris:~#
Abra el archivo /etc/vfstab
en un editor de texto y agregue una línea para el sistema de archivos compartido.
En el ejemplo, abrimos el archivo en el editor de texto vi
y agregamos una línea para el dispositivo del conjunto de familias sharefs
.
[sharefs-client1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sharefs - /sharefs samfs - no
Agregue cualquier otra opción de montaje que desee mediante una coma como separador, y efectúe los cambios que desee en el archivo /etc/vfstab
. Luego, guarde el archivo /etc/vfstab
.
En el ejemplo, no agregamos opciones de montaje.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no -
:wq
[sharefs-client1]root@solaris:~#
Cree el punto de montaje especificado en el archivo /etc/vfstab
y configure los permisos de acceso para el punto de montaje.
Los permisos de punto de montaje deben ser iguales a los del servidor de metadatos y los de los demás clientes. Los usuarios deben tener permiso de ejecución (x
) para cambiar al directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /sharefs
y configuramos los permisos en 755
(-rwxr-xr-x
):
[sharefs-client1]root@solaris:~# mkdir /sharefs [sharefs-client1]root@solaris:~# chmod 755 /sharefs [sharefs-client1]root@solaris:~#
Monte el sistema de archivos compartido:
[sharefs-client1]root@solaris:~# mount /sharefs [sharefs-client1]root@solaris:~#
Si el sistema de archivos compartido incluye clientes Linux, cree el sistema de archivos compartido en los clientes Linux.
Si está configurando un sistema de archivos de almacenamiento compartido Oracle HSM, vaya a la siguiente tarea, Configurar el almacenamiento en archivo para un sistema de archivos compartido.
De lo contrario, deténgase aquí. Ha configurado el sistema de archivos compartido de Oracle HSM.
Para cada cliente, siga los pasos detallados a continuación:
En el cliente Linux, inicie sesión como root
.
En el ejemplo, el host del cliente Linux se denomina sharefs-clientL
:
[sharefs-clientL][root@linux ~]#
En una ventana de terminal, introduzca el comando samfsconfig
device-path
, donde device-path
es la ubicación donde el comando debe comenzar a buscar los dispositivos de disco del sistema de archivos (como /dev/*
).
El comando samfsconfig
recupera la información de configuración para el sistema de archivos compartido. Dado que los hosts Linux no tienen acceso a los dispositivos de metadatos para el sistema de archivos, samfsconfig
no puede encontrar los dispositivos de metadatos y, por lo tanto, no puede ubicar los dispositivos de Oracle HSM que detecta en la configuración del sistema de archivos. La salida del comando muestra Ordinal
0
(el dispositivo de metadatos) en Missing
Slices
, donde no se incluye la línea que identifica el conjunto de familias del sistema de archivos y se comentan las listas de los dispositivos de datos.
En nuestro ejemplo, la salida samfsconfig
para el host Linux sharefs-clientL
se ve de la siguiente manera:
[sharefs-clientL][root@linux ~]# samfsconfig /dev/*
# Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
#
# Missing slices
# Ordinal 0
# /dev/sda4 302 mr sharefs -
# /dev/sda5 303 mr sharefs -
Copie las entradas del sistema de archivos compartido desde la salida de samfsconfig
. Luego, en una segunda ventana, abra el archivo /etc/opt/SUNWsamfs/mcf
en un editor de texto y pegue las entradas copiadas en el archivo.
En el ejemplo, el archivo mcf
para el host Linux, sharefs-clientL
, en un principio se ve de la siguiente manera:
[sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
En el archivo mcf
, inserte una línea para el sistema de archivos compartido e incluya el parámetro shared
.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
En el archivo mcf
, inserte líneas para los dispositivos de metadatos del sistema de archivos. Dado que el host Linux no tiene acceso a los dispositivos de metadatos, configure el campo Equipment
Identifier
en nodev
(sin dispositivo) y, luego, configure los campos restantes exactamente con los mismos valores que tienen en el servidor de metadatos:
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
En el archivo mcf
, quite el comentario de las entradas de los dispositivos de datos.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs - /dev/sda5 303 mr sharefs -
Asegúrese de que el campo Device
State
esté configurado en on
para todos los dispositivos y guarde el archivo mcf
.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs on /dev/sda5 303 mr sharefs on :wq [sharefs-clientL][root@linux ~]#
Verifique el archivo mcf
para detectar errores mediante la ejecución del comando sam-fsd
y corrija los errores encontrados.
El comando sam-fsd
lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error. En el ejemplo, verificamos el archivo mcf
en el cliente Linux, sharefs-clientL
:
[sharefs-clientL][root@linux ~]# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-clientL][root@linux ~]#
Ahora, monte el sistema de archivos compartido en los clientes Linux.
Para cada cliente, siga los pasos detallados a continuación:
En el cliente Linux, inicie sesión como root
.
En el ejemplo, el host del cliente Linux se denomina sharefs-clientL
:
[sharefs-clientL][root@linux ~]#
Realice una copia de seguridad del archivo /etc/fstab
del sistema operativo.
[sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
Abra el archivo /etc/fstab
en un editor de texto e inicie una línea para el sistema de archivos compartido.
En el ejemplo, después de realizar la copia de seguridad del archivo /etc/fstab
en sharefs-clientL
, abrimos el archivo en el editor de texto vi
y agregamos una línea para el dispositivo de conjunto de familias sharefs
:
[sharefs-clientL][root@linux ~]# vi /etc/fstab #File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs
En la cuarta columna del archivo, agregue la opción de montaje obligatoria shared
.
#File
#Device Mount System Mount Dump Pass
#to Mount Point Type Options Frequency Number
#-------- ------- -------- ------------------------- --------- ------
...
/proc /proc proc defaults
sharefs /sharefs samfs shared
En la cuarta columna del archivo, agregue otras opciones de montaje que desee mediante comas como separadores.
Los clientes Linux admiten las siguientes opciones de montaje adicionales:
rw
, ro
retry
meta_timeo
rdlease
, wrlease
, aplease
minallocsz
, maxallocsz
noauto
, auto
En el ejemplo, agregamos la opción noauto
:
#File
#Device Mount System Mount Dump Pass
#to Mount Point Type Options Frequency Number
#-------- ------- -------- ------------------------- --------- ------
...
/proc /proc proc defaults
sharefs /sharefs samfs shared,noauto
Introduzca cero (0
) en cada una de las dos columnas restantes del archivo. Luego, guarde el archivo /etc/fstab
.
#File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs shared,noauto 0 0 :wq [sharefs-clientL][root@linux ~]#
Cree el punto de montaje especificado en el archivo /etc/fstab
y configure los permisos de acceso para el punto de montaje.
Los permisos de punto de montaje deben ser iguales a los del servidor de metadatos y los de los demás clientes. Los usuarios deben tener permiso de ejecución (x
) para cambiar al directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /sharefs
y configuramos los permisos en 755
(-rwxr-xr-x
):
[sharefs-clientL][root@linux ~]# mkdir /sharefs [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
Monte el sistema de archivos compartido. Use el comando mount
mountpoint
, donde mountpoint
es el punto de montaje especificado en el archivo /etc/fstab
.
Como se muestra en el ejemplo, el comando mount
genera una advertencia. Esto es normal y se puede omitir:
[sharefs-clientL][root@linux ~]# mount /sharefs Warning: loading SUNWqfs will taint the kernel: SMI license See http://www.tux.org/lkml/#export-tainted for information about tainted modules. Module SUNWqfs loaded with warnings [sharefs-clientL][root@linux ~]#
Si está configurando un sistema de archivos de almacenamiento compartido Oracle HSM, vaya a la siguiente tarea, Configurar el almacenamiento en archivo para un sistema de archivos compartido.
Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.
En caso contrario, vaya a Configuración de notificaciones y registro.
Los hosts individuales no requieren archivos de hosts locales. El sistema de archivos identifica el servidor de metadatos activo y las interfaces de red de los servidores de metadatos activos y posibles para todos los hosts del sistema de archivos (consulte Creación de un archivo de hosts en los servidores de metadatos activos y posibles). Pero los archivos de hosts locales pueden resultar útiles cuando se necesita enrutar de manera selectiva el tráfico de red entre los hosts de sistemas de archivos con múltiples interfaces de red.
Cada host del sistema de archivos busca las interfaces de red para otros hosts en el servidor de metadatos. Los nombres de host y las direcciones IP se muestran en el archivo de hosts global del sistema de archivos, /etc/opt/SUNWsamfs/hosts.
family-set-name
, donde family-set-name
es el número del conjunto de familias del sistema de archivos compartido. A continuación, el host busca un archivo de hosts local, /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
.
Si no hay ningún archivo de hosts local, el host utiliza las direcciones de la interfaz especificadas en el archivo de hosts global. Los hosts se utilizan en el orden especificado por el archivo global.
Si hay un archivo de hosts local, el host lo compara con el archivo global y utiliza solo las interfaces que se muestran en ambos archivos. Los hosts se utilizan en el orden especificado en el archivo local.
Al utilizar direcciones diferentes en cada archivo, puede controlar las interfaces utilizadas por los diferentes hosts. Para configurar archivos de hosts locales, utilice el procedimiento que se describe a continuación:
En cada host del servidor de metadatos activo y posible, edite el archivo de hosts global para el sistema de archivos compartido, de modo que enrute las comunicaciones del host y del servidor de la manera necesaria.
Para los ejemplos de esta sección, el sistema de archivos compartido, sharefs2nic
, incluye un servidor de metadatos activo, sharefs2-mds
, y un servidor de metadatos posible, sharefs2-mds_alt
, cada uno con dos interfaces de red. También hay dos clientes: sharefs2-client1
y sharefs2-client2
.
Queremos que el servidor de metadatos activo y el servidor de metadatos posible se comuniquen entre sí, por medio de direcciones de red privada, y con los clientes, por medio de nombres de host que el servicio de nombres de dominio (DNS, Domain Name Service) puede resolver en direcciones, en la red de área local (LAN, Local Area Network) pública.
Por lo tanto, se edita /etc/opt/SUNWsamfs/hosts.sharefs2
, el archivo de hosts global del sistema de archivos. Especificamos direcciones de la interfaz de red privada para servidores activos y potenciales. Sin embargo, para los clientes, proporcionamos los nombres de host en lugar de las direcciones:
[sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2 # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 sharefs2-client1 sharefs2-client1 0 0 sharefs2-client2 sharefs2-client2 0 0 :wq [sharefs2-mds]root@solaris:~#
Cree un archivo de hosts local en cada uno de los servidores de metadatos activo y posible, mediante la ruta y el nombre de archivo /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
, donde family-set-name
es el identificador del equipo del sistema de archivos compartido. Solo incluya las interfaces de las redes que desea que utilicen los servidores activo y posible.
En nuestro ejemplo, queremos que los servidores de metadatos activos y posibles se comuniquen entre sí mediante la red privada; por lo tanto, el archivo de hosts local de cada servidor, hosts.sharefs2.local
, solo muestra direcciones privadas de dos hosts, los servidores de metadatos activos y posibles:
[sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 on sharefs2-mds # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt Password:
[sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-mds_alt # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds_alt]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
Cree un archivo de hosts local en cada uno de los clientes, mediante la ruta y el nombre de archivo /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
, donde family-set-name
es el identificador del equipo del sistema de archivos compartido. Solo incluya las interfaces de las redes que desea que utilicen los clientes.
En nuestro ejemplo, queremos que los clientes se comuniquen con el servidor sólo por medio de la red pública. Por lo tanto, los archivos incluyen nombres de host de solo dos hosts, los servidores de metadatos activos y posibles:
[sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1 Password: [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client1 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client1]root@solaris:~# exit [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2 Password:
[sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client2]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
Si inició este procedimiento cuando finalizó la configuración del servidor, vaya a Montar el sistema de archivos compartido en el servidor activo.
Si inició este procedimiento mientras configuraba un cliente, ahora deberá Montar el sistema de archivos compartido en los clientes de Solaris.
Para configurar el almacenamiento en archivo para un sistema de archivado de Oracle HSM, realice las siguientes tareas:
Distribuir E/S de cinta en los hosts del sistema de archivado compartido (si es necesario)
En un sistema de archivado compartido, todos los servidores de metadatos posibles deben tener acceso a las bibliotecas y a las unidades de cinta. Si decide distribuir la E/S de cinta entre los hosts del sistema de archivos de almacenamiento compartido, uno o varios clientes también necesitarán acceso a las unidades. De modo que deberá configurar cada uno de estos hosts para cada una de las unidades de manera coherente.
El sistema operativo Solaris conecta unidades al árbol de dispositivos del sistema en el orden en el cual detecta los dispositivos en el inicio. Este orden puede o no reflejar el orden en el que los dispositivos son detectados por otros hosts de sistema de archivos o el orden en el cual están físicamente instalados en la biblioteca de medios extraíbles. Por lo tanto, deberá enlazar de manera persistente los dispositivos a cada host de la misma manera en que están vinculados a los otros hosts en el mismo orden en el que se han instalado en la biblioteca de medios extraíbles.
En el siguiente procedimiento, se describen los pasos necesarios (para obtener más información sobre cómo crear vinculaciones persistentes, consulte las páginas del comando man de Solaris devfsadm
y devlinks
y la documentación de administración de su versión del sistema operativo Solaris):
Inicie sesión en el servidor de metadatos activo como root
.
[sharefs-mds]root@solaris:~#
Si no conoce el orden físico actual de las unidades en la biblioteca, cree un archivo de asignación, tal como se describe en Determinar el orden en el cual se instalan las unidades en la biblioteca.
En el ejemplo, el archivo device-mappings.txt
se ve de la siguiente manera:
LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- -------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
Abra el archivo /etc/devlink.tab
en un editor de prueba.
En el ejemplo, utilizamos el editor vi
:
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. # This is the table used by devlinks # Each entry should have 2 fields; but may have 3. Fields are separated # by single tab ('\t') characters. ...
Con el archivo device-mappings.txt
como guía, agregue una línea al archivo /etc/devlink.tab
que reasigne un nodo de inicio en el árbol de dispositivos de cintas Solaris, rmt/
node-number
, a la primera unidad de la biblioteca. Introduzca la línea con el formato type=ddi_byte:tape;
addr=
device_address
,0;
rmt/
node-number
\M0
, donde device_address
es la dirección física del dispositivo y node-number
es una posición en el árbol de dispositivos de Solaris que es lo suficientemente alta para evitar conflictos con cualquier dispositivo que Solaris configura automáticamente (Solaris comienza con el nodo 0
).
En el ejemplo, observamos la dirección de dispositivo del primer dispositivo de la biblioteca, 1
, w500104f0008120fe
, y vemos que el dispositivo actualmente está conectado al host en rmt/1
:
[sharefs-mds] vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ----------- --------------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
Por lo tanto, creamos una línea en /etc/devlink.tab
que reasigna el nodo no conflictivo rmt/60
a la unidad número 1
de la biblioteca, w500104f0008120fe
:
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 :w
Continúe agregando líneas al archivo /etc/devlink.tab
para cada dispositivo de cinta asignado para el archivo Oracle HSM, de manera que el orden de las unidades en el árbol de dispositivos en el servidor de metadatos coincida con el orden de instalación en la biblioteca. Guarde el archivo.
En el ejemplo, observamos el orden y las direcciones de los tres dispositivos restantes, la unidad de biblioteca 2
en w500104f00093c438
, la unidad de biblioteca 3
en w500104f000c086e1
y la unidad de biblioteca 4
en w500104f000c086e1
:
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt ... 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
A continuación, se asignan las direcciones de dispositivo a los siguientes tres nodos de dispositivo de Solaris (rmt/61
, rmt/62
y rmt/63
), manteniendo el mismo orden que en la biblioteca:
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds]root@solaris:~#
Suprima todos los enlaces existentes a los dispositivos de cinta en /dev/rmt
.
[sharefs-mds]root@solaris:~# rm /dev/rmt/*
Cree enlaces de dispositivos de cinta nuevos y persistentes a partir de las entradas en el archivo /etc/devlink.tab
. Utilice el comando devfsadm -c tape
.
Cada vez que se ejecuta el comando devfsadm
, se crean nuevos enlaces de dispositivos de cinta para los dispositivos especificados en el archivo /etc/devlink.tab
mediante la configuración especificada por el archivo. La opción -c tape
limita el comando a la creación de nuevos enlaces sólo para dispositivos de clase de cinta:
[sharefs-mds]root@solaris:~# devfsadm -c tape
Cree los mismos enlaces de dispositivos de cinta persistentes en cada servidor de metadatos posible y en cada organizador de datos en la configuración del sistema de archivos compartido. Agregue las mismas líneas al archivo /etc/devlink.tab
, suprima los enlaces en /dev/rmt
y ejecute devfsadm
-c
tape
.
En el ejemplo, tenemos un servidor de metadatos posible, sharefs-mds_alt
, y un cliente de organizador de datos, sharefs-client1
. De modo que editamos los archivos /etc/devlink.tab
de cada uno para que coincidan con el servidor activo, sharefs-mds
. A continuación, suprimimos los enlaces existentes de /dev/rmt
en sharefs-mds_alt
y sharefs-client1
, y ejecutamos devfsadm
-c
tape
en cada uno:
[sharefs-mds]root@solaris:~# ssh sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* [sharefs-mds_alt]root@solaris:~# devfsadm -c tape [sharefs-mds_alt]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh sharefs-client1 Password: [sharefs-client1]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-client1]root@solaris:~# rm /dev/rmt/* [sharefs-client1]root@solaris:~# devfsadm -c tape [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~#
Para el servidor de metadatos activo y para cada servidor de metadatos posible y cliente de organizador de datos, realice lo siguiente:
Inicie sesión en el host como root
.
[sharefs-host]root@solaris:~#
Abra el archivo /etc/opt/SUNWsamfs/mcf
y en un editor de texto.
En el ejemplo, utilizamos el editor vi
.
[sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf sharefs 100 ms sharefs on /dev/dsk/c1t3d0s3 101 md sharefs on /dev/dsk/c1t3d0s4 102 md sharefs on ...
De acuerdo con las definiciones de sistema de archivos del archivo /etc/opt/SUNWsamfs/mcf
, inicie una sección para el equipo de almacenamiento en archivo.
En el ejemplo, agregamos algunos encabezados para mayor claridad:
[sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf ... # Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ----------------
Para agregar almacenamiento de cintas en archivo, comience por agregar una entrada para la biblioteca. En el campo de identificador de equipo, introduzca el ID de dispositivo para la biblioteca y asigne un número ordinal de equipo:
En este ejemplo, el identificador de equipo de biblioteca es /dev/scsi/changer/c1t0d5
. Configuramos el número ordinal del equipo en 900
, el rango que sigue al rango elegido para nuestro archivo de disco:
# Archival storage for copies:
#
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#----------------------- --------- --------- --------- ------ ----------------
/dev/scsi/changer/c1t0d5 900
Configure el tipo de equipo en rb
, una biblioteca de cintas conectada a SCSI, proporcione un nombre para el conjunto de familias de bibliotecas de cintas y defina el estado del dispositivo en on
.
En el ejemplo, estamos usando la biblioteca library1
:
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ---------------- /dev/scsi/changer/c1t0d5 900 rb library1 on
En la columna Additional Parameters
, puede introducir una ruta y un nombre opcionales y definidos por el usuario para el catálogo de la biblioteca.
La ruta opcional no predeterminada no puede superar los 127 caracteres. En el ejemplo, se utiliza la ruta por defecto var/opt/SUNWsamfs/catalog/
con el nombre de archivo de catálogo definido por el usuario library1cat
. Tenga en cuenta que, debido a limitaciones de diseño del documento, en el ejemplo se abrevia la ruta:
# Archival storage for copies:
#
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#----------------------- --------- --------- --------- ------ ----------------
/dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat
A continuación, agregue una entrada para cada unidad de cinta. Utilice los identificadores de equipo persistentes que establecimos en el procedimiento Conectar las unidades de cinta al servidor y los hosts del organizador de datos mediante el uso de vinculaciones persistentes.
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- -------- ------ ----------------- DISKVOL1 800 ms DISKVOL1 on /dev/dsk/c6t0d1s7 801 md DISKVOL1 on /dev/dsk/c4t0d2s7 802 md DISKVOL1 on /dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat /dev/rmt/60cbn 901 tp library1 on /dev/rmt/61cbn 902 tp library1 on /dev/rmt/62cbn 903 tp library1 on /dev/rmt/63cbn 904 tp library1 on
Finalmente, si desea configurar un historiador de Oracle HSM usted mismo, agregue una entrada mediante el uso del tipo de equipo hy
. Introduzca un guión en las columnas de conjunto de familias y estado de dispositivo e introduzca la ruta al catálogo del historiador en la columna de parámetros adicionales.
El historiador es una biblioteca virtual que contiene catálogos de los volúmenes que han sido exportados del archivo. Si no configura un historiador, el software crea uno automáticamente mediante el uso del número ordinal de equipo especificado más alto, más uno.
Tenga en cuenta que, en el ejemplo, se abrevia la ruta del catálogo del historiador por motivos de diseño de página. La ruta completa es /var/opt/SUNWsamfs/catalog/historian_cat
:
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ---------------- /dev/scsi/changer/c1t0d5 900 rb library1 on ...catalog/library1cat /dev/rmt/60cbn 901 tp library1 on /dev/rmt/61cbn 902 tp library1 on /dev/rmt/62cbn 903 tp library1 on /dev/rmt/63cbn 904 tp library1 on historian 999 hy - - .../historian_cat
Guarde el archivo mcf
y cierre el editor.
...
/dev/rmt/3cbn 904 tp library1 on
historian 999 hy - - .../historian_cat
:wq
[sharefs-host]root@solaris:~#
Compruebe el archivo mcf
para detectar errores mediante la ejecución del comando sam-fsd
. Corrija los errores que encuentre.
El comando sam-fsd
lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error:
[sharefs-host]root@solaris:~# sam-fsd
...
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[sharefs-host]root@solaris:~#
Indique al servicio Oracle HSM que vuelva a leer el archivo mcf
y vuelva a realizar la configuración en consecuencia. Corrija los errores que se informen y, si es necesario, repita el procedimiento.
[sharefs-host]root@solaris:~# samd config Configuring SAM-FS [sharefs-host]root@solaris:~#
Repita este procedimiento hasta que se hayan configurado todos los servidores de metadatos activos y posibles, y todos los clientes del organizador de datos para usar el almacenamiento en archivo.
Si es necesario, distribuya la E/S de cinta entre los hosts del sistema de archivos de almacenamiento compartido.
Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.
En caso contrario, vaya a Configuración de notificaciones y registro.
A partir de Oracle HSM Versión 6.1, cualquier cliente de un sistema de archivos de almacenamiento compartido que se ejecuta en Oracle Solaris 11, o superior, puede conectar unidades de cinta y llevar a cabo E/S de cintas en nombre del sistema de archivos. La distribución de E/S de cinta en estos hosts de organizador de datos reduce en gran medida la sobrecarga del servidor, mejora el rendimiento del sistema de archivos y permite una flexibilidad significativamente mayor cuando se escalan las implementaciones de Oracle HSM. A medida que aumentan las necesidades de archivo, ahora tiene la opción de reemplazar los servidores de metadatos de Oracle HSM con sistemas más potentes (escalamiento vertical) o mediante la distribución de la carga a más clientes (escalamiento horizontal).
Para distribuir E/S de cinta en hosts de sistemas de archivos compartidos, realice lo siguiente:
Conecte todos los dispositivos que se usarán para E/S distribuida al servidor de metadatos del sistema de archivos y a todos los clientes del sistema de archivos que gestionarán la E/S de cinta.
Si aún no lo ha hecho, use vinculaciones persistentes para conectar las unidades de cinta a cada cliente que funcionará como organizador de datos. Luego regrese aquí.
Inicie sesión en el servidor de metadatos del sistema de archivado compartido como root
.
En el ejemplo, el nombre del host del servidor es samsharefs-mds
:
[samsharefs-mds]root@solaris:~#
Asegúrese de que el servidor de metadatos esté ejecutando Oracle Solaris 11, o superior.
[samsharefs-mds]root@solaris:~# uname -r 5.11 [samsharefs-mds]root@solaris:~#
Asegúrese de que todos los clientes que actúan como organizadores de datos estén ejecutando Oracle Solaris 11, o superior.
En el ejemplo, iniciamos sesión en los hosts de cliente samsharefs-client1
y samsharefs-client2
de manera remota mediante ssh
y obtenemos la versión de Solaris del rótulo de inicio de sesión:
[samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client1]root@solaris:~# exit [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client2]root@solaris:~# exit [samsharefs-mds]root@solaris:~#
Calcule la cantidad de memoria del sistema que se puede asignar como espacio de buffer para cada unidad de cinta en la configuración de E/S distribuida. Divida la memoria total disponible por el número de unidades y reste un margen de seguridad razonable:
(total-memory bytes)/(drive-count drives) = memory bytes/drive (memory bytes/drive) - (safe-margin bytes/drive) = buffsize bytes/drive
Oracle HSM asigna un buffer para cada unidad que se utiliza. Por lo tanto, asegúrese de no configurar involuntariamente más espacio de buffer que el que puede proporcionar la memoria del sistema. En el ejemplo, se observa que no se pueden asignar más de 224 kilobytes por unidad. Por lo tanto, la cantidad se redondea hacia abajo a 128 para proporcionar un margen de seguridad.
((3584 kilobytes)/(16 drives)) = 224 kilobytes/drive
buffsize = 128 kilobytes/drive
Una vez que haya calculado el tamaño de buffer que se puede asignar a cada unidad, calcule la cantidad de bloques y el tamaño de bloque del dispositivo Oracle HSM que sean adecuados para un buffer del tamaño especificado.
(number blocks/buffer)*block-size bytes/block/drive = buffersize bytes/drive
Varíe el número de bloques y el tamaño de bloque hasta que el producto de ambos sea inferior o igual al tamaño de buffer calculado. El número de bloques debe estar en el rango de [2-8192]
. En el ejemplo, se definen dos bloques de 64 kilobytes cada uno por buffer:
(2 blocks/buffer)*(64 kilobytes/block/drive) = 128 kilobytes/drive
En el servidor de metadatos, abra el archivo /etc/opt/SUNWsamfs/archiver.cmd
en un editor de texto. En una línea nueva de la sección de directivas generales en la parte superior del archivo, escriba bufsize =
media-type
media-blocks
, donde:
media-type
es el código de tipo que el archivo mcf
asigna a las unidades y los medios utilizados para la E/S distribuida.
media-blocks
es el número de bloques por buffer que se calculó anteriormente.
Guarde el archivo y cierre el editor.
En el ejemplo, se inicia sesión en el servidor samsharefs-mds
y se usa el editor vi
para agregar la línea bufsize
=
ti
2
, donde ti
es el tipo de medio para las unidades Oracle StorageTek T10000 utilizadas y 2
es el número de bloques por buffer de unidad que se calculó:
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd # archiver.cmd #----------------------------------------------------------------------- # General Directives archivemeta = off examine = noscan bufsize = ti 2 :wq [samsharefs-mds]root@solaris:~#
En el servidor de metadatos, abra el archivo /etc/opt/SUNWsamfs/defaults.conf
en un editor de texto. Para cada tipo de medio que deba participar en la E/S distribuida, introduzca una línea con el formato media-type
_blksize =
size
donde:
media-type
es el código de tipo que el archivo mcf
asigna a las unidades y los medios utilizados para la E/S distribuida.
size
es el tamaño de bloque que se calculó anteriormente en este procedimiento.
Por defecto, el tamaño de bloque de dispositivo para las unidades StorageTek T10000 es de 2 megabytes o 2048 kilobytes (ti_blksize = 2048
). Por lo tanto, en el ejemplo, el valor por defecto se sustituye con el tamaño de bloque que se calculó, 64 kilobytes:
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. ... #li_blksize = 256 ti_blksize = 64 [samsharefs-mds]root@solaris:~#
Permanezca en el archivo /etc/opt/SUNWsamfs/defaults.conf
y elimine el comentario de la línea #distio = off
si es necesario o agréguelo si no está presente.
De forma predeterminada, distio
está en off
(desactivado). En el ejemplo, se agrega la línea distio = on
:
...
distio = on
Permanezca en el archivo /etc/opt/SUNWsamfs/defaults.conf
y active cada uno de los tipos de dispositivo que deben participar en la E/S distribuida. En una línea nueva, escriba media-type
_distio = on
, donde media-type
es el código de tipo que el archivo mcf
asigna a las unidades y los medios.
De forma predeterminada, las unidades T10000 de StorageTek y las unidades LTO tienen permitido participar en la E/S distribuida (ti_distio = on
y li_distio = on
), mientras que todos los demás tipos están excluidos. En el ejemplo, se incluyen explícitamente las unidades StorageTek T10000:
...
distio = on
ti_distio = on
Permanezca en el archivo /etc/opt/SUNWsamfs/defaults.conf
y desactive cada uno de los tipos de dispositivo que no deben participar en la E/S distribuida. En una línea nueva, escriba media-type
_distio = off
, donde media-type
es el código de tipo que el archivo mcf
asigna a las unidades y los medios.
En el ejemplo, excluimos las unidades LTO:
...
distio = on
ti_distio = on
li_distio = off
Cuando haya terminado de editar el archivo /etc/opt/SUNWsamfs/defaults.conf
, guarde el contenido y cierre el editor.
...
distio = on
ti_distio = on
li_distio = off
:wq
[samsharefs-mds]root@solaris:~#
En cada cliente que actuará como organizador de datos, edite el archivo defaults.conf
de manera que coincida con el archivo en el servidor.
En cada cliente que actuará como organizador de datos, abra el archivo /etc/opt/SUNWsamfs/mcf
en un editor de texto y actualice el archivo para que incluya todos los dispositivos de cinta que el servidor de metadatos usa para E/S de cinta distribuida. Asegúrese de que el orden del dispositivo y los números de equipos sean idénticos a aquellos en el archivo mcf
en el servidor de metadatos.
En el ejemplo, usamos el editor vi
para configurar el archivo mcf
en el host samsharefs-client1
:
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti on /dev/rmt/61cbn 902 ti on /dev/rmt/62cbn 903 ti on /dev/rmt/63cbn 904 ti on
Si la biblioteca de cintas mostrada en el archivo /etc/opt/SUNWsamfs/mcf
en el servidor de metadatos está configurada en el cliente que actuará como organizador de datos, especifique el conjunto de familias de bibliotecas como el nombre del conjunto de familias para los dispositivos de cinta utilizados para la E/S de cinta distribuida. Guarde el archivo.
En el ejemplo, la biblioteca está configurada en el host samsharefs-client1
; por lo tanto, usamos el nombre del conjunto de familias library1
para los dispositivos de cinta.
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat /dev/rmt/60cbn 901 ti library1 on /dev/rmt/61cbn 902 ti library1 on /dev/rmt/62cbn 903 ti library1 on /dev/rmt/63cbn 904 ti library1 on :wq [samsharefs-client1]root@solaris:~#
Si la biblioteca de cintas mostrada en el archivo /etc/opt/SUNWsamfs/mcf
en el servidor de metadatos no está configurada en el cliente que actuará como organizador de datos, utilice un guión (-
) como el nombre del conjunto de familias para los dispositivos de cinta utilizados para la E/S de cintas distribuidas. Luego, guarde el archivo y cierre el editor.
En el ejemplo, la biblioteca no está configurada en el host samsharefs-client2
; por lo tanto, usamos el guión como nombre del conjunto de familias para los dispositivos de cinta:
[samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti - on /dev/rmt/61cbn 902 ti - on /dev/rmt/62cbn 903 ti - on /dev/rmt/63cbn 904 ti - on :wq [samsharefs-client2]root@solaris:~#
Si necesita activar o desactivar la E/S de cintas distribuidas para copias de conjuntos de archivos en particular, abra el archivo /etc/opt/SUNWsamfs/archiver.cmd
en un editor de texto y agregue el parámetro -distio
a la directiva de copia. Configure -distio
on
para activar la E/S distribuida o -distio
off
para desactivarla. Guarde el archivo.
En el ejemplo, iniciamos sesión en el servidor samsharefs-mds
y usamos el editor vi
para desactivar la E/S distribuida mediante off
para la copia 1
:
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd # archiver.cmd ... params allsets -sort path -offline_copy stageahead allfiles.1 -startage 10m -startsize 500M -startcount 500000 -distio off allfiles.2 -startage 24h -startsize 20G -startcount 500000 -reserve set :wq [samsharefs-mds]root@solaris:~#
Compruebe los archivos de configuración en busca de errores mediante la ejecución del comando sam-fsd
. Corrija los errores que encuentre.
El comando sam-fsd
lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error. En el ejemplo, ejecutamos el comando desde el servidor, sharefs-mds
:
[sharefs-mds]root@solaris:~# sam-fsd
Indique al servicio de Oracle HSM que lea los archivos de configuración modificados y se reconfigure según corresponda. Corrija los errores que se informen y, si es necesario, repita el procedimiento.
[sharefs-mds]root@solaris:~# samd config
Para comprobar que la E/S distribuida se haya activado correctamente, use el comando samcmd
g
. Si el indicador DATAMOVER
aparece en la salida de los clientes, la E/S distribuida se habrá activado correctamente.
En el ejemplo, el indicador está presente:
[samsharefs-mds]root@solaris:~# samcmd g Shared clients samcmd 6.0.dist_tapeio 11:09:13 Feb 20 2014 samcmd on samsharefs-mds samsharefs is shared, server is samsharefs-mds, 2 clients 3 max ord hostname seqno nomsgs status config conf1 flags 1 samsharefs-mds 14 0 8091 808540d 4051 0 MNT SVR config : CDEVID ARCHIVE_SCAN GFSID OLD_ARCHIVE_FMT " : SYNC_META TRACE SAM_ENABLED SHARED_MO config1 : NFSV4_ACL MD_DEVICES SMALL_DAUS SHARED_FS flags : status : MOUNTED SERVER SAM DATAMOVER last_msg : Wed Jul 2 10:13:50 2014 2 samsharefs-client1 127 0 a0a1 808540d 4041 0 MNT CLI config : CDEVID ARCHIVE_SCAN GFSID OLD_ARCHIVE_FMT " : SYNC_META TRACE SAM_ENABLED SHARED_MO config1 : NFSV4_ACL MD_DEVICES SHARED_FS flags : status : MOUNTED CLIENT SAM SRVR_BYTEREV " : DATAMOVER ...
Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.
En caso contrario, vaya a Configuración de notificaciones y registro.
Varios hosts pueden acceder a los sistemas de archivos de Oracle HSM mediante el recurso compartido del sistema de archivos de red (NFS) o el bloque de mensajes de servidor (SMB)/el sistema de archivos de Internet común (CIFS), como sustituto o adición de la compatibilidad nativa del software de Oracle HSM para acceso al sistema de archivos de varios hosts (consulte Acceso a sistemas de archivos desde varios hosts mediante el software Oracle HSM). En las siguientes secciones, se describen los pasos de la configuración básica:
Uso compartido de los sistemas de archivos de Oracle HSM mediante NFS
Uso compartido de sistemas de archivos de Oracle HSM mediante SMB/CIFS
Lleve a cabo las siguientes tareas:
Configuración de clientes y servidores NFS para compartir archivos y directorios WORM (si corresponde)
Compartir el sistema de archivos de Oracle HSM como recurso compartido de NFS
Montar el sistema de archivos NFS compartido de Oracle HSM en los clientes NFS
Si usa NFS para compartir un sistema de archivos compartido Oracle HSM, deberá garantizar que el software Oracle HSM controle el acceso a los archivos sin interferencia de NFS. Esto generalmente no es un problema porque, cuando el servidor NFS accede a los archivos en nombre de los clientes, lo hace como cliente del sistema de archivos compartido de Oracle HSM. Sin embargo, pueden surgir problemas si los servidores de versión 4 están configurados para delegar el control de acceso de lectura y escritura a los clientes. La delegación es atractiva porque el servidor únicamente necesita intervenir para evitar posibles conflictos. La carga de trabajo del servidor se distribuye parcialmente en los clientes NFS y se reduce el tráfico de red. Sin embargo, la delegación otorga acceso, en especial acceso de escritura, independientemente del servidor de Oracle HSM, que también controla el acceso de sus propios clientes del sistema de archivos compartido. Para evitar conflictos y posibles daños de archivos, deberá desactivar la delegación. Siga los pasos que se describen a continuación.
Inicie sesión en el host del sistema de archivos Oracle HSM que desea configurar como un recurso compartido de NFS. Inicie sesión como usuario root
.
Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En el siguiente ejemplo, el nombre del servidor es qfsnfs
.
[qfsnfs]root@solaris:~#
Si está usando NFS versión 4 y el servidor NFS ejecuta Solaris 11.1 o posterior, use el comando sharectl
set
-p
de la utilidad de gestión de servicios (SMF) para desactivar la propiedad server_delegation
de NFS mediante off
.
[qfsnfs]root@solaris:~# sharectl set -p server_delegation=off
Si está usando NFS versión 4 y el servidor NFS ejecuta Solaris 11.0 o anterior, desactive las delegaciones mediante la apertura del archivo /etc/default/nfs
en un editor de texto y la configuración del parámetro NFS_SERVER_DELEGATION
en off
. Guarde el archivo y cierre el editor.
En el ejemplo, utilizamos el editor vi
:
[qfsnfs]root@solaris:~# vi /etc/default/nfs # ident "@(#)nfs 1.10 04/09/01 SMI" # Copyright 2004 Sun Microsystems, Inc. All rights reserved. # Use is subject to license terms. ... NFS_SERVER_DELEGATION=off :wq [qfsnfs]root@solaris:~#
Si el sistema de archivos de Oracle HSM que desea compartir admite la función de escritura única lectura múltiple (WORM), configure los clientes y los servidores NFS para que compartan los archivos y directorios WORM en este momento.
De lo contrario, configure el servidor NFS en el host Oracle HSM.
Inicie sesión en el host del sistema de archivos de Oracle HSM que desea compartir mediante NFS. Inicie sesión como usuario root
.
Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En el siguiente ejemplo, el nombre del servidor es qfsnfs
y el nombre del cliente es nfsclient1
.
[qfsnfs]root@solaris:~#
Si el sistema de archivos de Oracle HSM que pretende compartir usa la característica WORM y está alijado en un servidor que se ejecuta en Oracle Solaris 10 o posterior, asegúrese de que NFS versión 4 esté activado en el servidor NFS y en todos los clientes.
En el ejemplo, comprobamos el servidor qfsnfs
y el cliente nfsclient1
. En cada caso, primero comprobamos el nivel de la versión de Solaris mediante el uso del comando uname
-r
. A continuación, canalizamos la salida del comando modinfo
a grep
y una expresión regular que encuentra la información de versión de NFS:
[qfsnfs]root@solaris:~# uname -r 5.11 [qfsnfs]root@solaris:~# modinfo | grep -i "nfs.* version 4" 258 7a600000 86cd0 28 1 nfs (network filesystem version 4) [qfsnfs]root@solaris:~# ssh root@nfsclient1 Pasword: ... [nfsclient1]root@solaris:~# uname -r 5.11 [nfsclient1]root@solaris:~# modinfo | grep -i "nfs.* version 4" 278 fffffffff8cba000 9df68 27 1 nfs (network filesystem version 4) [nfsclient1]root@solaris:~# exit [qfsnfs]root@solaris:~#
Si NFS versión 4 no está activado en un servidor que se ejecuta en Oracle Solaris 10 o posterior, inicie sesión como root
en el servidor y en cada cliente. A continuación, use el comando sharectl
set
para activar NFS 4:
[qfsnfs]root@solaris:~# sharectl set -p server_versmax=4 nfs [qfsnfs]root@solaris:~# ssh root@nfsclient1 Password ... [nfsclient1]root@solaris:~# sharectl set -p server_versmax=4 nfs [nfsclient1]root@solaris:~# exit [qfsnfs]root@solaris:~#
A continuación, configure el servidor NFS en el host Oracle HSM.
Antes de que los clientes puedan montar correctamente un sistema de archivos Oracle HSM mediante el sistema de archivos de red (NFS), deberá configurar el servidor NFS para que no intente compartir el sistema de archivos Oracle HSM antes de que el sistema de archivos se haya montado correctamente en el host. En Oracle Solaris 10 ay en las versiones posteriores del sistema operativo, la utilidad de gestión de servicios (SMF) gestiona el montaje de los sistemas de archivos en el inicio. Si no configura NFS mediante el siguiente procedimiento, se ejecutará correctamente el montaje de QFS o del recurso compartido de NFS, y el otro fallará.
Inicie sesión en el host del sistema de archivos Oracle HSM que desea configurar como un recurso compartido de NFS. Inicie sesión como usuario root
.
Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En el siguiente ejemplo, el nombre del servidor es qfsnfs
.
[qfsnfs]root@solaris:~#
Exporte la configuración existente de NFS a un manifiesto XML mediante el redireccionamiento de la salida del comando svccfg
export
/network/nfs/server
.
En el ejemplo, direccionamos la configuración exportada al archivo del manifiesto /var/tmp/server.xml
:
[qfsnfs]root@solaris:~# svccfg export /network/nfs/server > /var/tmp/server.xml [qfsnfs]root@solaris:~#
Abra el archivo del manifiesto en un editor de texto y ubique la dependencia filesystem-local
.
En el ejemplo, abrimos el archivo en el editor vi
. La entrada de la dependencia filesystem-local
se muestra inmediatamente antes de la entrada de la dependencia nfs-server_multi-user-server
:
[qfsnfs]root@solaris:~# vi /var/tmp/server.xml <?xml version='1.0'?> <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'> <service_bundle type='manifest' name='export'> <service name='network/nfs/server' type='service' version='0'> ... <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/system/filesystem/local'/> </dependency> <dependent name='nfs-server_multi-user-server' restart_on='none' grouping='optional_all'> <service_fmri value='svc:/milestone/multi-user-server'/> </dependent> ...
Inmediatamente después de la dependencia filesystem-local
, agregue una dependencia qfs
que monte el sistema de archivos compartido QFS. A continuación, guarde el archivo y salga del editor.
Esto montará el sistema de archivos compartido Oracle HSM antes de que el servidor intente compartirlo mediante NFS:
<?xml version='1.0'?> <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'> <service_bundle type='manifest' name='export'> <service name='network/nfs/server' type='service' version='0'> ... <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/system/filesystem/local'/> </dependency> <dependency name='qfs' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/network/qfs/shared-mount:default'/> </dependency> <dependent name='nfs-server_multi-user-server' restart_on='none' grouping='optional_all'> <service_fmri value='svc:/milestone/multi-user-server'/> </dependent> :wq [qfsnfs]root@solaris:~#
Valide el archivo del manifiesto mediante el comando svccfg
validate
.
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
Si el comando svccfg
validate
informa errores, corrija los errores y vuelva a validar el archivo.
En el ejemplo, el comando svccfg
validate
devuelve errores de análisis de XML. Hemos omitido de forma inadvertida una etiqueta de cierre </dependency>
cuando guardamos el archivo. De modo que volvemos a abrir el archivo en el editor vi
y corregimos el problema:
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml /var/tmp/server.xml:75: parser error : Opening and ending tag mismatch: dependency line 29 and service </service> ˆ /var/tmp/server.xml:76: parser error : expected '>' </service_bundle> ˆ /var/tmp/server.xml:77: parser error : Premature end of data in tag service_bundle line 3 ˆ svccfg: couldn't parse document [qfsnfs]root@solaris:~# vi /var/tmp/server.xml ... :wq [qfsnfs]root@solaris:~#
Una vez que el comando svccfg
validate
se complete sin errores, desactive NFS mediante el uso del comando svcadm
disable
nfs/server
.
En el ejemplo, el comando svccfg
validate
no devolvió salidas, de modo que el archivo es válido y podemos desactivar NFS:
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml [qfsnfs]root@solaris:~# svcadm disable nfs/server
Suprima la configuración del servidor NFS existente mediante el uso del comando svccfg
delete
nfs/server
.
[qfsnfs]root@solaris:~# svccfg delete nfs/server
Importe el archivo del manifiesto a la utilidad de gestión de servicios (SMF) mediante el comando svccfg
import
.
[qfsnfs]root@solaris:~# svccfg import /var/tmp/server.xml
Vuelva a activar NFS mediante el comando svcadm
enable
nfs/server
.
NFS está configurado para usar la configuración actualizada.
[qfsnfs]root@solaris:~# svcadm enable nfs/server
Confirme que se haya aplicado la dependencia qfs
. Asegúrese de que el comando svcs
-d
svc:/network/nfs/server:default
muestre el servicio /network/qfs/shared-mount:default
:
[qfsnfs]root@solaris:~# svcs -d svc:/network/nfs/server:default STATE STIME FMRI ... online Nov_01 svc:/network/qfs/shared-mount:default ...
Luego, comparta el sistema de archivos de Oracle HSM como recurso compartido de NFS.
Comparta el sistema de archivos de Oracle HSM mediante el uso de los procedimientos que se describen en la documentación de administración de la versión del sistema operativo de Oracle Solaris. En los siguientes pasos, se resume el procedimiento para Solaris 11.1:
Inicie sesión en el host del sistema de archivos de Oracle HSM que desea compartir mediante NFS. Inicie sesión como usuario root
.
Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En el siguiente ejemplo, el nombre del servidor es qfsnfs
.
[qfsnfs]root@solaris:~#
Introduzca la línea de comandos share
-F
nfs
-o
sharing-options
sharepath
donde el conmutador -F
especifica el protocolo de uso compartido nfs
y sharepath
es la ruta al recurso compartido. Si se usa el parámetro opcional -o
, sharing-options
puede incluir los siguientes:
rw
otorga privilegios de lectura y escritura de sharepath
para todos los clientes.
ro
otorga privilegios de solo lectura de sharepath
para todos los clientes.
rw=
clients
otorga privilegios de lectura y escritura de sharepath
para clients
, una lista delimitada por dos puntos de uno o más clientes que tienen acceso al recurso compartido.
ro=
clients
otorga privilegios de solo lectura de sharepath
para clients
, una lista delimitada por dos puntos de uno o más clientes que tienen acceso al recurso compartido.
En el ejemplo, compartimos la lectura/escritura del sistema de archivos /qfsms
con los clientes nfsclient1
y nfsclient2
, y de solo lectura con nfsclient3
(tenga en cuenta que el siguiente comando se introduce como una sola línea, el salto de línea se identifica por el carácter de barra diagonal inversa):
[qfsnfs]root@solaris:~# share -F nfs -o rw=nfsclient1:nfsclient2 \ ro=nfsclient3 /qfsms
Cuando introduce el comando, el sistema automáticamente reinicia el daemon del servidor NFS, nfsd
. Consulte la página del comando man share_nfs
para obtener opciones adicionales y detalles.
Compruebe los parámetros de uso compartido mediante el uso de la línea de comandos share
-F
nfs
.
En el ejemplo, la salida del comando muestra que hemos configurado correctamente el recurso compartido:
[qfsnfs]root@solaris:~# share -F nfs /qfsms sec=sys,rw=nfsclient1:nfsclient2,ro=nfsclient3 [qfsnfs]root@solaris:~#
Luego, monte el sistema de archivos NFS compartido de Oracle HSM en los clientes de NFS.
Monte el sistema de archivos del servidor NFS en un punto de montaje conveniente en los sistemas de clientes. Para cada cliente, siga los pasos detallados a continuación:
Inicie sesión en el cliente como root
.
En el ejemplo, el cliente NFS se denomina nfsclient1
:
[nfsclient1]root@solaris:~#
Realice una copia de seguridad del archivo /etc/vfstab
del sistema operativo.
[nfsclient1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [nfsclient1]root@solaris:~#
Abra el archivo /etc/vfstab
en un editor de textos.
En el ejemplo, utilizamos el editor vi
.
[nfsclient1]root@solaris:~# vi /etc/vfstab #File Device Mount #Device to Mount System fsck at Mount #to Mount fsck Point Type Pass Boot Options #------------ ------ --------- ------ ---- ----- ---------------- /devices - /devices devfs - no - ...
En la primera columna del archivo /etc/vfstab
, nombre el dispositivo de archivos que desea montar mediante la especificación del nombre del servidor NFS y el punto de montaje del sistema de archivos que desea compartir, separados por dos puntos.
En el ejemplo, el servidor NFS se denomina qfsnfs
, el sistema de archivos compartido se denomina qfsms
y el punto de montaje en el servidor es /qfsms
:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms
En la segunda columna del archivo /etc/vfstab
, introduzca un guión (-
) de modo que el sistema local no intente comprobar el sistema de archivos remoto en busca de coherencia:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms -
En la tercera columna del archivo /etc/vfstab
, introduzca el punto de montaje donde montará el sistema de archivos remoto.
En el ejemplo, el punto de montaje será el directorio /qfsnfs
:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs
En la cuarta columna del archivo /etc/vfstab
, introduzca el tipo de sistema de archivos nfs
.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs
Usamos el tipo de sistema de archivos nfs
, porque el cliente monta el sistema de archivos QFS remoto como un sistema de archivos NFS.
En la quinta columna del archivo /etc/vfstab
, introduzca un guión (-
), porque el sistema local no está comprobando en sistema de archivo remoto en busca de coherencia.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs -
En la sexta columna del archivo /etc/vfstab
, introduzca yes
para montar el sistema de archivos remoto en el inicio o no
para montarlo manualmente, a petición.
En el ejemplo, introducimos yes
:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes
En la última columna del archivo /etc/vfstab
, introduzca la opción de montaje de NFS hard
y intr
para forzar reintentos ilimitados e ininterrumpibles, o para configurar un número especificado de reintentos mediante la introducción de las opciones de montaje soft
, retrans
y timeo
con retrans
definido en 120
o más, y timeo
definido en 3000
décimas de segundo.
La configuración de la opción de reintento hard
o la especificación de la opción soft
con un timeout lo suficientemente largo y un número suficiente de reintentos evita que las solicitudes de NFS fallen si los archivos solicitados residen en medios extraíbles que no se pueden montar de inmediato. Consulte la página del comando man mount_nfs
de Solaris para obtener más información acerca de estas opciones de montaje.
En el ejemplo, introducimos la opción de montaje soft
:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes soft,retrans=120,timeo=3000
Si está usando NFS 2, configure el parámetro de montaje rsize
en 32768
.
Acepte el valor predeterminado de otras versiones de NFS.
El parámetro de montaje rsize
configura el tamaño del buffer de lectura en 32768
bytes (vs. el predeterminado, 8192
bytes). En el ejemplo, se muestra cómo debe ser una configuración de NFS 2:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs2:/qfs2 - /qfsnfs2 nfs - yes ...,rsize=32768
Si está usando NFS 2, configure el parámetro de montaje wsize
en 32768
.
Acepte el valor predeterminado de otras versiones de NFS.
El parámetro de montaje wsize
configura el tamaño del buffer de escritura en el número de bytes especificado (de forma predeterminada, 8192
bytes). En el ejemplo, se muestra cómo debe ser una configuración de NFS 2:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs2:/qfs2 - /qfsnfs2 nfs - yes ...,wsize=32768
Guarde el archivo /etc/vfstab
y salga del editor.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes soft,retrans=120,timeo=3000
:wq
[nfsclient1]root@solaris:~#
Cree un directorio de punto de montaje para el sistema de archivos compartido.
en el ejemplo, montaremos el sistema de archivos compartido en un directorio denominado /qfsnfs
:
[nfsclient1]root@solaris:~# mkdir /qfsnfs [nfsclient1]root@solaris:~#
Cree el punto de montaje especificado en el archivo /etc/vfstab
y configure los permisos de acceso para el punto de montaje.
Los usuarios deben tener permiso de ejecución (x
) para cambiar al directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /qfsnfs
y configuramos los permisos en 755
(-rwxr-xr-x
):
[nfsclient1]root@solaris:~# mkdir /qfsnfs [nfsclient1]root@solaris:~# chmod 755 /qfsnfs [nfsclient1]root@solaris:~#
Monte el sistema de archivos compartido:
[nfsclient1]root@solaris:~# mount /qfsnfs [nfsclient1]root@solaris:~#
Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.
En caso contrario, vaya a Configuración de notificaciones y registro.
SMB hace que Oracle HSM sea accesible para todos los hosts de Microsoft Windows y proporciona interoperabilidad, como no distinción entre mayúsculas y minúsculas, compatibilidad con atributos DOS y compatibilidad con listas de control de acceso NFSv4 (ACL) . El sistema operativo Oracle Solaris ofrece un servidor de protocolo de bloque de mensaje de servidor (SMB) e implementación de cliente que incluye compatibilidad con numerosos dialectos SMB incluidos NT LM 0.12 y sistema de archivos de Internet común (CIFS).
Oracle HSM admite identificadores de seguridad (SID) de Windows. Ya no es necesario definir las entidades de Windows de forma explícita mediante el servicio idmap
ni es necesario que las proporcione el servicio de Active Directory.
Para configurar el servicio de SMB con los sistemas de archivos Oracle HSM, realice las siguientes tareas:
Revisar la documentación de configuración y administración de SMB de Oracle Solaris.
Asignar identidades de Windows de forma explícita para el servidor SMB (opcional).
Configurar sistemas de archivos de Oracle HSM para uso compartido con SMB/CIFS.
Configurar el servidor SMB para dominios o grupos de trabajo de Windows Active Directory.
Compartir el sistema de archivos de Oracle HSM como un recurso compartido de SMB/CIFS.
En las siguientes secciones, se describen las partes del proceso de configuración de SMB que se aplican a los sistemas de archivos de Oracle HSM. No son completas y no cubren todas las situaciones posibles. De modo que deberá revisar las instrucciones completas para configurar los servidores SMB de Oracle Solaris e integrar los servidores en un entorno de Windows existente, y montar los recursos compartidos de SMB en los sistemas de Solaris. Encontrará instrucciones completas en el volumen Gestión de interoperabilidad entre SMB y Windows en Oracle Solaris de la Biblioteca de información de Oracle Solaris.
Si bien Oracle HSM ahora es completamente compatible con los identificadores de seguridad de Windows (SID), aún resulta ventajoso definir de forma explícita las relaciones entra las entidades de UNIX y SID en determinadas situaciones. Por ejemplo, en entornos heterogéneos, donde los usuarios tienen identidades de UNIX y Windows, es posible que desee crear asignaciones explícitas mediante el uso del servicio idmap
para el servicio de Active Directory. Para obtener información completa sobre la interoperabilidad entre SMB y Windows, consulte la documentación del producto para su versión de Oracle Solaris.
Los sistemas de archivos de Oracle HSM que se comparten mediante el uso de SMB/CIFS deben usar la nueva implementación de la lista de control de acceso (ACL) adoptada por el sistema de archivos de red (NFS) versión 4 y presentada con Oracle Solaris 11. Las versiones anteriores de Solaris y NFS usaban ACL basadas en una especificación de borrador POSIX que no es compatible con la implementación de ACL de Windows.
Los nuevos sistemas de archivos que crea con Oracle HSM usan ACL de NFS versión 4 de forma predeterminada en Solaris 11. Sin embargo, si necesita compartir los sistemas de archivos de Oracle HSM existentes con los clientes SMB/CIFS, deberá convertir las ACL con estilo POSIX mediante el procedimiento adecuado:
Conversión de un sistema de archivos Oracle HSM no compartido que usa ACL con estilo POSIX
Conversión de un sistema de archivos Oracle HSM compartido que usa ACL con estilo POSIX
Siga estos pasos:
Inicie sesión en el host como root
.
En el ejemplo, iniciamos sesión en el host qfs-host
:
[qfs-host]root@solaris:~#
Asegúrese de que el host ejecute Oracle Solaris 11.1 o posterior. Use el comando uname
-r
.
[qfs-host]root@solaris:~# uname -r 5.11 [qfs-host]root@solaris:~#
Desmonte el sistema de archivos mediante el comando umount
mount-point
, donde mount-point
es el punto de montaje del sistema de archivos de Oracle HSM.
Para obtener más información, consulte la página del comando man umount_samfs
. En los siguientes ejemplos, el nombre del servidor es qfs-host
y el sistema de archivos es /qfsms
:
[qfs-host]root@solaris:~# umount /qfsms
Convierta el sistema de archivos mediante el comando samfsck
-F
-A
file-system
, donde la opción -F
especifica una comprobación y reparación del sistema de archivos, la opción -A
especifica la conversión de las ACL y file-system
es el nombre del sistema de archivos que necesita convertir.
La opción -F
es necesaria cuando se especifica la opción -A
. Si el comando samfsck
-F
-A
devuelve errores, el proceso se interrumpe y no se convierten las ACL (para obtener descripciones completas de estas opciones, consulte la página del comando man samfsck
).
[qfs-host]root@solaris:~# samfsck -F -A /qfsms
Si se devuelven errores y no se convierten las ACL, use el comando samfsck
-F
-a
file-system
para forzar la conversión de las ACL.
La opción -a
especifica una conversión forzada. La opción -F
es necesaria cuando se especifica la opción -a
(para obtener descripciones completas de estas opciones, consulte la página del comando man samfsck
).
[qfs-host]root@solaris:~# samfsck -F -a /qfsms
Ahora, configure el servidor SMB para dominios o grupos de trabajo de Windows Active Directory.
Inicie sesión en el servidor de metadatos del sistema de archivos como usuario root
.
En el ejemplo, iniciamos sesión en el servidor de metadatos sharedqfs-mds
:
[sharedqfs-mds]root@solaris:~#
Asegúrese de que el servidor de metadatos ejecute Oracle Solaris 11.1 o posterior. Use el comando uname
-r
.
[sharedqfs-mds]root@solaris:~# uname -r 5.11 [sharedqfs-mds]root@solaris:~#
Inicie sesión en cada cliente Oracle HSM como root
y asegúrese de que cada cliente ejecute Oracle Solaris 11.1 o posterior.
En el ejemplo, abrimos las ventanas del terminal e iniciamos sesión de forma remota en los hosts de cliente sharedqfs-client1
y sharedqfs-client2
mediante el uso de ssh
para obtener la versión de Solaris del banner de inicio de sesión:
[sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client1 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client1]root@solaris:~# [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client2 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client2]root@solaris:~#
Desmonte el sistema de archivos compartido de Oracle HSM de cada cliente de Oracle HSM con el comando umount
mount-point
, donde mount-point
es el punto de montaje del sistema de archivos de Oracle HSM.
Para obtener más información, consulte la página del comando man umount_samfs
. En el ejemplo, desmontamos /sharedqfs1
de nuestros dos clientes, sharedqfs-client1
y sharedqfs-client2
:
Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client1]root@solaris:~# umount /sharedqfs [sharedqfs-client1]root@solaris:~# Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client2]root@solaris:~# umount /sharedqfs [sharedqfs-client1]root@solaris:~#
Desmonte el sistema de archivos compartido Oracle HSM del servidor de metadatos mediante el comando umount
-o
await_clients=
interval
mount-point
, donde mount-point
es el punto de montaje del sistema de archivos Oracle HSM e interval es la demora en segundos especificada por la opción -o
await_clients
que demora la ejecución.
Cuando se ejecuta el comando umount
en el servidor de metadatos de un sistema de archivos compartido Oracle HSM, la opción -o
await_clients
hace que umount
espere la cantidad especificada de segundos para que los clientes tengan tiempo de desmontar el recurso compartido. No tiene efecto si desmonta un sistema de archivos no compartido o ejecuta el comando en un cliente Oracle HSM. Para obtener más información, consulte la página del comando man umount_samfs
.
En el ejemplo, desmontamos el sistema de archivos /sharedqfs
del servidor de metadatos sharedqfs-mds
y otorgamos 60
segundos para el desmontaje de los clientes:
[sharedqfs-mds]root@solaris:~# umount -o await_clients=60 /sharedqfs
Convierta el sistema de archivos de las ACL de estilo POSIX a las ACL de NFS versión 4. En el servidor de metadatos, use el comando samfsck
-F
-A
file-system
, donde la opción -F
especifica una comprobación y reparación del sistema de archivos, la opción -A
especifica la conversión de las ACL y file-system
es el nombre del sistema de archivos que necesita convertir.
La opción -F
es necesaria cuando se especifica la opción -A
. Si el comando samfsck
-F
-A
file-system
devuelve errores, el proceso el proceso se interrumpe y no se convierten las ACL (para obtener descripciones completas de estas opciones, consulte la página del comando man samfsck
). En el ejemplo, convertimos un sistema de archivos Oracle HSM denominado /sharedqfs
:
[sharedqfs-mds]root@solaris:~# samfsck -F -A /sharedqfs
Si se devuelven errores y no se convierten ACL, convierta de forma forzosa las ACL. En el servidor de metadatos, use el comando samfsck
-F
-a
file-system
.
La opción -a
especifica una conversión forzada. La opción -F
es necesaria cuando se especifica la opción -a
(para obtener descripciones completas de estas opciones, consulte la página del comando man samfsck
). En el ejemplo, convertimos de forma forzosa el sistema de archivos de Oracle HSM denominado /qfsma
:
[sharedqfs-mds]root@solaris:~# samfsck -F -a /sharedqfs
Ahora, configure el servidor SMB para dominios o grupos de trabajo de Windows Active Directory.
Los servicios SMB de Oracle Solaris pueden funcionar en uno de dos modos mutuamente excluyentes: dominio o grupo de trabajo. Elija uno o el otro según su entorno y sus necesidades de autenticación:
Si necesita otorgar a los usuarios de dominio de Active Directory acceso al servicio SMB de Solaris, configure el servidor SMB en modo de dominio.
Si necesita otorgar a los usuarios locales de Solaris acceso al servicio SMB y no tiene dominios de Active Directory o no necesita otorgar a los usuarios de dominio de Active Directory acceso al servicio, configure el servidor SMB en modo de grupo de trabajo.
Comuníquese con el administrador de Windows Active Directory y obtenga la siguiente información:
El nombre de la cuenta de usuario autenticada de Active Directory que necesita usar cuando se une al dominio de Active Directory.
La unidad organizativa que necesita usar en lugar del contenedor Computers
predeterminado de la cuenta (si corresponde).
El nombre de dominio LDAP/DNS completamente calificado para el dominio donde se compartirá el sistema de archivos de Oracle HSM.
Inicie sesión en el host del sistema de archivos Oracle HSM que desea configurar como un recurso compartido de SMB/CIFS. Inicie sesión como usuario root
.
Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En los siguientes ejemplos, el nombre del servidor es qfssmb
.
[qfssmb]root@solaris:~#
Los servidores SMB y Samba de código abierto no se pueden usar en conjunto en un único sistema de Oracle Solaris. Observe si el servicio de Samba se está ejecutando. Canalice la salida del comando de estado de servicios svcs
a grep
y la expresión regular samba
.
En el ejemplo, la salida del comando svcs
contiene una coincidencia para la expresión regular, de modo que el servicio SMB se está ejecutando:
[qfssmb]root@solaris:~# svcs | grep samba legacy_run Nov_03 lrc:/etc/rc3_d/S90samba
Si el servicio de Samba (svc:/network/samba
) se está ejecutando, desactívelo junto con el Servicio de nombres Internet de Windows/WINS (svc:/network/wins
), si se está ejecutando. Use el comando svcadm
disable
.
[qfssmb]root@solaris:~# svcadm disable svc:/network/samba [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
Ahora, use el comando svcadm
enable
-r
smb/server
para iniciar el servidor SMB y cualquier servicio del que dependa.
[qfssmb]root@solaris:~# svcadm enable -r smb/server
Asegúrese de que el reloj del sistema del host de Oracle HSM esté dentro de los cinco minutos del reloj del sistema del controlador de dominio de Microsoft Windows:
Si el controlador del dominio de Windows usa los servidores de protocolo de tiempo de red (NTP), configure el host de Oracle HSM para que use los mismos servidores. Cree un archivo /etc/inet/ntpclient.conf
en el host de Oracle HSM e inicie el daemon ntpd
mediante el comando svcadm
enable
ntp
(consulte la página del comando man ntpd
y la documentación de administración de Oracle Solaris para obtener información completa).
De lo contrario, sincronice el host de Oracle HSM con el controlador de dominio mediante la ejecución del comando ntpdate
domain-controller-name
(consulte la página del comando man ntpdate
para obtener más información) o configure manualmente el reloj del sistema del host de Oracle HSM en la hora que muestra el reloj del sistema del controlador de dominio.
Únase al dominio de Windows mediante el comando smbadm
join
-u
username
-o
organizational-unit
domain-name
, donde username
es el nombre de la cuenta de usuario especificada por el administrador de Active Directory, la organizational-unit
opcional es el contenedor de cuenta especificado (si corresponde) y domain-name
es el nombre de dominio DNS o LDAP totalmente calificado.
En el ejemplo, unimos el dominio de Windows this.example.com
mediante la cuenta de usuario.
[qfssmb]root@solaris:~# smbadm join -u admin -o smbsharing this.example.com
Ahora, comparta el sistema de archivos de Oracle HSM como recurso compartido de SMB/CIFS.
Comuníquese con el administrador de red de Windows y obtenga el nombre del grupo de trabajo de Windows al que se deberá unir el host del sistema de archivos de Oracle HSM.
El grupo de trabajo predeterminado se denomina WORKGROUP
.
Inicie sesión en el host del sistema de archivos de Oracle HSM. Inicie sesión como usuario root
.
Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En los siguientes ejemplos, el nombre del servidor es qfssmb
.
[qfssmb]root@solaris:~#
Los servidores SMB y Samba de código abierto no se pueden usar en conjunto en un único sistema de Oracle Solaris. Observe si el servicio de Samba se está ejecutando. Canalice la salida del comando de estado de servicios de svcs
a grep
y la expresión regular samba
.
En el ejemplo, la salida del comando svcs
contiene una coincidencia para la expresión regular, de modo que el servicio SMB se está ejecutando:
[qfssmb]root@solaris:~# svcs | grep samba legacy_run Nov_03 lrc:/etc/rc3_d/S90samba
Si el servicio de Samba (svc:/network/samba
) se está ejecutando, desactívelo junto con los servicios del Servicio de nombres Internet de Windows/WINS (svc:/network/wins
), si se está ejecutando. Use el comando svcadm
disable
.
Los servidores SMB y Samba no se pueden usar en conjunto en un único sistema de Oracle Solaris.
[qfssmb]root@solaris:~# svcadm disable svc:/network/samba [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
Ahora, use el comando svcadm
enable
-r
smb/server
para iniciar el servidor SMB y cualquier servicio del que dependa.
[qfssmb]root@solaris:~# svcadm enable -r smb/server
Únase al grupo de trabajo. Únase al grupo de trabajo mediante smbadm
join
con el conmutador -w
(grupo de trabajo) y el nombre del grupo de trabajo especificado por el administrador de red de Windows.
En el ejemplo, el grupo de trabajo especificado se denomina crossplatform
.
[qfssmb]root@solaris:~# smbadm join -w crossplatform
Configure el host de Oracle HSM para cifrado de contraseñas SMB. Abra el archivo /etc/pam.d/other
en un editor de texto, agregue la línea de comandos password
required
pam_smb_passwd.so.1
nowarn
y guarde el archivo.
En el ejemplo, utilizamos el editor vi
:
[qfssmb]root@solaris:~# vi /etc/pam.d/other # Copyright (c) 2012, Oracle and/or its affiliates. All rights reserved. # # PAM configuration # # Default definitions for Authentication management # Used when service name is not explicitly mentioned for authentication # auth definitive pam_user_policy.so.1 ... password required pam_authtok_store.so.1 password required pam_smb_passwd.so.1 nowarn :wq [qfssmb]root@solaris:~#
Para obtener más información, consulte la página del comando man pam_smb_passwd
.
Una vez que se haya instalado el módulo pam_smb_passwd
, use el comando passwd
local-username
para generar una versión cifrada de la contraseña para el usuario local-username
, de modo que el servidor SMB pueda iniciar sesión en el grupo de trabajo de Windows.
El servidor SMB no puede autenticar usuarios mediante las mismas versiones cifradas de las contraseñas que usa el sistema operativo de Solaris. En el ejemplo, generamos una contraseña de SMB cifrada para el usuario smbsamqfs
:
[qfssmb]root@solaris:~# passwd smbsamqfs
Ahora, comparta el sistema de archivos de Oracle HSM como recurso compartido de SMB/CIFS.
Comparta el sistema de archivos de Oracle HSM mediante el uso de los procedimientos que se describen en la documentación de administración de la versión del sistema operativo de Oracle Solaris. En los siguientes pasos, se resume el procedimiento para Solaris 11.1:
Inicie sesión en el host del sistema de archivos Oracle HSM que desea configurar como un recurso compartido de SMB/CIFS. Inicie sesión como usuario root
.
Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En los siguientes ejemplos, el nombre del servidor es qfssmb
.
[qfssmb]root@solaris:~#
Configure el recurso compartido. Introduzca la línea de comandos share
-F
smb
-o
specific-options
sharepath
sharename
, donde el conmutador -F
especifica el protocolo de uso compartido smb
, sharepath
es la ruta al recurso compartido y sharename
es el nombre que desea usar para el recurso compartido. El valor del parámetro -o
opcional, sharing-options
, puede incluir cualquiera de las siguientes opciones:
abe=
[
true
|
false
]
Cuando la política de enumeración basada en acceso (ABE) de un recurso compartido es true
, las entradas del directorio a las que el usuario solicitante no tiene acceso se omiten de los listados de directorio que se devuelven al cliente.
ad-container=
cn=
user
,ou=
organization
,dc=
domain-dns
El contenedor de Active Directory limita el acceso compartido a los objetos de dominio especificados por los valores de atributo del nombre distintivo relacionado (RDN) con el protocolo ligero de acceso a directorios (LDAP): cn
(clase de objeto de usuario), ou
(clase de objeto de unidad organizativa) y dc
(clase de objeto DNS de dominio).
Para obtener información completa sobre el uso de contenedores de Active Directory con SMB/CIFS, consulte Internet Engineering Task Force Request For Comment (RFC) 2253 y la documentación de los servicios de directorio de Microsoft Windows.
catia=
[true
|false]
Si la sustitución de caracteres CATIA es true
, cualquier carácter de un nombre de archivos CATIA versión 4 que sea ilegal en Windows será reemplazado por equivalentes legales. Consulte la página del comando man share_smb
para ver la lista de sustituciones.
csc=
[manual
|auto
|vdo
|disabled]
Una política de almacenamiento en caché del lado del cliente (csc
) controla el almacenamiento en caché del lado del cliente de archivos para uso sin conexión. La política manual
permite a los clientes almacenar archivos en caché si lo solicitan los usuarios, pero desactivar la reintegración automática, de archivo por archivo (esto es predeterminado). La política auto
permite a los clientes almacenar archivos en caché de forma automática y permite la reintegración automática de archivo por archivo. La política vdo
permite a los clientes almacenar archivos en caché automáticamente para uso sin conexión, activa la reintegración archivo por archivo y permite a los clientes trabajar desde la caché local incluso si están sin conexión. La política disabled
no permite el almacenamiento en caché del lado del cliente.
dfsroot=
[
true
|
false
]
En un sistema de archivos distribuidos de Microsoft (DFS), un recurso compartido de raíz (dfsroot=true
) es el recurso compartido que organiza un grupo de carpetas compartidas ampliamente distribuidas en un único sistema de archivos DFS que se puede gestionar con mayor facilidad. Para obtener más información, consulte la documentación de Microsoft Windows Server.
guestok=
[true
|false]
Si la política guestok
es true
, la cuenta guest
definida de forma local puede acceder al recurso compartido. Cuando es false
o se deja sin definir (valor predeterminado), la cuenta guest
no puede acceder al recurso compartido. Esta política le permite asignar el usuario Guest
de Windows a un nombre de usuario de UNIX definido localmente, como guest
o nobody
:
# idmap add winname:Guest unixuser:guest
La cuenta de usuario definida localmente se puede autenticar luego con una contraseña almacenada en /var/smb/smbpasswd
, si lo desea. Consulte la página del comando man idmap
para obtener más información.
rw=
[*|[[-]
criterion
][:[-]
criterion
]...
La política rw
otorga o deniega el acceso a cualquier cliente que coincide con la lista de acceso suministrada.
Las listas de acceso contienen un único asterisco (*
) que significa all o una lista delimitada por dos puntos de criterios de acceso de cliente, donde cada criterion
incluye un signo menos opcional (-
), lo que significa denegación, seguido de un nombre de host, un grupo de red, un nombre de dominio DNS o LDAP completo y/o el símbolo @
más todo o parte de una dirección IP o nombre de dominio. Las listas de acceso se evalúan de izquierda a derecha hasta que el cliente satisface uno de los criterios. Para obtener más información, consulte la página del comando man share_smb
.
ro=
[*|[[-]
criterion
][:[-]
criterion
]...
La política ro
otorga o deniega el acceso de solo lectura a cualquier cliente que coincide con la lista de acceso.
none=
[*|[[-]
criterion
][:[-]
criterion
]...
La política none
deniega el acceso a cualquier cliente que coincide con la lista de acceso. Si la lista de acceso es un asterisco (*
), las políticas ro
y rw
pueden sustituir la política none
.
En el ejemplo, compartimos la lectura/escritura del sistema de archivos /qfsms
con los clientes smbclient1
y smbclient2
, y de solo lectura con smbclient3
:
[qfssmb]root@solaris:~# share -F smb -o rw=smbclient1:smbclient2 ro=smbclient3 /qfsms
Cuando introduce el comando, el sistema automáticamente reinicia el daemon del servidor SMB, smbd
.
Compruebe los parámetros de uso compartido. Use el comando share -F nfs
.
En el ejemplo, la salida del comando muestra que hemos configurado correctamente el recurso compartido:
[qfssmb]root@solaris:~# share -F smb /qfsms sec=sys,rw=smbclient1:smbclient2,ro=smbclient3 [qfssmb]root@solaris:~#
Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.
En caso contrario, vaya a Configuración de notificaciones y registro.