7 Acceso a los sistemas de archivos desde varios hosts

Los sistemas de archivos de Oracle HSM se pueden compartir entre varios hosts de diferentes maneras. Cada enfoque tiene fortalezas determinadas en algunas situaciones y desventajas notables en otras. De modo que sus elecciones dependen de sus requisitos específicos. Entre otros métodos de uso compartido se incluyen:

Acceso a sistemas de archivos desde varios hosts mediante el software Oracle HSM

Oracle HSM pone a disposición los sistemas de archivos a varios hosts mediante la configuración de un servidor y uno o más clientes y todos montan el sistema de archivos simultáneamente. A continuación, los datos de archivos se transfieren directamente desde los dispositivos de disco a los hosts mediante E/S de ruta local de alto rendimiento, sin las latencias de servidor de red e intermedias asociadas con el recurso compartido de NFS y CIFS. Únicamente un host puede estar a activo como servidor de metadatos por vez, pero se pueden configurar una variedad de clientes como servidores de metadatos posibles para propósitos de redundancia. No hay un límite para la cantidad de puntos de montaje del sistema de archivos.

Oracle HSM admite acceso de varios hosts a sistemas de archivos de alto rendimiento (ma) y propósito general (ms) en configuraciones de escritor único/lectores múltiples y en configuraciones compartidas, con o sin archivado. Hay solamente unas pocas limitaciones:

  • No se admiten los archivos especiales de bloque (b–).

  • No se admiten los archivos especiales de caracteres (c–).

  • No se admiten archivos especiales de canal denominado por FIFO (p–).

  • No se admiten los archivos segmentados.

    No puede implementar un sistema de archivos compartido Oracle HSM en un entorno de archivos segmentados.

  • No se admiten bloqueos obligatorios.

    Se devuelve un error EACCES si se configura un bloqueo obligatorio. Sin embargo, se admiten los bloqueos de asesores. Para obtener más información sobre bloqueos de asesores, consulte la página del comando man fcntl.

Los hosts del software Oracle HSM pueden acceder a los datos del sistema de archivos mediante una de dos configuraciones, cada una con sus propias ventajas y limitaciones en cualquier aplicación determinada.

En una configuración de escritor único/lectores múltiples, un único host monta el sistema de archivos con acceso de lectura y escritura, y todos los demás hosts lo montan con acceso de solo lectura. La configuración es un tema simple de configuración de opciones de montaje. Dado que un único host realiza todos los cambios en los archivos, la coherencia de archivos y la integridad de datos están garantizadas, sin bloqueo adicional de archivos ni comprobaciones de coherencia. Todos los hosts leen los metadatos y los datos directamente desde el disco para un mejor rendimiento. Sin embargo, todos los hosts deben tener acceso a los metadatos del sistema de archivos, de modo que todos los hosts de un sistema de archivos ma deben tener acceso a los dispositivos de datos y metadatos.

En una configuración compartida, todos los hosts pueden leer, escribir y anexar datos de archivos mediante el uso de concesiones, que permite que un único host acceda a los archivos de una determinada manera por un período determinado. El servidor de metadatos emite concesiones de lectura, escritura y anexo, y gestiona las renovaciones y las solicitudes de licencia en conflicto. Los sistemas de archivos compartidos ofrecen gran flexibilidad, pero la configuración es un poco más compleja y hay una mayor sobrecarga del sistema de archivos. Todos los hosts leen los datos de archivos directamente desde el disco, pero los clientes acceden a los metadatos por la red. De modo que los clientes que no tienen acceso a los dispositivos de metadatos pueden compartir un sistema de archivos ma.

Para configurar el acceso a datos de varios hosts, seleccione uno de los dos enfoques:

Configuración de un sistema de archivos de escritor único/lectores múltiples de Oracle HSM

Para configurar un sistema de archivos de escritor único y lectores múltiples, realice las siguientes tareas:

Crear un sistema de archivos en el escritor

Siga estos pasos:

  1. Inicie sesión en el host que actuará como writer mediante el uso de la cuenta root.

    En el ejemplo, el host de writer se denomina swriterfs-mds-writer:

    [swriterfs1-mds-writer]root@solaris:~# 
    
  2. En el host que actuará como writer, abra el archivo /etc/opt/SUNWsamfs/mcf en un editor de texto y agregue un sistema de archivos QFS. Puede configurar un sistema de archivos ms de propósito general o ma de alto rendimiento.

    En un sistema de archivos ma con dispositivos de metadatos separados, configure el servidor de metadatos para el sistema de archivos como escritor. En el ejemplo de abajo, editamos el archivo mcf en el host swriterfs1-mds-writer mediante el uso del editor de texto vi. En el ejemplo, se especifica un sistema de archivos ma con el identificador de equipo y el nombre de conjunto de familias swriterfs1, y el número ordinal de equipo 300:

    [swriterfs1-mds-writer]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family      Device   Additional
    # Identifier         Ordinal    Type       Set         State    Parameters
    #------------------  ---------  ---------  ---------   ------   ---------------
    swriterfs1           300        ma         swriterfs1  on       
     /dev/dsk/c0t0d0s0    301        mm         swriterfs1  on
     /dev/dsk/c0t3d0s0    302        mr         swriterfs1  on
     /dev/dsk/c0t3d0s1    303        mr         swriterfs1  on
    
  3. Guarde el archivo /etc/opt/SUNWsamfs/mcf y salga del editor.

    En el ejemplo, guardamos los cambios y salimos del editor vi:

    # Equipment          Equipment  Equipment  Family      Device   Additional
    # Identifier         Ordinal    Type       Set         State    Parameters
    #------------------  ---------  ---------  ---------   ------   ---------------
    swriterfs1           300        ma         swriterfs1  on  
     /dev/dsk/c0t0d0s0    301        mm         swriterfs1  on
     /dev/dsk/c0t3d0s0    302        mr         swriterfs1  on
     /dev/dsk/c0t3d0s1    303        mr         swriterfs1  on
    :wq
    [swriterfs1-mds-writer]root@solaris:~# 
    
  4. Verifique el archivo mcf para detectar errores mediante la ejecución del comando sam-fsd y corrija los errores encontrados.

    El comando sam-fsd lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error:

    [swriterfs1-mds-writer]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [swriterfs1-mds-writer]root@solaris:~# 
    
  5. Indique al servicio de Oracle HSM que vuelva a leer el archivo mcf y vuelva a realizar la configuración en consecuencia. Utilice el comando samd config.

    [swriterfs1-mds-writer]root@solaris:~# samd config
    Configuring SAM-FS
    [swriterfs1-mds-writer]root@solaris:~# 
    
  6. Cree el sistema de archivos mediante el uso del comando sammkfs y el nombre del conjunto de familias del sistema de archivos, tal como se describe en Configurar un sistema de archivos ma de alto rendimiento.

    En el ejemplo, el comando crea el sistema de archivos de escritor único/lectores múltiples swriterfs1:

    [swriterfs1-mds-writer]root@solaris:~# sammkfs swriterfs1
    Building 'swriterfs1' will destroy the contents of devices:
      /dev/dsk/c0t0d0s0
      /dev/dsk/c0t3d0s0
      /dev/dsk/c0t3d0s1
    Do you wish to continue? [y/N]yes ...
    
  7. Realice una copia de seguridad del archivo /etc/vfstab del sistema operativo.

    [swriterfs1-mds-writer]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [swriterfs1-mds-writer]root@solaris:~# 
    
  8. Agregue el nuevo sistema de archivos al archivo /etc/vfstab del sistema operativo, tal como se describe en Configurar un sistema de archivos ma de alto rendimiento.

    En el ejemplo, abrimos el archivo /etc/vfstab en el editor de texto vi y agregamos una línea para el dispositivo del conjunto de familias swriterfs1:

    [swriterfs1-mds-writer]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no
           
    
  9. En la columna Mount Options del archivo /etc/vfstab, introduzca la opción de montaje writer.

    Precaución:

    Asegúrese de que solamente un host sea el writer en un determinado momento. Si se permite más de un host para montar un sistema de archivos de escritor único/lectores múltiples mediante el uso de la opción writer, se puede dañar el sistema.
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer
    
  10. Realice otros cambios deseados en el archivo /etc/vfstab. Agregue opciones de montaje mediante el uso de comas como separadores.

    Por ejemplo, para montar el sistema de archivos en segundo plano, si el primer intento no es correcto, agregue la opción de montaje bg al campo Mount Options (consulte la página del comando man mount_samfs para obtener una lista completa de las opciones de montaje disponibles):

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg
    
  11. Guarde el archivo /etc/vfstab y salga del editor.

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg      
    :wq
    [swriterfs1-mds-writer]root@solaris:~# 
    
  12. Cree el punto de montaje especificado en el archivo /etc/vfstab y configure los permisos de acceso para el punto de montaje.

    Los permisos de punto de montaje deben ser los mismos en todos los hosts y los usuarios deben haber ejecutado el permiso (x) para cambiar el directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /swriterfs1 y configuramos los permisos en 755 (-rwxr-xr-x):

    [swriterfs1-mds-writer]root@solaris:~# mkdir /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# chmod 755 /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# 
    
  13. Monte el nuevo sistema de archivos:

    [swriterfs1-mds-writer]root@solaris:~# mount /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# 
    
  14. Una vez que se haya creado el sistema de archivos compartido, configure los lectores.

Configuración de los lectores

Un reader es un host que monta un sistema de archivos de solo lectura. Para cada host que va a configurar como un lector, realice lo siguiente:

  1. Inicie sesión en el host como root.

    En el ejemplo, el host de reader se denomina swriterfs-reader1]:

    [swriterfs-reader1]root@solaris:~# 
    
  2. En una ventana de terminal, recupere la información de configuración del sistema de archivos de escritor único y lectores múltiples con el comando samfsconfig device-path, donde device-path es la ubicación donde el comando debería comenzar a buscar los dispositivos de disco del sistema de archivos (como /dev/dsk/*).

    La utilidad samfsconfig recupera la información de configuración del sistema de archivos mediante la lectura del superbloque de identificación que sammkfs escribe en cada dispositivo incluido en un sistema de archivos Oracle HSM. El comando devuelve las rutas correctas a cada dispositivo en la configuración, comenzando por el host actual y marca los dispositivos que no se pueden alcanzar (para obtener información completa sobre la sintaxis y los parámetros del comando, consulte la página del comando man samfsconfig).

    En el ejemplo, la salida de samfsconfig muestra el mismo equipo que se muestra en el archivo mcf en swriterfs1-mds-writer, excepto que las rutas a los dispositivos se especifican a partir del host swriterfs1-reader1:

    [swriterfs1-reader1]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'swriterfs1' Created Thu Nov 21 07:17:00 2013
    # Generation 0 Eq count 4 Eq meta count 1
    #
    sharefs              300        ma         sharefs   -        
     /dev/dsk/c1t0d0s0    301        mm         sharefs   -
     /dev/dsk/c1t3d0s0    302        mr         sharefs   -
     /dev/dsk/c1t3d0s1    303        mr         sharefs   -
    
  3. Copie las entradas del sistema de archivos compartido desde la salida de samfsconfig. Luego, en una segunda ventana, abra el archivo /etc/opt/SUNWsamfs/mcf en un editor de texto y pegue las entradas copiadas en el archivo.

    Como alternativa, puede redirigir la salida de samfsconfig al archivo mcf. O bien, puede utilizar el comando samd buildmcf para ejecutar samfsconfig y crear el archivo de cliente mcf automáticamente.

    En el ejemplo, el archivo mcf para el host, swriterfs1-reader1 es similar al siguiente cuando agregamos los encabezados de columna comentados:

    [swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    
  4. Asegúrese de que el campo Device State esté configurado en on para todos los dispositivos. A continuación, guarde el archivo mcf.

    [swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       
     /dev/dsk/c1t0d0s0     301        mm         sharefs    on 
     /dev/dsk/c1t3d0s0     302        mr         sharefs    on 
     /dev/dsk/c1t3d0s1     303        mr         sharefs    on 
    :wq
    [swriterfs1-reader1]root@solaris:~# 
    
  5. Verifique el archivo mcf para detectar errores mediante la ejecución del comando sam-fsd y corrija los errores encontrados.

    El comando sam-fsd lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error:

    [swriterfs1-reader1]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [swriterfs1-reader1]root@solaris:~# 
    
  6. Realice una copia de seguridad del archivo /etc/vfstab del sistema operativo.

    [swriterfs1-reader1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [swriterfs1-reader1]root@solaris:~# 
    
  7. Agregue el sistema de archivos de escritor único y lectores múltiples al archivo /etc/vfstab del sistema operativo.

    En el ejemplo, abrimos el archivo /etc/vfstab en el editor de texto vi y agregamos una línea para el dispositivo del conjunto de familias swriterfs1:

    [swriterfs1-reader1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no        
        
    
  8. En la columna Mount Options del archivo /etc/vfstab, introduzca la opción reader.

    Precaución:

    Asegúrese de que el host monte el sistema de archivos mediante la opción reader. Si se usa la opción de montaje writer de forma inadvertida en más de un host, es posible que se dañe el sistema de archivos.
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       reader      
    
  9. Agregue cualquier otra opción de montaje que desee mediante una coma como separador, y efectúe los cambios que desee en el archivo /etc/vfstab. Luego, guarde el archivo /etc/vfstab.

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg      
    :wq
    [swriterfs1-reader1]root@solaris:~# 
    
  10. Cree el punto de montaje especificado en el archivo /etc/vfstab y configure los permisos de acceso para el punto de montaje.

    Los permisos de punto de montaje deben ser los mismos en todos los hosts y los usuarios deben haber ejecutado el permiso (x) para cambiar el directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /swriterfs1 y configuramos los permisos en 755 (-rwxr-xr-x), tal como lo hicimos en el host del escritor:

    [swriterfs1-reader1]root@solaris:~# mkdir /swriterfs1
    [swriterfs1-reader1]root@solaris:~# chmod 755 /swriterfs1
    [swriterfs1-reader1]root@solaris:~# 
    
  11. Monte el nuevo sistema de archivos:

    [swriterfs1-reader1]root@solaris:~# mount /swriterfs1
    [swriterfs1-reader1]root@solaris:~# 
    
  12. Repita este procedimiento hasta que se hayan configurado todos los hosts de lectores para montar el sistema de archivos de solo lectura.

  13. Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.

  14. En caso contrario, vaya a Configuración de notificaciones y registro.

Configuración de un sistema de archivos compartido Oracle HSM

Los sistemas de archivos compartidos de Oracle HSM otorgan a varios hosts de Oracle HSM acceso de lectura, escritura y anexo a los archivos. Todos los hosts montan el sistema de archivo y tienen conexiones directas a los dispositivos de almacenamiento. Además, un host, el servidor de metadatos (MDS), tiene control exclusivo en los metadatos del sistema de archivos y actúa de mediador entre los hosts que buscan acceder a los mismos archivos. El servidor proporciona hosts de cliente con actualizaciones de metadatos mediante una red local de Ethernet y controla el acceso de los archivos mediante la emisión, la renovación y la revocación de concesiones de lectura, escritura y anexo. Se pueden compartir los sistemas de archivos de almacenamiento y no de almacenamiento de alto rendimiento ma o de propósito general ms.

Para configurar el sistema de archivos compartido, realice las siguientes tareas:

Configurar un servidor de metadatos del sistema de archivos para uso compartido

Para configurar un servidor de metadatos para que admita un sistema de archivos compartido, realice las siguientes tareas:

Creación de un archivo de hosts en los servidores de metadatos activos y posibles

En los servidores de metadatos activos y posibles debe crear un archivo de hosts que incluya la información de dirección de red de los servidores y clientes de un sistema de archivos compartido. El archivo de hosts se almacena junto con el archivo mcf en el directorio /etc/opt/SUNWsamfs/. Durante la creación inicial de un sistema de archivos compartido, el comando sammkfs -S configura el uso compartido mediante los parámetros de configuración almacenados en este archivo. Por lo tanto, créelo ahora, utilizando el procedimiento que se indica a continuación.

  1. Inicie sesión en el servidor como root.

    En el ejemplo, el servidor se denomina sharefs-mds:

    [sharefs-mds]root@solaris:~# 
    
  2. Con un editor de texto, creamos el archivo /etc/opt/SUNWsamfs/hosts.family-set-name en el servidor de metadatos y reemplazamos family-set-name con el nombre del conjunto de familias del sistema de archivos que desea compartir.

    En el ejemplo, creamos el archivo hosts.sharefs mediante el editor de texto vi. Agregamos algunos encabezados opcionales, comenzamos cada línea con un signo hash (#) e indicamos un comentario:

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    
  3. Agregue la dirección IP y el nombre del host o el nombre de dominio del servidor de metadatos en dos columnas, separadas por caracteres de espacio en blanco.

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117
    
  4. Agregue una tercera columna, separada de la dirección de red por caracteres de espacio. En esta columna, introduzca 1, el número ordinal para el servidor de metadatos activo.

    En este ejemplo, sólo hay un servidor de metadatos, por lo tanto, introducimos 1:

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1      
     
    
  5. Agregue una cuarta columna, separada de la dirección de red por caracteres de espacio. En esta columna, introduzca 0 (cero).

    El valor 0, - (guión) o en blanco en la cuarta columna indica que el host está on, es decir, configurado con acceso al sistema de archivos compartido. El valor 1 (numeral uno) indica que el host está off, es decir, configurado pero sin acceso al sistema de archivos (para obtener información sobre el uso de estos valores para administrar sistemas de archivos compartidos, consulte la página del comando man samsharefs).

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds          10.79.213.117            1        0    
    
  6. Agregue una quinta columna, separada de la dirección de red por caracteres de espacio. En esta columna, introduzca la palabra clave server para indicar el servidor de metadatos activo en la actualidad:

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    
  7. Si tiene pensado incluir uno o varios hosts como servidores de metadatos posibles, cree una entrada para cada uno. Aumente el número ordinal del servidor cada vez que agregue uno. Pero no incluya la palabra clave server (puede haber sólo un servidor de metadatos activo por sistema de archivos).

    En el ejemplo, el host sharefs-mds_alt es un servidor de metadatos posible con el número ordinal de servidor 2:

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    
  8. Agregue una línea para cada host de cliente, cada una con un valor ordinal de servidor de 0.

    El número ordinal de servidor 0 identifica el host como cliente. En el ejemplo, agregamos dos clientes, sharefs-client1 y sharefs-client2.

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.147           0        0
    
  9. Guarde el archivo /etc/opt/SUNWsamfs/hosts.family-set-name y salga del editor.

    En el ejemplo, guardamos los cambios en /etc/opt/SUNWsamfs/hosts.sharefs y salimos del editor vi:

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.147           0        0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  10. Coloque una copia del nuevo archivo /etc/opt/SUNWsamfs/hosts.family-set-name en cualquier servidor de metadatos posible incluido en la configuración del sistema de archivos compartido.

  11. Ahora cree el sistema de archivos compartido en el servidor de metadatos activo.

Crear el sistema de archivos compartido en el servidor activo

Siga estos pasos:

  1. Inicie sesión en el servidor como root.

    En el ejemplo, el servidor se denomina sharefs-mds:

    [sharefs-mds]root@solaris:~# 
    
  2. En el servidor de metadatos (MDS), abra el archivo /etc/opt/SUNWsamfs/mcf en un editor de texto y agregue un sistema de archivos QFS. Puede configurar un sistema de archivos ms de propósito general o ma de alto rendimiento.

    En el ejemplo de abajo, editamos el archivo mcf en el host sharefs-mds mediante el uso del editor de texto vi. En el ejemplo, se especifica un sistema de archivos ma con el identificador de equipo y el nombre de conjunto de familias sharefs, y el número ordinal de equipo 300:

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       
     /dev/dsk/c0t0d0s0     301        mm         sharefs    on
     /dev/dsk/c0t3d0s0     302        mr         sharefs    on
     /dev/dsk/c0t3d0s1     303        mr         sharefs    on
    
  3. En el campo Additional Parameters de la fila del equipo del sistema de archivos ma, introduzca el parámetro shared:

    # Equipment           Equipment   Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     /dev/dsk/c0t0d0s0     301         mm        sharefs    on
     /dev/dsk/c0t3d0s0     302         mr        sharefs    on
     /dev/dsk/c0t3d0s1     303         mr        sharefs    on
    
  4. Guarde el archivo /etc/opt/SUNWsamfs/mcf y salga del editor.

    En el ejemplo, guardamos los cambios y salimos del editor vi:

    sharefs               300         ma         sharefs    on      shared
     /dev/dsk/c0t0d0s0     301         mm         sharefs    on
     /dev/dsk/c0t3d0s0     302         mr         sharefs    on
     /dev/dsk/c0t3d0s1     303         mr         sharefs    on
    :wq
    [sharefs-mds]root@solaris:~# 
    
  5. Verifique el archivo mcf para detectar errores mediante la ejecución del comando sam-fsd y corrija los errores encontrados.

    El comando sam-fsd lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error:

    [sharefs-mds]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-mds]root@solaris:~# 
    
  6. Indique al servicio Oracle HSM que vuelva a leer el archivo mcf y vuelva a realizar la configuración en consecuencia. Corrija los errores que se informen y, si es necesario, repita el procedimiento.

    [sharefs-mds]root@solaris:~# samd config
    [sharefs-mds]root@solaris:~# 
    
  7. Cree el sistema de archivos mediante el uso del comando sammkfs -S y el nombre del conjunto de familias del sistema de archivos, tal como se describe en Configurar un sistema de archivos ma de alto rendimiento.

    El comando sammkfs lee los archivos hosts.family-set-name y mcf y crea un sistema de archivos compartido con las propiedades especificadas. En el ejemplo, el comando lee los parámetros de uso compartido del archivo hosts.sharefs y crea el sistema de archivos compartido sharefs:

    [sharefs-mds]root@solaris:~# sammkfs -S sharefs
    Building 'sharefs' will destroy the contents of devices:
      /dev/dsk/c0t0d0s0
      /dev/dsk/c0t3d0s0
      /dev/dsk/c0t3d0s1
    Do you wish to continue? [y/N]yes ...
    [sharefs-mds]root@solaris:~# 
    
  8. Luego, monte el sistema de archivos compartido en el servidor de metadatos activo.

Montar el sistema de archivos compartido en el servidor activo
  1. Inicie sesión en el servidor como root.

    En el ejemplo, el servidor se denomina sharefs-mds:

    [sharefs-mds]root@solaris:~# 
    
  2. Realice una copia de seguridad del archivo /etc/vfstab del sistema operativo.

    [sharefs-mds]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [sharefs-mds]root@solaris:~# 
    
  3. Agregue el nuevo sistema de archivos al archivo /etc/vfstab del sistema operativo, tal como se describe en Configurar un sistema de archivos ma de alto rendimiento.

    En el ejemplo, abrimos el archivo /etc/vfstab en el editor de texto vi y agregamos una línea para el dispositivo del conjunto de familias sharefs:

    [sharefs-mds]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -        /sharefs   samfs   -     no     
    
  4. En la columna Mount Options, introduzca la opción shared:

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared      
    
  5. Realice otros cambios deseados en el archivo /etc/vfstab.

    Por ejemplo, para reintentar el montaje del sistema de archivos en segundo plano, agregue la opción de montaje bg al campo Mount Options (para obtener una descripción completa de las opciones de montaje disponibles, consulte la página del comando man mount_samfs):

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared,bg     
     
    
  6. Guarde el archivo /etc/vfstab y salga del editor.

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared,bg      
    :wq
    [sharefs-mds]root@solaris:~# 
    
  7. Cree el punto de montaje especificado en el archivo /etc/vfstab y configure los permisos de acceso para el punto de montaje.

    Los permisos de punto de montaje deben ser los mismos en el servidor de metadatos y en todos los clientes, y los usuarios deben haber ejecutado el permiso (x) para cambiar el directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /sharefs y configuramos los permisos en 755 (-rwxr-xr-x):

    [sharefs-mds]root@solaris:~# mkdir /sharefs
    [sharefs-mds]root@solaris:~# chmod 755 /sharefs
    [sharefs-mds]root@solaris:~# 
    
  8. Monte el nuevo sistema de archivos:

    [sharefs-mds]root@solaris:~# mount /sharefs
    [sharefs-mds]root@solaris:~# 
    
  9. Si los hosts están configurados con varias interfaces de red, se recomienda usar los archivos de hosts locales para enrutar las comunicaciones de red.

  10. De lo contrario, una vez que el sistema de archivos compartido se haya creado en el servidor de metadatos, configure el uso compartido en los clientes del sistema de archivos.

Configurar los clientes del sistema de archivos para uso compartido

Los clientes incluyen hosts que se configuran exclusivamente como clientes y hosts que están configurados como servidores de metadatos posibles. En la mayoría de los sentidos, la configuración de un cliente es muy similar a la configuración de un servidor. Cada cliente incluye exactamente los mismos dispositivos que el servidor. Únicamente cambian las opciones de montaje y la ruta exacta a los dispositivos (los números de controlador son asignados por cada host de cliente y, por lo tanto, pueden variar).

Para configurar uno o más clientes para que admitan un sistema de archivos compartido, realice las siguientes tareas:

Crear el sistema de archivos compartido en los clientes de Solaris

Para cada cliente, siga los pasos detallados a continuación:

  1. En el cliente, inicie sesión como root.

    En el ejemplo, el servidor se denomina sharefs-client1:

    [sharefs-client1]root@solaris:~# 
    
  2. En una ventana de terminal, introduzca el comando samfsconfig device-path, donde device-path es la ubicación donde el comando debe empezar a buscar los dispositivos de disco del sistema de archivos (como /dev/dsk/* o /dev/zvol/dsk/rpool/*).

    El comando samfsconfig recupera la información de configuración para el sistema de archivos compartido.

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    
  3. Si el host tiene acceso a los dispositivos de metadatos del sistema de archivos y, por lo tanto, es adecuado para utilizar como servidor de metadatos posible, la salida de samfsconfig se asemeja al archivo mcf que creó en el servidor de metadatos del sistema de archivos.

    En nuestro ejemplo, el host sharefs-client1 tiene acceso a los dispositivos de metadatos (tipo de equipo mm), entonces la salida del comando muestra el mismo equipo que aparece en el archivo mcf en el servidor, sharefs-mds. Solo difieren los números del controlador del dispositivo asignado por el host:

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    # Generation 0 Eq count 4 Eq meta count 1
    #
    sharefs             300         ma         sharefs   - 
    /dev/dsk/c1t0d0s0    301         mm         sharefs   -
    /dev/dsk/c1t3d0s0    302         mr         sharefs   -
    /dev/dsk/c1t3d0s1    303         mr         sharefs   -
    
  4. Si el host no tiene acceso a los dispositivos de metadatos para el sistema de archivos, el comando samfsconfig no puede encontrar los dispositivos de metadatos y, por lo tanto, no puede ubicar los dispositivos de Oracle HSM que detecta en la configuración del sistema de archivos. La salida del comando muestra Ordinal 0 (el dispositivo de metadatos) en Missing Slices, donde no se incluye la línea que identifica el conjunto de familias del sistema de archivos y se comentan las listas de los dispositivos de datos.

    En nuestro ejemplo, el host sharefs-client2 sólo tiene acceso a los dispositivos de datos. Por lo tanto, la salida de samfsconfig se ve de la siguiente manera:

    [sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    #
    # Missing slices
    # Ordinal 0
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  5. Copie las entradas del sistema de archivos compartido desde la salida de samfsconfig. Luego, en una segunda ventana, abra el archivo /etc/opt/SUNWsamfs/mcf en un editor de texto y pegue las entradas copiadas en el archivo.

    En nuestro primer ejemplo, el host, sharefs-client1, tiene acceso a los dispositivos de metadatos para el sistema de archivos, entonces el archivo mcf en un principio se ve de la siguiente manera:

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    

    En nuestro segundo ejemplo, el host, sharefs-client2, no tiene acceso a los dispositivos de metadatos para el sistema de archivos, entonces el archivo mcf en un principio se ve de la siguiente manera:

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  6. Si el host tiene acceso a los dispositivos de metadatos del sistema de archivos, agregue el parámetro shared al campo Additional Parameters de la entrada del sistema de archivos compartido.

    En el ejemplo, el host, sharefs-client1, tiene acceso a los metadatos:

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    
  7. Si el host no tiene acceso a los dispositivos de metadatos del sistema de archivos, agregue una línea para el sistema de archivos compartido e incluya el parámetro shared.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -       
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  8. Si el host no tiene acceso a los dispositivos de metadatos del sistema de archivos, agregue una línea para el dispositivo de metadatos. Configure el campo Equipment Identifier en nodev (sin dispositvo) y configure los campos restantes exactamente con los mismos valores que tienen en el servidor de metadatos:

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
    # /dev/dsk/c4t3d0s0    302         mr        sharefs    -
    # /dev/dsk/c4t3d0s1    303         mr        sharefs    -
    
  9. Si el host no tiene acceso a los dispositivos de metadatos del sistema de archivos, quite el comentario de las entradas para los dispositivos de datos.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -----------------
    sharefs              300         ma        sharefs     on       shared
     nodev                301         mm        sharefs     on 
     /dev/dsk/c4t3d0s0    302         mr        sharefs     - 
     /dev/dsk/c4t3d0s1    303         mr        sharefs     - 
    
  10. Asegúrese de que el campo Device State esté configurado en on para todos los dispositivos y guarde el archivo mcf.

    En nuestro primer ejemplo, el host, sharefs-client1, tiene acceso a los dispositivos de metadatos para el sistema de archivos, entonces el archivo mcf al finalizar se ve de la siguiente manera:

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       shared
     /dev/dsk/c1t0d0s0     301        mm         sharefs    on 
     /dev/dsk/c1t3d0s0     302        mr         sharefs    on 
     /dev/dsk/c1t3d0s1     303        mr         sharefs    on 
    :wq
    [sharefs-client1]root@solaris:~# 
    

    En el segundo ejemplo, el host, sharefs-client2, no tiene acceso a los dispositivos de metadatos para el sistema de archivos; por lo tanto, el archivo mcf al finalizar se ve de la siguiente manera:

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
     /dev/dsk/c4t3d0s0     302         mr        sharefs    on 
     /dev/dsk/c4t3d0s1     303         mr        sharefs    on 
    :wq
    [sharefs-client2]root@solaris:~# 
    
  11. Verifique el archivo mcf para detectar errores mediante la ejecución del comando sam-fsd y corrija los errores encontrados.

    El comando sam-fsd lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error. En el ejemplo, verificamos el archivo mcf en sharefs-client1:

    [sharefs-client1]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-client1]root@solaris:~# 
    
  12. En este momento, si los hosts están configurados con varias interfaces de red, se recomienda usar los archivos de hosts locales para enrutar las comunicaciones de red.

  13. Luego, monte el sistema de archivos compartido en los clientes Solaris.

Montar el sistema de archivos compartido en los clientes de Solaris

Para cada cliente, siga los pasos detallados a continuación:

  1. En el cliente Solaris, inicie sesión como root.

    En el ejemplo, el servidor se denomina sharefs-client1:

    [sharefs-client1]root@solaris:~# 
    
  2. Realice una copia de seguridad del archivo /etc/vfstab del sistema operativo.

    [sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [sharefs-client1]root@solaris:~# 
    
  3. Abra el archivo /etc/vfstab en un editor de texto y agregue una línea para el sistema de archivos compartido.

    En el ejemplo, abrimos el archivo en el editor de texto vi y agregamos una línea para el dispositivo del conjunto de familias sharefs.

    [sharefs-client1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no   
    
  4. Agregue cualquier otra opción de montaje que desee mediante una coma como separador, y efectúe los cambios que desee en el archivo /etc/vfstab. Luego, guarde el archivo /etc/vfstab.

    En el ejemplo, no agregamos opciones de montaje.

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no       -
    :wq
    [sharefs-client1]root@solaris:~# 
    
  5. Cree el punto de montaje especificado en el archivo /etc/vfstab y configure los permisos de acceso para el punto de montaje.

    Los permisos de punto de montaje deben ser iguales a los del servidor de metadatos y los de los demás clientes. Los usuarios deben tener permiso de ejecución (x) para cambiar al directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /sharefs y configuramos los permisos en 755 (-rwxr-xr-x):

    [sharefs-client1]root@solaris:~# mkdir /sharefs
    [sharefs-client1]root@solaris:~# chmod 755 /sharefs
    [sharefs-client1]root@solaris:~# 
    
  6. Monte el sistema de archivos compartido:

    [sharefs-client1]root@solaris:~# mount /sharefs
    [sharefs-client1]root@solaris:~# 
    
  7. Si el sistema de archivos compartido incluye clientes Linux, cree el sistema de archivos compartido en los clientes Linux.

  8. Si está configurando un sistema de archivos de almacenamiento compartido Oracle HSM, vaya a la siguiente tarea, Configurar el almacenamiento en archivo para un sistema de archivos compartido.

  9. De lo contrario, deténgase aquí. Ha configurado el sistema de archivos compartido de Oracle HSM.

Crear el sistema de archivos compartido en los clientes de Linux

Para cada cliente, siga los pasos detallados a continuación:

  1. En el cliente Linux, inicie sesión como root.

    En el ejemplo, el host del cliente Linux se denomina sharefs-clientL:

    [sharefs-clientL][root@linux ~]# 
    
  2. En una ventana de terminal, introduzca el comando samfsconfig device-path, donde device-path es la ubicación donde el comando debe comenzar a buscar los dispositivos de disco del sistema de archivos (como /dev/*).

    El comando samfsconfig recupera la información de configuración para el sistema de archivos compartido. Dado que los hosts Linux no tienen acceso a los dispositivos de metadatos para el sistema de archivos, samfsconfig no puede encontrar los dispositivos de metadatos y, por lo tanto, no puede ubicar los dispositivos de Oracle HSM que detecta en la configuración del sistema de archivos. La salida del comando muestra Ordinal 0 (el dispositivo de metadatos) en Missing Slices, donde no se incluye la línea que identifica el conjunto de familias del sistema de archivos y se comentan las listas de los dispositivos de datos.

    En nuestro ejemplo, la salida samfsconfig para el host Linux sharefs-clientL se ve de la siguiente manera:

    [sharefs-clientL][root@linux ~]# samfsconfig /dev/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    #
    # Missing slices
    # Ordinal 0
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  3. Copie las entradas del sistema de archivos compartido desde la salida de samfsconfig. Luego, en una segunda ventana, abra el archivo /etc/opt/SUNWsamfs/mcf en un editor de texto y pegue las entradas copiadas en el archivo.

    En el ejemplo, el archivo mcf para el host Linux, sharefs-clientL, en un principio se ve de la siguiente manera:

    [sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  4. En el archivo mcf, inserte una línea para el sistema de archivos compartido e incluya el parámetro shared.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  5. En el archivo mcf, inserte líneas para los dispositivos de metadatos del sistema de archivos. Dado que el host Linux no tiene acceso a los dispositivos de metadatos, configure el campo Equipment Identifier en nodev (sin dispositivo) y, luego, configure los campos restantes exactamente con los mismos valores que tienen en el servidor de metadatos:

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  6. En el archivo mcf, quite el comentario de las entradas de los dispositivos de datos.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs              300         ma        sharefs     on       shared
     nodev                301         mm        sharefs     on 
     /dev/sda4            302         mr        sharefs     -
     /dev/sda5            303         mr        sharefs     -
    
  7. Asegúrese de que el campo Device State esté configurado en on para todos los dispositivos y guarde el archivo mcf.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
     /dev/sda4             302         mr        sharefs    on 
     /dev/sda5             303         mr        sharefs    on 
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  8. Verifique el archivo mcf para detectar errores mediante la ejecución del comando sam-fsd y corrija los errores encontrados.

    El comando sam-fsd lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error. En el ejemplo, verificamos el archivo mcf en el cliente Linux, sharefs-clientL:

    [sharefs-clientL][root@linux ~]# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-clientL][root@linux ~]# 
    
  9. Ahora, monte el sistema de archivos compartido en los clientes Linux.

Montar el sistema de archivos compartido en los clientes de Linux

Para cada cliente, siga los pasos detallados a continuación:

  1. En el cliente Linux, inicie sesión como root.

    En el ejemplo, el host del cliente Linux se denomina sharefs-clientL:

    [sharefs-clientL][root@linux ~]# 
    
  2. Realice una copia de seguridad del archivo /etc/fstab del sistema operativo.

    [sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
    
  3. Abra el archivo /etc/fstab en un editor de texto e inicie una línea para el sistema de archivos compartido.

    En el ejemplo, después de realizar la copia de seguridad del archivo /etc/fstab en sharefs-clientL, abrimos el archivo en el editor de texto vi y agregamos una línea para el dispositivo de conjunto de familias sharefs:

    [sharefs-clientL][root@linux ~]# vi /etc/fstab
    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs
    
  4. En la cuarta columna del archivo, agregue la opción de montaje obligatoria shared.

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared
    
  5. En la cuarta columna del archivo, agregue otras opciones de montaje que desee mediante comas como separadores.

    Los clientes Linux admiten las siguientes opciones de montaje adicionales:

    • rw, ro

    • retry

    • meta_timeo

    • rdlease, wrlease, aplease

    • minallocsz, maxallocsz

    • noauto, auto

    En el ejemplo, agregamos la opción noauto:

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto
             
    
  6. Introduzca cero (0) en cada una de las dos columnas restantes del archivo. Luego, guarde el archivo /etc/fstab.

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto              0         0        
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  7. Cree el punto de montaje especificado en el archivo /etc/fstab y configure los permisos de acceso para el punto de montaje.

    Los permisos de punto de montaje deben ser iguales a los del servidor de metadatos y los de los demás clientes. Los usuarios deben tener permiso de ejecución (x) para cambiar al directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /sharefs y configuramos los permisos en 755 (-rwxr-xr-x):

    [sharefs-clientL][root@linux ~]# mkdir /sharefs
    [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
    
  8. Monte el sistema de archivos compartido. Use el comando mount mountpoint, donde mountpoint es el punto de montaje especificado en el archivo /etc/fstab.

    Como se muestra en el ejemplo, el comando mount genera una advertencia. Esto es normal y se puede omitir:

    [sharefs-clientL][root@linux ~]# mount /sharefs
    Warning: loading SUNWqfs will taint the kernel: SMI license 
    See http://www.tux.org/lkml/#export-tainted for information 
    about tainted modules. Module SUNWqfs loaded with warnings 
    [sharefs-clientL][root@linux ~]# 
    
  9. Si está configurando un sistema de archivos de almacenamiento compartido Oracle HSM, vaya a la siguiente tarea, Configurar el almacenamiento en archivo para un sistema de archivos compartido.

  10. Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.

  11. En caso contrario, vaya a Configuración de notificaciones y registro.

Uso de archivos de hosts locales para enrutar las comunicaciones de red

Los hosts individuales no requieren archivos de hosts locales. El sistema de archivos identifica el servidor de metadatos activo y las interfaces de red de los servidores de metadatos activos y posibles para todos los hosts del sistema de archivos (consulte Creación de un archivo de hosts en los servidores de metadatos activos y posibles). Pero los archivos de hosts locales pueden resultar útiles cuando se necesita enrutar de manera selectiva el tráfico de red entre los hosts de sistemas de archivos con múltiples interfaces de red.

Cada host del sistema de archivos busca las interfaces de red para otros hosts en el servidor de metadatos. Los nombres de host y las direcciones IP se muestran en el archivo de hosts global del sistema de archivos, /etc/opt/SUNWsamfs/hosts.family-set-name, donde family-set-name es el número del conjunto de familias del sistema de archivos compartido. A continuación, el host busca un archivo de hosts local, /etc/opt/SUNWsamfs/hosts.family-set-name.local.

Si no hay ningún archivo de hosts local, el host utiliza las direcciones de la interfaz especificadas en el archivo de hosts global. Los hosts se utilizan en el orden especificado por el archivo global.

Si hay un archivo de hosts local, el host lo compara con el archivo global y utiliza solo las interfaces que se muestran en ambos archivos. Los hosts se utilizan en el orden especificado en el archivo local.

Al utilizar direcciones diferentes en cada archivo, puede controlar las interfaces utilizadas por los diferentes hosts. Para configurar archivos de hosts locales, utilice el procedimiento que se describe a continuación:

  1. En cada host del servidor de metadatos activo y posible, edite el archivo de hosts global para el sistema de archivos compartido, de modo que enrute las comunicaciones del host y del servidor de la manera necesaria.

    Para los ejemplos de esta sección, el sistema de archivos compartido, sharefs2nic, incluye un servidor de metadatos activo, sharefs2-mds, y un servidor de metadatos posible, sharefs2-mds_alt, cada uno con dos interfaces de red. También hay dos clientes: sharefs2-client1 y sharefs2-client2.

    Queremos que el servidor de metadatos activo y el servidor de metadatos posible se comuniquen entre sí, por medio de direcciones de red privada, y con los clientes, por medio de nombres de host que el servicio de nombres de dominio (DNS, Domain Name Service) puede resolver en direcciones, en la red de área local (LAN, Local Area Network) pública.

    Por lo tanto, se edita /etc/opt/SUNWsamfs/hosts.sharefs2, el archivo de hosts global del sistema de archivos. Especificamos direcciones de la interfaz de red privada para servidores activos y potenciales. Sin embargo, para los clientes, proporcionamos los nombres de host en lugar de las direcciones:

    [sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    sharefs2-client1  sharefs2-client1    0        0
    sharefs2-client2  sharefs2-client2    0        0
    :wq
    [sharefs2-mds]root@solaris:~# 
    
  2. Cree un archivo de hosts local en cada uno de los servidores de metadatos activo y posible, mediante la ruta y el nombre de archivo /etc/opt/SUNWsamfs/hosts.family-set-name.local, donde family-set-name es el identificador del equipo del sistema de archivos compartido. Solo incluya las interfaces de las redes que desea que utilicen los servidores activo y posible.

    En nuestro ejemplo, queremos que los servidores de metadatos activos y posibles se comuniquen entre sí mediante la red privada; por lo tanto, el archivo de hosts local de cada servidor, hosts.sharefs2.local, solo muestra direcciones privadas de dos hosts, los servidores de metadatos activos y posibles:

    [sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2 on sharefs2-mds
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    :wq
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt
    Password:
    
    [sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-mds_alt
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    :wq
    [sharefs2-mds_alt]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  3. Cree un archivo de hosts local en cada uno de los clientes, mediante la ruta y el nombre de archivo /etc/opt/SUNWsamfs/hosts.family-set-name.local, donde family-set-name es el identificador del equipo del sistema de archivos compartido. Solo incluya las interfaces de las redes que desea que utilicen los clientes.

    En nuestro ejemplo, queremos que los clientes se comuniquen con el servidor sólo por medio de la red pública. Por lo tanto, los archivos incluyen nombres de host de solo dos hosts, los servidores de metadatos activos y posibles:

    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1
    Password:
    [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client1 
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      sharefs2-mds        1        0   server 
    sharefs2-mds_alt  sharefs2-mds_alt    2        0   
    :wq
    [sharefs2-client1]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2
    Password:
    
    [sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client2
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      sharefs2-mds        1        0    server 
    sharefs2-mds_alt  sharefs2-mds_alt    2        0   
    :wq
    [sharefs2-client2]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  4. Si inició este procedimiento cuando finalizó la configuración del servidor, vaya a Montar el sistema de archivos compartido en el servidor activo.

  5. Si inició este procedimiento mientras configuraba un cliente, ahora deberá Montar el sistema de archivos compartido en los clientes de Solaris.

Configurar el almacenamiento en archivo para un sistema de archivos compartido

Para configurar el almacenamiento en archivo para un sistema de archivado de Oracle HSM, realice las siguientes tareas:

Conectar las unidades de cinta al servidor y los hosts del organizador de datos mediante el uso de vinculaciones persistentes

En un sistema de archivado compartido, todos los servidores de metadatos posibles deben tener acceso a las bibliotecas y a las unidades de cinta. Si decide distribuir la E/S de cinta entre los hosts del sistema de archivos de almacenamiento compartido, uno o varios clientes también necesitarán acceso a las unidades. De modo que deberá configurar cada uno de estos hosts para cada una de las unidades de manera coherente.

El sistema operativo Solaris conecta unidades al árbol de dispositivos del sistema en el orden en el cual detecta los dispositivos en el inicio. Este orden puede o no reflejar el orden en el que los dispositivos son detectados por otros hosts de sistema de archivos o el orden en el cual están físicamente instalados en la biblioteca de medios extraíbles. Por lo tanto, deberá enlazar de manera persistente los dispositivos a cada host de la misma manera en que están vinculados a los otros hosts en el mismo orden en el que se han instalado en la biblioteca de medios extraíbles.

En el siguiente procedimiento, se describen los pasos necesarios (para obtener más información sobre cómo crear vinculaciones persistentes, consulte las páginas del comando man de Solaris devfsadm y devlinks y la documentación de administración de su versión del sistema operativo Solaris):

  1. Inicie sesión en el servidor de metadatos activo como root.

    [sharefs-mds]root@solaris:~# 
    
  2. Si no conoce el orden físico actual de las unidades en la biblioteca, cree un archivo de asignación, tal como se describe en Determinar el orden en el cual se instalan las unidades en la biblioteca.

    En el ejemplo, el archivo device-mappings.txt se ve de la siguiente manera:

    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    --------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    
  3. Abra el archivo /etc/devlink.tab en un editor de prueba.

    En el ejemplo, utilizamos el editor vi:

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    # This is the table used by devlinks
    # Each entry should have 2 fields; but may have 3.  Fields are separated
    # by single tab ('\t') characters.
    ...
    
  4. Con el archivo device-mappings.txt como guía, agregue una línea al archivo /etc/devlink.tab que reasigne un nodo de inicio en el árbol de dispositivos de cintas Solaris, rmt/node-number, a la primera unidad de la biblioteca. Introduzca la línea con el formato type=ddi_byte:tape; addr=device_address,0; rmt/node-number\M0, donde device_address es la dirección física del dispositivo y node-number es una posición en el árbol de dispositivos de Solaris que es lo suficientemente alta para evitar conflictos con cualquier dispositivo que Solaris configura automáticamente (Solaris comienza con el nodo 0).

    En el ejemplo, observamos la dirección de dispositivo del primer dispositivo de la biblioteca, 1, w500104f0008120fe, y vemos que el dispositivo actualmente está conectado al host en rmt/1:

    [sharefs-mds] vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -----------   ---------------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    

    Por lo tanto, creamos una línea en /etc/devlink.tab que reasigna el nodo no conflictivo rmt/60 a la unidad número 1 de la biblioteca, w500104f0008120fe:

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    :w
    
  5. Continúe agregando líneas al archivo /etc/devlink.tab para cada dispositivo de cinta asignado para el archivo Oracle HSM, de manera que el orden de las unidades en el árbol de dispositivos en el servidor de metadatos coincida con el orden de instalación en la biblioteca. Guarde el archivo.

    En el ejemplo, observamos el orden y las direcciones de los tres dispositivos restantes, la unidad de biblioteca 2 en w500104f00093c438, la unidad de biblioteca 3 en w500104f000c086e1 y la unidad de biblioteca 4 en w500104f000c086e1:

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    ...
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    

    A continuación, se asignan las direcciones de dispositivo a los siguientes tres nodos de dispositivo de Solaris (rmt/61, rmt/62 y rmt/63), manteniendo el mismo orden que en la biblioteca:

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  6. Suprima todos los enlaces existentes a los dispositivos de cinta en /dev/rmt.

    [sharefs-mds]root@solaris:~# rm /dev/rmt/* 
    
  7. Cree enlaces de dispositivos de cinta nuevos y persistentes a partir de las entradas en el archivo /etc/devlink.tab. Utilice el comando devfsadm -c tape.

    Cada vez que se ejecuta el comando devfsadm, se crean nuevos enlaces de dispositivos de cinta para los dispositivos especificados en el archivo /etc/devlink.tab mediante la configuración especificada por el archivo. La opción -c tape limita el comando a la creación de nuevos enlaces sólo para dispositivos de clase de cinta:

    [sharefs-mds]root@solaris:~# devfsadm -c tape
    
  8. Cree los mismos enlaces de dispositivos de cinta persistentes en cada servidor de metadatos posible y en cada organizador de datos en la configuración del sistema de archivos compartido. Agregue las mismas líneas al archivo /etc/devlink.tab, suprima los enlaces en /dev/rmt y ejecute devfsadm -c tape.

    En el ejemplo, tenemos un servidor de metadatos posible, sharefs-mds_alt, y un cliente de organizador de datos, sharefs-client1. De modo que editamos los archivos /etc/devlink.tab de cada uno para que coincidan con el servidor activo, sharefs-mds. A continuación, suprimimos los enlaces existentes de /dev/rmt en sharefs-mds_alt y sharefs-client1, y ejecutamos devfsadm -c tape en cada uno:

    [sharefs-mds]root@solaris:~# ssh sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* 
    [sharefs-mds_alt]root@solaris:~# devfsadm -c tape
    [sharefs-mds_alt]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-client1]root@solaris:~# rm /dev/rmt/*  
    [sharefs-client1]root@solaris:~# devfsadm -c tape
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  9. Ahora, configure los hosts del sistema de archivos de almacenamiento de modo que puedan usar el almacenamiento de archivo.

Configuración de los hosts de un sistema de archivos de almacenamiento para usar el almacenamiento en archivo

Para el servidor de metadatos activo y para cada servidor de metadatos posible y cliente de organizador de datos, realice lo siguiente:

  1. Inicie sesión en el host como root.

    [sharefs-host]root@solaris:~# 
    
  2. Abra el archivo /etc/opt/SUNWsamfs/mcf y en un editor de texto.

    En el ejemplo, utilizamos el editor vi.

    [sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    sharefs                  100       ms        sharefs on
     /dev/dsk/c1t3d0s3        101       md        sharefs on
     /dev/dsk/c1t3d0s4        102       md        sharefs on
    ...
    
  3. De acuerdo con las definiciones de sistema de archivos del archivo /etc/opt/SUNWsamfs/mcf, inicie una sección para el equipo de almacenamiento en archivo.

    En el ejemplo, agregamos algunos encabezados para mayor claridad:

    [sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    ...
    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    
  4. Para agregar almacenamiento de cintas en archivo, comience por agregar una entrada para la biblioteca. En el campo de identificador de equipo, introduzca el ID de dispositivo para la biblioteca y asigne un número ordinal de equipo:

    En este ejemplo, el identificador de equipo de biblioteca es /dev/scsi/changer/c1t0d5. Configuramos el número ordinal del equipo en 900, el rango que sigue al rango elegido para nuestro archivo de disco:

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900
    
  5. Configure el tipo de equipo en rb, una biblioteca de cintas conectada a SCSI, proporcione un nombre para el conjunto de familias de bibliotecas de cintas y defina el estado del dispositivo en on.

    En el ejemplo, estamos usando la biblioteca library1:

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on
    
  6. En la columna Additional Parameters, puede introducir una ruta y un nombre opcionales y definidos por el usuario para el catálogo de la biblioteca.

    La ruta opcional no predeterminada no puede superar los 127 caracteres. En el ejemplo, se utiliza la ruta por defecto var/opt/SUNWsamfs/catalog/ con el nombre de archivo de catálogo definido por el usuario library1cat. Tenga en cuenta que, debido a limitaciones de diseño del documento, en el ejemplo se abrevia la ruta:

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on     .../library1cat
    
  7. A continuación, agregue una entrada para cada unidad de cinta. Utilice los identificadores de equipo persistentes que establecimos en el procedimiento Conectar las unidades de cinta al servidor y los hosts del organizador de datos mediante el uso de vinculaciones persistentes.

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------  ------ -----------------
    DISKVOL1                  800       ms       DISKVOL1  on
     /dev/dsk/c6t0d1s7         801       md       DISKVOL1  on
     /dev/dsk/c4t0d2s7         802       md       DISKVOL1  on
    /dev/scsi/changer/c1t0d5  900       rb       library1  on     .../library1cat
     /dev/rmt/60cbn            901       tp       library1 on
     /dev/rmt/61cbn            902       tp       library1  on
     /dev/rmt/62cbn            903       tp       library1  on
     /dev/rmt/63cbn            904       tp       library1  on
    
  8. Finalmente, si desea configurar un historiador de Oracle HSM usted mismo, agregue una entrada mediante el uso del tipo de equipo hy. Introduzca un guión en las columnas de conjunto de familias y estado de dispositivo e introduzca la ruta al catálogo del historiador en la columna de parámetros adicionales.

    El historiador es una biblioteca virtual que contiene catálogos de los volúmenes que han sido exportados del archivo. Si no configura un historiador, el software crea uno automáticamente mediante el uso del número ordinal de equipo especificado más alto, más uno.

    Tenga en cuenta que, en el ejemplo, se abrevia la ruta del catálogo del historiador por motivos de diseño de página. La ruta completa es /var/opt/SUNWsamfs/catalog/historian_cat:

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on     ...catalog/library1cat
     /dev/rmt/60cbn           901       tp        library1  on
     /dev/rmt/61cbn           902       tp        library1  on
     /dev/rmt/62cbn           903       tp        library1  on
     /dev/rmt/63cbn           904       tp        library1  on
    historian                999       hy        -         -     .../historian_cat
    
  9. Guarde el archivo mcf y cierre el editor.

    ...
     /dev/rmt/3cbn            904       tp        library1  on
    historian                999       hy         -      -      .../historian_cat
    :wq
    [sharefs-host]root@solaris:~# 
    
  10. Compruebe el archivo mcf para detectar errores mediante la ejecución del comando sam-fsd. Corrija los errores que encuentre.

    El comando sam-fsd lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error:

    [sharefs-host]root@solaris:~# sam-fsd
    ...
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-host]root@solaris:~# 
    
  11. Indique al servicio Oracle HSM que vuelva a leer el archivo mcf y vuelva a realizar la configuración en consecuencia. Corrija los errores que se informen y, si es necesario, repita el procedimiento.

    [sharefs-host]root@solaris:~# samd config
    Configuring SAM-FS
    [sharefs-host]root@solaris:~# 
    
  12. Repita este procedimiento hasta que se hayan configurado todos los servidores de metadatos activos y posibles, y todos los clientes del organizador de datos para usar el almacenamiento en archivo.

  13. Si es necesario, distribuya la E/S de cinta entre los hosts del sistema de archivos de almacenamiento compartido.

  14. Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.

  15. En caso contrario, vaya a Configuración de notificaciones y registro.

Distribuir E/S de cinta en los hosts del sistema de archivado compartido

A partir de Oracle HSM Versión 6.1, cualquier cliente de un sistema de archivos de almacenamiento compartido que se ejecuta en Oracle Solaris 11, o superior, puede conectar unidades de cinta y llevar a cabo E/S de cintas en nombre del sistema de archivos. La distribución de E/S de cinta en estos hosts de organizador de datos reduce en gran medida la sobrecarga del servidor, mejora el rendimiento del sistema de archivos y permite una flexibilidad significativamente mayor cuando se escalan las implementaciones de Oracle HSM. A medida que aumentan las necesidades de archivo, ahora tiene la opción de reemplazar los servidores de metadatos de Oracle HSM con sistemas más potentes (escalamiento vertical) o mediante la distribución de la carga a más clientes (escalamiento horizontal).

Para distribuir E/S de cinta en hosts de sistemas de archivos compartidos, realice lo siguiente:

  1. Conecte todos los dispositivos que se usarán para E/S distribuida al servidor de metadatos del sistema de archivos y a todos los clientes del sistema de archivos que gestionarán la E/S de cinta.

  2. Si aún no lo ha hecho, use vinculaciones persistentes para conectar las unidades de cinta a cada cliente que funcionará como organizador de datos. Luego regrese aquí.

  3. Inicie sesión en el servidor de metadatos del sistema de archivado compartido como root.

    En el ejemplo, el nombre del host del servidor es samsharefs-mds:

    [samsharefs-mds]root@solaris:~# 
    
  4. Asegúrese de que el servidor de metadatos esté ejecutando Oracle Solaris 11, o superior.

    [samsharefs-mds]root@solaris:~# uname -r
    5.11
    [samsharefs-mds]root@solaris:~# 
    
  5. Asegúrese de que todos los clientes que actúan como organizadores de datos estén ejecutando Oracle Solaris 11, o superior.

    En el ejemplo, iniciamos sesión en los hosts de cliente samsharefs-client1 y samsharefs-client2 de manera remota mediante ssh y obtenemos la versión de Solaris del rótulo de inicio de sesión:

    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client1]root@solaris:~# exit
    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client2]root@solaris:~# exit
    [samsharefs-mds]root@solaris:~# 
    
  6. Calcule la cantidad de memoria del sistema que se puede asignar como espacio de buffer para cada unidad de cinta en la configuración de E/S distribuida. Divida la memoria total disponible por el número de unidades y reste un margen de seguridad razonable:

    (total-memory bytes)/(drive-count drives) = memory bytes/drive 
    (memory bytes/drive) - (safe-margin bytes/drive) = buffsize bytes/drive
     
    

    Oracle HSM asigna un buffer para cada unidad que se utiliza. Por lo tanto, asegúrese de no configurar involuntariamente más espacio de buffer que el que puede proporcionar la memoria del sistema. En el ejemplo, se observa que no se pueden asignar más de 224 kilobytes por unidad. Por lo tanto, la cantidad se redondea hacia abajo a 128 para proporcionar un margen de seguridad.

    ((3584 kilobytes)/(16 drives)) = 224 kilobytes/drive
    buffsize = 128 kilobytes/drive
     
    
  7. Una vez que haya calculado el tamaño de buffer que se puede asignar a cada unidad, calcule la cantidad de bloques y el tamaño de bloque del dispositivo Oracle HSM que sean adecuados para un buffer del tamaño especificado.

    (number blocks/buffer)*block-size bytes/block/drive = buffersize bytes/drive
    

    Varíe el número de bloques y el tamaño de bloque hasta que el producto de ambos sea inferior o igual al tamaño de buffer calculado. El número de bloques debe estar en el rango de [2-8192]. En el ejemplo, se definen dos bloques de 64 kilobytes cada uno por buffer:

    (2 blocks/buffer)*(64 kilobytes/block/drive) = 128 kilobytes/drive
    
  8. En el servidor de metadatos, abra el archivo /etc/opt/SUNWsamfs/archiver.cmd en un editor de texto. En una línea nueva de la sección de directivas generales en la parte superior del archivo, escriba bufsize = media-type media-blocks, donde:

    • media-type es el código de tipo que el archivo mcf asigna a las unidades y los medios utilizados para la E/S distribuida.

    • media-blocks es el número de bloques por buffer que se calculó anteriormente.

    Guarde el archivo y cierre el editor.

    En el ejemplo, se inicia sesión en el servidor samsharefs-mds y se usa el editor vi para agregar la línea bufsize = ti 2, donde ti es el tipo de medio para las unidades Oracle StorageTek T10000 utilizadas y 2 es el número de bloques por buffer de unidad que se calculó:

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd
    #       archiver.cmd
    #-----------------------------------------------------------------------
    # General Directives
    archivemeta = off
    examine = noscan
    bufsize = ti 2
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  9. En el servidor de metadatos, abra el archivo /etc/opt/SUNWsamfs/defaults.conf en un editor de texto. Para cada tipo de medio que deba participar en la E/S distribuida, introduzca una línea con el formato media-type_blksize =size donde:

    • media-type es el código de tipo que el archivo mcf asigna a las unidades y los medios utilizados para la E/S distribuida.

    • size es el tamaño de bloque que se calculó anteriormente en este procedimiento.

    Por defecto, el tamaño de bloque de dispositivo para las unidades StorageTek T10000 es de 2 megabytes o 2048 kilobytes (ti_blksize = 2048). Por lo tanto, en el ejemplo, el valor por defecto se sustituye con el tamaño de bloque que se calculó, 64 kilobytes:

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf 
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    ...
    #li_blksize = 256
    ti_blksize = 64
    [samsharefs-mds]root@solaris:~# 
    
  10. Permanezca en el archivo /etc/opt/SUNWsamfs/defaults.conf y elimine el comentario de la línea #distio = off si es necesario o agréguelo si no está presente.

    De forma predeterminada, distio está en off (desactivado). En el ejemplo, se agrega la línea distio = on:

    ...
    distio = on
    
  11. Permanezca en el archivo /etc/opt/SUNWsamfs/defaults.conf y active cada uno de los tipos de dispositivo que deben participar en la E/S distribuida. En una línea nueva, escriba media-type _distio = on, donde media-type es el código de tipo que el archivo mcf asigna a las unidades y los medios.

    De forma predeterminada, las unidades T10000 de StorageTek y las unidades LTO tienen permitido participar en la E/S distribuida (ti_distio = on y li_distio = on), mientras que todos los demás tipos están excluidos. En el ejemplo, se incluyen explícitamente las unidades StorageTek T10000:

    ...
    distio = on
    ti_distio = on
    
  12. Permanezca en el archivo /etc/opt/SUNWsamfs/defaults.conf y desactive cada uno de los tipos de dispositivo que no deben participar en la E/S distribuida. En una línea nueva, escriba media-type _distio = off, donde media-type es el código de tipo que el archivo mcf asigna a las unidades y los medios.

    En el ejemplo, excluimos las unidades LTO:

    ...
    distio = on
    ti_distio = on
    li_distio = off
    
  13. Cuando haya terminado de editar el archivo /etc/opt/SUNWsamfs/defaults.conf, guarde el contenido y cierre el editor.

    ...
    distio = on
    ti_distio = on
    li_distio = off
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  14. En cada cliente que actuará como organizador de datos, edite el archivo defaults.conf de manera que coincida con el archivo en el servidor.

  15. En cada cliente que actuará como organizador de datos, abra el archivo /etc/opt/SUNWsamfs/mcf en un editor de texto y actualice el archivo para que incluya todos los dispositivos de cinta que el servidor de metadatos usa para E/S de cinta distribuida. Asegúrese de que el orden del dispositivo y los números de equipos sean idénticos a aquellos en el archivo mcf en el servidor de metadatos.

    En el ejemplo, usamos el editor vi para configurar el archivo mcf en el host samsharefs-client1:

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
     /dev/rmt/60cbn           901       ti                    on
     /dev/rmt/61cbn           902       ti                    on
     /dev/rmt/62cbn           903       ti                    on
     /dev/rmt/63cbn           904       ti                    on
    
  16. Si la biblioteca de cintas mostrada en el archivo /etc/opt/SUNWsamfs/mcf en el servidor de metadatos está configurada en el cliente que actuará como organizador de datos, especifique el conjunto de familias de bibliotecas como el nombre del conjunto de familias para los dispositivos de cinta utilizados para la E/S de cinta distribuida. Guarde el archivo.

    En el ejemplo, la biblioteca está configurada en el host samsharefs-client1; por lo tanto, usamos el nombre del conjunto de familias library1 para los dispositivos de cinta.

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
    /dev/scsi/changer/c1t0d5 900       rb        library1    on     .../library1cat
     /dev/rmt/60cbn           901       ti        library1    on
     /dev/rmt/61cbn           902       ti        library1    on
     /dev/rmt/62cbn           903       ti        library1    on
     /dev/rmt/63cbn           904       ti        library1    on
    :wq
    [samsharefs-client1]root@solaris:~# 
    
  17. Si la biblioteca de cintas mostrada en el archivo /etc/opt/SUNWsamfs/mcf en el servidor de metadatos no está configurada en el cliente que actuará como organizador de datos, utilice un guión (-) como el nombre del conjunto de familias para los dispositivos de cinta utilizados para la E/S de cintas distribuidas. Luego, guarde el archivo y cierre el editor.

    En el ejemplo, la biblioteca no está configurada en el host samsharefs-client2; por lo tanto, usamos el guión como nombre del conjunto de familias para los dispositivos de cinta:

    [samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
     /dev/rmt/60cbn           901       ti        -           on
     /dev/rmt/61cbn           902       ti        -           on
     /dev/rmt/62cbn           903       ti        -           on
     /dev/rmt/63cbn           904       ti        -           on
    :wq
    [samsharefs-client2]root@solaris:~# 
    
  18. Si necesita activar o desactivar la E/S de cintas distribuidas para copias de conjuntos de archivos en particular, abra el archivo /etc/opt/SUNWsamfs/archiver.cmd en un editor de texto y agregue el parámetro -distio a la directiva de copia. Configure -distio on para activar la E/S distribuida o -distio off para desactivarla. Guarde el archivo.

    En el ejemplo, iniciamos sesión en el servidor samsharefs-mds y usamos el editor vi para desactivar la E/S distribuida mediante off para la copia 1:

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd
    #       archiver.cmd
    ...
    params
    allsets -sort path -offline_copy stageahead
    allfiles.1 -startage 10m -startsize 500M -startcount 500000 -distio off
    allfiles.2 -startage 24h -startsize 20G  -startcount 500000 -reserve set
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  19. Compruebe los archivos de configuración en busca de errores mediante la ejecución del comando sam-fsd. Corrija los errores que encuentre.

    El comando sam-fsd lee los archivos de configuración de Oracle HSM e inicializa los sistemas de archivos. Se detendrá si detecta un error. En el ejemplo, ejecutamos el comando desde el servidor, sharefs-mds:

    [sharefs-mds]root@solaris:~# sam-fsd
    
  20. Indique al servicio de Oracle HSM que lea los archivos de configuración modificados y se reconfigure según corresponda. Corrija los errores que se informen y, si es necesario, repita el procedimiento.

    [sharefs-mds]root@solaris:~# samd config
    
  21. Para comprobar que la E/S distribuida se haya activado correctamente, use el comando samcmd g. Si el indicador DATAMOVER aparece en la salida de los clientes, la E/S distribuida se habrá activado correctamente.

    En el ejemplo, el indicador está presente:

    [samsharefs-mds]root@solaris:~# samcmd g
    Shared clients samcmd 6.0.dist_tapeio 11:09:13 Feb 20 2014
    samcmd on samsharefs-mds
    samsharefs is shared, server is samsharefs-mds, 2 clients 3 max
    ord hostname             seqno nomsgs status   config  conf1  flags
      1 samsharefs-mds          14      0   8091  808540d   4051      0 MNT SVR
     
        config   :   CDEVID      ARCHIVE_SCAN    GFSID   OLD_ARCHIVE_FMT
        "        :   SYNC_META   TRACE   SAM_ENABLED     SHARED_MO
        config1  :   NFSV4_ACL   MD_DEVICES      SMALL_DAUS      SHARED_FS
        flags    :
        status   :   MOUNTED     SERVER  SAM     DATAMOVER
        last_msg :  Wed Jul  2 10:13:50 2014
     
      2 samsharefs-client1     127      0   a0a1  808540d   4041      0 MNT CLI
     
        config   :   CDEVID      ARCHIVE_SCAN    GFSID   OLD_ARCHIVE_FMT
        "        :   SYNC_META   TRACE   SAM_ENABLED     SHARED_MO
        config1  :   NFSV4_ACL   MD_DEVICES      SHARED_FS
        flags    :
        status   :   MOUNTED     CLIENT  SAM     SRVR_BYTEREV
        "        :   DATAMOVER
    ...
    
  22. Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.

  23. En caso contrario, vaya a Configuración de notificaciones y registro.

Acceso a sistemas de archivos desde varios hosts mediante el uso de NFS y SMB/CIFS

Varios hosts pueden acceder a los sistemas de archivos de Oracle HSM mediante el recurso compartido del sistema de archivos de red (NFS) o el bloque de mensajes de servidor (SMB)/el sistema de archivos de Internet común (CIFS), como sustituto o adición de la compatibilidad nativa del software de Oracle HSM para acceso al sistema de archivos de varios hosts (consulte Acceso a sistemas de archivos desde varios hosts mediante el software Oracle HSM). En las siguientes secciones, se describen los pasos de la configuración básica:

Uso compartido de los sistemas de archivos de Oracle HSM mediante NFS

Lleve a cabo las siguientes tareas:

Desactivación de la delegación antes de usar NFS 4 para compartir un sistema de archivos compartido Oracle HSM

Si usa NFS para compartir un sistema de archivos compartido Oracle HSM, deberá garantizar que el software Oracle HSM controle el acceso a los archivos sin interferencia de NFS. Esto generalmente no es un problema porque, cuando el servidor NFS accede a los archivos en nombre de los clientes, lo hace como cliente del sistema de archivos compartido de Oracle HSM. Sin embargo, pueden surgir problemas si los servidores de versión 4 están configurados para delegar el control de acceso de lectura y escritura a los clientes. La delegación es atractiva porque el servidor únicamente necesita intervenir para evitar posibles conflictos. La carga de trabajo del servidor se distribuye parcialmente en los clientes NFS y se reduce el tráfico de red. Sin embargo, la delegación otorga acceso, en especial acceso de escritura, independientemente del servidor de Oracle HSM, que también controla el acceso de sus propios clientes del sistema de archivos compartido. Para evitar conflictos y posibles daños de archivos, deberá desactivar la delegación. Siga los pasos que se describen a continuación.

  1. Inicie sesión en el host del sistema de archivos Oracle HSM que desea configurar como un recurso compartido de NFS. Inicie sesión como usuario root.

    Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En el siguiente ejemplo, el nombre del servidor es qfsnfs.

    [qfsnfs]root@solaris:~# 
    
  2. Si está usando NFS versión 4 y el servidor NFS ejecuta Solaris 11.1 o posterior, use el comando sharectl set -p de la utilidad de gestión de servicios (SMF) para desactivar la propiedad server_delegation de NFS mediante off.

    [qfsnfs]root@solaris:~# sharectl set -p server_delegation=off
    
  3. Si está usando NFS versión 4 y el servidor NFS ejecuta Solaris 11.0 o anterior, desactive las delegaciones mediante la apertura del archivo /etc/default/nfs en un editor de texto y la configuración del parámetro NFS_SERVER_DELEGATION en off. Guarde el archivo y cierre el editor.

    En el ejemplo, utilizamos el editor vi:

    [qfsnfs]root@solaris:~# vi /etc/default/nfs
    # ident "@(#)nfs        1.10    04/09/01 SMI"
    # Copyright 2004 Sun Microsystems, Inc.  All rights reserved.
    # Use is subject to license terms.
    ...
    NFS_SERVER_DELEGATION=off
    :wq
    [qfsnfs]root@solaris:~# 
    
  4. Si el sistema de archivos de Oracle HSM que desea compartir admite la función de escritura única lectura múltiple (WORM), configure los clientes y los servidores NFS para que compartan los archivos y directorios WORM en este momento.

  5. De lo contrario, configure el servidor NFS en el host Oracle HSM.

Configuración de clientes y servidores NFS para compartir archivos y directorios WORM

  1. Inicie sesión en el host del sistema de archivos de Oracle HSM que desea compartir mediante NFS. Inicie sesión como usuario root.

    Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En el siguiente ejemplo, el nombre del servidor es qfsnfs y el nombre del cliente es nfsclient1.

    [qfsnfs]root@solaris:~# 
    
  2. Si el sistema de archivos de Oracle HSM que pretende compartir usa la característica WORM y está alijado en un servidor que se ejecuta en Oracle Solaris 10 o posterior, asegúrese de que NFS versión 4 esté activado en el servidor NFS y en todos los clientes.

    En el ejemplo, comprobamos el servidor qfsnfs y el cliente nfsclient1. En cada caso, primero comprobamos el nivel de la versión de Solaris mediante el uso del comando uname -r. A continuación, canalizamos la salida del comando modinfo a grep y una expresión regular que encuentra la información de versión de NFS:

    [qfsnfs]root@solaris:~# uname -r
    5.11
    [qfsnfs]root@solaris:~# modinfo | grep -i "nfs.* version 4"
    258 7a600000  86cd0  28   1  nfs (network filesystem version 4)
    [qfsnfs]root@solaris:~# ssh root@nfsclient1
    Pasword: ...
    [nfsclient1]root@solaris:~# uname -r
    5.11
    [nfsclient1]root@solaris:~# modinfo | grep -i "nfs.* version 4"
    278 fffffffff8cba000  9df68  27   1  nfs (network filesystem version 4)
    [nfsclient1]root@solaris:~# exit
    [qfsnfs]root@solaris:~# 
    
  3. Si NFS versión 4 no está activado en un servidor que se ejecuta en Oracle Solaris 10 o posterior, inicie sesión como root en el servidor y en cada cliente. A continuación, use el comando sharectl set para activar NFS 4:

    [qfsnfs]root@solaris:~# sharectl set -p server_versmax=4 nfs
    [qfsnfs]root@solaris:~# ssh root@nfsclient1
    Password ...
    [nfsclient1]root@solaris:~# sharectl set -p server_versmax=4 nfs
    [nfsclient1]root@solaris:~# exit
    [qfsnfs]root@solaris:~# 
    
  4. A continuación, configure el servidor NFS en el host Oracle HSM.

Configurar el servidor NFS en el host de Oracle HSM

Antes de que los clientes puedan montar correctamente un sistema de archivos Oracle HSM mediante el sistema de archivos de red (NFS), deberá configurar el servidor NFS para que no intente compartir el sistema de archivos Oracle HSM antes de que el sistema de archivos se haya montado correctamente en el host. En Oracle Solaris 10 ay en las versiones posteriores del sistema operativo, la utilidad de gestión de servicios (SMF) gestiona el montaje de los sistemas de archivos en el inicio. Si no configura NFS mediante el siguiente procedimiento, se ejecutará correctamente el montaje de QFS o del recurso compartido de NFS, y el otro fallará.

  1. Inicie sesión en el host del sistema de archivos Oracle HSM que desea configurar como un recurso compartido de NFS. Inicie sesión como usuario root.

    Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En el siguiente ejemplo, el nombre del servidor es qfsnfs.

    [qfsnfs]root@solaris:~# 
    
  2. Exporte la configuración existente de NFS a un manifiesto XML mediante el redireccionamiento de la salida del comando svccfg export /network/nfs/server.

    En el ejemplo, direccionamos la configuración exportada al archivo del manifiesto /var/tmp/server.xml:

    [qfsnfs]root@solaris:~# svccfg export /network/nfs/server > /var/tmp/server.xml
    [qfsnfs]root@solaris:~# 
    
  3. Abra el archivo del manifiesto en un editor de texto y ubique la dependencia filesystem-local.

    En el ejemplo, abrimos el archivo en el editor vi. La entrada de la dependencia filesystem-local se muestra inmediatamente antes de la entrada de la dependencia nfs-server_multi-user-server:

    [qfsnfs]root@solaris:~# vi /var/tmp/server.xml
    <?xml version='1.0'?>
    <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'>
    <service_bundle type='manifest' name='export'>
      <service name='network/nfs/server' type='service' version='0'>
        ...
        <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/system/filesystem/local'/>
        </dependency>
        <dependent name='nfs-server_multi-user-server' restart_on='none'
            grouping='optional_all'>
          <service_fmri value='svc:/milestone/multi-user-server'/>
        </dependent>
        ...
    
  4. Inmediatamente después de la dependencia filesystem-local, agregue una dependencia qfs que monte el sistema de archivos compartido QFS. A continuación, guarde el archivo y salga del editor.

    Esto montará el sistema de archivos compartido Oracle HSM antes de que el servidor intente compartirlo mediante NFS:

    <?xml version='1.0'?>
    <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'>
    <service_bundle type='manifest' name='export'>
      <service name='network/nfs/server' type='service' version='0'>
        ...
        <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/system/filesystem/local'/>
        </dependency>
        <dependency name='qfs' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/network/qfs/shared-mount:default'/>
        </dependency>
        <dependent name='nfs-server_multi-user-server' restart_on='none'
            grouping='optional_all'>
          <service_fmri value='svc:/milestone/multi-user-server'/>
        </dependent>
    :wq
    [qfsnfs]root@solaris:~# 
    
  5. Valide el archivo del manifiesto mediante el comando svccfg validate.

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    
  6. Si el comando svccfg validate informa errores, corrija los errores y vuelva a validar el archivo.

    En el ejemplo, el comando svccfg validate devuelve errores de análisis de XML. Hemos omitido de forma inadvertida una etiqueta de cierre </dependency> cuando guardamos el archivo. De modo que volvemos a abrir el archivo en el editor vi y corregimos el problema:

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    /var/tmp/server.xml:75: parser error : Opening and ending tag mismatch: dependency line 29 and service
      </service>
                ˆ
    /var/tmp/server.xml:76: parser error : expected '>'
    </service_bundle>
             ˆ
    /var/tmp/server.xml:77: parser error : Premature end of data in tag service_bundle line 3
    ˆ
    svccfg: couldn't parse document
    [qfsnfs]root@solaris:~# vi /var/tmp/server.xml
    ...
    :wq
    [qfsnfs]root@solaris:~# 
    
  7. Una vez que el comando svccfg validate se complete sin errores, desactive NFS mediante el uso del comando svcadm disable nfs/server.

    En el ejemplo, el comando svccfg validate no devolvió salidas, de modo que el archivo es válido y podemos desactivar NFS:

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    [qfsnfs]root@solaris:~# svcadm disable nfs/server
    
  8. Suprima la configuración del servidor NFS existente mediante el uso del comando svccfg delete nfs/server.

    [qfsnfs]root@solaris:~# svccfg delete nfs/server
    
  9. Importe el archivo del manifiesto a la utilidad de gestión de servicios (SMF) mediante el comando svccfg import.

    [qfsnfs]root@solaris:~# svccfg import /var/tmp/server.xml
    
  10. Vuelva a activar NFS mediante el comando svcadm enable nfs/server.

    NFS está configurado para usar la configuración actualizada.

    [qfsnfs]root@solaris:~# svcadm enable nfs/server
    
  11. Confirme que se haya aplicado la dependencia qfs. Asegúrese de que el comando svcs -d svc:/network/nfs/server:default muestre el servicio /network/qfs/shared-mount:default:

    [qfsnfs]root@solaris:~# svcs -d svc:/network/nfs/server:default 
    STATE          STIME    FMRI
    ...
    online         Nov_01   svc:/network/qfs/shared-mount:default
    ...
    
  12. Luego, comparta el sistema de archivos de Oracle HSM como recurso compartido de NFS.

Compartir el sistema de archivos de Oracle HSM como recurso compartido de NFS

Comparta el sistema de archivos de Oracle HSM mediante el uso de los procedimientos que se describen en la documentación de administración de la versión del sistema operativo de Oracle Solaris. En los siguientes pasos, se resume el procedimiento para Solaris 11.1:

  1. Inicie sesión en el host del sistema de archivos de Oracle HSM que desea compartir mediante NFS. Inicie sesión como usuario root.

    Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En el siguiente ejemplo, el nombre del servidor es qfsnfs.

    [qfsnfs]root@solaris:~# 
    
  2. Introduzca la línea de comandos share -F nfs -o sharing-options sharepath donde el conmutador -F especifica el protocolo de uso compartido nfs y sharepath es la ruta al recurso compartido. Si se usa el parámetro opcional -o, sharing-options puede incluir los siguientes:

    • rw otorga privilegios de lectura y escritura de sharepath para todos los clientes.

    • ro otorga privilegios de solo lectura de sharepath para todos los clientes.

    • rw=clients otorga privilegios de lectura y escritura de sharepath para clients, una lista delimitada por dos puntos de uno o más clientes que tienen acceso al recurso compartido.

    • ro=clients otorga privilegios de solo lectura de sharepath para clients, una lista delimitada por dos puntos de uno o más clientes que tienen acceso al recurso compartido.

    En el ejemplo, compartimos la lectura/escritura del sistema de archivos /qfsms con los clientes nfsclient1 y nfsclient2, y de solo lectura con nfsclient3 (tenga en cuenta que el siguiente comando se introduce como una sola línea, el salto de línea se identifica por el carácter de barra diagonal inversa):

    [qfsnfs]root@solaris:~# share -F nfs -o rw=nfsclient1:nfsclient2 \
     ro=nfsclient3 /qfsms
    

    Cuando introduce el comando, el sistema automáticamente reinicia el daemon del servidor NFS, nfsd. Consulte la página del comando man share_nfs para obtener opciones adicionales y detalles.

  3. Compruebe los parámetros de uso compartido mediante el uso de la línea de comandos share -F nfs.

    En el ejemplo, la salida del comando muestra que hemos configurado correctamente el recurso compartido:

    [qfsnfs]root@solaris:~# share -F nfs
    /qfsms   sec=sys,rw=nfsclient1:nfsclient2,ro=nfsclient3
    [qfsnfs]root@solaris:~# 
    
  4. Luego, monte el sistema de archivos NFS compartido de Oracle HSM en los clientes de NFS.

Montar el sistema de archivos NFS compartido de Oracle HSM en los clientes NFS

Monte el sistema de archivos del servidor NFS en un punto de montaje conveniente en los sistemas de clientes. Para cada cliente, siga los pasos detallados a continuación:

  1. Inicie sesión en el cliente como root.

    En el ejemplo, el cliente NFS se denomina nfsclient1:

    [nfsclient1]root@solaris:~# 
    
  2. Realice una copia de seguridad del archivo /etc/vfstab del sistema operativo.

    [nfsclient1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [nfsclient1]root@solaris:~# 
    
  3. Abra el archivo /etc/vfstab en un editor de textos.

    En el ejemplo, utilizamos el editor vi.

    [nfsclient1]root@solaris:~# vi /etc/vfstab
    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    
  4. En la primera columna del archivo /etc/vfstab, nombre el dispositivo de archivos que desea montar mediante la especificación del nombre del servidor NFS y el punto de montaje del sistema de archivos que desea compartir, separados por dos puntos.

    En el ejemplo, el servidor NFS se denomina qfsnfs, el sistema de archivos compartido se denomina qfsms y el punto de montaje en el servidor es /qfsms:

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms
    
  5. En la segunda columna del archivo /etc/vfstab, introduzca un guión (-) de modo que el sistema local no intente comprobar el sistema de archivos remoto en busca de coherencia:

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -
    
  6. En la tercera columna del archivo /etc/vfstab, introduzca el punto de montaje donde montará el sistema de archivos remoto.

    En el ejemplo, el punto de montaje será el directorio /qfsnfs:

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs
    
  7. En la cuarta columna del archivo /etc/vfstab, introduzca el tipo de sistema de archivos nfs.

    #File         Device                           Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs
    

    Usamos el tipo de sistema de archivos nfs, porque el cliente monta el sistema de archivos QFS remoto como un sistema de archivos NFS.

  8. En la quinta columna del archivo /etc/vfstab, introduzca un guión (-), porque el sistema local no está comprobando en sistema de archivo remoto en busca de coherencia.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -
    
  9. En la sexta columna del archivo /etc/vfstab, introduzca yes para montar el sistema de archivos remoto en el inicio o no para montarlo manualmente, a petición.

    En el ejemplo, introducimos yes:

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes
    
  10. En la última columna del archivo /etc/vfstab, introduzca la opción de montaje de NFS hard y intr para forzar reintentos ilimitados e ininterrumpibles, o para configurar un número especificado de reintentos mediante la introducción de las opciones de montaje soft, retrans y timeo con retrans definido en 120 o más, y timeo definido en 3000 décimas de segundo.

    La configuración de la opción de reintento hard o la especificación de la opción soft con un timeout lo suficientemente largo y un número suficiente de reintentos evita que las solicitudes de NFS fallen si los archivos solicitados residen en medios extraíbles que no se pueden montar de inmediato. Consulte la página del comando man mount_nfs de Solaris para obtener más información acerca de estas opciones de montaje.

    En el ejemplo, introducimos la opción de montaje soft:

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes    soft,retrans=120,timeo=3000
    
  11. Si está usando NFS 2, configure el parámetro de montaje rsize en 32768.

    Acepte el valor predeterminado de otras versiones de NFS.

    El parámetro de montaje rsize configura el tamaño del buffer de lectura en 32768 bytes (vs. el predeterminado, 8192 bytes). En el ejemplo, se muestra cómo debe ser una configuración de NFS 2:

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs2:/qfs2 -       /qfsnfs2  nfs    -     yes    ...,rsize=32768 
    
  12. Si está usando NFS 2, configure el parámetro de montaje wsize en 32768.

    Acepte el valor predeterminado de otras versiones de NFS.

    El parámetro de montaje wsize configura el tamaño del buffer de escritura en el número de bytes especificado (de forma predeterminada, 8192 bytes). En el ejemplo, se muestra cómo debe ser una configuración de NFS 2:

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs2:/qfs2 -       /qfsnfs2  nfs    -     yes    ...,wsize=32768 
    
  13. Guarde el archivo /etc/vfstab y salga del editor.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes    soft,retrans=120,timeo=3000
    :wq
    [nfsclient1]root@solaris:~# 
    
  14. Cree un directorio de punto de montaje para el sistema de archivos compartido.

    en el ejemplo, montaremos el sistema de archivos compartido en un directorio denominado /qfsnfs:

    [nfsclient1]root@solaris:~# mkdir /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  15. Cree el punto de montaje especificado en el archivo /etc/vfstab y configure los permisos de acceso para el punto de montaje.

    Los usuarios deben tener permiso de ejecución (x) para cambiar al directorio de punto de montaje y acceder a los archivos del sistema de archivos montado. En el ejemplo, creamos el directorio de punto de montaje /qfsnfs y configuramos los permisos en 755 (-rwxr-xr-x):

    [nfsclient1]root@solaris:~# mkdir /qfsnfs
    [nfsclient1]root@solaris:~# chmod 755 /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  16. Monte el sistema de archivos compartido:

    [nfsclient1]root@solaris:~# mount /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  17. Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.

  18. En caso contrario, vaya a Configuración de notificaciones y registro.

Uso compartido de sistemas de archivos de Oracle HSM mediante SMB/CIFS

SMB hace que Oracle HSM sea accesible para todos los hosts de Microsoft Windows y proporciona interoperabilidad, como no distinción entre mayúsculas y minúsculas, compatibilidad con atributos DOS y compatibilidad con listas de control de acceso NFSv4 (ACL) . El sistema operativo Oracle Solaris ofrece un servidor de protocolo de bloque de mensaje de servidor (SMB) e implementación de cliente que incluye compatibilidad con numerosos dialectos SMB incluidos NT LM 0.12 y sistema de archivos de Internet común (CIFS).

Oracle HSM admite identificadores de seguridad (SID) de Windows. Ya no es necesario definir las entidades de Windows de forma explícita mediante el servicio idmap ni es necesario que las proporcione el servicio de Active Directory.

Para configurar el servicio de SMB con los sistemas de archivos Oracle HSM, realice las siguientes tareas:

Revisar la documentación de configuración y administración de SMB de Oracle Solaris

En las siguientes secciones, se describen las partes del proceso de configuración de SMB que se aplican a los sistemas de archivos de Oracle HSM. No son completas y no cubren todas las situaciones posibles. De modo que deberá revisar las instrucciones completas para configurar los servidores SMB de Oracle Solaris e integrar los servidores en un entorno de Windows existente, y montar los recursos compartidos de SMB en los sistemas de Solaris. Encontrará instrucciones completas en el volumen Gestión de interoperabilidad entre SMB y Windows en Oracle Solaris de la Biblioteca de información de Oracle Solaris.

Asignar identidades de Windows de forma explícita para el servidor SMB (opcional)

Si bien Oracle HSM ahora es completamente compatible con los identificadores de seguridad de Windows (SID), aún resulta ventajoso definir de forma explícita las relaciones entra las entidades de UNIX y SID en determinadas situaciones. Por ejemplo, en entornos heterogéneos, donde los usuarios tienen identidades de UNIX y Windows, es posible que desee crear asignaciones explícitas mediante el uso del servicio idmap para el servicio de Active Directory. Para obtener información completa sobre la interoperabilidad entre SMB y Windows, consulte la documentación del producto para su versión de Oracle Solaris.

Configurar sistemas de archivos de Oracle HSM para uso compartido con SMB/CIFS

Los sistemas de archivos de Oracle HSM que se comparten mediante el uso de SMB/CIFS deben usar la nueva implementación de la lista de control de acceso (ACL) adoptada por el sistema de archivos de red (NFS) versión 4 y presentada con Oracle Solaris 11. Las versiones anteriores de Solaris y NFS usaban ACL basadas en una especificación de borrador POSIX que no es compatible con la implementación de ACL de Windows.

Los nuevos sistemas de archivos que crea con Oracle HSM usan ACL de NFS versión 4 de forma predeterminada en Solaris 11. Sin embargo, si necesita compartir los sistemas de archivos de Oracle HSM existentes con los clientes SMB/CIFS, deberá convertir las ACL con estilo POSIX mediante el procedimiento adecuado:

Conversión de un sistema de archivos Oracle HSM no compartido que usa ACL con estilo POSIX

Siga estos pasos:

  1. Inicie sesión en el host como root.

    En el ejemplo, iniciamos sesión en el host qfs-host:

    [qfs-host]root@solaris:~# 
    
  2. Asegúrese de que el host ejecute Oracle Solaris 11.1 o posterior. Use el comando uname -r.

    [qfs-host]root@solaris:~# uname -r
    5.11
    [qfs-host]root@solaris:~# 
    
  3. Desmonte el sistema de archivos mediante el comando umount mount-point, donde mount-point es el punto de montaje del sistema de archivos de Oracle HSM.

    Para obtener más información, consulte la página del comando man umount_samfs. En los siguientes ejemplos, el nombre del servidor es qfs-host y el sistema de archivos es /qfsms:

    [qfs-host]root@solaris:~# umount /qfsms
    
  4. Convierta el sistema de archivos mediante el comando samfsck -F -A file-system, donde la opción -F especifica una comprobación y reparación del sistema de archivos, la opción -A especifica la conversión de las ACL y file-system es el nombre del sistema de archivos que necesita convertir.

    La opción -F es necesaria cuando se especifica la opción -A. Si el comando samfsck -F -A devuelve errores, el proceso se interrumpe y no se convierten las ACL (para obtener descripciones completas de estas opciones, consulte la página del comando man samfsck).

    [qfs-host]root@solaris:~# samfsck -F -A /qfsms
    
  5. Si se devuelven errores y no se convierten las ACL, use el comando samfsck -F -a file-system para forzar la conversión de las ACL.

    La opción -a especifica una conversión forzada. La opción -F es necesaria cuando se especifica la opción -a (para obtener descripciones completas de estas opciones, consulte la página del comando man samfsck).

    [qfs-host]root@solaris:~# samfsck -F -a /qfsms
    
  6. Ahora, configure el servidor SMB para dominios o grupos de trabajo de Windows Active Directory.

Conversión de un sistema de archivos Oracle HSM compartido que usa ACL con estilo POSIX
  1. Inicie sesión en el servidor de metadatos del sistema de archivos como usuario root.

    En el ejemplo, iniciamos sesión en el servidor de metadatos sharedqfs-mds:

    [sharedqfs-mds]root@solaris:~# 
    
  2. Asegúrese de que el servidor de metadatos ejecute Oracle Solaris 11.1 o posterior. Use el comando uname -r.

    [sharedqfs-mds]root@solaris:~# uname -r
    5.11
    [sharedqfs-mds]root@solaris:~# 
    
  3. Inicie sesión en cada cliente Oracle HSM como root y asegúrese de que cada cliente ejecute Oracle Solaris 11.1 o posterior.

    En el ejemplo, abrimos las ventanas del terminal e iniciamos sesión de forma remota en los hosts de cliente sharedqfs-client1 y sharedqfs-client2 mediante el uso de ssh para obtener la versión de Solaris del banner de inicio de sesión:

    [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client1
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client1]root@solaris:~# 
    
    [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client2
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client2]root@solaris:~# 
    
  4. Desmonte el sistema de archivos compartido de Oracle HSM de cada cliente de Oracle HSM con el comando umount mount-point, donde mount-point es el punto de montaje del sistema de archivos de Oracle HSM.

    Para obtener más información, consulte la página del comando man umount_samfs. En el ejemplo, desmontamos /sharedqfs1 de nuestros dos clientes, sharedqfs-client1 y sharedqfs-client2:

    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client1]root@solaris:~# umount /sharedqfs
    [sharedqfs-client1]root@solaris:~# 
    
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client2]root@solaris:~# umount /sharedqfs
    [sharedqfs-client1]root@solaris:~# 
    
  5. Desmonte el sistema de archivos compartido Oracle HSM del servidor de metadatos mediante el comando umount -o await_clients=interval mount-point, donde mount-point es el punto de montaje del sistema de archivos Oracle HSM e interval es la demora en segundos especificada por la opción -o await_clients que demora la ejecución.

    Cuando se ejecuta el comando umount en el servidor de metadatos de un sistema de archivos compartido Oracle HSM, la opción -o await_clientshace que umount espere la cantidad especificada de segundos para que los clientes tengan tiempo de desmontar el recurso compartido. No tiene efecto si desmonta un sistema de archivos no compartido o ejecuta el comando en un cliente Oracle HSM. Para obtener más información, consulte la página del comando man umount_samfs.

    En el ejemplo, desmontamos el sistema de archivos /sharedqfs del servidor de metadatos sharedqfs-mds y otorgamos 60 segundos para el desmontaje de los clientes:

    [sharedqfs-mds]root@solaris:~# umount -o await_clients=60 /sharedqfs
    
  6. Convierta el sistema de archivos de las ACL de estilo POSIX a las ACL de NFS versión 4. En el servidor de metadatos, use el comando samfsck -F -A file-system, donde la opción -F especifica una comprobación y reparación del sistema de archivos, la opción -A especifica la conversión de las ACL y file-system es el nombre del sistema de archivos que necesita convertir.

    La opción -F es necesaria cuando se especifica la opción -A. Si el comando samfsck -F -A file-system devuelve errores, el proceso el proceso se interrumpe y no se convierten las ACL (para obtener descripciones completas de estas opciones, consulte la página del comando man samfsck). En el ejemplo, convertimos un sistema de archivos Oracle HSM denominado /sharedqfs:

    [sharedqfs-mds]root@solaris:~# samfsck -F -A /sharedqfs
    
  7. Si se devuelven errores y no se convierten ACL, convierta de forma forzosa las ACL. En el servidor de metadatos, use el comando samfsck -F -a file-system.

    La opción -a especifica una conversión forzada. La opción -F es necesaria cuando se especifica la opción -a (para obtener descripciones completas de estas opciones, consulte la página del comando man samfsck). En el ejemplo, convertimos de forma forzosa el sistema de archivos de Oracle HSM denominado /qfsma:

    [sharedqfs-mds]root@solaris:~# samfsck -F -a /sharedqfs
    
  8. Ahora, configure el servidor SMB para dominios o grupos de trabajo de Windows Active Directory.

Configurar el servidor SMB para dominios o grupos de trabajo de Windows Active Directory

Los servicios SMB de Oracle Solaris pueden funcionar en uno de dos modos mutuamente excluyentes: dominio o grupo de trabajo. Elija uno o el otro según su entorno y sus necesidades de autenticación:

Configuración del servidor SMB en modo de dominio
  1. Comuníquese con el administrador de Windows Active Directory y obtenga la siguiente información:

    • El nombre de la cuenta de usuario autenticada de Active Directory que necesita usar cuando se une al dominio de Active Directory.

    • La unidad organizativa que necesita usar en lugar del contenedor Computers predeterminado de la cuenta (si corresponde).

    • El nombre de dominio LDAP/DNS completamente calificado para el dominio donde se compartirá el sistema de archivos de Oracle HSM.

  2. Inicie sesión en el host del sistema de archivos Oracle HSM que desea configurar como un recurso compartido de SMB/CIFS. Inicie sesión como usuario root.

    Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En los siguientes ejemplos, el nombre del servidor es qfssmb.

    [qfssmb]root@solaris:~# 
    
  3. Los servidores SMB y Samba de código abierto no se pueden usar en conjunto en un único sistema de Oracle Solaris. Observe si el servicio de Samba se está ejecutando. Canalice la salida del comando de estado de servicios svcs a grep y la expresión regular samba.

    En el ejemplo, la salida del comando svcs contiene una coincidencia para la expresión regular, de modo que el servicio SMB se está ejecutando:

    [qfssmb]root@solaris:~# svcs | grep samba
    legacy_run     Nov_03   lrc:/etc/rc3_d/S90samba
    
  4. Si el servicio de Samba (svc:/network/samba) se está ejecutando, desactívelo junto con el Servicio de nombres Internet de Windows/WINS (svc:/network/wins), si se está ejecutando. Use el comando svcadm disable.

    [qfssmb]root@solaris:~# svcadm disable svc:/network/samba
    [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
    
  5. Ahora, use el comando svcadm enable -r smb/server para iniciar el servidor SMB y cualquier servicio del que dependa.

    [qfssmb]root@solaris:~# svcadm enable -r smb/server
    
  6. Asegúrese de que el reloj del sistema del host de Oracle HSM esté dentro de los cinco minutos del reloj del sistema del controlador de dominio de Microsoft Windows:

    • Si el controlador del dominio de Windows usa los servidores de protocolo de tiempo de red (NTP), configure el host de Oracle HSM para que use los mismos servidores. Cree un archivo /etc/inet/ntpclient.conf en el host de Oracle HSM e inicie el daemon ntpd mediante el comando svcadm enable ntp (consulte la página del comando man ntpd y la documentación de administración de Oracle Solaris para obtener información completa).

    • De lo contrario, sincronice el host de Oracle HSM con el controlador de dominio mediante la ejecución del comando ntpdate domain-controller-name (consulte la página del comando man ntpdate para obtener más información) o configure manualmente el reloj del sistema del host de Oracle HSM en la hora que muestra el reloj del sistema del controlador de dominio.

  7. Únase al dominio de Windows mediante el comando smbadm join -u username -o organizational-unit domain-name, donde username es el nombre de la cuenta de usuario especificada por el administrador de Active Directory, la organizational-unit opcional es el contenedor de cuenta especificado (si corresponde) y domain-name es el nombre de dominio DNS o LDAP totalmente calificado.

    En el ejemplo, unimos el dominio de Windows this.example.com mediante la cuenta de usuario.

    [qfssmb]root@solaris:~# smbadm join -u admin -o smbsharing this.example.com
    
  8. Ahora, comparta el sistema de archivos de Oracle HSM como recurso compartido de SMB/CIFS.

Configuración del servidor SMB en modo de grupo de trabajo
  1. Comuníquese con el administrador de red de Windows y obtenga el nombre del grupo de trabajo de Windows al que se deberá unir el host del sistema de archivos de Oracle HSM.

    El grupo de trabajo predeterminado se denomina WORKGROUP.

  2. Inicie sesión en el host del sistema de archivos de Oracle HSM. Inicie sesión como usuario root.

    Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En los siguientes ejemplos, el nombre del servidor es qfssmb.

    [qfssmb]root@solaris:~# 
    
  3. Los servidores SMB y Samba de código abierto no se pueden usar en conjunto en un único sistema de Oracle Solaris. Observe si el servicio de Samba se está ejecutando. Canalice la salida del comando de estado de servicios de svcs a grep y la expresión regular samba.

    En el ejemplo, la salida del comando svcs contiene una coincidencia para la expresión regular, de modo que el servicio SMB se está ejecutando:

    [qfssmb]root@solaris:~# svcs | grep samba
    legacy_run     Nov_03   lrc:/etc/rc3_d/S90samba
    
  4. Si el servicio de Samba (svc:/network/samba) se está ejecutando, desactívelo junto con los servicios del Servicio de nombres Internet de Windows/WINS (svc:/network/wins), si se está ejecutando. Use el comando svcadm disable.

    Los servidores SMB y Samba no se pueden usar en conjunto en un único sistema de Oracle Solaris.

    [qfssmb]root@solaris:~# svcadm disable svc:/network/samba
    [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
    
  5. Ahora, use el comando svcadm enable -r smb/server para iniciar el servidor SMB y cualquier servicio del que dependa.

    [qfssmb]root@solaris:~# svcadm enable -r smb/server
    
  6. Únase al grupo de trabajo. Únase al grupo de trabajo mediante smbadm join con el conmutador -w (grupo de trabajo) y el nombre del grupo de trabajo especificado por el administrador de red de Windows.

    En el ejemplo, el grupo de trabajo especificado se denomina crossplatform.

    [qfssmb]root@solaris:~# smbadm join -w crossplatform
    
  7. Configure el host de Oracle HSM para cifrado de contraseñas SMB. Abra el archivo /etc/pam.d/other en un editor de texto, agregue la línea de comandos password required pam_smb_passwd.so.1 nowarn y guarde el archivo.

    En el ejemplo, utilizamos el editor vi:

    [qfssmb]root@solaris:~# vi /etc/pam.d/other
    # Copyright (c) 2012, Oracle and/or its affiliates. All rights reserved.
    #
    # PAM configuration
    #
    # Default definitions for Authentication management
    # Used when service name is not explicitly mentioned for authentication
    #
    auth definitive         pam_user_policy.so.1
    ...
    password required       pam_authtok_store.so.1
    password required pam_smb_passwd.so.1 nowarn
    :wq
    [qfssmb]root@solaris:~# 
    

    Para obtener más información, consulte la página del comando man pam_smb_passwd.

  8. Una vez que se haya instalado el módulo pam_smb_passwd, use el comando passwd local-username para generar una versión cifrada de la contraseña para el usuario local-username, de modo que el servidor SMB pueda iniciar sesión en el grupo de trabajo de Windows.

    El servidor SMB no puede autenticar usuarios mediante las mismas versiones cifradas de las contraseñas que usa el sistema operativo de Solaris. En el ejemplo, generamos una contraseña de SMB cifrada para el usuario smbsamqfs:

    [qfssmb]root@solaris:~# passwd smbsamqfs
    
  9. Ahora, comparta el sistema de archivos de Oracle HSM como recurso compartido de SMB/CIFS.

Compartir el sistema de archivos de Oracle HSM como un recurso compartido de SMB/CIFS

Comparta el sistema de archivos de Oracle HSM mediante el uso de los procedimientos que se describen en la documentación de administración de la versión del sistema operativo de Oracle Solaris. En los siguientes pasos, se resume el procedimiento para Solaris 11.1:

  1. Inicie sesión en el host del sistema de archivos Oracle HSM que desea configurar como un recurso compartido de SMB/CIFS. Inicie sesión como usuario root.

    Si el sistema de archivos es un sistema de archivos compartido Oracle HSM, inicie sesión en el servidor de metadatos del sistema de archivos. En los siguientes ejemplos, el nombre del servidor es qfssmb.

    [qfssmb]root@solaris:~# 
    
  2. Configure el recurso compartido. Introduzca la línea de comandos share -F smb -o specific-options sharepath sharename, donde el conmutador -F especifica el protocolo de uso compartido smb, sharepath es la ruta al recurso compartido y sharename es el nombre que desea usar para el recurso compartido. El valor del parámetro -o opcional, sharing-options, puede incluir cualquiera de las siguientes opciones:

    • abe=[true|false]

      Cuando la política de enumeración basada en acceso (ABE) de un recurso compartido es true, las entradas del directorio a las que el usuario solicitante no tiene acceso se omiten de los listados de directorio que se devuelven al cliente.

    • ad-container=cn=user,ou=organization,dc=domain-dns

      El contenedor de Active Directory limita el acceso compartido a los objetos de dominio especificados por los valores de atributo del nombre distintivo relacionado (RDN) con el protocolo ligero de acceso a directorios (LDAP): cn (clase de objeto de usuario), ou (clase de objeto de unidad organizativa) y dc (clase de objeto DNS de dominio).

      Para obtener información completa sobre el uso de contenedores de Active Directory con SMB/CIFS, consulte Internet Engineering Task Force Request For Comment (RFC) 2253 y la documentación de los servicios de directorio de Microsoft Windows.

    • catia=[true|false]

      Si la sustitución de caracteres CATIA es true, cualquier carácter de un nombre de archivos CATIA versión 4 que sea ilegal en Windows será reemplazado por equivalentes legales. Consulte la página del comando man share_smb para ver la lista de sustituciones.

    • csc=[manual|auto|vdo|disabled]

      Una política de almacenamiento en caché del lado del cliente (csc) controla el almacenamiento en caché del lado del cliente de archivos para uso sin conexión. La política manual permite a los clientes almacenar archivos en caché si lo solicitan los usuarios, pero desactivar la reintegración automática, de archivo por archivo (esto es predeterminado). La política auto permite a los clientes almacenar archivos en caché de forma automática y permite la reintegración automática de archivo por archivo. La política vdo permite a los clientes almacenar archivos en caché automáticamente para uso sin conexión, activa la reintegración archivo por archivo y permite a los clientes trabajar desde la caché local incluso si están sin conexión. La política disabled no permite el almacenamiento en caché del lado del cliente.

    • dfsroot=[true|false]

      En un sistema de archivos distribuidos de Microsoft (DFS), un recurso compartido de raíz (dfsroot=true) es el recurso compartido que organiza un grupo de carpetas compartidas ampliamente distribuidas en un único sistema de archivos DFS que se puede gestionar con mayor facilidad. Para obtener más información, consulte la documentación de Microsoft Windows Server.

    • guestok=[true|false]

      Si la política guestok es true, la cuenta guest definida de forma local puede acceder al recurso compartido. Cuando es false o se deja sin definir (valor predeterminado), la cuenta guest no puede acceder al recurso compartido. Esta política le permite asignar el usuario Guest de Windows a un nombre de usuario de UNIX definido localmente, como guest o nobody:

      # idmap add winname:Guest unixuser:guest
      

      La cuenta de usuario definida localmente se puede autenticar luego con una contraseña almacenada en /var/smb/smbpasswd, si lo desea. Consulte la página del comando man idmap para obtener más información.

    • rw=[*|[[-]criterion][:[-]criterion]...

      La política rw otorga o deniega el acceso a cualquier cliente que coincide con la lista de acceso suministrada.

      Las listas de acceso contienen un único asterisco (*) que significa all o una lista delimitada por dos puntos de criterios de acceso de cliente, donde cada criterion incluye un signo menos opcional (-), lo que significa denegación, seguido de un nombre de host, un grupo de red, un nombre de dominio DNS o LDAP completo y/o el símbolo @ más todo o parte de una dirección IP o nombre de dominio. Las listas de acceso se evalúan de izquierda a derecha hasta que el cliente satisface uno de los criterios. Para obtener más información, consulte la página del comando man share_smb.

    • ro=[*|[[-]criterion][:[-]criterion]...

      La política ro otorga o deniega el acceso de solo lectura a cualquier cliente que coincide con la lista de acceso.

    • none=[*|[[-]criterion][:[-]criterion]...

      La política none deniega el acceso a cualquier cliente que coincide con la lista de acceso. Si la lista de acceso es un asterisco (*), las políticas ro y rw pueden sustituir la política none.

    En el ejemplo, compartimos la lectura/escritura del sistema de archivos /qfsms con los clientes smbclient1 y smbclient2, y de solo lectura con smbclient3:

    [qfssmb]root@solaris:~# share -F smb -o rw=smbclient1:smbclient2 
    ro=smbclient3 /qfsms
    

    Cuando introduce el comando, el sistema automáticamente reinicia el daemon del servidor SMB, smbd.

  3. Compruebe los parámetros de uso compartido. Use el comando share -F nfs.

    En el ejemplo, la salida del comando muestra que hemos configurado correctamente el recurso compartido:

    [qfssmb]root@solaris:~# share -F smb /qfsms
    sec=sys,rw=smbclient1:smbclient2,ro=smbclient3
    [qfssmb]root@solaris:~# 
    
  4. Si planea usar la función de base de datos de banda lateral, vaya a Configuración de la base de datos de informes.

  5. En caso contrario, vaya a Configuración de notificaciones y registro.