3 Configuración de dispositivos y hosts de almacenamiento

Realice las tareas de configuración de almacenamiento que se describen en este capítulo antes de continuar con la instalación y la configuración de Oracle HSM. En este capítulo, se describen los siguientes temas:

Configuración del almacenamiento principal

En un sistema de archivos Oracle HSM, los dispositivos de disco principal o los dispositivos de disco de estado sólido almacenan archivos que están siendo usados y modificados de forma activa. Siga las siguientes directrices cuando configure los dispositivos de disco o los dispositivos de disco de estado sólido para la caché.

Configuración de dispositivos para la caché principal

  1. Para calcular una capacidad de inicio para la caché primaria, decida la cantidad de datos que cada sistema de archivos contendrá cuando esté lleno.

  2. Aumente esta capacidad de inicio en un 10% para admitir los metadatos del sistema de archivos.

  3. Si se está preparando para un sistema de archivos de alto rendimiento de tipo ma, configure hardware para los dispositivos de metadatos mm. Lo ideal es un grupo de volúmenes RAID 10 (1+0) de cuatro discos, controlado por hardware por dispositivo de metadatos mm. Considere el uso de dispositivos de disco de estado sólido para alcanzar un máximo rendimiento.

    Las características de las matrices RAID 10 de reflejo segmentado son ideales para almacenar metadatos de Oracle HSM. El hardware de almacenamiento RAID 10 es altamente redundante, de modo que se protegen los metadatos críticos. El rendimiento es mayor y la latencia es menor que en la mayoría de otras configuraciones RAID.

    Un matriz controlada por un hardware de controlador dedicado generalmente ofrece un mayor rendimiento que una matriz controlada por un software que se ejecuta en un procesador de propósito general.

    Los dispositivos de estado sólido son particularmente útiles para almacenar metadatos, es decir, por su naturaleza, se actualizan y se leen con frecuencia.

  4. Si está usando una matriz de disco externo para el almacenamiento en caché principal, configura los grupos de volúmenes RAID 5 3+1 o 4+1 para cada dispositivo md o mr en la configuración del sistema de archivos. Configure un volumen lógico (LUN) en cada grupo de volúmenes.

    Para un número determinado de discos, los grupos de volúmenes RAID 5 3+1 y 4+1 proporcionan un mayor paralelismo y, por lo tanto, un mayor rendimiento de entrada/salida (E/S) que los grupos de volúmenes más grandes. Los dispositivos de disco individuales de los grupos de volúmenes RAID 5 no funcionan de manera independiente, desde la perspectiva de E/S, cada grupo de volúmenes actúa como un único dispositivo. De modo que la división de un número determinado de discos en grupos de volúmenes 3+1 y 4+1 crea más dispositivos independientes, mejor paralelismo y menor contención de E/S que otras configuraciones equivalentes más grandes.

    Los grupos de RAID más pequeños ofrecen menor capacidad, debido al radio de paridad mayor para almacenamiento. Sin embargo, para la mayoría de los usuarios, esto es más que desplazamiento por ganancias de rendimiento. En un sistema de archivado, la reducción pequeña de la capacidad de caché de disco se ve desplazada completamente por la capacidad, en comparación ilimitada, disponible en el archivo.

    La configuración de volúmenes lógicos múltiples (LUN) en un grupo de volúmenes hace que la E/S de los volúmenes separados lógicamente compita por un conjunto de recursos que pueden atender únicamente una E/S por vez. Esto aumenta la sobrecarga relacionada con E/S y disminuye el rendimiento.

  5. A continuación, comience a configurar el almacenamiento en archivo.

Configuración de almacenamiento en archivo

Lleve a cabo las siguientes tareas:

Asignación de zonas a dispositivos conectados a SAN

Asegúrese de que se haya realizado la asignación de zonas de la red de área de almacenamiento (SAN) para permitir la comunicación entre la unidad y los adaptadores de bus de host en los hosts de Oracle HSM. Para controlar la asignación de zonas, siga estos pasos:

Asignación correcta de zonas de todos los dispositivos en la configuración de Oracle HSM

  1. Asegúrese de que el host pueda ver los dispositivos en la SAN. Introduzca el comando de administración de configuración de Solaris cfgadm con las opciones -al (lista de puntos de conexión) y -o show_SCSI_LUN. Examine la salida del nombre World Wide Name (WWN) del puerto de la unidad.

    La primer columna de la salida muestra el ID de punto de conexión (Ap_id), que está formado por el número de controlador del adaptador de bus de host y el WWN, separados por comas. La opción -o show_SCSI_LUN muestra todos los LUN en el nodo si el nodo es la unidad con puente que controla un cambiador de medios mediante una interfaz ADI.

    root@solaris:~# cfgadm -al -o show_SCSI_LUN
    Ap_Id     Type Receptacle Occupant   Condition
    c2::500104f000937528   tape connected  configured   unknown
    c3::50060160082006e2,0 tape connected  unconfigured unknown
    
  2. Si el nombre WWN de la unidad no se muestra en la salida de cfgadm -al -o show_SCSI_LUN, la unidad no está visible. Hay algo incorrecto en la configuración de SAN. Compruebe nuevamente las conexiones de SAN y la configuración de las zonas. Luego repita el paso anterior.

  3. Si la salida del comando cfgadm -al muestra que una unidad no está configurada, ejecute el comando nuevamente, esta vez mediante el uso del conmutador -c (configure).

    El comando genera los archivos de dispositivo necesarios en /dev/rmt:

    root@solaris:~# cfgadm -al
    Ap_Id     Type Receptacle Occupant   Condition
    c2::500104f000937528   tape connected  configured   unknown
    c3::50060160082006e2,0 tape connected  unconfigured unknown
    root@solaris:~# cfgadm -c configure 50060160082006e2,0 
    
  4. Compruebe la asociación entre el nombre de dispositivo y el nombre World Wide Name. Use el comando ls -al /dev/rmt | grep WWN, donde WWN es el World Wide Name.

    root@solaris:~# ls -al /dev/rmt | grep 50060160082006e2,0
    lrwxrwxrwx 1 root root 94 May 20 05:05 3un -> \
    ../../devices/pci@1f,700000/SUNW,qlc@2/fp@0,0/st@w50060160082006e2,0:
    
  5. Si tiene el nivel de parche de Solaris mínimo recomendado, configure el almacenamiento de disco ahora.

  6. De lo contrario, obtenga el ID de destino para su dispositivo.

  7. Edite /kernel/drv/st.conf. Agregue la entrada especificada por el proveedor a tape-config-list y especifique el ID de destino determinado arriba.

  8. Fuerce la recarga del módulo st. Use el comando update_drv -f st.

    root@solaris:~# update_drv -f st
    root@solaris:~# 
    
  9. A continuación, configure el almacenamiento de disco.

Configurar el almacenamiento de disco en archivo

Los sistema de archivos de almacenamiento de Oracle HSM pueden almacenar archivos en disco, además de medios de cinta. Si un sistema de archivos de disco se configura como archivo de disco, el software usa el sistema de archivos de manera similar a un cartucho de cinta. Como dirección del sistema de archivos, utiliza el número de serie de volumen (VSN) y almacena copias en los archivos de almacenamiento de cinta (tar).

El almacenamiento en archivo basado en disco puede aumentar la flexibilidad y la redundancia de una solución de archivado. Los dispositivos de disco de acceso aleatorio no generan la sobrecarga de montaje y de posicionamiento asociada con los dispositivos de cinta de acceso secuencial. Por lo tanto, es probable que las soluciones que archivan y recuperan un número proporcionalmente alto de archivos pequeños puedan hacerlo de manera más rápida y confiable si almacenan la primera copia de cada archivo en disco. Las soluciones de archivado que deben mantener copias en medios fuera del sitio, con frecuencia, pueden hacerlo simplemente escribiendo una copia en sistemas de archivos montados en NFS que residen en disco en hosts remotos.

Oracle Storage Cloud Software Appliance (OSCSA) puede ampliar aún más la utilidad de ese almacenamiento en archivo montado en NFS usando el espacio de disco local limitado del host remoto como caché de front-end para obtener almacenamiento basado en la nube y esencialmente ilimitado. El dispositivo consiste en un host de Oracle Linux 7 (o posterior) configurado con el sistema de archivos de red versión 4 (NFSv4), el software de gestión de contenedores Docker Engine 1.6 (o posterior) de código abierto y una imagen de Docker de Oracle Storage Cloud Software Appliance.

Si planea usar almacenamiento de disco en archivo, primero determine la capacidad total, la cantidad de volúmenes de archivo y la cantidad de sistemas de archivos que se requieren. Luego, si planea configurar el almacenamiento de disco en archivo en la nube de almacenamiento de Oracle, provisione la cantidad necesaria de Oracle Storage Cloud Software Appliances.

Determinar los requisitos de capacidad, volúmenes y sistemas de archivos

Planifique una cantidad suficiente de recursos de hardware para manejar la carga de trabajo anticipada. Si existen operaciones simultáneas de archivado y almacenamiento provisional de Oracle HSM que deben competir entre sí o con otras aplicaciones por el mismo juego de dispositivos físicos, el rendimiento se ve perjudicado. Por lo tanto, siga las siguientes directrices:

  1. Permita que haya un volumen de disco (disco o grupo RAID) para cada operación de Oracle HSM y cada 10 a 20 terabytes de datos archivados.

    Establezca cuotas si a los volúmenes de disco se les asigna almacenamiento de manera dinámica desde una agrupación de dispositivos de disco. Asegúrese de que no se supere el almacenamiento físico subyacente.

  2. Permita que haya un sistema de archivos por volumen de disco.

    No configure dos o más sistemas de archivos en LUN que residan en la misma unidad física o grupo RAID.

  3. Planifique utilizar cada sistema de archivos como un solo archivo de disco.

    No utilice los subdirectorios como volúmenes de archivo separados.

  4. Planifique utilizar cada sistema de archivos estrictamente para archivado.

    No utilice un sistema de archivos de propósito general como archivo de disco.

  5. A continuación, cree los sistemas de archivos remotos que planee utilizar como archivos de disco montados en NFS.

Crear sistemas de archivos remotos para usarlos como archivos de disco montados en NFS

  1. Cree los sistemas de archivos remotos que desee utilizar como archivos de disco.

    Cree sistemas de archivos nuevos y dedicados. No utilice sistemas de archivos de propósito general existentes que se deban compartir con otras aplicaciones.

    Tenga en cuenta que creará los sistemas de archivos de almacenamiento de disco montados localmente más adelante, cuando configure los servidores Oracle HSM.

  2. Si planea usar la nube de almacenamiento de Oracle como parte de una solución de archivado en disco, configure los hosts de Oracle Storage Cloud Software Appliance en este momento.

  3. De lo contrario, configure el almacenamiento de cinta en archivo.

Configurar los hosts de Oracle Storage Cloud Software Appliance

  1. Descargue la documentación de OSCSA más reciente de Oracle Cloud (Nube) > Public (Pública) > Infrastructure (Infraestructura) > Storage (Almacenamiento) > Storage Cloud Software Appliance (http://docs.oracle.com/cloud/latest/storagecs_common/CSSGU/).

    Para mayor comodidad, en este procedimiento, se resumen los requisitos del sistema y el proceso de configuración. Pero siempre se debe consultar la documentación del producto de OSCSA y el archivo README para obtener la información más completa y actualizada.

  2. Póngase en contacto con el equipo de ventas de Oracle. Adquiera una suscripción a Oracle Storage Cloud Service y solicite la imagen de Oracle Storage Cloud Software Appliance.

  3. Para cada host de dispositivo, proporcione un servidor x86 de propósito general con al menos dos procesadores centrales de doble núcleo (CPU) y 4 gigabytes de memoria de acceso aleatorio (RAM).

  4. Tenga Oracle Linux 7 (versión de núcleo 3.10 o superior) instalado en cada host de OSCSA.

    Puede obtener Oracle Linux de Oracle Software Delivery Cloud (https://edelivery.oracle.com/).

  5. Tenga Docker 1.6.1 o superior instalado en cada host de OSCSA.

    Docker es una plataforma de distribución de código abierto para contenedores de software. Puede obtener Docker en Docker (https://www.docker.com).

  6. Tenga el servicio del sistema de archivos de red versión 4 (NFSv4) instalado en cada host de OSCSA.

    Los hosts de Oracle HSM usan NFSv4 para montar de manera remota los sistemas de archivos Linux que conforman la caché de front-end de OSCSA.

  7. Instale y configure Oracle Storage Cloud Software Appliance según las instrucciones que se proporcionan en el documento de OSCSA Using Oracle Storage Cloud Software Appliance (http://docs.oracle.com/cloud/latest/storagecs_common/CSSGU/) (Uso de Oracle Storage Cloud Software Appliance).

  8. Cree sistemas de archivos de caché de OSCSA como se indica en la documentación de OSCSA.

  9. A continuación, configure el almacenamiento de cinta.

Configurar el almacenamiento de cintas en archivo

Lleve a cabo las siguientes tareas:

Determinar el orden en el cual se instalan las unidades en la biblioteca

Si su biblioteca automatizada contiene más de una unidad, el orden de las unidades en el archivo de configuración maestro de Oracle HSM (mcf) debe ser el mismo que el orden en el que se observan las unidades en el controlador de la biblioteca. Este orden puede ser distinto del orden en el cual los dispositivos se observan en el host y se informan en el archivo de host /var/adm/messages.

Para cada servidor de metadatos de Oracle HSM y cada host de organizador de datos, determine el orden de unidades mediante la realización de las tareas que se enumeran abajo:

Obtención de información de la unidad para la biblioteca y el host Solaris
  1. Consulte la documentación de la biblioteca. Observe cómo se identifican las unidades y los objetivos. Si hay un panel de operador local, observe cómo puede ser utilizado para determinar el orden de las unidades.

  2. Si la biblioteca tiene un panel de operador local montado en la biblioteca, utilícelo para determinar el orden en que las unidades se conectan al controlador. Determine el identificador objetivo de SCSI o el nombre World Wide Name de cada unidad.

  3. Inicie sesión en el host Solaris como root.

    root@solaris:~# 
    
  4. Muestre los nombres de dispositivos lógicos Solaris en /dev/scsi/changer/ y redirija la salida a un archivo de texto.

    En el ejemplo, redirigimos las listas de /dev/rmt/ al archivo device-mappings.txt en el directorio raíz del usuario root:

    root@solaris:~# ls -l /dev/rmt/ > /root/device-mappings.txt 
    
  5. Ahora asigne los nombres de dispositivos de Solaris a las unidades de la biblioteca con conexión directa o a ACSLS-.

Asignación de las unidades en una biblioteca con conexión directa a los nombres de dispositivos Solaris

Para cada nombre de unidad lógica Solaris mostrado en /dev/rmt/ y cada unidad que la biblioteca asigna al host de servidores Oracle HSM, lleve a cabo el siguiente procedimiento:

  1. Si aún no ha iniciado sesión en el host Solaris de Oracle HSM, inicie sesión como root.

    root@solaris:~# 
    
  2. En un editor de texto, abra el archivo de asignaciones de dispositivo que creó en el procedimiento Obtención de información de la unidad para la biblioteca y el host Solaris. Organice la información en una tabla simple.

    Necesitará consultar esta información en los pasos siguientes. En este ejemplo, estamos utilizando el editor vi para suprimir los permisos, la propiedad y los atributos de fecha de la lista /dev/rmt/, al mismo tiempo que agregamos encabezados y espacio para la información del dispositivo de bibliotecas:

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
            /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
            /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
            /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
            /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    lrwxrwxrwx 1 root root 40 Mar 18 2014 /dev/rmt/4 -> ../../devices/pci@1f,4000/scsi@4/st@2,0:
    
  3. En la biblioteca, asegúrese de que todas las unidades estén vacías.

  4. Cargue una cinta en la primera unidad de la biblioteca que aún no haya asignado a un nombre de dispositivo lógico Solaris.

    Para los fines de los ejemplos a continuación, cargamos una cinta LTO4 en una unidad de cintas HP Ultrium LTO4.

  5. Identifique la entrada de Solaris /dev/rmt/ que corresponde a la unidad que monta la cinta. Hasta identificar la unidad, ejecute el comando mt -f /dev/rmt/number status donde number identifica la unidad en /dev/rmt/.

    En el ejemplo, la unidad en /dev/rmt/0 está vacía, pero la unidad en /dev/rmt/1 contiene la cinta. Entonces, la unidad que la biblioteca identifica como unidad 1 corresponde a Solaris /dev/rmt/1:

    root@solaris:~# mt -f /dev/rmt/0 status
    /dev/rmt/0: no tape loaded or drive offline
    root@solaris:~# mt -f /dev/rmt/1 status
    HP Ultrium LTO 4 tape drive:
       sense key(0x0)= No Additional Sense   residual= 0   retries= 0
       file no= 0   block no= 3
    
  6. En el archivo de asignaciones del dispositivo, ubique la entrada del dispositivo de Solaris que contiene la cinta e introduzca el identificador de dispositivos de la biblioteca en el espacio proporcionado. Luego, guarde el archivo.

    En el ejemplo, introduzca 1 en el campo LIBRARY DEVICE NUMBER de la fila para /dev/rmt/1:

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
            /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
       1    /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
            /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
            /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    :w
    
  7. Descargue la cinta.

  8. Repita este procedimiento hasta que el archivo de asignaciones de dispositivos contenga nombres de dispositivos lógicos de Solaris para todos los dispositivos que la biblioteca asigna al host de Oracle HSM. Luego, guarde el archivo y cierre el editor.

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
       2    /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
       1    /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
       3    /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
       4    /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    :wq
    root@solaris:~# 
    
  9. Conserve el archivo de asignaciones.

    Necesitará la información cuando configure sistemas de archivos y es posible que quiera incluirla cuando realice una copia de seguridad de la configuración terminada de Oracle HSM.

  10. Continúe con Configuración de bibliotecas con conexión directa:.

Asignación de las unidades en una biblioteca con conexión ACSLS a los nombres de dispositivos Solaris
  1. Si aún no ha iniciado sesión en el host Solaris de Oracle HSM, inicie sesión como root.

    root@solaris:~# 
    
  2. En un editor de texto, abra el archivo de asignaciones de dispositivos que creó en el procedimiento Obtención de información de la unidad para la biblioteca y el host Solaris y organícelo en una tabla simple.

    Necesitará consultar esta información en los pasos siguientes. En este ejemplo, estamos utilizando el editor vi para suprimir los permisos, la propiedad y los atributos de fecha de la lista /dev/rmt/, al mismo tiempo que agregamos encabezados y espacio para la información del dispositivo de bibliotecas:

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0  
    /dev/rmt/1  
    /dev/rmt/2  
    /dev/rmt/3  
    
  3. Para cada nombre de dispositivo lógico que se muestra en /dev/rmt/, muestre el número de serie del dispositivo. Use el comando luxadm display /dev/rmt/number, donde number identifica la unidad en /dev/rmt/.

    En el ejemplo, obtenemos el número de serie HU92K00200 para el dispositivo /dev/rmt/0:

    root@solaris:~# luxadm display /dev/rmt/0
    DEVICE PROPERTIES for tape: /dev/rmt/0
    Vendor: HP
    Product ID: Ultrium 4-SCSI
    Revision: G25W
    Serial Num: HU92K00200
    ...
    Path status: Ready
    root@solaris:~#  
    
  4. Introduzca el número de serie en la fila correspondiente del archivo device-mappings.txt.

    En el ejemplo, registramos el número de serie del dispositivo /dev/rmt/0, HU92K00200 en la fila del dispositivo lógico /dev/rmt/0.

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200
    /dev/rmt/1  
    /dev/rmt/2  
    /dev/rmt/3  
    :wq
    root@solaris:~# 
    
  5. Repita los dos pasos anteriores hasta que haya identificado los números de serie del dispositivo para todos los dispositivos lógicos que se muestran en /dev/rmt/ y haya registrado los resultados en el archivo device-mappings.txt.

    En el ejemplo, hay cuatro dispositivos lógicos:

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200
    /dev/rmt/1      HU92K00208
    /dev/rmt/2      HU92K00339
    /dev/rmt/3      HU92K00289
    :w
    root@solaris:~# 
    
  6. Para cada número de serie del dispositivo asignado a /dev/rmt/, obtenga la dirección de la unidad ACSLS correspondiente. Use el comando ACSLS display drive * -f serial_num.

    En el ejemplo, se obtienen las direcciones ACSLS de los dispositivos HU92K00200 (/dev/rmt/0), HU92K00208 (/dev/rmt/1), HU92K00339 (/dev/rmt/2), HU92K00289 (/dev/rmt/3):

     ACSSA> display drive * -f serial_num
     2014-03-29 10:49:12 Display Drive
     Acs Lsm Panel Drive Serial_num
     0   2   10    12    331000049255
     0   2   10    16    331002031352
     0   2   10    17    HU92K00200
     0   2   10    18    HU92K00208
     0   3   10    10    HU92K00339
     0   3   10    11    HU92K00189
     0   3   10    12    HU92K00289
    
  7. Registre todas las direcciones de unidad ACSLS en la fila correspondiente del archivo device-mappings.txt. Guarde el archivo y cierre el editor de texto.

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200            (acs=0, lsm=2, panel=10, drive=17)
    /dev/rmt/1      HU92K00208            (acs=0, lsm=2, panel=10, drive=18)
    /dev/rmt/2      HU92K00339            (acs=0, lsm=2, panel=10, drive=10)
    /dev/rmt/3      HU92K00289            (acs=0, lsm=2, panel=10, drive=12)
    :wq
    
  8. Conserve el archivo de asignaciones.

    Necesitará la información cuando configure sistemas de archivos y es posible que quiera incluirla cuando realice una copia de seguridad de la configuración terminada de Oracle HSM.

  9. Realizará la configuración de las bibliotecas conectadas a la red ACSLS de Oracle StorageTek cuando configure los sistemas de archivado. Por lo tanto, si está planificando un sistema de archivos de alta disponibilidad, vaya a Configuración de almacenamiento para sistemas de archivos de alta disponibilidad. En caso contrario, vaya a Instalación del software Oracle HSM y QFS.

Configuración de bibliotecas con conexión directa:

Para configurar una biblioteca con conexión directa, debe conectar físicamente el hardware y, en algunos casos, configurar el controlador SCSI (Oracle HSM controla las unidades robóticas de la biblioteca mediante el controlador genérico sgen, en lugar de hacerlo mediante el controlador samst utilizado por SAM-QFS con anterioridad a la versión 5.4). Siga estos pasos:

  1. Conecte físicamente la biblioteca y las unidades al host del servidor Oracle HSM.

  2. Si está instalando Oracle HSM por primera vez o está actualizando una configuración de Oracle HSM o SAM-QFS 5.4 en Solaris 11, deténgase cuando el hardware esté físicamente conectado.

    En Solaris 11, sgen es el controlador SCSI por defecto, de modo que la instalación del software Oracle HSM puede actualizar automáticamente los alias del controlador y los archivos de configuración.

  3. Si está instalando Oracle HSM en un sistema Solaris 10, compruebe si uno de los alias del controlador que se muestran a continuación está asignado al controlador sgen. Use el comando grep scs.*,08 /etc/driver_aliases.

    Cualquiera de los siguientes alias se puede asignar al controlador sgen:

    • scsa,08.bfcp" o scsa,08.bvhci

    • scsiclass,08

    En el ejemplo, Solaris está usando el alias scsiclass,08 para el controlador sgen:

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    sgen "scsiclass,08"
    root@solaris:~# 
    
  4. Si el comando grep devuelve sgen "alias", donde alias es un alias de la lista de arriba, el controlador sgen se instala y se asigna correctamente al alias. Realice lo siguiente:

  5. Si el comando grep devuelve some-driver "alias", donde some-driver es un controlador que no es sgen y donde alias es uno de los alias que se muestran arriba, entonces el alias ya está asignado al otro controlador. Por lo tanto, cree un alias orientado a la ruta para el controlador sgen.

  6. Si el comando grep scs.*,08 /etc/driver_aliases no devuelve ninguna salida, el controlador sgen no está instalado. Instálelo. Use el comando add_drv -i scsiclass,08 sgen.

    En el ejemplo, el comando grep no devuelve nada. Instale el controlador sgen:

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    root@solaris:~# add_drv -i scsiclass,08 sgen
    
  7. Si el comando add_drv -i scsiclass,08 sgen devuelve el mensaje Driver (sgen) is already installed, el controlador ya está instalado pero no está conectado. Conéctelo ahora. Use el comando update_drv -a -i scsiclass,08 sgen.

    En el ejemplo, el comando add_drv indica que el controlador ya está instalado. De modo que conectamos el controlador:

    root@solaris:~# add_drv -i scsiclass,08 sgen
    Driver (sgen) is already installed.
    root@solaris:~# update_drv -a -i scsiclass,08 sgen
    
  8. Si el comando grep scs.*,08 /etc/driver_aliases muestra que el alias scsiclass,08 está asignado al controlador sgen, significa que el controlador está configurado correctamente.

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    sgen "scsiclass,08"
    root@solaris:~# 
    
  9. Si está configurando un sistema de archivos de alta disponibilidad, consulte Configuración de almacenamiento para sistemas de archivos de alta disponibilidad.

  10. En caso contrario, vaya a Instalación del software Oracle HSM y QFS.

Creación de un alias orientado a ruta para el controlador sgen

Si el alias sgen esperado ya está asignado a otro controlador, deberá crear un alias orientado a ruta que conecte la biblioteca especificada mediante el uso de sgen, sin interferir con las asignaciones de controlador existentes. Siga estos pasos:

  1. Inicie sesión en el host servidor Oracle HSM como root.

    root@solaris:~# 
    
  2. Muestre la configuración del sistema. Use el comando cfgadm -vl.

    Tenga en cuenta que la salida de cfgadm tiene el formato de encabezado de dos filas y dos columnas por registro:

    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  3. En la salida de cfgadm -vl, encuentre el registro de la biblioteca. Busque med-changer en la columna Type de la segunda fila de cada registro.

    En el ejemplo, encontramos la biblioteca en el segundo registro:

    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  4. Obtenga la ruta física que actuará como nuevo alias orientado a ruta. Quite la subcadena /devices de la entrada en la columna Phys_Id de la salida de cfgadm -vl.

    En el ejemplo, la columna Phys_Id del registro del cambiador de medios contiene la ruta /devices/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78, de modo que seleccionamos la parte de la cadena que sigue a /devices/ como alias (tenga en cuenta que esta ruta física ha sido abreviada para que se ajuste al espacio disponible a continuación):

    root@solaris:~# grep scsiclass,08 /etc/driver_aliases
    sdrv "scsiclass,08"
    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  5. Cree el alias orientado a la ruta y asígnelo al controlador sgen. Use el comando update_drv -d -i '"/path-to-library"' sgen, donde path-to-library es la ruta que identificó en el paso anterior.

    En el ejemplo, usamos la ruta de la biblioteca para crear al alias orientado a ruta '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"' (tenga en cuenta las comillas simples y dobles). El comando es una única línea, pero se ha formateado como dos para ajustarse al diseño de la página:

    root@solaris:~# update_drv -d -i \ '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"' sgen
    root@solaris:~# 
    

    Se ha configurado la biblioteca mediante el controlador sgen.

  6. Si está configurando un sistema de archivos de alta disponibilidad, vaya a Configuración de almacenamiento para sistemas de archivos de alta disponibilidad.

  7. En caso contrario, vaya a Instalación del software Oracle HSM y QFS.

Configuración de almacenamiento para sistemas de archivos de alta disponibilidad

Los sistemas de archivos de alta disponibilidad requieren hardware redundante y múltiples rutas de E/S independientes, de modo que los fallos de hardware de un punto único no impidan el acceso al sistema de archivos. Lleve a cabo las siguientes tareas:

Configurar los nodos de cluster de Solaris para la E/S de rutas múltiples

Para configurar un sistema de archivos compartido de alta disponibilidad, debe seguir atentamente las recomendaciones incluidas en el Hardware Administration Manual de su versión del software Solaris Cluster. Proporcione dispositivos de almacenamiento principal redundantes y rutas de E/S redundantes.

Almacene los datos y metadatos del sistema de archivos en dispositivos RAID de hardware o en volúmenes RAID de software de Solaris Volume Manager (SVM). Coloque los archivos de configuración y metadatos de Oracle HSM en grupos de volúmenes RAID-10 o en volúmenes de SVM reflejados. Coloque los datos del sistema de archivos en volúmenes de SVM reflejados o en grupos de volúmenes RAID-10 o RAID-5 controlados por hardware. Tenga en cuenta que las versiones actuales de Solaris no incluyen SVM. Debe descargar e instalar la versión del software que se incluye con la versión Solaris 10 9/10.

Asegúrese de que las conexiones de red de área de almacenamiento no puedan sufrir failovers de un punto único. Instale varios adaptadores de bus de host (HBA) en cada nodo de cluster. Configure la red de área de almacenamiento (SAN) con múltiples interconexiones y switches redundantes. Gestione la conmutación por error de las rutas mediante el software de múltiples rutas de E/S de Oracle Solaris (para obtener más información, consulte la Guía de rutas múltiples y configuración de SAN de Oracle Solaris en la biblioteca de documentación del cliente de Oracle Solaris y la página del comando man stmsboot).

Configurar los clientes Linux para E/S de múltiples rutas

En los clientes Linux, configure los dispositivos de almacenamiento redundantes para la conmutación por error de las rutas mediante el paquete de software Device Mapper Multipath (DMM). El software DMM gestiona todos los adaptadores de bus de host, cables, switches y controladores que enlazan a un host y a un dispositivo de almacenamiento como un único dispositivo de E/S virtual, las rutas múltiples.

Todas las rutas de E/S que enlazan a un host y a un dispositivo de almacenamiento, etc., como un único dispositivo virtual. Cada uno de los cables, los switches y los controladores. Las rutas múltiples agregan las rutas de E/S para crear un nuevo dispositivo que consta de las rutas agregadas. Para activar la opción de rutas múltiples, haga lo siguiente:

Instalar el paquete de software Device Mapper Multipath

Siga las siguientes instrucciones para configurar un cliente que ejecute Oracle Linux 6.x (para otras versiones de Linux, consulte la documentación del proveedor).

  1. Inicie sesión en el host Linux como root.

    [root@linux ~]# 
    
  2. Cambie al subdirectorio /etc/yum.repos.d y muestre el contenido del directorio.

    [root@linux ~]# cd /etc/yum.repos.d
    [root@linux ~]# ls -l
    total 4
    -rw-r--r--. 1 root root 1707 Jun 25  2012 public-yum-ol6.repo
    [root@linux ~]# 
    
  3. Si el subdirectorio /etc/yum.repos.d no contiene un archivo public-yum-ol6.repo, descárguelo del repositorio YUM de Oracle mediante el comando wget.

    [root@linux ~]# wget http://public-yum.oracle.com/public-yum-ol6.repo
    -- 2013-02-25 12:50:32 --   http://public-yum.oracle.com/public-yum-ol6.repo
    Resolving public-yum.oracle.com... 14 1.146.44.34
    Connecting to public-yum.oracle.com|141.146.44.34|:80... connected.
    HTTP request sent, awaiting response... 200 OK
    Length: 2411 (2.4K) [text/plain]
    Saving to: ”public-yum-ol6.repo”
    100%[======================================>] 2,411   -- . - K/s   in 0.001s
    2013-02-25 12:50:32 (3.80 MB/s) - ”public-yum-ol6.repo” saved
    [2411/2411]
    [root@linux ~]# 
    
  4. En un editor de texto, abra el archivo public-yum-ol6.repo. Asegúrese de que la primera entrada, [ol6_latest], contenga la línea enabled=1.

    En el ejemplo, utilizamos el editor vi. La línea requerida está presente, de modo que se puede cerrar el archivo:

    [root@linux ~]# vi public-yum-ol6.repo 
    [ol6_latest]
    name=Oracle Linux $releasever Latest ($basearch)
    baseurl=http://public-yum.oracle.com/repo/OracleLinux/OL6/latest/$basearch/
    gpgkey=http://public-yum.oracle.com/RPM-GPG-KEY-oracle-ol6
    gpgcheck=1
    enabled=1
    ...
    :q
    [root@linux ~]# 
    
  5. Busque los paquetes de software Device Mapper Multipath. Use el comando yum search multipath.

    [root@linux ~]# yum search multipath
    Loaded plugins: refresh-packagekit, security
    ========================== N/S Matched: multipath ==========================
    device-mapper-multipath.x86_64 : Tools to manage multipath devices using
                                   : device-mapper
    device-mapper-multipath-libs.x86_64 : The device-mapper-multipath modules and
                                        : shared library
      Name and summary matches only, use "search all" for everything.
    [root@linux ~]# 
    
  6. Instale el software Device Mapper Multipath. Use el comando yum install device-mapper-multipath. Cuando aparezca la petición de datos, introduzca y (sí) para aceptar el paquete que aparece y sus dependencias.

    [root@linux ~]# yum install device-mapper-multipath
    Loaded plugins: refresh-packagekit, security
    Setting up Install Process
    Resolving Dependencies
    --> Running transaction check
    ---> Package device-mapper-multipath.x86_64 0:0.4.9-56.el6_3.1 will be
    installed
    --> Processing Dependency: device-mapper-multipath-libs = 0.4.9-56.el6_3.1
    for package: device-mapper-multipath-0.4.9-56.el6_3.1.x86_64
    --> Processing Dependency: libmultipath.so()(64bit) 
    for package: device-mapper-multipath-0.4.9-56.el6_3.1.x86_64
    --> Running transaction check
    ---> Package device-mapper-multipath-libs.x86_64 0:0.4.9-56.el6_3.1 will be
    installed
    --> Finished Dependency Resolution
    Dependencies Resolved
    ============================================================================
     Package                      Arch   Version           Repository   Size
    ============================================================================
    Installing:
     device-mapper-multipath      x86_64 0.4.9-56.el6_3.1  ol6_latest    96 k
    Installing for dependencies:
     device-mapper-multipath-libs x86_64 0.4.9-56.el6_3.1  ol6_latest   158 k
    Transaction Summary
    ============================================================================
    Install       2 Package(s)
    Total download size: 254 k
    Installed size: 576 k
    Is this ok [y/N]: y
    Downloading Packages:
    (1/2): device-mapper-multipath-0.4.9-56.el6_3.1.x86_64.r |  96 kB     00:00
    (2/2): device-map
    per-multipath-libs-0.4.9-56.el6_3.1.x86 | 158 kB     00:00
    ----------------------------------------------------------------------------
    Total                                           104 kB/s | 254 kB     00:02
    Running rpm_check_debug
    Running Transaction Test
    Transaction Test Succeeded
    Running Transaction
      Installing : device-mapper-multipath-libs-0.4.9-56.el6_3.1.x86_64     1/2
      Installing : device-mapper-multipath-0.4.9-56.el6_3.1.x86_64          2/2
      Verifying  : device-mapper-multipath-0.4.9-56.el6_3.1.x86_64          1/2
      Verifying  : device-mapper-multipath-libs-0.4.9-56.el6_3.1.x86_64     2/2
    Installed:
      device-mapper-multipath.x86_64 0:0.4.9-56.el6_3.1
    Dependency Installed:
      device-mapper-multipath-libs.x86_64 0:0.4.9-56.el6_3.1
    Complete!
    [root@linux ~]# 
    
  7. Inicie el daemon de rutas múltiples. Utilice el comando chkconfig multipathd on.

    [root@linux ~]# chkconfig multipathd on
    [root@linux ~]# 
    
  8. A continuación, realice la tarea Configurar el paquete de software Device Mapper Multipath.

Configurar el paquete de software Device Mapper Multipath

Para configurar el software Device Mapper Multipath, edite el archivo /etc/multipath.conf. El archivo consta de una serie de secciones, cada una de las cuales contiene un juego de subsecciones, valores y atributos relacionados:

  • La sección default configura el software de rutas múltiples. Especifica el nivel de detalle registrado, define el comportamiento de la conmutación por error y especifica las ubicaciones de los directorios y los comandos de sistema operativo requeridos.

  • La sección blacklist identifica los dispositivos que se deben excluir de las configuraciones de rutas múltiples, como los discos del sistema local. Puede identificar los dispositivos por world wide name/world wide identifier (WWN/WWID) o mediante expresiones regulares que especifiquen los nombres de nodo de dispositivo o las cadenas de dispositivo de producto y proveedor.

  • La sección blacklist_exceptions permite incluir dispositivos específicos en la configuración de rutas múltiples en aquellos casos en los que las reglas generales de la sección blacklist los hubieran excluido.

  • La sección multipaths permite definir una o más subsecciones multipath, cada una de las cuales aplica una configuración especial a rutas múltiples especificadas por world wide name.

  • La sección devices permite definir una o más subsecciones device, cada una de las cuales aplica una configuración especial de rutas múltiples a un dispositivo.

Para obtener descripciones detalladas de los valores por defecto particulares, consulte el archivo de ejemplo con anotaciones /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf.annotated.

La sección blacklist_exceptions enumera los dispositivos que se deben utilizar aunque se identifiquen en la lista negra. Sección defaults: configuración general por defecto para Device Mapper Multipath. Sección multipaths: configuración de las características de dispositivos de rutas múltiples específicos. Estos valores sobrescriben lo que se especifica en las secciones defaults y devices del archivo de configuración. Sección devices: configuración de controladores de almacenamiento específicos. Estos valores sobrescriben lo que se especifica en la sección defaults del archivo de configuración. Si se utiliza una matriz de almacenamiento que, por defecto, no se admite, es posible que deba crear una subsección devices para la matriz. Cuando el sistema determina los atributos de un dispositivo de rutas múltiples, primero controla la configuración de rutas múltiples, luego la configuración por dispositivo y luego los valores por defecto del sistema de rutas múltiples.