Notas de la versión de Oracle® VM Server for SPARC 3.3

Salir de la Vista de impresión

Actualización: Octubre de 2015
 
 

Bugs que afectan el software Oracle VM Server for SPARC

En esta sección se resumen los bugs que pueden surgir al utilizar esta versión del software. Se describen en primer lugar los bugs más recientes. Cuando es posible, se especifican las soluciones alternativas y los procedimientos de recuperación.

Bugs de SO Oracle Solaris que afectan el software Oracle VM Server for SPARC 3.3

Los siguientes bugs de SO Oracle Solaris se corrigieron en las versiones completas de SO Oracle Solaris. Es posible que estos bugs aún estén presentes en las versiones del sistema operativo Oracle Solaris 10. Para evitar estos problemas, asegúrese de ejecutar una de las versiones de SO Oracle Solaris asociada con el ID del bug.

Para obtener información acerca de los bugs en esta tabla, revise los informes de bugs.

Tabla 1-1  Bugs de SO Oracle Solaris resueltos
ID de bug
Descripción del bug
Resuelto en versiones de SO Oracle Solaris
15707426
El servicio del agente de Logical Domains no pasa al estado en línea si el servicio de log del sistema tampoco pasa al estado en línea
Oracle Solaris 11
Oracle Solaris 10 1/13 con al menos el parche con ID 147147-26
15701258
Errores de timeout de CPU virtual durante la DR
Oracle Solaris 11
Oracle Solaris 10 1/13 con al menos el parche con ID 147147-26
15560811
Oracle Solaris 11: es posible que no se inicien las zonas configuradas con una interfaz de red automática
Oracle Solaris 11
15422900
Un dominio invitado con demasiadas redes virtuales en la misma red con DHCP puede dejar de responder
Oracle Solaris 11

Bugs que afectan el software Oracle VM Server for SPARC 3.3

La actualización de información de IOV puede demorar hasta cuatro minutos después de ejecutar el comando cfgadm configure o el comando cfgadm unconfigure

ID de bug 21953704: es posible que el comando ldm list-io no muestre la información de IOV más actualizada de inmediato después de ejecutar un comando de cfgadm. Es posible que deba esperar hasta cuatro minutos hasta que esté disponible la información actualizada.

Solución alternativa: ninguna.

ovmtcreate genera un archivo OVF incorrecto si la configuración regional no es C

ID de bug 21780045: la utilidad ovmtcreate genera una cadena NULL para la información de Version del archivo OVF si la configuración regional no está en la configuración regional C (entorno de configuración regional cuyo idioma no es inglés).

Los valores de las propiedades Version y FullVersion son nulos, como muestran las líneas XML que aparecen en negrita en este ejemplo:

<ovf:VirtualSystem ovf:id="templates">
        <ovf:Info>Oracle VM Template</ovf:Info>
        <ovf:ProductSection ovf:class="com.oracle.ovmt">
                <ovf:Info>Oracle VM Template</ovf:Info>
                <ovf:Product>Oracle VM Template</ovf:Product>
                <ovf:Version></ovf:Version>
                <ovf:FullVersion></ovf:FullVersion>

Si la utilidad ovmtdeploy usa las plantillas que creó mediante la utilidad ovmtcreate del entorno de configuración regional que no pertenece a C, se produce una excepción de Java porque las plantillas incluyen cadenas NULL.

# /opt/ovmtutils/bin/ovmtdeploy -d guest10 -o /export/home/ovm \
/export/home/templates.ova

Oracle Virtual Machine for SPARC Deployment Utility
ovmtdeploy Version
Copyright (c) 2014, 2015, Oracle and/or its affiliates. All rights reserved.

STAGE 1 - EXAMINING SYSTEM AND ENVIRONMENT
------------------------------------------
Checking user privilege
Performing platform & prerequisite checks
Checking for required services
Named resourced available

2 - ANALYZING ARCHIVE & RESOURCE REQUIREMENTS
---------------------------------------------------
Checking .ova format and contents
Validating archive configuration
Exception in thread "main" java.lang.NullPointerException
        at ovfparse.OvfParse.getTagValue(OvfParse.java:233)
        at ovfparse.VmProduct.<init>(VmProduct.java:33)
        at ovfparse.VmSys.<init>(VmSys.java:72)
        at ovfparse.OvfParse.parseOVFByDOM(OvfParse.java:371)
        at ovfparse.OvfParse.<init>(OvfParse.java:56)
        at ovmtdeploy.Ovmtdeploy.exec(Ovmtdeploy.java:1841)
        at ovmtdeploy.Ovmtdeploy.main(Ovmtdeploy.java:1946)

Solución alternativa: siga estos pasos:

  1. Edite el archivo OVF para agregar los números de versión al contenido de las propiedades Version y FullVersion.

  2. Vuelva a archivar la plantilla ova mediante el comando gtar.

    Por ejemplo:

    # /usr/bin/gtar -cf templates.ova templates.ovf templates.mf System.img.gz
  3. Ejecute la utilidad ovmtdeploy con la opción –k para omitir la verificación de la suma del total de control.

ldm add-vsan falla después de sustituir la tarjeta PCIe

ID de bug 21674282: cuando sustituye una tarjeta PCIe en la misma ranura, es posible que falle el uso del comando ldm add-vsan que especifica un alias para el dispositivo HBA SCSI físico (/SYS).

Solución alternativa: no especifique un alias de nombre de dispositivo. En su lugar, especifique un nombre de ruta de dispositivo completo (/pci) para el comando ldm add-vsan.

ovmtcreate falla si el dominio de servicio tiene varios servidores de disco virtual

ID de bug 21635033: si un dominio de servicio tiene más de un servidor de disco virtual (vds), es posible que falle la ejecución de la utilidad ovmtcreate del dominio invitado porque la utilidad comprueba solamente la primera instancia de vds en el dominio de servicio.

    Por ejemplo, la ejecución de la utilidad ovmtcreate para el dominio gdom3 falla si el disco virtual está configurado de la siguiente manera:

  • El dominio primary tiene cuatro servidores de disco virtual (vds)

  • El dispositivo de servidor de disco virtual que corresponde al disco virtual del dominio gdom3 está asociado con vds3

En la siguiente salida de muestra, las líneas en negrita muestran que vds0 es el primer servidor de disco virtual y que dispositivo de servidor de disco virtual para el disco virtual gdom3 no es vds0.

primary# ldm list -l -p -o disk
VERSION 1.15

DOMAIN|name=primary|
VDS|name=vds0|nclients=1
|vol=vol0|opts=|dev=/export/home/ovm/gdom0.img|mpgroup=
VDS|name=vds1|nclients=1
|vol=vol0|opts=|dev=/export/home/ovm/gdom1.img|mpgroup=
VDS|name=vds2|nclients=1
|vol=vol0|opts=|dev=/export/home/ovm/gdom2.img|mpgroup=
VDS|name=cdrom|nclients=3
|vol=1|opts=|dev=/export/home/ovm/sol-113_1.iso|mpgroup=
|vol=2|opts=|dev=/export/home/ovm/sol-113_2.iso|mpgroup=
|vol=3|opts=|dev=/export/home/ovm/sol-113_3.iso|mpgroup=
|vol=4|opts=|dev=/export/home/ovm/sol-113_4.iso|mpgroup=
VDS|name=vds3|nclients=1
|vol=disk0|opts=|dev=/export/home/ovm/gdom3.img|mpgroup=
DOMAIN|name=gdom0|
VDISK|name=vdisk0|vol=vol0@vds0|timeout=|dev=disk@0|server=primary|mpgroup=|id=0
VDISK|name=cdrom|vol=1@cdrom|timeout=|dev=disk@1|server=primary|mpgroup=|id=1
DOMAIN|name=gdom1|
VDISK|name=vdisk0|vol=vol0@vds1|timeout=|dev=disk@0|server=primary|mpgroup=|id=0
VDISK|name=cdrom|vol=2@cdrom|timeout=|dev=disk@1|server=primary|mpgroup=|id=1
DOMAIN|name=gdom2|
VDISK|name=vdisk0|vol=vol0@vds2|timeout=|dev=disk@0|server=primary|mpgroup=|id=0
VDISK|name=cdrom|vol=3@cdrom|timeout=|dev=disk@1|server=primary|mpgroup=|id=1
DOMAIN|name=gdom3|
VDISK|name=vdisk0|vol=disk0@vds3|timeout=|dev=disk@0|server=primary|mpgroup=|id=0

El siguiente comando ldm list muestra el estado del dominio gdom3:

primary# ldm list
NAME         STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary      active     -n-cv-  UART    32    46848M   0.3%  0.3%  1d 51m
gdom0        active     -n----  5000    24    24G      0.0%  0.0%  1d 35m
gdom1        active     -n----  5001    24    24G      0.0%  0.0%  8d 18h 21m
gdom2        active     -n----  5002    24    24G      0.0%  0.0%  8d 17h 43m
gdom3        bound      ------  5003    24    24G

El siguiente comando muestra el error que recibió cuando ejecutó el comando ovmtcreate para el dominio gdom3:

# /opt/ovmtutils/bin/ovmtcreate -d gdom3 -o /export/home/ovmt
STAGE 1 - EXAMINING SYSTEM AND ENVIRONMENT
-------------------------------------------
Performing platform & prerequisite checks
Checking user permissions
Checking for required packages
Checking for required services
Checking directory permissions

STAGE 2 - ANALYZING DOMAIN
---------------------------
Retrieving and processing attributes
Checking domain state
Getting domain resource settings
Discovering network topology
Discovering disk topology
ERROR: VDS Device  does not exist or not readable

Solución alternativa: asegúrese de que el dominio de servicio tenga solamente un servidor de disco virtual antes de ejecutar la utilidad ovmtcreate.

No se puede volver a crear un dominio que tiene restricciones de socket desde un archivo XML

ID de bug 21616429: el software Oracle VM Server for SPARC 3.3 presentó solamente compatibilidad de socket con Fujitsu M10 Servers.

El software que se ejecuta en sistemas Oracle SPARC y versiones de Oracle VM Server for SPARC anteriores a 3.3 no se puede volver a crear con restricciones de socket desde un archivo XML.

Falla el intento de volver a crear un dominio con restricciones de socket desde un archivo XML con una versión anterior del software Oracle VM Server for SPARC o en un sistema Oracle SPARC con el siguiente mensaje:

primary# ldm add-domain -i ovm3.3_socket_ovm11.xml
socket not a known resource

Si se está ejecutando Oracle VM Server for SPARC 3.2 en un Fujitsu M10 Server e intenta volver a crear un dominio con restricciones de socket desde un archivo XML, el comando fallará con varios mensajes de error, como el siguiente:

primary# ldm add-domain -i ovm3.3_socket_ovm11.xml
Unknown property: vcpus

primary# ldm add-domain -i ovm3.3_socket_ovm11.xml
perf-counters property not supported, platform does not have
performance register access capability, ignoring constraint setting.

Solución alternativa: edite el archivo XML para eliminar las secciones que hacen referencia al tipo de recurso socket.

DRM no responde cuando un dominio tiene solamente unas pocas CPU virtuales

ID de bug 21561834: si el número de CPU virtuales de un dominio es menor a cuatro, es posible que DRM no pueda agregar CPU virtuales al dominio, incluso cuando el uso supere ampliamente el nivel de uso superior. Si el valor de propiedad util-upper es mayor que el valor por defecto 70, es posible que DRM no pueda agregar CPU virtuales, incluso si el dominio tiene más de cuatro CPU virtuales.

Solución alternativa: configure el valor de propiedad elastic-margin de la política de DRM en al menos 15.

primary# ldm set-policy elastic-margin=15 name=policy-name domain-name

Si el valor de propiedad util-upper es mayor que 70, configure el valor de propiedad elastic-margin de la política de DRM en, al menos, 20.

primary# ldm set-policy elastic-margin=20 name=policy-name domain-name

Notas - Asegúrese de que el valor de propiedad elastic-margin sea menos que el valor de propiedad util-upper.
Fujitsu M10 Servers: si se ejecuta ldm set-socket en un dominio activo es posible que se produzca un funcionamiento inestable del Logical Domains Manager

ID de bug 21527087: En unos pocos casos, el uso del comando ldm set-socket para especificar sockets para un dominio en ejecución puede causar el siguiente comportamiento inesperado:

  • Es posible que se bloquee el Logical Domains Manager

  • El comando ldm set-socket se completó pero no se reasignan todas las CPU del dominio y la memoria a los sockets especificados

Sin embargo, si la partición física (PPAR) tiene más de 12 sockets, no use los comandos ldm set-socket --restored-degraded y ldm set-socket socket_id=id mientras se está ejecutando el dominio. Si ejecuta estos comandos en un dominio en ejecución, es posible que se dañe el estado de ldmd.

Solución alternativa: detenga el dominio antes de ejecutar un comando de ldm set-socket.

Siempre es seguro borrar las restricciones del socket del dominio activo mediante el uso del comando ldm set-socket para configurar la propiedad socket_id en un valor NULL.

Errores aleatorios del comando device busy o ldm remove-io cuando se eliminan uno o más buses PCIe

ID de bug 21510615: en ocasiones, es posible que obtenga errores persistentes de device busy o ldm remove-io cuando elimina o más buses PCIe.

Solución alternativa: compruebe el servicio gdm, desactívelo manualmente (o consulte y detenga Xorg) y vuelva a intentar la operación de ldm remove-io.

# svcs | grep gdm
# svcadm disable -st svc:/application/graphical-login/gdm:default

O bien:

# ps -ef | grep Xorg
# pkill Xorg
Fujitsu M10 Servers: es posible que las restricciones de socket incoherentes causen el bloqueo del Logical Domains Manager durante la eliminación de la CPU

ID de bug 21367043: en circunstancias excepcionales, es posible que las restricciones de socket no estén sincronizadas con la CPU entrante y los recursos de memoria de un dominio. Es posible que los comandos ldm rm-vcpu, ldm set-vcpu, ldm rm-core y ldm set-core causen el bloqueo del Logical Domains Manager con el siguiente mensaje de error del log de SMF ldmd:

fatal error: xcalloc(0,4) : one of number or size is <= 0 at line 1183
of affinity_core.c

Solución alternativa: borre las restricciones de socket del dominio mediante el uso de los siguientes comandos:

primary# ldm list-socket domain-name
primary# ldm set-socket socket_id= domain-name
ldmpower causa un fallo de segmentación de ldmd

ID de bug 21369897: mientras se administra un dominio invitado, la ejecución del comando ldmpower causa un fallo de segmentación del daemon ldmd.

Solución alternativa: no ejecute el comando ldmpower mientras realiza operaciones de agregación o eliminación en un dominio invitado.

Error grave en la estructura de PCIe causa mensajes de aviso grave en el dominio raíz

ID de bug 21352084, 21861284 y 21861327: en circunstancias excepcionales, es posible que un dominio raíz genere mensajes de aviso grave si recibe un error de E/S y comienza a analizar el error mientras se restablece un dominio de E/S.

El mensaje de aviso grave es similar al siguiente:

panic[cpu15]/thread=2a1017d3c20:
Fatal error has occured in: PCIe fabric.(0x2)(0x245)

Los informes de errores se vuelcan en la consola al momento de la generación del aviso grave. Los informes de errores muestran que algunos valores de registro de estado, incluido el valor pcie_ue_status, son FF. Después del aviso grave, el dominio raíz se reinicia y se recupera.

Solución alternativa: ninguna.

Se muestra la E/S en el dominio invitado de HBA SCSI virtual cuando uno de los dominios de servicio está fuera de servicio con el timeout de HBA SCSI configurado

ID de bug 21321166: en ocasiones, el rendimiento de E/S es menor cuando se usa una ruta de MPxIO de HBA SCSI virtual en un dominio de servicio fuera de línea.

Solución alternativa: desactive la ruta al dominio de servicio fuera de línea mediante el uso del comando mpathadm disable path hasta que se devuelve el dominio de servicio al servicio.

Fujitsu M10 Servers: el comando ldm shrink-socket elimina memoria adicional si el bloque de memoria no está alineado

ID de bug 21299404: si usa el comando ldm shrink-socket para realizar una operación de DR de memoria y uno de los bloques de memoria del dominio no está alineado con 256, es posible que el comando elimine 256 MB adicionales de memoria del dominio activo. Si la memoria del dominio está fragmentada, es posible que el daemon ldmd intente eliminar memoria adicional.

Solución alternativa: ninguna.

ldm list-group muestra la misma memoria y la misma E/S en /SYS/MB y en otros grupos de recursos

ID de bug ID 21283102: es posible que el comando ldm list-rsrc-group muestre la misma información de memoria y de recursos de E/S en /SYS/MB (placa base) y en otros grupos de recursos. Por ejemplo:

primary# ldm list-group
NAME                                    CORE  MEMORY   IO
/SYS/PM0                                32    64G      4
/SYS/PM1                                32    256G     4
/SYS/PM2                                32    128G     4
/SYS/PM3                                32    128G     4
/SYS/MB                                 0     576G     16

primary# ldm list-group -a -l
NAME                                    CORE  MEMORY   IO
/SYS/PM0                                32    64G      4

CORE
    CID                                             BOUND
    0, 1                                            primary
    2, 3, 4, 5, 6, 7, 8, 9
    10, 11, 12, 13, 14, 15, 16, 17
    18, 19, 20, 21, 22, 23, 24, 25
    26, 27, 28, 29, 30, 31

MEMORY
    PA               SIZE             BOUND
    0x0              57M              _sys_
    0x3900000        32M              _sys_
    0x5900000        94M              _sys_
    0xb700000        393M             _sys_
    0x24000000       192M             _sys_
    0x30000000       31488M
    0x7e0000000      64M              _sys_
    0x7e4000000      64M              _sys_
    0x7e8000000      384M             _sys_
    0x80000000000    32G

IO
    DEVICE           PSEUDONYM        BOUND
    pci@300          pci_0            primary
    pci@340          pci_1            primary
    pci@380          pci_2            primary
    pci@3c0          pci_3            primary
------------------------------------------------------------------------------

NAME                                    CORE  MEMORY   IO
/SYS/PM1                                32    256G     4

CORE
    CID                                             BOUND
    32, 33, 34, 35, 36, 37, 38, 39
    40, 41, 42, 43, 44, 45, 46, 47
    48, 49, 50, 51, 52, 53, 54, 55
    56, 57, 58, 59, 60, 61, 62, 63

MEMORY
    PA               SIZE             BOUND
    0x100000000000   768M
    0x100030000000   24G              primary
    0x100630000000   105728M
    0x180000000000   128G

IO
    DEVICE           PSEUDONYM        BOUND
    pci@400          pci_4            primary
    pci@440          pci_5            primary
    pci@480          pci_6            primary
    pci@4c0          pci_7            primary
------------------------------------------------------------------------------

NAME                                    CORE  MEMORY   IO
/SYS/PM2                                32    128G     4

CORE
    CID                                             BOUND
    64, 65, 66, 67, 68, 69, 70, 71
    72, 73, 74, 75, 76, 77, 78, 79
    80, 81, 82, 83, 84, 85, 86, 87
    88, 89, 90, 91, 92, 93, 94, 95

MEMORY
    PA               SIZE             BOUND
    0x200000000000   64G
    0x280000000000   64G

IO
    DEVICE           PSEUDONYM        BOUND
    pci@500          pci_8            primary
    pci@540          pci_9            primary
    pci@580          pci_10           primary
    pci@5c0          pci_11           primary
------------------------------------------------------------------------------

NAME                                    CORE  MEMORY   IO
/SYS/PM3                                32    128G     4

CORE
    CID                                             BOUND
    96, 97, 98, 99, 100, 101, 102, 103
    104, 105, 106, 107, 108, 109, 110, 111
    112, 113, 114, 115, 116, 117, 118, 119
    120, 121, 122, 123, 124, 125, 126, 127

MEMORY
    PA               SIZE             BOUND
    0x300000000000   64G
    0x380000000000   64G

IO
    DEVICE           PSEUDONYM        BOUND
    pci@600          pci_12           primary
    pci@640          pci_13           primary
    pci@680          pci_14           primary
    pci@6c0          pci_15           primary
------------------------------------------------------------------------------

NAME                                    CORE  MEMORY   IO
/SYS/MB                                 0     576G     16

MEMORY
    PA               SIZE             BOUND
    0x0              57M              _sys_
    0x3900000        32M              _sys_
    0x5900000        94M              _sys_
    0xb700000        393M             _sys_
    0x24000000       192M             _sys_
    0x30000000       31488M
    0x7e0000000      64M              _sys_
    0x7e4000000      64M              _sys_
    0x7e8000000      384M             _sys_
    0x80000000000    32G
    0x100000000000   768M
    0x100030000000   24G              primary
    0x100630000000   105728M
    0x180000000000   128G
    0x200000000000   64G
    0x280000000000   64G
    0x300000000000   64G
    0x380000000000   64G

IO
    DEVICE           PSEUDONYM        BOUND
    pci@300          pci_0            primary
    pci@340          pci_1            primary
    pci@380          pci_2            primary
    pci@3c0          pci_3            primary
    pci@400          pci_4            primary
    pci@440          pci_5            primary
    pci@480          pci_6            primary
    pci@4c0          pci_7            primary
    pci@500          pci_8            primary
    pci@540          pci_9            primary
    pci@580          pci_10           primary
    pci@5c0          pci_11           primary
    pci@600          pci_12           primary
    pci@640          pci_13           primary
    pci@680          pci_14           primary
    pci@6c0          pci_15           primary

Solución alternativa: consulte la información detallada de memoria y E/S en las siguientes columnas para determinar si se muestra la misma información de recursos:

  • Memoria: PA, SIZE y BOUND

  • E/S: DEVICE, PSEUDONYM y BOUND

HBA SCSI virtual no visualiza cambios del LUN dinámico sin un reinicio

ID de bug 21188211: si se agregan o eliminan LUN desde una SAN virtual después de que se configura un HBA SCSI virtual, en ocasiones, el comando ldm rescan-vhba no muestra la nueva vista de LUN.

Solución alternativa: elimine el HBA SCSI virtual y vuelva a agregarlo. Compruebe si se ven los LUN. Si la eliminación y las operaciones para volver a agregar son incorrectas, deberá reiniciar el dominio invitado.

El Logical Domains Manager no debe confiar en el sondeo para obtener el estado de configuración desde un agente de DIO

ID de bug 21114622: cuando ejecuta el comando ldm create-vf o ldm destroy-vf, el controlador de función física asociado se desconecta y vuelve a conectar; esto lleva una cantidad importante de tiempo, pero no se puede definir. La cantidad de tiempo depende el número de funciones virtuales involucradas y en la complejidad del dispositivo de hardware de destino.

La ejecución del comando ldm list-io puede mostrar que la función física (y sus funciones virtuales secundarias) tienen el estado INV (no válido).

Actualmente, el Logical Domains Manager realiza un sondeo del agente durante un período de tiempo y, a continuación, detiene el sondeo. Si el período de sondeo es demasiado corto, es posible que el dispositivo muestre el estado INV de forma indefinida.


Notas - La solución del bug 20772410 debe reducir la incidencia de este problema.

Solución alternativa: desde el dominio raíz al que pertenece el dispositivo de función física, reinicie el servicio ldoms/agents.

primary# svcadm restart ldoms/agents

Ejecute este comando si el estado INV continúa durante al menos seis minutos después de ejecutar el comando ldm create-vf o el comando ldm destroy-vf.

vhba debe admitir los HBA SCSI cuando MPxIO está activado en el dominio de servicio

ID de bug 20951004: vhba debe admitir los HBA SCSI cuando MPxIO está activado en el dominio de servicio.

Solución alternativa: desactive MPxIO para todos los puertos del iniciador en el dominio de servicio mediante la ejecución del siguiente comando:

# stmsboot -d
Eliminación de alertas de supervisión de la FRU cuando se reasigna el bus de PCI desde el dominio primary al dominio invitado

ID de bug 20882700: cuando se elimina un dispositivo PCIe (o una función virtual de SR-IOV) de un dominio o se agrega a un dominio, el daemon de gestión de fallos fmd de Oracle Solaris 11.3 informa el evento de la misma manera que si se eliminara o se agregara una FRU.

    Es posible que vea mensajes de la consola y mensajes en el archivo /var/adm/messages, similares a los siguientes:

  • SUNW-MSG-ID: FMD-8000-A0, TYPE: Alert, VER: 1, SEVERITY: Minor
    EVENT-TIME: Tue May 19 18:39:41 PDT 2015
    PLATFORM: unknown, CSN: unknown, HOSTNAME: starbuck
    SOURCE: software-diagnosis, REV: 0.1
    EVENT-ID: 5077e6c3-6a15-457e-a55b-cb72ea5f9728
    DESC: FRU has been added to the system.
    AUTO-RESPONSE: FMD topology will be updated.
    IMPACT: System impact depends on the type of FRU.
    REC-ACTION: Use fmadm faulty to provide a more detailed view of this event. 
    Please refer to the associated reference document at 
    http://support.oracle.com/msg/FMD-8000-A0 for the latest service procedures 
    and policies regarding this diagnosis.
  • # fmadm faulty
    --------------- ------------------------------------  ----------- --------- 
    TIME            EVENT-ID                              MSG-ID      SEVERITY 
    
    --------------- ------------------------------------  ----------- --------- 
    Apr 14 10:04:00 2d981602-975c-4861-9f26-e37360eca697  FMD-8000-CV Minor    
    
    Problem Status    : open 
    Diag Engine       : software-diagnosis / 0.1 
    System 
        Manufacturer  : Oracle Corporation 
        Name          : SPARC T7-2 
        Part_Number   : T7_2 
        Serial_Number : T7_2 
        Host_ID       : 86582a8c 
    
    ---------------------------------------- 
    Suspect 1 of 1 : 
       Problem class : alert.oracle.solaris.fmd.fru-monitor.fru-remove 
       Certainty   : 100% 
    
       FRU 
         Status           : active/not present 
         Location         : "/SYS/MB/PCIE1" 
         Manufacturer     : unknown 
         Name             : unknown 
         Part_Number      : unknown 
         Revision         : unknown 
         Serial_Number    : unknown 
         Chassis 
            Manufacturer  : Oracle-Corporation 
            Name          : SPARC-T7-2 
            Part_Number   : T7_2 
            Serial_Number : T7_2 
       Resource 
         Status           : active/not present 
    
    Description : FRU '/SYS/MB/PCIE1' has been removed from the system. 
    
    Response    : FMD topology will be updated. 
    
    Impact      : System impact depends on the type of FRU. 
    
    Action      : Use 'fmadm faulty' to provide a more detailed view of this event. 
                  Please refer to the associated reference document at 
                  http://support.oracle.com/msg/FMD-8000-CV for the latest service 
                  procedures and policies regarding this diagnosis.

Solución alternativa: puede ignorar estas alertas siempre que se hayan generado mediante acciones explícitas del administrador para agregar o eliminar un dispositivo de E/S desde un dominio.

mpathadm muestra una salida de estado de ruta incorrecta para un HBA SCSI virtual cuando se extrae el cable del canal de fibra

ID de bug 20876502: la extracción del cable de SAN de un dominio de servicio que es parte de una configuración de dominio invitado MPxIO del HBA SCSI hace que la columna Path State (Estado de ruta) de la salida mpathadm muestre valores incorrectos. Además, la extracción del cable causa errores de funcionamiento de E/S en el dominio invitado.

Solución alternativa: conecte el cable de SAN y ejecute el comando ldm rescan-vhba para todos los HBA SCSI virtuales al dominio de servicio que tiene un cable conectado. Después de llevar a cabo esta solución alternativa, el dominio invitado debe reanudas las operaciones de E/S.

Error device busy al intentar eliminar un bus PCIe que aloja un dispositivo de almacenamiento que admite SES

ID de error 20774477: si utiliza dispositivos de almacenamiento que admiten SES, es posible que encuentre un error device busy al intentar eliminar un bus PCIe que aloja dichos dispositivos. Para determinar si está utilizando este tipo de dispositivo de almacenamiento, busque la cadena ses o enclosure en la salida ldm list-io -l para el bus PCIe.

Solución alternativa: realice una de las siguientes soluciones alternativas para eliminar el bus PCIe:

  • Elimine el bus PCIe de forma dinámica.

    1. Desactive el servicio FMD.

      primary# svcadm disable -st svc:/system/fmd
    2. Elimine el bus PCIe.

      primary# ldm remove-io bus
    3. Vuelva a activar el servicio FMD.

      primary# svcadm enable svc:/system/fmd
  • Elimine el bus PCIe de forma estática.

    1. Coloque el dominio raíz que tiene el bus PCIe en una reconfiguración retrasada.

      primary# ldm start-reconf root-domain
    2. Elimine el bus PCIe.

      primary# ldm remove-io bus
    3. Realice un reinicio de la consola de dominio raíz.

      root-domain# reboot
rcm_daemon podría emitir un mensaje en la consola durante una operación de ldm remove-io

ID de bug 20619894: si el paquete system/management/hwmgmtd no está instalado, una operación de eliminación de bus dinámico hace que rcm_daemon imprima el siguiente mensaje en la consola.

rcm_daemon[839]: rcm script ORCL,pcie_rc_rcm.pl: svcs: Pattern 'sp/management'
doesn't match any instances

Solución alternativa: puede omitir con seguridad este mensaje.

Para la eliminación del bus dinámico, es necesario conocer los dispositivos de SAN virtuales antes de eliminar un bus de PCIe

ID de bug 20532270: conozca las operaciones de E/S directa o de bus dinámico que intentan eliminar el HBA SCSI físico del control de SAN virtual.

Si realiza una operación de ldm remove-io en un recurso de PCIe al que hace referencia un dispositivo de SAN, ese dispositivo no se podrá usar si un comando de ldm add-vhba nunca hizo referencia a él. Si la operación de ldm remove-io se produce después de ejecutar el comando ldm add-vhba, el módulo vsan evita que se elimine el recurso de PCIe.

Solución alternativa: suprima la SAN virtual.

Después de quedar en factory-default, el modo de recuperación falla si el sistema se inicia desde un dispositivo diferente del que se inició en la configuración que estaba activa anteriormente

 

ID de bug 20425271: si se inicia una recuperación después de quedar en factory-default, el modo de recuperación falla si el sistema se inicia desde un dispositivo diferente del que se inició en la configuración que estaba activa anteriormente. Este fallo puede ocurrir si la configuración activa utiliza un dispositivo de inicio distinto del dispositivo de inicio factory-default.

Solución alternativa: realice los siguientes pasos cada vez que desee guardar una nueva configuración del SP.

  1. Determine la ruta PCI completa de acceso al dispositivo de inicio para el dominio primary.

    Use esta ruta de acceso para el comando ldm set-var en el paso 4.

  2. Elimine cualquier propiedad de boot-device establecida actualmente del dominio primary.

    Solo es necesario llevar a cabo este paso si la propiedad boot-device tiene un juego de valores. Si la propiedad no tiene un juego de valores, intente eliminar los resultados de la propiedad boot-device del mensaje boot-device not found.

    primary# ldm rm-var boot-device primary
  3. Guarde la configuración actual en el SP.

    primary# ldm add-spconfig config-name
  4. Defina explícitamente la propiedad boot-device para el dominio primary.

    primary# ldm set-var boot-device=value primary

    Si establece la propiedad boot-device después de guardar la configuración del SP, según se describe, el dispositivo de inicio especificado se inicia cuando se activa el modo de recuperación.

Recuperación: si el modo de recuperación ya ha fallado, según se describe, realice los siguientes pasos:

  1. Defina explícitamente como dispositivo de inicio el dispositivo usado en la última configuración en ejecución.

    primary# ldm set-var boot-device=value primary
  2. Reinicie el dominio primary.

    primary# reboot

    El reinicio permite que la recuperación continúe.

Se genera un mensaje de aviso grave cuando se usa el comando ldm rm-io virtual-function para MPxIO que contiene un HBA SCSI virtual

ID de bug 20046234: si un HBA SCSI virtual y un dispositivo SR-IOV de canal de fibra pueden ver los mismos LUN en un dominio invitado cuando se activa MPxIO, es posible que se produzca un mensaje de aviso grave. El mensaje de aviso grave se produce si se elimina la tarjeta SR-IOV del canal de fibra del dominio invitado y, a continuación, se vuelve e agregar.

Solución alternativa: no configure un dominio invitado con SR-IOV de canal de fibra y un HBA SCSI virtual si ambos están activados para MPxIO.

Los nodos ixgbevf en un dominio de E/S son informados como desactivados por el comando ipadm y como no existentes por el comando ifconfig

ID de bug 20004281: cuando el dominio primary se apaga y se vuelve a encender, los nodos ixgbevf en un dominio de E/S son informados como desactivados por el comando ipadm y como no existentes por el comando ifconfig.

Solución alternativa: vuelva a activar las interfaces IP:

# svcadm restart network/physical:default
Las interfaces HGXE no se pueden utilizar si se han asignado mediante el uso de E/S directa a un dominio de E/S

ID de bug 19943809: el controlador hxge no puede utilizar interfaces dentro de un dominio de E/S cuando la tarjeta se asigna mediante la función de E/S directa.

La siguiente advertencia se muestra en el archivo log del sistema:

WARNING: hxge0 : <== hxge_setup_mutexes: failed 0x1

Solución alternativa: agregue la siguiente línea al archivo /etc/system y reinicie:

set px:px_force_intx_support=1
Las actualizaciones del dominio invitado eeprom se pierden si no se completa una operación ldm add-spconfig

ID de bug 19932842: el intento de definir una variable OBP de un dominio invitado puede fallar si se utiliza el comando eeprom u OBP antes de que se complete uno de los siguientes comandos:

  • ldm add-spconfig

  • ldm remove-spconfig

  • ldm set-spconfig

  • ldm bind

Este problema puede surgir cuando estos comandos demoran más de 15 segundos en completarse.

# /usr/sbin/eeprom boot-file\=-k
promif_ldom_setprop: promif_ldom_setprop: ds response timeout
eeprom: OPROMSETOPT: Invalid argument
boot-file: invalid property

Recuperación: vuelva a intentar ejecutar el comando eeprom u OBP una vez que la operación ldm haya terminado.

Solución alternativa: vuelva a intentar ejecutar el comando eeprom u OBP en el dominio invitado afectado. Es posible que pueda evitar el problema con el comando ldm set-var en el dominio primary.

El reinicio de un dominio invitado con más de 1000 resultados de dispositivos de red virtual ocasiona un aviso grave

ID de bug 19449221: un dominio no puede tener más de 999 dispositivos de red virtual (vnet).

Solución alternativa: limite el número de vnet en un dominio a 999.

Oracle VM Server for SPARC ya no realiza un seguimiento de direcciones MAC liberadas

ID de bug 19078763: Oracle VM Server for SPARC ya no realiza un seguimiento de direcciones MAC liberadas. Las direcciones MAC ahora se asignan mediante la selección aleatoria de una dirección y la subsiguiente confirmación de que esa dirección no está siendo usada por ningún dominio lógico en la red local.

El firmware Sun Storage 16 Gb Fibre Channel Universal HBA no admite controles de ancho de banda

ID de bug 18083904: el firmware para tarjetas Sun Storage 16 Gb Fibre Channel Universal HBA, Emulex no admite los controles de ancho de banda de configuración. El firmware de HBA ignora cualquier valor que especifica para la propiedad bw-percent.

Solución alternativa: ninguna.

Ruta de dispositivo incorrecta para las funciones virtuales del canal de fibra en el dominio raíz

ID de bug 18001028: en el dominio raíz, la ruta del dispositivo Oracle Solaris para la función virtual del canal de fibra es incorrecta.

Por ejemplo, el nombre de ruta incorrecto es pci@380/pci@1/pci@0/pci@6/fibre-channel@0,2 mientras que debería ser pci@380/pci@1/pci@0/pci@6/SUNW,emlxs@0,2.

El resultado ldm list-io -l muestra la ruta correcta del dispositivo para las funciones virtuales del canal de fibra.

Solución alternativa: ninguna.

Pueden surgir problemas cuando la FMA detecta una memoria defectuosa

ID de bug 17576087:si se apaga y se vuelve a encender el sistema en una configuración guardada puede suceder que no se restaure la memoria una vez que se haya reemplazado la memoria defectuosa.

Solución alternativa: después de reemplazar la memoria defectuosa, apague y vuelva a encender el sistema en la configuración factory-default. A continuación, apague y vuelva a encender el sistema en la configuración que desea utilizar.

DLMP no funciona en un dominio invitado encima de un dispositivo de red virtual o una función virtual SR-IOV

No puede configurar una agregación DLMP en una función virtual NIC SR-IOV ni en un dispositivo de red virtual en un dominio invitado.

No se puede instalar el sistema operativo Oracle Solaris 11.1 con una etiqueta de disco EFI GPT en un disco virtual de segmento único

ID de bug 17422973: la instalación del sistema operativo Oracle Solaris 11.1 en un disco de segmento único puede generar el siguiente error en un servidor SPARC T4 que ejecuta al menos la versión 8.4.0 de firmware del sistema o un servidor SPARC T5, SPARC M5 o SPARC M6 que ejecuta al menos la versión 9.1.0 del firmware del sistema, o un Fujitsu M10 Server que ejecuta al menos la versión 2230 de XCP.

cannot label 'c1d0': try using fdisk(1M) and then provide a specific slice
Unable to build pool from specified devices: invalid vdev configuration

Solución alternativa: vuelva a etiquetar el disco con una etiqueta SMI.

Avisos graves del dominio invitado en lgrp_lineage_add(mutex_enter: bad mutex, lp=10351178)

ID de bug 17020950: después de migrar un dominio activo de una plataforma SPARC T4 a una plataforma SPARC T5, SPARC M5 o SPARC M6 enlazada con la versión 8.3 del firmware, la realización de una reconfiguración dinámica de memoria puede dar como resultado un aviso grave del dominio invitado.

Solución alternativa: antes de realizar la migración, actualice el sistema SPARC T4 con la versión 8.4 del firmware del sistema. Luego, vuelva a enlazar el dominio.

Se muestran mensajes engañosos para las operaciones de eliminación de SR-IOV InfiniBand

ID de bug 16979993: al intentar utilizar operaciones de eliminación de SR-IOV dinámicas en un dispositivo InfiniBand, se obtienen como resultado mensajes de error confusos e inadecuados.

Las operaciones de eliminación de SR-IOV dinámica no son compatibles con los dispositivos InfiniBand.

Solución alternativa: elimine las funciones virtuales de InfiniBand mediante uno de los siguientes procedimientos:

El dominio de E/S resistente debe admitir cambios de configuración del dispositivo PCI de soporte después de que se reinicia el dominio raíz

ID de bug 16691046: si se asignan funciones virtuales desde el dominio raíz, es posible que el dominio de E/S no pueda proporcionar resistencia en las siguientes situaciones de conexión en caliente:

  • Cuando se agrega un complejo de raíz (bus PCIe) de forma dinámica al dominio raíz y, a continuación, se crean las funciones virtuales y se las asigna al dominio de E/S.

  • Cuando se agrega en caliente una tarjeta SR-IOV al dominio raíz al que pertenece el complejo de raíz y, a continuación, se crean las funciones virtuales y se las asigna al dominio de E/S.

  • Cuando se sustituye o se agrega una tarjeta PCIe a una ranura vacía (ya se mediante conexión en caliente o cuando el dominio raíz está desactivado) en el complejo de raíz que pertenece al dominio raíz. Este dominio raíz proporciona funciones virtuales desde el complejo de raíz al dominio de E/S.

Solución alternativa: realice uno de los siguientes pasos:

  • Si el complejo de raíz ya proporciona funciones virtuales al dominio de E/S y agrega, elimina o sustituye una tarjeta PCIe del complejo de raíz (mediante conexión en caliente o cuando el dominio raíz está desactivado), debe reiniciar el dominio raíz y el dominio de E/S.

  • Si el complejo de raíz no tiene funciones virtuales asignadas actualmente al dominio de E/S y agrega una tarjeta SR-IOV u otra tarjeta PCIe al complejo de raíz, debe detener el dominio raíz para agregar la tarjeta PCIe. Una vez que se ha reiniciado el dominio de raíz, puede asignar funciones virtuales desde el complejo de raíz al dominio de E/S.

  • Si desea agregar un nuevo bus PCIe al dominio raíz y, a continuación, crear y asignar funciones virtuales desde el bus al dominio de E/S, lleve a cabo uno de los siguientes pasos y, a continuación, reinicie el dominio raíz:

    • Agregue el bus durante un reconfiguración retrasada.

    • Agregue el bus de forma dinámica.

Dominios invitados en estado de transición después del reinicio del dominio primary

ID de bug 16659506: un dominio invitado está en estado de transición (t) tras un reinicio del dominio primary. Este problema se produce cuando hay una gran cantidad de funciones virtuales configuradas en el sistema.

Solución alternativa: para evitar este problema, vuelva a intentar ejecutar el comando de inicio del disco OBP varias veces para evitar un inicio desde la red.

    Realice los siguientes pasos en cada dominio:

  1. Acceda a la consola del dominio.

    primary# telnet localhost 5000
  2. Establezca la propiedad boot-device.

    ok> setenv boot-device disk disk disk disk disk disk disk disk disk disk net

    La cantidad de entradas de disk que especifique como valor de la propiedad boot-device depende de la cantidad de funciones virtuales que haya configuradas en el sistema. En sistemas más pequeños, es posible que pueda incluir menos instancias de disk en el valor de la propiedad.

  3. Verifique que la propiedad boot-device esté establecida correctamente mediante el comando printenv.

    ok> printenv
  4. Vuelva a la consola del dominio primary.

  5. Repita los pasos de 1 a 4 para cada dominio del sistema.

  6. Reinicie el dominio primary.

    primary# shutdown -i6 -g0 -y
Los subdispositivos en un dispositivo PCIe se revierten a un nombre no asignado

ID de bug 16299053: después de desactivar un dispositivo PCIe, es posible que experimente un comportamiento inesperado. Los subdispositivos que se encuentran en el dispositivo PCIe desactivado se revierten a los nombres no asignados mientras el dispositivo PCIe sigue siendo propiedad del dominio.

Solución alternativa: si decide desactivar una ranura PCIe en ILOM, asegúrese de que la ranura PCIe no esté asignada a un dominio por medio de la función de E/S directa (DIO). Es decir, compruebe primero que la ranura PCIe se haya asignado al dominio raíz correspondiente antes de desactivar la ranura en ILOM.

Si desactiva la ranura PCIe en ILOM mientras la ranura PCIe está asignada a un dominio con DIO, detenga ese dominio y vuelva a asignar el dispositivo al dominio raíz para que el comportamiento sea correcto.

WARNING: ddi_intr_alloc: cannot fit into interrupt pool significa que se agota el suministro de interrupciones mientras se conectan controladores de dispositivos de E/S

ID de bug 16284767: esta advertencia sobre la consola de Oracle Solaris significa que el suministro de interrupciones se ha agotado mientras se conectan los controladores de los dispositivos de E/S:

WARNING: ddi_intr_alloc: cannot fit into interrupt pool

El hardware proporciona una cantidad infinita de interrupciones, de modo que Oracle Solaris limita la cantidad que cada dispositivo puede utilizar. Hay un límite predeterminado diseñado para satisfacer las necesidades de las configuraciones del sistema típicas; sin embargo, este límite puede necesitar un ajuste para determinadas configuraciones del sistema.

Específicamente, es posible que sea necesario ajustar el límite si el sistema está particionado en varios dominios lógicos y si hay demasiados dispositivos de E/S asignados a algún dominio invitado. Oracle VM Server for SPARC divide el total de las interrupciones en pequeños conjuntos proporcionados a los dominios invitados. Si hay demasiados dispositivos de E/S asignados a un dominio invitado, el suministro puede ser demasiado pequeño para proporcionar a cada dispositivo el límite predeterminado de interrupciones. Por lo tanto, el suministro se agota antes de que se conecten completamente todos los controladores.

Algunos controladores proporcionan una rutina de devolución de llamada opcional que le permite a Oracle Solaris ajustar automáticamente sus interrupciones. El límite predeterminado no se aplica a estos controladores.

Solución alternativa: utilice las macros MDB ::irmpools and ::irmreqs para determinar cómo se utilizan las interrupciones. La macro ::irmpools muestra el suministro total de interrupciones dividido en agrupaciones. La macro ::irmreqs muestra los dispositivos asignados a cada agrupación. Para cada dispositivo, ::irmreqs muestra si el límite predeterminado se aplica por una rutina de devolución de llamada opcional, la cantidad de interrupciones solicitadas por cada controlador y la cantidad de interrupciones que recibe el controlador.

Las macros no muestran información sobre los controladores que no se pueden conectar. Sin embargo, la información que se muestra ayuda a calcular la medida hasta la que se puede ajustar el límite predeterminado. Cualquier dispositivo que utiliza más de una interrupción sin proporcionar una rutina de devolución de llamada puede forzarse a utilizar menos interrupciones ajustando el límite predeterminado. La reducción del límite predeterminado por debajo de la cantidad que utiliza el dispositivo puede dar como resultado la liberación de interrupciones que usan otros dispositivos.

Para ajustar el límite predeterminado, establezca la propiedad ddi_msix_alloc_limit en un valor de 1 a 8 en el archivo /etc/system. A continuación, reinicie el sistema para que el cambio surta efecto.

Para maximizar el rendimiento, comience por asignar los mayores valores y reducir los valores en incrementos pequeños hasta que el sistema se inicie correctamente sin advertencias. Use las macros ::irmpools y ::irmreqs para medir el impacto del ajuste en todos los controladores conectados.

Por ejemplo, suponga que las siguientes advertencias se emiten durante el inicio del SO Oracle Solaris en un dominio invitado:

WARNING: emlxs3: interrupt pool too full.
WARNING: ddi_intr_alloc: cannot fit into interrupt pool

Las macros ::irmpools y ::irmreqs muestran la siguiente información:

# echo "::irmpools" | mdb -k
ADDR             OWNER   TYPE   SIZE  REQUESTED  RESERVED
00000400016be970 px#0    MSI/X  36    36         36

# echo "00000400016be970::irmreqs" | mdb -k
ADDR             OWNER   TYPE   CALLBACK NINTRS NREQ NAVAIL
00001000143acaa8 emlxs#0 MSI-X  No       32     8    8
00001000170199f8 emlxs#1 MSI-X  No       32     8    8
000010001400ca28 emlxs#2 MSI-X  No       32     8    8
0000100016151328 igb#3   MSI-X  No       10     3    3
0000100019549d30 igb#2   MSI-X  No       10     3    3
0000040000e0f878 igb#1   MSI-X  No       10     3    3
000010001955a5c8 igb#0   MSI-X  No       10     3    3

El límite predeterminado en este ejemplo es de ocho interrupciones por dispositivo, lo cual no es suficiente para la conexión del dispositivo final emlxs3 con el sistema. Dado que todas las instancias de emlxs se comportan del mismo modo, supone que emlxs3 probablemente solicitó 8 interrupciones.

Al restar las 12 interrupciones utilizadas por todos los dispositivos igb de la agrupación total de 36 interrupciones, quedan 24 interrupciones disponibles para los dispositivos emlxs. La división de las 24 interrupciones por 4 sugiere que 6 interrupciones por dispositivo permitirían que todos los dispositivos emlxs se conecten con el mismo rendimiento. Por lo tanto, el siguiente ajuste se agrega al archivo /etc/system:

set ddi_msix_alloc_limit = 6

Cuando el sistema se inicia correctamente sin advertencias, las macros ::irmpools y ::irmreqs muestran la siguiente información actualizada:

# echo "::irmpools" | mdb -k
ADDR             OWNER   TYPE   SIZE  REQUESTED  RESERVED
00000400018ca868 px#0    MSI/X  36    36         36
 
# echo "00000400018ca868::irmreqs" | mdb -k
ADDR             OWNER   TYPE   CALLBACK NINTRS NREQ NAVAIL
0000100016143218 emlxs#0 MSI-X  No       32     8    6
0000100014269920 emlxs#1 MSI-X  No       32     8    6
000010001540be30 emlxs#2 MSI-X  No       32     8    6
00001000140cbe10 emlxs#3 MSI-X  No       32     8    6
00001000141210c0 igb#3   MSI-X  No       10     3    3
0000100017549d38 igb#2   MSI-X  No       10     3    3
0000040001ceac40 igb#1   MSI-X  No       10     3    3
000010001acc3480 igb#0   MSI-X  No       10     3    3
Es posible que el dispositivo ixgbevf en los dominios SR-IOV se desactive al reiniciar el dominio primary

ID de bug 16224353: tras reiniciar el dominio principal, es posible que las instancias ixgbevf del dominio primary no funcionen.

Solución alternativa: ninguna.

SPARC M5-32 y SPARC M6-32: el controlador LSI-SAS se exporta incorrectamente con SR-IOV

ID de bug 16071170: en un sistema SPARC M5-32 o SPARC M6-32, los controladores SAS internos se exportan como controladores para SR-IOV aunque estas tarjetas no admitan SR-IOV.

El log de Oracle VM Server for SPARC muestra los siguientes mensajes al intentar crear la función física en estas tarjetas:

Dec 11 04:27:54 warning: Dropping pf
pci@d00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@d80/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@c00/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@e00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver

El sistema tiene cuatro puertos de controlador LSI SAS, cada uno en una IOU del conjunto SPARC M5-32 y SPARC M6-32. Este error se notifica para cada puerto.

Solución alternativa: puede omitir estos mensajes. Estos mensajes solo indican que los dispositivos de controladores LSI-SAS del sistema admiten SR-IOV, pero no hay compatibilidad con SR-IOV disponible para este hardware.

SPARC T5-8: Los datos del tiempo de actividad muestran un valor de 0 para algunos comandos de lista ldm

ID de bug 16068376: en un sistema T5-8 con aproximadamente 128 dominios, algunos comandos ldm, como ldm list, pueden mostrar 0 segundos como el tiempo de actividad para todos los dominios.

Solución alternativa: inicie sesión en el dominio y utilice el comando uptime para determinar el tiempo de actividad del dominio.

No aparece ningún mensaje de error cuando se realiza una agregación de DR de memoria de manera parcialmente correcta

ID de bug 15812823: en situaciones de poca memoria libre, no todos los bloques de memoria pueden usarse como parte de una operación de DR de memoria debido al tamaño. Sin embargo, estos bloques de memoria se incluyen en la cantidad de memoria libre. Esta situación puede hacer que se agregue al dominio una cantidad de memoria menor que la esperada. No aparece ningún mensaje de error si se produce esta situación.

Solución alternativa: ninguna.

Es posible que el comando ldm init-system no restaure correctamente una configuración de dominio en la que se han realizado cambios de E/S física

ID de bug 15783031: puede experimentar problemas al usar el comando ldm init-system para restaurar una configuración de dominio que ha utilizado operaciones de E/S directa o SR-IOV.

    Surge un problema si una o más de las siguientes operaciones se han realizado en la configuración que se va a restaurar:

  • Una ranura se ha eliminado de un bus que sigue siendo propiedad del dominio primary.

  • Una función virtual se ha creado a partir de una función física que es propiedad del dominio primary.

  • Una función virtual se ha asignado al dominio primary, a otros dominios invitados, o a ambos.

  • Un complejo raíz se ha eliminado del dominio primary y se ha asignado a un dominio invitado, y se utiliza como base para otras operaciones de virtualización de E/S.

    Es decir, ha creado un dominio raíz que no es primary y ha realizado alguna de las operaciones anteriores.

Para asegurarse de que el sistema permanezca en un estado en el que ninguna de las acciones anteriores se hayan realizado, consulte Using the ldm init-system Command to Restore Domains on Which Physical I/O Changes Have Been Made..

El dominio de control requiere el núcleo más bajo del sistema

ID de bug 15778392: el dominio de control requiere el núcleo más bajo del sistema. Por lo tanto, si el ID de núcleo 0 es el núcleo más bajo, no se puede compartir con ningún otro dominio si desea aplicar la restricción de núcleo completo al dominio de control.

Por ejemplo, si el núcleo más bajo del sistema es el ID de núcleo 0, el dominio de control tendrá un aspecto similar al siguiente:

# ldm ls -o cpu primary
NAME
primary

VCPU
VID    PID    CID    UTIL STRAND
0      0      0      0.4%   100%
1      1      0      0.2%   100%
2      2      0      0.1%   100%
3      3      0      0.2%   100%
4      4      0      0.3%   100%
5      5      0      0.2%   100%
6      6      0      0.1%   100%
7      7      0      0.1%   100%
Limitación del número máximo de funciones virtuales que se puede asignar a un dominio

ID de bug 15775637: un dominio de E/S tiene un límite para el número de recursos de interrupción disponibles por cada complejo de raíz.

En los sistemas SPARC T3 y SPARC T4, el límite es de aproximadamente 63 MSI/vectores X. Cada función virtual igb utiliza tres interrupciones. La función virtual ixgbe utiliza dos interrupciones.

Si asigna una gran cantidad de funciones virtuales a un dominio, se agotan los recursos del sistema del dominio necesarios para admitir estos dispositivos. Aparecerán mensajes similares a los siguientes:

WARNING: ixgbevf32: interrupt pool too full.
WARNING: ddi_intr_alloc: cannot fit into interrupt pool
Si se intenta establecer una conexión con la consola de dominio invitado mientras esta se está enlazando, es posible que la entrada se bloquee

ID de bug 15771384: la consola invitada de un dominio puede detenerse si se realizan intentos reiterados de conectarse a la consola antes y durante el momento en que la consola se enlaza. Por ejemplo, esto puede suceder si utiliza una secuencia de comandos automatizada para capturar la consola como un dominio que se migra en el equipo.

Solución alternativa: para activar la consola, ejecute los siguientes comandos en el dominio que aloja al concentrador de la consola del dominio (normalmente el dominio de control):

primary# svcadm disable vntsd
primary# svcadm enable vntsd
No se debe permitir ldm remove-io en las tarjetas PCIe que tienen puentes de PCIe a PCI

ID de bug 15761509: utilice solo tarjetas PCIe que admiten la función de E/S directa. Estas tarjetas se enumeran en support document.

Solución alternativa: utilice el comando ldm add-io para agregar la tarjeta al dominio primary.

El comando ldm stop puede generar un error si se ejecuta inmediatamente después de un comando ldm start

ID de bug 15759601: si ejecuta un comando ldm stop inmediatamente después de un comando ldm start, el comando ldm stop puede generar el siguiente error:

LDom domain-name stop notification failed

Solución alternativa: vuelva a ejecutar el comando ldm stop.

Se produce un error grave en el sistema cuando se reinicia un dominio primary que tiene un gran número de funciones virtuales asignadas

ID de bug 15750727: se puede producir un aviso grave en el sistema al reiniciar un dominio primary que tiene una gran cantidad de funciones virtuales asignadas.

Solución alternativa: siga una de estas soluciones alternativas:

  • Disminuya el número de funciones virtuales para reducir el número de funciones virtuales con errores. Este cambio puede mantener la capacidad de respuesta del chip.

  • Cree más agrupaciones de gestión de recursos de interrupción (IRM, Interrupt Resource Management) para la función virtual ixgbe, ya que solo se crea una agrupación de IRM de manera predeterminada para todas las funciones virtuales ixgbe del sistema.

El núcleo parcial primary no permite las transiciones de la DR de núcleo completo

ID de bug 15748348: cuando el dominio primary comparte el núcleo físico más bajo (por lo general, 0) con otro dominio, se produce un error al intentar definir la restricción de núcleo completo para el dominio primary.

Solución alternativa: siga estos pasos:

  1. Determine el núcleo enlazado más bajo compartido por los dominios.

    # ldm list -o cpu
  2. Desenlace todos los subprocesos de CPU correspondientes al núcleo más bajo de todos los dominios, excepto del dominio primary.

    Como resultado, los subprocesos de CPU correspondientes al núcleo más bajo no se comparten y están disponibles para enlazarse con el dominio primary.

  3. Para definir la restricción de núcleo completo, siga uno de estos pasos:

    • Enlace los subprocesos de CPU al dominio primary y defina la restricción de núcleo completo con el comando ldm set-vcpu -c.

    • Utilice el comando ldm set-core para enlazar los subprocesos de CPU y definir la restricción de núcleo completo en un solo paso.

No es posible usar las operaciones de conexión en marcha de Oracle Solaris para eliminar un dispositivo de punto final PCIe cuando está en funcionamiento

ID de bug 15721872: no puede utilizar las operaciones de conexión en marcha de Oracle Solaris para eliminar un dispositivo de terminal PCIe cuando está en funcionamiento después de que dicho dispositivo se eliminó del dominio primary mediante el comando ldm rm-io. Para obtener información sobre cómo reemplazar o eliminar un dispositivo de punto final PCIe, consulte Realización de cambios de hardware en PCIe de Guía de administración para Oracle VM Server for SPARC 3.3 .

La DRM y el resultado de ldm list muestran un número de CPU virtuales diferente del que realmente hay en el dominio invitado

ID de bug 15701853: es posible que aparezca el mensaje No response en el log de Oracle VM Server for SPARC cuando la política DRM de un dominio cargado caduca una vez que el recuento de CPU se ha reducido significativamente. La salida del comando ldm list muestra que hay más recursos de CPU asignados al dominio de los que se muestran en la salida de psrinfo.

Solución alternativa: utilice el comando ldm set-vcpu para restablecer el número de CPU del dominio al valor que se muestra en el resultado de psrinfo.

SPARC T3-1: problema con los discos disponibles a través de varias rutas de E/S directa

ID de bug 15668368: un sistema SPARC T3-1 se puede instalar con discos de dos puertos, a los que se puede acceder mediante dos dispositivos de E/S directa diferentes. En este caso, asignar estos dos dispositivos de E/S directa a dominios diferentes puede provocar que los discos se utilicen en ambos dominios y que se vean afectados en función del uso real de esos discos.

Solución alternativa: no asigne dispositivos de E/S directa con acceso al mismo conjunto de discos a diferentes dominios de E/S. Para determinar si tiene discos de dos puertos en el sistema SPARC T3-1, ejecute el siguiente comando en el SP:

-> show /SYS/SASBP

Si el resultado incluye el valor fru_description siguiente, el sistema correspondiente tiene discos de dos puertos:

fru_description = BD,SAS2,16DSK,LOUISE

Si se encuentran discos de dos puertos en el sistema, asegúrese de que estos dos dispositivos de E/S directa estén siempre asignados al mismo dominio:

pci@400/pci@1/pci@0/pci@4  /SYS/MB/SASHBA0
pci@400/pci@2/pci@0/pci@4  /SYS/MB/SASHBA1
Dominios invitados que ejecutan Oracle Solaris 10: Las operaciones de eliminación de la DR de memoria con varias instancias nxge de NIU asociadas se pueden bloquear de forma indefinida y nunca completarse

ID de bug 15667770: cuando se asocian varias instancias nxge de NIU en un dominio, es posible que los comandos ldm rm-mem y ldm set-mem, que se utilizan para eliminar memoria del dominio, nunca se completen. Para determinar si el problema se ha producido durante una operación de eliminación de memoria, supervise el progreso de la operación con el comando ldm list -o status. Es posible que tenga este problema si el porcentaje del progreso sigue siendo constante durante varios minutos.

Solución alternativa: cancele el comando ldm rm-mem o ldm set-mem, y compruebe si se eliminó una cantidad suficiente de memoria. Si no es así, es posible que se complete correctamente un comando de eliminación de memoria posterior para eliminar una menor cantidad de memoria.

    Si el problema se ha producido en el dominio primary, haga lo siguiente:

  1. Inicie una operación de reconfiguración retrasada en el dominio primary.

    # ldm start-reconf primary
  2. Asigne la cantidad de memoria que desee al dominio.

  3. Reinicie el dominio primary.

Si el problema se ha producido en otro dominio, detenga el dominio antes de ajustar la cantidad de memoria asignada al dominio.

Al usar el comando ldm stop -a en dominios con una relación de maestro-esclavo, el esclavo conserva el indicador stopping

ID de bug 15664666: cuando se crea una dependencia de restablecimiento, el comando ldm stop -a puede generar que se reinicie un dominio con una dependencia de restablecimiento en lugar de que solo se detenga.

Solución alternativa: en primer lugar, ejecute el comando ldm stop en el dominio maestro. Luego, ejecute el comando ldm stop en el dominio esclavo. Si la detención inicial del dominio esclavo genera un error, ejecute el comando ldm stop -f en el dominio esclavo.

La reconfiguración dinámica de los valores MTU de dispositivos de red virtual a veces produce errores

ID de bug 15631119: si modifica la unidad de transmisión máxima (MTU) de un dispositivo de red virtual en el dominio de control, se inicia una operación de reconfiguración retrasada. Si posteriormente cancela la reconfiguración retrasada, el valor MTU del dispositivo no se restablece al valor original.

Recuperación: vuelva a ejecutar el comando ldm set-vnet para establecer la MTU al valor original. Al restablecer el valor MTU, el dominio de control pasará al modo de reconfiguración retrasada, el cual deberá cancelar. El valor MTU resultante es ahora el valor MTU correcto original.

# ldm set-vnet mtu=orig-value vnet1 primary
# ldm cancel-op reconf primary
La eliminación dinámica de todas las unidades criptográficas de un dominio provoca la terminación de SSH

ID de bug 15600969: si todas las unidades criptográficas del hardware se eliminan dinámicamente de un dominio en ejecución, la estructura criptográfica no puede cambiar a los proveedores de software criptográficos y se terminan todas las conexiones ssh.

Recuperación: vuelva a establecer las conexiones ssh una vez que todas las unidades criptográficas se hayan eliminado del dominio.

Solución alternativa: establezca UseOpenSSLEngine=no en el archivo /etc/ssh/sshd_config del servidor y ejecute el comando svcadm restart ssh.

Todas las conexiones ssh ya no utilizarán las unidades criptográficas de hardware (y, por lo tanto, no se beneficiarán de las mejoras de rendimiento relacionadas) y las conexiones ssh no se desconectarán cuando se eliminen dichas unidades.

La tarjeta Ethernet de fibra de 10 gigabits dual PCI Express muestra cuatro subdispositivos en el resultado de ldm list-io -l

ID de error 15597025: cuando se ejecuta el comando ldm ls-io -l en un sistema que tiene instalada una tarjeta Ethernet de fibra de 10 gigabits dual PCI Express (X1027A-Z), la salida puede ser la siguiente:

primary# ldm ls-io -l
...
pci@500/pci@0/pci@c PCIE5 OCC primary
network@0
network@0,1
ethernet
ethernet

El resultado muestra cuatro subdispositivos aunque esta tarjeta Ethernet solo tiene dos puertos. Esta anomalía se produce porque la tarjeta tiene cuatro funciones PCI. Dos de estas funciones se desactivan internamente y aparecen como ethernet en el resultado de ldm ls-io -l.

Solución alternativa: puede omitir las entradas ethernet en el resultado de ldm ls-io -l.

Los comandos ldm responden con lentitud cuando se inician varios dominios

ID de bug 15572184: un comando ldm puede tardar en responder cuando se inician varios dominios. Si ejecuta un comando ldm en esta etapa, puede parecer que el comando se bloquea. Tenga en cuenta que el comando ldm se restablecerá después de realizar la tarea esperada. Una vez que se restablece el comando, el sistema debe responder normalmente a los comandos ldm.

Solución alternativa: evite iniciar varios dominios de forma simultánea. Sin embargo, si debe iniciar varios dominios a la vez, intente no ejecutar más comandos ldm hasta que el sistema vuelve a su estado normal. Por ejemplo, espere aproximadamente dos minutos en los servidores Sun SPARC Enterprise T5140 y T5240, y alrededor de cuatro minutos en el servidor Sun SPARC Enterprise T5440 o el servidor Sun Netra T5440.

Oracle Solaris 11: es posible que no se inicien las zonas configuradas con una interfaz de red automática

ID de bug 15560811: en Oracle Solaris 11, es posible que las zonas que están configuradas con una interfaz de red automática (anet) no se inicien en un dominio que solo tiene dispositivos de red virtual de Logical Domains.

  • Solución alternativa 1: asigne uno o más dispositivos de red física al dominio invitado. Utilice la función de asignación de bus PCIe, E/S directa o SR-IOV para asignar una NIC física al dominio.

  • Solución alternativa 2: si el requisito de configuración de zonas es tener comunicación entre las zonas solo dentro del dominio, cree un dispositivo etherstub. Utilice el dispositivo etherstub como “enlace inferior” en la configuración de zonas de manera que las NIC virtuales se creen en el dispositivo etherstub.

  • Solución alternativa 3: utilice la asignación de vínculos exclusivos para asignar un dispositivo de red virtual de Logical Domains a una zona. Asigne los dispositivos de red virtual al dominio, como sea necesario. También puede optar por desactivar los vínculos entre redes virtuales para crear una gran cantidad de dispositivos de red virtual.

Logical Domains Manager no se inicia si el equipo no está conectado a la red y se ejecuta un cliente NIS

ID de bug 15518409: si no tiene una red configurada en el equipo y hay un cliente del servicio de información de red (NIS) en ejecución, Logical Domains Manager no se iniciará en el sistema.

Solución alternativa: desactive el cliente NIS en el equipo no conectado a la red:

# svcadm disable nis/client
A veces, al ejecutar el comando uadmin 1 0 en un sistema con Logical Domains, el sistema no vuelve al indicador OK

ID de bug 15511551: a veces, al ejecutar el comando uadmin 1 0 desde la línea de comandos de un sistema con Logical Domains, el sistema no regresa al indicador ok después de un reinicio posterior. Este comportamiento incorrecto se advierte cuando la variable auto-reboot? de Logical Domains está definida en true. Si auto-reboot? se ha definido en false, el comportamiento es el esperado.

Solución alternativa: utilice este comando en su lugar:

uadmin 2 0

O bien, siempre realice la ejecución con la variable auto-reboot? definida en false.

La instalación en red simultánea de varios dominios no se realiza correctamente cuando tienen un grupo de consolas común

ID de bug 15453968: la instalación en red simultánea de varios dominios invitados no se realiza correctamente en los sistemas que tienen un grupo de consolas común.

Solución alternativa: solo realice una instalación en red de dominios invitados que tengan su propio grupo de consolas. Este error solo se observa en dominios que comparten un grupo de consolas común entre varios dominios de instalación en red.

El comando eeprom no puede modificar las variables de OpenBoot PROM cuando Logical Domains Manager está en ejecución

ID de bug 15387338: este problema se resume en Conservación de variables de Logical Domains de Guía de administración para Oracle VM Server for SPARC 3.3 y afecta únicamente al dominio de control.

No se pueden definir claves de seguridad cuando se ejecuta Logical Domains

ID de bug 15370442: el entorno con Logical Domains no permite definir ni suprimir claves de inicio de red de área amplia (WAN) desde el SO Oracle Solaris mediante el comando ickey(1M). Se produce el siguiente error en todas las operaciones ickey:

ickey: setkey: ioctl: I/O error

Además, las claves de inicio WAN que se definen con el firmware OpenBoot en dominios lógicos distintos del dominio de control no se recuerdan tras reiniciar el dominio. En estos dominios, las claves del firmware OpenBoot solamente son válidas para un único uso.

El comportamiento del comando ldm stop-domain puede resultar confuso

ID de bug 15368170: en algunos casos, el comportamiento del comando ldm stop-domain puede resultar confuso.

# ldm stop-domain -f domain-name

Si el dominio se encuentra en el indicador del depurador del módulo de núcleo, kmdb(1), se produce el siguiente mensaje de error al ejecutar el comando ldm stop-domain:

LDom <domain-name> stop notification failed