JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Notas de la versión de Oracle VM Server for SPARC 3.0     Oracle VM Server for SPARC (Español)
search filter icon
search icon

Información del documento

Prólogo

1.  Notas de la versión de Oracle VM Server for SPARC 3.0

Novedades de esta versión

Requisitos del sistema

Plataformas admitidas

Software y parches necesarios

Versiones necesarias y recomendadas del SO Oracle Solaris

Software necesario para activar las funciones de Oracle VM Server for SPARC 3.0

Parches del firmware del sistema necesarios y recomendados

Versión mínima de software necesaria

Requisitos de hardware y software para E/S directa

Requisitos de hardware y software de SR-IOV PCIe

Ubicación del software Oracle VM Server for SPARC 3.0

Ubicación de los parches

Ubicación de la documentación

Software relacionado

Software opcional

Software que puede utilizarse con Logical Domains Manager

Software del controlador del sistema que interactúa con el software Logical Domains

Actualización al software Oracle VM Server for SPARC 3.0

Funciones que ya no se utilizan en la versión Oracle VM Server for SPARC 3.0

Problemas conocidos

Problemas generales

Actualización del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 5/08

Procesador de servicio y controlador del sistema son términos intercambiables

En determinadas circunstancias, es posible que se pierdan la configuración o los metadispositivos de Solaris Volume Manager de un dominio invitado

Canales de dominio lógico y Logical Domains

Requisitos del tamaño de la memoria

Inicio de un gran número de dominios

Cierre y apagado y encendido sin errores de un sistema con Logical Domains

El tamaño de memoria solicitado puede ser diferente a la memoria asignada

Conservación de variables de Logical Domains

El agente de gestión de SNMP Sun de Oracle no admite varios dominios

Reconfiguración retrasada

Unidades criptográficas

Comando ldmp2v convert: mensajes de advertencia de VxVM durante el inicio

Requisitos de partición física de Oracle para licencias de software

No se muestra la opción de actualización cuando se utiliza ldmp2v prepare -R

Un bloque de memoria agregada de forma dinámica sólo se puede eliminar dinámicamente como un conjunto

Comando ldmp2v: el método de archivado ufsdump ya no se utiliza

Sólo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada

Restricciones en la migración de dominios

Restricciones de versiones para la migración

Compatibilidad de SPARC M5 y SPARC T5 para la migración cpu-arch=generic

Restricciones de CPU para la migración

Problemas de MIB de Oracle VM Server for SPARC

El comando snmptable no funciona con la opción de las versiones 2 o 3

Errores que afectan el software Oracle VM Server for SPARC 3.0

Se genera el aviso grave send_mondo_set: timeout cuando se utiliza el comando ldm stop en un dominio invitado tras un esfuerzo

SPARC T5 y SPARC M5: mientras dispositivos SR-IOV están en uso, los intentos de desenlazar o eliminar recursos se bloquean y no se pueden detener mediante Ctrl-C

Agregar de forma dinámica un hilo hardware defectuoso a un dominio puede provocar un aviso grave

Los subdispositivos en un dispositivo PCIe se revierten a un nombre no asignado

SPARC M5-32: panic: mpo_cpu_add: Cannot read MD

SPARC M5-32: la conmutación por error del complejo raíz podría generar una configuración de dominio invitado de E/S directa incorrecta

SPARC M5-32: problema con los discos disponibles a través de varias rutas de E/S directa

Es posible que el dispositivo ixgbevf en los dominios SR-IOV se desactive al reiniciar el dominio primary

Es posible que el reinicio del dominio primary en Oracle Solaris 10 1/13 no asocie ni asigne automáticamente una dirección IP a una interfaz de funciones virtuales

La limitación de energía de ILOM debe sincronizar las actualizaciones de ajuste con las actualizaciones de /SYS/VPS

Un dominio invitado no se puede iniciar cuando se desactivan los dispositivos IOV prestados

Aviso grave mutex_enter: bad mutex en el dominio primary durante una operación de reinicio o cierre

SPARC M5-32: el controlador LSI-SAS se exporta incorrectamente con SR-IOV

No se puede definir una MTU gigante para las funciones virtuales sxge en el dominio primary de un sistema SPARC T5-1B

Los recursos previamente incluidos en la lista negra se marcan incorrectamente como disponibles con una evacuación pendiente tras un reinicio de Logical Domains Manager

ldmd no puede definir los valores de las propiedades mac-addr y alt-mac-addrs para el dispositivo sxge

Faltan dos propiedades en la salida del comando ldm list-io -d para un dispositivo sxge en SPARC T5-1B

Restricciones adicionales para la migración

ldmconfig produce un error: la corrección del ID de error 15972394 antecede la configuración de factory-default sin modificar

Puede parecer que se produce un error en la DR de una gran cantidad de CPU virtuales

Se agota el tiempo de espera de la migración de un dominio invitado con redes virtuales HIO y cpu-arch=generic mientras se espera que el dominio se suspenda

SPARC T4-4: no se puede enlazar un dominio invitado

El dominio invitado puede generar un aviso grave cuando la DR de CPU se realiza tras una migración entre CPU

El dominio invitado no se inicia cuando la memoria está muy fragmentada

La reconfiguración dinámica de las CPU disponibles genera el aviso grave lpl_topo_verify fail -5

Los dominios raíz no pueden tener dependencias en otros dominios raíz

El dominio invitado genera un aviso grave tras una migración cuando se agregan núcleos

El dominio invitado genera un aviso grave cuando se cambia el valor de la propiedad threading de max-throughput a max-ipc

El dominio de control se cuelga al reiniciar con dos dominios activos de E/S directa

ldm rm-io debe aceptar --dry-run como alias de -n

SPARC T3 y SPARC T4: un dominio con un dispositivo de red virtual o un conmutador virtual podría arrojar un aviso grave si hay carga excesiva

Problemas de migración entre sistemas que tienen instaladas diferentes versiones de firmware

No aparece ningún mensaje de error cuando se realiza una agregación de DR de memoria de manera parcialmente correcta

El dominio principal o invitado genera un aviso grave al desenlazar o migrar un dominio invitado que tiene dispositivos de red de E/S híbrida

No se ha podido detener un dominio con los comandos ldm stop o ldm stop -f

Los tejidos de PCIe no están disponibles para los dominios invitados cuando hay 11 dominios o más con dispositivos PCIe

Error al volver a crear un dominio con funciones virtuales de PCIe desde un archivo XML

Mensaje de error incorrecto al pasar del uso de núcleos completos al uso de núcleos parciales en el dominio de control

El comando ldm init-system no puede volver a crear correctamente un dominio que tiene dispositivos de funciones virtuales

Es posible que Logical Domains Manager se bloquee y se reinicie al intentar modificar varios dominios al mismo tiempo

No se genera un error cuando se supera el número máximo de ranuras de unidifusión para las funciones físicas y virtuales ixgbe

El dominio de control requiere el núcleo más bajo del sistema

El daemon ldmd no se conecta

Tras cancelar una migración, los comandos ldm que se ejecutan en el sistema de destino no responden

Algunas tarjetas Emulex no funcionan cuando se asignan a un dominio de E/S

Error grave en dominio invitado al ejecutar el comando cputrack durante la migración a un sistema SPARC T4

Oracle Solaris 11: el robo de DRM informa errores y reintentos de DR en Oracle Solaris

Limitación del número máximo de funciones virtuales que se puede asignar a un dominio

El dominio invitado que utiliza la migración entre CPU notifica tiempos de actividad aleatorios una vez completada la migración

Oracle Solaris 10: se puede producir un error grave en el controlador ixgbe cuando se inicia con una tarjeta de controlador Ethernet Intel X540 de puerto doble

La versión 8.2.0 del firmware del sistema contiene una nueva versión de la base de datos scvar

Destruir todas las funciones virtuales y regresar las ranuras al dominio raíz no restaura los recursos del complejo de raíz

No se debe permitir ldm remove-io en las tarjetas PCIe que tienen puentes de PCIe a PCI

El comando ldm stop puede generar un error si se ejecuta inmediatamente después de un comando ldm start

init-system no restaura las restricciones de núcleo con nombre para dominios invitados desde los archivos XML guardados

Usar ldm set-io para cambiar el valor pvid dos veces seguidas puede generar un error de configuración

Se produce un error grave en el sistema cuando se reinicia un dominio primary que tiene un gran número de funciones virtuales asignadas

Mensaje de error de SR-IOV impreciso: Create vf failed

SO Oracle Solaris 11: el uso de la función de E/S directa para eliminar varias ranuras PCIe del dominio primary en un sistema Fujitsu M10 o SPARC T-Series de varios sockets puede provocar un aviso grave en el inicio

El núcleo parcial primary no permite las transiciones de la DR de núcleo completo

Tras reiniciar el dominio primary, las funciones virtuales igb e ixgbe asignadas al dominio primary se vuelven defectuosas

El comando ldm list-io muestra el estado UNK o INV tras el inicio

Migrar un dominio con una gran cantidad de memoria en SPARC T4-4 genera un error grave del dominio en el sistema de destino

Se produce un error al eliminar una gran cantidad de CPU de un dominio invitado

No es posible usar las operaciones de conexión en marcha de Oracle Solaris para eliminar un dispositivo de punto final PCIe cuando está en funcionamiento

Error de validación de disco virtual para un disco físico sin el segmento 2

El comando nxge genera un error grave al migrar un dominio invitado que tiene dispositivos de red virtual de E/S híbrida y de E/S virtual

Todos los comandos ldm se bloquean cuando faltan recursos NFS compartidos en las migraciones

El servicio del agente de Logical Domains no se conecta si el servicio de registro del sistema tampoco se conecta

El interbloqueo del núcleo provoca el bloqueo del equipo durante una migración

La DRM y el resultado de ldm list muestran un número de CPU virtuales diferente del que realmente hay en el dominio invitado

La migración en directo de un dominio que depende de un dominio maestro inactivo en el equipo de destino genera un error de segmentación en ldmd

DRM no puede restaurar el número predeterminado de CPU virtuales para un dominio migrado cuando se elimina o caduca la política

Errores de tiempo de espera de CPU virtuales durante la DR

El motivo del error de la migración no se informa cuando la dirección MAC del sistema entra en conflicto con otra dirección MAC

Las operaciones de migración simultáneas en "dirección opuesta" pueden generar un bloqueo de ldm

Se produce un error al eliminar una gran cantidad de CPU del dominio de control

Es posible que se bloquee el sistema que ejecuta el SO Oracle Solaris 10 8/11 con la política elástica definida

pkgadd no puede definir las entradas ACL en /var/svc/manifest/platform/sun4v/ldmd.xml

SPARC T3-1: problema con los discos disponibles a través de varias rutas de E/S directa

Las operaciones de eliminación de la DR de memoria con varias instancias nxge de NIU asociadas se pueden bloquear de forma indefinida y nunca completarse

Al usar el comando ldm stop -a en dominios con una relación de maestro-esclavo, el esclavo conserva el indicador stopping

La migración de un dominio que tiene activada la política DRM predeterminada da como resultado la asignación de todas las CPU disponibles a un dominio de destino

Es posible reasignar una dirección MAC en uso

ldmconfig no puede crear una configuración de dominio en el SP

La migración de dominios de Oracle Solaris sin cooperación se puede bloquear si cpu0 está desconectado

La DR de memoria se desactiva tras una migración cancelada

La reconfiguración dinámica de los valores MTU de dispositivos de red virtual a veces produce errores

El dominio migrado con MAU contiene sólo una CPU cuando el sistema operativo de destino no admite la DR de unidades criptográficas

Mensaje de error de migración confuso para errores de enlace de memoria en la dirección real

La eliminación dinámica de todas las unidades criptográficas de un dominio provoca la terminación de SSH

La tarjeta Ethernet de fibra de 10 gigabits dual PCI Express muestra cuatro subdispositivos en el resultado de ldm list-io -l

Los comandos ldm responden con lentitud cuando se inician varios dominios

Oracle Solaris 11: es posible que no se inicien las zonas configuradas con una interfaz de red automática

Oracle Solaris 10: los dispositivos de red virtual no se crean correctamente en el dominio de control

Los adaptadores NIU/XAUI recién agregados no están visibles para el sistema operativo del host si se configuró Logical Domains

Error grave en el dominio de E/S o el dominio invitado al iniciarse desde e1000g

Los enlaces de puertos y grupos de consolas explícitos no se migran

La migración no produce errores si el valor vdsdev del destino tiene otro backend

La migración puede producir errores al enlazar la memoria aunque el destino tenga suficiente espacio disponible

Logical Domains Manager no se inicia si el equipo no está conectado a la red y se ejecuta un cliente NIS

Logical Domains Manager muestra dominios migrados en estados de transición cuando ya se iniciaron

No se puede conectar con la consola del dominio migrado a menos que se reinicie vntsd

A veces, al ejecutar el comando uadmin 1 0 en un sistema con Logical Domains, el sistema no vuelve al indicador OK

Logical Domains Manager puede tardar más de 15 minutos en cerrar un dominio

Si el SO Oracle Solaris 10 5/08 está instalado en un dominio de servicio, la instalación se puede bloquear si se intenta realizar un inicio de red del SO Oracle Solaris 10 8/07 en cualquier dominio invitado gestionado por dicho dominio

El comando scadm puede bloquearse tras un reinicio del SC o del SP

La instalación de red simultánea de varios dominios no se realiza correctamente cuando tienen un grupo de consolas común

Mensajes de advertencia ldc_close: (0xb) unregister failed, 11

Un dominio invitado con demasiadas redes virtuales en la misma red con DHCP puede dejar de responder

El comando eeprom no puede modificar las variables de OpenBoot PROM cuando Logical Domains Manager está en ejecución

No se pueden definir claves de seguridad cuando se ejecuta Logical Domains

El comportamiento del comando ldm stop-domain puede resultar confuso

Erratas de la documentación

Página del comando man ldm(1M): los comandos de virtualización de E/S no inician automáticamente una reconfiguración retrasada

Página del comando man ldm(1M): no se admite la creación dinámica de funciones virtuales

Página del comando man ldm(1M): sólo ldm add-spconfig -r realiza una recuperación manual

Restricciones adicionales para la migración

Problemas resueltos

Problemas conocidos

Esta sección contiene problemas generales y errores específicos relativos al software Oracle VM Server for SPARC 3.0.

Problemas generales

En esta sección se describen los problemas conocidos de esta versión del software Oracle VM Server for SPARC que son más generales que un número de error específico. Cuando es posible, se indican soluciones alternativas.

Actualización del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 5/08

Si el dominio de control se actualiza de una versión del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 5/08 (o sin el parche 127127-11) y si se exportaron los volúmenes de Volume Manager como discos virtuales, se deben volver a exportar los backend de discos virtuales con options=slice después de actualizar Logical Domains Manager. Consulte Exportación de volúmenes y compatibilidad con versiones anteriores de Guía de administración de Oracle VM Server for SPARC 3.0.

Procesador de servicio y controlador del sistema son términos intercambiables

En la documentación de Oracle VM Server for SPARC, los términos procesador de servicio (SP) y controlador del sistema (SC) son intercambiables.

En determinadas circunstancias, es posible que se pierdan la configuración o los metadispositivos de Solaris Volume Manager de un dominio invitado

Si un dominio de servicio utiliza una versión del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 8/11 y exporta un segmento de un disco físico como disco virtual a un dominio invitado, este disco virtual aparecerá en el dominio invitado con un ID de dispositivo incorrecto. Si ese dominio de servicio se actualiza luego a Oracle Solaris 10 8/11, el segmento del disco físico exportado como disco virtual aparecerá en el dominio invitado sin ningún ID de dispositivo.

Esta eliminación del ID de dispositivo del disco virtual puede causar problemas en las aplicaciones que intentan hacer referencia al ID de dispositivo de los discos virtuales. En concreto, es posible que Solaris Volume Manager no pueda encontrar su configuración o no pueda acceder a los metadispositivos.

Solución alternativa: tras actualizar un dominio de servicio a Oracle Solaris 10 8/11, si un dominio invitado no encuentra la configuración o los metadispositivos de Solaris Volume Manager, realice el siguiente procedimiento.

Cómo buscar la configuración o los metadispositivos de Solaris Volume Manager de un dominio invitado

  1. Inicie el dominio invitado.
  2. Para desactivar la función devid de Solaris Volume Manager, agregue las siguientes líneas al archivo /kernel/dr/md.conf:
    md_devid_destroy=1;
    md_keep_repl_state=1;
  3. Reinicie el dominio invitado.

    Una vez iniciado el dominio, la configuración y los metadispositivos de Solaris Volume Manager deben estar disponibles.

  4. Compruebe la configuración de Solaris Volume Manager y asegúrese de que sea correcta.
  5. Vuelva a activar la función devid de Solaris Volume Manager. Para ello, elimine del archivo /kernel/drv/md.conf las dos líneas que agregó en el paso 2.
  6. Reinicie el dominio invitado.

    Durante el reinicio, aparecerán mensajes similares a los siguientes:

    NOTICE: mddb: unable to get devid for 'vdc', 0x10

    Estos mensajes son normales y no informan ningún problema.

Canales de dominio lógico y Logical Domains

Existe un límite en el número de canales de dominio lógico (LDC) que están disponibles en cualquier dominio lógico. Los límites de LDC son:

Servidores UltraSPARC T2, SPARC T3-1, SPARC T3-1B, SPARC T4-1 y SPARC T4-1B

El límite de LDC es 512.

UltraSPARC T2 Plus, los otros servidores SPARC T3 y SPARC T4, SPARC T5, SPARC M5 y los sistemas Fujitsu M10.

El límite de LDC es 768.

Esta limitación representa un problema sólo en el dominio de control porque este dominio tiene asignado parte del subsistema de E/S o todo el subsistema. Esta limitación también puede representar un problema debido a la gran cantidad de LDC que se pueden crear para las comunicaciones de datos de E/S virtuales y el control de Logical Domains Manager de los otros dominios lógicos.

Si intenta agregar un servicio o enlazar un dominio de manera que el número de canales LDC supere el límite del dominio de control, la operación no se realizará correctamente y aparecerá un mensaje de error similar al siguiente:

13 additional LDCs are required on guest primary to meet this request,
but only 9 LDCs are available

Si tiene una gran cantidad de dispositivos de red virtual conectados al mismo conmutador virtual, puede reducir el número de canales LDC asignados si utiliza el comando ldm add-vsw o ldm set-vsw para definir entrevnet-link=off. Cuando esta propiedad se establece en off, los canales LDC no se utilizan para las comunicaciones entre redes virtuales. En lugar de ello, se asigna un canal LDC sólo para la comunicación entre los dispositivos de red virtual y los dispositivos de conmutador virtual. Consulte la página del comando man ldm(1M).


Nota - Desactivar la asignación de canales entre redes virtuales reduce el número de LDC, pero puede afectar el rendimiento de las redes entre invitados.


Las siguientes directrices pueden evitar la creación de una configuración que desborde las capacidades de LDC del dominio de control:

  1. El dominio de control asigna aproximadamente 15 LDC para diferentes cuestiones de comunicación con el hipervisor, la arquitectura de gestión de errores (FMA, Fault Management Architecture) y el controlador del sistema (SC), sin importar el número de otros dominios lógicos configurados. El número de canales LDC asignado por el dominio de control depende de la plataforma y de la versión del software que se utiliza.

  2. El dominio de control asigna 1 LDC a cada dominio lógico, incluso a sí mismo, para el control del tráfico.

  3. Cada servicio de E/S virtual del dominio de control consume 1 LDC por cada cliente conectado de ese servicio.

Por ejemplo, supongamos que existe un dominio de control y 8 dominios lógicos adicionales. Cada dominio lógico necesita al menos lo siguiente:

Al aplicar las directrices, se obtienen los siguientes resultados (los números entre paréntesis corresponden al número de directriz anterior del que procede el valor):

15(1) + 9(2) + 8 x 3(3) = 48 LDC en total

Ahora supongamos que existen 45 dominios en lugar de 8, y que cada dominio incluye 5 discos virtuales, 5 redes virtuales y una consola virtual. En este caso, la ecuación es la siguiente:

15 + 46 + 45 x 11 = 556 LDC en total

En función del número de LDC que admita la plataforma, Logical Domains Manager aceptará o rechazará las configuraciones.

Requisitos del tamaño de la memoria

El software Oracle VM Server for SPARC no impone un límite de tamaño de memoria al crear un dominio. El requisito de tamaño de memoria es una característica del sistema operativo invitado. Es posible que algunas características de Oracle VM Server for SPARC no funcionen si la cantidad de memoria es inferior al tamaño recomendado. Para conocer los requisitos de memoria recomendados y mínimos del sistema operativo Oracle Solaris 10, consulte System Requirements and Recommendations de Oracle Solaris 10 8/11 Installation Guide: Planning for Installation and Upgrade. Para ver los requisitos recomendados y mínimos de memoria para el sistema operativo Oracle Solaris 11, consulte Oracle Solaris 11 Release Notes y Oracle Solaris 11.1 Release Notes.

La PROM OpenBoot tiene una restricción de tamaño mínimo para un dominio. Actualmente, dicha restricción es de 12 MB. Si tiene un dominio menor que ese tamaño, Logical Domains Manager aumentará automáticamente el tamaño del dominio a 12 MB. La restricción de tamaño mínimo para un sistema Fujitsu M10 es 256 MB. Consulte las notas de la versión del firmware del sistema para obtener información acerca de los requisitos de tamaño de memoria.

La característica de reconfiguración dinámica (DR) de memoria exige una alineación de 256 MB en la dirección y el tamaño de la memoria implicada en una determinada operación. Consulte Alineación de memoria de Guía de administración de Oracle VM Server for SPARC 3.0.

Inicio de un gran número de dominios

Puede iniciar el siguiente número de dominios en función de su plataforma:

Si hay CPU virtuales sin asignar disponibles, asígnelas al dominio de servicio para ayudar a procesar las solicitudes de E/S virtuales. Asigne de 4 a 8 CPU virtuales al dominio de servicio al crear más de 32 dominios. En los casos en que el número máximo de configuraciones de dominio tiene una única CPU en el dominio de servicio, no someta a esa única CPU a demasiado trabajo al configurar y utilizar el dominio. Los servicios del conmutador virtual (vsw) se deben distribuir entre todos los adaptadores de red disponibles en el equipo. Por ejemplo, si se inician 128 dominios en un servidor Sun SPARC Enterprise T5240, cree 4 servicios vsw, cada uno con 32 instancias de red virtual (vnet). Asignar más de 32 instancias vnet por cada servicio vsw podría generar bloqueos de hardware en el dominio de servicio.

Para ejecutar el número máximo de configuraciones, un equipo necesita una cantidad de memoria adecuada para admitir los dominios invitados. La cantidad de memoria depende de la plataforma y del sistema operativo. Consulte la documentación para su plataforma, Oracle Solaris 10 8/11 Installation Guide: Planning for Installation and Upgrade , Installing Oracle Solaris 11 Systems e Installing Oracle Solaris 11.1 Systems.

El uso del espacio de intercambio y memoria aumenta en un dominio invitado cuando los servicios vsw utilizados por el dominio prestan servicios a muchas redes virtuales en varios dominios. Este aumento se debe a los enlaces del mismo nivel que existen entre todas las vnet conectadas a vsw. El dominio de servicio se beneficia de la memoria adicional. El tamaño mínimo recomendado es 4 GB cuando se ejecutan más de 64 dominios. Inicie los dominios en grupos de 10 o menos, y espere a que se inicien antes de ponerse en marcha con el siguiente lote. El mismo consejo se aplica a la instalación de sistemas operativos en dominios. Puede reducir el número de vínculos si desactiva los canales entre redes virtuales. Consulte Canales LDC entre redes virtuales de Guía de administración de Oracle VM Server for SPARC 3.0.

Cierre y apagado y encendido sin errores de un sistema con Logical Domains

Si ha realizado algún cambio de configuración desde la última vez que guardó una configuración en el SC, antes de intentar cerrar o apagar y volver a encender un sistema con Logical Domains, asegúrese de guardar la última configuración que desea conservar.

Cómo apagar un sistema con varios dominios activos

  1. Cierre, detenga y desenlace todos los dominios que no son de E/S.
  2. Cierre, detenga y desenlace los dominios de E/S activos.
  3. Detenga el dominio primary.

    Como no hay otros dominios enlazados, el firmware apaga el sistema automáticamente.

Cómo apagar y volver a encender el sistema

  1. Cierre, detenga y desenlace todos los dominios que no son de E/S.
  2. Cierre, detenga y desenlace los dominios de E/S activos.
  3. Reinicie el dominio primary.

    Como no hay otros dominios enlazados, el firmware apaga y vuelve a encender el sistema automáticamente antes de reiniciarlo. Al reiniciar el sistema, éste se inicia con la configuración de Logical Domains guardada por última vez o definida de manera explícita.

El tamaño de memoria solicitado puede ser diferente a la memoria asignada

En determinadas circunstancias, Logical Domains Manager redondea la asignación de memoria solicitada al siguiente múltiplo mayor de 8 KB o 4 MB. Esto puede observarse en el siguiente ejemplo del comando ldm list-domain -l, donde el valor límite es menor que el tamaño asignado real:

Memory:
          Constraints: 1965 M
          raddr          paddr5          size
          0x1000000      0x291000000     1968M

Conservación de variables de Logical Domains

Las actualizaciones de variables se conservan tras reiniciar el sistema, pero no tras apagar y volver a encender el sistema, a menos que las actualizaciones de variables se inicien desde el firmware OpenBoot en el dominio de control o que posteriormente se guarde la configuración en el SC.

En este contexto, es importante tener en cuenta que el reinicio del dominio de control puede apagar y volver a encender el sistema:

Las variables de Logical Domains de un dominio se pueden especificar mediante uno de los siguientes métodos:

El objetivo es que las actualizaciones de variables que se realizan con uno de estos métodos se conserven siempre tras reiniciar el dominio. Las actualizaciones de variables también se reflejan siempre en las configuraciones de dominios lógicos posteriores que se guardaron en el SC.

En el software Oracle VM Server for SPARC 3.0, las actualizaciones de variables no se conservan del modo esperado en algunos casos:

Si le preocupan los cambios en las variables de Logical Domains, siga uno de estos pasos:

Si modifica la fecha o la hora de un dominio lógico, por ejemplo, mediante el comando ntpdate, el cambio se conserva tras reiniciar el dominio, pero no tras apagar y volver a encender el host. Para asegurarse de que los cambios se conserven, guarde la configuración con el cambio de fecha/hora en el SP y efectúe el inicio desde esa configuración.

Se documentaron los siguientes ID de error para resolver estos problemas: 15375997, 15387338, 15387606 y 15415199.

El agente de gestión de SNMP Sun de Oracle no admite varios dominios

El agente de gestión del protocolo simple de administración de redes (SNMP) de Sun no es compatible con varios dominios. Sólo se admite un único dominio global.

Reconfiguración retrasada

Cuando el dominio primary está en un estado de reconfiguración pospuesto, la gestión de energía de los recursos gestionados por Oracle VM Server for SPARC se realiza sólo después de que se reinicia el dominio primary. Los recursos gestionados directamente por el sistema operativo, como las CPU gestionadas por Solaris Power Aware Dispatcher, no se ven afectadas por este estado.

Unidades criptográficas

Las unidades criptográficas discretas sólo están presentes en los sistemas UltraSPARC T2, UltraSPARC T2 Plus y SPARC T3.

La reconfiguración dinámica (DR) de unidades criptográficas permite agregar y eliminar unidades criptográficas en un dominio. Logical Domains Manager detecta automáticamente si un dominio permite la DR de unidades criptográficas y sólo activa la función para esos dominios. Además, la DR de CPU ya no está desactivada en los dominios que tienen unidades criptográficas enlazadas y que luego utilizan una versión adecuada del SO Oracle Solaris.

Comando ldmp2v convert: mensajes de advertencia de VxVM durante el inicio

La versión Veritas Volume Manager (VxVM) 5.x en el sistema operativo Oracle Solaris 10 es la única versión compatible (probada) con la herramienta P2V de Oracle VM Server for SPARC. También pueden funcionar versiones anteriores de VxVM, como 3.x y 4.x con los sistemas operativos Solaris 8 y Solaris 9. En esos casos, el primer inicio tras la ejecución del comando ldmp2v convert puede mostrar mensajes de advertencia de los controladores de VxVM. Puede omitir estos mensajes. Puede eliminar los paquetes VRTS* anteriores después del inicio del dominio invitado.

Boot device: disk0:a File and args:
SunOS Release 5.10 Version Generic_139555-08 64-bit
Copyright 1983-2009 Sun Microsystems, Inc. All rights reserved.
Use is subject to license terms.
Hostname: normaal
Configuring devices.
/kernel/drv/sparcv9/vxdmp: undefined symbol 'romp'
WARNING: mod_load: cannot load module 'vxdmp'
WARNING: vxdmp: unable to resolve dependency, module 'misc/ted' not found
/kernel/drv/sparcv9/vxdmp: undefined symbol 'romp'
WARNING: mod_load: cannot load module 'vxdmp'
WARNING: vxdmp: unable to resolve dependency, module 'misc/ted' not found
/kernel/drv/sparcv9/vxio: undefined symbol 'romp'
WARNING: mod_load: cannot load module 'vxio'
WARNING: vxio: unable to resolve dependency, module 'drv/vxdmp' not found
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
NOTICE: VxVM not started

Requisitos de partición física de Oracle para licencias de software

Para obtener información sobre los requisitos de partición física de Oracle para las licencias de software, consulte Partición: partición de servidor/hardware.

No se muestra la opción de actualización cuando se utiliza ldmp2v prepare -R

El instalador de Oracle Solaris no muestra la opción de actualización cuando la etiqueta de partición del segmento que contiene el sistema de archivos raíz (/) no se definió en root. Esta situación se produce si no se configura la etiqueta de forma explícita al etiquetar el disco de inicio del invitado. Puede usar el comando format para definir la etiqueta de partición como se indica a continuación:

AVAILABLE DISK SELECTIONS:
0. c0d0 <SUN-DiskImage-10GB cyl 282 alt 2 hd 96 sec 768>
  /virtual-devices@100/channel-devices@200/disk@0
1. c4t2d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
  /pci@400/pci@0/pci@1/scsi@0/sd@2,0
2. c4t3d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
  /pci@400/pci@0/pci@1/scsi@0/sd@3,0
Specify disk (enter its number)[0]: 0
selecting c0d0
[disk formatted, no defect list found]
format> p


PARTITION MENU:
0      - change `0' partition
1      - change `1' partition
2      - change `2' partition
3      - change `3' partition
4      - change `4' partition
5      - change `5' partition
6      - change `6' partition
7      - change `7' partition
select - select a predefined table
modify - modify a predefined partition table
name   - name the current table
print  - display the current table
label  - write partition map and label to the disk
!<cmd> - execute <cmd>, then return
quit

partition> 0
Part      Tag    Flag     Cylinders       Size            Blocks
0 unassigned    wm       0              0         (0/0/0)          0

Enter partition id tag[unassigned]: root
Enter partition permission flags[wm]:
Enter new starting cyl[0]: 0
Enter partition size[0b, 0c, 0e, 0.00mb, 0.00gb]: 8g
partition> label
Ready to label disk, continue? y

partition>

Un bloque de memoria agregada de forma dinámica sólo se puede eliminar dinámicamente como un conjunto

Un bloque de memoria agregada de forma dinámica sólo se puede eliminar dinámicamente como un conjunto. Es decir, no se puede eliminar dinámicamente un subconjunto de ese bloque de memoria.

Esta situación se puede presentar si un dominio con una memoria de tamaño pequeño aumenta de forma dinámica a un tamaño mucho mayor, como se muestra en el siguiente ejemplo:

# ldm list ldom1
NAME  STATE FLAGS   CONS VCPU MEMORY UTIL UPTIME
ldom1 active -n---- 5000 2    1G     0.4% 23h

# ldm add-mem 16G ldom1

# ldm rm-mem 8G ldom1
Memory removal failed because all of the memory is in use.

# ldm rm-mem 16G ldom1

# ldm list ldom1
NAME  STATE FLAGS   CONS VCPU MEMORY UTIL UPTIME
ldom1 active -n---- 5000 2    1G     0.4% 23h

Solución alternativa: agregue memoria dinámicamente en cantidades menores para reducir la probabilidad de que se produzca esta condición.

Recuperación: reinicie el dominio.

Comando ldmp2v: el método de archivado ufsdump ya no se utiliza

Si se restauran los archivos ufsdump en un disco virtual del que un archivo de un sistema de archivos UFS realiza copias de seguridad, es posible que se bloquee el sistema. En ese caso, se terminará el comando ldmp2v prepare. Es posible que se presente este problema al restaurar manualmente los archivos ufsdump como parte de la preparación para el comando ldmp2v prepare -R /altroot cuando el disco virtual es un archivo que se encuentra en un sistema de archivos UFS. Para mantener la compatibilidad con los archivos ufsdump creados anteriormente, puede seguir utilizando el comando ldmp2v prepare para restaurar los archivos ufsdump en los discos virtuales cuyas copias se seguridad no se realicen en un archivo de un sistema de archivos UFS. Sin embargo, no se recomienda usar archivos ufsdump.

Sólo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada

No intente realizar más de una operación de configuración de CPU en el dominio primary mientras se encuentra en una reconfiguración retrasada. Si intenta realizar más solicitudes de configuración de CPU, estas se rechazarán.

Solución alternativa: realice una de las acciones siguientes:

Restricciones en la migración de dominios

En las siguientes secciones se describen las restricciones para la migración de dominios. Las versiones del software Logical Domains Manager y del firmware del sistema deben ser compatibles para permitir las migraciones. Además, debe cumplir determinados requisitos de CPU para garantizar una migración de dominios correcta.


Nota - Un dominio invitado que ejecuta una aplicación basada en red podría sufrir una pequeña demora o interrupción mientras se realiza la migración.


Restricciones de versiones para la migración

Si intenta realizar una migración en directo de un dominio que se inicia con al menos la versión 8.4 del firmware en un sistema que ejecuta una versión de firmware anterior, la migración no se realiza correctamente. El fallo se produce debido a una discrepancia en la API del hipervisor entre la versión de firmware más reciente y la anterior. En esta instancia, verá un mensaje similar al siguiente:

# ldm migrate ldg1 root@target
Target Password:
Domain ldg1 is using features of the system firmware that
are not supported in the version of the firmware running on
the target machine.

Domain Migration of LDom ldg1 failed

Tenga en cuenta que puede realizar una migración en directo de un dominio que inicia en un sistema con versiones del firmware que son anteriores a la versión 8.4 a un sistema que ejecuta al menos la versión 8.4 del firmware.

Compatibilidad de SPARC M5 y SPARC T5 para la migración cpu-arch=generic

ID de bug 15805135: en Oracle VM Server for SPARC 3.0, no puede migrar un dominio de un tipo de plataforma diferente (como SPARC T2, SPARC T2 Plus, SPARC T3 o SPARC T4) a una plataforma SPARC T5 o SPARC M5. Aunque establezca cpu-arch=generic, este tipo de migración no se puede realizar.

Para las plataformas SPARC T5 y SPARC M5, solamente puede realizar operaciones de migración entre sistemas del mismo tipo de plataforma, como, por ejemplo, de SPARC T5-2 a SPARC T5-8 o de SPARC M5-32 a otra SPARC M5-32. Esta restricción sólo se aplica a las plataformas SPARC T5 y SPARC M5.

Restricciones de CPU para la migración

Si el dominio que se migrará ejecuta una versión del SO Oracle Solaris anterior al sistema operativo Oracle Solaris 10 8/11, es posible que aparezca el siguiente mensaje durante la migración:

Domain domain-name is not running an operating system that is
compatible with the latest migration functionality.

Los siguientes requisitos y restricciones de CPU se aplican sólo cuando se ejecuta un sistema operativo anterior a Oracle Solaris 10 8/11:

Estas restricciones también se aplican cuando intenta migrar un dominio que se ejecuta en OpenBoot o en el depurador del núcleo. Consulte Migración de un dominio desde una PROM OpenBoot o un dominio que ejecuta el depurador de núcleo de Guía de administración de Oracle VM Server for SPARC 3.0.

Problemas de MIB de Oracle VM Server for SPARC

En esta sección, se resumen los problemas que pueden surgir al utilizar el software de la base de datos de información de administración (MIB) de Oracle VM Server for SPARC.

El comando snmptable no funciona con la opción de las versiones 2 o 3

ID de error 15376861: recibe tablas SNMP vacías si consulta el software MIB de Oracle VM Server for SPARC 2.1 mediante el comando snmptable con la opción -v2c o -v3. El comando snmptable funciona del modo esperado con la opción -v1.

Solución alternativa: utilice la opción -CB para usar sólo las consultas GETNEXT, no GETBULK, para recuperar datos. Consulte Cómo recuperar objetos de la MIB de Oracle VM Server for SPARC de Guía de administración de Oracle VM Server for SPARC 3.0.

Errores que afectan el software Oracle VM Server for SPARC 3.0

En esta sección se resumen los errores que pueden surgir al utilizar esta versión del software. Se describen en primer lugar los errores más recientes. Cuando es posible, se especifican las soluciones alternativas y los procedimientos de recuperación.

Se genera el aviso grave send_mondo_set: timeout cuando se utiliza el comando ldm stop en un dominio invitado tras un esfuerzo

ID de error 16486383: asigne un dispositivo o bus PCI directamente a un dominio invitado en el que el dominio no tiene un núcleo asignado desde la /SYS/DCU donde reside la tarjeta PCI. Dado que el hipervisor restablece los dispositivos PCI en nombre de los dominios invitados, durante el reinicio de un dominio invitado, es posible que se produzca un aviso grave en un dominio con núcleos en la DCU conectada al dispositivo PCI. Si hay más dispositivos PCI asignados a los dominios invitados locales no de DCU, aumenta la posibilidad de que se produzcan avisos graves.

Solución alternativa: siga una de estas soluciones alternativas:

SPARC T5 y SPARC M5: mientras dispositivos SR-IOV están en uso, los intentos de desenlazar o eliminar recursos se bloquean y no se pueden detener mediante Ctrl-C

ID de error 16426940: en un sistema SPARC T5 o SPARC M5 que tiene una configuración SR-IOV, es posible que sufra un bloqueo que no se pueda detener mediante Ctrl-C. El bloqueo no suele ocurrir cuando utiliza el comando ldm unbind o ldm rm-io.

Solución alternativa: reinicie la instancia del SO Oracle Solaris que se ejecuta en el dominio primary. Además, reinicie cualquier dominio invitado que utilice recursos de E/S compartidos por el dominio primary.

Agregar de forma dinámica un hilo hardware defectuoso a un dominio puede provocar un aviso grave

ID de error 16301304: en determinados casos, Logical Domains Manager no incluye inmediatamente en la lista negra a un núcleo que presentó fallos. Como resultado, es posible agregar hilos hardware del núcleo defectuoso a un dominio. Si esos hilos hardware se agregan mediante la reconfiguración dinámica de CPU virtual, el dominio invitado genera un aviso grave y muestra un mensaje similar al siguiente:

panic[cpu10]/thread=2a1003e9c60: promif_start_cpu: failed to start cpu 12 (6)

Si se agrega un hilo hardware defectuoso a un dominio que no está en ejecución, aparecen los siguientes mensajes en la consola cuando se inicia el dominio:

NOTICE: cpux is not runnable and will not be brought online
NOTICE: cpux removed from system

Estos mensajes también aparecen en los reinicios posteriores. Si bien estos mensajes no generan ningún problema en el dominio en ejecución, las CPU enumeradas no estarán disponibles para el dominio invitado.

Solución alternativa: para evitar estos problemas, aísle los hilos hardware defectuosos de todos los dominios. Si los hilos hardware defectuosos no están en uso, no pueden provocar efectos negativos en ningún otro dominio del sistema.

Los subdispositivos en un dispositivo PCIe se revierten a un nombre no asignado

ID de error 16299053: después de desactivar un dispositivo PCIe, es posible que experimente un comportamiento inesperado. Los subdispositivos que se encuentran en el dispositivo PCIe desactivado se revierten a los nombres no asignados mientras el dispositivo PCIe sigue siendo propiedad del dominio.

Solución alternativa: si decide desactivar una ranura PCIe en ILOM, asegúrese de que la ranura PCIe no esté asignada a un dominio por medio de la función de E/S directa (DIO). Es decir, compruebe primero que la ranura PCIe se haya asignado al dominio raíz correspondiente antes de desactivar la ranura en ILOM.

Si desactiva la ranura PCIe en ILOM mientras la ranura PCIe está asignada a un dominio con DIO, detenga ese dominio y vuelva a asignar el dispositivo al dominio raíz para que el comportamiento sea correcto.

SPARC M5-32: panic: mpo_cpu_add: Cannot read MD

ID de error 16238762: en SPARC M5-32 con 2,4 TB de memoria como mínimo, si intenta establecer el número de CPU en el dominio primary de 6 a 1.056 CPU, el núcleo generará un aviso grave y se mostrará el siguiente mensaje:

mpo_cpu_add: Cannot read MD

El siguiente procedimiento genera el aviso grave:

  1. Encienda el sistema con una DCU asignada a un host.

    Por ejemplo, asigne DCU0 a HOST0.

  2. Cree dominios invitados.

  3. Guarde una configuración en el SP.

  4. Apague el host.

  5. Asigne otra DCU al host.

    Por ejemplo, asigne DCU1 a HOST0.

  6. Encienda el host.

    El firmware verifica que la configuración se pueda iniciar. Esta verificación garantiza que todas las unidades de CPU, memoria y E/S que estaban presentes en el momento en que se creó la configuración sigan presentes. El firmware también genera un nuevo PRI para describir la configuración de todo el sistema.

    La configuración se enciende correctamente y los dominios invitados se inician.

  7. Intente agregar de forma dinámica una CPU a un dominio existente.

    Logical Domains genera un nuevo GMD que refleja la información de latencia correcta, pero el SO Oracle Solaris no puede analizar la nueva información y genera un aviso grave.

Solución alternativa: para evitar que se produzca este aviso grave, no siga los pasos detallados en la descripción del problema.

Sin embargo, si ya ha realizado estos pasos y ha experimentado el aviso grave, lleve a cabo los siguientes pasos:

  1. Realice una acción tras iniciar una configuración guardada desde un dominio físico más pequeño. Por ejemplo, elimine una CPU de cada dominio activo.

  2. Reinicie el dominio.

  3. Desenlace el dominio.

  4. Vuelva a enlazar los dominios enlazados.

  5. Guarde una nueva configuración en el SP.

SPARC M5-32: la conmutación por error del complejo raíz podría generar una configuración de dominio invitado de E/S directa incorrecta

ID de error 16232834: la plataforma SPARC M5 incluye discos de dos puertos internos y sus dos rutas. Una conmutación por error del complejo raíz podría generar una configuración de dominio invitado de E/S directa incorrecta.

Solución alternativa: asegúrese de que las tarjetas de los módulos PCIe Express (EMs) pares o impares estén asignadas al mismo dominio. Por ejemplo, si un dominio tiene EMS1 y EMS3, ambas rutas al disco residen en ese dominio. Lo mismo se aplica si el dominio tiene EMS0 y EMS2.

Lleve cabo los siguientes pasos:

  1. Desactive la función de conmutación por error del complejo raíz mediante ILOM.

    -> set /HOSTx ioreconfigure=false

    x puede ser un valor comprendido entre 0 y 3.

  2. Utilice el comando ldm add-io para asignar tarjetas de módulos PCIe Express (EMs) pares o impares de la misma unidad de E/S (IOU) a un dominio invitado.

En este ejemplo de configuración de host de dos unidades de configuración de dominio (DCU), los siguientes comandos asignan tarjetas de módulos PCIe Express (EMs) al dominio invitado ldg1.

En primer lugar, los complejos raíz pci_40 y pci_44 se eliminan del dominio de control.

# ldm rm-io pci_40 primary
# ldm rm-io pci_44 primary

A continuación, los complejos raíz pci_40 y pci_42 se agregan al dominio invitado ldg1.

# ldm add-io pci_40 lgd1
# ldm add-io pci_44 lgd1

De forma similar, puede asignar los complejos raíz pci_48 ypci_52 o los cuatro buses al dominio invitado.

Después de realizar estos cambios, utilice el comando ldm ls-io para ver la configuración actualizada.

# ldm ls-io
NAME                                      TYPE   BUS      DOMAIN   STATUS
----                                      ----   ---      ------   ------
pci_32                                    BUS    pci_32   primary
pci_33                                    BUS    pci_33   primary
pci_34                                    BUS    pci_34   primary
pci_35                                    BUS    pci_35   primary
pci_36                                    BUS    pci_36   primary
pci_37                                    BUS    pci_37   primary
pci_38                                    BUS    pci_38   primary
pci_39                                    BUS    pci_39   primary
pci_40                                    BUS    pci_40   primary
pci_41                                    BUS    pci_41   primary
pci_42                                    BUS    pci_42   primary
pci_43                                    BUS    pci_43   primary
pci_44                                    BUS    pci_44   primary
pci_45                                    BUS    pci_45   primary
pci_46                                    BUS    pci_46   primary
pci_47                                    BUS    pci_47   primary
pci_48                                    BUS    pci_48   primary
pci_49                                    BUS    pci_49   primary
pci_50                                    BUS    pci_50   primary
pci_51                                    BUS    pci_51   primary
pci_52                                    BUS    pci_52   primary
pci_53                                    BUS    pci_53   primary
pci_54                                    BUS    pci_54   primary
pci_55                                    BUS    pci_55   primary
pci_56                                    BUS    pci_56   primary
pci_57                                    BUS    pci_57   primary
pci_58                                    BUS    pci_58   primary
pci_59                                    BUS    pci_59   primary
/SYS/IOU2/PCIE3                           PCIE   pci_32   primary  OCC
/SYS/IOU2/EMS1/CARD/NET0                  PCIE   pci_32   primary  OCC
/SYS/IOU2/EMS1/CARD/SCSI                  PCIE   pci_32   primary  OCC
/SYS/IOU2/PCIE2                           PCIE   pci_33   primary  OCC
/SYS/IOU2/PCIE5                           PCIE   pci_34   primary  EMP
/SYS/IOU2/PCIE8                           PCIE   pci_35   primary  EMP
/SYS/IOU2/PCIE11                          PCIE   pci_36   primary  EMP
/SYS/IOU2/EMS3/CARD/NET0                  PCIE   pci_36   primary  OCC
/SYS/IOU2/EMS3/CARD/SCSI                  PCIE   pci_36   primary  OCC
/SYS/IOU2/PCIE10                          PCIE   pci_37   primary  OCC
/SYS/IOU2/PCIE13                          PCIE   pci_38   primary  OCC
/SYS/IOU2/PCIE16                          PCIE   pci_39   primary  OCC
/SYS/IOU2/PCIE6                           PCIE   pci_40   primary  EMP
/SYS/IOU2/EMS2/CARD/NET0                  PCIE   pci_40   primary  OCC
/SYS/IOU2/EMS2/CARD/SCSI                  PCIE   pci_40   primary  OCC
/SYS/IOU2/PCIE7                           PCIE   pci_41   primary  EMP
/SYS/IOU2/PCIE4                           PCIE   pci_42   primary  EMP
/SYS/IOU2/PCIE1                           PCIE   pci_43   primary  OCC
/SYS/IOU2/PCIE14                          PCIE   pci_44   primary  OCC
/SYS/IOU2/EMS4/CARD/NET0                  PCIE   pci_44   primary  OCC
/SYS/IOU2/EMS4/CARD/SCSI                  PCIE   pci_44   primary  OCC
/SYS/IOU2/PCIE15                          PCIE   pci_45   primary  OCC
/SYS/IOU2/PCIE12                          PCIE   pci_46   primary  EMP
/SYS/IOU2/PCIE9                           PCIE   pci_47   primary  EMP
/SYS/IOU3/PCIE3                           PCIE   pci_48   primary  EMP
/SYS/IOU3/EMS1/CARD/NET0                  PCIE   pci_48   primary  OCC
/SYS/IOU3/EMS1/CARD/SCSI                  PCIE   pci_48   primary  OCC
/SYS/IOU3/PCIE2                           PCIE   pci_49   primary  OCC
/SYS/IOU3/PCIE5                           PCIE   pci_50   primary  OCC
/SYS/IOU3/PCIE8                           PCIE   pci_51   primary  EMP
/SYS/IOU3/PCIE11                          PCIE   pci_52   primary  EMP
/SYS/IOU3/PCIE12                          PCIE   pci_52   primary  EMP
/SYS/IOU3/EMS3/CARD/NET0                  PCIE   pci_52   primary  OCC
/SYS/IOU3/EMS3/CARD/SCSI                  PCIE   pci_52   primary  OCC
/SYS/IOU3/PCIE9                           PCIE   pci_53   primary  OCC
/SYS/IOU3/PCIE10                          PCIE   pci_53   primary  OCC
/SYS/IOU3/PCIE13                          PCIE   pci_54   primary  EMP
/SYS/IOU3/PCIE14                          PCIE   pci_54   primary  EMP
/SYS/IOU3/EMS4/CARD/NET0                  PCIE   pci_54   primary  OCC
/SYS/IOU3/EMS4/CARD/SCSI                  PCIE   pci_54   primary  OCC
/SYS/IOU3/PCIE15                          PCIE   pci_55   primary  EMP
/SYS/IOU3/PCIE16                          PCIE   pci_55   primary  EMP
/SYS/IOU3/PCIE6                           PCIE   pci_56   primary  OCC
/SYS/IOU3/EMS2/CARD/NET0                  PCIE   pci_56   primary  OCC

SPARC M5-32: problema con los discos disponibles a través de varias rutas de E/S directa

ID de error 16232834: cuando se utiliza el comando ldm add-vcpu para asignar CPU a un dominio, es posible que el SO Oracle Solaris genere un aviso grave y muestre el siguiente mensaje:

panic[cpu16]/thread=c4012102c860: mpo_cpu_add: Cannot read MD

Este aviso grave se produce si se cumplen las siguientes condiciones:

El dominio de destino de la operación ldm add-vcpu es el dominio que genera el aviso grave. El dominio se recupera con las CPU adicionales cuando se reinicia.

Solución alternativa: no utilice las configuraciones que se generan con menos recursos de hardware que los asignados al host.

Para evitar el problema, no agregue CPU como se detalla en la descripción del problema. O bien, lleve a cabo los siguientes pasos:

  1. Genere una nueva configuración de SP una vez que se agregaron las DCU.

    Por ejemplo, el siguiente comando crea una configuración denominada new-config-more-dcus:

    # ldm add-config new-config-more-dcus
  2. Cierre el dominio.

  3. Detenga el host.

    -> stop /HOST
  4. Inicie el host.

    -> start /HOST

Es posible que el dispositivo ixgbevf en los dominios SR-IOV se desactive al reiniciar el dominio primary

ID de error 16224353: tras reiniciar el dominio principal, es posible que las instancias ixgbevf del dominio primary no funcionen.

Solución alternativa: ninguna.

Es posible que el reinicio del dominio primary en Oracle Solaris 10 1/13 no asocie ni asigne automáticamente una dirección IP a una interfaz de funciones virtuales

ID de error 16219069: en un dominio primary que ejecuta el sistema operativo Oracle Solaris 10 1/13, es posible que no se asocie ni asigne una dirección IP a las interfaces de funciones virtuales de acuerdo con el archivo /etc/hostname.vf-interface.

Este problema se produce cuando inicia o reinicia un sistema SPARC T3, SPARC T4 o SPARC T5 que ejecuta el sistema operativo Oracle Solaris 10 1/13 en el dominio primary. Este problema afecta las funciones virtuales que se crearon en las funciones físicas incorporadas y en las funciones físicas adicionales. Este problema no ocurre cuando se inicia una imagen de dominio invitado de Logical Domains.

La limitación de energía de ILOM debe sincronizar las actualizaciones de ajuste con las actualizaciones de /SYS/VPS

ID de error 16205895: en cada dominio físico de SPARC M5, la limitación de energía supervisa el sensor de consumo de energía de ese dominio, /SYS/VPS, para determinar cuándo se deben ajustar las frecuencias de la CPU para cumplir un límite de energía. Este sensor sólo se actualiza cada 20 ó 30 segundos. Sin embargo, el sensor se sondea y los ajustes de energía se realizan en función del valor cada pocos segundos. Los valores de consumo de energía obsoletos pueden causar picos al regular las frecuencias de la CPU o al cancelar la regulación debido a los ajustes innecesarios del sistema.

Solución alternativa: no utilice la limitación de energía.

Un dominio invitado no se puede iniciar cuando se desactivan los dispositivos IOV prestados

ID de error 16098592: cuando se presta a un dominio invitado un dispositivo PCIe de funciones virtuales o funciones físicas, puede utilizar la estructura de gestión de fallos o la CLI de ILOM para marcar el dispositivo como desactivado en la base de datos dinámica (DDB). Cuando se inicia (se enciende o se reinicia) nuevamente el sistema, la configuración de host refleja el estado de la DDB en el hipervisor por medio del descriptor del equipo (cuando se crean PRI/MD de dominio invitado, etc.). El hipervisor desactiva esos dispositivos, pero el SO Oracle Solaris desconoce que el dispositivo está desactivado.

Cuando se inicia el dominio invitado que contiene ese dispositivo, el dominio se bloquea. El dominio se bloquea porque la instancia de Oracle Solaris que es propietaria del tejido PCIe no puede activar el dispositivo debido a que el hipervisor lo ha desactivado. Como resultado, cuando OBP intenta sondear los dispositivos PCIe, el hipervisor bloquea el acceso, lo que hace que OBP realice reintentos continuos.

Solución alternativa: elimine los dispositivos que han cambiado al estado UNK (desconocido) de ese dominio invitado. Para ello, lleve a cabo los siguientes pasos:

  1. Detenga el dominio invitado.

  2. Elimine del dominio invitado los dispositivos tienen el estado desconocido.

    Use el comando ldm rm-io.

  3. Reinicie el dominio invitado.

Aviso grave mutex_enter: bad mutex en el dominio primary durante una operación de reinicio o cierre

ID de error 16080855: durante un reinicio o cierre del dominio primary, el dominio primary pueden experimentar un aviso grave del núcleo con un mensaje grave similar al siguiente:

panic[cpu2]/thread=c40043b818a0: mutex_enter: bad mutex, lp=c4005fa01c88
owner=c4005f70aa80 thread=c40043b818a0

000002a1075c3630 ldc:ldc_mem_rdwr_cookie+20 (c4005fa01c80,
c4004e2c2000,2a1075c37c8, 6c80000, 1, 0)
%l0-3: 00000000001356a4 0000000000136800 0000000000000380
00000000000002ff
%l4-7: 00000000001ad3f8 0000000000000004 00000000ffbffb9c
0000c4005fa01c88
000002a1075c3710 vldc:i_vldc_ioctl_write_cookie+a4 (c4004c400030,
380,ffbff898, 100003, 0, 70233400)
%l0-3: 0000000006c80000 0000000000156dc8 0000000000000380
0000000000100003
%l4-7: 00000000702337b0 000002a1075c37c8 0000000000040000
0000000000000000
000002a1075c37f0 vldc:vldc_ioctl+1a4 (3101, c4004c400030,
ffbff898,c4004c400000, c4004c438030, 0)
%l0-3: 0000000000100003 0000000000000000 000000007b340400
0000c4004c438030
%l4-7: 0000c4004c400030 0000000000000000 0000000000000000
0000000000000000
000002a1075c38a0 genunix:fop_ioctl+d0 (c4004d327800, 0, ffbff898,
100003,c4004384f718, 2a1075c3acc)
%l0-3: 0000000000003103 0000000000100003 000000000133ce94
0000c4002352a480
%l4-7: 0000000000000000 0000000000000002 00000000000000c0
0000000000000000
000002a1075c3970 genunix:ioctl+16c (3, 3103, ffbff898, 3, 134d50, 0)
%l0-3: 0000c40040e00a50 000000000000c6d3 0000000000000003
0000030000002000
%l4-7: 0000000000000003 0000000000000004 0000000000000000
0000000000000000

Recuperación: permita que se reinicie el dominio primary. Si el dominio principal se ha configurado para no reiniciarse tras un bloqueo, inícielo manualmente.

SPARC M5-32: el controlador LSI-SAS se exporta incorrectamente con SR-IOV

ID de error 16071170: en un sistema SPARC M5-32, los controladores SAS internos se exportan como controladores para SR-IOV aunque estas tarjetas no admitan SR-IOV.

El registro de Oracle VM Server for SPARC muestra los siguientes mensajes al intentar crear la función física en estas tarjetas:

Dec 11 04:27:54 warning: Dropping pf
pci@d00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@d80/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@c00/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@e00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver

El sistema tiene cuatro puertos de controlador LSI SAS, cada uno en una IOU del conjunto SPARC M5-32. Este error se notifica para cada puerto.

Solución alternativa: puede omitir estos mensajes. Estos mensajes sólo indican que los dispositivos de controladores LSI-SAS del sistema admiten SR-IOV, pero no hay compatibilidad con SR-IOV disponible para este hardware.

No se puede definir una MTU gigante para las funciones virtuales sxge en el dominio primary de un sistema SPARC T5-1B

ID de error 16059331: el controlador sxge no puede definir correctamente MTU gigantes para sus funciones virtuales en el dominio primary.

Solución alternativa: modifique manualmente el archivo /kernel/drv/sxge.conf para configurar la MTU gigante en las interfaces de funciones virtuales sxge del dominio invitado.

Los recursos previamente incluidos en la lista negra se marcan incorrectamente como disponibles con una evacuación pendiente tras un reinicio de Logical Domains Manager

ID de error 16016576: si se reinicia Logical Domains Manager, ya sea manualmente o al reiniciar el dominio de control, cualquier recurso defectuoso que se ha incluido en la lista negra pasa a estar disponible. Estos recursos se marcan incorrectamente como disponibles con una evacuación pendiente aunque se hayan evacuado anteriormente y se hayan agregado correctamente a la lista negra. Logical Domains Manager no impide que dichos recursos se agreguen a un dominio.

Recuperación: no es necesario realizar ninguna recuperación. Los recursos evacuados no están asignados a ningún dominio y, por tanto, no afectan la configuración actual del sistema. Sin embargo, dado que estos recursos presentaban anteriormente fallos, tenga cuidado de no asignar estos recursos a cualquier dominio del sistema.

ldmd no puede definir los valores de las propiedades mac-addr y alt-mac-addrs para el dispositivo sxge

ID de error 15974640: el comando ldm no puede definir los valores de las propiedades mac-addr y alt-mac-addrs para el dispositivo sxge. Como resultado, el daemon ldmd notifica una dirección MAC incoherente. Asimismo, también se produce un fallo en las agregaciones de enlaces basadas en la dirección MAC de VNIC.

Faltan dos propiedades en la salida del comando ldm list-io -d para un dispositivo sxge en SPARC T5-1B

ID de error 15974547: cuando se ejecuta en un sistema SPARC T5-1B que tiene sxge, la salida del comando ldm list-io -d PF-device no muestra las propiedades max-vlans o max-vf-mtu. Estas propiedades están presentes en un sistema SPARC T5-1B con ixgbe, así como en sistemas sin servidores blade.

Falta el valor de la propiedad max-vlans. El valor debe ser 0 porque el dispositivo sxge no admite las etiquetas VLAN de hardware. El valor de la propiedad max-vf-mtu se fija en 1500, lo que impide que el controlador de funciones físicas establezca la MTU gigante para funciones virtuales.

Restricciones adicionales para la migración

ID de error 15858731: para los sistemas Fujitsu M10, la siguiente restricción sustituye la información que se describe en Migración de un dominio desde una PROM OpenBoot o un dominio que ejecuta el depurador de núcleo de Guía de administración de Oracle VM Server for SPARC 3.0.

Cuando un dominio que se va a migrar se ejecuta en OpenBoot o en el depurador del núcleo (kmdb), el intento de migración siempre falla si el equipo de origen o el equipo de destino es un sistema Fujitsu M10. Si el dominio que se va a migrar sólo tiene una CPU, es posible que reciba este mensaje de error:

# ldm migrate ldg1 system2
Non-cooperative migration is not supported on this platform.

ldmconfig produce un error: la corrección del ID de error 15972394 antecede la configuración de factory-default sin modificar

ID de error 15829698: el comando ldmconfig no funciona con el software Oracle VM Server for SPARC 3.0 porque sólo se ejecuta cuando el sistema ejecuta una configuración factory-default sin modificar. Un error introducido en Oracle VM Server for SPARC 3.0 siempre informa que la configuración ha sido modificada.

Solución alternativa: en lugar de realizar una instalación inicial de Oracle VM Server for SPARC 3.0, instale primero Oracle VM Server for SPARC 2.2 y, a continuación, ejecute ldmconfig. Una vez que se hayan creado los dominios, actualice el paquete SUNWldm a Oracle VM Server for SPARC 3.0.

Puede parecer que se produce un error en la DR de una gran cantidad de CPU virtuales

ID de error 15826354: la DR de una gran cantidad de CPU hace que el daemon ldmd devuelva un fallo. Aunque se agota el tiempo de espera de ldmd, la operación de DR continúa en segundo plano y finaliza correctamente. Sin embargo, ldmd ya no está alineado con el dominio resultante y es posible que no se permitan operaciones posteriores de DR.

Por ejemplo:

# ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    7     20G      2.7%  0.4%  1h 41m
ldg0             active     -n----  5000    761   16G       75%   51%  6m

# ldm rm-vcpu 760 ldg0
Request to remove cpu(s) sent, but no valid response received
VCPU(s) will remain allocated to the domain, but might
not be available to the guest OS
Resource removal failed
 
# ldm set-vcpu 1 ldg0
Busy executing earlier command; please try again later.
Unable to remove the requested VCPUs from domain ldg0
Resource modification failed
 
# ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    7     20G      0.9%  0.1%  1h 45m
ldg0             active     -n----  5000    761   16G      100%  0.0%  10m

Solución alternativa: espere unos minutos y luego vuelva a ejecutar el comando ldm set-vcpu:

# ldm set-vcpu 1 ldg0
# ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    7     20G      0.9%  0.1%  1h 50m
ldg0             active     -n----  5000    1     16G       52%  0.0%  15m

Tenga en cuenta que 760 supera el máximo recomendado.

Se agota el tiempo de espera de la migración de un dominio invitado con redes virtuales HIO y cpu-arch=generic mientras se espera que el dominio se suspenda

ID de error 15825538: en un dominio lógico configurado con interfaces de red de E/S híbrida (mode=hybrid) y con la migración entre CPU activada (cpu-arch=generic), si se ejecuta una migración en directo segura (ldm migrate), es posible que se agote el tiempo de espera de la migración y que el dominio quede en un estado de suspensión.

Recuperación: reinicie el dominio lógico.

Solución alternativa: no utilice dispositivos de red virtual de E/S híbrida con la migración en directo entre CPU.

SPARC T4-4: no se puede enlazar un dominio invitado

ID de error 15825330: Oracle VM Server for SPARC 3.0 parece bloquearse en el inicio en algunas configuraciones de SPARC T4-4 que tienen una sola placa de procesador.

Solución alternativa: asegúrese de que un procesador siempre ocupe las ranuras para los procesadores 0 y 1. El reinicio del sistema en una configuración de este tipo permite que el software de Oracle VM Server for SPARC 3.0 se inicie.

El dominio invitado puede generar un aviso grave cuando la DR de CPU se realiza tras una migración entre CPU

ID de error 15825060: cuando se utiliza la migración en directo para migrar un dominio creado en un sistema SPARC T3 o SPARC T4 a un sistema UltraSPARC T2 o UltraSPARC T2 Plus, una operación posterior de reconfiguración dinámica de CPU puede generar un aviso grave. El mensaje de aviso grave es similar al siguiente:

panic[cpu8]/thread=2a102491c60: cpu8: dev_mondo queue
configuration failed, error 6

Recuperación: ninguna.

Solución alternativa: durante la migración de un dominio creado en un sistema SPARC T3 o SPARC T4 a un sistema UltraSPARC T2 o UltraSPARC T2 Plus más las del sistema, no migre un dominio activo. En su lugar, detenga el dominio antes de empezar el proceso de migración.

El dominio invitado no se inicia cuando la memoria está muy fragmentada

ID de error 15824270: puede suceder que un dominio que ejecute el sistema operativo Oracle Solaris 11.1 y tenga asignaciones de memoria muy fragmentadas no se inicie, en cuyo caso se muestra el siguiente error:

ERROR: Last Trap: Fast Data Access MMU Miss

Solución alternativa: en primer lugar, intente modificar la cantidad de memoria que está enlazada al invitado que no se inicia. Si esto no funciona, o si el dominio primary se ve afectado, apague y vuelva a encender el sistema en una configuración de SP alternativa.

La reconfiguración dinámica de las CPU disponibles genera el aviso grave lpl_topo_verify fail -5

ID de error 15823255: un dominio de un sistema SPARC M5 que tiene dos DCU o más puede experimentar un aviso grave cuando se cumplen las siguientes condiciones:

Podrá ver el aviso grave en la consola y en el archivo /var/adm/messages cuando se reinicie el sistema:

panlc [cpu4]/thread=0x30012a008: : lpl_topo_verify failed: -5

Solución alternativa: siga estos pasos:

  1. Evite realizar cualquiera de las operaciones que pueden generar el aviso grave.

  2. Anexe la siguiente línea al archivo /etc/system:

    set lgrp_topo_levels=2
  3. Reinicie el sistema.

    Una vez reiniciado el sistema, podrá realizar sin problemas las operaciones que anteriormente provocaron el aviso grave.

Los dominios raíz no pueden tener dependencias en otros dominios raíz

ID de error 15823203: un dominio raíz que es propietario de un bus PCIe no puede tener los dispositivos de punto final PCIe o las funciones virtuales SR-IOV asignados a otro dominio raíz. Sin embargo, puede asignar un dispositivo de punto final PCIe o una función virtual de un bus PCIe al dominio raíz que es propietario de ese bus.

El dominio invitado genera un aviso grave tras una migración cuando se agregan núcleos

ID de error 15822313: en un sistema que utiliza el sistema operativo Oracle Solaris 11.1, la ejecución de operaciones de DR de CPU en un dominio que se ha migrado puede generar un aviso grave en el dominio invitado.

Solución alternativa: no ejecute operaciones de DR de CPU en el administrador de dominios hasta que se reinicie el dominio invitado migrado.

El dominio invitado genera un aviso grave cuando se cambia el valor de la propiedad threading de max-throughput a max-ipc

ID de error 15821246: en un sistema que ejecuta el SO Oracle Solaris 11.1, cambiar el valor de la propiedad threading en un dominio migrado de max-ipc a max-throughput puede generar un aviso grave en el dominio invitado.

Solución alternativa: no cambie el estado de threading por un dominio invitado migrado hasta que este se vuelva a iniciar.

El dominio de control se cuelga al reiniciar con dos dominios activos de E/S directa

ID de error 15820741: en un sistema Oracle Solaris 11.1 que tiene dos dominios con configuraciones de E/S directa, el dominio de control se puede bloquear al reiniciarlo.

Recuperación: para recuperarse del cuelgue del reinicio, restablezca el dominio de control emitiendo el siguiente comando en el SP:

-> reset -f /HOST/domain/control

ldm rm-io debe aceptar --dry-run como alias de -n

ID de error 15818302: no se puede especificar la opción --dry-run para el comando ldm rm-io.

Solución alternativa: utilice la opción -n en su lugar.

SPARC T3 y SPARC T4: un dominio con un dispositivo de red virtual o un conmutador virtual podría arrojar un aviso grave si hay carga excesiva

ID de error 15816287: en algunas circunstancias poco comunes, un dominio lógico podría arrojar un aviso grave si su dispositivo de red virtual o su conmutador virtual tienen una carga excesiva.

Solución alternativa: realice una de las soluciones alternativas que se mencionan a continuación. Se recomienda implementar la solución alternativa de /etc/system para limitar el impacto en el rendimiento del sistema.

Problemas de migración entre sistemas que tienen instaladas diferentes versiones de firmware

ID de error 15815409: la migración de un dominio activo podría fallar si el equipo de origen y el equipo de destino ejecutan diferentes versiones del firmware del sistema. Dicho fallo se produce en las siguientes situaciones:

Recuperación: realice una de las siguientes acciones:

Solución alternativa: detenga el dominio antes de realizar la migración.

No aparece ningún mensaje de error cuando se realiza una agregación de DR de memoria de manera parcialmente correcta

ID de error 15812823: en situaciones de poca memoria libre, no todos los bloques de memoria pueden usarse como parte de una operación de DR de memoria debido al tamaño. Sin embargo, estos bloques de memoria se incluyen en la cantidad de memoria libre. Esta situación puede hacer que se agregue al dominio una cantidad de memoria menor que la esperada. No aparece ningún mensaje de error si se produce esta situación.

Solución alternativa: ninguna.

El dominio principal o invitado genera un aviso grave al desenlazar o migrar un dominio invitado que tiene dispositivos de red de E/S híbrida

ID de error 15803617: el dominio primary o un dominio invitado activo pueden generar un aviso grave durante una operación de desenlace o de migración en directo si el dominio está configurado con dispositivos de red virtual de E/S híbrida.

Recuperación: reinicie el dominio afectado.

Solución alternativa: no utilice dispositivos de red virtual de E/S híbrida.

No se ha podido detener un dominio con los comandos ldm stop o ldm stop -f

ID de error 15801579: en algunas circunstancias poco comunes, no se puede detener un dominio con los comandos ldm stop o ldm stop -f. Por lo general, este problema sólo se produce cuando otro problema hace que el dominio sufra un bloqueo de hardware o entre en un bucle de aviso grave y reinicio muy rápido.

Solución alternativa: si no se puede iniciar sesión en el dominio directamente, intente emitir el comando ldm stop -f varias veces. Este comando se puede ejecutar en una ventana de tiempo durante la que el hipervisor puede detener el dominio.

Si esta solución no funciona correctamente, apague y encienda el sistema.

Los tejidos de PCIe no están disponibles para los dominios invitados cuando hay 11 dominios o más con dispositivos PCIe

ID de error 15789903: si se reinicia el dominio de control cuando hay 11 dominios invitados o más con dispositivos de punto final PCIe asignados, no es posible acceder a los dispositivos PCIe en el dominio invitado.

Recuperación: detenga y reinicie los dominios invitados afectados.

Solución alternativa: configure una relación de dependencia entre el dominio de control y los dominios invitados que tengan asignados dispositivos de punto final PCIe. La siguiente relación de dependencia garantiza que los dominios con dispositivos de punto final PCIe se detengan automáticamente cuando el dominio de control se reinicia por algún motivo:

primary# ldm set-domain failure-policy=stop primary
primary# ldm set-domain master=primary ldom

Error al volver a crear un dominio con funciones virtuales de PCIe desde un archivo XML

ID de error 15783851: es posible que se produzca un problema al intentar volver a crear una configuración desde un archivo XML que representa las restricciones de funciones virtuales de manera incorrecta.

Este problema se produce cuando utiliza el comando ldm list-constraints -x para guardar la configuración de un dominio que tiene funciones virtuales de PCIe.

Si más adelante vuelve a crear el dominio con el comando ldm add-domain -i, las funciones virtuales originales no estarán presentes y se mostrará el siguiente mensaje error al intentar enlazar un dominio:

No free matching PCIe device...

Incluso si crea las funciones virtuales que faltan, se produce el mismo mensaje de error al intentar enlazar otro dominio, ya que el comando ldm add-domain clasifica de manera incorrecta las funciones virtuales como dispositivos PCIe.

Solución alternativa: utilice el comando ldm list-io para guardar la información sobre las funciones virtuales y, a continuación, utilice el comando ldm rm-dom para destruir cada dominio afectado. Luego, utilice el comando ldm create-vf para crear todas las funciones virtuales necesarias. Ahora, puede usar el comando ldm para volver a crear los dominios. Cuando utiliza el comando ldm add-io para agregar las funciones virtuales, estas se clasifican correctamente como un dispositivo de funciones virtuales, por lo que el dominio se puede enlazar.

Para obtener información sobre cómo volver a crear una configuración de dominio que utiliza funciones virtuales, consulte El comando ldm init-system no puede volver a crear correctamente un dominio que tiene dispositivos de funciones virtuales.

Mensaje de error incorrecto al pasar del uso de núcleos completos al uso de núcleos parciales en el dominio de control

ID de error 15783608: al pasar del uso de núcleos con restricciones físicas al uso de recursos de CPU sin restricciones en el control de dominio, es posible que aparezca el siguiente mensaje irrelevante:

Whole-core partitioning has been removed from domain primary,because
dynamic reconfiguration has failed and the domain is now configured
with a partial CPU core.

Solución alternativa: puede omitir este mensaje.

El comando ldm init-system no puede volver a crear correctamente un dominio que tiene dispositivos de funciones virtuales

ID de error 15783031: al utilizar el comando ldm list-constraints -x para guardar las restricciones en un archivo XML, no se guardan los detalles de las funciones virtuales. Como resultado, cuando se restablece la configuración a factory-default y se ejecuta el comando ldm init-system para volver a crear la configuración guardada, no se crean las funciones virtuales y se produce un error al intentar enlazar cualquier dominio.

Solución alternativa: si la configuración existente tiene funciones virtuales, guarde toda la información sobre esas funciones virtuales. Posteriormente, podrá utilizar esta información para volver a crear manualmente las funciones virtuales antes de ejecutar el comando ldm init-system.

El procedimiento siguiente muestra cómo guardar toda la información sobre las funciones virtuales para usarla más adelante:

  1. Guarde la configuración del dominio en un archivo, vfs.txt, para usarla cuando vuelva a crear las funciones virtuales.

    primary# ldm list-io -l -p | grep "type=VF" >vfs.txt

    Una entrada típica de una función virtual de vfs.txt tendrá el siguiente aspecto:

    |dev=pci@400/pci@1/pci@0/pci@4/network@0,83|alias=/SYS/MB/NET0/IOVNET.PF1.VF1|
    status=RDY|domain=ldg1|type=VF|class=NETWORK
    |proptype=class|mac-addr=00:14:4f:f9:74:d0
    |proptype=class|vlan-ids=3,5,7
    |proptype=class|mtu=1500
    |proptype=device|unicast-slots=6

    La primera línea se divide intencionalmente en dos líneas para facilitar su lectura. Se mostrará como una sola línea en el archivo vfs.txt.

  2. Restablezca el dominio a la configuración factory-default.

  3. Reinicie el dominio de control.

  4. Cree las funciones virtuales de acuerdo con la información del archivo vfs.txt.

    En cada entrada, utilice el comando ldm create-vf para volver a crear la función virtual con su nombre y sus propiedades originales. Use el siguiente comando para la función virtual de ejemplo:

    primary# ldm create-vf mac-addr=00:14:4f:f9:74:d0 vid=3,5,7 mtu=1500 \
    unicast-slots=6 /SYS/MB/NET0/IOVNET.PF1

    Para obtener detalles sobre las propiedades class y device, consulte la página del comando man ldm(1M).


    Nota - El nombre de la función virtual se genera a partir del nombre de su función física principal. Como resultado, ejecute los comandos ldm create-vf en orden numérico ascendente de acuerdo con la parte del nombre correspondiente a la función virtual. Por ejemplo, la función física /SYS/MB/NET0/IOVNET.PF1 tiene las siguientes funciones virtuales secundarias:

    /SYS/MB/NET0/IOVNET.PF1.VF0 mac-addr=00:14:4f:f9:74:d0
    /SYS/MB/NET0/IOVNET.PF1.VF1 mac-addr=00:14:4f:f9:74:d1

    En los siguientes comandos se crean las funciones virtuales:

    primary# ldm create-vf mac-addr=00:14:4f:f9:74:d0 /SYS/MB/NET0/IOVNET.PF1
    Created new VF: /SYS/MB/NET0/IOVNET.PF1.VF0
    primary# ldm create-vf mac-addr=00:14:4f:f9:74:d1 /SYS/MB/NET0/IOVNET.PF1
    Created new VF: /SYS/MB/NET0/IOVNET.PF1.VF1

    El primer comando ldm create-vf hace que el sistema pase al modo de reconfiguración retrasada.


  5. Compruebe que la nueva configuración incluya las funciones virtuales que creó manualmente.

    primary# ldm list-io -l -p | grep "type=VF" >vfs.after.txt

    Compare el contenido del archivo vfs.after.txt con el archivo vfs.txt.

  6. Reinicie el dominio de control.

  7. Vuelva a configurar un dominio desde un archivo XML.

    primary# ldm init-system -i file.xml

Es posible que Logical Domains Manager se bloquee y se reinicie al intentar modificar varios dominios al mismo tiempo

ID de error 15782994: es posible que Logical Domains Manager se bloquee y se reinicie cuando intenta realizar una operación que afecta la configuración de varios dominios. Es posible que este problema aparezca al intentar cambiar algún valor relacionado con la configuración de red virtual y si existen muchos dispositivos de red virtual en el mismo conmutador virtual para varios dominios. Normalmente, este problema se presenta cuando hay aproximadamente 90 dominios o más que tienen dispositivos de red virtual conectados al mismo conmutador virtual y cuando la propiedad inter-vnet-link está activada (comportamiento predeterminado). Para confirmar el síntoma, busque el siguiente mensaje en el archivo de registro ldmd y el archivo core en el directorio /var/opt/SUNWldm:

Frag alloc for 'domain-name'/MD memory of size 0x80000 failed

Solución alternativa: evite crear muchos dispositivos de red virtual conectados al mismo conmutador virtual. Si desea hacerlo, establezca la propiedad inter-vnet-link en off en el conmutador virtual. Tenga en cuenta que esta opción puede afectar el rendimiento de las redes entre dominios invitados.

No se genera un error cuando se supera el número máximo de ranuras de unidifusión para las funciones físicas y virtuales ixgbe

ID de error 15780217: si intenta configurar más ranuras de unidifusión para las funciones físicas y virtuales ixgbe que el número permitido por el límite máximo, el comando se ejecuta correctamente. Se debería generar un error al intentar superar este límite máximo, pero esto no sucede.

Utilice el siguiente comando para identificar el número máximo de ranuras de unidifusión admitido por el dispositivo:

# ldm list-io -d pf-name

A continuación, asegúrese de que el número total de ranuras de unidifusión asignado a cada función virtual de esa función física no supere el valor máximo.

El dominio de control requiere el núcleo más bajo del sistema

ID de error 15778392: el dominio de control requiere el núcleo más bajo del sistema. Por lo tanto, si el ID de núcleo 0 es el núcleo más bajo, no se puede compartir con ningún otro dominio si desea aplicar la restricción de núcleo completo al dominio de control.

Por ejemplo, si el núcleo más bajo del sistema es el ID de núcleo 0, el dominio de control tendrá un aspecto similar al siguiente:

# ldm ls -o cpu primary
NAME
primary

VCPU
VID    PID    CID    UTIL STRAND
0      0      0      0.4%   100%
1      1      0      0.2%   100%
2      2      0      0.1%   100%
3      3      0      0.2%   100%
4      4      0      0.3%   100%
5      5      0      0.2%   100%
6      6      0      0.1%   100%
7      7      0      0.1%   100%

El daemon ldmd no se conecta

ID de error 15777490: el servicio de la utilidad de gestión de servicios (SMF) del daemon ldmd no se conecta si el software Oracle VM Server for SPARC 2.2 está instalado en un dominio de control que ejecuta versiones del SO Oracle Solaris que son anteriores al sistema operativo Oracle Solaris 10 10/09. Esta situación se produce porque se agregó una dependencia SMF explícita en el servicio SMF svc:/ldoms/agents.

Solución alternativa: instale el ID de parche 142909-17, que permite la compatibilidad con el servicio SMF svc:/ldoms/agents, ldmad, del que depende ldmd.

Tras cancelar una migración, los comandos ldm que se ejecutan en el sistema de destino no responden

ID de error 15776752: si cancela una migración en directo, el contenido de la memoria de la instancia del dominio que se crea en el destino se debe “limpiar” mediante el hipervisor. Este proceso de limpieza se realiza por motivos de seguridad y se debe completar para que la memoria pueda regresar al grupo de memoria libre. Mientras esta limpieza está en curso, los comandos ldm no responden. Como resultado, Logical Domains Manager parece estar bloqueado.

Recuperación: debe esperar a que se complete esta solicitud de limpieza antes de intentar ejecutar otros comandos ldm. Este proceso puede tardar bastante. Por ejemplo, un dominio invitado que tiene 500 GB de memoria puede completar este proceso en 7 minutos como máximo en un servidor SPARC T4 o en 25 minutos como máximo en un servidor SPARC T3.

Algunas tarjetas Emulex no funcionan cuando se asignan a un dominio de E/S

ID de error 15776319: en un sistema que ejecuta el SO Oracle Solaris en el dominio de control y un dominio de E/S, algunas tarjetas Emulex asignadas al dominio de E/S no funcionan correctamente porque las tarjetas no reciben interrupciones. Sin embargo, cuando se asignan al dominio de control, las mismas tarjetas funcionan correctamente.

Este problema se produce con las siguientes tarjetas Emulex:

Solución alternativa: ninguna.

Error grave en dominio invitado al ejecutar el comando cputrack durante la migración a un sistema SPARC T4

ID de error 15776123: si el comando cputrack se ejecuta en un dominio invitado mientras ese dominio se migra a un sistema SPARC T4, es posible que se produzca un aviso grave en el dominio invitado del equipo de destino tras la migración.

Solución alternativa: no ejecute el comando cputrack durante la migración de un dominio invitado a un sistema SPARC T4.

Oracle Solaris 11: el robo de DRM informa errores y reintentos de DR en Oracle Solaris

ID de error 15775668: un dominio que tiene una política de prioridad más alta puede robar recursos de CPU virtuales de un dominio con una política de prioridad más baja. Cuando esta acción de “robo” está en curso, es posible que vea los siguientes mensajes de advertencia en el registro ldmd cada 10 segundos:

warning: Unable to unconfigure CPUs out of guest domain-name

Solución alternativa: puede omitir estos mensajes engañosos.

Limitación del número máximo de funciones virtuales que se puede asignar a un dominio

ID de error 15775637: un dominio de E/S tiene un límite para el número de recursos de interrupción disponibles por cada complejo de raíz.

En los sistemas SPARC T3 y SPARC T4, el límite es de aproximadamente 63 MSI/vectores X. Cada función virtual igb utiliza tres interrupciones. La función virtual ixgbe utiliza dos interrupciones.

Si asigna una gran cantidad de funciones virtuales a un dominio, se agotan los recursos del sistema del dominio necesarios para admitir estos dispositivos. Aparecerán mensajes similares a los siguientes:

WARNING: ixgbevf32: interrupt pool too full.
WARNING: ddi_intr_alloc: cannot fit into interrupt pool

El dominio invitado que utiliza la migración entre CPU notifica tiempos de actividad aleatorios una vez completada la migración

ID de error 15775055: tras migrar un dominio entre dos equipos que tienen frecuencias de CPU diferentes, es posible que los informes de tiempo de actividad del comando ldm list sean incorrectos. Estos resultados incorrectos se generan porque el tiempo de actividad se calcula en función de la frecuencia STICK del equipo en el que se ejecuta el dominio. Si la frecuencia STICK es diferente entre los equipos de origen y de destino, los valores de tiempo de actividad parecen calcularse de manera incorrecta.

Los valores de tiempo de actividad informados y mostrados en el dominio invitado son correctos. Asimismo, cualquier cálculo que se realiza en el SO Oracle Solaris del dominio invitado es correcto.

Oracle Solaris 10: se puede producir un error grave en el controlador ixgbe cuando se inicia con una tarjeta de controlador Ethernet Intel X540 de puerto doble

ID de error 15773603: cuando se inicia con una tarjeta de controlador Ethernet Intel X540 de puerto doble, es posible que se produzca un error grave del sistema en el controlador ixgbe de Oracle Solaris 10. Este error grave se produce porque el controlador tiene un temporizador de prioridad alta que bloquea la conexión de otros controladores.

Solución alternativa: reinicie el sistema.

La versión 8.2.0 del firmware del sistema contiene una nueva versión de la base de datos scvar

ID de error 15772090: la versión 8.2.0 del firmware del sistema contiene una nueva versión de la base de datos scvar, que restablece los valores predeterminados una vez finalizada la instalación.

Solución alternativa: toma nota de la configuración de Oracle VM Server for SPARC en ejecución o cualquier cambio en las propiedades de diagnóstico del sistema antes de instalar el firmware del sistema. Utilice el comando show de ILOM. Por ejemplo:

-> show /HOST/domain/configs

Después de instalar el firmware y antes de encender el sistema, utilice el comando set de ILOM. Por ejemplo:

-> set /HOST/bootmode config=config-name

En este punto, se conservan las configuraciones de Oracle VM Server for SPARC. No obstante, debe seleccionar si desea iniciar una configuración específica o la configuración factory-default.

Los siguientes valores de propiedades se restablecen a los valores predeterminados después de instalar el firmware:

/HOST
   Properties:
   autorunonerror
   ioreconfigure

/HOST/bootmode
   Properties:
   config

/HOST/diag
   Properties:
   error_reset_level
   error_reset_verbosity
   hw_change_level
   hw_change_verbosity
   level
   mode
   power_on_level
   power_on_verbosity
   trigger
   verbosity

/HOST/domain/control
   Properties:
   auto-boot
   boot_guests

/HOST/tpm
   Properties:
   enable
   activate
   forceclear

/SYS
   Properties:
   keyswitch_state

/SP/powermgmt
   Properties:
   policy

Destruir todas las funciones virtuales y regresar las ranuras al dominio raíz no restaura los recursos del complejo de raíz

ID de error 15765858: los recursos del complejo de raíz no se restauran después de destruir todas las funciones virtuales y regresar las ranuras al dominio raíz.

Solución alternativa: configure la opción iov en off para el bus PCIe específico.

primary# ldm start-reconf primary
primary# ldm set-io iov=off pci_0

No se debe permitir ldm remove-io en las tarjetas PCIe que tienen puentes de PCIe a PCI

ID de error 15761509: utilice sólo tarjetas PCIe que admiten la función de E/S directa. Estas tarjetas se enumeran en este documento de asistencia técnica.

Solución alternativa: utilice el comando ldm add-io para volver a agregar la tarjeta al dominio primary.

El comando ldm stop puede generar un error si se ejecuta inmediatamente después de un comando ldm start

ID de error 15759601: si ejecuta un comando ldm stop inmediatamente después de un comando ldm start, el comando ldm stop puede generar el siguiente error:

LDom domain stop notification failed

Solución alternativa: vuelva a ejecutar el comando ldm stop.

init-system no restaura las restricciones de núcleo con nombre para dominios invitados desde los archivos XML guardados

ID de error 15758883: el comando ldm init-system no consigue restaurar las restricciones de núcleo del CPU para dominios invitados desde un archivo XML guardado.

Solución alternativa: siga estos pasos:

  1. Cree un archivo XML para el dominio principal.

    # ldm ls-constraints -x primary > primary.xml
  2. Cree un archivo XML para los dominios invitados.

    # ldm ls-constraints -x ldom[,ldom][,...] > guest.xml
  3. Apague el sistema, vuelva a encenderlo e inicie una configuración predeterminada de fábrica.

  4. Aplique la configuración XML para el dominio primary.

    # ldm init-system -r -i primary.xml
  5. Reinicie.

  6. Aplique la configuración XML para estos dominios.

    # ldm init-system -f -i guest.xml

Usar ldm set-io para cambiar el valor pvid dos veces seguidas puede generar un error de configuración

ID de error 15753523: si se utiliza el comando ldm set-io para cambiar el valor de la propiedad pvid para una función virtual más de una vez, es posible que el valor de pvid no se defina correctamente en el hardware de funciones virtuales.

Solución alternativa: espere unos segundos antes de ejecutar de nuevo el comando ldm set-io.

Se produce un error grave en el sistema cuando se reinicia un dominio primary que tiene un gran número de funciones virtuales asignadas

ID de error 15750727: se produce un error grave en el sistema al reiniciar un dominio primary que tiene un gran número de funciones virtuales asignadas.

Solución alternativa: siga una de estas soluciones alternativas:

Mensaje de error de SR-IOV impreciso: Create vf failed

ID de error 15748555: al intentar crear una función virtual más que el número máximo de funciones virtuales configurables para un dispositivo de funciones físicas, se genera el mensaje Create vf failed. Este mensaje de error no es claro en cuanto al motivo del error.

SO Oracle Solaris 11: el uso de la función de E/S directa para eliminar varias ranuras PCIe del dominio primary en un sistema Fujitsu M10 o SPARC T-Series de varios sockets puede provocar un aviso grave en el inicio

ID de error 15748357: es posible que se produzca un aviso grave del sistema en el inicio si utiliza la función de E/S directa (ldm remove-io) para eliminar varias ranuras PCIe de un sistema Fujitsu M10 o SPARC T-Series de varios sockets. Este problema se produce cuando las rutas de las ranuras PCIe son similares entre sí, excepto la ruta del complejo raíz. El error grave se puede producir tras eliminar las ranuras PCIe y reiniciar el dominio primary. Para obtener más información sobre la función de E/S directa, consulte Asignación de dispositivos de punto final PCIe de Guía de administración de Oracle VM Server for SPARC 3.0.

Por ejemplo, si elimina las ranuras /SYS/MB/PCIE5 (pci@500/pci@2/pci@0/pci@0) y /SYS/MB/PCIE4 (pci@400/pci@2/pci@0/pci@0), que tienen nombres de ruta similares, se puede producir un error grave en el sistema operativo Oracle Solaris 11.

El comando ldm list-io siguiente se ejecuta después de eliminar las ranuras PCIe /SYS/MB/PCIE4 y /SYS/MB/PCIE5.

# ldm list-io
IO              PSEUDONYM       DOMAIN
--              ---------       ------
pci@400         pci_0           primary
niu@480         niu_0           primary
pci@500         pci_1           primary
niu@580         niu_1           primary

PCIE                       PSEUDONYM       STATUS  DOMAIN
----                       ---------       ------  ------
pci@400/pci@2/pci@0/pci@8  /SYS/MB/PCIE0   OCC     primary
pci@400/pci@2/pci@0/pci@4  /SYS/MB/PCIE2   OCC     primary
pci@400/pci@2/pci@0/pci@0  /SYS/MB/PCIE4   OCC
pci@400/pci@1/pci@0/pci@8  /SYS/MB/PCIE6   OCC     primary
pci@400/pci@1/pci@0/pci@c  /SYS/MB/PCIE8   OCC     primary
pci@400/pci@2/pci@0/pci@e  /SYS/MB/SASHBA  OCC     primary
pci@400/pci@1/pci@0/pci@4  /SYS/MB/NET0    OCC     primary
pci@500/pci@2/pci@0/pci@a  /SYS/MB/PCIE1   OCC     primary
pci@500/pci@2/pci@0/pci@6  /SYS/MB/PCIE3   OCC     primary
pci@500/pci@2/pci@0/pci@0  /SYS/MB/PCIE5   OCC
pci@500/pci@1/pci@0/pci@6  /SYS/MB/PCIE7   OCC     primary
pci@500/pci@1/pci@0/pci@0  /SYS/MB/PCIE9   OCC     primary
pci@500/pci@1/pci@0/pci@5  /SYS/MB/NET2    OCC     primary
#

Solución alternativa: no elimine todas las ranuras que tienen nombres de ruta similares. En su lugar, sólo elimine una ranura PCIe de ese tipo.

También puede insertar las tarjetas PCIe en ranuras que no tienen rutas similares y luego usarlas con la función de E/S directa.

El núcleo parcial primary no permite las transiciones de la DR de núcleo completo

ID de error 15748348: cuando el dominio primary comparte el núcleo físico más bajo (por lo general, 0) con otro dominio, se produce un error al intentar definir la restricción de núcleo completo para el dominio primary.

Solución alternativa: siga estos pasos:

  1. Determine el núcleo enlazado más bajo compartido por los dominios.

    # ldm list -o cpu
  2. Desenlace todos los subprocesos de CPU correspondientes al núcleo más bajo de todos los dominios, excepto del dominio primary.

    Como resultado, los subprocesos de CPU correspondientes al núcleo más bajo no se comparten y están disponibles para enlazarse con el dominio primary.

  3. Para definir la restricción de núcleo completo, siga uno de estos pasos:

    • Enlace los subprocesos de CPU al dominio primary y defina la restricción de núcleo completo con el comando ldm set-vcpu -c.

    • Utilice el comando ldm set-core para enlazar los subprocesos de CPU y definir la restricción de núcleo completo en un solo paso.

Tras reiniciar el dominio primary, las funciones virtuales igb e ixgbe asignadas al dominio primary se vuelven defectuosas

ID de error 15747047: los dispositivos de funciones virtuales igb e ixgbe se vuelven defectuosos tras reiniciar el dominio primary. Estas funciones virtuales se asignan al dominio primary. La configuración del sistema sólo tiene un dominio primary. No se configuran dominios invitados ni dominios de E/S.

El comando fmadm faulty muestra que todos los dispositivos de funciones virtuales son defectuosos. El comando fmadm repair permite recuperarse de los errores, pero el estado defectuoso vuelve a aparecer cada vez que reinicia el dominio primary.

Solución alternativa: use el comando fmadm repair para recuperarse de los errores cada vez que reinicie el dominio primary.

El comando ldm list-io muestra el estado UNK o INV tras el inicio

ID de error 15738561: el comando ldm list-io puede mostrar el estado UNK o INV para las ranuras PCIe y las funciones virtuales SR-IOV si el comando se ejecuta inmediatamente después del inicio del dominio primary. Este problema se produce por un retraso en la respuesta del agente de Logical Domains en el SO Oracle Solaris.

Este problema sólo se ha notificado en pocos sistemas.

Solución alternativa: el estado de las ranuras PCIe y las funciones virtuales se actualiza automáticamente una vez que se recibe la información del agente de Logical Domains.

Migrar un dominio con una gran cantidad de memoria en SPARC T4-4 genera un error grave del dominio en el sistema de destino

ID de error 15731303: evite migrar dominios que tienen más de 500 GB de memoria. Utilice el comando ldm list -o mem para ver la configuración de memoria del dominio. Algunas configuraciones de memoria con varios bloques de memoria que suman en total más de 500 GB pueden generar un error grave con una pila similar al siguiente:

panic[cpu21]/thread=2a100a5dca0:
BAD TRAP: type=30 rp=2a100a5c930 addr=6f696e740a232000 mmu_fsr=10009

sched:data access exception: MMU sfsr=10009: Data or instruction address
out of range context 0x1

pid=0, pc=0x1076e2c, sp=0x2a100a5c1d1, tstate=0x4480001607, context=0x0
g1-g7: 80000001, 0, 80a5dca0, 0, 0, 0, 2a100a5dca0

000002a100a5c650 unix:die+9c (30, 2a100a5c930, 6f696e740a232000, 10009,
2a100a5c710, 10000)
000002a100a5c730 unix:trap+75c (2a100a5c930, 0, 0, 10009, 30027b44000,
2a100a5dca0)
000002a100a5c880 unix:ktl0+64 (7022d6dba40, 0, 1, 2, 2, 18a8800)
000002a100a5c9d0 unix:page_trylock+38 (6f696e740a232020, 1, 6f69639927eda164,
7022d6dba40, 13, 1913800)
000002a100a5ca80 unix:page_trylock_cons+c (6f696e740a232020, 1, 1, 5,
7000e697c00, 6f696e740a232020)
000002a100a5cb30 unix:page_get_mnode_freelist+19c (701ee696d00, 12, 1, 0, 19, 3)
000002a100a5cc80 unix:page_get_cachelist+318 (12, 1849fe0, ffffffffffffffff, 3,
0, 1)
000002a100a5cd70 unix:page_create_va+284 (192aec0, 300ddbc6000, 0, 0,
2a100a5cf00, 300ddbc6000)
000002a100a5ce50 unix:segkmem_page_create+84 (18a8400, 2000, 1, 198e0d0, 1000,
11)
000002a100a5cf60 unix:segkmem_xalloc+b0 (30000002d98, 0, 2000, 300ddbc6000, 0,
107e290)
000002a100a5d020 unix:segkmem_alloc_vn+c0 (30000002d98, 2000, 107e000, 198e0d0,
30000000000, 18a8800)
000002a100a5d0e0 genunix:vmem_xalloc+5c8 (30000004000, 2000, 0, 0, 80000, 0)
000002a100a5d260 genunix:vmem_alloc+1d4 (30000004000, 2000, 1, 2000,
30000004020, 1)
000002a100a5d320 genunix:kmem_slab_create+44 (30000056008, 1, 300ddbc4000,
18a6840, 30000056200, 30000004000)
000002a100a5d3f0 genunix:kmem_slab_alloc+30 (30000056008, 1, ffffffffffffffff,
0, 300000560e0, 30000056148)
000002a100a5d4a0 genunix:kmem_cache_alloc+2dc (30000056008, 1, 0, b9,
fffffffffffffffe, 2006)
000002a100a5d550 genunix:kmem_cpucache_magazine_alloc+64 (3000245a740,
3000245a008, 7, 6028f283750, 3000245a1d8, 193a880)
000002a100a5d600 genunix:kmem_cache_free+180 (3000245a008, 6028f2901c0, 7, 7,
7, 3000245a740)
000002a100a5d6b0 ldc:vio_destroy_mblks+c0 (6028efe8988, 800, 0, 200, 19de0c0, 0)
000002a100a5d760 ldc:vio_destroy_multipools+30 (6028f1542b0, 2a100a5d8c8, 40,
0, 10, 30000282240)
000002a100a5d810 vnet:vgen_unmap_rx_dring+18 (6028f154040, 0, 6028f1a3cc0, a00,
200, 6028f1abc00)
000002a100a5d8d0 vnet:vgen_process_reset+254 (1, 6028f154048, 6028f154068,
6028f154060, 6028f154050, 6028f154058)
000002a100a5d9b0 genunix:taskq_thread+3b8 (6028ed73908, 6028ed738a0, 18a6840,
6028ed738d2, e4f746ec17d8, 6028ed738d4)

Solución alternativa: evite realizar migraciones de dominios que tienen más de 500 GB de memoria.

Se produce un error al eliminar una gran cantidad de CPU de un dominio invitado

ID de error 15726205: es posible que aparezca el siguiente mensaje de error al intentar eliminar una gran cantidad de CPU de un dominio invitado:

Request to remove cpu(s) sent, but no valid response received
VCPU(s) will remain allocated to the domain, but might
not be available to the guest OS
Resource modification failed

Solución alternativa: detenga el dominio invitado antes de eliminar más de 100 CPU del dominio.

No es posible usar las operaciones de conexión en marcha de Oracle Solaris para eliminar un dispositivo de punto final PCIe cuando está en funcionamiento

ID de error 15721872: no puede utilizar las operaciones de conexión en marcha de Oracle Solaris para eliminar un dispositivo de punto final PCIe cuando está en funcionamiento después de que dicho dispositivo se elimina del dominio primary mediante el comando ldm rm-io. Para obtener información sobre cómo reemplazar o eliminar un dispositivo de punto final PCIe, consulte Realización de cambios de hardware en PCIe de Guía de administración de Oracle VM Server for SPARC 3.0.

Error de validación de disco virtual para un disco físico sin el segmento 2

ID de error 15713809: si un disco físico está configurado con un segmento 2 que tiene un tamaño de 0, es posible que se produzcan los siguientes problemas:

Otra solución alternativa para ambos problemas es desactivar definitivamente la validación de disco mediante los comandos ldm add-vdsdev y ldm bind. Como resultado, no es necesario especificar la opción -q. Desactive de forma permanente la validación de disco. Para ello, actualice la propiedad device_validation del servicio ldmd:

# svccfg -s ldmd setprop ldmd/device_validation=value
# svcadm refresh ldmd
# svcadm restart ldmd

Especifique un valor de 0 para desactivar la validación para los dispositivos de red y de disco. Especifique un valor de 1 para desactivar la validación para los dispositivos de disco y activar la validación para los dispositivos de red.

Los valores posibles para la propiedad device_validation son:

0

Desactiva la validación para todos los dispositivos

1

Activa la validación para los dispositivos de red

2

Activa la validación para los dispositivos de disco

3

Activa la validación para los dispositivos de red y de disco

-1

Activa la validación para todos los tipos de dispositivos, que es la configuración predeterminada

El comando nxge genera un error grave al migrar un dominio invitado que tiene dispositivos de red virtual de E/S híbrida y de E/S virtual

ID de error 15710957: cuando un dominio invitado con mucha carga tiene una configuración de E/S híbrida e intenta migrarlo, es posible que se muestre un error grave de nxge.

Solución alternativa: agregue la línea siguiente al archivo /etc/system en el dominio primary y en cualquier dominio de servicio que forme parte de la configuración de E/S híbrida del dominio:

set vsw:vsw_hio_max_cleanup_retries = 0x200

Todos los comandos ldm se bloquean cuando faltan recursos NFS compartidos en las migraciones

ID de error 15708982: se bloquea de forma permanente una migración iniciada o en curso, o cualquier comando ldm. Esta situación se produce cuando el dominio que se migrará utiliza un sistema de archivos compartido de otro sistema y el sistema de archivos ya no está compartido.

Solución alternativa: haga que el sistema de archivos compartido esté disponible de nuevo.

El servicio del agente de Logical Domains no se conecta si el servicio de registro del sistema tampoco se conecta

ID de error 15707426: si el servicio de registro del sistema, svc:/system/system-log, no se inicia y no se conecta, el servicio del agente de Logical Domains no se conectará. Cuando el servicio del agente de Logical Domains no está conectado, es posible que los comandos virtinfo, ldm add-vsw, ldm add-vdsdev y ldm list-io no se comporten del modo esperado.

Solución alternativa: asegúrese de que el servicio svc:/ldoms/agents:default esté activado y conectado:

# svcs -l svc:/ldoms/agents:default

Si el servicio svc:/ldoms/agents:default está desconectado, compruebe que el servicio esté activado y que todos los servicios dependientes estén conectados.

El interbloqueo del núcleo provoca el bloqueo del equipo durante una migración

ID de error 15704500: la migración de un dominio invitado activo puede bloquearse y hacer que el equipo de origen no responda. Cuando se produce este problema, se escribe el siguiente mensaje en la consola y en el archivo /var/adm/messages:

vcc: i_vcc_ldc_fini: cannot close channel 15

vcc: [ID 815110 kern.notice] i_vcc_ldc_fini: cannot
close channel 15

Tenga en cuenta que el número de canal mostrado es un número de canal interno de Oracle Solaris que puede ser distinto para cada mensaje de advertencia.

Solución alternativa: antes de migrar el dominio, desconéctese de la consola del dominio invitado.

Recuperación: apague y vuelva a encender el equipo de origen.

La DRM y el resultado de ldm list muestran un número de CPU virtuales diferente del que realmente hay en el dominio invitado

ID de error 15702475: es posible que aparezca el mensaje No response en el registro de Oracle VM Server for SPARC cuando la política DRM de un dominio cargado caduca una vez que el recuento de CPU se ha reducido significativamente. La salida del comando ldm list muestra que hay más recursos de CPU asignados al dominio de los que se muestran en la salida de psrinfo.

Solución alternativa: utilice el comando ldm set-vcpu para restablecer el número de CPU del dominio al valor que se muestra en el resultado de psrinfo.

La migración en directo de un dominio que depende de un dominio maestro inactivo en el equipo de destino genera un error de segmentación en ldmd

ID de error 15701865: si intenta realizar una migración en directo de un dominio que depende de un dominio inactivo en el equipo de destino, se produce un error de segmentación en el daemon ldmd y se reinicia el dominio del equipo de destino. Si bien puede realizar una migración de todos modos, no será una migración en directo.

Solución alternativa: lleve a cabo una de las siguientes acciones antes de intentar la migración en directo:

DRM no puede restaurar el número predeterminado de CPU virtuales para un dominio migrado cuando se elimina o caduca la política

ID de error 15701853: después de realizar una migración de dominios mientras hay una política DRM en vigor, si la política DRM caduca o se elimina del dominio migrado, DRM no puede restaurar el número original de CPU virtuales en el dominio.

Solución alternativa: si se migra un dominio cuando la política DRM está activa y luego caduca o se elimina la política, restablezca el número de CPU virtuales. Utilice el comando ldm set-vcpu para definir el número de CPU virtuales en su valor original en el dominio.

Errores de tiempo de espera de CPU virtuales durante la DR

ID de error 15701258: al ejecutar el comando ldm set-vcpu 1 en un dominio invitado que tiene más de 100 CPU virtuales y algunas unidades criptográficas, no se eliminan las CPU virtuales. Las CPU virtuales no se eliminan debido a un error de tiempo de espera de la DR. Las unidades criptográficas se eliminan correctamente.

Solución alternativa: utilice el comando ldm rm-vcpu para eliminar todas las CPU virtuales excepto una del dominio invitado. No elimine más de 100 CPU virtuales a la vez.

El motivo del error de la migración no se informa cuando la dirección MAC del sistema entra en conflicto con otra dirección MAC

ID de error 15699763: no es posible migrar un dominio si contiene una dirección MAC duplicada. Normalmente, cuando se produce un error en la migración por este motivo, el mensaje de error muestra la dirección MAC duplicada. Sin embargo, en raras ocasiones, este mensaje de error puede no indicar la dirección MAC duplicada.

# ldm migrate ldg2 system2
Target Password:
Domain Migration of LDom ldg2 failed

Solución alternativa: asegúrese de que las direcciones MAC del equipo de destino sean únicas.

Las operaciones de migración simultáneas en “dirección opuesta” pueden generar un bloqueo de ldm

ID de error 15696986: si dos comandos ldm migrate se ejecutan de forma simultánea en “dirección opuesta”, es posible que los dos comandos se bloqueen y que nunca se completen. Se presenta una situación de dirección opuesta cuando se inicia simultáneamente una migración en el equipo A para el equipo B y una migración en el equipo B para el equipo A.

El bloqueo se produce incluso si los procesos de migración se inician como ejecuciones simuladas mediante la opción -n. Cuando se produce este problema, se pueden bloquear todos los demás comandos ldm.

Solución alternativa: ninguna.

Se produce un error al eliminar una gran cantidad de CPU del dominio de control

ID de error 15677358: utilice una reconfiguración retrasada en lugar de una reconfiguración dinámica para eliminar más de 100 CPU del dominio de control (también conocido como dominio primary). Siga estos pasos:

  1. Use el comando ldm start-reconf primary para poner el dominio de control en modo de reconfiguración retrasada.

  2. Elimine el número deseado de recursos de CPU.

    Si comete un error al eliminar los recursos de CPU, no intente realizar otra solicitud para eliminar las CPU mientras el dominio de control aún se encuentre en una reconfiguración retrasada. Si lo hace, los comandos no funcionarán (consulte Sólo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada). En su lugar, deshaga la operación de reconfiguración retrasada mediante el comando ldm cancel-reconf y vuelva a comenzar.

  3. Reinicie el dominio de control.

Es posible que se bloquee el sistema que ejecuta el SO Oracle Solaris 10 8/11 con la política elástica definida

ID de error 15672651 y 15731467: es posible que el sistema operativo se bloquee en el inicio de sesión o al ejecutar comandos cuando se cumplen las siguientes condiciones:

Solución alternativa: aplique el ID de parche 147149-01.

pkgadd no puede definir las entradas ACL en /var/svc/manifest/platform/sun4v/ldmd.xml

ID de error 15668881: al utilizar el comando pkgadd para instalar el paquete SUNWldm.v de un directorio que se exporta mediante un NFS desde un dispositivo Oracle ZFS Storage Appliance, es posible que aparezca el siguiente mensaje de error:

cp: failed to set acl entries on /var/svc/manifest/platform/sun4v/ldmd.xml

Solución alternativa: omita este mensaje.

SPARC T3-1: problema con los discos disponibles a través de varias rutas de E/S directa

ID de error 15668368: un sistema SPARC T3-1 se puede instalar con discos de dos puertos, a los que se puede acceder mediante dos dispositivos de E/S directa diferentes. En este caso, asignar estos dos dispositivos de E/S directa a dominios diferentes puede provocar que los discos se utilicen en ambos dominios y que se vean afectados en función del uso real de esos discos.

Solución alternativa: no asigne dispositivos de E/S directa con acceso al mismo conjunto de discos a diferentes dominios de E/S. Para determinar si tiene discos de dos puertos en el sistema T3-1, ejecute el siguiente comando en el SP:

-> show /SYS/SASBP

Si el resultado incluye el valor fru_description siguiente, el sistema correspondiente tiene discos de dos puertos:

fru_description = BD,SAS2,16DSK,LOUISE

Si se encuentran discos de dos puertos en el sistema, asegúrese de que estos dos dispositivos de E/S directa estén siempre asignados al mismo dominio:

pci@400/pci@1/pci@0/pci@4  /SYS/MB/SASHBA0
pci@400/pci@2/pci@0/pci@4  /SYS/MB/SASHBA1

Las operaciones de eliminación de la DR de memoria con varias instancias nxge de NIU asociadas se pueden bloquear de forma indefinida y nunca completarse

ID de error 15667770: cuando se asocian varias instancias nxge de NIU en un dominio, es posible que los comandos ldm rm-mem y ldm set-mem, que se utilizan para eliminar memoria del dominio, nunca se completen. Para determinar si el problema se ha producido durante una operación de eliminación de memoria, supervise el progreso de la operación con el comando ldm list -o status. Es posible que tenga este problema si el porcentaje del progreso sigue siendo constante durante varios minutos.

Recuperación: cancele el comando ldm rm-mem o ldm set-mem.

Solución alternativa: cancele el comando ldm rm-mem o ldm set-mem, y compruebe si se eliminó una cantidad suficiente de memoria. Si no es así, es posible que se complete correctamente un comando de eliminación de memoria posterior para eliminar una menor cantidad de memoria.

Si el problema se ha producido en el dominio primary, haga lo siguiente:

  1. Inicie una operación de reconfiguración retrasada en el dominio primary.

    # ldm start-reconf primary
  2. Asigne la cantidad de memoria que desee al dominio.

  3. Reinicie el dominio primary.

Si el problema se ha producido en otro dominio, detenga el dominio antes de ajustar la cantidad de memoria asignada al dominio.

Al usar el comando ldm stop -a en dominios con una relación de maestro-esclavo, el esclavo conserva el indicador stopping

ID de error 15664666: cuando se crea una dependencia de restablecimiento, el comando ldm stop -a puede generar que se reinicie un dominio con una dependencia de restablecimiento en lugar de que sólo se detenga.

Solución alternativa: en primer lugar, ejecute el comando ldm stop en el dominio maestro. Luego, ejecute el comando ldm stop en el dominio esclavo. Si la detención inicial del dominio esclavo genera un error, ejecute el comando ldm stop -f en el dominio esclavo.

La migración de un dominio que tiene activada la política DRM predeterminada da como resultado la asignación de todas las CPU disponibles a un dominio de destino

ID de error 15655513: tras la migración de un dominio activo, el uso de la CPU en el dominio migrado puede aumentar considerablemente durante un período breve. Si hay una política de gestión de recursos dinámicos (DRM, Dynamic Resource Managment) vigente para el dominio en el momento de la migración, Logical Domains Manager puede comenzar a agregar CPU. En especial, si las propiedades vcpu-max y attack no se especificaron cuando se agregó la política, el valor predeterminado de unlimited provoca que todas las CPU desenlazadas en el equipo de destino se agreguen al dominio migrado.

Recuperación: no es necesario realizar ninguna recuperación. Cuando el uso de la CPU cae por debajo del límite superior especificado por la política DRM, Logical Domains Manager elimina automáticamente las CPU.

Es posible reasignar una dirección MAC en uso

ID de error 15655199: a menudo, no se detecta y se reasigna de manera incorrecta una dirección MAC en uso.

Solución alternativa: compruebe manualmente que no es posible reasignar una dirección MAC en uso.

ldmconfig no puede crear una configuración de dominio en el SP

ID de error 15654965: la secuencia de comandos ldmconfig no puede crear correctamente una configuración de dominios lógicos almacenada en el procesador de servicio (SP).

Solución alternativa: no apague y vuelva a encender el sistema una vez que se completa la secuencia de comandos ldmconfig y que se reinicia el dominio. En su lugar, realice los siguientes pasos manuales:

  1. Agregue la configuración al SP.

    # ldm add-spconfig new-config-name
  2. Elimine la configuración primary-with-clients del SP.

    # ldm rm-spconfig primary-with-clients
  3. Apague y vuelva a encender el sistema.

Si no realiza estos pasos antes de apagar y volver a encender el sistema, la existencia de la configuración primary-with-client provocará que los dominios estén inactivos. En este caso, debe enlazar cada dominio de forma manual y, a continuación, iniciarlos mediante la ejecución del comando ldm start -a. Una vez que se inician los invitados, la repetición de esta secuencia permite que los dominios invitados se inicien automáticamente después de apagar y volver a encender el sistema.

La migración de dominios de Oracle Solaris sin cooperación se puede bloquear si cpu0 está desconectado

ID de error 15653424: la migración de un dominio activo puede generar errores si se ejecuta en una versión anterior al sistema operativo Oracle Solaris 10 10/09 y la CPU con el número más bajo del dominio tiene el estado offline. Se produce un error en la operación cuando Logical Domains Manager utiliza la DR de CPU para reducir el dominio a una única CPU. En este proceso, Logical Domains Manager intenta eliminar todas las CPU del dominio excepto la que tiene el número más bajo pero, como esa CPU está desconectada, se produce un error en la operación.

Solución alternativa: antes de intentar la migración, asegúrese de que la CPU con el número más bajo del dominio tenga el estado online.

La DR de memoria se desactiva tras una migración cancelada

ID de error 15646293: una vez que un dominio con Oracle Solaris 10 9/10 se suspende como parte de una operación de migración, se desactiva la reconfiguración dinámica (DR) de memoria. Esta acción se produce no sólo cuando la migración se realiza correctamente, sino también cuando la migración se ha cancelado, a pesar de que el dominio permanece en el equipo de origen.

La reconfiguración dinámica de los valores MTU de dispositivos de red virtual a veces produce errores

ID de error 15631119: si modifica la unidad de transmisión máxima (MTU) de un dispositivo de red virtual en el dominio de control, se inicia una operación de reconfiguración retrasada. Si posteriormente cancela la reconfiguración retrasada, el valor MTU del dispositivo no se restablece al valor original.

Recuperación: vuelva a ejecutar el comando ldm set-vnet para establecer la MTU al valor original. Al restablecer el valor MTU, el dominio de control pasará al modo de reconfiguración retrasada, el cual deberá cancelar. El valor MTU resultante es ahora el valor MTU correcto original.

# ldm set-vnet mtu=orig-value vnet1 primary
# ldm cancel-op reconf primary

El dominio migrado con MAU contiene sólo una CPU cuando el sistema operativo de destino no admite la DR de unidades criptográficas

ID de error 15606220: a partir de Logical Domains 1.3, es posible migrar un dominio incluso si tiene enlazadas una o varias unidades criptográficas.

En los siguientes casos, el equipo de destino sólo tendrá una CPU una vez finalizada la migración:

Una vez finalizada la migración, el dominio de destino se reanudará correctamente y estará activo, pero con un estado degradado (sólo una CPU).

Solución alternativa: antes de la migración, elimine las unidades criptográficas del equipo de origen que ejecuta Logical Domains 1.3.

Mitigación: para evitar este problema, siga uno de estos pasos o ambos:

Mensaje de error de migración confuso para errores de enlace de memoria en la dirección real

ID de error 15605806: en algunos casos, se produce el siguiente mensaje de error durante la migración, y ldmd informa que no se ha podido enlazar la memoria necesaria para el dominio de origen. Esta situación se puede producir incluso si la cantidad total de memoria disponible en el equipo de destino es mayor que la cantidad de memoria que utiliza el dominio de origen (como se muestra en ldm ls-devices -a mem).

Unable to bind 29952M memory region at real address 0x8000000
Domain Migration of LDom ldg0 failed

Causa: este error se debe a la incapacidad de cumplir los requisitos de congruencia entre la dirección real (RA) y la dirección física (PA) en el equipo de destino.

Solución alternativa: detenga el dominio y realice la migración como una migración en frío. También puede reducir el tamaño de la memoria en el dominio invitado a 128 MB para permitir que la migración continúe mientras se ejecuta el dominio.

La eliminación dinámica de todas las unidades criptográficas de un dominio provoca la terminación de SSH

ID de error 15600969: si todas las unidades criptográficas del hardware se eliminan dinámicamente de un dominio en ejecución, la estructura criptográfica no puede cambiar a los proveedores de software criptográficos y se terminan todas las conexiones ssh.

Recuperación: vuelva a establecer las conexiones ssh una vez que todas las unidades criptográficas se hayan eliminado del dominio.

Solución alternativa: establezca UseOpenSSLEngine=no en el archivo /etc/ssh/sshd_config del servidor y ejecute el comando svcadm restart ssh.

Todas las conexiones ssh ya no utilizarán las unidades criptográficas de hardware (y, por lo tanto, no se beneficiarán de las mejoras de rendimiento relacionadas) y las conexiones ssh no se desconectarán cuando se eliminen dichas unidades.

La tarjeta Ethernet de fibra de 10 gigabits dual PCI Express muestra cuatro subdispositivos en el resultado de ldm list-io -l

ID de error 15597025: cuando se ejecuta el comando ldm ls-io -l en un sistema que tiene instalada una tarjeta Ethernet de fibra de 10 gigabits dual PCI Express (X1027A-Z), el resultado puede ser el siguiente:

primary# ldm ls-io -l
...
pci@500/pci@0/pci@c PCIE5 OCC primary
network@0
network@0,1
ethernet
ethernet

El resultado muestra cuatro subdispositivos aunque esta tarjeta Ethernet sólo tiene dos puertos. Esta anomalía se produce porque la tarjeta tiene cuatro funciones PCI. Dos de estas funciones se desactivan internamente y aparecen como ethernet en el resultado de ldm ls-io -l.

Solución alternativa: puede omitir las entradas ethernet en el resultado de ldm ls-io -l.

Los comandos ldm responden con lentitud cuando se inician varios dominios

ID de error 15572184: un comando ldm puede tardar en responder cuando se inician varios dominios. Si ejecuta un comando ldm en esta etapa, puede parecer que el comando se bloquea. Tenga en cuenta que el comando ldm se restablecerá después de realizar la tarea esperada. Una vez que se restablece el comando, el sistema debe responder normalmente a los comandos ldm.

Solución alternativa: evite iniciar varios dominios de forma simultánea. Sin embargo, si debe iniciar varios dominios a la vez, intente no ejecutar más comandos ldm hasta que el sistema vuelve a su estado normal. Por ejemplo, espere aproximadamente dos minutos en los servidores Sun SPARC Enterprise T5140 y T5240, y alrededor de cuatro minutos en el servidor Sun SPARC Enterprise T5440 o el servidor Netra T5440.

Oracle Solaris 11: es posible que no se inicien las zonas configuradas con una interfaz de red automática

ID de error 15560811: en Oracle Solaris 11, es posible que las zonas que están configuradas con una interfaz de red automática (anet) no se inicien en un dominio que sólo tiene dispositivos de red virtual de Logical Domains.

Oracle Solaris 10: los dispositivos de red virtual no se crean correctamente en el dominio de control

ID de error 15560201: a veces, ifconfig indica que el dispositivo no existe después de agregar un dispositivo de disco virtual o red virtual a un dominio. Esta situación puede ocurrir porque no se creó la entrada /devices.

Aunque este problema no debe surgir durante un funcionamiento normal, el error se detecta cuando el número de instancia de un dispositivo de red virtual no coincide con el número de instancia enumerado en el archivo /etc/path_to_inst.

Por ejemplo:

# ifconfig vnet0 plumb
ifconfig: plumb: vnet0: no such interface

El número de instancia de un dispositivo virtual se muestra en la columna DEVICE del resultado de ldm list:

# ldm list -o network primary
NAME             
primary          

MAC
 00:14:4f:86:6a:64

VSW
 NAME         MAC               NET-DEV DEVICE   DEFAULT-VLAN-ID PVID VID MTU  MODE  
 primary-vsw0 00:14:4f:f9:86:f3 nxge0   switch@0 1               1        1500        

NETWORK
 NAME   SERVICE              DEVICE    MAC               MODE PVID VID MTU  
 vnet1  primary-vsw0@primary network@0 00:14:4f:f8:76:6d      1        1500

El número de instancia (0 para las opciones vnet y vsw mostradas anteriormente) se puede comparar con el número de instancia del archivo path_to_inst para asegurarse de que coinciden.

# egrep '(vnet|vsw)' /etc/path_to_inst
"/virtual-devices@100/channel-devices@200/virtual-network-switch@0" 0 "vsw"
"/virtual-devices@100/channel-devices@200/network@0" 0 "vnet"

Solución alternativa: en el caso de que los números de instancia no coincidan, elimine el dispositivo de red virtual o conmutador virtual. A continuación, para volver a agregarlos, especifique explícitamente el número de instancia necesario mediante la definición de la propiedad id.

También puede editar manualmente el archivo /etc/path_to_inst. Consulte la página del comando man path_to_inst(4).


Precaución

Precaución - Tenga en cuenta la advertencia incluida en la página del comando man que indica que no se deben realizar cambios en /etc/path_to_inst sin considerarlo detenidamente.


Los adaptadores NIU/XAUI recién agregados no están visibles para el sistema operativo del host si se configuró Logical Domains

ID de error 15555509: cuando se configura Logical Domains en un sistema y se agrega otra tarjeta de red XAUI, la tarjeta no estará visible una vez que se apague y se vuelve a encender el equipo.

Recuperación: para que el XAUI recién agregado esté visible en el dominio de control, siga estos pasos:

  1. Defina y borre una variable ficticia en el dominio de control.

    Los comandos siguientes utilizan una variable ficticia denominada fix-xaui:

    # ldm set-var fix-xaui=yes primary
    # ldm rm-var fix-xaui primary
  2. Guarde la configuración modificada en el SP y sustituya la configuración actual.

    Los comandos siguientes utilizan un nombre de configuración de config1:

    # ldm rm-spconfig config1
    # ldm add-spconfig config1
  3. Realice un reinicio de reconfiguración del dominio de control.

    # reboot -- -r

    En este momento, puede configurar las nuevas redes disponibles para usarlas en Logical Domains.

Error grave en el dominio de E/S o el dominio invitado al iniciarse desde e1000g

ID de error 15543982: puede configurar un máximo de dos dominios con complejos raíz PCIe dedicados en sistemas como Sun Fire T5240. Estos sistemas tienen dos CPU UltraSPARC T2 Plus y dos complejos raíz de E/S.

pci@500 y pci@400 son los dos complejos de raíz del sistema. El dominio primary siempre tendrá al menos un complejo de raíz. Se puede configurar un segundo dominio con un complejo de raíz no asignado o desenlazado.

El tejido (o la hoja) pci@400 contiene la tarjeta de red e1000g incorporada. Las siguientes circunstancias pueden generar un error grave en el dominio:

Evite los siguientes dispositivos de red si se han configurado en un dominio no primary:

/pci@400/pci@0/pci@c/network@0,1
/pci@400/pci@0/pci@c/network@0

Cuando se cumplen estas condiciones, el dominio genera un error grave de PCIe.

Evite una configuración de este tipo o, si la configuración se utiliza, no inicie el sistema desde los dispositivos enumerados.

Los enlaces de puertos y grupos de consolas explícitos no se migran

ID de error 15527921: durante una migración, se omiten todos los puertos o grupos de consolas asignados de forma explícita, y se crea una consola con propiedades predeterminadas para el dominio de destino. Esta consola se crea utilizando el nombre del dominio de destino como el grupo de consolas y cualquier puerto disponible en el primer concentrador de consola virtual (vcc) del dominio de control. Si hay un conflicto con el nombre de grupo predeterminado, la migración no se realiza correctamente.

Recuperación: para restaurar las propiedades explícitas de la consola tras una migración, desenlace el dominio de destino y establezca manualmente las propiedades deseadas con el comando ldm set-vcons.

La migración no produce errores si el valor vdsdev del destino tiene otro backend

ID de error 15523133: si el disco virtual del equipo de destino no apunta al mismo backend de disco que se utiliza en el equipo de origen, el dominio migrado no puede acceder al disco virtual con ese backend de disco. Se puede producir un bloqueo al acceder al disco virtual del dominio.

Actualmente, Logical Domains Manager sólo comprueba que los nombres del volumen de disco virtual coincidan en los equipos de origen y de destino. En este caso, no aparecerá ningún mensaje de error si no coinciden los backend de disco.

Solución alternativa: asegúrese de que, al configurar el dominio de destino para recibir un dominio migrado, el volumen de disco vdsdev coincida con el backend de disco utilizado en el dominio de origen.

Recuperación: siga uno de estos procedimientos si detecta que el dispositivo de disco virtual en el equipo de destino apunta a un backend de disco incorrecto:

La migración puede producir errores al enlazar la memoria aunque el destino tenga suficiente espacio disponible

ID de error 15523120: en algunos casos, se produce un error de migración y ldmd informa que no se ha podido enlazar la memoria necesaria para el dominio de origen. Esta situación se puede producir aunque la cantidad total de memoria disponible en el equipo de destino sea mayor que la cantidad de memoria en uso en el dominio de origen.

Este fallo se produce porque la migración de rangos de memoria específicos utilizados por el dominio de origen requiere que también haya rangos de memoria compatibles disponibles en el destino. Cuando no hay ningún rango de memoria compatible para un rango de memoria en el origen, la migración no puede continuar.

Recuperación: si se detecta esta condición, es posible que pueda migrar el dominio si modifica el uso de la memoria en el equipo de destino. Para ello, desenlace cualquier dominio lógico enlazado o activo en el destino.

Utilice el comando ldm list-devices -a mem para ver qué memoria está disponible y cómo se utiliza. Es posible que también tenga que reducir la cantidad de memoria asignada a otro dominio.

Logical Domains Manager no se inicia si el equipo no está conectado a la red y se ejecuta un cliente NIS

ID de error 15518409: si no tiene una red configurada en el equipo y hay un cliente del servicio de información de red (NIS) en ejecución, Logical Domains Manager no se iniciará en el sistema.

Solución alternativa: desactive el cliente NIS en el equipo no conectado a la red:

# svcadm disable nis/client

Logical Domains Manager muestra dominios migrados en estados de transición cuando ya se iniciaron

ID de error 15516245: en ocasiones, un dominio lógico activo parece tener un estado de transición en lugar de un estado normal mucho después de iniciarse o tras la finalización de una migración de dominios. Este problema no es perjudicial, y el dominio funcionará correctamente. Para ver el indicador que está definido, compruebe el campo flags en el resultado del comando ldm list -l -p o compruebe el campo FLAGS en el comando ldm list, que mostrará -n---- para normal o -t---- para transición.

Recuperación: después del siguiente reinicio, el dominio muestra el estado correcto.

No se puede conectar con la consola del dominio migrado a menos que se reinicie vntsd

ID de error 15513998: en ocasiones, después de que un dominio se ha migrado, no es posible conectarse a la consola de ese dominio.

Solución alternativa: reinicie el servicio SMF vntsd para desactivar las conexiones con la consola:

# svcadm restart vntsd

Nota - Este comando desconectará todas las conexiones activas de la consola.


A veces, al ejecutar el comando uadmin 1 0 en un sistema con Logical Domains, el sistema no vuelve al indicador OK

ID de error 15511551: a veces, al ejecutar el comando uadmin 1 0 desde la línea de comandos de un sistema con Logical Domains, el sistema no regresa al indicador ok después de un reinicio posterior. Este comportamiento incorrecto se advierte cuando la variable auto-reboot? de Logical Domains está definida en true. Si auto-reboot? se ha definido en false, el comportamiento es el esperado.

Solución alternativa: utilice este comando en su lugar:

uadmin 2 0

O bien, siempre realice la ejecución con la variable auto-reboot? definida en false.

Logical Domains Manager puede tardar más de 15 minutos en cerrar un dominio

ID de error 15505014: un cierre de dominio o una limpieza de memoria puede tardar más de 15 minutos con una sola CPU y una configuración de memoria de gran tamaño. Durante un cierre, las CPU de un dominio se utilizan para borrar toda la memoria que pertenece al dominio. El tiempo que tarda en completarse la limpieza puede ser bastante prolongado si hay una configuración no equilibrada, por ejemplo, un dominio con una única CPU y 512 GB de memoria. Este período de limpieza prolongado aumenta la cantidad de tiempo necesaria para cerrar un dominio.

Solución alternativa: asegúrese de que las configuraciones de memoria de gran tamaño (> 100 GB) tengan al menos un núcleo.

Si el SO Oracle Solaris 10 5/08 está instalado en un dominio de servicio, la instalación se puede bloquear si se intenta realizar un inicio de red del SO Oracle Solaris 10 8/07 en cualquier dominio invitado gestionado por dicho dominio

ID de error 15482406: si se intenta realizar un inicio de red del sistema operativo Oracle Solaris 10 8/07 en cualquier dominio invitado gestionado por un dominio que ejecuta el sistema operativo Oracle Solaris 10 5/08, se puede provocar un bloqueo en el dominio invitado durante la instalación.

Solución alternativa: instale el ID de parche 127111-05 en la minirraíz de la imagen de instalación en red del sistema operativo Oracle Solaris 10 8/07.

El comando scadm puede bloquearse tras un reinicio del SC o del SP

ID de error 15469227: el comando scadm de un dominio de control que ejecuta como mínimo el sistema operativo Solaris 10 11/06 se puede bloquear tras reiniciar el SC. El sistema no puede restablecer correctamente una conexión después de reiniciar el SC.

Solución alternativa: reinicie el host para restablecer la conexión con el SC.

Recuperación: reinicie el host para restablecer la conexión con el SC.

La instalación de red simultánea de varios dominios no se realiza correctamente cuando tienen un grupo de consolas común

ID de error 15453968: la instalación en red simultánea de varios dominios invitados no se realiza correctamente en los sistemas que tienen un grupo de consolas común.

Solución alternativa: sólo realice una instalación en red de dominios invitados que tengan su propio grupo de consolas. Este error sólo se observa en dominios que comparten un grupo de consolas común entre varios dominios de instalación en red.

Mensajes de advertencia ldc_close: (0xb) unregister failed, 11

ID de error 15426914: es posible que aparezca el siguiente mensaje de advertencia en la consola del sistema o en el registro del sistema:

ldc_close: (0xb) unregister failed, 11

El número entre paréntesis es el número de canal interno de Oracle Solaris, que puede ser diferente para cada mensaje de advertencia.

Solución alternativa: puede omitir estos mensajes.

Un dominio invitado con demasiadas redes virtuales en la misma red con DHCP puede dejar de responder

ID de error 15422900: si configura más de cuatro redes virtuales (vnet) en un dominio invitado en la misma red con el protocolo de configuración dinámica de sistemas (DHCP), es posible que el dominio invitado deje de responder al ejecutar el tráfico de red.

Solución alternativa: establezca ip_ire_min_bucket_cnt e ip_ire_max_bucket_cnt en valores más altos, por ejemplo, 32 si dispone de 8 interfaces.

Recuperación: ejecute un comando ldm stop-domain ldom seguido de un comando ldm start-domain ldom en el dominio invitado (ldom) correspondiente.

El comando eeprom no puede modificar las variables de OpenBoot PROM cuando Logical Domains Manager está en ejecución

ID de error 15387338: este problema se resume en Conservación de variables de Logical Domains y sólo afecta el control de dominio.

No se pueden definir claves de seguridad cuando se ejecuta Logical Domains

ID de error 15370442: el entorno con Logical Domains no permite definir ni suprimir claves de inicio de red de área amplia (WAN) desde el SO Oracle Solaris mediante el comando ickey(1M). Se produce el siguiente error en todas las operaciones ickey:

ickey: setkey: ioctl: I/O error

Además, las claves de inicio WAN que se definen con el firmware OpenBoot en dominios lógicos distintos del dominio de control no se recuerdan tras reiniciar el dominio. En estos dominios, las claves del firmware OpenBoot solamente son válidas para un único uso.

El comportamiento del comando ldm stop-domain puede resultar confuso

ID de error 15368170: en algunos casos, el comportamiento del comando ldm stop-domain puede resultar confuso.

# ldm stop-domain -f ldom

Si el dominio se encuentra en el indicador del depurador del módulo de núcleo, kmdb(1), se produce el siguiente mensaje de error al ejecutar el comando ldm stop-domain:

LDom <domain-name> stop notification failed

Erratas de la documentación

En esta sección, se incluyen los errores de la documentación de la versión Oracle VM Server for SPARC 3.0 que se han encontrado demasiado tarde para resolverlos.

Página del comando man ldm(1M): los comandos de virtualización de E/S no inician automáticamente una reconfiguración retrasada

En varias partes de la página del comando man ldm(1M) se establece que los comandos de virtualización de E/S inician automáticamente una reconfiguración retrasada. Esto no es cierto. Si es necesario, tendrá que iniciar manualmente una reconfiguración retrasada.

Página del comando man ldm(1M): no se admite la creación dinámica de funciones virtuales

En la sección “Creación de una función virtual” de la página del comando man ldm(1M), se indica que para crear de manera dinámica funciones virtuales, hay que asegurarse de establecer la propiedad iov para el complejo raíz principal. Esta función no se admite en Oracle VM Server for SPARC 3.0.

Página del comando man ldm(1M): sólo ldm add-spconfig -r realiza una recuperación manual

La descripción de la opción -r en la página del comando man ldm(1M) indica que los subcomandos add-spconfig, list-spconfig y remove-spconfig usan esta opción para realizar una recuperación manual. Esto no es cierto. Sólo el comando ldm add-spconfig -r se puede utilizar para realizar la recuperación manual.

Restricciones adicionales para la migración

Para los sistemas Fujitsu M10, la siguiente restricción sustituye la información que se describe en Migración de un dominio desde una PROM OpenBoot o un dominio que ejecuta el depurador de núcleo de Guía de administración de Oracle VM Server for SPARC 3.0.

Cuando un dominio que se va a migrar se ejecuta en OpenBoot o en el depurador del núcleo (kmdb), el intento de migración siempre falla si el equipo de origen o el equipo de destino es un sistema Fujitsu M10. Si el dominio que se va a migrar sólo tiene una CPU, es posible que reciba este mensaje de error:

# ldm migrate ldg1 system2
Non-cooperative migration is not supported on this platform.