JavaScript is required to for searching.
Omitir vínculos de navegación
Salir de la Vista de impresión
Notas de la versión de Oracle® VM Server for SPARC 3.1.1.2, 3.1.1.1, 3.1.1 y 3.1
Red de tecnología de Oracle
Biblioteca
PDF
Vista de impresión
Comentarios
search filter icon
search icon

Información del documento

Uso de esta documentación

Capítulo 1 Notas de la versión de Oracle VM Server for SPARC 3.1.1.2, 3.1.1.1, 3.1.1 y 3.1

Actualización de mantenimiento de Oracle VM Server for SPARC 3.1.1.2

Actualización de mantenimiento de Oracle VM Server for SPARC 3.1.1.1

Novedades de esta versión

Novedades de la actualización de mantenimiento de Oracle VM Server for SPARC 3.1.1.1

Novedades de la versión Oracle VM Server for SPARC 3.1.1

Novedades de la versión Oracle VM Server for SPARC 3.1

Requisitos del sistema

Plataformas admitidas

Software y parches necesarios

Versiones necesarias del SO Oracle Solaris

Versiones necesarias del SO Oracle Solaris para la actualización de mantenimiento de Oracle VM Server for SPARC 3.1.1.1

Versiones necesarias del SO Oracle Solaris para Oracle VM Server for SPARC 3.1.1

Versiones necesarias del SO Oracle Solaris para Oracle VM Server for SPARC 3.1

Software necesario para activar las funciones más recientes de Oracle VM Server for SPARC

Parches necesarios de firmware del sistema

Versión mínima de software necesaria

Requisitos de hardware y software para E/S directa

Requisitos de hardware y software de SR-IOV PCIe

Requisitos de hardware y software para dominios raíz que no son primary

Requisitos de hardware y software de modo de recuperación

Ubicación del software Oracle VM Server for SPARC

Ubicación de los parches

Ubicación de la documentación

Software relacionado

Software que puede utilizarse con el software Oracle VM Server for SPARC

Software del controlador del sistema que interactúa con Oracle VM Server for SPARC

Software opcional

Actualización al software Oracle VM Server for SPARC actual

Actualización al software Oracle VM Server for SPARC 3.1.1.1

Actualización al software Oracle VM Server for SPARC 3.1.1

Actualización al software Oracle VM Server for SPARC 3.1

Funciones que ya no se utilizan en Oracle VM Server for SPARC

Problemas conocidos

Problemas generales

No se pueden desenlazar dominios cuando se prestan servicios entre sí

El dominio invitado no puede ejecutar el sistema operativo Oracle Solaris 10 cuando se han asignado más de 1024 CPU

Evitar la creación de una configuración en la que dos dominios se presten servicios entre sí

Actualización del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 5/08

Procesador de servicio y controlador del sistema son términos intercambiables

En determinadas circunstancias, es posible que se pierdan la configuración o los metadispositivos de Solaris Volume Manager de un dominio invitado

Cómo buscar la configuración o los metadispositivos de Solaris Volume Manager de un dominio invitado

Requisitos del tamaño de la memoria

Inicio de un gran número de dominios

Cierre y apagado y encendido sin errores de un sistema de Oracle VM Server for SPARC

Cómo apagar un sistema con varios dominios activos

Cómo apagar y volver a encender el sistema

El tamaño de memoria solicitado puede ser diferente a la memoria asignada

Conservación de variables de Logical Domains

El agente de gestión de SNMP Sun de Oracle no admite varios dominios

Reconfiguración retrasada

Unidades criptográficas

Comando ldmp2v convert: mensajes de advertencia de VxVM durante el inicio

Requisitos de partición física de Oracle para licencias de software

No se muestra la opción de actualización cuando se utiliza ldmp2v prepare -R

Algunas veces, un bloque de memoria agregada de forma dinámica solo se puede eliminar de forma dinámica como un conjunto.

Comando ldmp2v: el método de archivado ufsdump ya no se utiliza

Solo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada

El daemon ldmd de Oracle VM Server for SPARC 3.1 no se inicia si varios conmutadores virtuales están asignados a un único adaptador de red

Compatibilidad de disco de inicio de Oracle Solaris

Restricciones en la migración de dominios

Restricciones de versiones para la migración

Restricciones de CPU para la migración

Restricciones de versiones para la migración entre CPU

Los dominios que tienen solo una CPU virtual asignada pueden emitir avisos graves durante una migración en directo

Problemas de MIB de Oracle VM Server for SPARC

El comando snmptable no funciona con la opción de las versiones 2 o 3

Problemas con SR-IOV

En raras ocasiones se produce un aviso grave de BAD TRAP al reiniciar un dominio raíz de Oracle Solaris 10 que tiene funciones virtuales SR-IOV asignadas a los dominios invitados

prtdiag puede ocasionar que el dominio raíz de Oracle Solaris 10 genere un aviso grave después de destruir las funciones virtuales de SR-IOV

El dominio de control se cuelga cuando se detienen o se inician dominios de E/S

Aparecerán advertencias en la consola cuando genere funciones virtuales del canal de fibra

Los cambios de configuración de la función física del canal de fibra requieren varios minutos para completarse

Sistema Fujitsu M10 tiene diferentes limitaciones de la función SR-IOV

Problemas de SR-IOV InfiniBand

Se muestran mensajes engañosos para las operaciones SR-IOV InfiniBand

Bugs que afectan el software Oracle VM Server for SPARC

Bugs que afectan el software Oracle VM Server for SPARC 3.1.1.2

El sistema se cae cuando se aplica la restricción de núcleo completo al dominio primary de núcleo parcial

El comando format se cuelga después de haber migrado a un dominio invitado o la consola de dominio invitado no toma la entrada

Las zonas de núcleo bloquean la migración en directo de dominios invitados

Bugs que afectan el software Oracle VM Server for SPARC 3.1.1.1

La migración en directo puede fallar con el siguiente mensaje: Unable to restore ldc resource state on target Domain Migration of LDom failed

El modo de recuperación falla con ldmd en el modo de mantenimiento cuando falta el conmutador virtual net-dev

La migración al sistema SPARC M5 o SPARC T5 puede generar un aviso grave con el mensaje suspend: get stick freq failed

Logical Domains Manager no prohíbe la creación de dependencias circulares

Bugs que afectan el software Oracle VM Server for SPARC 3.1.1

Recuentos muy grandes de LDC pueden ocasionar problemas con Oracle Solaris en los dominios invitados

La función física del canal de fibra es declarada defectuosa por FMA y se desactiva

Se observaron problemas de intercambio de LDC de la red virtual cuando hay una gran cantidad de dispositivos de red virtual presentes

El firmware Sun Storage 16 Gb Fibre Channel Universal HBA no admite controles de ancho de banda

Si agrega memoria después de llevar a cabo una migración entre CPU, podría ocasionar un aviso grave en el dominio invitado

Ruta de dispositivo incorrecta para las funciones virtuales del canal de fibra en el dominio raíz

ldmd vuelca el núcleo cuando intenta enlazar un dominio en estado de enlace o desenlace

Bugs que afectan al software Oracle VM Server for SPARC 3.1

Pueden surgir problemas cuando la FMA detecta una memoria defectuosa

El servicio ldmd no se puede iniciar debido a una demora en la creación de virtual-channel@0:hvctl

Baja afinidad en el dominio de control al asignar memoria antes de asignar CPU en una reconfiguración retrasada

No se puede instalar el sistema operativo Oracle Solaris 11.1 con una etiqueta de disco EFI GPT en un disco virtual de segmento único

Después de la migración, un dominio puede emitir un aviso grave al iniciarse o reiniciarse

El tamaño del buffer preasignado de la descripción del equipo se utiliza durante la migración

El intento de cambiar el tamaño de las CPU virtuales de un dominio invitado después de realizar correctamente la operación de reasignación del núcleo puede fallar

Oracle Solaris 10: El dominio raíz que no es primary se bloquea al inicio de una operación de reinicio de primary cuando failure-policy=reset

El bloqueo de la red virtual impide una migración de dominio

La salida del comando ldmpower a veces no incluye registros de hora

mac_do_softlso descarta los paquetes de LSO

Fallo en la migración: Invalid Shutdown-group: 0

La configuración de autoguardado no se actualiza después de la eliminación de una función virtual o un dispositivo PCIe

Un fallo en el comando ldmp2v convert provoca un bucle de actualización

Las migraciones de dominios de los sistemas SPARC T4 que ejecutan el firmware del sistema 8.3 a los sistemas SPARC T5, SPARC M5 o SPARC M6 se permiten por error

Avisos graves del dominio invitado en lgrp_lineage_add(mutex_enter: bad mutex, lp=10351178)

Dominios invitados en estado de transición después del reinicio del dominio primary

Se presentan avisos graves en situaciones extrañas cuando el controlador del dispositivo de red virtual funciona en el modo TxDring

El dominio que tiene solo una CPU virtual asignada puede emitir avisos graves durante una migración en directo

ldm migrate -n debe fallar cuando se realiza la migración entre CPU de los sistemas SPARC T5, SPARC M5 o SPARC M6 a los sistemas UltraSPARC T2 o SPARC T3

El modo de recuperación debe admitir la eliminación de la ranura PCIe en los dominios raíz que no son primary

ldm list no muestra la propiedad evacuated para los dispositivos físicos de E/S

Se recibe una dirección física no válida durante una migración de dominios

Se genera el aviso grave send_mondo_set: timeout cuando se utiliza el comando ldm stop en un dominio invitado tras un esfuerzo

Los subdispositivos en un dispositivo PCIe se revierten a un nombre no asignado

WARNING: ddi_intr_alloc: cannot fit into interrupt pool significa que se agota el suministro de interrupciones mientras se conectan controladores de dispositivos de E/S

SPARC M5-32 y SPARC M6-32: panic: mpo_cpu_add: Cannot read MD

SPARC M5-32 y SPARC M6-32: problema con los discos accesibles a través de varias rutas de E/S directas

Es posible que el dispositivo ixgbevf en los dominios SR-IOV se desactive al reiniciar el dominio primary

Es posible que el reinicio del dominio primary en Oracle Solaris 10 1/13 no asocie ni asigne automáticamente una dirección IP a una interfaz de funciones virtuales

Solo Oracle Solaris 10: Aviso grave mutex_enter: bad mutex en el dominio primary durante una operación de reinicio o cierre

SPARC M5-32 y SPARC M6-32: el controlador LSI-SAS se exporta incorrectamente con SR-IOV

SPARC T5-8: Los datos del tiempo de actividad muestran un valor de 0 para algunos comandos de lista ldm

No se puede definir una MTU gigante para las funciones virtuales sxge en el dominio primary de un sistema SPARC T5-1B

ldmd no puede definir los valores de las propiedades mac-addr y alt-mac-addrs para el dispositivo sxge

Faltan dos propiedades en la salida del comando ldm list-io -d para un dispositivo sxge en el sistema SPARC T5-1B

El comando ldm no evacúa un núcleo defectuoso de un dominio invitado

Las operaciones DR de memoria se bloquean cuando la memoria se reduce a menos de 4 GB

Puede parecer que se produce un error en la DR de una gran cantidad de CPU virtuales

Se agota el tiempo de espera de la migración de un dominio invitado con redes virtuales HIO y cpu-arch=generic mientras se espera que el dominio se suspenda

SPARC T4-4: no se puede enlazar un dominio invitado

El dominio invitado genera un aviso grave cuando se cambia el valor de la propiedad threading de max-throughput a max-ipc

El dominio de control se cuelga al reiniciarse con dos dominios activos de E/S directa

No aparece ningún mensaje de error cuando se realiza una agregación de DR de memoria de manera parcialmente correcta

El dominio principal o invitado genera un aviso grave al desenlazar o migrar un dominio invitado que tiene dispositivos de red de E/S híbrida

Error al volver a crear un dominio con funciones virtuales de PCIe desde un archivo XML

Mensaje de error incorrecto al pasar del uso de núcleos completos al uso de núcleos parciales en el dominio de control

Es posible que el comando ldm init-system no restaure correctamente una configuración de dominio en la que se han realizado cambios de E/S física

Es posible que Logical Domains Manager se bloquee y se reinicie al intentar modificar varios dominios al mismo tiempo

El comando ldm list -o ya no acepta abreviaturas

El dominio de control requiere el núcleo más bajo del sistema

Tras cancelar una migración, los comandos ldm que se ejecutan en el sistema de destino no responden

Algunas tarjetas Emulex no funcionan cuando se asignan a un dominio de E/S

Error grave en dominio invitado al ejecutar el comando cputrack durante la migración a un sistema SPARC T4

Oracle Solaris 11: el robo de DRM informa errores y reintentos de DR en Oracle Solaris

Limitación del número máximo de funciones virtuales que se puede asignar a un dominio

El dominio invitado que utiliza la migración entre CPU notifica tiempos de actividad aleatorios una vez completada la migración

Oracle Solaris 10: se puede producir un error grave en el controlador ixgbe cuando se inicia con una tarjeta de controlador Ethernet Intel X540 de puerto doble

La consola del dominio invitado se bloquea de forma aleatoria en sistemas SPARC T4

Destruir todas las funciones virtuales y regresar las ranuras al dominio raíz no restaura los recursos del complejo de raíz

No se debe permitir ldm remove-io en las tarjetas PCIe que tienen puentes de PCIe a PCI

El comando ldm stop puede generar un error si se ejecuta inmediatamente después de un comando ldm start

init-system no restaura las restricciones de núcleo con nombre para dominios invitados desde los archivos XML guardados

Se produce un error grave en el sistema cuando se reinicia un dominio primary que tiene un gran número de funciones virtuales asignadas

El núcleo parcial primary no permite las transiciones de la DR de núcleo completo

El comando ldm list-io muestra el estado UNK o INV tras el inicio

Migrar un dominio con una gran cantidad de memoria en sistemas SPARC T4-4 genera un aviso grave del dominio en el sistema de destino

Se produce un error al eliminar una gran cantidad de CPU de un dominio invitado

No es posible usar las operaciones de conexión en marcha de Oracle Solaris para eliminar un dispositivo de punto final PCIe cuando está en funcionamiento

El comando nxge genera un error grave al migrar un dominio invitado que tiene dispositivos de red virtual de E/S híbrida y de E/S virtual

Todos los comandos ldm se bloquean cuando faltan recursos NFS compartidos en las migraciones

El servicio del agente de Logical Domains no se conecta si el servicio de log del sistema tampoco se conecta

El interbloqueo del núcleo provoca el bloqueo del equipo durante una migración

La DRM y el resultado de ldm list muestran un número de CPU virtuales diferente del que realmente hay en el dominio invitado

La migración en directo de un dominio que depende de un dominio maestro inactivo en el equipo de destino genera un error de segmentación en ldmd

DRM no puede restaurar el número predeterminado de CPU virtuales para un dominio migrado cuando se elimina o caduca la política

Errores de tiempo de espera de CPU virtuales durante la DR

El motivo del error de la migración no se informa cuando la dirección MAC del sistema entra en conflicto con otra dirección MAC

Las operaciones de migración simultáneas en “dirección opuesta” pueden generar un bloqueo de ldm

Se produce un error al eliminar una gran cantidad de CPU del dominio de control

Es posible que se bloquee el sistema que ejecuta el SO Oracle Solaris 10 8/11 con la política elástica definida

pkgadd no puede definir las entradas ACL en /var/svc/manifest/platform/sun4v/ldmd.xml

SPARC T3-1: problema con los discos disponibles a través de varias rutas de E/S directa

Las operaciones de eliminación de la DR de memoria con varias instancias nxge de NIU asociadas se pueden bloquear de forma indefinida y nunca completarse

Al usar el comando ldm stop -a en dominios con una relación de maestro-esclavo, el esclavo conserva el indicador stopping

La migración de un dominio que tiene activada la política DRM predeterminada da como resultado la asignación de todas las CPU disponibles a un dominio de destino

Es posible reasignar una dirección MAC en uso

ldmconfig no puede crear una configuración de dominio en el SP

La migración de dominios de Oracle Solaris sin cooperación se puede bloquear si cpu0 está desconectado

La DR de memoria se desactiva tras una migración cancelada

La reconfiguración dinámica de los valores MTU de dispositivos de red virtual a veces produce errores

El dominio migrado con MAU contiene solo una CPU cuando el sistema operativo de destino no admite la DR de unidades criptográficas

Mensaje de error de migración confuso para errores de enlace de memoria en la dirección real

La eliminación dinámica de todas las unidades criptográficas de un dominio provoca la terminación de SSH

La tarjeta Ethernet de fibra de 10 gigabits dual PCI Express muestra cuatro subdispositivos en el resultado de ldm list-io -l

Uso de mpgroup de Logical Domains con configuración de matriz de almacenamiento MPXIO para alta disponibilidad de disco

Los comandos ldm responden con lentitud cuando se inician varios dominios

Oracle Solaris 11: es posible que no se inicien las zonas configuradas con una interfaz de red automática

Oracle Solaris 10: los dispositivos de red virtual no se crean correctamente en el dominio de control

Los adaptadores NIU/XAUI recién agregados no están visibles para el sistema operativo del host si se configuró Logical Domains

Error grave en el dominio de E/S o el dominio invitado al iniciarse desde e1000g

Los enlaces de puertos y grupos de consolas explícitos no se migran

La migración no produce errores si el valor vdsdev del destino tiene otro backend

La migración puede producir errores al enlazar la memoria aunque el destino tenga suficiente espacio disponible

Logical Domains Manager no se inicia si el equipo no está conectado a la red y se ejecuta un cliente NIS

Logical Domains Manager muestra dominios migrados en estados de transición cuando ya se iniciaron

No se puede conectar con la consola del dominio migrado a menos que se reinicie vntsd

A veces, al ejecutar el comando uadmin 1 0 en un sistema con Logical Domains, el sistema no vuelve al indicador OK

Logical Domains Manager puede tardar más de 15 minutos en cerrar un dominio

El comando scadm puede bloquearse tras un reinicio del SC o del SP

La instalación en red simultánea de varios dominios no se realiza correctamente cuando tienen un grupo de consolas común

Un dominio invitado con demasiadas redes virtuales en la misma red con DHCP puede dejar de responder

El comando eeprom no puede modificar las variables de OpenBoot PROM cuando Logical Domains Manager está en ejecución

No se pueden definir claves de seguridad cuando se ejecuta Logical Domains

El comportamiento del comando ldm stop-domain puede resultar confuso

Problemas relacionados con la documentación

Página del comando man ldm1M: Describir la limitación para utilizar la propiedad mblock

Página del comando man ldm1M: Mejorar la descripción del comando ldm list -o status

Página del comando man ldm1M: solo ldm add-spconfig -r realiza una recuperación manual

Los requisitos de SO SR-IOV de canal de fibra de la Guía de administración de Oracle VM Server for SPARC 3.1 son incorrectos

Problemas solucionados

Problemas resueltos en la versión de Oracle VM Server for SPARC 3.1.1.2

Problemas resueltos en la versión de Oracle VM Server for SPARC 3.1.1.1

Problemas resueltos en la versión de Oracle VM Server for SPARC 3.1.1

Problemas resueltos en la versión de Oracle VM Server for SPARC 3.1.0.1

Problemas resueltos en la versión de Oracle VM Server for SPARC 3.1

Bugs que afectan el software Oracle VM Server for SPARC

Las siguientes secciones resumen los bugs que puede encontrar cuando usa cada versión del software de Oracle VM Server for SPARC 3.1. Cada sección incluye los bugs encontrados en esa versión. Los bugs pueden ocurrir en cualquiera de las versiones de Oracle VM Server for SPARC 3.1, o en todas. Se describen en primer lugar los bugs más recientes. Cuando es posible, se especifican las soluciones alternativas y los procedimientos de recuperación.


Notas - Algunos de los bugs que se describen en esta sección se han solucionado desde la versión de Oracle VM Server for SPARC 3.1. Estas descripciones de bugs se mantienen para quienes aún ejecutan la versión de Oracle VM Server for SPARC 3.1.

Bugs que afectan el software Oracle VM Server for SPARC 3.1.1.2

El sistema se cae cuando se aplica la restricción de núcleo completo al dominio primary de núcleo parcial

ID de bug 19456310: cuando se usa la reconfiguración dinámica para aplicar la restricción de núcleo completo a un dominio primary, la extracción de los núcleos parciales genera un error grave de SO o del ciclo de encendido y apagado del sistema.

Un núcleo parcial se elimina si el núcleo se comparte con otro dominio o si uno de los cables libres en el núcleo central es defectuoso.

Solución alternativa: utilice una reconfiguración retrasada para aplicar la restricción de núcleo completo a un dominio primary que tiene núcleos parciales.

  1. Compruebe que el dominio primary no tenga la restricción de núcleo completo.

    primary# ldm list -o resmgmt primary
  2. Compruebe que el dominio primary tenga núcleos parciales.

    primary# ldm list -o core primary
  3. Inicie una reconfiguración retrasada en el dominio primary.

    primary# ldm start-reconf primary
  4. Aplique la restricción de núcleo completo.

    Por ejemplo, el siguiente comando asigna dos núcleos completos al dominio primary:

    primary# ldm set-core 2 primary
  5. Reinicie el dominio primary.

El comando format se cuelga después de haber migrado a un dominio invitado o la consola de dominio invitado no toma la entrada
Las zonas de núcleo bloquean la migración en directo de dominios invitados

ID de bug 18289196: en un sistema SPARC, una zona de núcleo en ejecución en un dominio Oracle VM Server for SPARC bloqueará la migración en directo de un dominio invitado. Aparecerá el siguiente mensaje de error:

Live migration failed because Kernel Zones are active.
Stop Kernel Zones and retry.

Solución alternativa: opte por una de estas soluciones:

Bugs que afectan el software Oracle VM Server for SPARC 3.1.1.1

La migración en directo puede fallar con el siguiente mensaje: Unable to restore ldc resource state on target Domain Migration of LDom failed

ID de bug 19454837: una migración en directo de un dominio en un sistema que ejecuta versiones particulares del firmware del sistema SPARC puede fallar con el siguiente mensaje de error:

system1 # ldm migrate ldg1 system2
Target Password:
Unable to restore ldc resource state on target
Domain Migration of LDom ldg1 failed

El mensaje de error se produce después de transferir todo el estado del dominio a la máquina de destino, pero antes de intentar suspender el dominio que se migra en la máquina de origen. El dominio que se migra continúa ejecutándose en el sistema de origen.

Mitigación: a menos que desee aprovechar los nuevos límites aumentados de LDC (y no desee utilizar la característica de migración en directo), evite actualizar el sistema a las versiones de firmware 8.5.1 o 9.2.1 hasta que se hayan lanzado por lo menos las versiones 8.6 y 9.3.

Recuperación: apague y vuelva a prender la máquina de origen para permitir la migración en directo del dominio.

Solución alternativa: ninguna.

El modo de recuperación falla con ldmd en el modo de mantenimiento cuando falta el conmutador virtual net-dev

ID de bug 18770805: si un conmutador virtual net-dev es defectuoso y no se puede validar, la operación de recuperación falla y el daemon ldmd realiza un volcado de memoria.

Recuperación: desactive el modo de recuperación y recupere la configuración manualmente.

La migración al sistema SPARC M5 o SPARC T5 puede generar un aviso grave con el mensaje suspend: get stick freq failed

ID de bug 16934400: cuando migra un dominio invitado a un sistema SPARC M5 o SPARC T5, es posible que el SO en el dominio invitado genere un aviso grave con el mensaje suspend: get stick freq failed.

Solución alternativa: agregue la siguiente línea al archivo /etc/system en el dominio invitado que se migrará:

set migmd_buf_addl_size = 0x100000

Reinicie el dominio invitado para que el cambio surta efecto.

Logical Domains Manager no prohíbe la creación de dependencias circulares

ID de bug 15751041: Logical Domains Manager permite la creación de una configuración circular en la que dos dominios se proporcionen servicios mutuamente. Esta configuración no se recomienda porque crea una salida con un solo punto de falla en la que un dominio toma al otro dominio. Además, una dependencia circular evita que los dominios afectados se desenlacen.

Solución alternativa: si una configuración de dependencia circular evita que desenlace un dominio, elimine los dispositivos que causan la dependencia circular y vuelva a intentar la operación de enlace.

Bugs que afectan el software Oracle VM Server for SPARC 3.1.1

Recuentos muy grandes de LDC pueden ocasionar problemas con Oracle Solaris en los dominios invitados

ID de bug 19480835: las siguientes versiones de Sun System Firmware aumentan el número máximo de canales de dominio lógico (LDC) por dominio invitado:

Este aumento en los LDC por dominio invitado requiere que ejecute por lo menos la versión Logical Domains Manager 3.1.1.1.

Para evitar los problemas potenciales del uso de las versiones de Logical Domains Manager hasta la versión 3.1.1, no aumente el número de LDC por dominio invitado más allá de los 768 que admiten las versiones de firmware del sistema anteriores. Por ejemplo, no agregue grandes cantidades de discos virtuales e interfaces de red virtual hasta después de instalar la versión Logical Domains Manager 3.1.1.1.

La función física del canal de fibra es declarada defectuosa por FMA y se desactiva

ID de bug 18168525 y 18156291: debe conectar la tarjeta PCIe del canal de fibra a un conmutador de canal de fibra que admita NPIV y sea compatible con la tarjeta PCIe. Si no utiliza esta configuración, al utiliza el comando format o crear o destruir una función virtual, la función física podría ser declarada defectuosa por FMA y desactivarse. Si se produce este error, el mensaje es similar al siguiente:

SUNW-MSG-ID: PCIEX-8000-0A, TYPE: Fault, VER: 1, SEVERITY: Critical
EVENT-TIME: event-time
PLATFORM: platform-type
SOURCE: eft, REV: 1.16
EVENT-ID: event-ID
DESC: A problem was detected for a PCIEX device.
AUTO_RESPONSE: One or more device instances may be disabled
IMPACT: Loss of services provided by the device instances associated with
this fault
REC-ACTION: Use 'fmadm faulty' to provide a more detailed view of this event.
Please refer to the associated reference document at
http://support.oracle.com/msg/PCIEX-8000-0A for the latest service procedures
and policies regarding this diagnosis.

Solución alternativa: si la tarjeta ha sido declarada defectuosa por FMA, primero controle las conexiones y asegúrese de que la tarjeta no esté conectada directamente al almacenamiento. Luego, realice el paso que coincide con su configuración:

Se observaron problemas de intercambio de LDC de la red virtual cuando hay una gran cantidad de dispositivos de red virtual presentes

ID de bug 18166010: podría experimentar problemas de intercambio de LDC de red virtual si su implementación tiene una gran cantidad de dispositivos de red virtual.

Solución alternativa: siga estos pasos:

  1. Aumente la cantidad de reintentos de intercambio en todos los dominios que tienen un dispositivo de red virtual y agregue la siguiente entrada al archivo /etc/system:

    set vnet:vgen_ldc_max_resets = 25

    Recuerde que debe reiniciar el dominio en el cual actualizó el archivo /etc/system para que se apliquen los cambios. Para obtener información sobre /etc/system ajustables, consulte la página del comando man system(4).

  2. Desactive los enlaces entre redes virtuales cuando se necesite una gran cantidad de dispositivos de red virtual en un conmutador virtual.

    Si más de ocho dispositivos de red virtual utilizan un conmutador virtual determinado, configure la propiedad inter-vnet-link en off. Al desactivar la propiedad inter-vnet-link evitará el uso de canales N2 para comunicaciones entre redes virtuales. Este cambio podría afectar de manera negativa el rendimiento de las comunicaciones entre redes virtuales. Entonces, si el rendimiento entre invitados es crítico para la implementación, cree un conmutador virtual privado del sistema por separado (sin especificar un dispositivo net-dev) que utiliza solo los dispositivos de red virtual que requieren comunicaciones entre redes virtuales.

    Si su implementación no requiere comunicaciones entre invitados de alto rendimiento, configure la propiedad inter-vnet-link en off incluso si hay menos dispositivos de red virtual que utilizan un interruptor virtual determinado.

    primary# ldm set-vsw inter-vnet-link=off vsw0

Si esta solución alternativa no resuelve su problema, como último resultado realice los siguientes cambios al archivo /etc/system en todos los dominios con red virtual y dispositivos de conmutadores virtuales.

Recuerde que al actualizar el archivo /etc/system de esta manera podría afectar de manera negativa el rendimiento de comunicaciones entre invitados.

  1. Agregue la siguiente entrada al archivo /etc/system de un dominio con un dispositivo de red virtual:

    set vnet:vnet_num_descriptors = 512
  2. Agregue la siguiente entrada al archivo /etc/system de un dominio con un dispositivo de conmutador virtual:

    set vsw:vsw_num_descriptors = 512
  3. Reinicie el sistema para que la configuración surta efecto.

El firmware Sun Storage 16 Gb Fibre Channel Universal HBA no admite controles de ancho de banda

ID de bug 18083904: el firmware para tarjetas Sun Storage 16 Gb Fibre Channel Universal HBA, Emulex no admite los controles de ancho de banda de configuración. El firmware de HBA ignora cualquier valor que especifica para la propiedad bw-percent.

Solución alternativa: ninguna.

Si agrega memoria después de llevar a cabo una migración entre CPU, podría ocasionar un aviso grave en el dominio invitado

ID de bug 18032944: si ejecuta una migración en directo entre CPU de un dominio desde una máquina SPARC T5, SPARC M5 o SPARC M6 hacia una plataforma que ejecuta un tipo de CPU diferente, tendrá éxito. Sin embargo, una operación posterior de reconfiguración dinámica de memoria para aumentar el tamaño de la memoria en el dominio invitado puede generar un aviso grave similar al siguiente:

panic[cpu0]/thread=2a1003c9c60: kphysm_add_memory_dynamic(1018000, 200000):
range has 2097152 pages, but memgr p_walk_pfnrange only reported 0
 000002a1003c9500 genunix:kphysm_add_memory_dynamic+254 (1018000, 200000,
12e8000, 3, 1218000, 0)

vpanic(12e8220, 1018000, 200000, 200000, 0, 2a1003c95c8)
kphysm_add_memory_dynamic+0x254(1018000, 200000, 12e8000, 3, 1218000, 0)
dr_mem_configure+0x94(1018000, 2a1003c97b4, fffffff, 2430000000, 1068ac00,
1068ac00)
dr_mem_list_wrk+0x15c(4c01b3382b8, 0, 20, 4c014ba27c8, 1, 1)
dr_mem_data_handler+0xa8(0, 4c01b3382b8, 20, 2a1003c9890, 7bac0644, 16)
ds_dispatch_event+0x2c(4c01ee33478, 7bf888b8, 48, 7bf88800, 9, 9)
taskq_thread+0x3a8(95af9e15e84, 4c010a5caf0, 95af9e15f74, 4c010a5cb22,
4c010a5cb24, 4c01e24d688)
thread_start+4(4c010a5caf0, 0, 0, 0, 0, 0)

Esta situación no afecta las migraciones entre sistemas con el mismo tipo de CPU o dominios que tienen cpu-arch=native.

Solución alternativa: después de migrar un dominio desde un sistema con una de estas configuraciones, debe reiniciar el dominio invitado antes de intentar agregar memoria mediante la reconfiguración dinámica.

Ruta de dispositivo incorrecta para las funciones virtuales del canal de fibra en el dominio raíz

ID de bug 18001028: en el dominio raíz, la ruta del dispositivo Oracle Solaris para la función virtual del canal de fibra es incorrecta.

Por ejemplo, el nombre de ruta incorrecto es pci@380/pci@1/pci@0/pci@6/fibre-channel@0,2 mientras que debería ser pci@380/pci@1/pci@0/pci@6/SUNW,emlxs@0,2.

El resultado ldm list-io -l muestra la ruta correcta del dispositivo para las funciones virtuales del canal de fibra.

Solución alternativa: ninguna.

ldmd vuelca el núcleo cuando intenta enlazar un dominio en estado de enlace o desenlace

ID de bug 17796639: cuando ejecuta Oracle Enterprise Manager Ops Center 12c Versión 1 Actualización 4 (12.1.4.0.0), si intenta enlazar, desenlazar, iniciar o detener la operación en un dominio en estado de enlace o desenlace, el servicio ldmd podría volcar el núcleo y el dominio pasará a modo de mantenimiento.

Recuperación: si el servicio ldmd ya tiene un núcleo volcado, lleve a cabo un ciclo de energía del sistema para conectar el servicio ldmd nuevamente.

Solución alternativa: determine si el dominio se encuentra en estado de enlace o desenlace ejecutando el comando ldm list. Si se encuentra de esta manera, espere hasta que se complete el proceso y el dominio se encuentre en inactivo o enlazado.

Bugs que afectan al software Oracle VM Server for SPARC 3.1

Pueden surgir problemas cuando la FMA detecta una memoria defectuosa

ID de bug 17663828 y 17576087: Cuando la FMA intenta aislar un rango de memoria extremadamente pequeño como porcentaje del total de capacidad de memoria del sistema, el Logical Domains Manager puede llegar a marcar de manera incorrecta un rango muy amplio de memoria del sistema como si estuviera en una lista negra.

Solución alternativa: si una gran cantidad de memoria ya no aparece en la salida ldm list-devices -a memory, póngase en contacto con el servicio de asistencia de Oracle para identificar la DIMM que se debe sustituir.

Después de reemplazar la memoria defectuosa, apague y vuelva a encender el sistema en la configuración factory-default. A continuación, apague y vuelva a encender el sistema en la configuración que desea utilizar.

El servicio ldmd no se puede iniciar debido a una demora en la creación de virtual-channel@0:hvctl

ID de bug 17627526: en ocasiones durante el reinicio del sistema, se produce una condición de competencia donde el dispositivo que el daemon ldmd utiliza para comunicarse con el hipervisor no se crea en el momento que se inicia el servicio SMF svc:/ldoms/ldmd:default. Este comportamiento hace que el servicio SMF ldmd pase a modo de mantenimiento.

Aparece el siguiente mensaje de error en el log SMF de ldmd:

ldmd cannot communicate with the hypervisor as the required device
does not exist:
/devices/virtual-devices@100/channel-devices@200/virtual-channel@0:hvctl

Recuperación: verifique que el dispositivo /devices/virtual-devices@100/channel-devices@200/virtual-channel@0:hvctl exista y, luego, ejecute el comando svcadm clear ldmd.

Baja afinidad en el dominio de control al asignar memoria antes de asignar CPU en una reconfiguración retrasada

ID de bug 17606070: Si asigna la memoria antes de asignar CPU al dominio primary cuando está en una reconfiguración retrasada, la memoria tendrá afinidad con los CPU asignados en el momento de emitir el comando ldm set-memory, incluso si se ejecutan los comandos adicionales ldm set-vcpu o ldm set-core. Por ejemplo, los siguientes comandos podrían crear una situación en la que los 16 GB de memoria asignada al dominio primary podrían no tener afinidad con los ocho núcleos que, posteriormente, se asignan mediante el comando ldm set-core:

primary# ldm start-reconf primary
primary# ldm set-mem 16G primary
primary# ldm set-core 8 primary
primary# reboot

Solución alternativa: asegúrese de asignar los núcleos para el dominio primary antes de asignar la memoria. Por ejemplo, los siguientes comandos primero asignan ocho núcleos al dominio primary y, luego, asignan 16 GB de memoria:

primary# ldm start-reconf primary
primary# ldm set-core 8 primary
primary# ldm set-mem 16G primary
primary# reboot
No se puede instalar el sistema operativo Oracle Solaris 11.1 con una etiqueta de disco EFI GPT en un disco virtual de segmento único

ID de error 17422973: la instalación del sistema operativo Oracle Solaris 11.1 en un disco de segmento único puede generar el siguiente error en un servidor SPARC T4 que ejecuta al menos la versión 8.4.0 de firmware del sistema o un servidor SPARC T5, SPARC M5 o SPARC M6 que ejecuta al menos la versión 9.1.0 del firmware del sistema, o un Sistema Fujitsu M10 que ejecuta al menos XCP versión 2230.

cannot label 'c1d0': try using fdisk(1M) and then provide a specific slice
Unable to build pool from specified devices: invalid vdev configuration

Solución alternativa: vuelva a etiquetar el disco con una etiqueta SMI.

Después de la migración, un dominio puede emitir un aviso grave al iniciarse o reiniciarse

ID de bug 17285811: es posible que un dominio invitado que se ha migrado anteriormente no se reinicie en los sucesivos reinicios o en las operaciones de inicio de dominio debido a un aviso grave del núcleo. El aviso grave se emite cuando el dominio se inicia. El mensaje de error del aviso grave es similar al siguiente:

panic[cpu0]/thread=10012000: tilelet_assign_cb: assigning pfns [50000, c0000)
 to mgid 1, mnodeid 1: pachunk 1 already assigned to mgid 0, mnodeid 0

Solución alternativa: no reinicie el dominio. En primer lugar, detenga y desenlace el dominio y, a continuación, enlace e inicie el dominio de nuevo. Por ejemplo:

primary# ldm stop domain
primary# ldm unbind domain
primary# ldm bind domain
primary# ldm start domain

Recuperación: cuando se produzca el problema, detenga y desenlace el dominio y, a continuación, enlace e inicie el dominio de nuevo.

El tamaño del buffer preasignado de la descripción del equipo se utiliza durante la migración

ID de bug 17285745: es posible que la migración de un dominio invitado a un sistema SPARC T5, SPARC M5 o SPARC M6 resulte en un aviso grave del núcleo del dominio invitado y que aparezca el mensaje suspend: get stick freq failed.

Solución alternativa: agregue el siguiente valor en el archivo /etc/system del dominio invitado que va a migrar. Reinicie el dominio invitado.

set migmd_buf_addl_size = 0x100000
El intento de cambiar el tamaño de las CPU virtuales de un dominio invitado después de realizar correctamente la operación de reasignación del núcleo puede fallar

ID de bug 17245915: cuando FMA detecta un núcleo defectuoso, Logical Domains Manager intenta evacuarlo realizando una operación de reasignación del núcleo si un núcleo está libre para usar como destino. Una vez realizada correctamente la operación de reasignación del núcleo y reemplazado el núcleo defectuoso, el intento de cambiar el tamaño de las CPU virtuales de un dominio invitado mediante el comando ldm add-vcpu puede fallar y puede aparecer el mensaje de error Invalid response.

El fallo se intermitentes y depende de la configuración del sistema.

Solución alternativa: ninguna.

Recuperación: realice los siguientes pasos para agregar más CPU al dominio invitado:

  1. Desenlace el dominio invitado.

  2. Elimine todas las CPU virtuales.

  3. Agregue las CPU virtuales de nuevo.

  4. Enlace el dominio invitado.

La posibilidad de usar la operación de DR con seguridad para agregar CPU se restaurará por completo cuando se reparen los recursos de CPU que se colocaron en la lista negra.

Oracle Solaris 10: El dominio raíz que no es primary se bloquea al inicio de una operación de reinicio de primary cuando failure-policy=reset

ID de bug 17232035: un dominio esclavo puede bloquearse durante el inicio cuando aparece failure-policy=reset en el dominio maestro. Este problema no es reproducible con distintos valores de la propiedad failure-policy.

Recuperación: detenga los dominios de E/S que están asociadas a este dominio raíz e inicie el dominio raíz que no primary.

Solución alternativa: para la propiedad failure-policy establezca un valor distinto de reset.

El bloqueo de la red virtual impide una migración de dominio

ID de bug 17191488: al intentar migrar un dominio de un sistema SPARC T5-8 a un sistema SPARC T4-4, se produce el siguiente error:

primary# ldm migrate ldg1 system2
Target Password:
Timeout waiting for domain ldg1 to suspend
Domain Migration of LDom ldg1 failed

Solución alternativa: para evitar este problema, establezca extended-mapin-space=on.


Notas - Este comando inicia una reconfiguración retrasada si ldom es primary. En todos los demás casos, detenga el dominio antes de ejecutar este comando.
primary# ldm set-domain extended-mapin-space=on ldom
La salida del comando ldmpower a veces no incluye registros de hora

ID de bug 17188920: las opciones –-suppress y –-timestamp no muestran correctamente los valores de registro de hora.

Solución alternativa: incluya la opción –r cuando utilice las opciones –-suppress y –-timestamp para mostrar la salida correcta.

mac_do_softlso descarta los paquetes de LSO

ID de bug 17182503: mac_do_softlso() descarta los paquetes de LSO generados por las funciones vnet_vlan_insert_tag() y vnet_vlan_remove_tag().

Solución alternativa: para evitar este problema con los paquetes de LSO que tienen etiquetas VLAN, desactive la capacidad de LSO de la red virtual en todos los dominios compatibles con ella.

  1. Anexe las siguientes líneas al archivo /etc/system:

    set vnet_enable_lso = 0
    set vsw_enable_lso = 0
  2. Reinicie el equipo.

  3. Verifique los cambios mediante el comando mdb -k.

    # mdb -k
    > vnet_enable_lso/D
    vnet_enable_lso:
    vnet_enable_lso:0   
    
    > vsw_enable_lso/D
    vsw_enable_lso:
    vsw_enable_lso: 0
Fallo en la migración: Invalid Shutdown-group: 0

ID de bug 17088083: la migración de un dominio que tiene más de ocho CPU virtuales puede dar como resultado daños en la memoria si el mayor ID de grupo de procesadores aumenta a un múltiplo de 64 unidades. Por ejemplo, antes de la migración, el mayor ID de grupo de procesadores del dominio es 63 y después de la migración, es 64.

Use el comando pginfo para determinar los ID de grupo de procesadores de un dominio. Dentro de un dominio, ejecute el siguiente comando para imprimir el mayor ID de grupo de procesadores:

# pginfo -I|tr ' ' '\n'|sort -n|tail -1

Solución alternativa: disminuya la cantidad de CPU virtuales del dominio a ocho antes de realizar la migración. Una vez finalizada la migración, puede restaurar la cantidad de CPU virtuales del dominio al valor original.

La configuración de autoguardado no se actualiza después de la eliminación de una función virtual o un dispositivo PCIe

ID de bug 17051532: cuando un dispositivo PCIe o una función virtual se elimina de un dominio invitado, la configuración de autoguardado no se actualiza. Este problema puede dar como resultado que la función virtual o el dispositivo reaparezcan en el dominio invitado después de realizar una recuperación de autoguardado; es decir, cuando se aplique autorecovery_policy=3. Este problema también puede provocar que el comando ldm add-spconfig -r produzca un error y aparezca el mensaje Autosave configuration config-name is invalid si no se ejecuta otro comando ldm que genere la actualización del autoguardado.

Solución alternativa: siga una de estas soluciones alternativas:

Un fallo en el comando ldmp2v convert provoca un bucle de actualización

ID de bug 17026219: si se produce un error durante el comando ldmp2v convert, en ocasiones, no se establece la propiedad boot-device para el invitado en el disco de inicio del invitado. Este error genera que el dominio invitado se vuelva a iniciar desde la imagen de instalación de Oracle Solaris una vez que termina la actualización de Oracle Solaris.

Solución alternativa: cambie la propiedad boot-device en el dominio invitado desde el dominio de control. Realice este cambio cuando vuelva a introducir el instalador de Oracle Solaris y luego rehaga la actualización de Oracle Solaris. El dominio invitado se reiniciará desde el disco de inicio actualizado después de que la actualización haya terminado.

Para establecer el dispositivo de inicio, ejecute el siguiente comando en el dominio de control. Este comando asume que el sistema de archivos raíz (/) del sistema físico original se encuentra en el segmento 0 del disco de inicio. Si el sistema original se inició desde otro segmento, especifique la letra correspondiente después de los dos puntos. Por ejemplo, utilice a para el segmento 0, b para el segmento 1, etc.

primary# ldm set-variable boot-device=disk0:a domain-name
Las migraciones de dominios de los sistemas SPARC T4 que ejecutan el firmware del sistema 8.3 a los sistemas SPARC T5, SPARC M5 o SPARC M6 se permiten por error

ID de bug 17027275: las migraciones de dominios entre los sistemas SPARC T4 que ejecutan el firmware del sistema 8.3 y los sistemas SPARC T5, SPARC M5 o SPARC M6 no se deben permitir. Aunque la migración se realice correctamente, la posterior operación de DR de memoria genera un aviso grave.

Solución alternativa: actualice el firmware del sistema en el sistema SPARC T4 a la versión 8.4. Consulte la solución alternativa para Avisos graves del dominio invitado en lgrp_lineage_add(mutex_enter: bad mutex, lp=10351178).

Avisos graves del dominio invitado en lgrp_lineage_add(mutex_enter: bad mutex, lp=10351178)

ID de bug 17020950: después de migrar un dominio activo de una plataforma SPARC T4 a una plataforma SPARC T5, SPARC M5 o SPARC M6 enlazada con la versión 8.3 del firmware, la realización de una reconfiguración dinámica de memoria puede dar como resultado un aviso grave del dominio invitado.

Solución alternativa: antes de realizar la migración, actualice el sistema SPARC T4 con la versión 8.4 del firmware del sistema. Luego, vuelva a enlazar el dominio.

Dominios invitados en estado de transición después del reinicio del dominio primary

ID de bug 17020481: un dominio invitado está en estado de transición (t) tras un reinicio del dominio primary. Este problema se produce cuando hay una gran cantidad de funciones virtuales configuradas en el sistema.

Solución alternativa: para evitar este problema, vuelva a intentar ejecutar el comando de inicio del disco OBP varias veces para evitar un inicio desde la red.

    Realice los siguientes pasos en cada dominio:

  1. Acceda a la consola del dominio.

    primary# telnet localhost domain-name
  2. Establezca la propiedad boot-device.

    ok> setenv boot-device disk disk disk disk disk disk disk disk disk disk net

    La cantidad de entradas de disk que especifique como valor de la propiedad boot-device depende de la cantidad de funciones virtuales que haya configuradas en el sistema. En sistemas más pequeños, es posible que pueda incluir menos instancias de disk en el valor de la propiedad.

  3. Verifique que la propiedad boot-device esté establecida correctamente mediante el comando printenv.

    ok> printenv
  4. Vuelva a la consola del dominio primary.

  5. Repita los pasos de 1 a 4 para cada dominio del sistema.

  6. Reinicie el dominio primary.

    primary# shutdown -i6 -g0 -y
Se presentan avisos graves en situaciones extrañas cuando el controlador del dispositivo de red virtual funciona en el modo TxDring

ID de bug 16991255: se genera un aviso grave en situaciones extrañas cuando el controlador del dispositivo de red virtual funciona en el modo TxDring.

Solución alternativa: para evitar este aviso grave, establezca el valor de la propiedad extended-mapin-space en on.


Notas - Este comando inicia una reconfiguración retrasada si ldom es primary. En todos los demás casos, detenga el dominio antes de ejecutar este comando.
primary# ldm set-domain extended-mapin-space=on ldom
El dominio que tiene solo una CPU virtual asignada puede emitir avisos graves durante una migración en directo

ID de bug 16895816: si realiza la migración de un dominio que tiene solo una CPU virtual asignada es posible que se emita un aviso grave en el dominio invitado, en la función pg_cmt_cpu_fini().

Solución alternativa: asigne al menos dos CPU virtuales al dominio invitado antes de migrarlo. Por ejemplo, utilice el comando ldm add-vcpu 2 domain-name para aumentar la cantidad de CPU virtuales asignadas al dominio invitado domain-name.

ldm migrate -n debe fallar cuando se realiza la migración entre CPU de los sistemas SPARC T5, SPARC M5 o SPARC M6 a los sistemas UltraSPARC T2 o SPARC T3

ID de bug 16864417: el comando ldm migrate -n no informa un fallo al intentar una migración entre un equipo SPARC T5, SPARC M5 o SPARC M6 y un equipo UltraSPARC T2 o SPARC T3.

Solución alternativa: ninguna.

El modo de recuperación debe admitir la eliminación de la ranura PCIe en los dominios raíz que no son primary

ID de bug 16713362: las ranuras PCIe no se pueden eliminar actualmente de los dominios raíz que no son primary durante la operación de recuperación. Las ranuras PCIe permanecen asignadas al dominio raíz que no es primary.

Solución alternativa: las ranuras PCIe se deben eliminar manualmente del dominio raíz que no es primary y se deben asignar al dominio o a los dominios de E/S adecuados después de que la operación de recuperación haya terminado.

Para obtener más información sobre cómo eliminar ranuras PCIe de un dominio raíz que no es primary, consulte Uso de los dominios raíz que no son primary de Guía de administración para Oracle VM Server for SPARC 3.1 .

La recuperación de dominios de E/S que utilizan ranuras PCIe pertenecientes a dominios raíz que no son primary depende de la configuración del dominio de E/S:

Utilice el comando ldm add-io para agregar las ranuras PCIe a un dominio de E/S después de haberlas eliminado manualmente del dominio raíz que no es primary.

ldm list no muestra la propiedad evacuated para los dispositivos físicos de E/S

ID de bug 16617981: la salida de ldm list no muestra la propiedad evacuatedpara los dispositivos físicos de E/S.

Solución alternativa: use la opción –p con cualquiera de los comandos ldm para mostrar la propiedad evacuated para los dispositivos físicos de E/S.

Se recibe una dirección física no válida durante una migración de dominios

ID de bug 16494899: en algunas circunstancias poco comunes, se rechaza una migración de dominios con el siguiente mensaje en el log SMF de ldmd:

Mar 08 17:42:12 warning: Received invalid physical address during
migration of domain rztcrmdev2: base RA: 0x400000000, offset: 0x1ffff0000,
PA: 0x87fff0000 size: 0x1001a

Debido a que la migración falla antes de que el dominio sea suspendido en el sistema de origen, no hay ninguna pérdida de servicio.

El modo de error depende de la carga de trabajo del dominio y el contenido exacto de la memoria, ya que la mayoría de los fragmentos se comprimen a un tamaño menor.

Recuperación: aunque no hay ninguna solución alternativa garantizada para este problema, una migración posterior puede funcionar si la carga de trabajo cambia y, por lo tanto, el contenido de la memoria cambia. También puede intentar utilizar la reconfiguración dinámica para modificar el tamaño de la memoria del dominio.

Se genera el aviso grave send_mondo_set: timeout cuando se utiliza el comando ldm stop en un dominio invitado tras un esfuerzo

ID de bug 16486383: este problema se puede producir si se asigna un dispositivo o bus PCI directamente a un dominio invitado en el que el dominio no tiene un núcleo asignado desde /SYS/DCU donde reside físicamente la tarjeta PCI. Dado que el hipervisor restablece los dispositivos PCI en nombre de los dominios invitados, durante el reinicio de cada dominio invitado, es posible que se produzca un aviso grave en un dominio con núcleos en la DCU conectada al dispositivo PCI. Si hay más dispositivos PCI asignados a los dominios invitados locales no de DCU, aumenta la posibilidad de que se produzcan avisos graves.

Solución alternativa: siga una de estas soluciones alternativas:

Los subdispositivos en un dispositivo PCIe se revierten a un nombre no asignado

ID de bug 16299053: después de desactivar un dispositivo PCIe, es posible que experimente un comportamiento inesperado. Los subdispositivos que se encuentran en el dispositivo PCIe desactivado se revierten a los nombres no asignados mientras el dispositivo PCIe sigue siendo propiedad del dominio.

Solución alternativa: si decide desactivar una ranura PCIe en ILOM, asegúrese de que la ranura PCIe no esté asignada a un dominio por medio de la función de E/S directa (DIO). Es decir, compruebe primero que la ranura PCIe se haya asignado al dominio raíz correspondiente antes de desactivar la ranura en ILOM.

Si desactiva la ranura PCIe en ILOM mientras la ranura PCIe está asignada a un dominio con DIO, detenga ese dominio y vuelva a asignar el dispositivo al dominio raíz para que el comportamiento sea correcto.

WARNING: ddi_intr_alloc: cannot fit into interrupt pool significa que se agota el suministro de interrupciones mientras se conectan controladores de dispositivos de E/S

ID de bug 16284767: esta advertencia sobre la consola de Oracle Solaris significa que el suministro de interrupciones se ha agotado mientras se conectan los controladores de los dispositivos de E/S:

WARNING: ddi_intr_alloc: cannot fit into interrupt pool

El hardware proporciona una cantidad infinita de interrupciones, de modo que Oracle Solaris limita la cantidad que cada dispositivo puede utilizar. Hay un límite predeterminado diseñado para satisfacer las necesidades de las configuraciones del sistema típicas; sin embargo, este límite puede necesitar un ajuste para determinadas configuraciones del sistema.

Específicamente, es posible que sea necesario ajustar el límite si el sistema está particionado en varios dominios lógicos y si hay demasiados dispositivos de E/S asignados a algún dominio invitado. Oracle VM Server for SPARC divide el total de las interrupciones en pequeños conjuntos proporcionados a los dominios invitados. Si hay demasiados dispositivos de E/S asignados a un dominio invitado, el suministro puede ser demasiado pequeño para proporcionar a cada dispositivo el límite predeterminado de interrupciones. Por lo tanto, el suministro se agota antes de que se conecten completamente todos los controladores.

Algunos controladores proporcionan una rutina de devolución de llamada opcional que le permite a Oracle Solaris ajustar automáticamente sus interrupciones. El límite predeterminado no se aplica a estos controladores.

Solución alternativa: utilice las macros MDB ::irmpools and ::irmreqs para determinar cómo se utilizan las interrupciones. La macro ::irmpools muestra el suministro total de interrupciones dividido en agrupaciones. La macro ::irmreqs muestra los dispositivos asignados a cada agrupación. Para cada dispositivo, ::irmreqs muestra si el límite predeterminado se aplica por una rutina de devolución de llamada opcional, la cantidad de interrupciones solicitadas por cada controlador y la cantidad de interrupciones que recibe el controlador.

Las macros no muestran información sobre los controladores que no se pueden conectar. Sin embargo, la información que se muestra ayuda a calcular la medida hasta la que se puede ajustar el límite predeterminado. Cualquier dispositivo que utiliza más de una interrupción sin proporcionar una rutina de devolución de llamada puede forzarse a utilizar menos interrupciones ajustando el límite predeterminado. La reducción del límite predeterminado por debajo de la cantidad que utiliza el dispositivo puede dar como resultado la liberación de interrupciones que usan otros dispositivos.

Para ajustar el límite predeterminado, establezca la propiedad ddi_msix_alloc_limit en un valor de 1 a 8 en el archivo /etc/system. A continuación, reinicie el sistema para que el cambio surta efecto.

Para maximizar el rendimiento, comience por asignar los mayores valores y reducir los valores en incrementos pequeños hasta que el sistema se inicie correctamente sin advertencias. Use las macros ::irmpools y ::irmreqs para medir el impacto del ajuste en todos los controladores conectados.

Por ejemplo, suponga que las siguientes advertencias se emiten durante el inicio del SO Oracle Solaris en un dominio invitado:

WARNING: emlxs3: interrupt pool too full.
WARNING: ddi_intr_alloc: cannot fit into interrupt pool

Las macros ::irmpools y ::irmreqs muestran la siguiente información:

# echo "::irmpools" | mdb -k
ADDR             OWNER   TYPE   SIZE  REQUESTED  RESERVED
00000400016be970 px#0    MSI/X  36    36         36

# echo "00000400016be970::irmreqs" | mdb -k
ADDR             OWNER   TYPE   CALLBACK NINTRS NREQ NAVAIL
00001000143acaa8 emlxs#0 MSI-X  No       32     8    8
00001000170199f8 emlxs#1 MSI-X  No       32     8    8
000010001400ca28 emlxs#2 MSI-X  No       32     8    8
0000100016151328 igb#3   MSI-X  No       10     3    3
0000100019549d30 igb#2   MSI-X  No       10     3    3
0000040000e0f878 igb#1   MSI-X  No       10     3    3
000010001955a5c8 igb#0   MSI-X  No       10     3    3

El límite predeterminado en este ejemplo es de ocho interrupciones por dispositivo, lo cual no es suficiente para la conexión del dispositivo final emlxs3 con el sistema. Dado que todas las instancias de emlxs se comportan del mismo modo, supone que emlxs3 probablemente solicitó 8 interrupciones.

Al restar las 12 interrupciones utilizadas por todos los dispositivos igb de la agrupación total de 36 interrupciones, quedan 24 interrupciones disponibles para los dispositivos emlxs. La división de las 24 interrupciones por 4 sugiere que 6 interrupciones por dispositivo permitirían que todos los dispositivos emlxs se conecten con el mismo rendimiento. Por lo tanto, el siguiente ajuste se agrega al archivo /etc/system:

set ddi_msix_alloc_limit = 6

Cuando el sistema se inicia correctamente sin advertencias, las macros ::irmpools y ::irmreqs muestran la siguiente información actualizada:

# echo "::irmpools" | mdb -k
ADDR             OWNER   TYPE   SIZE  REQUESTED  RESERVED
00000400018ca868 px#0    MSI/X  36    36         36
 
# echo "00000400018ca868::irmreqs" | mdb -k
ADDR             OWNER   TYPE   CALLBACK NINTRS NREQ NAVAIL
0000100016143218 emlxs#0 MSI-X  No       32     8    6
0000100014269920 emlxs#1 MSI-X  No       32     8    6
000010001540be30 emlxs#2 MSI-X  No       32     8    6
00001000140cbe10 emlxs#3 MSI-X  No       32     8    6
00001000141210c0 igb#3   MSI-X  No       10     3    3
0000100017549d38 igb#2   MSI-X  No       10     3    3
0000040001ceac40 igb#1   MSI-X  No       10     3    3
000010001acc3480 igb#0   MSI-X  No       10     3    3
SPARC M5-32 y SPARC M6-32: panic: mpo_cpu_add: Cannot read MD

ID de bug 16238762: en SPARC M5-32 o SPARC M6-32 con 2,4 TB de memoria como mínimo, si intenta establecer el número de CPU en el dominio primary de 6 a 1056 CPU, el núcleo generará un aviso grave y se mostrará el siguiente mensaje:

mpo_cpu_add: Cannot read MD

El siguiente procedimiento genera el aviso grave:

  1. Encienda el sistema con una DCU asignada a un host.

    Por ejemplo, asigne DCU0 a HOST0.

  2. Cree dominios invitados.

  3. Guarde una configuración en el SP.

  4. Apague el host.

  5. Asigne otra DCU al host.

    Por ejemplo, asigne DCU1 a HOST0.

  6. Encienda el host.

    El firmware verifica que la configuración se pueda iniciar. Esta verificación garantiza que todas las unidades de CPU, memoria y E/S que estaban presentes en el momento en que se creó la configuración sigan presentes. El firmware también genera un nuevo PRI para describir la configuración de todo el sistema.

    La configuración se enciende correctamente y los dominios invitados se inician.

  7. Intente agregar de forma dinámica una CPU a un dominio existente.

    Se genera una nueva descripción del equipo que refleja la información de latencia correcta, pero el SO Oracle Solaris no puede analizar la nueva información y emite un aviso grave.

Solución alternativa: para evitar que se produzca este aviso grave, no siga los pasos detallados en la descripción del problema.

Si ya ha realizado estos pasos y ha experimentado el aviso grave, lleve a cabo los siguientes pasos:

  1. Realice una acción tras iniciar una configuración guardada desde un dominio físico más pequeño. Por ejemplo, elimine una CPU de cada dominio activo.

  2. Reinicie el dominio.

  3. Desenlace el dominio.

  4. Vuelva a enlazar los dominios enlazados.

  5. Guarde una nueva configuración en el SP.

SPARC M5-32 y SPARC M6-32: problema con los discos accesibles a través de varias rutas de E/S directas

ID de bug 16232834: cuando se utiliza el comando ldm add-vcpu para asignar CPU a un dominio, es posible que el SO Oracle Solaris genere un aviso grave y muestre el siguiente mensaje:

panic[cpu16]/thread=c4012102c860: mpo_cpu_add: Cannot read MD

El dominio de destino de la operación ldm add-vcpu es el dominio que genera el aviso grave. El dominio se recupera con las CPU adicionales cuando se reinicia.

Solución alternativa: no utilice las configuraciones que se generan con menos recursos de hardware que los asignados al host.

Para evitar el problema, no agregue CPU como se detalla en la descripción del problema. O bien, lleve a cabo los siguientes pasos:

  1. Genere una nueva configuración de SP una vez que se agregaron las DCU.

    Por ejemplo, el siguiente comando crea una configuración denominada new-config-more-dcus:

    primary# ldm add-config new-config-more-dcus
  2. Cierre el dominio.

  3. Detenga el host.

    -> stop /HOST
  4. Inicie el host.

    -> start /HOST
Es posible que el dispositivo ixgbevf en los dominios SR-IOV se desactive al reiniciar el dominio primary

ID de bug 16224353: tras reiniciar el dominio principal, es posible que las instancias ixgbevf del dominio primary no funcionen.

Solución alternativa: ninguna.

Es posible que el reinicio del dominio primary en Oracle Solaris 10 1/13 no asocie ni asigne automáticamente una dirección IP a una interfaz de funciones virtuales

ID de bug 16219069: en un dominio primary que ejecuta el sistema operativo Oracle Solaris 10 1/13, es posible que no se asocie ni asigne una dirección IP a las interfaces de funciones virtuales de acuerdo con el archivo /etc/hostname.vf-interface.

Este problema se produce cuando inicia o reinicia un sistema SPARC T3, SPARC T4 o SPARC T5 que ejecuta el sistema operativo Oracle Solaris 10 1/13 en el dominio primary. Este problema afecta las funciones virtuales que se crearon en las funciones físicas incorporadas y en las funciones físicas adicionales. Este problema no ocurre cuando se inicia una imagen de dominio invitado de Logical Domains.

Solo Oracle Solaris 10: Aviso grave mutex_enter: bad mutex en el dominio primary durante una operación de reinicio o cierre

ID de bug 16080855: durante un reinicio o cierre del dominio primary, el dominio primary pueden experimentar un aviso grave del núcleo con un mensaje grave similar al siguiente:

panic[cpu2]/thread=c40043b818a0: mutex_enter: bad mutex, lp=c4005fa01c88
owner=c4005f70aa80 thread=c40043b818a0

000002a1075c3630 ldc:ldc_mem_rdwr_cookie+20 (c4005fa01c80,
c4004e2c2000,2a1075c37c8, 6c80000, 1, 0)
%l0-3: 00000000001356a4 0000000000136800 0000000000000380
00000000000002ff
%l4-7: 00000000001ad3f8 0000000000000004 00000000ffbffb9c
0000c4005fa01c88
000002a1075c3710 vldc:i_vldc_ioctl_write_cookie+a4 (c4004c400030,
380,ffbff898, 100003, 0, 70233400)
%l0-3: 0000000006c80000 0000000000156dc8 0000000000000380
0000000000100003
%l4-7: 00000000702337b0 000002a1075c37c8 0000000000040000
0000000000000000
000002a1075c37f0 vldc:vldc_ioctl+1a4 (3101, c4004c400030,
ffbff898,c4004c400000, c4004c438030, 0)
%l0-3: 0000000000100003 0000000000000000 000000007b340400
0000c4004c438030
%l4-7: 0000c4004c400030 0000000000000000 0000000000000000
0000000000000000
000002a1075c38a0 genunix:fop_ioctl+d0 (c4004d327800, 0, ffbff898,
100003,c4004384f718, 2a1075c3acc)
%l0-3: 0000000000003103 0000000000100003 000000000133ce94
0000c4002352a480
%l4-7: 0000000000000000 0000000000000002 00000000000000c0
0000000000000000
000002a1075c3970 genunix:ioctl+16c (3, 3103, ffbff898, 3, 134d50, 0)
%l0-3: 0000c40040e00a50 000000000000c6d3 0000000000000003
0000030000002000
%l4-7: 0000000000000003 0000000000000004 0000000000000000
0000000000000000

Recuperación: permita que se reinicie el dominio primary. Si el dominio principal se ha configurado para no reiniciarse tras un bloqueo, inícielo manualmente.

SPARC M5-32 y SPARC M6-32: el controlador LSI-SAS se exporta incorrectamente con SR-IOV

ID de bug 16071170: en un sistema SPARC M5-32 o SPARC M6-32, los controladores SAS internos se exportan como controladores para SR-IOV aunque estas tarjetas no admitan SR-IOV.

El log de Oracle VM Server for SPARC muestra los siguientes mensajes al intentar crear la función física en estas tarjetas:

Dec 11 04:27:54 warning: Dropping pf
pci@d00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@d80/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@c00/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@e00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver

El sistema tiene cuatro puertos de controlador LSI SAS, cada uno en una IOU del conjunto SPARC M5-32 y SPARC M6-32. Este error se notifica para cada puerto.

Solución alternativa: puede omitir estos mensajes. Estos mensajes solo indican que los dispositivos de controladores LSI-SAS del sistema admiten SR-IOV, pero no hay compatibilidad con SR-IOV disponible para este hardware.

SPARC T5-8: Los datos del tiempo de actividad muestran un valor de 0 para algunos comandos de lista ldm

ID de bug 16068376: en un sistema T5-8 con aproximadamente 128 dominios, algunos comandos ldm, como ldm list, pueden mostrar 0 segundos como el tiempo de actividad para todos los dominios.

Solución alternativa: inicie sesión en el dominio y utilice el comando uptime para determinar el tiempo de actividad del dominio.

No se puede definir una MTU gigante para las funciones virtuales sxge en el dominio primary de un sistema SPARC T5-1B

ID de bug 16059331: el controlador sxge no puede definir correctamente MTU gigantes para sus funciones virtuales en el dominio primary.

Solución alternativa: modifique manualmente el archivo /kernel/drv/sxge.conf para configurar la MTU gigante en las interfaces de funciones virtuales sxge del dominio invitado.

ldmd no puede definir los valores de las propiedades mac-addr y alt-mac-addrs para el dispositivo sxge

ID de bug 15974640: el comando ldm no puede definir los valores de las propiedades mac-addr y alt-mac-addrs para el dispositivo sxge. Como resultado, el daemon ldmd notifica una dirección MAC incoherente. Asimismo, también se produce un fallo en las agregaciones de enlaces basadas en la dirección MAC de VNIC.

Faltan dos propiedades en la salida del comando ldm list-io -d para un dispositivo sxge en el sistema SPARC T5-1B

ID de bug 15974547: cuando se ejecuta en un sistema SPARC T5-1B que tiene sxge, la salida del comando ldm list-io -d PF-device no muestra las propiedades max-vlans o max-vf-mtu. Estas propiedades están presentes en un sistema SPARC T5-1B con ixgbe, así como en sistemas sin servidores blade.

Falta el valor de la propiedad max-vlans. El valor debe ser 0 porque el dispositivo sxge no admite las etiquetas VLAN de hardware. El valor de la propiedad max-vf-mtu se fija en 1500, lo que impide que el controlador de funciones físicas establezca la MTU gigante para funciones virtuales.

El comando ldm no evacúa un núcleo defectuoso de un dominio invitado

ID de bug 15962837: una evacuación de núcleos no se completa cuando se produce un fallo de nivel de chip. Una evacuación seguida de un fallo de núcleo funciona tal como se espera, pero no se completa el fallo de nivel de chip cuando se intenta retirar un nodo de CMP completo.

Solución alternativa: ninguna. Planifique un reemplazo de chip cuando se diagnostique un fallo de nivel de chip.

Las operaciones DR de memoria se bloquean cuando la memoria se reduce a menos de 4 GB

ID de bug 15942036: si realiza una operación DR de memoria para reducir la memoria a menos de 4 GB, la operación se podría bloquear para siempre. Si se emite un comando ldm cancel-op memdr en ese dominio, se emite un mensaje incorrecto:

The memory removal operation has completed. You cannot cancel this operation.

A pesar del mensaje, la operación DR de memoria está bloqueada, y es posible que no pueda realizar otras operaciones de ldmd en ese dominio invitado.

Solución alternativa: no intente reducir la memoria a menos de 4 GB en ningún dominio. Si ya está en este estado, ejecute el comando ldm stop -f o conéctese en el dominio y reinícielo.

Puede parecer que se produce un error en la DR de una gran cantidad de CPU virtuales

ID de bug 15826354: la reconfiguración dinámica (DR) de una gran cantidad de CPU provoca un error al ejecutar el daemon ldmd. Aunque se agota el tiempo de espera de ldmd, la operación de DR continúa en segundo plano y finaliza correctamente. Sin embargo, ldmd ya no está alineado con el dominio resultante y es posible que no se permitan operaciones posteriores de DR.

Por ejemplo:

# ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    7     20G      2.7%  0.4%  1h 41m
ldg0             active     -n----  5000    761   16G       75%   51%  6m

# ldm rm-vcpu 760 ldg0
Request to remove cpu(s) sent, but no valid response received
VCPU(s) will remain allocated to the domain, but might
not be available to the guest OS
Resource removal failed
 
# ldm set-vcpu 1 ldg0
Busy executing earlier command; please try again later.
Unable to remove the requested VCPUs from domain ldg0
Resource modification failed
 
# ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    7     20G      0.9%  0.1%  1h 45m
ldg0             active     -n----  5000    761   16G      100%  0.0%  10m

Solución alternativa: espere unos minutos y luego vuelva a ejecutar el comando ldm set-vcpu:

# ldm set-vcpu 1 ldg0
# ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    7     20G      0.9%  0.1%  1h 50m
ldg0             active     -n----  5000    1     16G       52%  0.0%  15m

Tenga en cuenta que 760 supera el máximo recomendado.

Se agota el tiempo de espera de la migración de un dominio invitado con redes virtuales HIO y cpu-arch=generic mientras se espera que el dominio se suspenda

ID de bug 15825538: en un dominio lógico configurado con interfaces de red de E/S híbrida (mode=hybrid) y con la migración entre CPU activada (cpu-arch=generic), si se ejecuta una migración en directo segura (ldm migrate), es posible que se agote el tiempo de espera de la migración y que el dominio quede en un estado de suspensión.

Recuperación: reinicie el dominio lógico.

Solución alternativa: no utilice dispositivos de red virtual de E/S híbrida con la migración en directo entre CPU.

SPARC T4-4: no se puede enlazar un dominio invitado

 

ID de bug 15825330: Oracle VM Server for SPARC parece bloquearse en el inicio en algunas configuraciones de SPARC T4-4 que tienen una sola placa de procesador.

Solución alternativa: asegúrese de que un procesador siempre ocupe las ranuras para los procesadores 0 y 1. El reinicio del sistema en una configuración de este tipo permite que se inicie el software Oracle VM Server for SPARC.

El dominio invitado genera un aviso grave cuando se cambia el valor de la propiedad threading de max-throughput a max-ipc

ID de bug 15821246: en un sistema que ejecuta el SO Oracle Solaris 11.1, cambiar el valor de la propiedad threading en un dominio migrado de max-ipc a max-throughput puede generar un aviso grave en el dominio invitado.

Solución alternativa: no cambie el estado de threading por un dominio invitado migrado hasta que este se vuelva a iniciar.

El dominio de control se cuelga al reiniciarse con dos dominios activos de E/S directa

ID de bug 15820741: en un sistema Oracle Solaris 11.1 que tiene dos dominios con configuraciones de E/S directa, el dominio de control se puede bloquear al reiniciarlo.

Recuperación: para recuperarse del cuelgue del reinicio, restablezca el dominio de control emitiendo el siguiente comando en el SP:

-> reset -f /HOST/domain/control
No aparece ningún mensaje de error cuando se realiza una agregación de DR de memoria de manera parcialmente correcta

ID de bug 15812823: en situaciones de poca memoria libre, no todos los bloques de memoria pueden usarse como parte de una operación de DR de memoria debido al tamaño. Sin embargo, estos bloques de memoria se incluyen en la cantidad de memoria libre. Esta situación puede hacer que se agregue al dominio una cantidad de memoria menor que la esperada. No aparece ningún mensaje de error si se produce esta situación.

Solución alternativa: ninguna.

El dominio principal o invitado genera un aviso grave al desenlazar o migrar un dominio invitado que tiene dispositivos de red de E/S híbrida

ID de bug 15803617: el dominio primary o un dominio invitado activo pueden generar un aviso grave durante una operación de desenlace o de migración en directo si el dominio está configurado con dispositivos de red virtual de E/S híbrida.

Recuperación: reinicie el dominio afectado.

Solución alternativa: no utilice dispositivos de red virtual de E/S híbrida.

Error al volver a crear un dominio con funciones virtuales de PCIe desde un archivo XML

ID de bug 15783851: es posible que se produzca un problema al intentar volver a crear una configuración desde un archivo XML que representa las restricciones de funciones virtuales de manera incorrecta.

Este problema se produce cuando utiliza el comando ldm list-constraints -x para guardar la configuración de un dominio que tiene funciones virtuales de PCIe.

Si más adelante vuelve a crear el dominio con el comando ldm add-domain -i, las funciones virtuales originales no estarán presentes y se mostrará el siguiente mensaje error al intentar enlazar un dominio:

No free matching PCIe device...

Incluso si crea las funciones virtuales que faltan, se produce el mismo mensaje de error al intentar enlazar otro dominio, ya que el comando ldm add-domain clasifica de manera incorrecta las funciones virtuales como dispositivos PCIe.

Solución alternativa: siga estos pasos:

  1. Guarde la información sobre las funciones virtuales mediante el comando ldm list-io.

  2. Destruya cada dominio afectado mediante el comando ldm rm-dom.

  3. Cree todas las funciones virtuales necesarias mediante el comando ldm create-vf.

  4. Vuelva a crear los dominios con el comando ldm.

Cuando utiliza el comando ldm add-io para agregar las funciones virtuales, estas se clasifican correctamente como un dispositivo de funciones virtuales, por lo que el dominio se puede enlazar.

Para obtener información sobre cómo volver a crear una configuración de dominio que utilice funciones virtuales, consulte Es posible que el comando ldm init-system no restaure correctamente una configuración de dominio en la que se han realizado cambios de E/S física.

Mensaje de error incorrecto al pasar del uso de núcleos completos al uso de núcleos parciales en el dominio de control

ID de bug 15783608: al pasar del uso de núcleos con restricciones físicas al uso de recursos de CPU sin restricciones en el control de dominio, es posible que aparezca el siguiente mensaje irrelevante:

Whole-core partitioning has been removed from domain primary,because
dynamic reconfiguration has failed and the domain is now configured
with a partial CPU core.

Solución alternativa: puede omitir este mensaje.

Es posible que el comando ldm init-system no restaure correctamente una configuración de dominio en la que se han realizado cambios de E/S física

ID de bug 15783031: puede experimentar problemas al usar el comando ldm init-system para restaurar una configuración de dominio que ha utilizado operaciones de E/S directa o SR-IOV.

Para asegurarse de que el sistema permanezca en un estado en el que ninguna de las acciones anteriores se hayan realizado, consulte Using the ldm init-system Command to Restore Domains on Which Physical I/O Changes Have Been Made..

Es posible que Logical Domains Manager se bloquee y se reinicie al intentar modificar varios dominios al mismo tiempo

ID de bug 15782994: es posible que Logical Domains Manager se bloquee y se reinicie cuando intenta realizar una operación que afecta la configuración de varios dominios. Es posible que este problema aparezca al intentar cambiar algún valor relacionado con la configuración de red virtual y si existen muchos dispositivos de red virtual en el mismo conmutador virtual para varios dominios. Normalmente, este problema se presenta cuando hay aproximadamente 90 dominios o más que tienen dispositivos de red virtual conectados al mismo conmutador virtual y cuando la propiedad inter-vnet-link está activada (comportamiento predeterminado). Para confirmar el síntoma, busque el siguiente mensaje en el archivo log de ldmd y el archivo core en el directorio /var/opt/SUNWldm:

Frag alloc for 'domain-name'/MD memory of size 0x80000 failed

Solución alternativa: evite crear muchos dispositivos de red virtual conectados al mismo conmutador virtual. Si desea hacerlo, establezca la propiedad inter-vnet-link en off en el conmutador virtual. Tenga en cuenta que esta opción puede afectar el rendimiento de las redes entre dominios invitados.

El comando ldm list -o ya no acepta abreviaturas

ID de bug 15781142: el comando ldm list -o format ya no acepta abreviaturas para format.

Aunque el software de Oracle VM Server for SPARC 3.0 le permitía utilizar el comando ldm list -o net para mostrar información sobre la red, dichas abreviaturas se han eliminado del software Oracle VM Server for SPARC 3.1. En Oracle VM Server for SPARC 3.1, debe utilizar la versión completa de format en el comando: ldm list -o network.

Solución: use los nombres de formato especificados en la página del comando man ldm(1M).

El dominio de control requiere el núcleo más bajo del sistema

ID de bug 15778392: el dominio de control requiere el núcleo más bajo del sistema. Por lo tanto, si el ID de núcleo 0 es el núcleo más bajo, no se puede compartir con ningún otro dominio si desea aplicar la restricción de núcleo completo al dominio de control.

Por ejemplo, si el núcleo más bajo del sistema es el ID de núcleo 0, el dominio de control tendrá un aspecto similar al siguiente:

# ldm ls -o cpu primary
NAME
primary

VCPU
VID    PID    CID    UTIL STRAND
0      0      0      0.4%   100%
1      1      0      0.2%   100%
2      2      0      0.1%   100%
3      3      0      0.2%   100%
4      4      0      0.3%   100%
5      5      0      0.2%   100%
6      6      0      0.1%   100%
7      7      0      0.1%   100%
Tras cancelar una migración, los comandos ldm que se ejecutan en el sistema de destino no responden

ID de bug 15776752: si cancela una migración en directo, el contenido de la memoria de la instancia del dominio que se crea en el destino se debe “limpiar” mediante el hipervisor. Este proceso de limpieza se realiza por motivos de seguridad y se debe completar para que la memoria pueda regresar al grupo de memoria libre. Mientras esta limpieza está en curso, los comandos ldm no responden. Como resultado, Logical Domains Manager parece estar bloqueado.

Recuperación: debe esperar a que finalice esta solicitud de limpieza antes de intentar ejecutar otros comandos ldm. Este proceso puede tardar bastante. Por ejemplo, un dominio invitado que tiene 500 GB de memoria puede completar este proceso en 7 minutos como máximo en un servidor SPARC T4 o en 25 minutos como máximo en un servidor SPARC T3.

Algunas tarjetas Emulex no funcionan cuando se asignan a un dominio de E/S

ID de bug 15776319: en un sistema que ejecuta el SO Oracle Solaris en el dominio de control y un dominio de E/S, algunas tarjetas Emulex asignadas al dominio de E/S no funcionan correctamente porque las tarjetas no reciben interrupciones. Sin embargo, cuando se asignan al dominio de control, las mismas tarjetas funcionan correctamente.

Solución alternativa: ninguna.

Error grave en dominio invitado al ejecutar el comando cputrack durante la migración a un sistema SPARC T4

ID de bug 15776123: si el comando cputrack se ejecuta en un dominio invitado mientras ese dominio se migra a un sistema SPARC T4, es posible que se produzca un aviso grave en el dominio invitado del equipo de destino tras la migración.

Solución alternativa: no ejecute el comando cputrack durante la migración de un dominio invitado a un sistema SPARC T4.

Oracle Solaris 11: el robo de DRM informa errores y reintentos de DR en Oracle Solaris

ID de bug 15775668: un dominio que tiene una política de prioridad más alta puede robar recursos de CPU virtuales de un dominio con una política de prioridad más baja. Cuando esta acción de “robo” está en curso, es posible que vea los siguientes mensajes de advertencia en el log de ldmd cada 10 segundos:

warning: Unable to unconfigure CPUs out of guest domain-name

Solución alternativa: puede omitir estos mensajes engañosos.

Limitación del número máximo de funciones virtuales que se puede asignar a un dominio

ID de bug 15775637: un dominio de E/S tiene un límite para el número de recursos de interrupción disponibles por cada complejo de raíz.

En los sistemas SPARC T3 y SPARC T4, el límite es de aproximadamente 63 MSI/vectores X. Cada función virtual igb utiliza tres interrupciones. La función virtual ixgbe utiliza dos interrupciones.

Si asigna una gran cantidad de funciones virtuales a un dominio, se agotan los recursos del sistema del dominio necesarios para admitir estos dispositivos. Aparecerán mensajes similares a los siguientes:

WARNING: ixgbevf32: interrupt pool too full.
WARNING: ddi_intr_alloc: cannot fit into interrupt pool
El dominio invitado que utiliza la migración entre CPU notifica tiempos de actividad aleatorios una vez completada la migración

ID de bug 15775055: tras migrar un dominio entre dos equipos que tienen frecuencias de CPU diferentes, es posible que los informes de tiempo de actividad del comando ldm list sean incorrectos. Estos resultados incorrectos se generan porque el tiempo de actividad se calcula en función de la frecuencia STICK del equipo en el que se ejecuta el dominio. Si la frecuencia STICK es diferente entre los equipos de origen y de destino, los valores de tiempo de actividad parecen calcularse de manera incorrecta.

Los valores de tiempo de actividad informados y mostrados en el dominio invitado son correctos. Asimismo, cualquier cálculo que se realiza en el SO Oracle Solaris del dominio invitado es correcto.

Oracle Solaris 10: se puede producir un error grave en el controlador ixgbe cuando se inicia con una tarjeta de controlador Ethernet Intel X540 de puerto doble

ID de bug 15773603: cuando se inicia con una tarjeta de controlador Ethernet Intel X540 de puerto doble, es posible que se produzca un error grave del sistema en el controlador ixgbe de Oracle Solaris 10. Este error grave se produce porque el controlador tiene un temporizador de prioridad alta que bloquea la conexión de otros controladores.

Solución alternativa: reinicie el sistema.

La consola del dominio invitado se bloquea de forma aleatoria en sistemas SPARC T4

ID de bug 15771384: la consola invitada de un dominio puede detenerse si se realizan intentos reiterados de conectarse a la consola antes y durante el momento en que la consola se enlaza. Por ejemplo, esto puede suceder si utiliza una secuencia de comandos automatizada para capturar la consola como un dominio que se migra en el equipo.

Solución alternativa: para activar la consola, ejecute los siguientes comandos en el dominio que aloja al concentrador de la consola del dominio (normalmente el dominio de control):

primary# svcadm disable vntsd
primary# svcadm enable vntsd
Destruir todas las funciones virtuales y regresar las ranuras al dominio raíz no restaura los recursos del complejo de raíz

ID de bug 15765858: los recursos del complejo de raíz no se restauran después de destruir todas las funciones virtuales y regresar las ranuras al dominio raíz.

Solución alternativa: configure la opción iov en off para el bus PCIe específico.

primary# ldm start-reconf primary
primary# ldm set-io iov=off pci_0
No se debe permitir ldm remove-io en las tarjetas PCIe que tienen puentes de PCIe a PCI

ID de bug 15761509: utilice solo tarjetas PCIe que admiten la función de E/S directa. Estas tarjetas se enumeran en support document.

Solución alternativa: utilice el comando ldm add-io para agregar la tarjeta al dominio primary.

El comando ldm stop puede generar un error si se ejecuta inmediatamente después de un comando ldm start

ID de bug 15759601: si ejecuta un comando ldm stop inmediatamente después de un comando ldm start, el comando ldm stop puede generar el siguiente error:

LDom domain stop notification failed

Solución alternativa: vuelva a ejecutar el comando ldm stop.

init-system no restaura las restricciones de núcleo con nombre para dominios invitados desde los archivos XML guardados

ID de bug 15758883: el comando ldm init-system no consigue restaurar las restricciones de núcleo del CPU para dominios invitados desde un archivo XML guardado.

Solución alternativa: siga estos pasos:

  1. Cree un archivo XML para el dominio principal.

    # ldm ls-constraints -x primary > primary.xml
  2. Cree un archivo XML para los dominios invitados.

    # ldm ls-constraints -x ldom[,ldom][,...] > guest.xml
  3. Apague el sistema, vuelva a encenderlo e inicie una configuración predeterminada de fábrica.

  4. Aplique la configuración XML para el dominio primary.

    # ldm init-system -r -i primary.xml
  5. Reinicie el equipo.

  6. Aplique la configuración XML para estos dominios.

    # ldm init-system -f -i guest.xml
Se produce un error grave en el sistema cuando se reinicia un dominio primary que tiene un gran número de funciones virtuales asignadas

ID de bug 15750727: se puede producir un aviso grave en el sistema al reiniciar un dominio primary que tiene una gran cantidad de funciones virtuales asignadas.

Solución alternativa: siga una de estas soluciones alternativas:

El núcleo parcial primary no permite las transiciones de la DR de núcleo completo

ID de bug 15748348: cuando el dominio primary comparte el núcleo físico más bajo (por lo general, 0) con otro dominio, se produce un error al intentar definir la restricción de núcleo completo para el dominio primary.

Solución alternativa: siga estos pasos:

  1. Determine el núcleo enlazado más bajo compartido por los dominios.

    # ldm list -o cpu
  2. Desenlace todos los subprocesos de CPU correspondientes al núcleo más bajo de todos los dominios, excepto del dominio primary.

    Como resultado, los subprocesos de CPU correspondientes al núcleo más bajo no se comparten y están disponibles para enlazarse con el dominio primary.

  3. Para definir la restricción de núcleo completo, siga uno de estos pasos:

    • Enlace los subprocesos de CPU al dominio primary y defina la restricción de núcleo completo con el comando ldm set-vcpu -c.

    • Utilice el comando ldm set-core para enlazar los subprocesos de CPU y definir la restricción de núcleo completo en un solo paso.

El comando ldm list-io muestra el estado UNK o INV tras el inicio

ID de bug 15738561: el comando ldm list-io puede mostrar el estado UNK o INV para las ranuras PCIe y las funciones virtuales SR-IOV si el comando se ejecuta inmediatamente después del inicio del dominio primary. Este problema se produce por un retraso en la respuesta del agente de Logical Domains en el SO Oracle Solaris.

Este problema solo se ha informado en pocos sistemas.

Solución alternativa: el estado de las ranuras PCIe y las funciones virtuales se actualiza automáticamente una vez que se recibe la información del agente de Logical Domains.

Migrar un dominio con una gran cantidad de memoria en sistemas SPARC T4-4 genera un aviso grave del dominio en el sistema de destino

ID de bug 15731303: evite migrar dominios que tienen más de 500 GB de memoria. Utilice el comando ldm list -o mem para ver la configuración de memoria del dominio. Algunas configuraciones de memoria con varios bloques de memoria que suman en total más de 500 GB pueden generar un error grave con una pila similar al siguiente:

panic[cpu21]/thread=2a100a5dca0:
BAD TRAP: type=30 rp=2a100a5c930 addr=6f696e740a232000 mmu_fsr=10009

sched:data access exception: MMU sfsr=10009: Data or instruction address
out of range context 0x1

pid=0, pc=0x1076e2c, sp=0x2a100a5c1d1, tstate=0x4480001607, context=0x0
g1-g7: 80000001, 0, 80a5dca0, 0, 0, 0, 2a100a5dca0

000002a100a5c650 unix:die+9c (30, 2a100a5c930, 6f696e740a232000, 10009,
2a100a5c710, 10000)
000002a100a5c730 unix:trap+75c (2a100a5c930, 0, 0, 10009, 30027b44000,
2a100a5dca0)
000002a100a5c880 unix:ktl0+64 (7022d6dba40, 0, 1, 2, 2, 18a8800)
000002a100a5c9d0 unix:page_trylock+38 (6f696e740a232020, 1, 6f69639927eda164,
7022d6dba40, 13, 1913800)
000002a100a5ca80 unix:page_trylock_cons+c (6f696e740a232020, 1, 1, 5,
7000e697c00, 6f696e740a232020)
000002a100a5cb30 unix:page_get_mnode_freelist+19c (701ee696d00, 12, 1, 0, 19, 3)
000002a100a5cc80 unix:page_get_cachelist+318 (12, 1849fe0, ffffffffffffffff, 3,
0, 1)
000002a100a5cd70 unix:page_create_va+284 (192aec0, 300ddbc6000, 0, 0,
2a100a5cf00, 300ddbc6000)
000002a100a5ce50 unix:segkmem_page_create+84 (18a8400, 2000, 1, 198e0d0, 1000,
11)
000002a100a5cf60 unix:segkmem_xalloc+b0 (30000002d98, 0, 2000, 300ddbc6000, 0,
107e290)
000002a100a5d020 unix:segkmem_alloc_vn+c0 (30000002d98, 2000, 107e000, 198e0d0,
30000000000, 18a8800)
000002a100a5d0e0 genunix:vmem_xalloc+5c8 (30000004000, 2000, 0, 0, 80000, 0)
000002a100a5d260 genunix:vmem_alloc+1d4 (30000004000, 2000, 1, 2000,
30000004020, 1)
000002a100a5d320 genunix:kmem_slab_create+44 (30000056008, 1, 300ddbc4000,
18a6840, 30000056200, 30000004000)
000002a100a5d3f0 genunix:kmem_slab_alloc+30 (30000056008, 1, ffffffffffffffff,
0, 300000560e0, 30000056148)
000002a100a5d4a0 genunix:kmem_cache_alloc+2dc (30000056008, 1, 0, b9,
fffffffffffffffe, 2006)
000002a100a5d550 genunix:kmem_cpucache_magazine_alloc+64 (3000245a740,
3000245a008, 7, 6028f283750, 3000245a1d8, 193a880)
000002a100a5d600 genunix:kmem_cache_free+180 (3000245a008, 6028f2901c0, 7, 7,
7, 3000245a740)
000002a100a5d6b0 ldc:vio_destroy_mblks+c0 (6028efe8988, 800, 0, 200, 19de0c0, 0)
000002a100a5d760 ldc:vio_destroy_multipools+30 (6028f1542b0, 2a100a5d8c8, 40,
0, 10, 30000282240)
000002a100a5d810 vnet:vgen_unmap_rx_dring+18 (6028f154040, 0, 6028f1a3cc0, a00,
200, 6028f1abc00)
000002a100a5d8d0 vnet:vgen_process_reset+254 (1, 6028f154048, 6028f154068,
6028f154060, 6028f154050, 6028f154058)
000002a100a5d9b0 genunix:taskq_thread+3b8 (6028ed73908, 6028ed738a0, 18a6840,
6028ed738d2, e4f746ec17d8, 6028ed738d4)

Solución alternativa: evite realizar migraciones de dominios que tienen más de 500 GB de memoria.

Se produce un error al eliminar una gran cantidad de CPU de un dominio invitado

ID de bug 15726205: es posible que aparezca el siguiente mensaje de error al intentar eliminar una gran cantidad de CPU de un dominio invitado:

Request to remove cpu(s) sent, but no valid response received
VCPU(s) will remain allocated to the domain, but might
not be available to the guest OS
Resource modification failed

Solución alternativa: detenga el dominio invitado antes de eliminar más de 100 CPU del dominio.

No es posible usar las operaciones de conexión en marcha de Oracle Solaris para eliminar un dispositivo de punto final PCIe cuando está en funcionamiento

ID de bug 15721872: no puede utilizar las operaciones de conexión en marcha de Oracle Solaris para eliminar un dispositivo de terminal PCIe cuando está en funcionamiento después de que dicho dispositivo se eliminó del dominio primary mediante el comando ldm rm-io. Para obtener información sobre cómo reemplazar o eliminar un dispositivo de punto final PCIe, consulte Realización de cambios de hardware en PCIe de Guía de administración para Oracle VM Server for SPARC 3.1 .

El comando nxge genera un error grave al migrar un dominio invitado que tiene dispositivos de red virtual de E/S híbrida y de E/S virtual

ID de bug 15710957: cuando un dominio invitado con mucha carga tiene una configuración de E/S híbrida e intenta migrarlo, es posible que se muestre un error grave de nxge.

Solución alternativa: agregue la línea siguiente al archivo /etc/system en el dominio primary y en cualquier dominio de servicio que forme parte de la configuración de E/S híbrida del dominio:

set vsw:vsw_hio_max_cleanup_retries = 0x200
Todos los comandos ldm se bloquean cuando faltan recursos NFS compartidos en las migraciones

ID de bug 15708982: se bloquea de forma permanente una migración iniciada o en curso, o cualquier comando ldm. Esta situación se produce cuando el dominio que se migrará utiliza un sistema de archivos compartido de otro sistema y el sistema de archivos ya no está compartido.

Solución alternativa: haga que el sistema de archivos compartido esté disponible de nuevo.

El servicio del agente de Logical Domains no se conecta si el servicio de log del sistema tampoco se conecta

ID de bug 15707426: si el servicio de log del sistema, svc:/system/system-log, no se inicia y no se conecta, el servicio del agente de Logical Domains no se conectará. Cuando el servicio del agente de Logical Domains no está conectado, es posible que los comandos virtinfo, ldm add-vsw, ldm add-vdsdev y ldm list-io no se comporten del modo esperado.

Solución alternativa: asegúrese de que el servicio svc:/ldoms/agents:default esté activado y conectado:

# svcs -l svc:/ldoms/agents:default

Si el servicio svc:/ldoms/agents:default está desconectado, compruebe que el servicio esté activado y que todos los servicios dependientes estén conectados.

El interbloqueo del núcleo provoca el bloqueo del equipo durante una migración

ID de bug 15704500: la migración de un dominio invitado activo puede bloquearse y hacer que el equipo de origen no responda. Cuando se produce este problema, se escribe el siguiente mensaje en la consola y en el archivo /var/adm/messages:

vcc: i_vcc_ldc_fini: cannot close channel 15

vcc: [ID 815110 kern.notice] i_vcc_ldc_fini: cannot
close channel 15

Tenga en cuenta que el número de canal mostrado es un número de canal interno de Oracle Solaris que puede ser distinto para cada mensaje de advertencia.

Solución alternativa: antes de migrar el dominio, desconéctese de la consola del dominio invitado.

Recuperación: apague y vuelva a encender el equipo de origen.

La DRM y el resultado de ldm list muestran un número de CPU virtuales diferente del que realmente hay en el dominio invitado

ID de bug 15702475: es posible que aparezca el mensaje No response en el log de Oracle VM Server for SPARC cuando la política DRM de un dominio cargado caduca una vez que el recuento de CPU se ha reducido significativamente. La salida del comando ldm list muestra que hay más recursos de CPU asignados al dominio de los que se muestran en la salida de psrinfo.

Solución alternativa: utilice el comando ldm set-vcpu para restablecer el número de CPU del dominio al valor que se muestra en el resultado de psrinfo.

La migración en directo de un dominio que depende de un dominio maestro inactivo en el equipo de destino genera un error de segmentación en ldmd

ID de bug 15701865: si intenta realizar una migración en directo de un dominio que depende de un dominio inactivo en el equipo de destino, se produce un error de segmentación en el daemon ldmd y se reinicia el dominio del equipo de destino. Si bien puede realizar una migración de todos modos, no será una migración en directo.

DRM no puede restaurar el número predeterminado de CPU virtuales para un dominio migrado cuando se elimina o caduca la política

ID de bug 15701853: después de realizar una migración de dominios mientras hay una política DRM en vigor, si la política DRM caduca o se elimina del dominio migrado, DRM no puede restaurar el número original de CPU virtuales en el dominio.

Solución alternativa: si se migra un dominio cuando la política DRM está activa y luego caduca o se elimina la política, restablezca el número de CPU virtuales. Utilice el comando ldm set-vcpu para definir el número de CPU virtuales en su valor original en el dominio.

Errores de tiempo de espera de CPU virtuales durante la DR

ID de bug 15701258: al ejecutar el comando ldm set-vcpu 1 en un dominio invitado que tiene más de 100 CPU virtuales y algunas unidades criptográficas, no se eliminan las CPU virtuales. Las CPU virtuales no se eliminan debido a un error de tiempo de espera de la DR. Las unidades criptográficas se eliminan correctamente.

Solución alternativa: utilice el comando ldm rm-vcpu para eliminar todas las CPU virtuales excepto una del dominio invitado. No elimine más de 100 CPU virtuales a la vez.

El motivo del error de la migración no se informa cuando la dirección MAC del sistema entra en conflicto con otra dirección MAC

ID de bug 15699763: no es posible migrar un dominio si contiene una dirección MAC duplicada. Normalmente, cuando se produce un error en la migración por este motivo, el mensaje de error muestra la dirección MAC duplicada. Sin embargo, en raras ocasiones, este mensaje de error puede no indicar la dirección MAC duplicada.

# ldm migrate ldg2 system2
Target Password:
Domain Migration of LDom ldg2 failed

Solución alternativa: asegúrese de que las direcciones MAC del equipo de destino sean únicas.

Las operaciones de migración simultáneas en “dirección opuesta” pueden generar un bloqueo de ldm

ID de bug 15696986: si dos comandos ldm migrate se ejecutan de forma simultánea en “dirección opuesta”, es posible que los dos comandos se bloqueen y que nunca se completen. Se presenta una situación de dirección opuesta cuando se inicia simultáneamente una migración en el equipo A para el equipo B y una migración en el equipo B para el equipo A.

El bloqueo se produce incluso si los procesos de migración se inician como ejecuciones simuladas mediante la opción –n. Cuando se produce este problema, se pueden bloquear todos los demás comandos ldm.

Solución alternativa: ninguna.

Se produce un error al eliminar una gran cantidad de CPU del dominio de control

ID de bug 15677358: utilice una reconfiguración retrasada en lugar de una reconfiguración dinámica para eliminar más de 100 CPU del dominio de control (también conocido como dominio primary). Siga estos pasos:

  1. Use el comando ldm start-reconf primary para poner el dominio de control en modo de reconfiguración retrasada.

  2. Elimine el número deseado de recursos de CPU.

    Si comete un error al eliminar los recursos de CPU, no intente realizar otra solicitud para eliminar las CPU mientras el dominio de control aún se encuentre en una reconfiguración retrasada. Si lo hace, los comandos no funcionarán (consulte Solo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada). En su lugar, deshaga la operación de reconfiguración retrasada mediante el comando ldm cancel-reconf y vuelva a comenzar.

  3. Reinicie el dominio de control.

Es posible que se bloquee el sistema que ejecuta el SO Oracle Solaris 10 8/11 con la política elástica definida

Solución alternativa: aplique el ID de parche 147149-01.

pkgadd no puede definir las entradas ACL en /var/svc/manifest/platform/sun4v/ldmd.xml

ID de bug 15668881: al utilizar el comando pkgadd para instalar el paquete SUNWldm.v de un directorio que se exporta mediante un NFS desde un dispositivo Oracle ZFS Storage Appliance, es posible que aparezca el siguiente mensaje de error:

cp: failed to set acl entries on /var/svc/manifest/platform/sun4v/ldmd.xml

Solución alternativa: omita este mensaje.

SPARC T3-1: problema con los discos disponibles a través de varias rutas de E/S directa

ID de bug 15668368: un sistema SPARC T3-1 se puede instalar con discos de dos puertos, a los que se puede acceder mediante dos dispositivos de E/S directa diferentes. En este caso, asignar estos dos dispositivos de E/S directa a dominios diferentes puede provocar que los discos se utilicen en ambos dominios y que se vean afectados en función del uso real de esos discos.

Solución alternativa: no asigne dispositivos de E/S directa con acceso al mismo conjunto de discos a diferentes dominios de E/S. Para determinar si tiene discos de dos puertos en el sistema SPARC T3-1, ejecute el siguiente comando en el SP:

-> show /SYS/SASBP

Si el resultado incluye el valor fru_description siguiente, el sistema correspondiente tiene discos de dos puertos:

fru_description = BD,SAS2,16DSK,LOUISE

Si se encuentran discos de dos puertos en el sistema, asegúrese de que estos dos dispositivos de E/S directa estén siempre asignados al mismo dominio:

pci@400/pci@1/pci@0/pci@4  /SYS/MB/SASHBA0
pci@400/pci@2/pci@0/pci@4  /SYS/MB/SASHBA1
Las operaciones de eliminación de la DR de memoria con varias instancias nxge de NIU asociadas se pueden bloquear de forma indefinida y nunca completarse

ID de bug 15667770: cuando se asocian varias instancias nxge de NIU en un dominio, es posible que los comandos ldm rm-mem y ldm set-mem, que se utilizan para eliminar memoria del dominio, nunca se completen. Para determinar si el problema se ha producido durante una operación de eliminación de memoria, supervise el progreso de la operación con el comando ldm list -o status. Es posible que tenga este problema si el porcentaje del progreso sigue siendo constante durante varios minutos.

Solución alternativa: cancele el comando ldm rm-mem o ldm set-mem, y compruebe si se eliminó una cantidad suficiente de memoria. Si no es así, es posible que se complete correctamente un comando de eliminación de memoria posterior para eliminar una menor cantidad de memoria.

    Si el problema se ha producido en el dominio primary, haga lo siguiente:

  1. Inicie una operación de reconfiguración retrasada en el dominio primary.

    # ldm start-reconf primary
  2. Asigne la cantidad de memoria que desee al dominio.

  3. Reinicie el dominio primary.

Si el problema se ha producido en otro dominio, detenga el dominio antes de ajustar la cantidad de memoria asignada al dominio.

Al usar el comando ldm stop -a en dominios con una relación de maestro-esclavo, el esclavo conserva el indicador stopping

ID de bug 15664666: cuando se crea una dependencia de restablecimiento, el comando ldm stop -a puede generar que se reinicie un dominio con una dependencia de restablecimiento en lugar de que solo se detenga.

Solución alternativa: en primer lugar, ejecute el comando ldm stop en el dominio maestro. Luego, ejecute el comando ldm stop en el dominio esclavo. Si la detención inicial del dominio esclavo genera un error, ejecute el comando ldm stop -f en el dominio esclavo.

La migración de un dominio que tiene activada la política DRM predeterminada da como resultado la asignación de todas las CPU disponibles a un dominio de destino

ID de bug 15655513: tras la migración de un dominio activo, el uso de la CPU en el dominio migrado puede aumentar considerablemente durante un período breve. Si hay una política de gestión de recursos dinámicos (DRM, Dynamic Resource Managment) vigente para el dominio en el momento de la migración, Logical Domains Manager puede comenzar a agregar CPU. En especial, si las propiedades vcpu-max y attack no se especificaron cuando se agregó la política, el valor predeterminado de unlimited provoca que todas las CPU desenlazadas en el equipo de destino se agreguen al dominio migrado.

Recuperación: no es necesario realizar ninguna recuperación. Cuando el uso de la CPU cae por debajo del límite superior especificado por la política DRM, Logical Domains Manager elimina automáticamente las CPU.

Es posible reasignar una dirección MAC en uso

ID de bug 15655199: a menudo, no se detecta y se reasigna de manera incorrecta una dirección MAC en uso.

Solución alternativa: compruebe manualmente que no es posible reasignar una dirección MAC en uso.

ldmconfig no puede crear una configuración de dominio en el SP

ID de bug 15654965: la secuencia de comandos ldmconfig no puede crear correctamente una configuración de dominios lógicos almacenada en el procesador de servicio (SP).

    Solución alternativa: no apague y vuelva a encender el sistema una vez que se completa la secuencia de comandos ldmconfig y que se reinicia el dominio. En su lugar, realice los siguientes pasos manuales:

  1. Agregue la configuración al SP.

    # ldm add-spconfig new-config-name
  2. Elimine la configuración primary-with-clients del SP.

    # ldm rm-spconfig primary-with-clients
  3. Apague y vuelva a encender el sistema.

Si no realiza estos pasos antes de apagar y volver a encender el sistema, la existencia de la configuración primary-with-client provocará que los dominios estén inactivos. En este caso, debe enlazar cada dominio de forma manual y, a continuación, iniciarlos mediante la ejecución del comando ldm start -a. Una vez que se inician los invitados, la repetición de esta secuencia permite que los dominios invitados se inicien automáticamente después de apagar y volver a encender el sistema.

La migración de dominios de Oracle Solaris sin cooperación se puede bloquear si cpu0 está desconectado

ID de bug 15653424: la migración de un dominio activo puede generar errores si se ejecuta en una versión anterior al sistema operativo Oracle Solaris 10 10/09 y la CPU con el número más bajo del dominio tiene el estado offline. Se produce un error en la operación cuando Logical Domains Manager utiliza la DR de CPU para reducir el dominio a una única CPU. En este proceso, Logical Domains Manager intenta eliminar todas las CPU del dominio excepto la que tiene el número más bajo pero, como esa CPU está desconectada, se produce un error en la operación.

Solución alternativa: antes de intentar la migración, asegúrese de que la CPU con el número más bajo del dominio tenga el estado online.

La DR de memoria se desactiva tras una migración cancelada

ID de bug 15646293: una vez que un dominio con Oracle Solaris 10 9/10 se suspende como parte de una operación de migración, se desactiva la reconfiguración dinámica (DR) de memoria. Esta acción se produce no solo cuando la migración se realiza correctamente, sino también cuando la migración se ha cancelado, a pesar de que el dominio permanece en el equipo de origen.

La reconfiguración dinámica de los valores MTU de dispositivos de red virtual a veces produce errores

ID de bug 15631119: si modifica la unidad de transmisión máxima (MTU) de un dispositivo de red virtual en el dominio de control, se inicia una operación de reconfiguración retrasada. Si posteriormente cancela la reconfiguración retrasada, el valor MTU del dispositivo no se restablece al valor original.

Recuperación: vuelva a ejecutar el comando ldm set-vnet para establecer la MTU al valor original. Al restablecer el valor MTU, el dominio de control pasará al modo de reconfiguración retrasada, el cual deberá cancelar. El valor MTU resultante es ahora el valor MTU correcto original.

# ldm set-vnet mtu=orig-value vnet1 primary
# ldm cancel-op reconf primary
El dominio migrado con MAU contiene solo una CPU cuando el sistema operativo de destino no admite la DR de unidades criptográficas

ID de bug 15606220: a partir de Logical Domains 1.3, es posible migrar un dominio incluso si tiene enlazadas una o varias unidades criptográficas.

Una vez finalizada la migración, el dominio de destino se reanudará correctamente y estará activo, pero con un estado degradado (solo una CPU).

Solución alternativa: antes de la migración, elimine las unidades criptográficas del equipo de origen que ejecuta Logical Domains 1.3.

Mensaje de error de migración confuso para errores de enlace de memoria en la dirección real

ID de bug 15605806: en algunos casos, se produce el siguiente mensaje de error durante la migración, y ldmd informa que no se ha podido enlazar la memoria necesaria para el dominio de origen. Esta situación se puede producir incluso si la cantidad total de memoria disponible en el equipo de destino es mayor que la cantidad de memoria que utiliza el dominio de origen (como se muestra en ldm ls-devices -a mem).

Unable to bind 29952M memory region at real address 0x8000000
Domain Migration of LDom ldg0 failed

Causa: este error se debe a la incapacidad de cumplir los requisitos de congruencia entre la dirección real (RA) y la dirección física (PA) en el equipo de destino.

Solución alternativa: detenga el dominio y realice la migración como una migración en frío. También puede reducir el tamaño de la memoria en el dominio invitado a 128 MB para permitir que la migración continúe mientras se ejecuta el dominio.

La eliminación dinámica de todas las unidades criptográficas de un dominio provoca la terminación de SSH

ID de bug 15600969: si todas las unidades criptográficas del hardware se eliminan dinámicamente de un dominio en ejecución, la estructura criptográfica no puede cambiar a los proveedores de software criptográficos y se terminan todas las conexiones ssh.

Recuperación: vuelva a establecer las conexiones ssh una vez que todas las unidades criptográficas se hayan eliminado del dominio.

Solución alternativa: establezca UseOpenSSLEngine=no en el archivo /etc/ssh/sshd_config del servidor y ejecute el comando svcadm restart ssh.

Todas las conexiones ssh ya no utilizarán las unidades criptográficas de hardware (y, por lo tanto, no se beneficiarán de las mejoras de rendimiento relacionadas) y las conexiones ssh no se desconectarán cuando se eliminen dichas unidades.

La tarjeta Ethernet de fibra de 10 gigabits dual PCI Express muestra cuatro subdispositivos en el resultado de ldm list-io -l

ID de bug 15597025: cuando se ejecuta el comando ldm ls-io -l en un sistema que tiene instalada una tarjeta Ethernet de fibra de 10 gigabits dual PCI Express (X1027A-Z), la salida puede ser la siguiente:

primary# ldm ls-io -l
...
pci@500/pci@0/pci@c PCIE5 OCC primary
network@0
network@0,1
ethernet
ethernet

El resultado muestra cuatro subdispositivos aunque esta tarjeta Ethernet solo tiene dos puertos. Esta anomalía se produce porque la tarjeta tiene cuatro funciones PCI. Dos de estas funciones se desactivan internamente y aparecen como ethernet en el resultado de ldm ls-io -l.

Solución alternativa: puede omitir las entradas ethernet en el resultado de ldm ls-io -l.

Uso de mpgroup de Logical Domains con configuración de matriz de almacenamiento MPXIO para alta disponibilidad de disco

 

Los comandos ldm responden con lentitud cuando se inician varios dominios

ID de bug 15572184: un comando ldm puede tardar en responder cuando se inician varios dominios. Si ejecuta un comando ldm en esta etapa, puede parecer que el comando se bloquea. Tenga en cuenta que el comando ldm se restablecerá después de realizar la tarea esperada. Una vez que se restablece el comando, el sistema debe responder normalmente a los comandos ldm.

Solución alternativa: evite iniciar varios dominios de forma simultánea. Sin embargo, si debe iniciar varios dominios a la vez, intente no ejecutar más comandos ldm hasta que el sistema vuelve a su estado normal. Por ejemplo, espere aproximadamente dos minutos en los servidores Sun SPARC Enterprise T5140 y T5240, y alrededor de cuatro minutos en el servidor Sun SPARC Enterprise T5440 o el servidor Sun Netra T5440.

Oracle Solaris 11: es posible que no se inicien las zonas configuradas con una interfaz de red automática

ID de bug 15560811: en Oracle Solaris 11, es posible que las zonas que están configuradas con una interfaz de red automática (anet) no se inicien en un dominio que solo tiene dispositivos de red virtual de Logical Domains.

Oracle Solaris 10: los dispositivos de red virtual no se crean correctamente en el dominio de control

ID de bug 15560201: a veces, ifconfig indica que el dispositivo no existe después de agregar un dispositivo de disco virtual o red virtual a un dominio. Esta situación puede ocurrir porque no se creó la entrada /devices.

Aunque este problema no debe surgir durante un funcionamiento normal, el error se produce a veces cuando la cantidad de instancias de un dispositivo de red virtual no coincide con la cantidad de instancias enumeradas en el archivo /etc/path_to_inst.

Por ejemplo:

# ifconfig vnet0 plumb
ifconfig: plumb: vnet0: no such interface

El número de instancia de un dispositivo virtual se muestra en la columna DEVICE del resultado de ldm list:

# ldm list -o network primary
NAME             
primary          

MAC
 00:14:4f:86:6a:64

VSW
 NAME         MAC               NET-DEV DEVICE   DEFAULT-VLAN-ID PVID VID MTU  MODE  
 primary-vsw0 00:14:4f:f9:86:f3 nxge0   switch@0 1               1        1500        

NETWORK
 NAME   SERVICE              DEVICE    MAC               MODE PVID VID MTU  
 vnet1  primary-vsw0@primary network@0 00:14:4f:f8:76:6d      1        1500

El número de instancia (0 para las opciones vnet y vsw mostradas anteriormente) se puede comparar con el número de instancia del archivo path_to_inst para asegurarse de que coinciden.

# egrep '(vnet|vsw)' /etc/path_to_inst
"/virtual-devices@100/channel-devices@200/virtual-network-switch@0" 0 "vsw"
"/virtual-devices@100/channel-devices@200/network@0" 0 "vnet"

Solución alternativa: en el caso de que los números de instancia no coincidan, elimine el dispositivo de red virtual o conmutador virtual. A continuación, para volver a agregarlos, especifique explícitamente el número de instancia necesario mediante la definición de la propiedad id.

También puede editar manualmente el archivo /etc/path_to_inst. Consulte la página del comando man path_to_inst(4).


Caution

Precaución  - No se deben realizar cambios en /etc/path_to_inst sin considerarlo detenidamente.


Los adaptadores NIU/XAUI recién agregados no están visibles para el sistema operativo del host si se configuró Logical Domains

ID de bug 15555509: cuando se configura Logical Domains en un sistema y se agrega otra tarjeta de red XAUI, la tarjeta no estará visible una vez que se apague y se vuelve a encender el equipo.

Recuperación: para que el XAUI recién agregado esté visible en el dominio de control, siga estos pasos:

  1. Defina y borre una variable ficticia en el dominio de control.

    Los comandos siguientes utilizan una variable ficticia denominada fix-xaui:

    # ldm set-var fix-xaui=yes primary
    # ldm rm-var fix-xaui primary
  2. Guarde la configuración modificada en el SP y sustituya la configuración actual.

    Los comandos siguientes utilizan un nombre de configuración de config1:

    # ldm rm-spconfig config1
    # ldm add-spconfig config1
  3. Realice un reinicio de reconfiguración del dominio de control.

    # reboot -- -r

    En este momento, puede configurar las nuevas redes disponibles para usarlas en Logical Domains.

Error grave en el dominio de E/S o el dominio invitado al iniciarse desde e1000g

ID de bug 15543982: puede configurar un máximo de dos dominios con complejos raíz PCIe dedicados en sistemas como Sun Fire T5240. Estos sistemas tienen dos CPU UltraSPARC T2 Plus y dos complejos raíz de E/S.

pci@500 y pci@400 son los dos complejos de raíz del sistema. El dominio primary siempre tendrá al menos un complejo de raíz. Se puede configurar un segundo dominio con un complejo de raíz no asignado o desenlazado.

Evite los siguientes dispositivos de red si se han configurado en un dominio no primary:

/pci@400/pci@0/pci@c/network@0,1
/pci@400/pci@0/pci@c/network@0

Cuando se cumplen estas condiciones, el dominio genera un error grave de PCIe.

Evite una configuración de este tipo o, si la configuración se utiliza, no inicie el sistema desde los dispositivos enumerados.

Los enlaces de puertos y grupos de consolas explícitos no se migran

ID de bug 15527921: durante una migración, se omiten todos los puertos o grupos de consolas asignados de forma explícita, y se crea una consola con propiedades predeterminadas para el dominio de destino. Esta consola se crea utilizando el nombre del dominio de destino como el grupo de consolas y cualquier puerto disponible en el primer concentrador de consola virtual (vcc) del dominio de control. Si hay un conflicto con el nombre de grupo predeterminado, la migración no se realiza correctamente.

Recuperación: para restaurar las propiedades explícitas de la consola tras una migración, desenlace el dominio de destino y establezca manualmente las propiedades deseadas con el comando ldm set-vcons.

La migración no produce errores si el valor vdsdev del destino tiene otro backend

ID de bug 15523133: si el disco virtual del equipo de destino no apunta al mismo backend de disco que se utiliza en el equipo de origen, el dominio migrado no puede acceder al disco virtual con ese backend de disco. Se puede producir un bloqueo al acceder al disco virtual del dominio.

Actualmente, Logical Domains Manager solo comprueba que los nombres del volumen de disco virtual coincidan en los equipos de origen y de destino. En este caso, no aparecerá ningún mensaje de error si no coinciden los backend de disco.

Solución alternativa: al configurar el dominio de destino para recibir un dominio migrado, asegúrese de que el volumen de disco (vdsdev) coincida con el back-end de disco utilizado en el dominio de origen.

La migración puede producir errores al enlazar la memoria aunque el destino tenga suficiente espacio disponible

ID de bug 15523120: en algunos casos, se produce un error de migración y ldmd informa que no se ha podido enlazar la memoria necesaria para el dominio de origen. Esta situación se puede producir aunque la cantidad total de memoria disponible en el equipo de destino sea mayor que la cantidad de memoria en uso en el dominio de origen.

Este fallo se produce porque la migración de rangos de memoria específicos utilizados por el dominio de origen requiere que también haya rangos de memoria compatibles disponibles en el destino. Cuando no hay ningún rango de memoria compatible para un rango de memoria en el origen, la migración no puede continuar.

Recuperación: si se detecta esta condición, es posible que pueda migrar el dominio si modifica el uso de la memoria en el equipo de destino. Para ello, desenlace cualquier dominio lógico enlazado o activo en el destino.

Utilice el comando ldm list-devices -a mem para ver qué memoria está disponible y cómo se utiliza. Es posible que también tenga que reducir la cantidad de memoria asignada a otro dominio.

Logical Domains Manager no se inicia si el equipo no está conectado a la red y se ejecuta un cliente NIS

ID de bug 15518409: si no tiene una red configurada en el equipo y hay un cliente del servicio de información de red (NIS) en ejecución, Logical Domains Manager no se iniciará en el sistema.

Solución alternativa: desactive el cliente NIS en el equipo no conectado a la red:

# svcadm disable nis/client
Logical Domains Manager muestra dominios migrados en estados de transición cuando ya se iniciaron

ID de bug 15516245: en ocasiones, un dominio lógico activo parece tener un estado de transición en lugar de un estado normal mucho después de iniciarse o tras la finalización de una migración de dominios. Este problema no es perjudicial, y el dominio funcionará correctamente. Para ver el indicador que está definido, compruebe el campo flags en el resultado del comando ldm list -l -p o compruebe el campo FLAGS en el comando ldm list, que mostrará -n---- para normal o -t---- para transición.

Recuperación: después del siguiente reinicio, el dominio muestra el estado correcto.

No se puede conectar con la consola del dominio migrado a menos que se reinicie vntsd

ID de bug 15513998: en ocasiones, después de que un dominio se ha migrado, no es posible conectarse a la consola de ese dominio.

Solución alternativa: reinicie el servicio SMF vntsd para desactivar las conexiones con la consola:

# svcadm restart vntsd

Notas - Este comando desconectará todas las conexiones activas de la consola.
A veces, al ejecutar el comando uadmin 1 0 en un sistema con Logical Domains, el sistema no vuelve al indicador OK

ID de bug 15511551: a veces, al ejecutar el comando uadmin 1 0 desde la línea de comandos de un sistema con Logical Domains, el sistema no regresa al indicador ok después de un reinicio posterior. Este comportamiento incorrecto se advierte cuando la variable auto-reboot? de Logical Domains está definida en true. Si auto-reboot? se ha definido en false, el comportamiento es el esperado.

Solución alternativa: utilice este comando en su lugar:

uadmin 2 0

O bien, siempre realice la ejecución con la variable auto-reboot? definida en false.

Logical Domains Manager puede tardar más de 15 minutos en cerrar un dominio

ID de bug 15505014: un cierre de dominio o una limpieza de memoria puede tardar más de 15 minutos con una sola CPU y una configuración de memoria de gran tamaño. Durante un cierre, las CPU de un dominio se utilizan para borrar toda la memoria que pertenece al dominio. El tiempo que tarda en completarse la limpieza puede ser bastante prolongado si hay una configuración no equilibrada, por ejemplo, un dominio con una única CPU y 512 GB de memoria. Este período de limpieza prolongado aumenta la cantidad de tiempo necesaria para cerrar un dominio.

Solución alternativa: asegúrese de que las configuraciones de memoria de gran tamaño (de más de 100 GB) tengan al menos un núcleo.

El comando scadm puede bloquearse tras un reinicio del SC o del SP

ID de bug 15469227: el comando scadm de un dominio de control que ejecuta como mínimo el Sistema operativo Oracle Solaris 10 5/08 se puede bloquear tras reiniciar el SC. El sistema no puede restablecer correctamente una conexión después de reiniciar el SC.

Recuperación: reinicie el host para restablecer la conexión con el SC.

La instalación en red simultánea de varios dominios no se realiza correctamente cuando tienen un grupo de consolas común

ID de bug 15453968: la instalación en red simultánea de varios dominios invitados no se realiza correctamente en los sistemas que tienen un grupo de consolas común.

Solución alternativa: solo realice una instalación en red de dominios invitados que tengan su propio grupo de consolas. Este error solo se observa en dominios que comparten un grupo de consolas común entre varios dominios de instalación en red.

Un dominio invitado con demasiadas redes virtuales en la misma red con DHCP puede dejar de responder

ID de bug 15422900: si configura más de cuatro redes virtuales (vnet) en un dominio invitado en la misma red con el protocolo de configuración dinámica de sistemas (DHCP), es posible que el dominio invitado deje de responder al ejecutar el tráfico de red.

Solución alternativa: establezca ip_ire_min_bucket_cnt e ip_ire_max_bucket_cnt en valores más altos, por ejemplo, 32 si dispone de 8 interfaces.

Recuperación: ejecute un comando ldm stop-domain ldom seguido de un comando ldm start-domain ldom en el dominio invitado (ldom) correspondiente.

El comando eeprom no puede modificar las variables de OpenBoot PROM cuando Logical Domains Manager está en ejecución

ID de bug 15387338: este problema se resume en Conservación de variables de Logical Domains y solo afecta el control de dominio.

No se pueden definir claves de seguridad cuando se ejecuta Logical Domains

ID de bug 15370442: el entorno con Logical Domains no permite definir ni suprimir claves de inicio de red de área amplia (WAN) desde el SO Oracle Solaris mediante el comando ickey(1M). Se produce el siguiente error en todas las operaciones ickey:

ickey: setkey: ioctl: I/O error

Además, las claves de inicio WAN que se definen con el firmware OpenBoot en dominios lógicos distintos del dominio de control no se recuerdan tras reiniciar el dominio. En estos dominios, las claves del firmware OpenBoot solamente son válidas para un único uso.

El comportamiento del comando ldm stop-domain puede resultar confuso

ID de bug 15368170: en algunos casos, el comportamiento del comando ldm stop-domain puede resultar confuso.

# ldm stop-domain -f ldom

Si el dominio se encuentra en el indicador del depurador del módulo de núcleo, kmdb(1), se produce el siguiente mensaje de error al ejecutar el comando ldm stop-domain:

LDom <domain-name> stop notification failed