JavaScript is required to for searching.
Omitir V�nculos de navegaci�n
Salir de la Vista de impresi�n
Notas de la versión de Oracle VM Server for SPARC 2.2     Oracle VM Server for SPARC (Español)
search filter icon
search icon

Información del documento

Prólogo

1.  Notas de la versión de Oracle VM Server for SPARC 2.2

Novedades de esta versión

Requisitos del sistema

Plataformas admitidas

Software y parches necesarios

SO Oracle Solaris necesario y recomendado

Software necesario para activar las funciones de Oracle VM Server for SPARC 2.2

Parches del firmware del sistema necesarios y recomendados

Versión mínima de software necesaria

Requisitos de hardware y software para E/S directa

Requisitos de hardware y software de SR-IOV PCIe

Requisitos de la migración en directo

Ubicación del software Oracle VM Server for SPARC 2.2

Ubicación de los parches

Ubicación de la documentación

Software relacionado

Software opcional

Software que puede utilizarse con Logical Domains Manager

Software del controlador del sistema que interactúa con el software Logical Domains

Actualización al software Oracle VM Server for SPARC 2.2

Problemas conocidos

Problemas generales

Actualización del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 5/08

El modo de omisión de MMU de E/S ya no es necesario

Procesador de servicio y controlador del sistema son términos intercambiables

En determinadas circunstancias, es posible que se pierdan la configuración o los metadispositivos de Oracle Solaris Volume Manager de un dominio invitado

Canales de dominio lógico y Logical Domains

Requisitos del tamaño de la memoria

Inicio de un gran número de dominios

Cierre y apagado y encendido sin errores de un sistema con Logical Domains

El tamaño de memoria solicitado puede ser diferente a la memoria asignada

Conservación de variables de Logical Domains

El agente de gestión de SNMP Sun de Oracle no admite varios dominios

Los contenedores, conjuntos de procesadores y grupos no son compatibles con la gestión de energía de la CPU

Gestión de errores

Reconfiguración retrasada

Unidades criptográficas

Comando ldmp2v convert: mensajes de advertencia de VxVM durante el inicio

El espacio de asociación ampliado solo está disponible en los sistemas operativos Oracle Solaris 10 8/11 y Oracle Solaris 11

Eliminación de la herramienta del asistente de configuración gráfica

Requisitos de partición física de Oracle para licencias de software

No se muestra la opción de actualización cuando se utiliza ldmp2v prepare -R

Un bloque de memoria agregada de forma dinámica solo se puede eliminar dinámicamente como un conjunto

Comando ldmp2v: el método de archivado ufsdump ya no se utiliza

Solo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada

Restricciones en la migración de dominios

Restricciones de versiones para la migración

Restricciones de CPU para la migración

Problemas de MIB de Oracle VM Server for SPARC

El comando snmptable no funciona con las versiones 2 o 3

Errores que afectan el software Oracle VM Server for SPARC 2.2

Los tejidos de PCIe no están disponibles para los dominios invitados cuando hay 11 dominios o más con dispositivos PCIe

ldmd termina de forma anómala en las operaciones tras cancelar una reconfiguración retrasada

Un dominio desenlazado con CPU desactivadas informa un número incorrecto de recursos de CPU

Error al volver a crear un dominio con funciones virtuales de PCIe desde un archivo XML

Mensaje de error incorrecto al pasar del uso de núcleos completos al uso de núcleos parciales en el dominio de control

El comando ldm init-system no puede volver a crear correctamente un dominio que tiene dispositivos de funciones virtuales

Es posible que Logical Domains Manager se bloquee y se reinicie al intentar modificar varios dominios al mismo tiempo

ldm init-system informa el error disk server not found

La configuración de las ranuras de unidifusión en un número que supera el límite máximo restablecerá el valor en 0

No se genera un error cuando se supera el número máximo de ranuras de unidifusión para las funciones físicas y virtuales ixgbe

El dominio de control requiere el núcleo más bajo del sistema

El daemon ldmd no se conecta

Tras cancelar una migración, los comandos ldm que se ejecutan en el sistema de destino no responden

Algunas tarjetas Emulex no funcionan cuando se asignan a un dominio de E/S

Error grave en dominio invitado al ejecutar el comando cputrack durante la migración a un sistema SPARC T4

Oracle Solaris 11: el robo de DRM informa errores y reintentos de DR en Oracle Solaris

Limitación del número máximo de funciones virtuales que se puede asignar a un dominio

Un dominio que utiliza la migración entre CPU informa tiempos de actividad aleatorios una vez completada la migración

ldm init-system -r -i XML-file no reinicia el dominio primary

Oracle Solaris 10: se puede producir un error grave en el controlador ixgbe cuando se inicia con una tarjeta de controlador Ethernet Intel X540 de puerto doble

La versión 8.2.0 del firmware del sistema contiene una nueva versión de la base de datos scvar

panic: BAD TRAP: occurred in module "pcie" due to an illegal access to a user address

Un dominio de control reconfigurado desde un archivo XML no puede eliminar correctamente los dispositivos de E/S

Un backend vdsdev no válido se identifica como una ruta válida

Después de desactivar la restricción de núcleo completo, la restricción vuelve a aparecer tras reiniciar el dominio primary

Destruir todas las funciones virtuales y regresar las ranuras al dominio raíz no restaura los recursos del complejo de raíz

ldm start devuelve incorrectamente 0 en vez de 1 cuando no puede iniciar un dominio invitado

No se debe permitir ldm remove-io en las tarjetas PCIe que tienen puentes de PCIe a PCI

El comando ldm stop puede generar un error si se ejecuta inmediatamente después de un comando ldm start

Usar ldm set-io para cambiar el valor pvid dos veces seguidas puede generar un error de configuración

Se produce un error grave en el sistema cuando se reinicia un dominio primary que tiene un gran número de funciones virtuales asignadas

Mensaje de error de SR-IOV impreciso: Create vf failed

Sistema operativo Oracle Solaris 11: el uso de la función de E/S directa para eliminar varias ranuras PCIe del dominio primary en un sistema SPARC T-Series de varios sockets puede provocar un error grave en el inicio

El núcleo parcial primary no permite las transiciones de la DR de núcleo completo

Tras reiniciar el dominio primary, las funciones virtuales igb e ixgbe asignadas al dominio primary se vuelven defectuosas

ldmconfig solo se admite en los sistemas Oracle Solaris 10

El comando ldm list-io muestra el estado UNK o INV tras el inicio

No se puede desconectar el controlador de la tarjeta de interfaz de red

MIB de Oracle VM Server for SPARC solo se admite en los sistemas Oracle Solaris 10

Migrar un dominio con una gran cantidad de memoria en SPARC T4-4 genera un error grave del dominio en el sistema de destino

Eliminación de una gran cantidad de CPU de un dominio invitado

Un dominio con mucha memoria puede tardar bastante en detenerse en el modo elástico

No es posible usar las operaciones de conexión en caliente de Oracle Solaris para eliminar en caliente un dispositivo de punto final PCIe

Error de validación de disco virtual para un disco físico sin el segmento 2

El comando nxge genera un error grave al migrar un dominio invitado que tiene dispositivos de red virtual de E/S híbrida y de E/S virtual

Todos los comandos ldm se bloquean cuando faltan recursos NFS compartidos en las migraciones

ldmd no elimina núcleos de un dominio con núcleos parciales

El servicio del agente de Logical Domains no se conecta si el servicio de registro del sistema tampoco se conecta

El interbloqueo de los núcleos provoca el bloqueo del equipo durante una migración

La DRM y el resultado de ldm list muestran un número de CPU virtuales diferente del que realmente hay en el dominio invitado

La migración en directo de un dominio que depende de un dominio maestro inactivo en el equipo de destino genera un error de segmentación en ldmd

DRM no puede restaurar el número predeterminado de CPU virtuales para un dominio migrado cuando se elimina o caduca la política

Errores de tiempo de espera de CPU virtuales durante la DR

El motivo del error de la migración no se informa cuando la dirección MAC del sistema entra en conflicto con otra dirección MAC

Las operaciones de migración simultáneas en "dirección opuesta" pueden generar un bloqueo de ldm

Eliminación de un gran número de CPU del dominio de control

Un sistema que tiene definida la política elástica y que ejecuta el sistema operativo Oracle Solaris 10 8/11 puede bloquearse

pkgadd no puede definir las entradas ACL en /var/svc/manifest/platform/sun4v/ldmd.xml

SPARC T3-1: detectar y controlar los discos a los que se puede acceder a través de varias rutas de E/S directa

Las operaciones de eliminación de la DR de memoria con varias instancias nxge de NIU asociadas se pueden bloquear de forma indefinida y nunca completarse

Al usar el comando ldm stop -a en dominios con una relación de maestro-esclavo, el esclavo conserva el indicador stopping

La migración de un dominio que tiene activada la política DRM predeterminada da como resultado la asignación de todas las CPU disponibles a un dominio de destino

Es posible reasignar una dirección MAC en uso

ldmconfig no puede crear una configuración de dominio en el SP

La migración de dominios de Oracle Solaris sin cooperación se puede bloquear si cpu0 está desconectado

La DR de memoria se desactiva tras una migración cancelada

La reconfiguración dinámica de los valores MTU de dispositivos de red virtual a veces produce errores

El dominio migrado con MAU contiene solo una CPU cuando el sistema operativo de destino no admite la DR de unidades criptográficas

Mensaje de error de migración confuso para errores de enlace de memoria en la dirección real

La eliminación dinámica de todas las unidades criptográficas de un dominio provoca la terminación de SSH

La tarjeta Ethernet de fibra de 10 gigabits dual PCI Express muestra cuatro subdispositivos en el resultado de ldm list-io -l

Los comandos ldm responden con lentitud cuando se inician varios dominios

Es posible que un dominio invitado no se reinicie correctamente cuando un sistema se encuentra en el modo elástico de gestión de energía

El dominio invitado a veces no realiza correctamente la conexión entre los servicios de dominio y el dominio de control

Oracle Solaris 11: es posible que no se inicien las zonas configuradas con una interfaz de red automática

Oracle Solaris 10: los dispositivos de red virtual no se crean correctamente en el dominio de control

Los adaptadores NIU/XAUI recién agregados no están visibles para el sistema operativo del host si se configuró Logical Domains

Error grave en el dominio de E/S o el dominio invitado al iniciarse desde e1000g

Los enlaces de puertos y grupos de consolas explícitos no se migran

La base de datos de restricciones no está sincronizada con la configuración guardada

La migración no produce errores si el valor vdsdev del destino tiene otro backend

La migración puede producir errores al enlazar la memoria aunque el destino tenga suficiente espacio disponible

Logical Domains Manager no se inicia si el equipo no está conectado a la red y se ejecuta un cliente NIS

Logical Domains Manager muestra dominios migrados en estados de transición cuando ya se iniciaron

No se puede conectar con la consola del dominio migrado a menos que se reinicie vntsd

A veces, al ejecutar el comando uadmin 1 0 en un sistema con Logical Domains, el sistema no vuelve al indicador OK

Logical Domains Manager puede tardar más de 15 minutos en cerrar un dominio

Si el sistema operativo Oracle Solaris 10 5/08 está instalado en un dominio de servicio, la instalación se puede bloquear si se intenta realizar un inicio de red de Oracle Solaris 10 8/07 en cualquier dominio invitado gestionado por dicho dominio

La instalación en red simultánea de varios dominios no se realiza correctamente cuando tienen un grupo de consolas común

El comando scadm puede bloquearse tras un reinicio del SC o del SP

Mensajes de advertencia ldc_close: (0xb) unregister failed, 11

Un dominio invitado con demasiadas redes virtuales en la misma red con DHCP puede dejar de responder

Logical Domains Manager no retira recursos en el dominio invitado tras un error grave y un reinicio

Las variables de PROM de OpenBoot no se pueden modificar mediante el comando eeprom(1M) cuando se ejecuta Logical Domains Manager

No se pueden definir claves de seguridad cuando se ejecuta Logical Domains

El comportamiento del comando ldm stop-domain puede resultar confuso

Problemas resueltos

Problemas conocidos

Esta sección contiene problemas generales y errores específicos relativos al software Oracle VM Server for SPARC 2.2.

Problemas generales

En esta sección se describen los problemas conocidos de esta versión del software Oracle VM Server for SPARC que son más generales que un número de error específico. Cuando es posible, se indican soluciones provisionales.

Actualización del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 5/08

Si el dominio de control se actualiza de una versión del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 5/08 (o sin el parche 127127-11) y si se exportaron los volúmenes de Volume Manager como discos virtuales, se deben volver a exportar los backend de discos virtuales con options=slice después de actualizar Logical Domains Manager. Consulte Exportación de volúmenes y compatibilidad con versiones anteriores de Guía de administración de Oracle VM Server for SPARC 2.2.

El modo de omisión de MMU de E/S ya no es necesario

A partir de Oracle VM Server for SPARC 2.0, el modo de omisión de la unidad de gestión de memoria (MMU) de E/S ya no es necesario. Como resultado, la propiedad bypass=on ya no estará disponible para que la utilice el comando ldm add-io.

Procesador de servicio y controlador del sistema son términos intercambiables

En la documentación de Oracle VM Server for SPARC, los términos procesador de servicio (SP) y controlador del sistema (SC) son intercambiables.

En determinadas circunstancias, es posible que se pierdan la configuración o los metadispositivos de Oracle Solaris Volume Manager de un dominio invitado

Si un dominio de servicio utiliza una versión del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 8/11 y exporta un segmento de un disco físico como disco virtual a un dominio invitado, este disco virtual aparecerá en el dominio invitado con un ID de dispositivo incorrecto. Si ese dominio de servicio se actualiza luego a Oracle Solaris 10 8/11, el segmento del disco físico exportado como disco virtual aparecerá en el dominio invitado sin ningún ID de dispositivo.

Esta eliminación del ID de dispositivo del disco virtual puede causar problemas en las aplicaciones que intentan hacer referencia al ID de dispositivo de los discos virtuales. En concreto, esto puede provocar que Oracle Solaris Volume Manager no encuentre su configuración o no pueda acceder a sus metadispositivos.

Solución provisional: tras actualizar un dominio de servicio a Oracle Solaris 10 8/11, si un dominio invitado no encuentra la configuración o los metadispositivos de Oracle Solaris Volume Manager, realice el siguiente procedimiento.

Buscar la configuración o los metadispositivos de Oracle Solaris Volume Manager de un dominio invitado

  1. Inicie el dominio invitado.
  2. Para desactivar la función devid de Oracle Solaris Volume Manager, agregue las siguientes líneas al archivo /kernel/dr/md.conf:
    md_devid_destroy=1;
    md_keep_repl_state=1;
  3. Reinicie el dominio invitado.

    Una vez iniciado el dominio, la configuración y los metadispositivos de Oracle Solaris Volume Manager deben estar disponibles.

  4. Compruebe la configuración de Oracle Solaris Volume Manager y asegúrese de que sea correcta.
  5. Vuelva a activar la función devid de Oracle Solaris Volume Manager. Para ello, elimine del archivo /kernel/drv/md.conf las dos líneas que agregó en el paso 2.
  6. Reinicie el dominio invitado.

    Durante el reinicio, aparecerán mensajes similares a los siguientes:

    NOTICE: mddb: unable to get devid for 'vdc', 0x10

    Estos mensajes son normales y no informan ningún problema.

Canales de dominio lógico y Logical Domains

Existe un límite en el número de canales de dominio lógico (LDC) que están disponibles en cualquier dominio lógico. En los servidores UltraSPARC T2, SPARC T3-1, SPARC T3-1B, SPARC T4-1 y SPARC T4-1B, el límite es 512. En los servidores UltraSPARC T2 Plus y los otros servidores SPARC T3 y SPARC T4, el límite es 768. Esto solo representa un problema para el dominio de control porque este dominio tiene asignado parte del subsistema de E/S o todo el subsistema. Esto también puede representar un problema debido a la gran cantidad de LDC que se pueden crear para las comunicaciones de datos de E/S virtuales y el control de Logical Domains Manager de los otros dominios lógicos.

Si intenta agregar un servicio o enlazar un dominio, de manera que el número de canales LDC supere el límite del dominio de control, la operación no se realizará correctamente y aparecerá un mensaje de error similar al siguiente:

13 additional LDCs are required on guest primary to meet this request,
but only 9 LDCs are available

Si tiene una gran cantidad de dispositivos de red virtual conectados al mismo conmutador virtual, puede reducir el número de canales LDC asignados si utiliza el comando ldm add-vsw o ldm set-vsw para definir entrevnet-link=off. Cuando esta propiedad se establece en off, los canales LDC no se utilizan para las comunicaciones entre redes virtuales. En lugar de ello, se asigna un canal LDC solo para la comunicación entre los dispositivos de red virtual y los dispositivos de conmutador virtual. Consulte la página de comando man ldm(1M).


Nota - Desactivar la asignación de canales entre redes virtuales reduce el número de LDC, pero puede afectar el rendimiento de las redes entre invitados.


Las siguientes directrices pueden evitar la creación de una configuración que desborde las capacidades de LDC del dominio de control:

  1. El dominio de control asigna aproximadamente 15 LDC para diferentes cuestiones de comunicación con el hipervisor, la arquitectura de gestión de errores (FMA, Fault Management Architecture) y el controlador del sistema (SC), sin importar el número de otros dominios lógicos configurados. El número exacto de canales LDC asignado por el dominio de control depende de la plataforma y la versión del software que se utiliza.

  2. El dominio de control asigna 1 LDC a cada dominio lógico, incluso a sí mismo, para el control del tráfico.

  3. Cada servicio de E/S virtual del dominio de control consume 1 LDC por cada cliente conectado de ese servicio.

Por ejemplo, supongamos que existe un dominio de control y 8 dominios lógicos adicionales. Cada dominio lógico necesita al menos lo siguiente:

Al aplicar las directrices anteriores, se obtienen los siguientes resultados (los números entre paréntesis corresponden al número de directriz anterior del que procede el valor):

15(1) + 9(2) + 8 x 3(3) = 48 LDC en total

Ahora supongamos que existen 45 dominios en lugar de 8, y que cada dominio incluye 5 discos virtuales, 5 redes virtuales y una consola virtual. En este caso, la ecuación es la siguiente:

15 + 46 + 45 x 11 = 556 LDC en total

En función del número de LDC que admita la plataforma, Logical Domains Manager aceptará o rechazará las configuraciones.

Requisitos del tamaño de la memoria

El software Oracle VM Server for SPARC no impone un límite de tamaño de memoria al crear un dominio. El requisito de tamaño de memoria es una característica del sistema operativo invitado. Es posible que algunas características de Oracle VM Server for SPARC no funcionen si la cantidad de memoria es inferior al tamaño recomendado. Para conocer los requisitos de memoria recomendados y mínimos del sistema operativo Oracle Solaris 10, consulte Requisitos del sistema y recomendaciones de Guía de instalación de Oracle Solaris 10 8/11: planificación de la instalación y la actualización. Para conocer los requisitos de memoria recomendados y mínimos del sistema operativo Oracle Solaris 11, consulte Notas de la versión de Oracle Solaris 11 .

La PROM OpenBoot tiene una restricción de tamaño mínimo para un dominio. Actualmente, dicha restricción es de 12 MB. Si tiene un dominio menor que ese tamaño, Logical Domains Manager aumentará automáticamente el tamaño del dominio a 12 MB. Consulte las notas de la versión del firmware del sistema para obtener información acerca de los requisitos de tamaño de memoria.

La característica de reconfiguración dinámica (DR) de memoria exige una alineación de 256 MB en la dirección y el tamaño de la memoria implicada en una determinada operación. Consulte Alineación de memoria de Guía de administración de Oracle VM Server for SPARC 2.2.

Inicio de un gran número de dominios

Puede iniciar el siguiente número de dominios en función de su plataforma:

Si hay CPU virtuales sin asignar disponibles, asígnelas al dominio de servicio para ayudar a procesar las solicitudes de E/S virtuales. Asigne de 4 a 8 CPU virtuales al dominio de servicio al crear más de 32 dominios. En los casos en que el número máximo de configuraciones de dominio tiene una única CPU en el dominio de servicio, no someta a esa única CPU a demasiado trabajo al configurar y utilizar el dominio. Los servicios del conmutador virtual (vsw) deben propagarse por todos los adaptadores de red disponibles en el equipo. Por ejemplo, si se inician 128 dominios en un servidor Sun SPARC Enterprise T5240, cree 4 servicios vsw, cada uno con 32 instancias de red virtual (vnet). No cree más de 32 instancias vnet por cada servicio vsw, ya que si la cantidad vinculada a un único vsw es mayor, se puede generar un bloqueo físico en el dominio de servicio.

Para ejecutar el número máximo de configuraciones, un equipo necesita una cantidad de memoria adecuada para admitir los dominios invitados. La cantidad de memoria depende de la plataforma y del sistema operativo. Consulte la documentación de la plataforma en Guía de instalación de Oracle Solaris 10 8/11: planificación de la instalación y la actualización y en Instalación de sistemas Oracle Solaris 11.

El uso de espacio de intercambio y memoria aumenta en un dominio invitado cuando los servicios vsw utilizados por el dominio prestan servicios a varias redes virtuales (en varios dominios). Ello se debe a los vínculos en el mismo nivel que existen entre todos los vnet conectados a vsw. El dominio de servicio se beneficia de la memoria adicional. Se recomiendan 4 GB como mínimo al ejecutar más de 64 dominios. Inicie los dominios en grupos de 10 o menos y espere a que se inicien antes de ponerse en marcha con el siguiente lote. El mismo consejo se aplica a la instalación de sistemas operativos en dominios. Puede reducir el número de vínculos si desactiva los canales entre redes virtuales. Consulte Canales LDC entre redes virtuales de Guía de administración de Oracle VM Server for SPARC 2.2.

Cierre y apagado y encendido sin errores de un sistema con Logical Domains

Si ha realizado algún cambio de configuración desde la última vez que guardó una configuración en el SC, antes de intentar cerrar o apagar y volver a encender un sistema con Logical Domains, asegúrese de guardar la última configuración que desea conservar.

Apagado de un sistema con varios dominios activos

  1. Cierre, detenga y desenlace todos los dominios que no son de E/S.
  2. Cierre, detenga y desenlace los dominios de E/S activos.
  3. Detenga el dominio primary.

    Como no hay otros dominios enlazados, el firmware apaga el sistema automáticamente.

Apagado y encendido del sistema

  1. Cierre, detenga y desenlace todos los dominios que no son de E/S.
  2. Cierre, detenga y desenlace los dominios de E/S activos.
  3. Reinicie el dominio primary.

    Como no hay otros dominios enlazados, el firmware apaga y vuelve a encender el sistema automáticamente antes de reiniciarlo. Al reiniciar el sistema, éste se inicia con la configuración de Logical Domains guardada por última vez o definida de manera explícita.

El tamaño de memoria solicitado puede ser diferente a la memoria asignada

En determinadas circunstancias, Logical Domains Manager redondea la asignación de memoria solicitada al siguiente múltiplo mayor de 8 KB o 4 MB. Esto puede observarse en el siguiente ejemplo del comando ldm list-domain -l, donde el valor límite es menor que el tamaño asignado real:

Memory:
          Constraints: 1965 M
          raddr          paddr5          size
          0x1000000      0x291000000     1968M

Conservación de variables de Logical Domains

Las actualizaciones de variables se conservan tras reiniciar el sistema, pero no tras apagar y volver a encender el sistema, a menos que las actualizaciones de variables se inicien desde el firmware OpenBoot en el dominio de control o que posteriormente se guarde la configuración en el SC.

En este contexto, es importante tener en cuenta que el reinicio del dominio de control puede apagar y volver a encender el sistema:

Las variables de Logical Domains de un dominio se pueden especificar mediante uno de los siguientes métodos:

El objetivo es que las actualizaciones de variables que se realizan con uno de estos métodos se conserven siempre tras reiniciar el dominio. Las actualizaciones de variables también se reflejan siempre en las configuraciones de dominios lógicos posteriores que se guardaron en el SC.

En el software Oracle VM Server for SPARC 2.2, existen algunos casos en los que las actualizaciones de variables no se conservan del modo esperado:

Si le preocupan los cambios en las variables de Logical Domains, siga uno de estos pasos:

Si modifica la fecha o la hora de un dominio lógico, por ejemplo, mediante el comando ntpdate, el cambio se conserva tras reiniciar el dominio, pero no tras apagar y volver a encender el host. Para asegurarse de que los cambios se conserven, guarde la configuración con el cambio de fecha/hora en el SP y efectúe el inicio desde esa configuración.

Se documentaron los siguientes ID de error para resolver estos problemas: 6520041, 6540368, 6540937 y 6590259.

El agente de gestión de SNMP Sun de Oracle no admite varios dominios

El agente de gestión del Protocolo simple de administración de redes (SNMP) Sun no admite varios dominios. Solo se admite un único dominio global.

Los contenedores, conjuntos de procesadores y grupos no son compatibles con la gestión de energía de la CPU

El uso de la reconfiguración dinámica (DR) de CPU para apagar CPU virtuales no funciona con conjuntos de procesadores, grupos de recursos ni con la función de CPU dedicada de la zona.

Cuando se utiliza la política elástica de gestión de energía de la CPU, el invitado del SO Oracle Solaris solo ve las CPU asignadas a los dominios conectados. Eso significa que el resultado del comando psrinfo(1M) cambia de manera dinámica según la cantidad de CPU que actualmente tienen activada la función de gestión de energía. Esto genera un problema con los conjuntos de procesadores y los grupos, que requieren ID de CPU reales estáticos para poder asignarlos a sus conjuntos. Esto también puede afectar la función de CPU dedicada de la zona.

Solución provisional: establezca la política de gestión de energía en la política de rendimiento.

Gestión de errores

Existen varios problemas relacionados con FMA y las CPU con gestión de energía. Si una CPU presenta un error cuando se ejecuta con la política elástica definida, cambie a la política de rendimiento hasta que se recupere la CPU con errores. Si se recuperan todas las CPU con errores, se puede volver a utilizar la política elástica.

Reconfiguración retrasada

Cuando un dominio primary tiene el estado de reconfiguración retrasada, la gestión de energía de las CPU solo se activará una vez que se reinicie el dominio primary. Esto significa que la gestión de energía de la CPU no activará más CPU mientras el dominio utilice una carga elevada hasta que se reinicie el dominio primary, lo que anula el estado de reconfiguración retrasada.

Unidades criptográficas

El sistema operativo Oracle Solaris 10 10/09 incluye la capacidad de agregar y eliminar de forma dinámica unidades criptográficas de un dominio. Este proceso se denomina reconfiguración dinámica (DR) de unidades criptográficas. Logical Domains Manager detecta automáticamente si un dominio permite la DR de unidades criptográficas y solo activa la función para esos dominios. Además, la DR de CPU ya no está desactivada en los dominios que tienen unidades criptográficas enlazadas y que utilizan una versión adecuada del SO Oracle Solaris.

No se realizan operaciones de desactivación del núcleo en los dominios que tienen unidades criptográficas enlazadas cuando el SP se establece en la política elástica. Para activar las operaciones de desactivación del núcleo cuando el sistema tiene establecida la política elástica, elimine las unidades criptográficas que están enlazadas al dominio.

Comando ldmp2v convert: mensajes de advertencia de VxVM durante el inicio

La versión Veritas Volume Manager (VxVM) 5.x en el sistema operativo Oracle Solaris 10 es la única versión compatible (probada) con la herramienta P2V de Oracle VM Server for SPARC. También pueden funcionar versiones anteriores de VxVM, como 3.x y 4.x con los sistemas operativos Solaris 8 y Solaris 9. En esos casos, el primer inicio tras la ejecución del comando ldmp2v convert puede mostrar mensajes de advertencia de los controladores de VxVM. Puede omitir estos mensajes. Puede eliminar los paquetes VRTS* anteriores después del inicio del dominio invitado.

Boot device: disk0:a File and args:
SunOS Release 5.10 Version Generic_139555-08 64-bit
Copyright 1983-2009 Sun Microsystems, Inc. All rights reserved.
Use is subject to license terms.
Hostname: normaal
Configuring devices.
/kernel/drv/sparcv9/vxdmp: undefined symbol ?romp?
WARNING: mod_load: cannot load module ?vxdmp?
WARNING: vxdmp: unable to resolve dependency, module ?misc/ted? not found
/kernel/drv/sparcv9/vxdmp: undefined symbol ?romp?
WARNING: mod_load: cannot load module ?vxdmp?
WARNING: vxdmp: unable to resolve dependency, module ?misc/ted? not found
/kernel/drv/sparcv9/vxio: undefined symbol ?romp?
WARNING: mod_load: cannot load module ?vxio?
WARNING: vxio: unable to resolve dependency, module ?drv/vxdmp? not found
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
NOTICE: VxVM not started

El espacio de asociación ampliado solo está disponible en los sistemas operativos Oracle Solaris 10 8/11 y Oracle Solaris 11

El espacio de asociación ampliado solo está disponible en los sistemas operativos Oracle Solaris 10 8/11 y Oracle Solaris 11. De forma predeterminada, esta función está desactivada.

Puede utilizar los comandos ldm add-domain o ldm set-domain para activar el modo mediante la configuración de extended-mapin-space=on en un dominio con el sistema operativo Oracle Solaris 10 8/11 o Oracle Solaris 11. Consulte la página de comando man ldm(1M).

Eliminación de la herramienta del asistente de configuración gráfica

A partir de Oracle VM Server for SPARC 2.1, solo está disponible la herramienta del asistente de configuración basado en terminal, ldmconfig. La herramienta de la interfaz gráfica de usuario ya no está disponible.

Requisitos de partición física de Oracle para licencias de software

Para obtener información sobre los requisitos de partición física de Oracle para las licencias de software, consulte Partición: partición de servidor/hardware.

No se muestra la opción de actualización cuando se utiliza ldmp2v prepare -R

El instalador de Oracle Solaris no muestra la opción de actualización cuando la etiqueta de partición del segmento que contiene el sistema de archivos raíz (/) no se definió en root. Esta situación se produce si no se configura la etiqueta de forma explícita al etiquetar el disco de inicio del invitado. Puede usar el comando format para definir la etiqueta de partición como se indica a continuación:

AVAILABLE DISK SELECTIONS:
       0. c0d0 <SUN-DiskImage-10GB cyl 282 alt 2 hd 96 sec 768>
          /virtual-devices@100/channel-devices@200/disk@0
       1. c4t2d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@400/pci@0/pci@1/scsi@0/sd@2,0
       2. c4t3d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@400/pci@0/pci@1/scsi@0/sd@3,0
Specify disk (enter its number)[0]: 0
selecting c0d0
[disk formatted, no defect list found]
format> p


PARTITION MENU:
        0      - change `0' partition
        1      - change `1' partition
        2      - change `2' partition
        3      - change `3' partition
        4      - change `4' partition
        5      - change `5' partition
        6      - change `6' partition
        7      - change `7' partition
        select - select a predefined table
        modify - modify a predefined partition table
        name   - name the current table
        print  - display the current table
        label  - write partition map and label to the disk
        !<cmd> - execute <cmd>, then return
        quit

partition> 0
Part      Tag    Flag     Cylinders       Size            Blocks
  0 unassigned    wm       0              0         (0/0/0)          0

Enter partition id tag[unassigned]: root
Enter partition permission flags[wm]:
Enter new starting cyl[0]: 0
Enter partition size[0b, 0c, 0e, 0.00mb, 0.00gb]: 8g
partition> label
Ready to label disk, continue? y

partition>

Un bloque de memoria agregada de forma dinámica solo se puede eliminar dinámicamente como un conjunto

Un bloque de memoria agregada de forma dinámica solo se puede eliminar dinámicamente como un conjunto. Es decir, no se puede eliminar dinámicamente un subconjunto de ese bloque de memoria.

Esta situación se puede presentar si un dominio con una memoria de tamaño pequeño aumenta de forma dinámica a un tamaño mucho mayor, como se muestra en el siguiente ejemplo:

# ldm list ldom1
NAME  STATE FLAGS   CONS VCPU MEMORY UTIL UPTIME
ldom1 active -n---- 5000 2    1G     0.4% 23h

# ldm add-mem 16G ldom1

# ldm rm-mem 8G ldom1
Memory removal failed because all of the memory is in use.

# ldm rm-mem 16G ldom1

# ldm list ldom1
NAME  STATE FLAGS   CONS VCPU MEMORY UTIL UPTIME
ldom1 active -n---- 5000 2    1G     0.4% 23h

Solución provisional: agregue memoria dinámicamente en cantidades menores para reducir la probabilidad de que se produzca esta condición.

Recuperación: reinicie el dominio.

Comando ldmp2v: el método de archivado ufsdump ya no se utiliza

Si se restauran los archivos ufsdump en un disco virtual del que un archivo de un sistema de archivos UFS realiza copias de seguridad, es posible que se bloquee el sistema. En ese caso, se terminará el comando ldmp2v prepare. Es posible que se presente este problema al restaurar manualmente los archivos ufsdump como parte de la preparación para el comando ldmp2v prepare -R /altroot cuando el disco virtual es un archivo que se encuentra en un sistema de archivos UFS. Para mantener la compatibilidad con los archivos ufsdump creados anteriormente, puede seguir utilizando el comando ldmp2v prepare para restaurar los archivos ufsdump en los discos virtuales cuyas copias se seguridad no se realicen en un archivo de un sistema de archivos UFS. Sin embargo, no se recomienda usar archivos ufsdump.

Solo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada

No intente realizar más de una operación de configuración de CPU en el dominio primary mientras se encuentra en una reconfiguración retrasada. Si intenta realizar más solicitudes de configuración de CPU, estas se rechazarán.

Solución provisional: realice una de las acciones siguientes:

Restricciones en la migración de dominios

En las siguientes secciones se describen las restricciones para la migración de dominios. Las versiones del software Logical Domains Manager y del firmware del sistema deben ser compatibles para permitir las migraciones. Además, debe cumplir determinados requisitos de CPU para garantizar una migración de dominios correcta.

Restricciones de versiones para la migración

Los equipos de origen y de destino deben ejecutar como mínimo la versión 2.1 de Logical Domains Manager.

En los siguientes ejemplos se muestran los mensajes que aparecen cuando se ejecutan versiones anteriores de Logical Domains Manager, el firmware del sistema o ambos:

Restricciones de CPU para la migración

Si el dominio que se migrará ejecuta una versión del SO Oracle Solaris anterior al sistema operativo Oracle Solaris 10 8/11, es posible que aparezca el siguiente mensaje durante la migración:

Domain domain-name is not running an operating system that is
compatible with the latest migration functionality.

Los siguientes requisitos y restricciones de CPU se aplican solo cuando se ejecuta un sistema operativo anterior a Oracle Solaris 10 8/11:

Estas restricciones también se aplican cuando intenta migrar un dominio que se ejecuta en OpenBoot o en el depurador del núcleo. Consulte Migración de un dominio desde una PROM OpenBoot o un dominio que ejecuta el depurador de núcleo de Guía de administración de Oracle VM Server for SPARC 2.2.

Problemas de MIB de Oracle VM Server for SPARC

En esta sección se resumen los problemas que pueden surgir al utilizar el software Base de datos de información de administración (MIB) de Oracle VM Server for SPARC.


Nota - El software MIB de Oracle VM Server for SPARC solo está disponible en los sistemas Oracle Solaris 10.


El comando snmptable no funciona con las versiones 2 o 3

ID de error 6521530: recibe tablas SNMP vacías si consulta el software MIB de Oracle VM Server for SPARC 2.1 mediante el comando snmptable con la opción -v2c o -v3. El comando snmptable funciona del modo esperado con la opción -v1.

Solución provisional: utilice la opción -CB para usar solo las consultas GETNEXT, no GETBULK, para recuperar datos. Consulte Cómo recuperar objetos de la MIB de Oracle VM Server for SPARC de Guía de administración de Oracle VM Server for SPARC 2.2.

Errores que afectan el software Oracle VM Server for SPARC 2.2

En esta sección se resumen los errores que pueden surgir al utilizar esta versión del software. Las descripciones de los errores están ordenadas de forma numérica por ID de error. Se especifican las soluciones provisionales y los procedimientos de recuperación disponibles.

Los tejidos de PCIe no están disponibles para los dominios invitados cuando hay 11 dominios o más con dispositivos PCIe

ID de error 7166620: si se reinicia el dominio de control cuando hay 11 dominios invitados o más con dispositivos de punto final PCIe asignados, no es posible acceder a los dispositivos PCIe en el dominio invitado.

Recuperación: detenga y reinicie los dominios invitados afectados.

Solución provisional: configure una relación de dependencia entre el dominio de control y los dominios invitados que tengan asignados dispositivos de punto final PCIe. La siguiente relación de dependencia garantiza que los dominios con dispositivos de punto final PCIe se detengan automáticamente cuando el dominio de control se reinicia por algún motivo:

primary# ldm set-domain failure-policy=stop primary
primary# ldm set-domain master=primary ldom

ldmd termina de forma anómala en las operaciones tras cancelar una reconfiguración retrasada

ID de error 7165095 y 7165101: en un sistema que tiene dominios SR-IOV o de E/S directa, si se cancela una reconfiguración retrasada y luego se realiza una operación de reconfiguración posterior, el daemon ldmd termina de forma anómala y genera un archivo core. El servicio SMF ldmd también puede pasar al modo de mantenimiento.

Solución provisional: evite usar el comando ldm cancel-reconf. Si debe cancelar o si ya ha cancelado la reconfiguración retrasada, reinicie el servicio SMF ldmd antes de realizar otras operaciones ldm.

# scvadm restart ldmd

Recuperación: si el servicio SMF ldmd pasa al modo de mantenimiento, debe apagar y volver a encender el sistema para poder restaurar el servicio ldmd.

A continuación, se muestra cómo apagar y volver a encender el sistema desde el dominio de control y desde el procesador de servicio (SP):

Un dominio desenlazado con CPU desactivadas informa un número incorrecto de recursos de CPU

ID de error 7160502: es posible que, si existen CPU desactivadas, Logical Domains Manager informe un número incorrecto de recursos de CPU. En el ejemplo siguiente se muestra cómo al desenlazar un dominio se cambia incorrectamente el recuento de recursos de CPU del dominio:

# ldm list
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  UPTIME
primary          active     -n-cv-  UART    9     4G       0.2%  1h 5m
ldg1             bound      ------  5000    116   2G
# ldm unbind ldg1
# ldm list
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  UPTIME
primary          active     -n-cv-  UART    9     4G       1.1%  1h 5m
ldg1             inactive   ------          120   2G

En este punto, el número de recursos de CPU es incorrecto. El recuento del dominio ldg1 debe ser 116 y no 120 como se muestra después de desenlazar el dominio.


Nota - Este es solo un ejemplo y posiblemente existan otras situaciones en las que el recuento de CPU es incorrecto debido a la presencia de CPU desactivadas. En esos casos, utilice el enfoque que se presenta en la solución provisional.


Solución provisional: si es posible, evite usar núcleos con CPU desactivadas. De lo contrario, cuando desenlace un dominio que tiene núcleos desactivados, asegúrese de restablecer el número de CPU a la cantidad correcta, de forma que el dominio se pueda volver a enlazar más adelante.

Para volver a enlazar el dominio, debe restablecer el número de recursos de CPU. Por ejemplo:

# ldm set-vcpu 116 ldg1
# ldm bind ldg1

Error al volver a crear un dominio con funciones virtuales de PCIe desde un archivo XML

ID de error 7159359: es posible que se produzca un problema al intentar volver a crear una configuración desde un archivo XML que representa las restricciones de funciones virtuales de manera incorrecta.

Este problema se produce cuando utiliza el comando ldm list-constraints -x para guardar la configuración de un dominio que tiene funciones virtuales de PCIe.

Si más adelante vuelve a crear el dominio con el comando ldm add-domain -i, las funciones virtuales originales no estarán presentes y se mostrará el siguiente mensaje error al intentar enlazar un dominio:

No free matching PCIe device...

Incluso si crea las funciones virtuales que faltan, se produce el mismo mensaje de error al intentar enlazar otro dominio, ya que el comando ldm add-domain clasifica de manera incorrecta las funciones virtuales como dispositivos PCIe.

Solución provisional: utilice el comando ldm list-io para guardar la información sobre las funciones virtuales y, a continuación, utilice el comando ldm rm-dom para destruir cada dominio afectado. Luego, utilice el comando ldm create-vf para crear todas las funciones virtuales necesarias. Ahora, puede usar el comando ldm para volver a crear los dominios. Cuando utiliza el comando ldm add-io para agregar las funciones virtuales, estas se clasifican correctamente como un dispositivo de funciones virtuales, por lo que el dominio se puede enlazar.

Para obtener información sobre cómo volver a crear una configuración de dominio que utiliza funciones virtuales, consulte El comando ldm init-system no puede volver a crear correctamente un dominio que tiene dispositivos de funciones virtuales.

Mensaje de error incorrecto al pasar del uso de núcleos completos al uso de núcleos parciales en el dominio de control

ID de error 7159114: al pasar del uso de núcleos con restricciones físicas al uso de recursos de CPU sin restricciones en el control de dominio, es posible que aparezca el siguiente mensaje irrelevante:

Whole-core partitioning has been removed from domain primary,because
dynamic reconfiguration has failed and the domain is now configured
with a partial CPU core.

Solución provisional: puede omitir este mensaje.

El comando ldm init-system no puede volver a crear correctamente un dominio que tiene dispositivos de funciones virtuales

ID de error 7158496: al utilizar el comando ldm list-constraints -x para guardar las restricciones en un archivo XML, no se guardan los detalles de las funciones virtuales. Como resultado, cuando se restablece la configuración a factory-default y se ejecuta el comando ldm init-system para volver a crear la configuración guardada, no se crean las funciones virtuales y se produce un error al intentar enlazar cualquier dominio.

Solución provisional: si la configuración existente tiene funciones virtuales, guarde toda la información sobre esas funciones virtuales. Posteriormente, podrá utilizar esta información para volver a crear manualmente las funciones virtuales antes de ejecutar el comando ldm init-system.

El procedimiento siguiente muestra cómo guardar toda la información sobre las funciones virtuales para usarla más adelante:

  1. Guarde la configuración del dominio en un archivo, vfs.txt, para usarla cuando vuelva a crear las funciones virtuales.

    primary# ldm list-io -l -p | grep "type=VF" >vfs.txt

    Una entrada típica de una función virtual de vfs.txt tendrá el siguiente aspecto:

    |dev=pci@400/pci@1/pci@0/pci@4/network@0,83|alias=/SYS/MB/NET0/IOVNET.PF1.VF1|
       status=RDY|domain=ldg1|type=VF|class=NETWORK
    |proptype=class|mac-addr=00:14:4f:f9:74:d0
    |proptype=class|vlan-ids=3,5,7
    |proptype=class|mtu=1500
    |proptype=device|unicast-slots=6

    La primera línea se divide intencionalmente en dos líneas para facilitar su lectura. Se mostrará como una sola línea en el archivo vfs.txt.

  2. Restablezca el dominio a la configuración factory-default.

  3. Reinicie el dominio de control.

  4. Cree las funciones virtuales de acuerdo con la información del archivo vfs.txt.

    En cada entrada, utilice el comando ldm create-vf para volver a crear la función virtual con su nombre y sus propiedades originales. Use el siguiente comando para la función virtual de ejemplo:

    primary# ldm create-vf mac-addr=00:14:4f:f9:74:d0 vid=3,5,7 mtu=1500 \ unicast-slots=6 /SYS/MB/NET0/IOVNET.PF1

    Para obtener detalles sobre las propiedades class y device, consulte la página del comando man ldm(1M).


    Nota - El nombre de la función virtual se genera a partir del nombre de su función física principal. Como resultado, ejecute los comandos ldm create-vf en orden numérico ascendente de acuerdo con la parte del nombre correspondiente a la función virtual. Por ejemplo, la función física /SYS/MB/NET0/IOVNET.PF1 tiene las siguientes funciones virtuales secundarias:

    /SYS/MB/NET0/IOVNET.PF1.VF0 mac-addr=00:14:4f:f9:74:d0
    /SYS/MB/NET0/IOVNET.PF1.VF1 mac-addr=00:14:4f:f9:74:d1

    En los siguientes comandos se crean las funciones virtuales:

    primary# ldm create-vf mac-addr=00:14:4f:f9:74:d0 /SYS/MB/NET0/IOVNET.PF1
    Created new VF: /SYS/MB/NET0/IOVNET.PF1.VF0
    primary# ldm create-vf mac-addr=00:14:4f:f9:74:d1 /SYS/MB/NET0/IOVNET.PF1
    Created new VF: /SYS/MB/NET0/IOVNET.PF1.VF1

    El primer comando ldm create-vf hace que el sistema pase al modo de reconfiguración retrasada.


  5. Compruebe que la nueva configuración incluya las funciones virtuales que creó manualmente.

    primary# ldm list-io -l -p | grep "type=VF" >vfs.after.txt

    Compare el contenido del archivo vfs.after.txt con el archivo vfs.txt.

  6. Reinicie el dominio de control.

  7. Vuelva a configurar un dominio desde un archivo XML.

    primary# ldm init-system -i file.xml

Es posible que Logical Domains Manager se bloquee y se reinicie al intentar modificar varios dominios al mismo tiempo

ID de error 7158454: es posible que Logical Domains Manager se bloquee y se reinicie cuando intenta realizar una operación que afecta la configuración de varios dominios. Es posible que se muestre este problema al intentar cambiar algún valor relacionado con la configuración de red virtual, si existen varios dispositivos de red virtual en el mismo conmutador virtual para varios dominios. Normalmente, este problema se muestra cuando hay alrededor de 90 dominios o más que tienen dispositivos de red virtual conectados al mismo conmutador virtual y cuando la propiedad inter-vnet-link está activada (comportamiento predeterminado). Para confirmar el síntoma, busque el siguiente mensaje en el archivo de registro ldmd y el archivo core en el directorio /var/opt/SUNWldm:

Frag alloc for 'domain-name'/MD memory of size 0x80000 failed

Solución provisional: evite crear muchos dispositivos de red virtual conectados al mismo conmutador virtual. Si desea hacerlo, establezca la propiedad inter-vnet-link en off en el conmutador virtual. Tenga en cuenta que esta opción puede afectar el rendimiento de las redes entre dominios invitados.

ldm init-system informa el error disk server not found

ID de error 7155386: cuando un archivo XML contiene configuraciones de dominio de control y de dominios invitados, ldm init-system configura primero los dominios invitados y luego el dominio de control. En una configuración predeterminada de fábrica que no tiene definido un servidor de disco virtual, es posible que se produzca el siguiente error al intentar agregar un dispositivo de servidor de disco virtual en los dominios invitados:

Disk Server xxx not found

Este error se produce si el dominio de control debe proporcionar el servidor de disco virtual especificado.

La configuración de las ranuras de unidifusión en un número que supera el límite máximo restablecerá el valor en 0

ID de error 7155349: si se configuran las ranuras de unidifusión en un número que supera el límite máximo, se produce el mensaje de error correspondiente. Sin embargo, el número de ranuras de unidifusión se restablece de manera incorrecta y silenciosa en 0.

Solución provisional: especifique un valor para el número de ranuras de unidifusión que esté dentro del rango de valores admitidos.

No se genera un error cuando se supera el número máximo de ranuras de unidifusión para las funciones físicas y virtuales ixgbe

ID de error 7155282: si intenta configurar más ranuras de unidifusión para las funciones físicas y virtuales ixgbe que el número permitido por el límite máximo, el comando se ejecuta correctamente. Se debería generar un error al intentar superar este límite máximo, pero esto no sucede.

Utilice el siguiente comando para identificar el número máximo de ranuras de unidifusión admitido por el dispositivo:

# ldm list-io -d pf-name

A continuación, asegúrese de que el número total de ranuras de unidifusión asignado a cada función virtual de esa función física no supere el valor máximo.

El dominio de control requiere el núcleo más bajo del sistema

ID de error 7153060: el dominio de control requiere el núcleo más bajo del sistema. Por lo tanto, si el ID de núcleo 0 es el núcleo más bajo, no se puede compartir con ningún otro dominio si desea aplicar la restricción de núcleo completo al dominio de control.

Por ejemplo, si el núcleo más bajo del sistema es el ID de núcleo 0, el dominio de control tendrá un aspecto similar al siguiente:

# ldm ls -o cpu primary
NAME
primary

VCPU
    VID    PID    CID    UTIL STRAND
    0      0      0      0.4%   100%
    1      1      0      0.2%   100%
    2      2      0      0.1%   100%
    3      3      0      0.2%   100%
    4      4      0      0.3%   100%
    5      5      0      0.2%   100%
    6      6      0      0.1%   100%
    7      7      0      0.1%   100%

El daemon ldmd no se conecta

ID de error 7151847: el servicio de la utilidad de gestión de servicios (SMF, Service Management Facility) del daemon ldmd no se conecta si el software Oracle VM Server for SPARC 2.2 está instalado en un dominio de control que ejecuta la versión Oracle Solaris 10 10/09 del SO Oracle Solaris o versiones anteriores. Esta situación se produce porque se agregó una dependencia SMF explícita en el servicio SMF svc:/ldoms/agents.

Solución provisional: instale el ID de parche 142909-17, que permite la compatibilidad con el servicio SMF svc:/ldoms/agents, ldmad, del que depende ldmd.

Tras cancelar una migración, los comandos ldm que se ejecutan en el sistema de destino no responden

ID de error 7150793: si cancela una migración en directo, el contenido de la memoria de la instancia del dominio que se crea en el destino se debe “limpiar” mediante el hipervisor. Este proceso de limpieza se realiza por motivos de seguridad y se debe completar para que la memoria pueda regresar al grupo de memoria libre. Mientras esta limpieza está en curso, los comandos ldm no responden. Como resultado, Logical Domains Manager parece estar bloqueado.

Recuperación: debe esperar a que se complete esta solicitud de “limpieza” antes de intentar ejecutar otros comandos ldm. Este proceso puede tardar bastante. Por ejemplo, un dominio invitado que tiene 500 GB de memoria puede completar este proceso en 7 minutos como máximo en un servidor SPARC T4 o en 25 minutos como máximo en un servidor SPARC T3.

Algunas tarjetas Emulex no funcionan cuando se asignan a un dominio de E/S

ID de error 7150209: en un sistema que ejecuta el SO Oracle Solaris en el dominio de control y un dominio de E/S, algunas tarjetas Emulex asignadas al dominio de E/S no funcionan correctamente porque las tarjetas no reciben interrupciones. Sin embargo, cuando se asignan al dominio de control, las mismas tarjetas funcionan correctamente.

Este problema se produce con las siguientes tarjetas Emulex:

Solución provisional: ninguna.

Error grave en dominio invitado al ejecutar el comando cputrack durante la migración a un sistema SPARC T4

ID de error 7149951: si el comando cputrack se ejecuta en un dominio invitado mientras ese dominio se migra a un sistema SPARC T4, es posible que se produzca un error grave en el dominio invitado del equipo de destino después de la migración.

Solución provisional: no ejecute el comando cputrack durante la migración de un dominio invitado a un sistema SPARC T4.

Oracle Solaris 11: el robo de DRM informa errores y reintentos de DR en Oracle Solaris

ID de error 7149365: un dominio que tiene una política de prioridad más alta puede robar recursos de CPU virtuales de un dominio con una política de prioridad más baja. Cuando esta acción de “robo” está en curso, es posible que vea los siguientes mensajes de advertencia en el registro ldmd cada 10 segundos:

warning: Unable to unconfigure CPUs out of guest domain-name

Solución provisional: puede omitir estos mensajes engañosos.

Limitación del número máximo de funciones virtuales que se puede asignar a un dominio

ID de error 7149323: un dominio de E/S tiene un límite para el número de recursos de interrupción disponibles por cada complejo de raíz.

En los sistemas SPARC T3 y SPARC T4, el límite es de aproximadamente 63 MSI/vectores X. Cada función virtual igb utiliza tres interrupciones. La función virtual ixgbe utiliza dos interrupciones.

Si asigna una gran cantidad de funciones virtuales a un dominio, se agotan los recursos del sistema del dominio necesarios para admitir estos dispositivos. Aparecerán mensajes similares a los siguientes:

WARNING: ixgbevf32: interrupt pool too full.
WARNING: ddi_intr_alloc: cannot fit into interrupt pool

Un dominio que utiliza la migración entre CPU informa tiempos de actividad aleatorios una vez completada la migración

ID de error 7148394: tras migrar un dominio entre dos equipos que tienen frecuencias de CPU diferentes, es posible que los informes de tiempo de actividad del comando ldm list sean incorrectos. Estos resultados incorrectos se generan porque el tiempo de actividad se calcula en función de la frecuencia STICK del equipo en el que se ejecuta el dominio. Si la frecuencia STICK es diferente entre los equipos de origen y de destino, los valores de tiempo de actividad parecen calcularse de manera incorrecta.

Los valores de tiempo de actividad informados y mostrados en el dominio invitado son correctos. Asimismo, cualquier cálculo que se realiza en el SO Oracle Solaris del dominio invitado es correcto.

ldm init-system -r -i XML-file no reinicia el dominio primary

ID de error 7146725: cuando utiliza el comando ldm init-system para instalar un dominio desde una configuración XML, el dominio primary no se puede reiniciar aunque se especifique la opción -r.

Solución provisional: reinicie manualmente el dominio primary.

Oracle Solaris 10: se puede producir un error grave en el controlador ixgbe cuando se inicia con una tarjeta de controlador Ethernet Intel X540 de puerto doble

ID de error 7146423: cuando se inicia con una tarjeta de controlador Ethernet Intel X540 de puerto doble, es posible que se produzca un error grave del sistema en el controlador ixgbe de Oracle Solaris 10. Este error grave se produce porque el controlador tiene un temporizador de prioridad alta que bloquea la conexión de otros controladores.

Solución provisional: reinicie el sistema.

La versión 8.2.0 del firmware del sistema contiene una nueva versión de la base de datos scvar

ID de error 7144314: la versión 8.2.0 del firmware del sistema contiene una nueva versión de la base de datos scvar, que restablece los valores predeterminados una vez finalizada la instalación.

Solución provisional: toma nota de la configuración de Oracle VM Server for SPARC en ejecución o cualquier cambio en las propiedades de diagnóstico del sistema antes de instalar el firmware del sistema. Utilice el comando show de ILOM. Por ejemplo:

-> show /HOST/domain/configs

Después de instalar el firmware y antes de encender el sistema, utilice el comando set de ILOM. Por ejemplo:

-> set /HOST/bootmode config=config-name

En este punto, se conservan las configuraciones de Oracle VM Server for SPARC. No obstante, debe seleccionar si desea iniciar una configuración específica o la configuración factory-default.

Los siguientes valores de propiedades se restablecen a los valores predeterminados después de instalar el firmware:

/HOST
   Properties:
   autorunonerror
   ioreconfigure

/HOST/bootmode
   Properties:
   config

/HOST/diag
   Properties:
   error_reset_level
   error_reset_verbosity
   hw_change_level
   hw_change_verbosity
   level
   mode
   power_on_level
   power_on_verbosity
   trigger
   verbosity

/HOST/domain/control
   Properties:
   auto-boot
   boot_guests

/HOST/tpm
   Properties:
   enable
   activate
   forceclear

/SYS
   Properties:
   keyswitch_state

/SP/powermgmt
   Properties:
   policy

panic: BAD TRAP: occurred in module "pcie" due to an illegal access to a user address

ID de error 7142913: después de enlazar e iniciar 15 dominios invitados, se produce un error grave en el dominio primary y se muestra el siguiente mensaje de error:

panic: BAD TRAP: occurred in module "pcie" due to an illegal access to a user address

Los dominios se configuran de la siguiente manera:

Un dominio de control reconfigurado desde un archivo XML no puede eliminar correctamente los dispositivos de E/S

ID de error 7134203: los dispositivos de E/S existentes no se eliminan correctamente del dominio de control cuando se vuelve a configurar este dominio desde un archivo XML con el comando ldm init-system. Esta situación puede provocar un error de enlace en el dominio invitado si el dominio de control aún tiene los dispositivos PCIe de nodo de hoja enlazados al dominio de control.

Un backend vdsdev no válido se identifica como una ruta válida

ID de error 7131596: si especifica un backend vdsdev incorrecto para el comando ldm add-vdsdev, el mensaje de error resultante identifica el backend como una ruta válida:

# ldm add-vdsdev /wrong/path/file disk1@primary-vds0
Path /wrong/path/file is valid but not accessible on service domain primary

Solución provisional: verifique y, si es necesario, corrija la ruta especificada.

Después de desactivar la restricción de núcleo completo, la restricción vuelve a aparecer tras reiniciar el dominio primary

ID de error 7130693: después de desactivar la restricción de núcleo completo, la restricción vuelve a aparecer tras reiniciar el dominio primary.

Este problema solo se produce en las siguientes circunstancias:

Solución provisional: desactive la restricción de núcleo completo. Para ello, especifique otro número de CPU virtuales.

Destruir todas las funciones virtuales y regresar las ranuras al dominio raíz no restaura los recursos del complejo de raíz

ID de error 7129252: los recursos del complejo de raíz no se restauran después de destruir todas las funciones virtuales y regresar las ranuras al dominio raíz.

Solución provisional: siga estos pasos:

  1. Elimine el bus PCIe del dominio raíz.

    primary# ldm rm-io pci_0 primary
    Initiating a delayed reconfiguration operation on the primary domain.
    All configuration changes for other domains are disabled until the primary
    domain reboots, at which time the new configuration for the primary domain
    will also take effect.
  2. Reasigne el bus PCIe al dominio raíz.

    primary# ldm add-io pci_0 primary
    ------------------------------------------------------------------------------
    Notice: The primary domain is in the process of a delayed reconfiguration.
    Any changes made to the primary domain will only take effect after it reboots.
    ------------------------------------------------------------------------------
  3. Reinicie el bus PCIe en el dominio raíz.

    primary# reboot

ldm start devuelve incorrectamente 0 en vez de 1 cuando no puede iniciar un dominio invitado

ID de error 7125579: es posible que no se puede iniciar un dominio invitado debido a un error inesperado del hipervisor. Incluso si el dominio no se puede iniciar, el comando termina con 0 en vez de 1 y muestra el siguiente mensaje de error:

LDom domain start failed, retry the operation

Solución provisional: no dependa únicamente del código de salida para determinar si un dominio se inició correctamente. En su lugar, realice una de las siguientes comprobaciones:

No se debe permitir ldm remove-io en las tarjetas PCIe que tienen puentes de PCIe a PCI

ID de error 7121963: utilice solo tarjetas PCIe que admiten la función de E/S directa. Estas tarjetas se enumeran en este documento de asistencia técnica.

Solución provisional: utilice el comando ldm add-io para volver a agregar la tarjeta al dominio primary.

El comando ldm stop puede generar un error si se ejecuta inmediatamente después de un comando ldm start

ID de error 7118936: si ejecuta un comando ldm stop inmediatamente después de un comando ldm start, el comando ldm stop puede generar el siguiente error:

LDom domain stop notification failed

Solución provisional: vuelva a ejecutar el comando ldm stop.

Usar ldm set-io para cambiar el valor pvid dos veces seguidas puede generar un error de configuración

ID de error 7109458: utilizar el comando ldm set-io para cambiar el valor de la propiedad pvid para una función virtual más de una vez puede provocar que el valor pvid no se defina correctamente en el hardware de funciones virtuales.

Solución provisional: espere unos segundos antes de ejecutar de nuevo el comando ldm set-io.

Se produce un error grave en el sistema cuando se reinicia un dominio primary que tiene un gran número de funciones virtuales asignadas

ID de error 7104911: se produce un error grave en el sistema al reiniciar un dominio primary que tiene un gran número de funciones virtuales asignadas.

Solución provisional: siga una de estas soluciones provisionales:

Mensaje de error de SR-IOV impreciso: Create vf failed

ID de error 7101229: al intentar crear una función virtual más que el número máximo de funciones virtuales configurables para un dispositivo de funciones físicas, se genera el mensaje Create vf failed. Este mensaje de error no es claro en cuanto al motivo del error.

Sistema operativo Oracle Solaris 11: el uso de la función de E/S directa para eliminar varias ranuras PCIe del dominio primary en un sistema SPARC T-Series de varios sockets puede provocar un error grave en el inicio

ID de error 7100859: es posible que se produzca un error grave del sistema en el inicio si utiliza la función de E/S directa (ldm remove-io) para eliminar varias ranuras PCIe de un sistema SPARC T-Series de varios sockets. Esto se produce cuando las rutas de las ranuras PCIe son similares entre sí (excepto la ruta del complejo de raíz). El error grave se puede producir tras eliminar las ranuras PCIe y reiniciar el dominio primary. Para obtener más información sobre la función de E/S directa, consulte Asignación de dispositivos de punto final PCIe de Guía de administración de Oracle VM Server for SPARC 2.2.

Por ejemplo, si elimina las ranuras /SYS/MB/PCIE5 (pci@500/pci@2/pci@0/pci@0) y /SYS/MB/PCIE4 (pci@400/pci@2/pci@0/pci@0), que tienen nombres de ruta similares, se puede producir un error grave en el sistema operativo Oracle Solaris 11.

El comando ldm list-io siguiente se ejecuta después de eliminar las ranuras PCIe /SYS/MB/PCIE4 y /SYS/MB/PCIE5.

# ldm list-io
IO              PSEUDONYM       DOMAIN
--              ---------       ------
pci@400         pci_0           primary
niu@480         niu_0           primary
pci@500         pci_1           primary
niu@580         niu_1           primary

PCIE                       PSEUDONYM       STATUS  DOMAIN
----                       ---------       ------  ------
pci@400/pci@2/pci@0/pci@8  /SYS/MB/PCIE0   OCC     primary
pci@400/pci@2/pci@0/pci@4  /SYS/MB/PCIE2   OCC     primary
pci@400/pci@2/pci@0/pci@0  /SYS/MB/PCIE4   OCC
pci@400/pci@1/pci@0/pci@8  /SYS/MB/PCIE6   OCC     primary
pci@400/pci@1/pci@0/pci@c  /SYS/MB/PCIE8   OCC     primary
pci@400/pci@2/pci@0/pci@e  /SYS/MB/SASHBA  OCC     primary
pci@400/pci@1/pci@0/pci@4  /SYS/MB/NET0    OCC     primary
pci@500/pci@2/pci@0/pci@a  /SYS/MB/PCIE1   OCC     primary
pci@500/pci@2/pci@0/pci@6  /SYS/MB/PCIE3   OCC     primary
pci@500/pci@2/pci@0/pci@0  /SYS/MB/PCIE5   OCC
pci@500/pci@1/pci@0/pci@6  /SYS/MB/PCIE7   OCC     primary
pci@500/pci@1/pci@0/pci@0  /SYS/MB/PCIE9   OCC     primary
pci@500/pci@1/pci@0/pci@5  /SYS/MB/NET2    OCC     primary
#

Solución provisional: no elimine todas las ranuras que tienen nombres de ruta similares. En su lugar, solo elimine una ranura PCIe de ese tipo.

También puede insertar las tarjetas PCIe en ranuras que no tienen rutas similares y luego usarlas con la función de E/S directa.

El núcleo parcial primary no permite las transiciones de la DR de núcleo completo

ID de error 7100841: cuando el dominio primary comparte el núcleo físico más bajo (por lo general, 0) con otro dominio, se produce un error al intentar definir la restricción de núcleo completo para el dominio primary.

Solución provisional: siga estos pasos:

  1. Determine el núcleo enlazado más bajo compartido por los dominios.

    # ldm list -o cpu
  2. Desenlace todos los subprocesos de CPU correspondientes al núcleo más bajo de todos los dominios, excepto del dominio primary.

    Como resultado, los subprocesos de CPU correspondientes al núcleo más bajo no se comparten y están disponibles para enlazarse con el dominio primary.

  3. Para definir la restricción de núcleo completo, siga uno de estos pasos:

    • Enlace los subprocesos de CPU al dominio primary y defina la restricción de núcleo completo con el comando ldm set-vcpu -c.

    • Utilice el comando ldm set-core para enlazar los subprocesos de CPU y definir la restricción de núcleo completo en un solo paso.

Tras reiniciar el dominio primary, las funciones virtuales igb e ixgbe asignadas al dominio primary se vuelven defectuosas

ID de error 7098941: los dispositivos de funciones virtuales igb e ixgbe se vuelven defectuosos tras reiniciar el dominio primary. Estas funciones virtuales se asignan al dominio primary. La configuración del sistema solo tiene un dominio primary. No se configuran dominios invitados ni dominios de E/S.

El comando fmadm faulty muestra que todos los dispositivos de funciones virtuales son defectuosos. El comando fmadm repair permite recuperarse de los errores, pero el estado defectuoso vuelve a aparecer cada vez que reinicia el dominio primary.

Solución provisional: use el comando fmadm repair para recuperarse de los errores cada vez que reinicie el dominio primary.

ldmconfig solo se admite en los sistemas Oracle Solaris 10

ID de error 7093344: solo puede utilizar el comando ldmconfig en los sistemas Oracle Solaris 10.

El comando ldm list-io muestra el estado UNK o INV tras el inicio

ID de error 7084728: el comando ldm list-io puede mostrar el estado UNK o INV para las ranuras PCIe y las funciones virtuales SR-IOV si el comando se ejecuta inmediatamente después del inicio del dominio primary. Este problema se produce por un retraso en la respuesta del agente de Logical Domains en el SO Oracle Solaris.

Este problema solo se ha informado en pocos sistemas.

Solución provisional: el estado de las ranuras PCIe y las funciones virtuales se actualiza automáticamente una vez que se recibe la información del agente de Logical Domains.

No se puede desconectar el controlador de la tarjeta de interfaz de red

ID de error 7083321: el daemon nwam mantiene un recuento de referencias en el nodo del dispositivo de la tarjeta de interfaz de red (NIC) y, por lo tanto, el controlador NIC no se puede desconectar.

Solución provisional: no utilice el perfil de configuración de red Automatic. En su lugar, utilice el perfil de configuración de red DefaultFixed.

MIB de Oracle VM Server for SPARC solo se admite en los sistemas Oracle Solaris 10

ID de error 7082776: solo puede utilizar MIB de Oracle VM Server for SPARC en los sistemas Oracle Solaris 10.

Migrar un dominio con una gran cantidad de memoria en SPARC T4-4 genera un error grave del dominio en el sistema de destino

ID de error 7071426: evite migrar dominios que tienen más de 500 GB de memoria. Utilice el comando ldm list -o mem para ver la configuración de memoria del dominio. Algunas configuraciones de memoria con varios bloques de memoria que suman en total más de 500 GB pueden generar un error grave con una pila similar al siguiente:

panic[cpu21]/thread=2a100a5dca0:
BAD TRAP: type=30 rp=2a100a5c930 addr=6f696e740a232000 mmu_fsr=10009

sched:data access exception: MMU sfsr=10009: Data or instruction address out of range context 0x1

pid=0, pc=0x1076e2c, sp=0x2a100a5c1d1, tstate=0x4480001607, context=0x0
g1-g7: 80000001, 0, 80a5dca0, 0, 0, 0, 2a100a5dca0

000002a100a5c650 unix:die+9c (30, 2a100a5c930, 6f696e740a232000, 10009, 2a100a5c710, 10000)
000002a100a5c730 unix:trap+75c (2a100a5c930, 0, 0, 10009, 30027b44000, 2a100a5dca0)
000002a100a5c880 unix:ktl0+64 (7022d6dba40, 0, 1, 2, 2, 18a8800)
000002a100a5c9d0 unix:page_trylock+38 (6f696e740a232020, 1, 6f69639927eda164, 7022d6dba40, 13, 1913800)
000002a100a5ca80 unix:page_trylock_cons+c (6f696e740a232020, 1, 1, 5, 7000e697c00, 6f696e740a232020)
000002a100a5cb30 unix:page_get_mnode_freelist+19c (701ee696d00, 12, 1, 0, 19, 3)
000002a100a5cc80 unix:page_get_cachelist+318 (12, 1849fe0, ffffffffffffffff, 3,
0, 1)
000002a100a5cd70 unix:page_create_va+284 (192aec0, 300ddbc6000, 0, 0, 2a100a5cf00, 300ddbc6000)
000002a100a5ce50 unix:segkmem_page_create+84 (18a8400, 2000, 1, 198e0d0, 1000, 11)
000002a100a5cf60 unix:segkmem_xalloc+b0 (30000002d98, 0, 2000, 300ddbc6000, 0, 107e290)
000002a100a5d020 unix:segkmem_alloc_vn+c0 (30000002d98, 2000, 107e000, 198e0d0,
30000000000, 18a8800)
000002a100a5d0e0 genunix:vmem_xalloc+5c8 (30000004000, 2000, 0, 0, 80000, 0)
000002a100a5d260 genunix:vmem_alloc+1d4 (30000004000, 2000, 1, 2000, 30000004020, 1)
000002a100a5d320 genunix:kmem_slab_create+44 (30000056008, 1, 300ddbc4000, 18a6840, 30000056200, 30000004000)
000002a100a5d3f0 genunix:kmem_slab_alloc+30 (30000056008, 1, ffffffffffffffff, 0, 300000560e0, 30000056148)
000002a100a5d4a0 genunix:kmem_cache_alloc+2dc (30000056008, 1, 0, b9, fffffffffffffffe, 2006)
000002a100a5d550 genunix:kmem_cpucache_magazine_alloc+64 (3000245a740, 3000245a008, 7, 6028f283750, 3000245a1d8,
193a880)
000002a100a5d600 genunix:kmem_cache_free+180 (3000245a008, 6028f2901c0, 7, 7, 7, 3000245a740)
000002a100a5d6b0 ldc:vio_destroy_mblks+c0 (6028efe8988, 800, 0, 200, 19de0c0, 0)
000002a100a5d760 ldc:vio_destroy_multipools+30 (6028f1542b0, 2a100a5d8c8, 40, 0, 10, 30000282240)
000002a100a5d810 vnet:vgen_unmap_rx_dring+18 (6028f154040, 0, 6028f1a3cc0, a00,
200, 6028f1abc00)
000002a100a5d8d0 vnet:vgen_process_reset+254 (1, 6028f154048, 6028f154068, 6028f154060, 6028f154050, 6028f154058)
000002a100a5d9b0 genunix:taskq_thread+3b8 (6028ed73908, 6028ed738a0, 18a6840, 6028ed738d2, e4f746ec17d8,
6028ed738d4)

Solución provisional: evite realizar migraciones de dominios que tienen más de 500 GB de memoria.

Eliminación de una gran cantidad de CPU de un dominio invitado

ID de error 7062298: es posible que aparezca el siguiente mensaje de error al intentar eliminar una gran cantidad de CPU de un dominio invitado:

Request to remove cpu(s) sent, but no valid response received
VCPU(s) will remain allocated to the domain, but might
not be available to the guest OS
Resource modification failed

Solución provisional: detenga el dominio invitado antes de eliminar más de 100 CPU del dominio.

Un dominio con mucha memoria puede tardar bastante en detenerse en el modo elástico

ID de error 7058261: si utiliza el comando ldm stop para detener un dominio con mucha memoria cuando el sistema tiene definida la política elástica de gestión de energía, este proceso puede tardar bastante en completarse. Si el dominio alcanza una inactividad suficiente, se desactivarán la mayoría de los subprocesos de CPU asignados al dominio. Al desactivar las CPU, el proceso necesario para detener un dominio permanece en los subprocesos activos restantes.

Por ejemplo, un dominio invitado que tiene 252 GB de memoria y solo 2 CPU activadas tarda aproximadamente 7 minutos en detenerse.

Solución provisional: desactive la gestión de energía (PM). Para ello, cambie de la política elástica a la política de rendimiento antes de detener el dominio.

No es posible usar las operaciones de conexión en caliente de Oracle Solaris para eliminar en caliente un dispositivo de punto final PCIe

ID de error 7054326: no puede utilizar las operaciones de conexión en caliente de Oracle Solaris para eliminar en caliente un dispositivo de punto final PCIe antes de que dicho dispositivo se elimine del dominio primary mediante el comando ldm rm-io. Para obtener información sobre cómo reemplazar o eliminar un dispositivo de punto final PCIe, consulte Realización de cambios hardware en PCIe de Guía de administración de Oracle VM Server for SPARC 2.2.

Error de validación de disco virtual para un disco físico sin el segmento 2

ID de error 7042353: si un disco físico está configurado con un segmento 2 que tiene un tamaño de 0, es posible que se produzcan los siguientes problemas:

Otra solución provisional permite desactivar de forma permanente la validación de disco mediante los comandos ldm add-vdsdev y ldm bind. Como resultado, no es necesario especificar la opción -q. Desactive de forma permanente la validación de disco. Para ello, actualice la propiedad device_validation del servicio ldmd:

# svccfg -s ldmd setprop ldmd/device_validation=value
# svcadm refresh ldmd
# svcadm restart ldmd

Especifique un valor de 0 para desactivar la validación para los dispositivos de red y de disco. Especifique un valor de 1 para desactivar la validación para los dispositivos de disco y activar la validación para los dispositivos de red.

Los valores posibles para la propiedad device_validation son:

0

Desactiva la validación para todos los dispositivos

1

Activa la validación para los dispositivos de red

2

Activa la validación para los dispositivos de disco

3

Activa la validación para los dispositivos de red y de disco

-1

Activa la validación para todos los tipos de dispositivos, que es la configuración predeterminada

El comando nxge genera un error grave al migrar un dominio invitado que tiene dispositivos de red virtual de E/S híbrida y de E/S virtual

ID de error 7038650: cuando un dominio invitado con mucha carga tiene una configuración de E/S híbrida e intenta migrarlo, es posible que se muestre un error grave de nxge.

Solución provisional: agregue la línea siguiente al archivo /etc/system en el dominio primary y en cualquier dominio de servicio que forme parte de la configuración de E/S híbrida del dominio:

set vsw:vsw_hio_max_cleanup_retries = 0x200

Todos los comandos ldm se bloquean cuando faltan recursos NFS compartidos en las migraciones

ID de error 7036137: se bloquea de forma permanente una migración iniciada o en curso, o cualquier comando ldm. Esta situación se produce cuando el dominio que se migrará utiliza un sistema de archivos compartido de otro sistema y el sistema de archivos ya no está compartido.

Solución provisional: haga que el sistema de archivos compartido esté disponible de nuevo.

ldmd no elimina núcleos de un dominio con núcleos parciales

ID de error 7035438: ldmd permite activar la restricción de núcleo completo en un dominio que tiene núcleos parciales, pero no puede eliminar ni establecer núcleos del mismo dominio.

Solución provisional: realice las siguientes acciones en la configuración predeterminada de fábrica para el dominio de control:

  1. Inicie una reconfiguración retrasada en el dominio de control.

    # ldm start-reconf primary
  2. Realice primero las operaciones de reconfiguración de memoria.

  3. Realice las opciones de reconfiguración de CPU.

    # ldm set-vcpu 16 primary
    # ldm set-vcpu -c 2 primary

En este ejemplo se utilizan 2 núcleos, pero el número de núcleos puede estar entre 1 y el límite del sistema.

El servicio del agente de Logical Domains no se conecta si el servicio de registro del sistema tampoco se conecta

ID de error 7034191: si el servicio de registro del sistema, svc:/system/system-log, no se inicia y no se conecta, el servicio del agente de Logical Domains no se conectará. Cuando el servicio del agente de Logical Domains no está conectado, es posible que los comandos virtinfo, ldm add-vsw, ldm add-vdsdev y ldm list-io no se comporten del modo esperado.

Solución provisional: asegúrese de que el servicio svc:/ldoms/agents:default esté activado y conectado:

# svcs -l svc:/ldoms/agents:default

Si el servicio svc:/ldoms/agents:default está desconectado, compruebe que el servicio esté activado y que todos los servicios dependientes estén conectados.

El interbloqueo de los núcleos provoca el bloqueo del equipo durante una migración

ID de error 7030045: la migración de un dominio invitado activo puede bloquearse y hacer que el equipo de origen no responda. Cuando se produce este problema, se escribe el siguiente mensaje en la consola y en el archivo /var/adm/messages:

vcc: i_vcc_ldc_fini: cannot close channel 15

vcc: [ID 815110 kern.notice] i_vcc_ldc_fini: cannot
close channel 15

Tenga en cuenta que el número de canal mostrado es un número de canal interno de Oracle Solaris que puede ser distintos para cada mensaje de advertencia.

Solución provisional: antes de migrar el dominio, desconéctese de la consola del dominio invitado.

Recuperación: apague y vuelva a encender el equipo de origen.

La DRM y el resultado de ldm list muestran un número de CPU virtuales diferente del que realmente hay en el dominio invitado

ID de error 7027105: es posible que aparezca el mensaje No response en el registro de Oracle VM Server for SPARC cuando la política DRM de un dominio cargado caduca una vez que el recuento de CPU se ha reducido significativamente. El resultado de ldm list muestra que hay más recursos de CPU asignados al dominio del que se muestran en el resultado de psrinfo.

Solución provisional: utilice el comando ldm set-vcpu para restablecer el número de CPU del dominio al valor que se muestra en el resultado de psrinfo.

La migración en directo de un dominio que depende de un dominio maestro inactivo en el equipo de destino genera un error de segmentación en ldmd

ID de error 7026177: si intenta realizar una migración en directo de un dominio que depende de un dominio inactivo en el equipo de destino, se produce un error de segmentación en el daemon ldmd y se reinicia el dominio del equipo de destino. Puede realizar una migración de todos modos, pero no será una migración en directo.

Solución provisional: lleve a cabo una de las siguientes acciones antes de intentar la migración en directo:

DRM no puede restaurar el número predeterminado de CPU virtuales para un dominio migrado cuando se elimina o caduca la política

ID de error 7026160: realice una migración de dominios mientras haya una política DRM vigente. Más adelante, si la política DRM caduca o se elimina del dominio migrado, DRM no puede restaurar el número original de CPU virtuales en el dominio.

Solución provisional: si se migra un dominio cuando la política DRM está activa y luego caduca o se elimina la política, restablezca el número de CPU virtuales. Utilice el comando ldm set-vcpu para definir el número de CPU virtuales en su valor original en el dominio.

Errores de tiempo de espera de CPU virtuales durante la DR

ID de error 7025445: al ejecutar el comando ldm set-vcpu 1 en un dominio invitado que tiene más de 100 CPU virtuales y algunas unidades criptográficas, no se eliminan las CPU virtuales. Las CPU virtuales no se eliminan debido a un error de tiempo de espera de la DR. Las unidades criptográficas se eliminan correctamente.

Solución provisional: utilice el comando ldm rm-vcpu para eliminar todas las CPU virtuales excepto una del dominio invitado. No elimine más de 100 CPU virtuales a la vez.

El motivo del error de la migración no se informa cuando la dirección MAC del sistema entra en conflicto con otra dirección MAC

ID de error 7023216: no es posible migrar un dominio si contiene una dirección MAC duplicada. Normalmente, cuando se produce un error en la migración por este motivo, el mensaje de error muestra la dirección MAC duplicada. Sin embargo, en raras ocasiones, este mensaje de error puede no indicar la dirección MAC duplicada.

# ldm migrate ldg2 system2
Target Password:
Domain Migration of LDom ldg2 failed

Solución provisional: asegúrese de que las direcciones MAC del equipo de destino sean únicas.

Las operaciones de migración simultáneas en “dirección opuesta” pueden generar un bloqueo de ldm

ID de error 7019493: si dos comandos ldm migrate se ejecutan de forma simultánea en “dirección opuesta”, es posible que los dos comandos se bloqueen y que nunca se completen. Por ejemplo, una situación de dirección opuesta puede ser aquella en la que se inicia simultáneamente una migración en el equipo A para el equipo B y una migración en el equipo B para el equipo A.

Los procesos de migración se bloquean aunque se inicien como una simulación mediante la opción -n. Cuando se produce este problema, se pueden bloquear todos los demás comandos ldm.

Solución provisional: ninguna.

Eliminación de un gran número de CPU del dominio de control

ID de error 6994984: utilice una reconfiguración retrasada en lugar de una reconfiguración dinámica para eliminar más de 100 CPU del dominio de control (también conocido como dominio primary). Siga estos pasos:

  1. Use el comando ldm start-reconf primary para poner el dominio de control en modo de reconfiguración retrasada.

  2. Elimine el número deseado de recursos de CPU.

    Si comete un error al eliminar los recursos de CPU, no intente realizar otra solicitud para eliminar las CPU mientras el dominio de control aún se encuentre en una reconfiguración retrasada. Si lo hace, los comandos no funcionarán (consulte Solo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada). En su lugar, deshaga la operación de reconfiguración retrasada mediante el comando ldm cancel-reconf y vuelva a comenzar.

  3. Reinicie el dominio de control.

Un sistema que tiene definida la política elástica y que ejecuta el sistema operativo Oracle Solaris 10 8/11 puede bloquearse

ID de error 6989192 y 7071760: es posible que el sistema operativo se bloquee en el inicio de sesión o al ejecutar comandos cuando se cumplen las siguientes condiciones:

Solución provisional: aplique el ID de parche 147149-01.

pkgadd no puede definir las entradas ACL en /var/svc/manifest/platform/sun4v/ldmd.xml

ID de error 6984681: al utilizar el comando pkgadd para instalar el paquete SUNWldm.v de un directorio que se exporta mediante un NFS desde un dispositivo Oracle ZFS Storage Appliance, es posible que aparezca el siguiente mensaje de error:

cp: failed to set acl entries on /var/svc/manifest/platform/sun4v/ldmd.xml

Solución provisional: omita este mensaje.

SPARC T3-1: detectar y controlar los discos a los que se puede acceder a través de varias rutas de E/S directa

ID de error 6984008: un sistema SPARC T3-1 se puede instalar con discos de dos puertos, a los que se puede acceder mediante dos dispositivos de E/S directa diferentes. En este caso, asignar estos dos dispositivos de E/S directa a dominios diferentes puede provocar que los discos se utilicen en ambos dominios y que el uso real de esos discos se vea afectado.

Solución provisional: no asigne dispositivos de E/S directa con acceso al mismo conjunto de discos a diferentes dominios de E/S. Los pasos para determinar si dispone de discos de dos puertos en el sistema T3-1 son los siguientes:

Determine si el sistema tiene discos de dos puertos. Para ello, ejecute el siguiente comando en el SP:

-> show /SYS/SASBP

Si el resultado incluye el valor fru_description siguiente, el sistema correspondiente tiene discos de dos puertos:

fru_description = BD,SAS2,16DSK,LOUISE

Cuando hay dos discos presentes en el sistema, asegúrese de que los siguientes dos dispositivos de E/S estén siempre asignados al mismo dominio:

pci@400/pci@1/pci@0/pci@4  /SYS/MB/SASHBA0
pci@400/pci@2/pci@0/pci@4  /SYS/MB/SASHBA1

Las operaciones de eliminación de la DR de memoria con varias instancias nxge de NIU asociadas se pueden bloquear de forma indefinida y nunca completarse

ID de error 6983279: cuando se asocian varias instancias nxge de NIU en un dominio, es posible que los comandos ldm rm-mem y ldm set-mem, que se utilizan para eliminar memoria del dominio, nunca se completen. Para determinar si el problema se ha producido durante una operación de eliminación de memoria, supervise el progreso de la operación con el comando ldm list -o status. Es posible que tenga este problema si el porcentaje del progreso sigue siendo constante durante varios minutos.

Recuperación: cancele el comando ldm rm-mem o ldm set-mem.

Solución provisional: cancele el comando ldm rm-mem o ldm set-mem, y compruebe si se eliminó una cantidad suficiente de memoria. Si no es así, es posible que se complete correctamente un comando de eliminación de memoria posterior para eliminar una menor cantidad de memoria.

Si el problema se ha producido en el dominio primary, haga lo siguiente:

  1. Inicie una operación de reconfiguración retrasada en el dominio primary.

    # ldm start-reconf primary
  2. Asigne la cantidad de memoria que desee al dominio.

  3. Reinicie el dominio primary.

Si el problema se ha producido en otro dominio, detenga el dominio antes de ajustar la cantidad de memoria asignada al dominio.

Al usar el comando ldm stop -a en dominios con una relación de maestro-esclavo, el esclavo conserva el indicador stopping

ID de error 6979574: cuando se crea una dependencia de restablecimiento, el comando ldm stop -a puede generar que se reinicie un dominio con una dependencia de restablecimiento en lugar de que solo se detenga.

Solución provisional: en primer lugar, ejecute el comando ldm stop en el dominio maestro. Luego, ejecute el comando ldm stop en el dominio esclavo. Si la detención inicial del dominio esclavo genera un error, ejecute el comando ldm stop -f en el dominio esclavo.

La migración de un dominio que tiene activada la política DRM predeterminada da como resultado la asignación de todas las CPU disponibles a un dominio de destino

ID de error 6968507: tras la migración de un dominio activo, el uso de la CPU en el dominio migrado puede aumentar considerablemente durante un período breve. Si hay una política de gestión de recursos dinámicos (DRM, Dynamic Resource Managment) vigente para el dominio en el momento de la migración, Logical Domains Manager puede comenzar a agregar CPU. En especial, si las propiedades vcpu-max y attack no se especificaron cuando se agregó la política, el valor predeterminado de unlimited provoca que todas las CPU desenlazadas en el equipo de destino se agreguen al dominio migrado.

Recuperación: no es necesario realizar ninguna recuperación. Cuando el uso de la CPU cae por debajo del límite superior especificado por la política DRM, Logical Domains Manager elimina automáticamente las CPU.

Es posible reasignar una dirección MAC en uso

ID de error 6968100: a menudo, no se detecta y se reasigna de manera incorrecta una dirección MAC en uso.

Solución provisional: compruebe manualmente que no es posible reasignar una dirección MAC en uso.

ldmconfig no puede crear una configuración de dominio en el SP

ID de error 6967799: la secuencia de comandos ldmconfig no puede crear correctamente una configuración de dominios lógicos almacenada en el procesador de servicio (SP).

Solución provisional: no apague y vuelva a encender el sistema una vez que se completa la secuencia de comandos ldmconfig y que se reinicia el dominio. En su lugar, realice los siguientes pasos manuales:

  1. Agregue la configuración al SP.

    # ldm add-spconfig new-config-name
  2. Elimine la configuración primary-with-clients del SP.

    # ldm rm-spconfig primary-with-clients
  3. Apague y vuelva a encender el sistema.

Si no realiza estos pasos antes de apagar y volver a encender el sistema, la existencia de la configuración primary-with-client provocará que los dominios estén inactivos. En este caso, debe enlazar cada dominio de forma manual y, a continuación, iniciarlos mediante la ejecución del comando ldm start -a. Una vez que se inician los invitados, la repetición de esta secuencia permite que los dominios invitados se inicien automáticamente después de apagar y volver a encender el sistema.

La migración de dominios de Oracle Solaris sin cooperación se puede bloquear si cpu0 está desconectado

ID de error 6965758: la migración de un dominio activo puede provocar errores si se ejecuta en una versión anterior al sistema operativo Oracle Solaris 10 10/09 y la CPU con el número más bajo del dominio tiene el estado offline. Se produce un error en la operación cuando Logical Domains Manager utiliza la DR de CPU para reducir el dominio a una única CPU. En este proceso, Logical Domains Manager intenta eliminar todas las CPU del dominio excepto la que tiene el número más bajo, pero como esa CPU está desconectada, se produce un error en la operación.

Solución provisional: antes de intentar la migración, asegúrese de que la CPU con el número más bajo del dominio tenga el estado online.

La DR de memoria se desactiva tras una migración cancelada

ID de error 6956431: una vez que un dominio con Oracle Solaris 10 9/10 se suspende como parte de una operación de migración, se desactiva la reconfiguración dinámica (DR) de la memoria. Esto se aplica no solo cuando la migración se realiza correctamente, sino también cuando la migración se ha cancelado, a pesar de que el dominio permanece en el equipo de origen.

La reconfiguración dinámica de los valores MTU de dispositivos de red virtual a veces produce errores

ID de error 6936833: si modifica la unidad de transmisión máxima (MTU) de un dispositivo de red virtual en el dominio de control, se inicia una operación de reconfiguración retrasada. Si posteriormente cancela la reconfiguración retrasada, el valor MTU del dispositivo no se restablece al valor original.

Recuperación: vuelva a ejecutar el comando ldm set-vnet para establecer la MTU al valor original. Al restablecer el valor MTU, el dominio de control pasará al modo de reconfiguración retrasada, el cual deberá cancelar. El valor MTU resultante es ahora el valor MTU correcto original.

# ldm set-vnet mtu=orig-value vnet1 primary
# ldm cancel-op reconf primary

El dominio migrado con MAU contiene solo una CPU cuando el sistema operativo de destino no admite la DR de unidades criptográficas

ID de error 6904849: a partir de Logical Domains 1.3, es posible migrar un dominio incluso si tiene enlazadas una o varias unidades criptográficas.

En los siguientes casos, el equipo de destino solo tendrá una CPU una vez finalizada la migración:

Una vez finalizada la migración, el dominio de destino se reanudará correctamente y estará activo, pero con un estado degradado (solo una CPU).

Solución provisional: antes de la migración, elimine las unidades criptográficas del equipo de origen que ejecuta Logical Domains 1.3.

Mitigación: para evitar este problema, siga uno de estos pasos o ambos:

Mensaje de error de migración confuso para errores de enlace de memoria en la dirección real

ID de error 6904240: en algunos casos, se produce el siguiente mensaje de error durante la migración, y ldmd informa que no se ha podido enlazar la memoria necesaria para el dominio de origen. Esta situación se puede producir incluso si la cantidad total de memoria disponible en el equipo de destino es mayor que la cantidad de memoria que utiliza el dominio de origen (como se muestra en ldm ls-devices -a mem).

Unable to bind 29952M memory region at real address 0x8000000
Domain Migration of LDom ldg0 failed

Causa: este error se debe a la incapacidad de cumplir los requisitos de congruencia entre la dirección real (RA) y la dirección física (PA) en el equipo de destino.

Solución provisional: detenga el dominio y realice la migración como una migración en frío. También puede reducir el tamaño de la memoria en el dominio invitado a 128 MB para permitir que la migración continúe mientras se ejecuta el dominio.

La eliminación dinámica de todas las unidades criptográficas de un dominio provoca la terminación de SSH

ID de error 6897743: si todas las unidades criptográficas del hardware se eliminan dinámicamente de un dominio en ejecución, la estructura criptográfica no puede cambiar a los proveedores de software criptográficos y se terminan todas las conexiones ssh.

Recuperación: vuelva a establecer las conexiones ssh una vez que todas las unidades criptográficas se hayan eliminado del dominio.

Solución provisional: establezca UseOpenSSLEngine=no en el archivo /etc/ssh/sshd_config del servidor y ejecute el comando svcadm restart ssh.

A continuación, todas las conexiones ssh ya no utilizarán las unidades criptográficas del hardware (y, por lo tanto, no se benefician de las mejoras de rendimiento relacionados) y las conexiones ssh no se desconectarán cuando se eliminen dichas unidades.

La tarjeta Ethernet de fibra de 10 gigabits dual PCI Express muestra cuatro subdispositivos en el resultado de ldm list-io -l

ID de error 6892229: cuando se ejecuta el comando ldm ls-io -l en un sistema que tiene instalada una tarjeta Ethernet de fibra de 10 gigabits dual PCI Express (X1027A-Z), el resultado puede ser el siguiente:

primary# ldm ls-io -l
...
pci@500/pci@0/pci@c PCIE5 OCC primary
network@0
network@0,1
ethernet
ethernet

El resultado muestra cuatro subdispositivos aunque esta tarjeta Ethernet solo tiene dos puertos. Esta anomalía se produce porque la tarjeta tiene cuatro funciones PCI. Dos de estas funciones se desactivan internamente y aparecen como ethernet en el resultado de ldm ls-io -l.

Solución provisional: puede omitir las entradas ethernet en el resultado de ldm ls-io -l.

Los comandos ldm responden con lentitud cuando se inician varios dominios

ID de error 6855079: un comando ldm puede tardar en responder cuando se inician varios dominios. Si ejecuta un comando ldm en esta etapa, puede parecer que el comando se bloquea. Tenga en cuenta que el comando ldm se restablecerá después de realizar la tarea esperada. Una vez que se restablece el comando, el sistema debe responder normalmente a los comandos ldm.

Solución provisional: evite iniciar varios dominios de forma simultánea. Sin embargo, si debe iniciar varios dominios a la vez, intente no ejecutar más comandos ldm hasta que el sistema vuelve a su estado normal. Por ejemplo, espere aproximadamente dos minutos en los servidores Sun SPARC Enterprise T5140 y T5240, y cuatro minutos en el servidor Sun SPARC Enterprise T5440 o el servidor Netra T5440.

Es posible que un dominio invitado no se reinicie correctamente cuando un sistema se encuentra en el modo elástico de gestión de energía

ID de error 6853273: cuando un sistema tiene definida la política elástica de gestión de energía, el reinicio de un dominio invitado puede generar los siguientes mensajes de advertencia y un error al iniciar el sistema:

WARNING: /virtual-devices@100/channel-devices@200/disk@0:
Sending packet to LDC, status: -1
WARNING: /virtual-devices@100/channel-devices@200/disk@0:
Can't send vdisk read request!
WARNING: /virtual-devices@100/channel-devices@200/disk@0:
Timeout receiving packet from LDC ... retrying

Solución provisional: si aparecen estas advertencias, lleve a cabo una de las soluciones provisionales en el siguiente orden:

El dominio invitado a veces no realiza correctamente la conexión entre los servicios de dominio y el dominio de control

ID de error 6839787: a veces, un dominio invitado que ejecuta como mínimo el sistema operativo Oracle Solaris 10 10/08 no realiza correctamente la conexión entre los servicios de dominio y un dominio de control que utiliza el sistema operativo Oracle Solaris 10 5/09.

Las conexiones de servicios de dominio activan funciones como la reconfiguración dinámica (DR), FMA y gestión de energía (PM). Este tipo de error se produce cuando el dominio invitado se inicia y, por lo tanto, el reinicio del dominio suele eliminar el problema.

Solución provisional: reinicie el dominio invitado.

Oracle Solaris 11: es posible que no se inicien las zonas configuradas con una interfaz de red automática

ID de error 6837615: en Oracle Solaris 11, es posible que las zonas que están configuradas con una interfaz de red automática (anet) no se inicien en un dominio que solo tiene dispositivos de red virtual de Logical Domains.

A continuación, se muestran las soluciones provisionales:

Oracle Solaris 10: los dispositivos de red virtual no se crean correctamente en el dominio de control

ID de error 6836587: a veces, ifconfig indica que el dispositivo no existe después de agregar un dispositivo de disco virtual o red virtual a un dominio. Esta situación puede ocurrir porque no se creó la entrada /devices.

Aunque esto no debe ocurrir durante un funcionamiento normal, el error se detecta cuando el número de instancia de un dispositivo de red virtual no coincide con el número de instancia enumerado en el archivo /etc/path_to_inst.

Por ejemplo:

# ifconfig vnet0 plumb
ifconfig: plumb: vnet0: no such interface

El número de instancia de un dispositivo virtual se muestra en la columna DEVICE del resultado de ldm list:

# ldm list -o network primary
NAME             
primary          

MAC
    00:14:4f:86:6a:64

VSW
    NAME         MAC               NET-DEV DEVICE   DEFAULT-VLAN-ID PVID VID MTU  MODE  
    primary-vsw0 00:14:4f:f9:86:f3 nxge0   switch@0 1               1        1500        

NETWORK
    NAME   SERVICE              DEVICE    MAC               MODE PVID VID MTU  
    vnet1  primary-vsw0@primary network@0 00:14:4f:f8:76:6d      1        1500

El número de instancia (0 para las opciones vnet y vsw mostradas anteriormente) se puede comparar con el número de instancia del archivo path_to_inst para asegurarse de que coinciden.

# egrep '(vnet|vsw)' /etc/path_to_inst
"/virtual-devices@100/channel-devices@200/virtual-network-switch@0" 0 "vsw"
"/virtual-devices@100/channel-devices@200/network@0" 0 "vnet"

Solución provisional: en el caso de que los números de instancia no coincidan, elimine el dispositivo de red virtual o conmutador virtual. A continuación, para volver a agregarlos, especifique explícitamente el número de instancia necesario mediante la definición de la propiedad id.

También puede editar manualmente el archivo /etc/path_to_inst. Consulte la página del comando man path_to_inst(4).


Precaución

Precaución - Tenga en cuenta la advertencia incluida en la página del comando man que indica que no se deben realizar cambios en /etc/path_to_inst sin considerarlo detenidamente.


Los adaptadores NIU/XAUI recién agregados no están visibles para el sistema operativo del host si se configuró Logical Domains

ID de error 6829016: cuando se configura Logical Domains en un sistema y agrega otra tarjeta de red XAUI, la tarjeta no estará visible una vez que se apague y se vuelve a encender el equipo.

Recuperación: para que el XAUI recién agregado esté visible en el dominio de control, siga estos pasos:

  1. Defina y borre una variable ficticia en el dominio de control.

    Los comandos siguientes utilizan una variable ficticia denominada fix-xaui:

    # ldm set-var fix-xaui=yes primary
    # ldm rm-var fix-xaui primary
  2. Guarde la configuración modificada en el SP y sustituya la configuración actual.

    Los comandos siguientes utilizan un nombre de configuración de config1:

    # ldm rm-spconfig config1
    # ldm add-spconfig config1
  3. Realice un reinicio de reconfiguración del dominio de control.

    # reboot -- -r

    En este momento, puede configurar las nuevas redes disponibles para usarlas en Logical Domains.

Error grave en el dominio de E/S o el dominio invitado al iniciarse desde e1000g

ID de error 6808832: puede configurar un máximo de dos dominios con complejos de raíz PCIe dedicados en sistemas como Sun Fire T5240. Estos sistemas tienen dos CPU UltraSPARC T2 Plus y dos complejos de raíz de E/S.

pci@500 y pci@400 son los dos complejos de raíz del sistema. El dominio primary siempre tendrá al menos un complejo de raíz. Se puede configurar un segundo dominio con un complejo de raíz no asignado o desenlazado.

El tejido (o la hoja) pci@400 contiene la tarjeta de red e1000g incorporada. Las siguientes circunstancias pueden generar un error grave en el dominio:

Evite los siguientes dispositivos de red si se han configurado en un dominio no primary:

/pci@400/pci@0/pci@c/network@0,1
/pci@400/pci@0/pci@c/network@0

Cuando se cumplen estas condiciones, el dominio genera un error grave de PCIe.

Evite una configuración de este tipo o, si la configuración se utiliza, no inicie el sistema desde los dispositivos enumerados.

Los enlaces de puertos y grupos de consolas explícitos no se migran

ID de error 6781589: durante una migración, se omiten todos los puertos o grupos de consolas asignados de forma explícita, y se crea una consola con propiedades predeterminadas para el dominio de destino. Esta consola se crea utilizando el nombre del dominio de destino como el grupo de consolas y cualquier puerto disponible en el primer concentrador de consola virtual (vcc) del dominio de control. Si hay un conflicto con el nombre de grupo predeterminado, la migración no se realiza correctamente.

Recuperación: para restaurar las propiedades explícitas de la consola tras una migración, desenlace el dominio de destino y establezca manualmente las propiedades deseadas con el comando ldm set-vcons.

La base de datos de restricciones no está sincronizada con la configuración guardada

ID de error 6773569: después de cambiar de una configuración a otra (con el comando ldm set-config, seguido de una operación de apagado y encendido), es posible que los dominios definidos en la configuración anterior sigan presentes en la configuración actual, en el estado inactivo.

Esto se debe a que la base de datos de restricciones de Logical Domains Manager no está sincronizada con el cambio en la configuración. Estos dominios inactivos no afectan la configuración en ejecución y se pueden destruir de manera segura.

La migración no produce errores si el valor vdsdev del destino tiene otro backend

ID de error 6772120: si el disco virtual del equipo de destino no apunta al mismo backend de disco que se utiliza en el equipo de origen, el dominio migrado no puede acceder al disco virtual con ese backend de disco. Se puede producir un bloqueo al acceder al disco virtual del dominio.

Actualmente, Logical Domains Manager solo comprueba que los nombres del volumen de disco virtual coincidan en los equipos de origen y de destino. En este caso, no aparecerá ningún mensaje de error si no coinciden los backend de disco.

Solución provisional: asegúrese de que, al configurar el dominio de destino para recibir un dominio migrado, el volumen de disco vdsdev coincida con el backend de disco utilizado en el dominio de origen.

Recuperación: siga uno de estos procedimientos si detecta que el dispositivo de disco virtual en el equipo de destino apunta a un backend de disco incorrecto:

La migración puede producir errores al enlazar la memoria aunque el destino tenga suficiente espacio disponible

ID de error 6772089: en algunos casos, se produce un error de migración y ldmd informa que no se ha podido enlazar la memoria necesaria para el dominio de origen. Esto puede ocurrir aunque la cantidad total de memoria disponible en el equipo de destino sea mayor que la cantidad de memoria en uso en el dominio de origen.

Este error se produce porque la migración de rangos de memoria específicos utilizados por el dominio de origen requiere que también existan rangos de memoria compatibles disponibles en el destino. Cuando no hay ningún rango de memoria compatible para un rango de memoria en el origen, la migración no puede continuar.

Recuperación: si se detecta esta condición, es posible que pueda migrar el dominio si modifica el uso de la memoria en el equipo de destino. Para ello, desenlace cualquier dominio lógico enlazado o activo en el destino.

Utilice el comando ldm list-devices -a mem para ver qué memoria está disponible y cómo se utiliza. Es posible que también tenga que reducir la cantidad de memoria asignada a otro dominio.

Logical Domains Manager no se inicia si el equipo no está conectado a la red y se ejecuta un cliente NIS

ID de error 6764613: si no tiene una red configurada en el equipo y hay un cliente del servicio de información de red (NIS) en ejecución, Logical Domains Manager no se iniciará en el sistema.

Solución provisional: desactive el cliente NIS en el equipo no conectado a la red:

# svcadm disable nis/client

Logical Domains Manager muestra dominios migrados en estados de transición cuando ya se iniciaron

ID de error 6760933: en ocasiones, un dominio lógico activo parece tener un estado de transición en lugar de un estado normal mucho después de iniciarse o tras la finalización de la migración de un dominio. Este problema no es perjudicial, y el dominio funcionará correctamente. Para ver el indicador que está definido, compruebe el campo flags en el resultado del comando ldm list -l -p o compruebe el campo FLAGS en el comando ldm list, que mostrará -n---- para normal o -t---- para transición.

Recuperación: después del siguiente reinicio, el dominio muestra el estado correcto.

No se puede conectar con la consola del dominio migrado a menos que se reinicie vntsd

ID de error 6757486: en ocasiones, después de que un dominio se ha migrado, no es posible conectarse a la consola de ese dominio.

Solución provisional: reinicie el servicio SMF vntsd para desactivar las conexiones con la consola:

# svcadm restart vntsd

Nota - Este comando desconectará todas las conexiones activas de la consola.


A veces, al ejecutar el comando uadmin 1 0 en un sistema con Logical Domains, el sistema no vuelve al indicador OK

ID de error 6753683: a veces, al ejecutar el comando uadmin 1 0 desde la línea de comandos de un sistema con Logical Domains, el sistema no regresa al indicador ok después de un reinicio posterior. Este comportamiento incorrecto se advierte cuando la variable auto-reboot? de Logical Domains está definida en true. Si auto-reboot? se ha definido en false, el comportamiento es el esperado.

Solución provisional: utilice este comando en su lugar:

uadmin 2 0

O bien, siempre realice la ejecución con la variable auto-reboot? definida en false.

Logical Domains Manager puede tardar más de 15 minutos en cerrar un dominio

ID de error 6742805: un cierre de dominio o una limpieza de memoria puede tardar más de 15 minutos con una sola CPU y una configuración de memoria de gran tamaño. Durante un cierre, las CPU de un dominio se utilizan para borrar toda la memoria que pertenece al dominio. El tiempo que tarda en completarse la limpieza puede ser bastante prolongado si hay una configuración no equilibrada, por ejemplo, un dominio con una única CPU y 512 GB de memoria. Este período de limpieza prolongado aumenta la cantidad de tiempo que se tarda en cerrar un dominio.

Solución provisional: asegúrese de que las configuraciones de memoria de gran tamaño (> 100 GB) tengan al menos un núcleo. Esto da como resultado un proceso de cierre mucho más rápido.

Si el sistema operativo Oracle Solaris 10 5/08 está instalado en un dominio de servicio, la instalación se puede bloquear si se intenta realizar un inicio de red de Oracle Solaris 10 8/07 en cualquier dominio invitado gestionado por dicho dominio

ID de error 6705823: si se intenta realizar un inicio de red del sistema operativo Oracle Solaris 10 8/07 en cualquier dominio invitado gestionado por un dominio que ejecuta Oracle Solaris 10 5/08, se puede provocar un bloqueo en el dominio invitado durante la instalación.

Solución provisional: instale el ID de parche 127111-05 en la minirraíz de la imagen de instalación en red del sistema operativo Oracle Solaris 10 8/07.

La instalación en red simultánea de varios dominios no se realiza correctamente cuando tienen un grupo de consolas común

ID de error 6656033: la instalación en red simultánea de varios dominios invitados no se realiza correctamente en los sistemas que tienen un grupo de consolas común.

Solución provisional: solo realice una instalación en red de dominios invitados que tengan su propio grupo de consolas. Este error solo se observa en dominios que comparten un grupo de consolas común entre varios dominios de instalación en red.

El comando scadm puede bloquearse tras un reinicio del SC o del SP

ID de error 6629230: el comando scadm de un dominio de control que ejecuta como mínimo el sistema operativo Solaris 10 11/06 se puede bloquear tras reiniciar el SC. El sistema no puede restablecer una conexión correctamente después de reiniciar el SC.

Solución provisional: reinicie el host para reestablecer la conexión con el SC.

Recuperación: reinicie el host para reestablecer la conexión con el SC.

Mensajes de advertencia ldc_close: (0xb) unregister failed, 11

ID de error 6610702: es posible que aparezca el siguiente mensaje de advertencia en la consola del sistema o en el registro del sistema:

ldc_close: (0xb) unregister failed, 11

Tenga en cuenta que el número entre paréntesis es el número de canal interno de Oracle Solaris, que puede ser diferente para cada mensaje de advertencia.

Solución provisional: puede omitir estos mensajes.

Un dominio invitado con demasiadas redes virtuales en la misma red con DHCP puede dejar de responder

ID de error 6603974: si configura más de cuatro redes virtuales (vnet) en un dominio invitado en la misma red con el protocolo de configuración dinámica de sistemas (DHCP), es posible que el dominio invitado deje de responder al ejecutar el tráfico de red.

Solución provisional: establezca ip_ire_min_bucket_cnt e ip_ire_max_bucket_cnt en valores más altos, por ejemplo, 32 si dispone de 8 interfaces.

Recuperación: ejecute un comando ldm stop-domain ldom seguido de un comando ldm start-domain ldom en el dominio invitado (ldom) correspondiente.

Logical Domains Manager no retira recursos en el dominio invitado tras un error grave y un reinicio

ID de error 6591844: si se produce un error en la memoria o la CPU, es posible que el dominio afectado genere un error grave y se reinicie. Si la arquitectura de gestión de errores (FMA) intenta retirar el componente defectuoso mientras el dominio se reinicia, Logical Domains Manager no puede comunicarse con el dominio y se produce un error al retirar el componente. En este caso, el comando fmadm faulty muestra el recurso como degraded.

Recuperación: espere hasta que el dominio termine de reiniciarse y, a continuación, fuerce a FMA a reproducir el evento de error. Para ello, reinicie el daemon de gestión de errores (fmd) en el dominio de control mediante este comando:

primary# svcadm restart fmd

Las variables de PROM de OpenBoot no se pueden modificar mediante el comando eeprom(1M) cuando se ejecuta Logical Domains Manager

ID de error 6540368: este problema se resume en Conservación de variables de Logical Domains y solo afecta el control de dominio.

No se pueden definir claves de seguridad cuando se ejecuta Logical Domains

ID de error 6510214: en un entorno con Logical Domains, no es posible definir ni suprimir claves de inicio de red de área amplia (WAN) desde el SO Oracle Solaris mediante el comando ickey(1M). Se produce el siguiente error en todas las operaciones ickey:

ickey: setkey: ioctl: I/O error

Además, las claves de inicio WAN que se definen con el firmware OpenBoot en dominios lógicos distintos del dominio de control no se recuerdan tras reiniciar el dominio. En estos dominios, las claves del firmware OpenBoot solamente son válidas para un único uso.

El comportamiento del comando ldm stop-domain puede resultar confuso

ID de error 6506494: en algunos casos, el comportamiento del comando ldm stop-domain puede resultar confuso.

# ldm stop-domain -f ldom

Si el dominio se encuentra en el indicador del depurador del módulo de núcleo, kmdb(1), se produce el siguiente mensaje de error al ejecutar el comando ldm stop-domain:

LDom <domain name> stop notification failed