Omitir V�nculos de navegaci�n | |
Salir de la Vista de impresi�n | |
Notas de la versión de Oracle VM Server for SPARC 2.2 Oracle VM Server for SPARC (Español) |
1. Notas de la versión de Oracle VM Server for SPARC 2.2
SO Oracle Solaris necesario y recomendado
Software necesario para activar las funciones de Oracle VM Server for SPARC 2.2
Parches del firmware del sistema necesarios y recomendados
Versión mínima de software necesaria
Requisitos de hardware y software para E/S directa
Requisitos de hardware y software de SR-IOV PCIe
Requisitos de la migración en directo
Ubicación del software Oracle VM Server for SPARC 2.2
Software que puede utilizarse con Logical Domains Manager
Software del controlador del sistema que interactúa con el software Logical Domains
Actualización al software Oracle VM Server for SPARC 2.2
Actualización del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 5/08
El modo de omisión de MMU de E/S ya no es necesario
Procesador de servicio y controlador del sistema son términos intercambiables
Canales de dominio lógico y Logical Domains
Requisitos del tamaño de la memoria
Inicio de un gran número de dominios
Cierre y apagado y encendido sin errores de un sistema con Logical Domains
El tamaño de memoria solicitado puede ser diferente a la memoria asignada
Conservación de variables de Logical Domains
El agente de gestión de SNMP Sun de Oracle no admite varios dominios
Comando ldmp2v convert: mensajes de advertencia de VxVM durante el inicio
Eliminación de la herramienta del asistente de configuración gráfica
Requisitos de partición física de Oracle para licencias de software
No se muestra la opción de actualización cuando se utiliza ldmp2v prepare -R
Comando ldmp2v: el método de archivado ufsdump ya no se utiliza
Solo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada
Restricciones en la migración de dominios
Restricciones de versiones para la migración
Restricciones de CPU para la migración
Problemas de MIB de Oracle VM Server for SPARC
El comando snmptable no funciona con las versiones 2 o 3
Errores que afectan el software Oracle VM Server for SPARC 2.2
ldmd termina de forma anómala en las operaciones tras cancelar una reconfiguración retrasada
Un dominio desenlazado con CPU desactivadas informa un número incorrecto de recursos de CPU
Error al volver a crear un dominio con funciones virtuales de PCIe desde un archivo XML
ldm init-system informa el error disk server not found
El dominio de control requiere el núcleo más bajo del sistema
Tras cancelar una migración, los comandos ldm que se ejecutan en el sistema de destino no responden
Algunas tarjetas Emulex no funcionan cuando se asignan a un dominio de E/S
Oracle Solaris 11: el robo de DRM informa errores y reintentos de DR en Oracle Solaris
Limitación del número máximo de funciones virtuales que se puede asignar a un dominio
ldm init-system -r -i XML-file no reinicia el dominio primary
La versión 8.2.0 del firmware del sistema contiene una nueva versión de la base de datos scvar
panic: BAD TRAP: occurred in module "pcie" due to an illegal access to a user address
Un backend vdsdev no válido se identifica como una ruta válida
ldm start devuelve incorrectamente 0 en vez de 1 cuando no puede iniciar un dominio invitado
No se debe permitir ldm remove-io en las tarjetas PCIe que tienen puentes de PCIe a PCI
Mensaje de error de SR-IOV impreciso: Create vf failed
El núcleo parcial primary no permite las transiciones de la DR de núcleo completo
ldmconfig solo se admite en los sistemas Oracle Solaris 10
El comando ldm list-io muestra el estado UNK o INV tras el inicio
No se puede desconectar el controlador de la tarjeta de interfaz de red
MIB de Oracle VM Server for SPARC solo se admite en los sistemas Oracle Solaris 10
Eliminación de una gran cantidad de CPU de un dominio invitado
Un dominio con mucha memoria puede tardar bastante en detenerse en el modo elástico
Error de validación de disco virtual para un disco físico sin el segmento 2
Todos los comandos ldm se bloquean cuando faltan recursos NFS compartidos en las migraciones
ldmd no elimina núcleos de un dominio con núcleos parciales
El interbloqueo de los núcleos provoca el bloqueo del equipo durante una migración
Errores de tiempo de espera de CPU virtuales durante la DR
Las operaciones de migración simultáneas en "dirección opuesta" pueden generar un bloqueo de ldm
Eliminación de un gran número de CPU del dominio de control
pkgadd no puede definir las entradas ACL en /var/svc/manifest/platform/sun4v/ldmd.xml
Es posible reasignar una dirección MAC en uso
ldmconfig no puede crear una configuración de dominio en el SP
La DR de memoria se desactiva tras una migración cancelada
Mensaje de error de migración confuso para errores de enlace de memoria en la dirección real
Los comandos ldm responden con lentitud cuando se inician varios dominios
Error grave en el dominio de E/S o el dominio invitado al iniciarse desde e1000g
Los enlaces de puertos y grupos de consolas explícitos no se migran
La base de datos de restricciones no está sincronizada con la configuración guardada
La migración no produce errores si el valor vdsdev del destino tiene otro backend
Logical Domains Manager muestra dominios migrados en estados de transición cuando ya se iniciaron
No se puede conectar con la consola del dominio migrado a menos que se reinicie vntsd
Logical Domains Manager puede tardar más de 15 minutos en cerrar un dominio
El comando scadm puede bloquearse tras un reinicio del SC o del SP
Mensajes de advertencia ldc_close: (0xb) unregister failed, 11
Un dominio invitado con demasiadas redes virtuales en la misma red con DHCP puede dejar de responder
Logical Domains Manager no retira recursos en el dominio invitado tras un error grave y un reinicio
No se pueden definir claves de seguridad cuando se ejecuta Logical Domains
El comportamiento del comando ldm stop-domain puede resultar confuso
Esta sección contiene problemas generales y errores específicos relativos al software Oracle VM Server for SPARC 2.2.
En esta sección se describen los problemas conocidos de esta versión del software Oracle VM Server for SPARC que son más generales que un número de error específico. Cuando es posible, se indican soluciones provisionales.
Si el dominio de control se actualiza de una versión del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 5/08 (o sin el parche 127127-11) y si se exportaron los volúmenes de Volume Manager como discos virtuales, se deben volver a exportar los backend de discos virtuales con options=slice después de actualizar Logical Domains Manager. Consulte Exportación de volúmenes y compatibilidad con versiones anteriores de Guía de administración de Oracle VM Server for SPARC 2.2.
A partir de Oracle VM Server for SPARC 2.0, el modo de omisión de la unidad de gestión de memoria (MMU) de E/S ya no es necesario. Como resultado, la propiedad bypass=on ya no estará disponible para que la utilice el comando ldm add-io.
En la documentación de Oracle VM Server for SPARC, los términos procesador de servicio (SP) y controlador del sistema (SC) son intercambiables.
Si un dominio de servicio utiliza una versión del sistema operativo Oracle Solaris 10 anterior a Oracle Solaris 10 8/11 y exporta un segmento de un disco físico como disco virtual a un dominio invitado, este disco virtual aparecerá en el dominio invitado con un ID de dispositivo incorrecto. Si ese dominio de servicio se actualiza luego a Oracle Solaris 10 8/11, el segmento del disco físico exportado como disco virtual aparecerá en el dominio invitado sin ningún ID de dispositivo.
Esta eliminación del ID de dispositivo del disco virtual puede causar problemas en las aplicaciones que intentan hacer referencia al ID de dispositivo de los discos virtuales. En concreto, esto puede provocar que Oracle Solaris Volume Manager no encuentre su configuración o no pueda acceder a sus metadispositivos.
Solución provisional: tras actualizar un dominio de servicio a Oracle Solaris 10 8/11, si un dominio invitado no encuentra la configuración o los metadispositivos de Oracle Solaris Volume Manager, realice el siguiente procedimiento.
md_devid_destroy=1; md_keep_repl_state=1;
Una vez iniciado el dominio, la configuración y los metadispositivos de Oracle Solaris Volume Manager deben estar disponibles.
Durante el reinicio, aparecerán mensajes similares a los siguientes:
NOTICE: mddb: unable to get devid for 'vdc', 0x10
Estos mensajes son normales y no informan ningún problema.
Existe un límite en el número de canales de dominio lógico (LDC) que están disponibles en cualquier dominio lógico. En los servidores UltraSPARC T2, SPARC T3-1, SPARC T3-1B, SPARC T4-1 y SPARC T4-1B, el límite es 512. En los servidores UltraSPARC T2 Plus y los otros servidores SPARC T3 y SPARC T4, el límite es 768. Esto solo representa un problema para el dominio de control porque este dominio tiene asignado parte del subsistema de E/S o todo el subsistema. Esto también puede representar un problema debido a la gran cantidad de LDC que se pueden crear para las comunicaciones de datos de E/S virtuales y el control de Logical Domains Manager de los otros dominios lógicos.
Si intenta agregar un servicio o enlazar un dominio, de manera que el número de canales LDC supere el límite del dominio de control, la operación no se realizará correctamente y aparecerá un mensaje de error similar al siguiente:
13 additional LDCs are required on guest primary to meet this request, but only 9 LDCs are available
Si tiene una gran cantidad de dispositivos de red virtual conectados al mismo conmutador virtual, puede reducir el número de canales LDC asignados si utiliza el comando ldm add-vsw o ldm set-vsw para definir entrevnet-link=off. Cuando esta propiedad se establece en off, los canales LDC no se utilizan para las comunicaciones entre redes virtuales. En lugar de ello, se asigna un canal LDC solo para la comunicación entre los dispositivos de red virtual y los dispositivos de conmutador virtual. Consulte la página de comando man ldm(1M).
Nota - Desactivar la asignación de canales entre redes virtuales reduce el número de LDC, pero puede afectar el rendimiento de las redes entre invitados.
Las siguientes directrices pueden evitar la creación de una configuración que desborde las capacidades de LDC del dominio de control:
El dominio de control asigna aproximadamente 15 LDC para diferentes cuestiones de comunicación con el hipervisor, la arquitectura de gestión de errores (FMA, Fault Management Architecture) y el controlador del sistema (SC), sin importar el número de otros dominios lógicos configurados. El número exacto de canales LDC asignado por el dominio de control depende de la plataforma y la versión del software que se utiliza.
El dominio de control asigna 1 LDC a cada dominio lógico, incluso a sí mismo, para el control del tráfico.
Cada servicio de E/S virtual del dominio de control consume 1 LDC por cada cliente conectado de ese servicio.
Por ejemplo, supongamos que existe un dominio de control y 8 dominios lógicos adicionales. Cada dominio lógico necesita al menos lo siguiente:
Red virtual
Disco virtual
Consola virtual
Al aplicar las directrices anteriores, se obtienen los siguientes resultados (los números entre paréntesis corresponden al número de directriz anterior del que procede el valor):
15(1) + 9(2) + 8 x 3(3) = 48 LDC en total
Ahora supongamos que existen 45 dominios en lugar de 8, y que cada dominio incluye 5 discos virtuales, 5 redes virtuales y una consola virtual. En este caso, la ecuación es la siguiente:
15 + 46 + 45 x 11 = 556 LDC en total
En función del número de LDC que admita la plataforma, Logical Domains Manager aceptará o rechazará las configuraciones.
El software Oracle VM Server for SPARC no impone un límite de tamaño de memoria al crear un dominio. El requisito de tamaño de memoria es una característica del sistema operativo invitado. Es posible que algunas características de Oracle VM Server for SPARC no funcionen si la cantidad de memoria es inferior al tamaño recomendado. Para conocer los requisitos de memoria recomendados y mínimos del sistema operativo Oracle Solaris 10, consulte Requisitos del sistema y recomendaciones de Guía de instalación de Oracle Solaris 10 8/11: planificación de la instalación y la actualización. Para conocer los requisitos de memoria recomendados y mínimos del sistema operativo Oracle Solaris 11, consulte Notas de la versión de Oracle Solaris 11 .
La PROM OpenBoot tiene una restricción de tamaño mínimo para un dominio. Actualmente, dicha restricción es de 12 MB. Si tiene un dominio menor que ese tamaño, Logical Domains Manager aumentará automáticamente el tamaño del dominio a 12 MB. Consulte las notas de la versión del firmware del sistema para obtener información acerca de los requisitos de tamaño de memoria.
La característica de reconfiguración dinámica (DR) de memoria exige una alineación de 256 MB en la dirección y el tamaño de la memoria implicada en una determinada operación. Consulte Alineación de memoria de Guía de administración de Oracle VM Server for SPARC 2.2.
Puede iniciar el siguiente número de dominios en función de su plataforma:
Hasta 128 en los servidores SPARC T4
Hasta 128 en los servidores SPARC T3
Hasta 128 en los servidores UltraSPARC T2 Plus
Hasta 64 en los servidores UltraSPARC T2
Si hay CPU virtuales sin asignar disponibles, asígnelas al dominio de servicio para ayudar a procesar las solicitudes de E/S virtuales. Asigne de 4 a 8 CPU virtuales al dominio de servicio al crear más de 32 dominios. En los casos en que el número máximo de configuraciones de dominio tiene una única CPU en el dominio de servicio, no someta a esa única CPU a demasiado trabajo al configurar y utilizar el dominio. Los servicios del conmutador virtual (vsw) deben propagarse por todos los adaptadores de red disponibles en el equipo. Por ejemplo, si se inician 128 dominios en un servidor Sun SPARC Enterprise T5240, cree 4 servicios vsw, cada uno con 32 instancias de red virtual (vnet). No cree más de 32 instancias vnet por cada servicio vsw, ya que si la cantidad vinculada a un único vsw es mayor, se puede generar un bloqueo físico en el dominio de servicio.
Para ejecutar el número máximo de configuraciones, un equipo necesita una cantidad de memoria adecuada para admitir los dominios invitados. La cantidad de memoria depende de la plataforma y del sistema operativo. Consulte la documentación de la plataforma en Guía de instalación de Oracle Solaris 10 8/11: planificación de la instalación y la actualización y en Instalación de sistemas Oracle Solaris 11.
El uso de espacio de intercambio y memoria aumenta en un dominio invitado cuando los servicios vsw utilizados por el dominio prestan servicios a varias redes virtuales (en varios dominios). Ello se debe a los vínculos en el mismo nivel que existen entre todos los vnet conectados a vsw. El dominio de servicio se beneficia de la memoria adicional. Se recomiendan 4 GB como mínimo al ejecutar más de 64 dominios. Inicie los dominios en grupos de 10 o menos y espere a que se inicien antes de ponerse en marcha con el siguiente lote. El mismo consejo se aplica a la instalación de sistemas operativos en dominios. Puede reducir el número de vínculos si desactiva los canales entre redes virtuales. Consulte Canales LDC entre redes virtuales de Guía de administración de Oracle VM Server for SPARC 2.2.
Si ha realizado algún cambio de configuración desde la última vez que guardó una configuración en el SC, antes de intentar cerrar o apagar y volver a encender un sistema con Logical Domains, asegúrese de guardar la última configuración que desea conservar.
Como no hay otros dominios enlazados, el firmware apaga el sistema automáticamente.
Como no hay otros dominios enlazados, el firmware apaga y vuelve a encender el sistema automáticamente antes de reiniciarlo. Al reiniciar el sistema, éste se inicia con la configuración de Logical Domains guardada por última vez o definida de manera explícita.
En determinadas circunstancias, Logical Domains Manager redondea la asignación de memoria solicitada al siguiente múltiplo mayor de 8 KB o 4 MB. Esto puede observarse en el siguiente ejemplo del comando ldm list-domain -l, donde el valor límite es menor que el tamaño asignado real:
Memory: Constraints: 1965 M raddr paddr5 size 0x1000000 0x291000000 1968M
Las actualizaciones de variables se conservan tras reiniciar el sistema, pero no tras apagar y volver a encender el sistema, a menos que las actualizaciones de variables se inicien desde el firmware OpenBoot en el dominio de control o que posteriormente se guarde la configuración en el SC.
En este contexto, es importante tener en cuenta que el reinicio del dominio de control puede apagar y volver a encender el sistema:
Al reiniciar el dominio de control, si no existen dominios invitados enlazados ni ninguna reconfiguración retrasada en curso, el SC apagará y volverá a encender el sistema.
Al reiniciar el dominio de control, si hay dominios invitados enlazados o activos (o el dominio de control se encuentra en medio de una reconfiguración retrasada), el SC no apagará ni volverá a encender el sistema.
Las variables de Logical Domains de un dominio se pueden especificar mediante uno de los siguientes métodos:
En el indicador de OpenBoot
Con el comando eeprom(1M) de SO Oracle Solaris
Con la CLI de Logical Domains Manager (ldm)
Modificando, con limitaciones, el controlador del sistema (SC) con el comando bootmode, es decir, solo determinadas variables y solo en la configuración factory-default
El objetivo es que las actualizaciones de variables que se realizan con uno de estos métodos se conserven siempre tras reiniciar el dominio. Las actualizaciones de variables también se reflejan siempre en las configuraciones de dominios lógicos posteriores que se guardaron en el SC.
En el software Oracle VM Server for SPARC 2.2, existen algunos casos en los que las actualizaciones de variables no se conservan del modo esperado:
Todos los métodos para actualizar una variable se conservan tras el reinicio de ese dominio. Sin embargo, no se conservan tras apagar y volver a encender el sistema, a menos que la configuración de dominio lógico posterior se guarde en el SC. Los métodos para actualizar una variable incluyen el uso del firmware OpenBoot y los comandos eeprom y ldm. Además, en el dominio de control, las actualizaciones que se realizan con el firmware OpenBoot se conservan tras apagar y volver a encender el sistema, es decir, incluso sin guardar posteriormente una nueva configuración de dominio lógico en el SC.
En todos los casos, cuando se restablece una configuración generada por Logical Domains Manager a la configuración predeterminada de fábrica, todas las variables de Logical Domains se iniciarán con sus valores predeterminados.
Si le preocupan los cambios en las variables de Logical Domains, siga uno de estos pasos:
Active el indicador ok del sistema y actualice las variables.
Actualice las variables cuando Logical Domains Manager esté desactivado:
# svcadm disable ldmd update variables # svcadm enable ldmd
Al ejecutar Live Upgrade, siga estos pasos:
# svcadm disable -t ldmd # luactivate be3 # init 6
Si modifica la fecha o la hora de un dominio lógico, por ejemplo, mediante el comando ntpdate, el cambio se conserva tras reiniciar el dominio, pero no tras apagar y volver a encender el host. Para asegurarse de que los cambios se conserven, guarde la configuración con el cambio de fecha/hora en el SP y efectúe el inicio desde esa configuración.
Se documentaron los siguientes ID de error para resolver estos problemas: 6520041, 6540368, 6540937 y 6590259.
El agente de gestión del Protocolo simple de administración de redes (SNMP) Sun no admite varios dominios. Solo se admite un único dominio global.
El uso de la reconfiguración dinámica (DR) de CPU para apagar CPU virtuales no funciona con conjuntos de procesadores, grupos de recursos ni con la función de CPU dedicada de la zona.
Cuando se utiliza la política elástica de gestión de energía de la CPU, el invitado del SO Oracle Solaris solo ve las CPU asignadas a los dominios conectados. Eso significa que el resultado del comando psrinfo(1M) cambia de manera dinámica según la cantidad de CPU que actualmente tienen activada la función de gestión de energía. Esto genera un problema con los conjuntos de procesadores y los grupos, que requieren ID de CPU reales estáticos para poder asignarlos a sus conjuntos. Esto también puede afectar la función de CPU dedicada de la zona.
Solución provisional: establezca la política de gestión de energía en la política de rendimiento.
Existen varios problemas relacionados con FMA y las CPU con gestión de energía. Si una CPU presenta un error cuando se ejecuta con la política elástica definida, cambie a la política de rendimiento hasta que se recupere la CPU con errores. Si se recuperan todas las CPU con errores, se puede volver a utilizar la política elástica.
Cuando un dominio primary tiene el estado de reconfiguración retrasada, la gestión de energía de las CPU solo se activará una vez que se reinicie el dominio primary. Esto significa que la gestión de energía de la CPU no activará más CPU mientras el dominio utilice una carga elevada hasta que se reinicie el dominio primary, lo que anula el estado de reconfiguración retrasada.
El sistema operativo Oracle Solaris 10 10/09 incluye la capacidad de agregar y eliminar de forma dinámica unidades criptográficas de un dominio. Este proceso se denomina reconfiguración dinámica (DR) de unidades criptográficas. Logical Domains Manager detecta automáticamente si un dominio permite la DR de unidades criptográficas y solo activa la función para esos dominios. Además, la DR de CPU ya no está desactivada en los dominios que tienen unidades criptográficas enlazadas y que utilizan una versión adecuada del SO Oracle Solaris.
No se realizan operaciones de desactivación del núcleo en los dominios que tienen unidades criptográficas enlazadas cuando el SP se establece en la política elástica. Para activar las operaciones de desactivación del núcleo cuando el sistema tiene establecida la política elástica, elimine las unidades criptográficas que están enlazadas al dominio.
La versión Veritas Volume Manager (VxVM) 5.x en el sistema operativo Oracle Solaris 10 es la única versión compatible (probada) con la herramienta P2V de Oracle VM Server for SPARC. También pueden funcionar versiones anteriores de VxVM, como 3.x y 4.x con los sistemas operativos Solaris 8 y Solaris 9. En esos casos, el primer inicio tras la ejecución del comando ldmp2v convert puede mostrar mensajes de advertencia de los controladores de VxVM. Puede omitir estos mensajes. Puede eliminar los paquetes VRTS* anteriores después del inicio del dominio invitado.
Boot device: disk0:a File and args: SunOS Release 5.10 Version Generic_139555-08 64-bit Copyright 1983-2009 Sun Microsystems, Inc. All rights reserved. Use is subject to license terms. Hostname: normaal Configuring devices. /kernel/drv/sparcv9/vxdmp: undefined symbol ?romp? WARNING: mod_load: cannot load module ?vxdmp? WARNING: vxdmp: unable to resolve dependency, module ?misc/ted? not found /kernel/drv/sparcv9/vxdmp: undefined symbol ?romp? WARNING: mod_load: cannot load module ?vxdmp? WARNING: vxdmp: unable to resolve dependency, module ?misc/ted? not found /kernel/drv/sparcv9/vxio: undefined symbol ?romp? WARNING: mod_load: cannot load module ?vxio? WARNING: vxio: unable to resolve dependency, module ?drv/vxdmp? not found WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER NOTICE: VxVM not started
El espacio de asociación ampliado solo está disponible en los sistemas operativos Oracle Solaris 10 8/11 y Oracle Solaris 11. De forma predeterminada, esta función está desactivada.
Puede utilizar los comandos ldm add-domain o ldm set-domain para activar el modo mediante la configuración de extended-mapin-space=on en un dominio con el sistema operativo Oracle Solaris 10 8/11 o Oracle Solaris 11. Consulte la página de comando man ldm(1M).
A partir de Oracle VM Server for SPARC 2.1, solo está disponible la herramienta del asistente de configuración basado en terminal, ldmconfig. La herramienta de la interfaz gráfica de usuario ya no está disponible.
Para obtener información sobre los requisitos de partición física de Oracle para las licencias de software, consulte Partición: partición de servidor/hardware.
El instalador de Oracle Solaris no muestra la opción de actualización cuando la etiqueta de partición del segmento que contiene el sistema de archivos raíz (/) no se definió en root. Esta situación se produce si no se configura la etiqueta de forma explícita al etiquetar el disco de inicio del invitado. Puede usar el comando format para definir la etiqueta de partición como se indica a continuación:
AVAILABLE DISK SELECTIONS: 0. c0d0 <SUN-DiskImage-10GB cyl 282 alt 2 hd 96 sec 768> /virtual-devices@100/channel-devices@200/disk@0 1. c4t2d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848> /pci@400/pci@0/pci@1/scsi@0/sd@2,0 2. c4t3d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848> /pci@400/pci@0/pci@1/scsi@0/sd@3,0 Specify disk (enter its number)[0]: 0 selecting c0d0 [disk formatted, no defect list found] format> p PARTITION MENU: 0 - change `0' partition 1 - change `1' partition 2 - change `2' partition 3 - change `3' partition 4 - change `4' partition 5 - change `5' partition 6 - change `6' partition 7 - change `7' partition select - select a predefined table modify - modify a predefined partition table name - name the current table print - display the current table label - write partition map and label to the disk !<cmd> - execute <cmd>, then return quit partition> 0 Part Tag Flag Cylinders Size Blocks 0 unassigned wm 0 0 (0/0/0) 0 Enter partition id tag[unassigned]: root Enter partition permission flags[wm]: Enter new starting cyl[0]: 0 Enter partition size[0b, 0c, 0e, 0.00mb, 0.00gb]: 8g partition> label Ready to label disk, continue? y partition>
Un bloque de memoria agregada de forma dinámica solo se puede eliminar dinámicamente como un conjunto. Es decir, no se puede eliminar dinámicamente un subconjunto de ese bloque de memoria.
Esta situación se puede presentar si un dominio con una memoria de tamaño pequeño aumenta de forma dinámica a un tamaño mucho mayor, como se muestra en el siguiente ejemplo:
# ldm list ldom1 NAME STATE FLAGS CONS VCPU MEMORY UTIL UPTIME ldom1 active -n---- 5000 2 1G 0.4% 23h # ldm add-mem 16G ldom1 # ldm rm-mem 8G ldom1 Memory removal failed because all of the memory is in use. # ldm rm-mem 16G ldom1 # ldm list ldom1 NAME STATE FLAGS CONS VCPU MEMORY UTIL UPTIME ldom1 active -n---- 5000 2 1G 0.4% 23h
Solución provisional: agregue memoria dinámicamente en cantidades menores para reducir la probabilidad de que se produzca esta condición.
Recuperación: reinicie el dominio.
Si se restauran los archivos ufsdump en un disco virtual del que un archivo de un sistema de archivos UFS realiza copias de seguridad, es posible que se bloquee el sistema. En ese caso, se terminará el comando ldmp2v prepare. Es posible que se presente este problema al restaurar manualmente los archivos ufsdump como parte de la preparación para el comando ldmp2v prepare -R /altroot cuando el disco virtual es un archivo que se encuentra en un sistema de archivos UFS. Para mantener la compatibilidad con los archivos ufsdump creados anteriormente, puede seguir utilizando el comando ldmp2v prepare para restaurar los archivos ufsdump en los discos virtuales cuyas copias se seguridad no se realicen en un archivo de un sistema de archivos UFS. Sin embargo, no se recomienda usar archivos ufsdump.
No intente realizar más de una operación de configuración de CPU en el dominio primary mientras se encuentra en una reconfiguración retrasada. Si intenta realizar más solicitudes de configuración de CPU, estas se rechazarán.
Solución provisional: realice una de las acciones siguientes:
Cancele la reconfiguración retrasada, inicie otra y vuelva a solicitar los cambios de configuración que se perdieron en la reconfiguración retrasada anterior.
Reinicie el dominio de control con el recuento de CPU incorrecto y, a continuación, realice las correcciones de asignación una vez que se reinicie el dominio.
En las siguientes secciones se describen las restricciones para la migración de dominios. Las versiones del software Logical Domains Manager y del firmware del sistema deben ser compatibles para permitir las migraciones. Además, debe cumplir determinados requisitos de CPU para garantizar una migración de dominios correcta.
Los equipos de origen y de destino deben ejecutar como mínimo la versión 2.1 de Logical Domains Manager.
En los siguientes ejemplos se muestran los mensajes que aparecen cuando se ejecutan versiones anteriores de Logical Domains Manager, el firmware del sistema o ambos:
El equipo de destino ejecuta una versión anterior de Logical Domains Manager.
Por ejemplo, supongamos que los equipos de origen y de destino ejecutan lo siguiente:
Equipo de origen. Ejecuta la versión 2.1 de Logical Domains Manager y la versión 7.4 del firmware del sistema.
Equipo de destino. Ejecuta la versión 2.0 de Logical Domains Manager y la versión 7.4 del firmware del sistema.
# ldm migrate ldg1 system2 The target machine is running an older version of the domain manager that does not support the latest migration functionality.
El equipo de origen ejecuta una versión anterior de Logical Domains Manager.
Por ejemplo, supongamos que los equipos de origen y de destino ejecutan lo siguiente:
Equipo de origen. Ejecuta la versión 2.0 de Logical Domains Manager y la versión 7.4 del firmware del sistema.
Equipo de destino. Ejecuta la versión 2.1 de Logical Domains Manager y la versión 7.4 del firmware del sistema.
# ldm migrate ldg1 system2 The source machine is running an older version of the domain manager that is not compatible with the version running on the target machine.
Los equipos de origen y de destino ejecutan una versión anterior de Logical Domains Manager.
Por ejemplo, supongamos que los equipos de origen y de destino ejecutan lo siguiente:
Equipo de origen. Ejecuta la versión 2.0 de Logical Domains Manager y la versión 7.3 del firmware del sistema.
Equipo de destino. Ejecuta la versión 2.0 de Logical Domains Manager y la versión 7.4 del firmware del sistema.
# ldm migrate ldg1 system2 Unable to migrate guest resource state Domain Migration of LDom ldg1 failed
El equipo de destino ejecuta una versión anterior del firmware del sistema que no es compatible con la versión del firmware del sistema que se ejecuta en el equipo de origen.
Por ejemplo, supongamos que los equipos de origen y de destino ejecutan lo siguiente:
Equipo de origen. Ejecuta la versión 2.1 de Logical Domains Manager y la versión 7.4 del firmware del sistema.
Equipo de destino. Ejecuta la versión 2.1 de Logical Domains Manager y la versión 7.3 del firmware del sistema.
# ldm migrate ldg1 system2 The target machine is running an older version of the System Firmware that is not compatible with the version running on the source machine.
El equipo de origen ejecuta una versión anterior del firmware del sistema que no es compatible con la versión del firmware del sistema que se ejecuta en el equipo de destino.
Por ejemplo, supongamos que los equipos de origen y de destino ejecutan lo siguiente:
Equipo de origen. Ejecuta la versión 2.1 de Logical Domains Manager y la versión 7.3 del firmware del sistema.
Equipo de destino. Ejecuta la versión 2.1 de Logical Domains Manager y la versión 7.4 del firmware del sistema.
# ldm migrate ldg1 system2 The source machine is running an older version of the System Firmware that does not support the latest migration functionality.
Si el dominio que se migrará ejecuta una versión del SO Oracle Solaris anterior al sistema operativo Oracle Solaris 10 8/11, es posible que aparezca el siguiente mensaje durante la migración:
Domain domain-name is not running an operating system that is compatible with the latest migration functionality.
Los siguientes requisitos y restricciones de CPU se aplican solo cuando se ejecuta un sistema operativo anterior a Oracle Solaris 10 8/11:
Se deben asignar núcleos completos al dominio migrado. Si el número de subprocesos del dominio que se migrará es menor que un núcleo completo, los subprocesos adicionales no estarán disponibles para ningún dominio hasta que se reinicie el dominio migrado.
Después de una migración, la reconfiguración dinámica (DR) de CPU se desactivará para el dominio migrado hasta que se reinicie. Tras el reinicio, podrá utilizar la DR de CPU en el dominio migrado.
El equipo de destino debe tener suficientes núcleos completos disponibles para proporcionar el número de subprocesos necesarios para el dominio migrado. Después de la migración, si el dominio migrado solo utiliza un núcleo completo de forma parcial, los subprocesos adicionales no estarán disponibles para ningún dominio hasta que se reinicie el dominio migrado.
Estas restricciones también se aplican cuando intenta migrar un dominio que se ejecuta en OpenBoot o en el depurador del núcleo. Consulte Migración de un dominio desde una PROM OpenBoot o un dominio que ejecuta el depurador de núcleo de Guía de administración de Oracle VM Server for SPARC 2.2.
En esta sección se resumen los problemas que pueden surgir al utilizar el software Base de datos de información de administración (MIB) de Oracle VM Server for SPARC.
Nota - El software MIB de Oracle VM Server for SPARC solo está disponible en los sistemas Oracle Solaris 10.
ID de error 6521530: recibe tablas SNMP vacías si consulta el software MIB de Oracle VM Server for SPARC 2.1 mediante el comando snmptable con la opción -v2c o -v3. El comando snmptable funciona del modo esperado con la opción -v1.
Solución provisional: utilice la opción -CB para usar solo las consultas GETNEXT, no GETBULK, para recuperar datos. Consulte Cómo recuperar objetos de la MIB de Oracle VM Server for SPARC de Guía de administración de Oracle VM Server for SPARC 2.2.
En esta sección se resumen los errores que pueden surgir al utilizar esta versión del software. Las descripciones de los errores están ordenadas de forma numérica por ID de error. Se especifican las soluciones provisionales y los procedimientos de recuperación disponibles.
ID de error 7166620: si se reinicia el dominio de control cuando hay 11 dominios invitados o más con dispositivos de punto final PCIe asignados, no es posible acceder a los dispositivos PCIe en el dominio invitado.
Recuperación: detenga y reinicie los dominios invitados afectados.
Solución provisional: configure una relación de dependencia entre el dominio de control y los dominios invitados que tengan asignados dispositivos de punto final PCIe. La siguiente relación de dependencia garantiza que los dominios con dispositivos de punto final PCIe se detengan automáticamente cuando el dominio de control se reinicia por algún motivo:
primary# ldm set-domain failure-policy=stop primary primary# ldm set-domain master=primary ldom
ID de error 7165095 y 7165101: en un sistema que tiene dominios SR-IOV o de E/S directa, si se cancela una reconfiguración retrasada y luego se realiza una operación de reconfiguración posterior, el daemon ldmd termina de forma anómala y genera un archivo core. El servicio SMF ldmd también puede pasar al modo de mantenimiento.
Solución provisional: evite usar el comando ldm cancel-reconf. Si debe cancelar o si ya ha cancelado la reconfiguración retrasada, reinicie el servicio SMF ldmd antes de realizar otras operaciones ldm.
# scvadm restart ldmd
Recuperación: si el servicio SMF ldmd pasa al modo de mantenimiento, debe apagar y volver a encender el sistema para poder restaurar el servicio ldmd.
A continuación, se muestra cómo apagar y volver a encender el sistema desde el dominio de control y desde el procesador de servicio (SP):
Dominio de control. Ejecute el siguiente comando:
# halt
SP. Ejecute los comandos siguientes:
-> stop /SYS Are you sure you want to stop /SYS (y/n)? y -> show /HOST status /HOST Properties: status = Powered Off -> start /SYS Are you sure you want to start /SYS (y/n)? y Starting /SYS -> start /HOST/console Are you sure you want to start /HOST/console (y/n)? y ->
ID de error 7160502: es posible que, si existen CPU desactivadas, Logical Domains Manager informe un número incorrecto de recursos de CPU. En el ejemplo siguiente se muestra cómo al desenlazar un dominio se cambia incorrectamente el recuento de recursos de CPU del dominio:
# ldm list NAME STATE FLAGS CONS VCPU MEMORY UTIL UPTIME primary active -n-cv- UART 9 4G 0.2% 1h 5m ldg1 bound ------ 5000 116 2G # ldm unbind ldg1 # ldm list NAME STATE FLAGS CONS VCPU MEMORY UTIL UPTIME primary active -n-cv- UART 9 4G 1.1% 1h 5m ldg1 inactive ------ 120 2G
En este punto, el número de recursos de CPU es incorrecto. El recuento del dominio ldg1 debe ser 116 y no 120 como se muestra después de desenlazar el dominio.
Nota - Este es solo un ejemplo y posiblemente existan otras situaciones en las que el recuento de CPU es incorrecto debido a la presencia de CPU desactivadas. En esos casos, utilice el enfoque que se presenta en la solución provisional.
Solución provisional: si es posible, evite usar núcleos con CPU desactivadas. De lo contrario, cuando desenlace un dominio que tiene núcleos desactivados, asegúrese de restablecer el número de CPU a la cantidad correcta, de forma que el dominio se pueda volver a enlazar más adelante.
Para volver a enlazar el dominio, debe restablecer el número de recursos de CPU. Por ejemplo:
# ldm set-vcpu 116 ldg1 # ldm bind ldg1
ID de error 7159359: es posible que se produzca un problema al intentar volver a crear una configuración desde un archivo XML que representa las restricciones de funciones virtuales de manera incorrecta.
Este problema se produce cuando utiliza el comando ldm list-constraints -x para guardar la configuración de un dominio que tiene funciones virtuales de PCIe.
Si más adelante vuelve a crear el dominio con el comando ldm add-domain -i, las funciones virtuales originales no estarán presentes y se mostrará el siguiente mensaje error al intentar enlazar un dominio:
No free matching PCIe device...
Incluso si crea las funciones virtuales que faltan, se produce el mismo mensaje de error al intentar enlazar otro dominio, ya que el comando ldm add-domain clasifica de manera incorrecta las funciones virtuales como dispositivos PCIe.
Solución provisional: utilice el comando ldm list-io para guardar la información sobre las funciones virtuales y, a continuación, utilice el comando ldm rm-dom para destruir cada dominio afectado. Luego, utilice el comando ldm create-vf para crear todas las funciones virtuales necesarias. Ahora, puede usar el comando ldm para volver a crear los dominios. Cuando utiliza el comando ldm add-io para agregar las funciones virtuales, estas se clasifican correctamente como un dispositivo de funciones virtuales, por lo que el dominio se puede enlazar.
Para obtener información sobre cómo volver a crear una configuración de dominio que utiliza funciones virtuales, consulte El comando ldm init-system no puede volver a crear correctamente un dominio que tiene dispositivos de funciones virtuales.
ID de error 7159114: al pasar del uso de núcleos con restricciones físicas al uso de recursos de CPU sin restricciones en el control de dominio, es posible que aparezca el siguiente mensaje irrelevante:
Whole-core partitioning has been removed from domain primary,because dynamic reconfiguration has failed and the domain is now configured with a partial CPU core.
Solución provisional: puede omitir este mensaje.
ID de error 7158496: al utilizar el comando ldm list-constraints -x para guardar las restricciones en un archivo XML, no se guardan los detalles de las funciones virtuales. Como resultado, cuando se restablece la configuración a factory-default y se ejecuta el comando ldm init-system para volver a crear la configuración guardada, no se crean las funciones virtuales y se produce un error al intentar enlazar cualquier dominio.
Solución provisional: si la configuración existente tiene funciones virtuales, guarde toda la información sobre esas funciones virtuales. Posteriormente, podrá utilizar esta información para volver a crear manualmente las funciones virtuales antes de ejecutar el comando ldm init-system.
El procedimiento siguiente muestra cómo guardar toda la información sobre las funciones virtuales para usarla más adelante:
Guarde la configuración del dominio en un archivo, vfs.txt, para usarla cuando vuelva a crear las funciones virtuales.
primary# ldm list-io -l -p | grep "type=VF" >vfs.txt
Una entrada típica de una función virtual de vfs.txt tendrá el siguiente aspecto:
|dev=pci@400/pci@1/pci@0/pci@4/network@0,83|alias=/SYS/MB/NET0/IOVNET.PF1.VF1| status=RDY|domain=ldg1|type=VF|class=NETWORK |proptype=class|mac-addr=00:14:4f:f9:74:d0 |proptype=class|vlan-ids=3,5,7 |proptype=class|mtu=1500 |proptype=device|unicast-slots=6
La primera línea se divide intencionalmente en dos líneas para facilitar su lectura. Se mostrará como una sola línea en el archivo vfs.txt.
Restablezca el dominio a la configuración factory-default.
Reinicie el dominio de control.
Cree las funciones virtuales de acuerdo con la información del archivo vfs.txt.
En cada entrada, utilice el comando ldm create-vf para volver a crear la función virtual con su nombre y sus propiedades originales. Use el siguiente comando para la función virtual de ejemplo:
primary# ldm create-vf mac-addr=00:14:4f:f9:74:d0 vid=3,5,7 mtu=1500 \ unicast-slots=6 /SYS/MB/NET0/IOVNET.PF1
Para obtener detalles sobre las propiedades class y device, consulte la página del comando man ldm(1M).
Nota - El nombre de la función virtual se genera a partir del nombre de su función física principal. Como resultado, ejecute los comandos ldm create-vf en orden numérico ascendente de acuerdo con la parte del nombre correspondiente a la función virtual. Por ejemplo, la función física /SYS/MB/NET0/IOVNET.PF1 tiene las siguientes funciones virtuales secundarias:
/SYS/MB/NET0/IOVNET.PF1.VF0 mac-addr=00:14:4f:f9:74:d0 /SYS/MB/NET0/IOVNET.PF1.VF1 mac-addr=00:14:4f:f9:74:d1
En los siguientes comandos se crean las funciones virtuales:
primary# ldm create-vf mac-addr=00:14:4f:f9:74:d0 /SYS/MB/NET0/IOVNET.PF1 Created new VF: /SYS/MB/NET0/IOVNET.PF1.VF0 primary# ldm create-vf mac-addr=00:14:4f:f9:74:d1 /SYS/MB/NET0/IOVNET.PF1 Created new VF: /SYS/MB/NET0/IOVNET.PF1.VF1
El primer comando ldm create-vf hace que el sistema pase al modo de reconfiguración retrasada.
Compruebe que la nueva configuración incluya las funciones virtuales que creó manualmente.
primary# ldm list-io -l -p | grep "type=VF" >vfs.after.txt
Compare el contenido del archivo vfs.after.txt con el archivo vfs.txt.
Reinicie el dominio de control.
Vuelva a configurar un dominio desde un archivo XML.
primary# ldm init-system -i file.xml
ID de error 7158454: es posible que Logical Domains Manager se bloquee y se reinicie cuando intenta realizar una operación que afecta la configuración de varios dominios. Es posible que se muestre este problema al intentar cambiar algún valor relacionado con la configuración de red virtual, si existen varios dispositivos de red virtual en el mismo conmutador virtual para varios dominios. Normalmente, este problema se muestra cuando hay alrededor de 90 dominios o más que tienen dispositivos de red virtual conectados al mismo conmutador virtual y cuando la propiedad inter-vnet-link está activada (comportamiento predeterminado). Para confirmar el síntoma, busque el siguiente mensaje en el archivo de registro ldmd y el archivo core en el directorio /var/opt/SUNWldm:
Frag alloc for 'domain-name'/MD memory of size 0x80000 failed
Solución provisional: evite crear muchos dispositivos de red virtual conectados al mismo conmutador virtual. Si desea hacerlo, establezca la propiedad inter-vnet-link en off en el conmutador virtual. Tenga en cuenta que esta opción puede afectar el rendimiento de las redes entre dominios invitados.
ID de error 7155386: cuando un archivo XML contiene configuraciones de dominio de control y de dominios invitados, ldm init-system configura primero los dominios invitados y luego el dominio de control. En una configuración predeterminada de fábrica que no tiene definido un servidor de disco virtual, es posible que se produzca el siguiente error al intentar agregar un dispositivo de servidor de disco virtual en los dominios invitados:
Disk Server xxx not found
Este error se produce si el dominio de control debe proporcionar el servidor de disco virtual especificado.
ID de error 7155349: si se configuran las ranuras de unidifusión en un número que supera el límite máximo, se produce el mensaje de error correspondiente. Sin embargo, el número de ranuras de unidifusión se restablece de manera incorrecta y silenciosa en 0.
Solución provisional: especifique un valor para el número de ranuras de unidifusión que esté dentro del rango de valores admitidos.
ID de error 7155282: si intenta configurar más ranuras de unidifusión para las funciones físicas y virtuales ixgbe que el número permitido por el límite máximo, el comando se ejecuta correctamente. Se debería generar un error al intentar superar este límite máximo, pero esto no sucede.
Utilice el siguiente comando para identificar el número máximo de ranuras de unidifusión admitido por el dispositivo:
# ldm list-io -d pf-name
A continuación, asegúrese de que el número total de ranuras de unidifusión asignado a cada función virtual de esa función física no supere el valor máximo.
ID de error 7153060: el dominio de control requiere el núcleo más bajo del sistema. Por lo tanto, si el ID de núcleo 0 es el núcleo más bajo, no se puede compartir con ningún otro dominio si desea aplicar la restricción de núcleo completo al dominio de control.
Por ejemplo, si el núcleo más bajo del sistema es el ID de núcleo 0, el dominio de control tendrá un aspecto similar al siguiente:
# ldm ls -o cpu primary NAME primary VCPU VID PID CID UTIL STRAND 0 0 0 0.4% 100% 1 1 0 0.2% 100% 2 2 0 0.1% 100% 3 3 0 0.2% 100% 4 4 0 0.3% 100% 5 5 0 0.2% 100% 6 6 0 0.1% 100% 7 7 0 0.1% 100%
ID de error 7151847: el servicio de la utilidad de gestión de servicios (SMF, Service Management Facility) del daemon ldmd no se conecta si el software Oracle VM Server for SPARC 2.2 está instalado en un dominio de control que ejecuta la versión Oracle Solaris 10 10/09 del SO Oracle Solaris o versiones anteriores. Esta situación se produce porque se agregó una dependencia SMF explícita en el servicio SMF svc:/ldoms/agents.
Solución provisional: instale el ID de parche 142909-17, que permite la compatibilidad con el servicio SMF svc:/ldoms/agents, ldmad, del que depende ldmd.
ID de error 7150793: si cancela una migración en directo, el contenido de la memoria de la instancia del dominio que se crea en el destino se debe “limpiar” mediante el hipervisor. Este proceso de limpieza se realiza por motivos de seguridad y se debe completar para que la memoria pueda regresar al grupo de memoria libre. Mientras esta limpieza está en curso, los comandos ldm no responden. Como resultado, Logical Domains Manager parece estar bloqueado.
Recuperación: debe esperar a que se complete esta solicitud de “limpieza” antes de intentar ejecutar otros comandos ldm. Este proceso puede tardar bastante. Por ejemplo, un dominio invitado que tiene 500 GB de memoria puede completar este proceso en 7 minutos como máximo en un servidor SPARC T4 o en 25 minutos como máximo en un servidor SPARC T3.
ID de error 7150209: en un sistema que ejecuta el SO Oracle Solaris en el dominio de control y un dominio de E/S, algunas tarjetas Emulex asignadas al dominio de E/S no funcionan correctamente porque las tarjetas no reciben interrupciones. Sin embargo, cuando se asignan al dominio de control, las mismas tarjetas funcionan correctamente.
Este problema se produce con las siguientes tarjetas Emulex:
Adaptador de host Emulex 2 Gb/s PCI Express Single/Dual FC (SG-XPCIE1(2)FC-EM2)
Adaptador de host Emulex 4 Gb/s PCI Express Single/Dual FC (SG-XPCIE2FC-EB4-N)
Adaptador de host Emulex 4 Gb/s PCI Express Single/Dual FC (SG-XPCIE1(2)FC-EM4)
Adaptador de host Emulex 8 Gb/s PCI Express Single/Dual FC (SG-XPCIE1(2)FC-EM8-Z)
Adaptador de host Emulex 8 Gb/s PCI Express Single/Dual FC (SG-XPCIE1(2)FC-EM8-N)
Solución provisional: ninguna.
ID de error 7149951: si el comando cputrack se ejecuta en un dominio invitado mientras ese dominio se migra a un sistema SPARC T4, es posible que se produzca un error grave en el dominio invitado del equipo de destino después de la migración.
Solución provisional: no ejecute el comando cputrack durante la migración de un dominio invitado a un sistema SPARC T4.
ID de error 7149365: un dominio que tiene una política de prioridad más alta puede robar recursos de CPU virtuales de un dominio con una política de prioridad más baja. Cuando esta acción de “robo” está en curso, es posible que vea los siguientes mensajes de advertencia en el registro ldmd cada 10 segundos:
warning: Unable to unconfigure CPUs out of guest domain-name
Solución provisional: puede omitir estos mensajes engañosos.
ID de error 7149323: un dominio de E/S tiene un límite para el número de recursos de interrupción disponibles por cada complejo de raíz.
En los sistemas SPARC T3 y SPARC T4, el límite es de aproximadamente 63 MSI/vectores X. Cada función virtual igb utiliza tres interrupciones. La función virtual ixgbe utiliza dos interrupciones.
Si asigna una gran cantidad de funciones virtuales a un dominio, se agotan los recursos del sistema del dominio necesarios para admitir estos dispositivos. Aparecerán mensajes similares a los siguientes:
WARNING: ixgbevf32: interrupt pool too full. WARNING: ddi_intr_alloc: cannot fit into interrupt pool
ID de error 7148394: tras migrar un dominio entre dos equipos que tienen frecuencias de CPU diferentes, es posible que los informes de tiempo de actividad del comando ldm list sean incorrectos. Estos resultados incorrectos se generan porque el tiempo de actividad se calcula en función de la frecuencia STICK del equipo en el que se ejecuta el dominio. Si la frecuencia STICK es diferente entre los equipos de origen y de destino, los valores de tiempo de actividad parecen calcularse de manera incorrecta.
Los valores de tiempo de actividad informados y mostrados en el dominio invitado son correctos. Asimismo, cualquier cálculo que se realiza en el SO Oracle Solaris del dominio invitado es correcto.
ID de error 7146725: cuando utiliza el comando ldm init-system para instalar un dominio desde una configuración XML, el dominio primary no se puede reiniciar aunque se especifique la opción -r.
Solución provisional: reinicie manualmente el dominio primary.
ID de error 7146423: cuando se inicia con una tarjeta de controlador Ethernet Intel X540 de puerto doble, es posible que se produzca un error grave del sistema en el controlador ixgbe de Oracle Solaris 10. Este error grave se produce porque el controlador tiene un temporizador de prioridad alta que bloquea la conexión de otros controladores.
Solución provisional: reinicie el sistema.
ID de error 7144314: la versión 8.2.0 del firmware del sistema contiene una nueva versión de la base de datos scvar, que restablece los valores predeterminados una vez finalizada la instalación.
Solución provisional: toma nota de la configuración de Oracle VM Server for SPARC en ejecución o cualquier cambio en las propiedades de diagnóstico del sistema antes de instalar el firmware del sistema. Utilice el comando show de ILOM. Por ejemplo:
-> show /HOST/domain/configs
Después de instalar el firmware y antes de encender el sistema, utilice el comando set de ILOM. Por ejemplo:
-> set /HOST/bootmode config=config-name
En este punto, se conservan las configuraciones de Oracle VM Server for SPARC. No obstante, debe seleccionar si desea iniciar una configuración específica o la configuración factory-default.
Los siguientes valores de propiedades se restablecen a los valores predeterminados después de instalar el firmware:
/HOST Properties: autorunonerror ioreconfigure /HOST/bootmode Properties: config /HOST/diag Properties: error_reset_level error_reset_verbosity hw_change_level hw_change_verbosity level mode power_on_level power_on_verbosity trigger verbosity /HOST/domain/control Properties: auto-boot boot_guests /HOST/tpm Properties: enable activate forceclear /SYS Properties: keyswitch_state /SP/powermgmt Properties: policy
ID de error 7142913: después de enlazar e iniciar 15 dominios invitados, se produce un error grave en el dominio primary y se muestra el siguiente mensaje de error:
panic: BAD TRAP: occurred in module "pcie" due to an illegal access to a user address
Los dominios se configuran de la siguiente manera:
Dominio invitado. Tiene los dispositivos de funciones virtuales igb e ixgbe. También tiene la propiedad master definida en primary.
Dominio primary. Tiene la propiedad failure-policy establecida en stop.
ID de error 7134203: los dispositivos de E/S existentes no se eliminan correctamente del dominio de control cuando se vuelve a configurar este dominio desde un archivo XML con el comando ldm init-system. Esta situación puede provocar un error de enlace en el dominio invitado si el dominio de control aún tiene los dispositivos PCIe de nodo de hoja enlazados al dominio de control.
ID de error 7131596: si especifica un backend vdsdev incorrecto para el comando ldm add-vdsdev, el mensaje de error resultante identifica el backend como una ruta válida:
# ldm add-vdsdev /wrong/path/file disk1@primary-vds0 Path /wrong/path/file is valid but not accessible on service domain primary
Solución provisional: verifique y, si es necesario, corrija la ruta especificada.
ID de error 7130693: después de desactivar la restricción de núcleo completo, la restricción vuelve a aparecer tras reiniciar el dominio primary.
Este problema solo se produce en las siguientes circunstancias:
El dominio primary está en el modo de reconfiguración retrasada.
El número de CPU virtuales que especificó con el comando ldm set-vcpu (sin la opción -c) coincide con el número de CPU virtuales que se utilizó para establecer la restricción de núcleo completo antes de iniciar la reconfiguración retrasada.
Solución provisional: desactive la restricción de núcleo completo. Para ello, especifique otro número de CPU virtuales.
ID de error 7129252: los recursos del complejo de raíz no se restauran después de destruir todas las funciones virtuales y regresar las ranuras al dominio raíz.
Solución provisional: siga estos pasos:
Elimine el bus PCIe del dominio raíz.
primary# ldm rm-io pci_0 primary Initiating a delayed reconfiguration operation on the primary domain. All configuration changes for other domains are disabled until the primary domain reboots, at which time the new configuration for the primary domain will also take effect.
Reasigne el bus PCIe al dominio raíz.
primary# ldm add-io pci_0 primary ------------------------------------------------------------------------------ Notice: The primary domain is in the process of a delayed reconfiguration. Any changes made to the primary domain will only take effect after it reboots. ------------------------------------------------------------------------------
Reinicie el bus PCIe en el dominio raíz.
primary# reboot
ID de error 7125579: es posible que no se puede iniciar un dominio invitado debido a un error inesperado del hipervisor. Incluso si el dominio no se puede iniciar, el comando termina con 0 en vez de 1 y muestra el siguiente mensaje de error:
LDom domain start failed, retry the operation
Solución provisional: no dependa únicamente del código de salida para determinar si un dominio se inició correctamente. En su lugar, realice una de las siguientes comprobaciones:
Verifique que el comando ldm muestre un mensaje de error.
Compruebe el estado del dominio una vez que se complete el comando de inicio.
ID de error 7121963: utilice solo tarjetas PCIe que admiten la función de E/S directa. Estas tarjetas se enumeran en este documento de asistencia técnica.
Solución provisional: utilice el comando ldm add-io para volver a agregar la tarjeta al dominio primary.
ID de error 7118936: si ejecuta un comando ldm stop inmediatamente después de un comando ldm start, el comando ldm stop puede generar el siguiente error:
LDom domain stop notification failed
Solución provisional: vuelva a ejecutar el comando ldm stop.
ID de error 7109458: utilizar el comando ldm set-io para cambiar el valor de la propiedad pvid para una función virtual más de una vez puede provocar que el valor pvid no se defina correctamente en el hardware de funciones virtuales.
Solución provisional: espere unos segundos antes de ejecutar de nuevo el comando ldm set-io.
ID de error 7104911: se produce un error grave en el sistema al reiniciar un dominio primary que tiene un gran número de funciones virtuales asignadas.
Solución provisional: siga una de estas soluciones provisionales:
Disminuya el número de funciones virtuales para reducir el número de funciones virtuales con errores. Este cambio puede mantener la capacidad de respuesta del chip.
Cree más grupos de gestión de recursos de interrupción (IRM, Interrupt Resource Management) para la función virtual ixgbe, ya que solo se crea un grupo de IRM para todas las funciones virtuales ixgbe del sistema.
ID de error 7101229: al intentar crear una función virtual más que el número máximo de funciones virtuales configurables para un dispositivo de funciones físicas, se genera el mensaje Create vf failed. Este mensaje de error no es claro en cuanto al motivo del error.
ID de error 7100859: es posible que se produzca un error grave del sistema en el inicio si utiliza la función de E/S directa (ldm remove-io) para eliminar varias ranuras PCIe de un sistema SPARC T-Series de varios sockets. Esto se produce cuando las rutas de las ranuras PCIe son similares entre sí (excepto la ruta del complejo de raíz). El error grave se puede producir tras eliminar las ranuras PCIe y reiniciar el dominio primary. Para obtener más información sobre la función de E/S directa, consulte Asignación de dispositivos de punto final PCIe de Guía de administración de Oracle VM Server for SPARC 2.2.
Por ejemplo, si elimina las ranuras /SYS/MB/PCIE5 (pci@500/pci@2/pci@0/pci@0) y /SYS/MB/PCIE4 (pci@400/pci@2/pci@0/pci@0), que tienen nombres de ruta similares, se puede producir un error grave en el sistema operativo Oracle Solaris 11.
El comando ldm list-io siguiente se ejecuta después de eliminar las ranuras PCIe /SYS/MB/PCIE4 y /SYS/MB/PCIE5.
# ldm list-io IO PSEUDONYM DOMAIN -- --------- ------ pci@400 pci_0 primary niu@480 niu_0 primary pci@500 pci_1 primary niu@580 niu_1 primary PCIE PSEUDONYM STATUS DOMAIN ---- --------- ------ ------ pci@400/pci@2/pci@0/pci@8 /SYS/MB/PCIE0 OCC primary pci@400/pci@2/pci@0/pci@4 /SYS/MB/PCIE2 OCC primary pci@400/pci@2/pci@0/pci@0 /SYS/MB/PCIE4 OCC pci@400/pci@1/pci@0/pci@8 /SYS/MB/PCIE6 OCC primary pci@400/pci@1/pci@0/pci@c /SYS/MB/PCIE8 OCC primary pci@400/pci@2/pci@0/pci@e /SYS/MB/SASHBA OCC primary pci@400/pci@1/pci@0/pci@4 /SYS/MB/NET0 OCC primary pci@500/pci@2/pci@0/pci@a /SYS/MB/PCIE1 OCC primary pci@500/pci@2/pci@0/pci@6 /SYS/MB/PCIE3 OCC primary pci@500/pci@2/pci@0/pci@0 /SYS/MB/PCIE5 OCC pci@500/pci@1/pci@0/pci@6 /SYS/MB/PCIE7 OCC primary pci@500/pci@1/pci@0/pci@0 /SYS/MB/PCIE9 OCC primary pci@500/pci@1/pci@0/pci@5 /SYS/MB/NET2 OCC primary #
Solución provisional: no elimine todas las ranuras que tienen nombres de ruta similares. En su lugar, solo elimine una ranura PCIe de ese tipo.
También puede insertar las tarjetas PCIe en ranuras que no tienen rutas similares y luego usarlas con la función de E/S directa.
ID de error 7100841: cuando el dominio primary comparte el núcleo físico más bajo (por lo general, 0) con otro dominio, se produce un error al intentar definir la restricción de núcleo completo para el dominio primary.
Solución provisional: siga estos pasos:
Determine el núcleo enlazado más bajo compartido por los dominios.
# ldm list -o cpu
Desenlace todos los subprocesos de CPU correspondientes al núcleo más bajo de todos los dominios, excepto del dominio primary.
Como resultado, los subprocesos de CPU correspondientes al núcleo más bajo no se comparten y están disponibles para enlazarse con el dominio primary.
Para definir la restricción de núcleo completo, siga uno de estos pasos:
Enlace los subprocesos de CPU al dominio primary y defina la restricción de núcleo completo con el comando ldm set-vcpu -c.
Utilice el comando ldm set-core para enlazar los subprocesos de CPU y definir la restricción de núcleo completo en un solo paso.
ID de error 7098941: los dispositivos de funciones virtuales igb e ixgbe se vuelven defectuosos tras reiniciar el dominio primary. Estas funciones virtuales se asignan al dominio primary. La configuración del sistema solo tiene un dominio primary. No se configuran dominios invitados ni dominios de E/S.
El comando fmadm faulty muestra que todos los dispositivos de funciones virtuales son defectuosos. El comando fmadm repair permite recuperarse de los errores, pero el estado defectuoso vuelve a aparecer cada vez que reinicia el dominio primary.
Solución provisional: use el comando fmadm repair para recuperarse de los errores cada vez que reinicie el dominio primary.
ID de error 7093344: solo puede utilizar el comando ldmconfig en los sistemas Oracle Solaris 10.
ID de error 7084728: el comando ldm list-io puede mostrar el estado UNK o INV para las ranuras PCIe y las funciones virtuales SR-IOV si el comando se ejecuta inmediatamente después del inicio del dominio primary. Este problema se produce por un retraso en la respuesta del agente de Logical Domains en el SO Oracle Solaris.
Este problema solo se ha informado en pocos sistemas.
Solución provisional: el estado de las ranuras PCIe y las funciones virtuales se actualiza automáticamente una vez que se recibe la información del agente de Logical Domains.
ID de error 7083321: el daemon nwam mantiene un recuento de referencias en el nodo del dispositivo de la tarjeta de interfaz de red (NIC) y, por lo tanto, el controlador NIC no se puede desconectar.
Solución provisional: no utilice el perfil de configuración de red Automatic. En su lugar, utilice el perfil de configuración de red DefaultFixed.
ID de error 7082776: solo puede utilizar MIB de Oracle VM Server for SPARC en los sistemas Oracle Solaris 10.
ID de error 7071426: evite migrar dominios que tienen más de 500 GB de memoria. Utilice el comando ldm list -o mem para ver la configuración de memoria del dominio. Algunas configuraciones de memoria con varios bloques de memoria que suman en total más de 500 GB pueden generar un error grave con una pila similar al siguiente:
panic[cpu21]/thread=2a100a5dca0: BAD TRAP: type=30 rp=2a100a5c930 addr=6f696e740a232000 mmu_fsr=10009 sched:data access exception: MMU sfsr=10009: Data or instruction address out of range context 0x1 pid=0, pc=0x1076e2c, sp=0x2a100a5c1d1, tstate=0x4480001607, context=0x0 g1-g7: 80000001, 0, 80a5dca0, 0, 0, 0, 2a100a5dca0 000002a100a5c650 unix:die+9c (30, 2a100a5c930, 6f696e740a232000, 10009, 2a100a5c710, 10000) 000002a100a5c730 unix:trap+75c (2a100a5c930, 0, 0, 10009, 30027b44000, 2a100a5dca0) 000002a100a5c880 unix:ktl0+64 (7022d6dba40, 0, 1, 2, 2, 18a8800) 000002a100a5c9d0 unix:page_trylock+38 (6f696e740a232020, 1, 6f69639927eda164, 7022d6dba40, 13, 1913800) 000002a100a5ca80 unix:page_trylock_cons+c (6f696e740a232020, 1, 1, 5, 7000e697c00, 6f696e740a232020) 000002a100a5cb30 unix:page_get_mnode_freelist+19c (701ee696d00, 12, 1, 0, 19, 3) 000002a100a5cc80 unix:page_get_cachelist+318 (12, 1849fe0, ffffffffffffffff, 3, 0, 1) 000002a100a5cd70 unix:page_create_va+284 (192aec0, 300ddbc6000, 0, 0, 2a100a5cf00, 300ddbc6000) 000002a100a5ce50 unix:segkmem_page_create+84 (18a8400, 2000, 1, 198e0d0, 1000, 11) 000002a100a5cf60 unix:segkmem_xalloc+b0 (30000002d98, 0, 2000, 300ddbc6000, 0, 107e290) 000002a100a5d020 unix:segkmem_alloc_vn+c0 (30000002d98, 2000, 107e000, 198e0d0, 30000000000, 18a8800) 000002a100a5d0e0 genunix:vmem_xalloc+5c8 (30000004000, 2000, 0, 0, 80000, 0) 000002a100a5d260 genunix:vmem_alloc+1d4 (30000004000, 2000, 1, 2000, 30000004020, 1) 000002a100a5d320 genunix:kmem_slab_create+44 (30000056008, 1, 300ddbc4000, 18a6840, 30000056200, 30000004000) 000002a100a5d3f0 genunix:kmem_slab_alloc+30 (30000056008, 1, ffffffffffffffff, 0, 300000560e0, 30000056148) 000002a100a5d4a0 genunix:kmem_cache_alloc+2dc (30000056008, 1, 0, b9, fffffffffffffffe, 2006) 000002a100a5d550 genunix:kmem_cpucache_magazine_alloc+64 (3000245a740, 3000245a008, 7, 6028f283750, 3000245a1d8, 193a880) 000002a100a5d600 genunix:kmem_cache_free+180 (3000245a008, 6028f2901c0, 7, 7, 7, 3000245a740) 000002a100a5d6b0 ldc:vio_destroy_mblks+c0 (6028efe8988, 800, 0, 200, 19de0c0, 0) 000002a100a5d760 ldc:vio_destroy_multipools+30 (6028f1542b0, 2a100a5d8c8, 40, 0, 10, 30000282240) 000002a100a5d810 vnet:vgen_unmap_rx_dring+18 (6028f154040, 0, 6028f1a3cc0, a00, 200, 6028f1abc00) 000002a100a5d8d0 vnet:vgen_process_reset+254 (1, 6028f154048, 6028f154068, 6028f154060, 6028f154050, 6028f154058) 000002a100a5d9b0 genunix:taskq_thread+3b8 (6028ed73908, 6028ed738a0, 18a6840, 6028ed738d2, e4f746ec17d8, 6028ed738d4)
Solución provisional: evite realizar migraciones de dominios que tienen más de 500 GB de memoria.
ID de error 7062298: es posible que aparezca el siguiente mensaje de error al intentar eliminar una gran cantidad de CPU de un dominio invitado:
Request to remove cpu(s) sent, but no valid response received VCPU(s) will remain allocated to the domain, but might not be available to the guest OS Resource modification failed
Solución provisional: detenga el dominio invitado antes de eliminar más de 100 CPU del dominio.
ID de error 7058261: si utiliza el comando ldm stop para detener un dominio con mucha memoria cuando el sistema tiene definida la política elástica de gestión de energía, este proceso puede tardar bastante en completarse. Si el dominio alcanza una inactividad suficiente, se desactivarán la mayoría de los subprocesos de CPU asignados al dominio. Al desactivar las CPU, el proceso necesario para detener un dominio permanece en los subprocesos activos restantes.
Por ejemplo, un dominio invitado que tiene 252 GB de memoria y solo 2 CPU activadas tarda aproximadamente 7 minutos en detenerse.
Solución provisional: desactive la gestión de energía (PM). Para ello, cambie de la política elástica a la política de rendimiento antes de detener el dominio.
ID de error 7054326: no puede utilizar las operaciones de conexión en caliente de Oracle Solaris para eliminar en caliente un dispositivo de punto final PCIe antes de que dicho dispositivo se elimine del dominio primary mediante el comando ldm rm-io. Para obtener información sobre cómo reemplazar o eliminar un dispositivo de punto final PCIe, consulte Realización de cambios hardware en PCIe de Guía de administración de Oracle VM Server for SPARC 2.2.
ID de error 7042353: si un disco físico está configurado con un segmento 2 que tiene un tamaño de 0, es posible que se produzcan los siguientes problemas:
Si utiliza el comando ldm add-vdsdev para agregar un disco de ese tipo como backend de un disco virtual, el comando generará un error:
# ldm add-vdsdev /dev/dsk/c3t1d0s2 vol@primary-vds0 Path /dev/dsk/c3t1d0s2 is not valid on service domain primary
Para solucionar provisionalmente este problema, instale el ID de parche 147708-01 en el dominio primary y cualquier dominio de servicio y, a continuación, reinicie el servicio svc:/ldoms/agents.
Si utiliza el comando ldm bind para enlazar un dominio que tiene un disco de ese tipo como backend de un disco virtual, el comando generará un error:
# ldm bind ldg3 Path /dev/dsk/c3t1d0s2 is not valid on service domain primary
Para solucionar provisionalmente este problema, utilice la opción -q del comando ldm bind:
# ldm bind -q ldg3
Otra solución provisional permite desactivar de forma permanente la validación de disco mediante los comandos ldm add-vdsdev y ldm bind. Como resultado, no es necesario especificar la opción -q. Desactive de forma permanente la validación de disco. Para ello, actualice la propiedad device_validation del servicio ldmd:
# svccfg -s ldmd setprop ldmd/device_validation=value # svcadm refresh ldmd # svcadm restart ldmd
Especifique un valor de 0 para desactivar la validación para los dispositivos de red y de disco. Especifique un valor de 1 para desactivar la validación para los dispositivos de disco y activar la validación para los dispositivos de red.
Los valores posibles para la propiedad device_validation son:
Desactiva la validación para todos los dispositivos
Activa la validación para los dispositivos de red
Activa la validación para los dispositivos de disco
Activa la validación para los dispositivos de red y de disco
Activa la validación para todos los tipos de dispositivos, que es la configuración predeterminada
ID de error 7038650: cuando un dominio invitado con mucha carga tiene una configuración de E/S híbrida e intenta migrarlo, es posible que se muestre un error grave de nxge.
Solución provisional: agregue la línea siguiente al archivo /etc/system en el dominio primary y en cualquier dominio de servicio que forme parte de la configuración de E/S híbrida del dominio:
set vsw:vsw_hio_max_cleanup_retries = 0x200
ID de error 7036137: se bloquea de forma permanente una migración iniciada o en curso, o cualquier comando ldm. Esta situación se produce cuando el dominio que se migrará utiliza un sistema de archivos compartido de otro sistema y el sistema de archivos ya no está compartido.
Solución provisional: haga que el sistema de archivos compartido esté disponible de nuevo.
ID de error 7035438: ldmd permite activar la restricción de núcleo completo en un dominio que tiene núcleos parciales, pero no puede eliminar ni establecer núcleos del mismo dominio.
Solución provisional: realice las siguientes acciones en la configuración predeterminada de fábrica para el dominio de control:
Inicie una reconfiguración retrasada en el dominio de control.
# ldm start-reconf primary
Realice primero las operaciones de reconfiguración de memoria.
Realice las opciones de reconfiguración de CPU.
# ldm set-vcpu 16 primary # ldm set-vcpu -c 2 primary
En este ejemplo se utilizan 2 núcleos, pero el número de núcleos puede estar entre 1 y el límite del sistema.
ID de error 7034191: si el servicio de registro del sistema, svc:/system/system-log, no se inicia y no se conecta, el servicio del agente de Logical Domains no se conectará. Cuando el servicio del agente de Logical Domains no está conectado, es posible que los comandos virtinfo, ldm add-vsw, ldm add-vdsdev y ldm list-io no se comporten del modo esperado.
Solución provisional: asegúrese de que el servicio svc:/ldoms/agents:default esté activado y conectado:
# svcs -l svc:/ldoms/agents:default
Si el servicio svc:/ldoms/agents:default está desconectado, compruebe que el servicio esté activado y que todos los servicios dependientes estén conectados.
ID de error 7030045: la migración de un dominio invitado activo puede bloquearse y hacer que el equipo de origen no responda. Cuando se produce este problema, se escribe el siguiente mensaje en la consola y en el archivo /var/adm/messages:
vcc: i_vcc_ldc_fini: cannot close channel 15 vcc: [ID 815110 kern.notice] i_vcc_ldc_fini: cannot close channel 15
Tenga en cuenta que el número de canal mostrado es un número de canal interno de Oracle Solaris que puede ser distintos para cada mensaje de advertencia.
Solución provisional: antes de migrar el dominio, desconéctese de la consola del dominio invitado.
Recuperación: apague y vuelva a encender el equipo de origen.
ID de error 7027105: es posible que aparezca el mensaje No response en el registro de Oracle VM Server for SPARC cuando la política DRM de un dominio cargado caduca una vez que el recuento de CPU se ha reducido significativamente. El resultado de ldm list muestra que hay más recursos de CPU asignados al dominio del que se muestran en el resultado de psrinfo.
Solución provisional: utilice el comando ldm set-vcpu para restablecer el número de CPU del dominio al valor que se muestra en el resultado de psrinfo.
ID de error 7026177: si intenta realizar una migración en directo de un dominio que depende de un dominio inactivo en el equipo de destino, se produce un error de segmentación en el daemon ldmd y se reinicia el dominio del equipo de destino. Puede realizar una migración de todos modos, pero no será una migración en directo.
Solución provisional: lleve a cabo una de las siguientes acciones antes de intentar la migración en directo:
Elimine la dependencia de invitado del dominio que se va a migrar.
Inicie el dominio maestro en el equipo de destino.
ID de error 7026160: realice una migración de dominios mientras haya una política DRM vigente. Más adelante, si la política DRM caduca o se elimina del dominio migrado, DRM no puede restaurar el número original de CPU virtuales en el dominio.
Solución provisional: si se migra un dominio cuando la política DRM está activa y luego caduca o se elimina la política, restablezca el número de CPU virtuales. Utilice el comando ldm set-vcpu para definir el número de CPU virtuales en su valor original en el dominio.
ID de error 7025445: al ejecutar el comando ldm set-vcpu 1 en un dominio invitado que tiene más de 100 CPU virtuales y algunas unidades criptográficas, no se eliminan las CPU virtuales. Las CPU virtuales no se eliminan debido a un error de tiempo de espera de la DR. Las unidades criptográficas se eliminan correctamente.
Solución provisional: utilice el comando ldm rm-vcpu para eliminar todas las CPU virtuales excepto una del dominio invitado. No elimine más de 100 CPU virtuales a la vez.
ID de error 7023216: no es posible migrar un dominio si contiene una dirección MAC duplicada. Normalmente, cuando se produce un error en la migración por este motivo, el mensaje de error muestra la dirección MAC duplicada. Sin embargo, en raras ocasiones, este mensaje de error puede no indicar la dirección MAC duplicada.
# ldm migrate ldg2 system2 Target Password: Domain Migration of LDom ldg2 failed
Solución provisional: asegúrese de que las direcciones MAC del equipo de destino sean únicas.
ID de error 7019493: si dos comandos ldm migrate se ejecutan de forma simultánea en “dirección opuesta”, es posible que los dos comandos se bloqueen y que nunca se completen. Por ejemplo, una situación de dirección opuesta puede ser aquella en la que se inicia simultáneamente una migración en el equipo A para el equipo B y una migración en el equipo B para el equipo A.
Los procesos de migración se bloquean aunque se inicien como una simulación mediante la opción -n. Cuando se produce este problema, se pueden bloquear todos los demás comandos ldm.
Solución provisional: ninguna.
ID de error 6994984: utilice una reconfiguración retrasada en lugar de una reconfiguración dinámica para eliminar más de 100 CPU del dominio de control (también conocido como dominio primary). Siga estos pasos:
Use el comando ldm start-reconf primary para poner el dominio de control en modo de reconfiguración retrasada.
Elimine el número deseado de recursos de CPU.
Si comete un error al eliminar los recursos de CPU, no intente realizar otra solicitud para eliminar las CPU mientras el dominio de control aún se encuentre en una reconfiguración retrasada. Si lo hace, los comandos no funcionarán (consulte Solo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada). En su lugar, deshaga la operación de reconfiguración retrasada mediante el comando ldm cancel-reconf y vuelva a comenzar.
Reinicie el dominio de control.
ID de error 6989192 y 7071760: es posible que el sistema operativo se bloquee en el inicio de sesión o al ejecutar comandos cuando se cumplen las siguientes condiciones:
El sistema operativo Oracle Solaris 10 8/11 se ejecuta en un sistema SPARC sun4v
La política elástica de gestión de energía (PM) se definió en el procesador de servicio de ILOM del sistema
Solución provisional: aplique el ID de parche 147149-01.
ID de error 6984681: al utilizar el comando pkgadd para instalar el paquete SUNWldm.v de un directorio que se exporta mediante un NFS desde un dispositivo Oracle ZFS Storage Appliance, es posible que aparezca el siguiente mensaje de error:
cp: failed to set acl entries on /var/svc/manifest/platform/sun4v/ldmd.xml
Solución provisional: omita este mensaje.
ID de error 6984008: un sistema SPARC T3-1 se puede instalar con discos de dos puertos, a los que se puede acceder mediante dos dispositivos de E/S directa diferentes. En este caso, asignar estos dos dispositivos de E/S directa a dominios diferentes puede provocar que los discos se utilicen en ambos dominios y que el uso real de esos discos se vea afectado.
Solución provisional: no asigne dispositivos de E/S directa con acceso al mismo conjunto de discos a diferentes dominios de E/S. Los pasos para determinar si dispone de discos de dos puertos en el sistema T3-1 son los siguientes:
Determine si el sistema tiene discos de dos puertos. Para ello, ejecute el siguiente comando en el SP:
-> show /SYS/SASBP
Si el resultado incluye el valor fru_description siguiente, el sistema correspondiente tiene discos de dos puertos:
fru_description = BD,SAS2,16DSK,LOUISE
Cuando hay dos discos presentes en el sistema, asegúrese de que los siguientes dos dispositivos de E/S estén siempre asignados al mismo dominio:
pci@400/pci@1/pci@0/pci@4 /SYS/MB/SASHBA0 pci@400/pci@2/pci@0/pci@4 /SYS/MB/SASHBA1
ID de error 6983279: cuando se asocian varias instancias nxge de NIU en un dominio, es posible que los comandos ldm rm-mem y ldm set-mem, que se utilizan para eliminar memoria del dominio, nunca se completen. Para determinar si el problema se ha producido durante una operación de eliminación de memoria, supervise el progreso de la operación con el comando ldm list -o status. Es posible que tenga este problema si el porcentaje del progreso sigue siendo constante durante varios minutos.
Recuperación: cancele el comando ldm rm-mem o ldm set-mem.
Solución provisional: cancele el comando ldm rm-mem o ldm set-mem, y compruebe si se eliminó una cantidad suficiente de memoria. Si no es así, es posible que se complete correctamente un comando de eliminación de memoria posterior para eliminar una menor cantidad de memoria.
Si el problema se ha producido en el dominio primary, haga lo siguiente:
Inicie una operación de reconfiguración retrasada en el dominio primary.
# ldm start-reconf primary
Asigne la cantidad de memoria que desee al dominio.
Reinicie el dominio primary.
Si el problema se ha producido en otro dominio, detenga el dominio antes de ajustar la cantidad de memoria asignada al dominio.
ID de error 6979574: cuando se crea una dependencia de restablecimiento, el comando ldm stop -a puede generar que se reinicie un dominio con una dependencia de restablecimiento en lugar de que solo se detenga.
Solución provisional: en primer lugar, ejecute el comando ldm stop en el dominio maestro. Luego, ejecute el comando ldm stop en el dominio esclavo. Si la detención inicial del dominio esclavo genera un error, ejecute el comando ldm stop -f en el dominio esclavo.
ID de error 6968507: tras la migración de un dominio activo, el uso de la CPU en el dominio migrado puede aumentar considerablemente durante un período breve. Si hay una política de gestión de recursos dinámicos (DRM, Dynamic Resource Managment) vigente para el dominio en el momento de la migración, Logical Domains Manager puede comenzar a agregar CPU. En especial, si las propiedades vcpu-max y attack no se especificaron cuando se agregó la política, el valor predeterminado de unlimited provoca que todas las CPU desenlazadas en el equipo de destino se agreguen al dominio migrado.
Recuperación: no es necesario realizar ninguna recuperación. Cuando el uso de la CPU cae por debajo del límite superior especificado por la política DRM, Logical Domains Manager elimina automáticamente las CPU.
ID de error 6968100: a menudo, no se detecta y se reasigna de manera incorrecta una dirección MAC en uso.
Solución provisional: compruebe manualmente que no es posible reasignar una dirección MAC en uso.
ID de error 6967799: la secuencia de comandos ldmconfig no puede crear correctamente una configuración de dominios lógicos almacenada en el procesador de servicio (SP).
Solución provisional: no apague y vuelva a encender el sistema una vez que se completa la secuencia de comandos ldmconfig y que se reinicia el dominio. En su lugar, realice los siguientes pasos manuales:
Agregue la configuración al SP.
# ldm add-spconfig new-config-name
Elimine la configuración primary-with-clients del SP.
# ldm rm-spconfig primary-with-clients
Apague y vuelva a encender el sistema.
Si no realiza estos pasos antes de apagar y volver a encender el sistema, la existencia de la configuración primary-with-client provocará que los dominios estén inactivos. En este caso, debe enlazar cada dominio de forma manual y, a continuación, iniciarlos mediante la ejecución del comando ldm start -a. Una vez que se inician los invitados, la repetición de esta secuencia permite que los dominios invitados se inicien automáticamente después de apagar y volver a encender el sistema.
ID de error 6965758: la migración de un dominio activo puede provocar errores si se ejecuta en una versión anterior al sistema operativo Oracle Solaris 10 10/09 y la CPU con el número más bajo del dominio tiene el estado offline. Se produce un error en la operación cuando Logical Domains Manager utiliza la DR de CPU para reducir el dominio a una única CPU. En este proceso, Logical Domains Manager intenta eliminar todas las CPU del dominio excepto la que tiene el número más bajo, pero como esa CPU está desconectada, se produce un error en la operación.
Solución provisional: antes de intentar la migración, asegúrese de que la CPU con el número más bajo del dominio tenga el estado online.
ID de error 6956431: una vez que un dominio con Oracle Solaris 10 9/10 se suspende como parte de una operación de migración, se desactiva la reconfiguración dinámica (DR) de la memoria. Esto se aplica no solo cuando la migración se realiza correctamente, sino también cuando la migración se ha cancelado, a pesar de que el dominio permanece en el equipo de origen.
ID de error 6936833: si modifica la unidad de transmisión máxima (MTU) de un dispositivo de red virtual en el dominio de control, se inicia una operación de reconfiguración retrasada. Si posteriormente cancela la reconfiguración retrasada, el valor MTU del dispositivo no se restablece al valor original.
Recuperación: vuelva a ejecutar el comando ldm set-vnet para establecer la MTU al valor original. Al restablecer el valor MTU, el dominio de control pasará al modo de reconfiguración retrasada, el cual deberá cancelar. El valor MTU resultante es ahora el valor MTU correcto original.
# ldm set-vnet mtu=orig-value vnet1 primary # ldm cancel-op reconf primary
ID de error 6904849: a partir de Logical Domains 1.3, es posible migrar un dominio incluso si tiene enlazadas una o varias unidades criptográficas.
En los siguientes casos, el equipo de destino solo tendrá una CPU una vez finalizada la migración:
El equipo de destino ejecuta Logical Domains 1.2.
El dominio de control del equipo de destino utiliza una versión del SO Oracle Solaris que no es compatible con la DR de unidades criptográficas.
Se migra un dominio que contiene unidades criptográficas.
Una vez finalizada la migración, el dominio de destino se reanudará correctamente y estará activo, pero con un estado degradado (solo una CPU).
Solución provisional: antes de la migración, elimine las unidades criptográficas del equipo de origen que ejecuta Logical Domains 1.3.
Mitigación: para evitar este problema, siga uno de estos pasos o ambos:
Instale el software Oracle VM Server for SPARC más reciente en el equipo de destino.
Instale el ID de parche 142245-01 en el dominio de control del equipo de destino, o actualice como mínimo al sistema operativo Oracle Solaris 10 10/09.
ID de error 6904240: en algunos casos, se produce el siguiente mensaje de error durante la migración, y ldmd informa que no se ha podido enlazar la memoria necesaria para el dominio de origen. Esta situación se puede producir incluso si la cantidad total de memoria disponible en el equipo de destino es mayor que la cantidad de memoria que utiliza el dominio de origen (como se muestra en ldm ls-devices -a mem).
Unable to bind 29952M memory region at real address 0x8000000 Domain Migration of LDom ldg0 failed
Causa: este error se debe a la incapacidad de cumplir los requisitos de congruencia entre la dirección real (RA) y la dirección física (PA) en el equipo de destino.
Solución provisional: detenga el dominio y realice la migración como una migración en frío. También puede reducir el tamaño de la memoria en el dominio invitado a 128 MB para permitir que la migración continúe mientras se ejecuta el dominio.
ID de error 6897743: si todas las unidades criptográficas del hardware se eliminan dinámicamente de un dominio en ejecución, la estructura criptográfica no puede cambiar a los proveedores de software criptográficos y se terminan todas las conexiones ssh.
Recuperación: vuelva a establecer las conexiones ssh una vez que todas las unidades criptográficas se hayan eliminado del dominio.
Solución provisional: establezca UseOpenSSLEngine=no en el archivo /etc/ssh/sshd_config del servidor y ejecute el comando svcadm restart ssh.
A continuación, todas las conexiones ssh ya no utilizarán las unidades criptográficas del hardware (y, por lo tanto, no se benefician de las mejoras de rendimiento relacionados) y las conexiones ssh no se desconectarán cuando se eliminen dichas unidades.
ID de error 6892229: cuando se ejecuta el comando ldm ls-io -l en un sistema que tiene instalada una tarjeta Ethernet de fibra de 10 gigabits dual PCI Express (X1027A-Z), el resultado puede ser el siguiente:
primary# ldm ls-io -l ... pci@500/pci@0/pci@c PCIE5 OCC primary network@0 network@0,1 ethernet ethernet
El resultado muestra cuatro subdispositivos aunque esta tarjeta Ethernet solo tiene dos puertos. Esta anomalía se produce porque la tarjeta tiene cuatro funciones PCI. Dos de estas funciones se desactivan internamente y aparecen como ethernet en el resultado de ldm ls-io -l.
Solución provisional: puede omitir las entradas ethernet en el resultado de ldm ls-io -l.
ID de error 6855079: un comando ldm puede tardar en responder cuando se inician varios dominios. Si ejecuta un comando ldm en esta etapa, puede parecer que el comando se bloquea. Tenga en cuenta que el comando ldm se restablecerá después de realizar la tarea esperada. Una vez que se restablece el comando, el sistema debe responder normalmente a los comandos ldm.
Solución provisional: evite iniciar varios dominios de forma simultánea. Sin embargo, si debe iniciar varios dominios a la vez, intente no ejecutar más comandos ldm hasta que el sistema vuelve a su estado normal. Por ejemplo, espere aproximadamente dos minutos en los servidores Sun SPARC Enterprise T5140 y T5240, y cuatro minutos en el servidor Sun SPARC Enterprise T5440 o el servidor Netra T5440.
ID de error 6853273: cuando un sistema tiene definida la política elástica de gestión de energía, el reinicio de un dominio invitado puede generar los siguientes mensajes de advertencia y un error al iniciar el sistema:
WARNING: /virtual-devices@100/channel-devices@200/disk@0: Sending packet to LDC, status: -1 WARNING: /virtual-devices@100/channel-devices@200/disk@0: Can't send vdisk read request! WARNING: /virtual-devices@100/channel-devices@200/disk@0: Timeout receiving packet from LDC ... retrying
Solución provisional: si aparecen estas advertencias, lleve a cabo una de las soluciones provisionales en el siguiente orden:
Si el dominio invitado muestra un indicador ok y acepta la entrada, escriba reset-all.
En el dominio de control, ejecute un comando ldm stop domain-name y, a continuación, ejecute un comando ldm start domain-name.
Cambie la política de gestión de energía a la política de rendimiento, detenga e inicie el dominio invitado afectado y, a continuación, vuelva a la política elástica.
ID de error 6839787: a veces, un dominio invitado que ejecuta como mínimo el sistema operativo Oracle Solaris 10 10/08 no realiza correctamente la conexión entre los servicios de dominio y un dominio de control que utiliza el sistema operativo Oracle Solaris 10 5/09.
Las conexiones de servicios de dominio activan funciones como la reconfiguración dinámica (DR), FMA y gestión de energía (PM). Este tipo de error se produce cuando el dominio invitado se inicia y, por lo tanto, el reinicio del dominio suele eliminar el problema.
Solución provisional: reinicie el dominio invitado.
ID de error 6837615: en Oracle Solaris 11, es posible que las zonas que están configuradas con una interfaz de red automática (anet) no se inicien en un dominio que solo tiene dispositivos de red virtual de Logical Domains.
A continuación, se muestran las soluciones provisionales:
Solución provisional 1: asigne uno o más dispositivos de red física al dominio invitado. Utilice la función de asignación de bus PCIe, E/S directa o SR-IOV para asignar una NIC física al dominio.
Solución provisional 2: si el requisito de configuración de zonas es tener comunicación entre las zonas solo dentro del dominio, cree un dispositivo etherstub. Utilice el dispositivo etherstub como “vínculo inferior” en la configuración de zonas de manera que las NIC virtuales se creen en el dispositivo etherstub.
Solución provisional 3: utilice la asignación de vínculos exclusivos para asignar un dispositivo de red virtual de Logical Domains a una zona. Asigne los dispositivos de red virtual al dominio, como sea necesario. También puede optar por desactivar los vínculos entre redes virtuales para crear una gran cantidad de dispositivos de red virtual.
ID de error 6836587: a veces, ifconfig indica que el dispositivo no existe después de agregar un dispositivo de disco virtual o red virtual a un dominio. Esta situación puede ocurrir porque no se creó la entrada /devices.
Aunque esto no debe ocurrir durante un funcionamiento normal, el error se detecta cuando el número de instancia de un dispositivo de red virtual no coincide con el número de instancia enumerado en el archivo /etc/path_to_inst.
Por ejemplo:
# ifconfig vnet0 plumb ifconfig: plumb: vnet0: no such interface
El número de instancia de un dispositivo virtual se muestra en la columna DEVICE del resultado de ldm list:
# ldm list -o network primary NAME primary MAC 00:14:4f:86:6a:64 VSW NAME MAC NET-DEV DEVICE DEFAULT-VLAN-ID PVID VID MTU MODE primary-vsw0 00:14:4f:f9:86:f3 nxge0 switch@0 1 1 1500 NETWORK NAME SERVICE DEVICE MAC MODE PVID VID MTU vnet1 primary-vsw0@primary network@0 00:14:4f:f8:76:6d 1 1500
El número de instancia (0 para las opciones vnet y vsw mostradas anteriormente) se puede comparar con el número de instancia del archivo path_to_inst para asegurarse de que coinciden.
# egrep '(vnet|vsw)' /etc/path_to_inst "/virtual-devices@100/channel-devices@200/virtual-network-switch@0" 0 "vsw" "/virtual-devices@100/channel-devices@200/network@0" 0 "vnet"
Solución provisional: en el caso de que los números de instancia no coincidan, elimine el dispositivo de red virtual o conmutador virtual. A continuación, para volver a agregarlos, especifique explícitamente el número de instancia necesario mediante la definición de la propiedad id.
También puede editar manualmente el archivo /etc/path_to_inst. Consulte la página del comando man path_to_inst(4).
Precaución - Tenga en cuenta la advertencia incluida en la página del comando man que indica que no se deben realizar cambios en /etc/path_to_inst sin considerarlo detenidamente. |
ID de error 6829016: cuando se configura Logical Domains en un sistema y agrega otra tarjeta de red XAUI, la tarjeta no estará visible una vez que se apague y se vuelve a encender el equipo.
Recuperación: para que el XAUI recién agregado esté visible en el dominio de control, siga estos pasos:
Defina y borre una variable ficticia en el dominio de control.
Los comandos siguientes utilizan una variable ficticia denominada fix-xaui:
# ldm set-var fix-xaui=yes primary # ldm rm-var fix-xaui primary
Guarde la configuración modificada en el SP y sustituya la configuración actual.
Los comandos siguientes utilizan un nombre de configuración de config1:
# ldm rm-spconfig config1 # ldm add-spconfig config1
Realice un reinicio de reconfiguración del dominio de control.
# reboot -- -r
En este momento, puede configurar las nuevas redes disponibles para usarlas en Logical Domains.
ID de error 6808832: puede configurar un máximo de dos dominios con complejos de raíz PCIe dedicados en sistemas como Sun Fire T5240. Estos sistemas tienen dos CPU UltraSPARC T2 Plus y dos complejos de raíz de E/S.
pci@500 y pci@400 son los dos complejos de raíz del sistema. El dominio primary siempre tendrá al menos un complejo de raíz. Se puede configurar un segundo dominio con un complejo de raíz no asignado o desenlazado.
El tejido (o la hoja) pci@400 contiene la tarjeta de red e1000g incorporada. Las siguientes circunstancias pueden generar un error grave en el dominio:
Si el sistema está configurado con un dominio primary que contiene pci@500 y un segundo dominio que contiene pci@400
Nota - En algunos servidores blade, el dominio primary (disco del sistema) está en el bus pci@400 de forma predeterminada.
El dispositivo e1000g del tejido pci@400 se utiliza para iniciar el segundo dominio
Evite los siguientes dispositivos de red si se han configurado en un dominio no primary:
/pci@400/pci@0/pci@c/network@0,1 /pci@400/pci@0/pci@c/network@0
Cuando se cumplen estas condiciones, el dominio genera un error grave de PCIe.
Evite una configuración de este tipo o, si la configuración se utiliza, no inicie el sistema desde los dispositivos enumerados.
ID de error 6781589: durante una migración, se omiten todos los puertos o grupos de consolas asignados de forma explícita, y se crea una consola con propiedades predeterminadas para el dominio de destino. Esta consola se crea utilizando el nombre del dominio de destino como el grupo de consolas y cualquier puerto disponible en el primer concentrador de consola virtual (vcc) del dominio de control. Si hay un conflicto con el nombre de grupo predeterminado, la migración no se realiza correctamente.
Recuperación: para restaurar las propiedades explícitas de la consola tras una migración, desenlace el dominio de destino y establezca manualmente las propiedades deseadas con el comando ldm set-vcons.
ID de error 6773569: después de cambiar de una configuración a otra (con el comando ldm set-config, seguido de una operación de apagado y encendido), es posible que los dominios definidos en la configuración anterior sigan presentes en la configuración actual, en el estado inactivo.
Esto se debe a que la base de datos de restricciones de Logical Domains Manager no está sincronizada con el cambio en la configuración. Estos dominios inactivos no afectan la configuración en ejecución y se pueden destruir de manera segura.
ID de error 6772120: si el disco virtual del equipo de destino no apunta al mismo backend de disco que se utiliza en el equipo de origen, el dominio migrado no puede acceder al disco virtual con ese backend de disco. Se puede producir un bloqueo al acceder al disco virtual del dominio.
Actualmente, Logical Domains Manager solo comprueba que los nombres del volumen de disco virtual coincidan en los equipos de origen y de destino. En este caso, no aparecerá ningún mensaje de error si no coinciden los backend de disco.
Solución provisional: asegúrese de que, al configurar el dominio de destino para recibir un dominio migrado, el volumen de disco vdsdev coincida con el backend de disco utilizado en el dominio de origen.
Recuperación: siga uno de estos procedimientos si detecta que el dispositivo de disco virtual en el equipo de destino apunta a un backend de disco incorrecto:
Realice lo siguiente:
Migre de nuevo el dominio al equipo de origen.
Corrija el valor vdsdev en el destino para que apunte al backend de disco correcto.
Migre de nuevo el dominio al equipo de destino.
Detenga y desenlace el dominio en el destino, y corrija el valor vdsdev. Si el sistema operativo admite la reconfiguración dinámica de E/S virtual y no hay un disco virtual incorrecto en uso en el dominio (es decir, no es el disco de inicio y no está montado), realice lo siguiente:
Utilice el comando ldm rm-vdisk para quitar el disco.
Corrija el valor vdsdev.
Utilice el comando ldm add-vdisk para volver a agregar el disco virtual.
ID de error 6772089: en algunos casos, se produce un error de migración y ldmd informa que no se ha podido enlazar la memoria necesaria para el dominio de origen. Esto puede ocurrir aunque la cantidad total de memoria disponible en el equipo de destino sea mayor que la cantidad de memoria en uso en el dominio de origen.
Este error se produce porque la migración de rangos de memoria específicos utilizados por el dominio de origen requiere que también existan rangos de memoria compatibles disponibles en el destino. Cuando no hay ningún rango de memoria compatible para un rango de memoria en el origen, la migración no puede continuar.
Recuperación: si se detecta esta condición, es posible que pueda migrar el dominio si modifica el uso de la memoria en el equipo de destino. Para ello, desenlace cualquier dominio lógico enlazado o activo en el destino.
Utilice el comando ldm list-devices -a mem para ver qué memoria está disponible y cómo se utiliza. Es posible que también tenga que reducir la cantidad de memoria asignada a otro dominio.
ID de error 6764613: si no tiene una red configurada en el equipo y hay un cliente del servicio de información de red (NIS) en ejecución, Logical Domains Manager no se iniciará en el sistema.
Solución provisional: desactive el cliente NIS en el equipo no conectado a la red:
# svcadm disable nis/client
ID de error 6760933: en ocasiones, un dominio lógico activo parece tener un estado de transición en lugar de un estado normal mucho después de iniciarse o tras la finalización de la migración de un dominio. Este problema no es perjudicial, y el dominio funcionará correctamente. Para ver el indicador que está definido, compruebe el campo flags en el resultado del comando ldm list -l -p o compruebe el campo FLAGS en el comando ldm list, que mostrará -n---- para normal o -t---- para transición.
Recuperación: después del siguiente reinicio, el dominio muestra el estado correcto.
ID de error 6757486: en ocasiones, después de que un dominio se ha migrado, no es posible conectarse a la consola de ese dominio.
Solución provisional: reinicie el servicio SMF vntsd para desactivar las conexiones con la consola:
# svcadm restart vntsd
Nota - Este comando desconectará todas las conexiones activas de la consola.
ID de error 6753683: a veces, al ejecutar el comando uadmin 1 0 desde la línea de comandos de un sistema con Logical Domains, el sistema no regresa al indicador ok después de un reinicio posterior. Este comportamiento incorrecto se advierte cuando la variable auto-reboot? de Logical Domains está definida en true. Si auto-reboot? se ha definido en false, el comportamiento es el esperado.
Solución provisional: utilice este comando en su lugar:
uadmin 2 0
O bien, siempre realice la ejecución con la variable auto-reboot? definida en false.
ID de error 6742805: un cierre de dominio o una limpieza de memoria puede tardar más de 15 minutos con una sola CPU y una configuración de memoria de gran tamaño. Durante un cierre, las CPU de un dominio se utilizan para borrar toda la memoria que pertenece al dominio. El tiempo que tarda en completarse la limpieza puede ser bastante prolongado si hay una configuración no equilibrada, por ejemplo, un dominio con una única CPU y 512 GB de memoria. Este período de limpieza prolongado aumenta la cantidad de tiempo que se tarda en cerrar un dominio.
Solución provisional: asegúrese de que las configuraciones de memoria de gran tamaño (> 100 GB) tengan al menos un núcleo. Esto da como resultado un proceso de cierre mucho más rápido.
ID de error 6705823: si se intenta realizar un inicio de red del sistema operativo Oracle Solaris 10 8/07 en cualquier dominio invitado gestionado por un dominio que ejecuta Oracle Solaris 10 5/08, se puede provocar un bloqueo en el dominio invitado durante la instalación.
Solución provisional: instale el ID de parche 127111-05 en la minirraíz de la imagen de instalación en red del sistema operativo Oracle Solaris 10 8/07.
ID de error 6656033: la instalación en red simultánea de varios dominios invitados no se realiza correctamente en los sistemas que tienen un grupo de consolas común.
Solución provisional: solo realice una instalación en red de dominios invitados que tengan su propio grupo de consolas. Este error solo se observa en dominios que comparten un grupo de consolas común entre varios dominios de instalación en red.
ID de error 6629230: el comando scadm de un dominio de control que ejecuta como mínimo el sistema operativo Solaris 10 11/06 se puede bloquear tras reiniciar el SC. El sistema no puede restablecer una conexión correctamente después de reiniciar el SC.
Solución provisional: reinicie el host para reestablecer la conexión con el SC.
Recuperación: reinicie el host para reestablecer la conexión con el SC.
ID de error 6610702: es posible que aparezca el siguiente mensaje de advertencia en la consola del sistema o en el registro del sistema:
ldc_close: (0xb) unregister failed, 11
Tenga en cuenta que el número entre paréntesis es el número de canal interno de Oracle Solaris, que puede ser diferente para cada mensaje de advertencia.
Solución provisional: puede omitir estos mensajes.
ID de error 6603974: si configura más de cuatro redes virtuales (vnet) en un dominio invitado en la misma red con el protocolo de configuración dinámica de sistemas (DHCP), es posible que el dominio invitado deje de responder al ejecutar el tráfico de red.
Solución provisional: establezca ip_ire_min_bucket_cnt e ip_ire_max_bucket_cnt en valores más altos, por ejemplo, 32 si dispone de 8 interfaces.
Recuperación: ejecute un comando ldm stop-domain ldom seguido de un comando ldm start-domain ldom en el dominio invitado (ldom) correspondiente.
ID de error 6591844: si se produce un error en la memoria o la CPU, es posible que el dominio afectado genere un error grave y se reinicie. Si la arquitectura de gestión de errores (FMA) intenta retirar el componente defectuoso mientras el dominio se reinicia, Logical Domains Manager no puede comunicarse con el dominio y se produce un error al retirar el componente. En este caso, el comando fmadm faulty muestra el recurso como degraded.
Recuperación: espere hasta que el dominio termine de reiniciarse y, a continuación, fuerce a FMA a reproducir el evento de error. Para ello, reinicie el daemon de gestión de errores (fmd) en el dominio de control mediante este comando:
primary# svcadm restart fmd
ID de error 6540368: este problema se resume en Conservación de variables de Logical Domains y solo afecta el control de dominio.
ID de error 6510214: en un entorno con Logical Domains, no es posible definir ni suprimir claves de inicio de red de área amplia (WAN) desde el SO Oracle Solaris mediante el comando ickey(1M). Se produce el siguiente error en todas las operaciones ickey:
ickey: setkey: ioctl: I/O error
Además, las claves de inicio WAN que se definen con el firmware OpenBoot en dominios lógicos distintos del dominio de control no se recuerdan tras reiniciar el dominio. En estos dominios, las claves del firmware OpenBoot solamente son válidas para un único uso.
ID de error 6506494: en algunos casos, el comportamiento del comando ldm stop-domain puede resultar confuso.
# ldm stop-domain -f ldom
Si el dominio se encuentra en el indicador del depurador del módulo de núcleo, kmdb(1), se produce el siguiente mensaje de error al ejecutar el comando ldm stop-domain:
LDom <domain name> stop notification failed