En esta sección se resumen los bugs que pueden surgir al utilizar esta versión del software. Se describen en primer lugar los bugs más recientes. Cuando es posible, se especifican las soluciones alternativas y los procedimientos de recuperación.
ID de bug 20619894: si el paquete system/management/hwmgmtd no está instalado, una operación de eliminación de bus dinámico hace que rcm_daemon imprima el siguiente mensaje en la consola.
rcm_daemon[839]: rcm script ORCL,pcie_rc_rcm.pl: svcs: Pattern 'sp/management' doesn't match any instances
Solución alternativa: puede omitir con seguridad este mensaje.
ID de bug 20570207: si la política de gestión de energía se establece en elastic, el dominio primary puede bloquearse mientras Logical Domains Manager recupera dominios después de detectar recursos faltantes o con fallos.
Recuperación: cambie la política a disabled y, a continuación, vuelva a apagar y encender el sistema para reiniciar en modo de recuperación.
ID de Bug 20432421: si utiliza los comandos grow-socket o shrink-socket para modificar CPU virtuales o núcleos durante una reconfiguración retrasada, es posible que experimente un comportamiento inesperado. La memoria que pertenece al dominio primary se reasigna para que la única memoria del socket especificado quede enlazada al dominio.
Solución alternativa: modifique solamente CPU virtuales o núcleos mediante el uso de los comandos shrink-socket y grow-socket si no se encuentra en una reconfiguración retrasada.
ID de bug 20425271: si se inicia una recuperación después de quedar en factory-default, el modo de recuperación falla si el sistema se inicia desde un dispositivo diferente del que se inició en la configuración que estaba activa anteriormente. Este fallo puede ocurrir si la configuración activa utiliza un dispositivo de inicio distinto del dispositivo de inicio factory-default.
Solución alternativa: realice los siguientes pasos cada vez que desee guardar una nueva configuración del SP.
Determine la ruta PCI completa de acceso al dispositivo de inicio para el dominio primary.
Use esta ruta de acceso para el comando ldm set-var en el paso 4.
Elimine cualquier propiedad de boot-device establecida actualmente del dominio primary.
Solo es necesario llevar a cabo este paso si la propiedad boot-device tiene un juego de valores. Si la propiedad no tiene un juego de valores, intente eliminar los resultados de la propiedad boot-device del mensaje boot-device not found.
primary# ldm rm-var boot-device primary
Guarde la configuración actual en el SP.
primary# ldm add-spconfig config-name
Defina explícitamente la propiedad boot-device para el dominio primary.
primary# ldm set-var boot-device=value primary
Si establece la propiedad boot-device después de guardar la configuración del SP, según se describe, el dispositivo de inicio especificado se inicia cuando se activa el modo de recuperación.
Recuperación: si el modo de recuperación ya ha fallado, según se describe, realice los siguientes pasos:
Defina explícitamente como dispositivo de inicio el dispositivo usado en la última configuración en ejecución.
primary# ldm set-var boot-device=value primary
Reinicie el dominio primary.
primary# reboot
El reinicio permite que la recuperación continúe.
ID de bug 20426593: es posible que ldm list-rsrc-group muestre la información de recursos de E/S en el grupo de recursos incorrecto si el sufijo numérico del grupo de recursos tiene más de un dígito.
En el ejemplo siguiente, el comando ldm list-rsrc-group muestra de manera incorrecta la información de bus PCIe para /SYS/CMIOU10 en el grupo de recursos /SYS/CMIOU1.
primary# ldm list-io NAME TYPE BUS DOMAIN STATUS ---- ---- --- ------ ------ .. /SYS/CMIOU10/PCIE2 PCIE pci_50 primary OCC /SYS/CMIOU10/PCIE3 PCIE pci_51 primary OCC /SYS/CMIOU10/PCIE1 PCIE pci_53 primary OCC .. . primary# ldm list-rsrc-group -l -o io /SYS/CMIOU1 NAME /SYS/CMIOU1 IO DEVICE PSEUDONYM BOUND pci@305 pci_5 alt-root pci@306 pci_6 primary pci@308 pci_8 alt-root pci@309 pci_9 primary pci@332 pci_50 primary pci@333 pci_51 primary pci@335 pci_53 primary
Los buses PCIe pci_50, pci_51 y pci_53 se muestran de manera incorrecta en el grupo de recursos /SYS/CMIOU1 en lugar de mostrarse en el grupo de recursos /SYS/CMIOU10.
Solución alternativa: ejecute el comando ldm list-io -l para obtener el nombre de grupo de recurso correcto para el bus PCIe del nombre de E/S. Por ejemplo, el bus PCIe con el nombre de E/S /SYS/CMIOU10/PCIE2 debe pertenecer a /SYS/CMIOU10 y no a /SYS/CMIOU1.
ID de bug 20321459: si falta un backend de disco virtual y no se puede validar, Logical Domains Manager no recupera un dominio invitado que tiene asignado el backend. Esto se aplica incluso si las rutas múltiples están configuradas.
Solución alternativa: siga estos pasos:
Desactive temporalmente la validación de dispositivos.
primary# svccfg -s ldmd setprop ldmd/device_validation integer: 0 primary# svcadm refresh ldmd primary# svcadm restart ldmd
Recupere manualmente los dominios invitados a los que les falta el backend.
Tenga en cuenta que cuando la validación de dispositivos está desactivada, el Logical Domains Manager agrega un dispositivo virtual a un dominio invitado, incluso si el backend o el dispositivo de red física asociado no existen. Por lo tanto, asegúrese de que se vuelve a activar la validación de dispositivos después de recuperar la configuración de dominio.
primary# svccfg -s ldmd setprop ldmd/device_validation integer: -1 primary# svcadm refresh ldmd primary# svcadm restart ldmd
ID de bug 20307560: si crea un dominio invitado que utiliza cualquier número de CPU virtuales y cualquier cantidad de memoria y ejecuta el comando ldm bind, es posible que el comando emita un error de Invalid response. Este error puede ocurrir si el dominio primary tiene todos los recursos antes de crear el dominio invitado y ejecuta el comando ldm bind.
Solución alternativa: elimine algo de memoria del dominio primary y, a continuación, ejecute el comando ldm bind.
ID de Bug 20257979: uno de los métodos para crear funciones virtuales desde una función física es colocar el dominio raíz que es propietario de la función física en la reconfiguración retrasada. En la reconfiguración retrasada, se pueden crear una o más funciones virtuales mediante el uso del comando ldm create-vf.
Normalmente, un comando ldm list-io muestra que la función física y sus funciones virtuales secundarias están en estado correcto. Sin embargo, si el servicio ldmd se reinicia antes de que se reinicie el dominio raíz, o si se ha cancelado la reconfiguración retrasada, la función física y sus funciones virtuales se marcan con el estado INV.
El mismo problema se produce cuando se destruyen las funciones virtuales en la reconfiguración retrasada. Durante la destrucción de funciones virtuales, si se reinicia Logical Domains Manager y, a continuación, se ejecuta la salida ldm list-io, no se muestran funciones físicas para el dominio raíz.
Solución alternativa: siga una de estas soluciones alternativas:
Cancele la reconfiguración retrasada.
La próxima vez que ejecute el comando ldm list-io, la función física y cualquiera de sus funciones virtuales existentes se encuentran en un estado válido.
Reinicie el dominio raíz que estaba en reconfiguración retrasada.
Tenga en cuenta que las modificaciones que realiza mientras el dominio raíz esta en reconfiguración retrasada estarán presentes en el sistema operativo en el dominio invitado.
ID de bug 20187197: si la condensación eléctrica está activada, en ocasiones, el estado mínimo de energía no se puede definir. El estado de energía se ha disminuido, pero no llega a ser el mínimo. Cuando esto ocurre, es posible que no se pueda reanudar el estado máximo de energía después de definir un límite de energía más alto que garantice el estado máximo de energía.
Esta situación se da cuando se define un nuevo límite de condensación eléctrica cercano al límite mínimo de energía para el sistema o cuando se configura un nuevo límite de condensación eléctrica en el que la diferencia entre la energía real (sin condensación) y el nuevo límite hace que se use el estado mínimo de energía.
Solución alternativa: siga uno de estos pasos:
Desactive la condensación eléctrica
Defina un nuevo límite de condensación eléctrica que no sea elevado ni esté cerca del límite mínimo de energía para el sistema
ID de bug 20004281: cuando el dominio primary se apaga y se vuelve a encender, los nodos ixgbevf en un dominio de E/S son informados como desactivados por el comando ipadm y como no existentes por el comando ifconfig.
Solución alternativa: vuelva a activar las interfaces IP:
# svcadm restart network/physical:default
ID de bug 19943809: el controlador hxge no puede utilizar interfaces dentro de un dominio de E/S cuando la tarjeta se asigna mediante la función de E/S directa.
La siguiente advertencia se muestra en el archivo log del sistema:
WARNING: hxge0 : <== hxge_setup_mutexes: failed 0x1
Solución alternativa: agregue la siguiente línea al archivo /etc/system y reinicie:
set px:px_force_intx_support=1
ID de bug 19932842: el intento de definir una variable OBP de un dominio invitado puede fallar si se utiliza el comando eeprom u OBP antes de que se complete uno de los siguientes comandos:
ldm add-spconfig
ldm remove-spconfig
ldm set-spconfig
ldm bind
Este problema puede surgir cuando estos comandos demoran más de 15 segundos en completarse.
# /usr/sbin/eeprom boot-file\=-k promif_ldom_setprop: promif_ldom_setprop: ds response timeout eeprom: OPROMSETOPT: Invalid argument boot-file: invalid property
Recuperación: vuelva a intentar ejecutar el comando eeprom u OBP una vez que la operación ldm haya terminado.
Solución alternativa: vuelva a intentar ejecutar el comando eeprom u OBP en el dominio invitado afectado. Es posible que pueda evitar el problema con el comando ldm set-var en el dominio primary.
ID de bug 19449221: un dominio no puede tener más de 999 dispositivos de red virtual (vnet).
Solución alternativa: limite el número de vnet en un dominio a 999.
ID de bug 19078763: Oracle VM Server for SPARC ya no realiza un seguimiento de direcciones MAC liberadas. Las direcciones MAC ahora se asignan mediante la selección aleatoria de una dirección y la subsiguiente confirmación de que esa dirección no está siendo usada por ningún dominio lógico en la red local.
ID de bug 18083904: el firmware para tarjetas Sun Storage 16 Gb Fibre Channel Universal HBA, Emulex no admite los controles de ancho de banda de configuración. El firmware de HBA ignora cualquier valor que especifica para la propiedad bw-percent.
Solución alternativa: ninguna.
ID de bug 18001028: en el dominio raíz, la ruta del dispositivo Oracle Solaris para la función virtual del canal de fibra es incorrecta.
Por ejemplo, el nombre de ruta incorrecto es pci@380/pci@1/pci@0/pci@6/fibre-channel@0,2 mientras que debería ser pci@380/pci@1/pci@0/pci@6/SUNW,emlxs@0,2.
El resultado ldm list-io -l muestra la ruta correcta del dispositivo para las funciones virtuales del canal de fibra.
Solución alternativa: ninguna.
ID de bug 17576087:si se apaga y se vuelve a encender el sistema en una configuración guardada puede suceder que no se restaure la memoria una vez que se haya reemplazado la memoria defectuosa.
Solución alternativa: después de reemplazar la memoria defectuosa, apague y vuelva a encender el sistema en la configuración factory-default. A continuación, apague y vuelva a encender el sistema en la configuración que desea utilizar.
No puede configurar una agregación DLMP en una función virtual NIC SR-IOV ni en un dispositivo de red virtual en un dominio invitado.
ID de bug 17422973: la instalación del sistema operativo Oracle Solaris 11.1 en un disco de segmento único puede generar el siguiente error en un servidor SPARC T4 que ejecuta al menos la versión 8.4.0 de firmware del sistema o un servidor SPARC T5, SPARC M5 o SPARC M6 que ejecuta al menos la versión 9.1.0 del firmware del sistema, o un Fujitsu M10 Server que ejecuta al menos la versión 2230 de XCP.
cannot label 'c1d0': try using fdisk(1M) and then provide a specific slice Unable to build pool from specified devices: invalid vdev configuration
Solución alternativa: vuelva a etiquetar el disco con una etiqueta SMI.
ID de bug 17051532: cuando un dispositivo PCIe o una función virtual se elimina de un dominio invitado, la configuración de autoguardado no se actualiza. Este problema puede dar como resultado que la función virtual o el dispositivo reaparezcan en el dominio invitado después de realizar una recuperación de autoguardado; es decir, cuando se aplique autorecovery_policy=3. Este problema también puede provocar que el comando ldm add-spconfig -r produzca un fallo y aparezca el mensaje Autosave configuration config-name is invalid si no se ejecuta otro comando ldm que genere la actualización del autoguardado.
Solución alternativa: siga una de estas soluciones alternativas:
Guarde una nueva configuración después de eliminar el dispositivo PCIe o la función virtual.
primary# ldm add-config new-config-name
Actualice la configuración guardada después de eliminar el dispositivo PCIe o la función virtual mediante la eliminación y la recreación de la configuración.
primary# ldm rm-config config-name primary# ldm add-config config-name
Tenga en cuenta que este bug impide que el comando ldm add-config -r config-name funcione correctamente.
Emita otro comando ldm que provoque una actualización de autoguardado, como ldm set-vcpu, ldm bind o ldm unbind.
ID de bug 17020950: después de migrar un dominio activo de una plataforma SPARC T4 a una plataforma SPARC T5, SPARC M5 o SPARC M6 enlazada con la versión 8.3 del firmware, la realización de una reconfiguración dinámica de memoria puede dar como resultado un aviso grave del dominio invitado.
Solución alternativa: antes de realizar la migración, actualice el sistema SPARC T4 con la versión 8.4 del firmware del sistema. Luego, vuelva a enlazar el dominio.
ID de bug 17020481: un dominio invitado está en estado de transición (t) tras un reinicio del dominio primary. Este problema se produce cuando hay una gran cantidad de funciones virtuales configuradas en el sistema.
Solución alternativa: para evitar este problema, vuelva a intentar ejecutar el comando de inicio del disco OBP varias veces para evitar un inicio desde la red.
Realice los siguientes pasos en cada dominio:
Acceda a la consola del dominio.
primary# telnet localhost 5000
Establezca la propiedad boot-device.
ok> setenv boot-device disk disk disk disk disk disk disk disk disk disk net
La cantidad de entradas de disk que especifique como valor de la propiedad boot-device depende de la cantidad de funciones virtuales que haya configuradas en el sistema. En sistemas más pequeños, es posible que pueda incluir menos instancias de disk en el valor de la propiedad.
Verifique que la propiedad boot-device esté establecida correctamente mediante el comando printenv.
ok> printenv
Vuelva a la consola del dominio primary.
Repita los pasos de 1 a 4 para cada dominio del sistema.
Reinicie el dominio primary.
primary# shutdown -i6 -g0 -y
ID de bug 16713362: las ranuras PCIe no se pueden eliminar actualmente de los dominios raíz que no son primary durante la operación de recuperación. Las ranuras PCIe permanecen asignadas al dominio raíz que no es primary.
Solución alternativa: las ranuras PCIe se deben eliminar manualmente del dominio raíz que no es primary y se deben asignar al dominio o a los dominios de E/S adecuados después de que la operación de recuperación haya terminado.
Para obtener más información sobre cómo eliminar ranuras PCIe de un dominio raíz que no es primary, consulte Descripción general de los dominios raíz que no son primary de Guía de administración para Oracle VM Server for SPARC 3.2 .
La recuperación de dominios de E/S que utilizan ranuras PCIe pertenecientes a dominios raíz que no son primary depende de la configuración del dominio de E/S:
Si el dominio de E/S solo utiliza ranuras PCIe y no hay ninguna ranura PCIe disponible, el dominio de E/S no se recupera y se deja en estado no enlazado con las ranuras PCIe marcadas como evacuadas.
Si el dominio de E/S usa funciones virtuales SR-IOV y ranuras PCIe, el dominio se recupera con las ranuras PCIe no disponibles marcadas como evacuadas.
Utilice el comando ldm add-io para agregar las ranuras PCIe a un dominio de E/S después de haberlas eliminado manualmente del dominio raíz que no es primary.
ID de bug 16617981: la salida de ldm list no muestra la propiedad evacuatedpara los dispositivos físicos de E/S.
Solución alternativa: use la opción –p con cualquiera de los comandos ldm para mostrar la propiedad evacuated para los dispositivos físicos de E/S.
ID de bug 16486383: este problema se puede producir si se asigna un dispositivo o bus PCI directamente a un dominio invitado en el que el dominio no tiene un núcleo asignado desde /SYS/DCU donde reside físicamente la tarjeta PCI. Dado que el hipervisor restablece los dispositivos PCI en nombre de los dominios invitados, durante el reinicio de cada dominio invitado, es posible que se produzca un aviso grave en un dominio con núcleos en la DCU conectada al dispositivo PCI. Si hay más dispositivos PCI asignados a los dominios invitados locales no de DCU, aumenta la posibilidad de que se produzcan avisos graves.
Solución alternativa: siga una de estas soluciones alternativas:
Asegúrese de que, cuando asigne dispositivos PCI a un dominio invitado, la tarjeta se encuentre en la misma DCU que los núcleos.
Asigne manualmente núcleos para obtener mayor flexibilidad para colocar la tarjeta física.
Como ejemplo, para un dispositivo PCI en IOU0 (de pci_0 a pci_15), elija un núcleo entre 0 y 127, y asígnelo al dominio.
# ldm add-core cid=16 domain-name
Utilice el siguiente comando para ver los núcleos del sistema:
# ldm ls-devices -a core
Para un dispositivo PCI en IOU1 (de pci_16 a pci_31), elija un núcleo entre 128 y 255. Para un dispositivo PCI en IOU2 (de pci_32 a pci_47), elija un núcleo entre 256 y 383. Para un dispositivo PCI en IOU3 (de pci_48 a pci_63), elija un núcleo entre 384 y 511.
ID de bug 16299053: después de desactivar un dispositivo PCIe, es posible que experimente un comportamiento inesperado. Los subdispositivos que se encuentran en el dispositivo PCIe desactivado se revierten a los nombres no asignados mientras el dispositivo PCIe sigue siendo propiedad del dominio.
Solución alternativa: si decide desactivar una ranura PCIe en ILOM, asegúrese de que la ranura PCIe no esté asignada a un dominio por medio de la función de E/S directa (DIO). Es decir, compruebe primero que la ranura PCIe se haya asignado al dominio raíz correspondiente antes de desactivar la ranura en ILOM.
Si desactiva la ranura PCIe en ILOM mientras la ranura PCIe está asignada a un dominio con DIO, detenga ese dominio y vuelva a asignar el dispositivo al dominio raíz para que el comportamiento sea correcto.
ID de bug 16284767: esta advertencia sobre la consola de Oracle Solaris significa que el suministro de interrupciones se ha agotado mientras se conectan los controladores de los dispositivos de E/S:
WARNING: ddi_intr_alloc: cannot fit into interrupt pool
El hardware proporciona una cantidad infinita de interrupciones, de modo que Oracle Solaris limita la cantidad que cada dispositivo puede utilizar. Hay un límite predeterminado diseñado para satisfacer las necesidades de las configuraciones del sistema típicas; sin embargo, este límite puede necesitar un ajuste para determinadas configuraciones del sistema.
Específicamente, es posible que sea necesario ajustar el límite si el sistema está particionado en varios dominios lógicos y si hay demasiados dispositivos de E/S asignados a algún dominio invitado. Oracle VM Server for SPARC divide el total de las interrupciones en pequeños conjuntos proporcionados a los dominios invitados. Si hay demasiados dispositivos de E/S asignados a un dominio invitado, el suministro puede ser demasiado pequeño para proporcionar a cada dispositivo el límite predeterminado de interrupciones. Por lo tanto, el suministro se agota antes de que se conecten completamente todos los controladores.
Algunos controladores proporcionan una rutina de devolución de llamada opcional que le permite a Oracle Solaris ajustar automáticamente sus interrupciones. El límite predeterminado no se aplica a estos controladores.
Solución alternativa: utilice las macros MDB ::irmpools and ::irmreqs para determinar cómo se utilizan las interrupciones. La macro ::irmpools muestra el suministro total de interrupciones dividido en agrupaciones. La macro ::irmreqs muestra los dispositivos asignados a cada agrupación. Para cada dispositivo, ::irmreqs muestra si el límite predeterminado se aplica por una rutina de devolución de llamada opcional, la cantidad de interrupciones solicitadas por cada controlador y la cantidad de interrupciones que recibe el controlador.
Las macros no muestran información sobre los controladores que no se pueden conectar. Sin embargo, la información que se muestra ayuda a calcular la medida hasta la que se puede ajustar el límite predeterminado. Cualquier dispositivo que utiliza más de una interrupción sin proporcionar una rutina de devolución de llamada puede forzarse a utilizar menos interrupciones ajustando el límite predeterminado. La reducción del límite predeterminado por debajo de la cantidad que utiliza el dispositivo puede dar como resultado la liberación de interrupciones que usan otros dispositivos.
Para ajustar el límite predeterminado, establezca la propiedad ddi_msix_alloc_limit en un valor de 1 a 8 en el archivo /etc/system. A continuación, reinicie el sistema para que el cambio surta efecto.
Para maximizar el rendimiento, comience por asignar los mayores valores y reducir los valores en incrementos pequeños hasta que el sistema se inicie correctamente sin advertencias. Use las macros ::irmpools y ::irmreqs para medir el impacto del ajuste en todos los controladores conectados.
Por ejemplo, suponga que las siguientes advertencias se emiten durante el inicio del SO Oracle Solaris en un dominio invitado:
WARNING: emlxs3: interrupt pool too full. WARNING: ddi_intr_alloc: cannot fit into interrupt pool
Las macros ::irmpools y ::irmreqs muestran la siguiente información:
# echo "::irmpools" | mdb -k ADDR OWNER TYPE SIZE REQUESTED RESERVED 00000400016be970 px#0 MSI/X 36 36 36 # echo "00000400016be970::irmreqs" | mdb -k ADDR OWNER TYPE CALLBACK NINTRS NREQ NAVAIL 00001000143acaa8 emlxs#0 MSI-X No 32 8 8 00001000170199f8 emlxs#1 MSI-X No 32 8 8 000010001400ca28 emlxs#2 MSI-X No 32 8 8 0000100016151328 igb#3 MSI-X No 10 3 3 0000100019549d30 igb#2 MSI-X No 10 3 3 0000040000e0f878 igb#1 MSI-X No 10 3 3 000010001955a5c8 igb#0 MSI-X No 10 3 3
El límite predeterminado en este ejemplo es de ocho interrupciones por dispositivo, lo cual no es suficiente para la conexión del dispositivo final emlxs3 con el sistema. Dado que todas las instancias de emlxs se comportan del mismo modo, supone que emlxs3 probablemente solicitó 8 interrupciones.
Al restar las 12 interrupciones utilizadas por todos los dispositivos igb de la agrupación total de 36 interrupciones, quedan 24 interrupciones disponibles para los dispositivos emlxs. La división de las 24 interrupciones por 4 sugiere que 6 interrupciones por dispositivo permitirían que todos los dispositivos emlxs se conecten con el mismo rendimiento. Por lo tanto, el siguiente ajuste se agrega al archivo /etc/system:
set ddi_msix_alloc_limit = 6
Cuando el sistema se inicia correctamente sin advertencias, las macros ::irmpools y ::irmreqs muestran la siguiente información actualizada:
# echo "::irmpools" | mdb -k ADDR OWNER TYPE SIZE REQUESTED RESERVED 00000400018ca868 px#0 MSI/X 36 36 36 # echo "00000400018ca868::irmreqs" | mdb -k ADDR OWNER TYPE CALLBACK NINTRS NREQ NAVAIL 0000100016143218 emlxs#0 MSI-X No 32 8 6 0000100014269920 emlxs#1 MSI-X No 32 8 6 000010001540be30 emlxs#2 MSI-X No 32 8 6 00001000140cbe10 emlxs#3 MSI-X No 32 8 6 00001000141210c0 igb#3 MSI-X No 10 3 3 0000100017549d38 igb#2 MSI-X No 10 3 3 0000040001ceac40 igb#1 MSI-X No 10 3 3 000010001acc3480 igb#0 MSI-X No 10 3 3
ID de bug 16232834: cuando se utiliza el comando ldm add-vcpu para asignar CPU a un dominio, es posible que el SO Oracle Solaris genere un aviso grave y muestre el siguiente mensaje:
panic[cpu16]/thread=c4012102c860: mpo_cpu_add: Cannot read MD
Este aviso grave se produce si se cumplen las siguientes condiciones:
Se asignaron DCU adicionales a un host.
El host se inicia mediante una configuración de SP guardada previamente que no contiene todo el hardware asignado al host.
El dominio de destino de la operación ldm add-vcpu es el dominio que genera el aviso grave. El dominio se recupera con las CPU adicionales cuando se reinicia.
Solución alternativa: no utilice las configuraciones que se generan con menos recursos de hardware que los asignados al host.
Para evitar el problema, no agregue CPU como se detalla en la descripción del problema. O bien, lleve a cabo los siguientes pasos:
Genere una nueva configuración de SP una vez que se agregaron las DCU.
Por ejemplo, el siguiente comando crea una configuración denominada new-config-more-dcus:
primary# ldm add-config new-config-more-dcus
Cierre el dominio.
Detenga el host.
-> stop /HOST
Inicie el host.
-> start /HOST
ID de bug 16224353: tras reiniciar el dominio principal, es posible que las instancias ixgbevf del dominio primary no funcionen.
Solución alternativa: ninguna.
ID de bug 16219069: en un dominio primary que ejecuta el sistema operativo Oracle Solaris 10 1/13, es posible que no se asocie ni asigne una dirección IP a las interfaces de funciones virtuales de acuerdo con el archivo /etc/hostname.vf-interface.
Este problema se produce cuando inicia o reinicia un sistema SPARC T3, SPARC T4 o SPARC T5 que ejecuta el sistema operativo Oracle Solaris 10 1/13 en el dominio primary. Este problema afecta las funciones virtuales que se crearon en las funciones físicas incorporadas y en las funciones físicas adicionales. Este problema no ocurre cuando se inicia una imagen de dominio invitado de Logical Domains.
ID de bug 16080855: durante un reinicio o cierre del dominio primary, el dominio primary pueden experimentar un aviso grave del núcleo con un mensaje grave similar al siguiente:
panic[cpu2]/thread=c40043b818a0: mutex_enter: bad mutex, lp=c4005fa01c88 owner=c4005f70aa80 thread=c40043b818a0 000002a1075c3630 ldc:ldc_mem_rdwr_cookie+20 (c4005fa01c80, c4004e2c2000,2a1075c37c8, 6c80000, 1, 0) %l0-3: 00000000001356a4 0000000000136800 0000000000000380 00000000000002ff %l4-7: 00000000001ad3f8 0000000000000004 00000000ffbffb9c 0000c4005fa01c88 000002a1075c3710 vldc:i_vldc_ioctl_write_cookie+a4 (c4004c400030, 380,ffbff898, 100003, 0, 70233400) %l0-3: 0000000006c80000 0000000000156dc8 0000000000000380 0000000000100003 %l4-7: 00000000702337b0 000002a1075c37c8 0000000000040000 0000000000000000 000002a1075c37f0 vldc:vldc_ioctl+1a4 (3101, c4004c400030, ffbff898,c4004c400000, c4004c438030, 0) %l0-3: 0000000000100003 0000000000000000 000000007b340400 0000c4004c438030 %l4-7: 0000c4004c400030 0000000000000000 0000000000000000 0000000000000000 000002a1075c38a0 genunix:fop_ioctl+d0 (c4004d327800, 0, ffbff898, 100003,c4004384f718, 2a1075c3acc) %l0-3: 0000000000003103 0000000000100003 000000000133ce94 0000c4002352a480 %l4-7: 0000000000000000 0000000000000002 00000000000000c0 0000000000000000 000002a1075c3970 genunix:ioctl+16c (3, 3103, ffbff898, 3, 134d50, 0) %l0-3: 0000c40040e00a50 000000000000c6d3 0000000000000003 0000030000002000 %l4-7: 0000000000000003 0000000000000004 0000000000000000 0000000000000000
Recuperación: permita que se reinicie el dominio primary. Si el dominio principal se ha configurado para no reiniciarse tras un bloqueo, inícielo manualmente.
ID de bug 16071170: en un sistema SPARC M5-32 o SPARC M6-32, los controladores SAS internos se exportan como controladores para SR-IOV aunque estas tarjetas no admitan SR-IOV.
El log de Oracle VM Server for SPARC muestra los siguientes mensajes al intentar crear la función física en estas tarjetas:
Dec 11 04:27:54 warning: Dropping pf pci@d00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver Dec 11 04:27:54 warning: Dropping pf pci@d80/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver Dec 11 04:27:54 warning: Dropping pf pci@c00/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver Dec 11 04:27:54 warning: Dropping pf pci@e00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver
El sistema tiene cuatro puertos de controlador LSI SAS, cada uno en una IOU del conjunto SPARC M5-32 y SPARC M6-32. Este error se notifica para cada puerto.
Solución alternativa: puede omitir estos mensajes. Estos mensajes solo indican que los dispositivos de controladores LSI-SAS del sistema admiten SR-IOV, pero no hay compatibilidad con SR-IOV disponible para este hardware.
ID de bug 16068376: en un sistema T5-8 con aproximadamente 128 dominios, algunos comandos ldm, como ldm list, pueden mostrar 0 segundos como el tiempo de actividad para todos los dominios.
Solución alternativa: inicie sesión en el dominio y utilice el comando uptime para determinar el tiempo de actividad del dominio.
ID de bug 15962837: una evacuación de núcleos no se completa cuando se produce un fallo de nivel de chip. Una evacuación seguida de un fallo de núcleo funciona tal como se espera, pero no se completa el fallo de nivel de chip cuando se intenta retirar un nodo de CMP completo.
Solución alternativa: ninguna. Planifique un reemplazo de chip cuando se diagnostique un fallo de nivel de chip.
ID de bug 15942036: si realiza una operación DR de memoria para reducir la memoria a menos de 4 ;GB, la operación se podría bloquear para siempre. Si se emite un comando ldm cancel-op memdr en ese dominio, se emite un mensaje incorrecto:
The memory removal operation has completed. You cannot cancel this operation.
A pesar del mensaje, la operación DR de memoria está bloqueada, y es posible que no pueda realizar otras operaciones de ldmd en ese dominio invitado.
Solución alternativa: no intente reducir la memoria a menos de 4 GB en ningún dominio. Si ya está en este estado, ejecute el comando ldm stop -f o conéctese en el dominio y reinícielo.
ID de bug 15826354: la reconfiguración dinámica (DR) de una gran cantidad de CPU provoca un error al ejecutar el daemon ldmd. Aunque se agota el tiempo de espera de ldmd, la operación de DR continúa en segundo plano y finaliza correctamente. Sin embargo, ldmd ya no está alineado con el dominio resultante y es posible que no se permitan operaciones posteriores de DR.
Por ejemplo:
# ldm ls NAME STATE FLAGS CONS VCPU MEMORY UTIL NORM UPTIME primary active -n-cv- UART 7 20G 2.7% 0.4% 1h 41m ldg0 active -n---- 5000 761 16G 75% 51% 6m # ldm rm-vcpu 760 ldg0 Request to remove cpu(s) sent, but no valid response received VCPU(s) will remain allocated to the domain, but might not be available to the guest OS Resource removal failed # ldm set-vcpu 1 ldg0 Busy executing earlier command; please try again later. Unable to remove the requested VCPUs from domain ldg0 Resource modification failed # ldm ls NAME STATE FLAGS CONS VCPU MEMORY UTIL NORM UPTIME primary active -n-cv- UART 7 20G 0.9% 0.1% 1h 45m ldg0 active -n---- 5000 761 16G 100% 0.0% 10m
Solución alternativa: espere unos minutos y luego vuelva a ejecutar el comando ldm set-vcpu:
# ldm set-vcpu 1 ldg0 # ldm ls NAME STATE FLAGS CONS VCPU MEMORY UTIL NORM UPTIME primary active -n-cv- UART 7 20G 0.9% 0.1% 1h 50m ldg0 active -n---- 5000 1 16G 52% 0.0% 15m
Tenga en cuenta que 760 supera el máximo recomendado.
ID de bug 15825330: Oracle VM Server for SPARC parece bloquearse en el inicio en algunas configuraciones de SPARC T4-4 que tienen una sola placa de procesador.
Solución alternativa: asegúrese de que un procesador siempre ocupe las ranuras para los procesadores 0 y 1. El reinicio del sistema en una configuración de este tipo permite que se inicie el software Oracle VM Server for SPARC.
ID de bug 15821246: en un sistema que ejecuta el SO Oracle Solaris 11.1, cambiar el valor de la propiedad threading en un dominio migrado de max-ipc a max-throughput puede generar un aviso grave en el dominio invitado.
Solución alternativa: no cambie el estado de threading por un dominio invitado migrado hasta que este se vuelva a iniciar.
ID de bug 15820741: en un sistema Oracle Solaris 11.1 que tiene dos dominios con configuraciones de E/S directa, el dominio de control se puede bloquear al reiniciarlo.
Recuperación: para recuperarse del cuelgue del reinicio, restablezca el dominio de control emitiendo el siguiente comando en el SP:
-> reset -f /HOST/domain/control
ID de bug 15812823: en situaciones de poca memoria libre, no todos los bloques de memoria pueden usarse como parte de una operación de DR de memoria debido al tamaño. Sin embargo, estos bloques de memoria se incluyen en la cantidad de memoria libre. Esta situación puede hacer que se agregue al dominio una cantidad de memoria menor que la esperada. No aparece ningún mensaje de error si se produce esta situación.
Solución alternativa: ninguna.
ID de bug 15783851: es posible que se produzca un problema al intentar volver a crear una configuración desde un archivo XML que representa las restricciones de funciones virtuales de manera incorrecta.
Este problema se produce cuando utiliza el comando ldm list-constraints -x para guardar la configuración de un dominio que tiene funciones virtuales de PCIe.
Si más adelante vuelve a crear el dominio con el comando ldm add-domain -i, las funciones virtuales originales no estarán presentes y se mostrará el siguiente mensaje error al intentar enlazar un dominio:
No free matching PCIe device...
Incluso si crea las funciones virtuales que faltan, se produce el mismo mensaje de error al intentar enlazar otro dominio, ya que el comando ldm add-domain clasifica de manera incorrecta las funciones virtuales como dispositivos PCIe.
Solución alternativa: siga estos pasos:
Guarde la información sobre las funciones virtuales mediante el comando ldm list-io.
Destruya cada dominio afectado mediante el comando ldm rm-dom.
Cree todas las funciones virtuales necesarias mediante el comando ldm create-vf.
Vuelva a crear los dominios con el comando ldm.
Cuando utiliza el comando ldm add-io para agregar las funciones virtuales, estas se clasifican correctamente como un dispositivo de funciones virtuales, por lo que el dominio se puede enlazar.
Para obtener información sobre cómo volver a crear una configuración de dominio que utilice funciones virtuales, consulte Es posible que el comando ldm init-system no restaure correctamente una configuración de dominio en la que se han realizado cambios de E/S física.
ID de bug 15783608: al pasar del uso de núcleos con restricciones físicas al uso de recursos de CPU sin restricciones en el control de dominio, es posible que aparezca el siguiente mensaje irrelevante:
Whole-core partitioning has been removed from domain primary,because dynamic reconfiguration has failed and the domain is now configured with a partial CPU core.
Solución alternativa: puede omitir este mensaje.
ID de bug 15783031: puede experimentar problemas al usar el comando ldm init-system para restaurar una configuración de dominio que ha utilizado operaciones de E/S directa o SR-IOV.
Surge un problema si una o más de las siguientes operaciones se han realizado en la configuración que se va a restaurar:
Una ranura se ha eliminado de un bus que sigue siendo propiedad del dominio primary.
Una función virtual se ha creado a partir de una función física que es propiedad del dominio primary.
Una función virtual se ha asignado al dominio primary, a otros dominios invitados, o a ambos.
Un complejo raíz se ha eliminado del dominio primary y se ha asignado a un dominio invitado, y se utiliza como base para otras operaciones de virtualización de E/S.
Es decir, ha creado un dominio raíz que no es primary y ha realizado alguna de las operaciones anteriores.
Para asegurarse de que el sistema permanezca en un estado en el que ninguna de las acciones anteriores se hayan realizado, consulte Using the ldm init-system Command to Restore Domains on Which Physical I/O Changes Have Been Made..
ID de bug 15782994: es posible que Logical Domains Manager se bloquee y se reinicie cuando intenta realizar una operación que afecta la configuración de varios dominios. Es posible que este problema aparezca al intentar cambiar algún valor relacionado con la configuración de red virtual y si existen muchos dispositivos de red virtual en el mismo conmutador virtual para varios dominios. Normalmente, este problema se presenta cuando hay aproximadamente 90 dominios o más que tienen dispositivos de red virtual conectados al mismo conmutador virtual y cuando la propiedad inter-vnet-link está activada (comportamiento predeterminado). Para confirmar el síntoma, busque el siguiente mensaje en el archivo log de ldmd y el archivo core en el directorio /var/opt/SUNWldm:
Frag alloc for 'domain-name'/MD memory of size 0x80000 failed
Solución alternativa: evite crear muchos dispositivos de red virtual conectados al mismo conmutador virtual. Si desea hacerlo, establezca la propiedad inter-vnet-link en off en el conmutador virtual. Tenga en cuenta que esta opción puede afectar el rendimiento de las redes entre dominios invitados.
ID de bug 15778392: el dominio de control requiere el núcleo más bajo del sistema. Por lo tanto, si el ID de núcleo 0 es el núcleo más bajo, no se puede compartir con ningún otro dominio si desea aplicar la restricción de núcleo completo al dominio de control.
Por ejemplo, si el núcleo más bajo del sistema es el ID de núcleo 0, el dominio de control tendrá un aspecto similar al siguiente:
# ldm ls -o cpu primary NAME primary VCPU VID PID CID UTIL STRAND 0 0 0 0.4% 100% 1 1 0 0.2% 100% 2 2 0 0.1% 100% 3 3 0 0.2% 100% 4 4 0 0.3% 100% 5 5 0 0.2% 100% 6 6 0 0.1% 100% 7 7 0 0.1% 100%
ID de bug 15775668: un dominio que tiene una política de prioridad más alta puede robar recursos de CPU virtuales de un dominio con una política de prioridad más baja. Cuando esta acción de “robo” está en curso, es posible que vea los siguientes mensajes de advertencia en el log de ldmd cada 10 segundos:
warning: Unable to unconfigure CPUs out of guest domain-name
Solución alternativa: puede omitir estos mensajes engañosos.
ID de bug 15775637: un dominio de E/S tiene un límite para el número de recursos de interrupción disponibles por cada complejo de raíz.
En los sistemas SPARC T3 y SPARC T4, el límite es de aproximadamente 63 MSI/vectores X. Cada función virtual igb utiliza tres interrupciones. La función virtual ixgbe utiliza dos interrupciones.
Si asigna una gran cantidad de funciones virtuales a un dominio, se agotan los recursos del sistema del dominio necesarios para admitir estos dispositivos. Aparecerán mensajes similares a los siguientes:
WARNING: ixgbevf32: interrupt pool too full. WARNING: ddi_intr_alloc: cannot fit into interrupt pool
ID de bug 15771384: la consola invitada de un dominio puede detenerse si se realizan intentos reiterados de conectarse a la consola antes y durante el momento en que la consola se enlaza. Por ejemplo, esto puede suceder si utiliza una secuencia de comandos automatizada para capturar la consola como un dominio que se migra en el equipo.
Solución alternativa: para activar la consola, ejecute los siguientes comandos en el dominio que aloja al concentrador de la consola del dominio (normalmente el dominio de control):
primary# svcadm disable vntsd primary# svcadm enable vntsd
ID de bug 15765858: los recursos del complejo de raíz no se restauran después de destruir todas las funciones virtuales y regresar las ranuras al dominio raíz.
Solución alternativa: configure la opción iov en off para el bus PCIe específico.
primary# ldm start-reconf primary primary# ldm set-io iov=off pci_0
ID de bug 15761509: utilice solo tarjetas PCIe que admiten la función de E/S directa. Estas tarjetas se enumeran en support document.
Solución alternativa: utilice el comando ldm add-io para agregar la tarjeta al dominio primary.
ID de bug 15759601: si ejecuta un comando ldm stop inmediatamente después de un comando ldm start, el comando ldm stop puede generar el siguiente error:
LDom domain-name stop notification failed
Solución alternativa: vuelva a ejecutar el comando ldm stop.
ID de bug 15758883: el comando ldm init-system no consigue restaurar las restricciones de núcleo del CPU para dominios invitados desde un archivo XML guardado.
Solución alternativa: siga estos pasos:
Cree un archivo XML para el dominio principal.
# ldm ls-constraints -x primary > primary.xml
Cree un archivo XML para los dominios invitados.
# ldm ls-constraints -x domain-name[,domain-name][,...] > guest.xml
Apague el sistema, vuelva a encenderlo e inicie una configuración predeterminada de fábrica.
Aplique la configuración XML para el dominio primary.
# ldm init-system -r -i primary.xml
Aplique la configuración XML para estos dominios.
# ldm init-system -f -i guest.xml
ID de bug 15750727: se puede producir un aviso grave en el sistema al reiniciar un dominio primary que tiene una gran cantidad de funciones virtuales asignadas.
Solución alternativa: siga una de estas soluciones alternativas:
Disminuya el número de funciones virtuales para reducir el número de funciones virtuales con errores. Este cambio puede mantener la capacidad de respuesta del chip.
Cree más agrupaciones de gestión de recursos de interrupción (IRM, Interrupt Resource Management) para la función virtual ixgbe, ya que solo se crea una agrupación de IRM de manera predeterminada para todas las funciones virtuales ixgbe del sistema.
ID de bug 15748348: cuando el dominio primary comparte el núcleo físico más bajo (por lo general, 0) con otro dominio, se produce un error al intentar definir la restricción de núcleo completo para el dominio primary.
Solución alternativa: siga estos pasos:
Determine el núcleo enlazado más bajo compartido por los dominios.
# ldm list -o cpu
Desenlace todos los subprocesos de CPU correspondientes al núcleo más bajo de todos los dominios, excepto del dominio primary.
Como resultado, los subprocesos de CPU correspondientes al núcleo más bajo no se comparten y están disponibles para enlazarse con el dominio primary.
Para definir la restricción de núcleo completo, siga uno de estos pasos:
Enlace los subprocesos de CPU al dominio primary y defina la restricción de núcleo completo con el comando ldm set-vcpu -c.
Utilice el comando ldm set-core para enlazar los subprocesos de CPU y definir la restricción de núcleo completo en un solo paso.
ID de bug 15738561: el comando ldm list-io puede mostrar el estado UNK o INV para las ranuras PCIe y las funciones virtuales SR-IOV si el comando se ejecuta inmediatamente después del inicio del dominio primary. Este problema se produce por un retraso en la respuesta del agente de Logical Domains en el SO Oracle Solaris.
Este problema solo se ha informado en pocos sistemas.
Solución alternativa: el estado de las ranuras PCIe y las funciones virtuales se actualiza automáticamente una vez que se recibe la información del agente de Logical Domains.
Los siguientes bugs describen fallos que podrían producirse al eliminar un gran número de CPU de un dominio.
Dominio de control.
ID de bug 15677358: utilice una reconfiguración retrasada en lugar de una reconfiguración dinámica para eliminar más de 100 CPU del dominio de control (también conocido como dominio primary). Siga estos pasos:
Use el comando ldm start-reconf primary para poner el dominio de control en modo de reconfiguración retrasada.
Elimine el número deseado de recursos de CPU.
Si comete un error al eliminar los recursos de CPU, no intente realizar otra solicitud para eliminar las CPU mientras el dominio de control aún se encuentre en una reconfiguración retrasada. Si lo hace, los comandos fallan (consulte Solo se permite realizar una operación de configuración de CPU durante una reconfiguración retrasada de Guía de administración para Oracle VM Server for SPARC 3.2 ). En su lugar, deshaga la operación de reconfiguración retrasada mediante el comando ldm cancel-reconf y vuelva a comenzar.
Reinicie el dominio de control.
Dominio invitado.
ID de bug 15726205: es posible que aparezca el siguiente mensaje de error al intentar eliminar una gran cantidad de CPU de un dominio invitado:
Request to remove cpu(s) sent, but no valid response received VCPU(s) will remain allocated to the domain, but might not be available to the guest OS Resource modification failed
Solución alternativa: detenga el dominio invitado antes de eliminar más de 100 CPU del dominio.
ID de bug 15721872: no puede utilizar las operaciones de conexión en marcha de Oracle Solaris para eliminar un dispositivo de terminal PCIe cuando está en funcionamiento después de que dicho dispositivo se eliminó del dominio primary mediante el comando ldm rm-io. Para obtener información sobre cómo reemplazar o eliminar un dispositivo de punto final PCIe, consulte Realización de cambios de hardware en PCIe de Guía de administración para Oracle VM Server for SPARC 3.2 .
ID de bug 15707426: si el servicio de log del sistema, svc:/system/system-log, no se inicia y no se conecta, el servicio del agente de Logical Domains no se conectará. Cuando el servicio del agente de Logical Domains no está conectado, es posible que los comandos virtinfo, ldm add-vsw, ldm add-vdsdev y ldm list-io no se comporten del modo esperado.
Solución alternativa: asegúrese de que el servicio svc:/ldoms/agents:default esté activado y conectado:
# svcs -l svc:/ldoms/agents:default
Si el servicio svc:/ldoms/agents:default está desconectado, compruebe que el servicio esté activado y que todos los servicios dependientes estén conectados.
ID de bug 15702475: es posible que aparezca el mensaje No response en el log de Oracle VM Server for SPARC cuando la política DRM de un dominio cargado caduca una vez que el recuento de CPU se ha reducido significativamente. La salida del comando ldm list muestra que hay más recursos de CPU asignados al dominio de los que se muestran en la salida de psrinfo.
Solución alternativa: utilice el comando ldm set-vcpu para restablecer el número de CPU del dominio al valor que se muestra en el resultado de psrinfo.
ID de bug 15701258: al ejecutar el comando ldm set-vcpu 1 en un dominio invitado que tiene más de 100 CPU virtuales y algunas unidades criptográficas, no se eliminan las CPU virtuales. Las CPU virtuales no se eliminan debido a un error de tiempo de espera de la DR. Las unidades criptográficas se eliminan correctamente.
Solución alternativa: utilice el comando ldm rm-vcpu para eliminar todas las CPU virtuales excepto una del dominio invitado. No elimine más de 100 CPU virtuales a la vez.
ID de bug 15668881: al utilizar el comando pkgadd para instalar el paquete SUNWldm.v de un directorio que se exporta mediante un NFS desde un dispositivo Oracle ZFS Storage Appliance, es posible que aparezca el siguiente mensaje de error:
cp: failed to set acl entries on /var/svc/manifest/platform/sun4v/ldmd.xml
Solución alternativa: omita este mensaje.
ID de bug 15668368: un sistema SPARC T3-1 se puede instalar con discos de dos puertos, a los que se puede acceder mediante dos dispositivos de E/S directa diferentes. En este caso, asignar estos dos dispositivos de E/S directa a dominios diferentes puede provocar que los discos se utilicen en ambos dominios y que se vean afectados en función del uso real de esos discos.
Solución alternativa: no asigne dispositivos de E/S directa con acceso al mismo conjunto de discos a diferentes dominios de E/S. Para determinar si tiene discos de dos puertos en el sistema SPARC T3-1, ejecute el siguiente comando en el SP:
-> show /SYS/SASBP
Si el resultado incluye el valor fru_description siguiente, el sistema correspondiente tiene discos de dos puertos:
fru_description = BD,SAS2,16DSK,LOUISE
Si se encuentran discos de dos puertos en el sistema, asegúrese de que estos dos dispositivos de E/S directa estén siempre asignados al mismo dominio:
pci@400/pci@1/pci@0/pci@4 /SYS/MB/SASHBA0 pci@400/pci@2/pci@0/pci@4 /SYS/MB/SASHBA1
ID de bug 15667770: cuando se asocian varias instancias nxge de NIU en un dominio, es posible que los comandos ldm rm-mem y ldm set-mem, que se utilizan para eliminar memoria del dominio, nunca se completen. Para determinar si el problema se ha producido durante una operación de eliminación de memoria, supervise el progreso de la operación con el comando ldm list -o status. Es posible que tenga este problema si el porcentaje del progreso sigue siendo constante durante varios minutos.
Solución alternativa: cancele el comando ldm rm-mem o ldm set-mem, y compruebe si se eliminó una cantidad suficiente de memoria. Si no es así, es posible que se complete correctamente un comando de eliminación de memoria posterior para eliminar una menor cantidad de memoria.
Si el problema se ha producido en el dominio primary, haga lo siguiente:
Inicie una operación de reconfiguración retrasada en el dominio primary.
# ldm start-reconf primary
Asigne la cantidad de memoria que desee al dominio.
Reinicie el dominio primary.
Si el problema se ha producido en otro dominio, detenga el dominio antes de ajustar la cantidad de memoria asignada al dominio.
ID de bug 15664666: cuando se crea una dependencia de restablecimiento, el comando ldm stop -a puede generar que se reinicie un dominio con una dependencia de restablecimiento en lugar de que solo se detenga.
Solución alternativa: en primer lugar, ejecute el comando ldm stop en el dominio maestro. Luego, ejecute el comando ldm stop en el dominio esclavo. Si la detención inicial del dominio esclavo genera un error, ejecute el comando ldm stop -f en el dominio esclavo.
ID de bug 15655199: a menudo, no se detecta y se reasigna de manera incorrecta una dirección MAC en uso.
Solución alternativa: compruebe manualmente que no es posible reasignar una dirección MAC en uso.
ID de bug 15654965: la secuencia de comandos ldmconfig no puede crear correctamente una configuración de dominios lógicos almacenada en el procesador de servicio (SP).
Solución alternativa: no apague y vuelva a encender el sistema una vez que se completa la secuencia de comandos ldmconfig y que se reinicia el dominio. En su lugar, realice los siguientes pasos manuales:
Agregue la configuración al SP.
# ldm add-spconfig new-config-name
Elimine la configuración primary-with-clients del SP.
# ldm rm-spconfig primary-with-clients
Apague y vuelva a encender el sistema.
Si no realiza estos pasos antes de apagar y volver a encender el sistema, la existencia de la configuración primary-with-client provocará que los dominios estén inactivos. En este caso, debe enlazar cada dominio de forma manual y, a continuación, iniciarlos mediante la ejecución del comando ldm start -a. Una vez que se inician los invitados, la repetición de esta secuencia permite que los dominios invitados se inicien automáticamente después de apagar y volver a encender el sistema.
ID de bug 15631119: si modifica la unidad de transmisión máxima (MTU) de un dispositivo de red virtual en el dominio de control, se inicia una operación de reconfiguración retrasada. Si posteriormente cancela la reconfiguración retrasada, el valor MTU del dispositivo no se restablece al valor original.
Recuperación: vuelva a ejecutar el comando ldm set-vnet para establecer la MTU al valor original. Al restablecer el valor MTU, el dominio de control pasará al modo de reconfiguración retrasada, el cual deberá cancelar. El valor MTU resultante es ahora el valor MTU correcto original.
# ldm set-vnet mtu=orig-value vnet1 primary # ldm cancel-op reconf primary
ID de bug 15600969: si todas las unidades criptográficas del hardware se eliminan dinámicamente de un dominio en ejecución, la estructura criptográfica no puede cambiar a los proveedores de software criptográficos y se terminan todas las conexiones ssh.
Recuperación: vuelva a establecer las conexiones ssh una vez que todas las unidades criptográficas se hayan eliminado del dominio.
Solución alternativa: establezca UseOpenSSLEngine=no en el archivo /etc/ssh/sshd_config del servidor y ejecute el comando svcadm restart ssh.
Todas las conexiones ssh ya no utilizarán las unidades criptográficas de hardware (y, por lo tanto, no se beneficiarán de las mejoras de rendimiento relacionadas) y las conexiones ssh no se desconectarán cuando se eliminen dichas unidades.
ID de error 15597025: cuando se ejecuta el comando ldm ls-io -l en un sistema que tiene instalada una tarjeta Ethernet de fibra de 10 gigabits dual PCI Express (X1027A-Z), la salida puede ser la siguiente:
primary# ldm ls-io -l ... pci@500/pci@0/pci@c PCIE5 OCC primary network@0 network@0,1 ethernet ethernet
El resultado muestra cuatro subdispositivos aunque esta tarjeta Ethernet solo tiene dos puertos. Esta anomalía se produce porque la tarjeta tiene cuatro funciones PCI. Dos de estas funciones se desactivan internamente y aparecen como ethernet en el resultado de ldm ls-io -l.
Solución alternativa: puede omitir las entradas ethernet en el resultado de ldm ls-io -l.
ID de bug 15572184: un comando ldm puede tardar en responder cuando se inician varios dominios. Si ejecuta un comando ldm en esta etapa, puede parecer que el comando se bloquea. Tenga en cuenta que el comando ldm se restablecerá después de realizar la tarea esperada. Una vez que se restablece el comando, el sistema debe responder normalmente a los comandos ldm.
Solución alternativa: evite iniciar varios dominios de forma simultánea. Sin embargo, si debe iniciar varios dominios a la vez, intente no ejecutar más comandos ldm hasta que el sistema vuelve a su estado normal. Por ejemplo, espere aproximadamente dos minutos en los servidores Sun SPARC Enterprise T5140 y T5240, y alrededor de cuatro minutos en el servidor Sun SPARC Enterprise T5440 o el servidor Sun Netra T5440.
ID de bug 15560811: en Oracle Solaris 11, es posible que las zonas que están configuradas con una interfaz de red automática (anet) no se inicien en un dominio que solo tiene dispositivos de red virtual de Logical Domains.
Solución alternativa 1: asigne uno o más dispositivos de red física al dominio invitado. Utilice la función de asignación de bus PCIe, E/S directa o SR-IOV para asignar una NIC física al dominio.
Solución alternativa 2: si el requisito de configuración de zonas es tener comunicación entre las zonas solo dentro del dominio, cree un dispositivo etherstub. Utilice el dispositivo etherstub como “enlace inferior” en la configuración de zonas de manera que las NIC virtuales se creen en el dispositivo etherstub.
Solución alternativa 3: utilice la asignación de vínculos exclusivos para asignar un dispositivo de red virtual de Logical Domains a una zona. Asigne los dispositivos de red virtual al dominio, como sea necesario. También puede optar por desactivar los vínculos entre redes virtuales para crear una gran cantidad de dispositivos de red virtual.
ID de bug 15560201: a veces, ifconfig indica que el dispositivo no existe después de agregar un dispositivo de disco virtual o red virtual a un dominio. Esta situación puede ocurrir porque no se creó la entrada /devices.
Aunque este problema no debe surgir durante un funcionamiento normal, el error se produce a veces cuando la cantidad de instancias de un dispositivo de red virtual no coincide con la cantidad de instancias enumeradas en el archivo /etc/path_to_inst.
Por ejemplo:
# ifconfig vnet0 plumb ifconfig: plumb: vnet0: no such interface
El número de instancia de un dispositivo virtual se muestra en la columna DEVICE del resultado de ldm list:
# ldm list -o network primary NAME primary MAC 00:14:4f:86:6a:64 VSW NAME MAC NET-DEV DEVICE DEFAULT-VLAN-ID PVID VID MTU MODE primary-vsw0 00:14:4f:f9:86:f3 nxge0 switch@0 1 1 1500 NETWORK NAME SERVICE DEVICE MAC MODE PVID VID MTU vnet1 primary-vsw0@primary network@0 00:14:4f:f8:76:6d 1 1500
El número de instancia (0 para las opciones vnet y vsw mostradas anteriormente) se puede comparar con el número de instancia del archivo path_to_inst para asegurarse de que coinciden.
# egrep '(vnet|vsw)' /etc/path_to_inst "/virtual-devices@100/channel-devices@200/virtual-network-switch@0" 0 "vsw" "/virtual-devices@100/channel-devices@200/network@0" 0 "vnet"
Solución alternativa: en el caso de que los números de instancia no coincidan, elimine el dispositivo de red virtual o conmutador virtual. A continuación, para volver a agregarlos, especifique explícitamente el número de instancia necesario mediante la definición de la propiedad id.
También puede editar manualmente el archivo /etc/path_to_inst. Consulte la página del comando man path_to_inst(4).
Precaución - No se deben realizar cambios en /etc/path_to_inst sin considerarlo detenidamente. |
ID de bug 15555509: cuando se configura Logical Domains en un sistema y se agrega otra tarjeta de red XAUI, la tarjeta no estará visible una vez que se apague y se vuelva a encender el equipo.
Recuperación: para que el XAUI recién agregado esté visible en el dominio de control, siga estos pasos:
Defina y borre una variable ficticia en el dominio de control.
Los comandos siguientes utilizan una variable ficticia denominada fix-xaui:
# ldm set-var fix-xaui=yes primary # ldm rm-var fix-xaui primary
Guarde la configuración modificada en el SP y sustituya la configuración actual.
Los comandos siguientes utilizan un nombre de configuración de config1:
# ldm rm-spconfig config1 # ldm add-spconfig config1
Realice un reinicio de reconfiguración del dominio de control.
# reboot -- -r
En este momento, puede configurar las nuevas redes disponibles para usarlas en Logical Domains.
ID de bug 15543982: puede configurar un máximo de dos dominios con complejos raíz PCIe dedicados en sistemas como Sun Fire T5240. Estos sistemas tienen dos CPU UltraSPARC T2 Plus y dos complejos raíz de E/S.
pci@500 y pci@400 son los dos complejos de raíz del sistema. El dominio primary siempre tendrá al menos un complejo de raíz. Se puede configurar un segundo dominio con un complejo de raíz no asignado o desenlazado.
El tejido (o la hoja) pci@400 contiene la tarjeta de red e1000g incorporada. Las siguientes circunstancias pueden generar un error grave en el dominio:
Si el sistema está configurado con un dominio primary que contiene pci@500 y un segundo dominio que contiene pci@400
El dispositivo e1000g del tejido pci@400 se utiliza para iniciar el segundo dominio
Evite los siguientes dispositivos de red si se han configurado en un dominio no primary:
/pci@400/pci@0/pci@c/network@0,1 /pci@400/pci@0/pci@c/network@0
Cuando se cumplen estas condiciones, el dominio genera un error grave de PCIe.
Evite una configuración de este tipo o, si la configuración se utiliza, no inicie el sistema desde los dispositivos enumerados.
ID de bug 15518409: si no tiene una red configurada en el equipo y hay un cliente del servicio de información de red (NIS) en ejecución, Logical Domains Manager no se iniciará en el sistema.
Solución alternativa: desactive el cliente NIS en el equipo no conectado a la red:
# svcadm disable nis/client
ID de bug 15511551: a veces, al ejecutar el comando uadmin 1 0 desde la línea de comandos de un sistema con Logical Domains, el sistema no regresa al indicador ok después de un reinicio posterior. Este comportamiento incorrecto se advierte cuando la variable auto-reboot? de Logical Domains está definida en true. Si auto-reboot? se ha definido en false, el comportamiento es el esperado.
Solución alternativa: utilice este comando en su lugar:
uadmin 2 0
O bien, siempre realice la ejecución con la variable auto-reboot? definida en false.
ID de bug 15505014: un cierre de dominio o una limpieza de memoria puede tardar más de 15 minutos con una sola CPU y una configuración de memoria de gran tamaño. Durante un cierre, las CPU de un dominio se utilizan para borrar toda la memoria que pertenece al dominio. El tiempo que tarda en completarse la limpieza puede ser bastante prolongado si hay una configuración no equilibrada, por ejemplo, un dominio con una única CPU y 512 GB de memoria. Este período de limpieza prolongado aumenta la cantidad de tiempo necesaria para cerrar un dominio.
Solución alternativa: asegúrese de que las configuraciones de memoria de gran tamaño (de más de 100 GB) tengan al menos un núcleo.
ID de bug 15469227: el comando scadm de un dominio de control que ejecuta como mínimo el Sistema operativo Oracle Solaris 10 5/08 se puede bloquear tras reiniciar el SC. El sistema no puede restablecer correctamente una conexión después de reiniciar el SC.
Recuperación: reinicie el host para restablecer la conexión con el SC.
ID de bug 15453968: la instalación en red simultánea de varios dominios invitados no se realiza correctamente en los sistemas que tienen un grupo de consolas común.
Solución alternativa: solo realice una instalación en red de dominios invitados que tengan su propio grupo de consolas. Este error solo se observa en dominios que comparten un grupo de consolas común entre varios dominios de instalación en red.
ID de bug 15422900: si configura más de cuatro redes virtuales (vnet) en un dominio invitado en la misma red con el protocolo de configuración dinámica de sistemas (DHCP), es posible que el dominio invitado deje de responder al ejecutar el tráfico de red.
Solución alternativa: establezca ip_ire_min_bucket_cnt e ip_ire_max_bucket_cnt en valores más altos, por ejemplo, 32 si dispone de 8 interfaces.
Recuperación: ejecute un comandoldm stop-domain domain-name seguido de un comando ldm start-domain domain-name en el dominio invitado (domain-name) correspondiente.
ID de bug 15387338: este problema se resume en Conservación de variables de Logical Domains de Guía de administración para Oracle VM Server for SPARC 3.2 y afecta únicamente al dominio de control.
ID de bug 15370442: el entorno con Logical Domains no permite definir ni suprimir claves de inicio de red de área amplia (WAN) desde el SO Oracle Solaris mediante el comando ickey(1M). Se produce el siguiente error en todas las operaciones ickey:
ickey: setkey: ioctl: I/O error
Además, las claves de inicio WAN que se definen con el firmware OpenBoot en dominios lógicos distintos del dominio de control no se recuerdan tras reiniciar el dominio. En estos dominios, las claves del firmware OpenBoot solamente son válidas para un único uso.
ID de bug 15368170: en algunos casos, el comportamiento del comando ldm stop-domain puede resultar confuso.
# ldm stop-domain -f domain-name
Si el dominio se encuentra en el indicador del depurador del módulo de núcleo, kmdb(1), se produce el siguiente mensaje de error al ejecutar el comando ldm stop-domain:
LDom <domain-name> stop notification failed