JavaScript is required to for searching.
跳过导航链接
退出打印视图
Oracle VM Server for SPARC 2.1 发行说明     Oracle VM Server for SPARC (简体中文)
search filter icon
search icon

文档信息

前言

1.  Oracle VM Server for SPARC 2.1 发行说明

此发行版的新增功能

系统要求

支持的平台

必需的软件和修补程序

必需的和建议的 Oracle Solaris OS

启用 Oracle VM Server for SPARC 2.1 功能所必需的软件

必需的和建议的系统固件修补程序

必需的最低软件版本

直接 I/O 硬件和软件要求

即时域迁移要求

Oracle VM Server for SPARC 2.1 软件的位置

修补程序的位置

文档的位置

相关软件

可选软件

可以与 Logical Domains Manager 一起使用的软件

与 Logical Domains 软件交互的系统控制器软件

将物理资源分配给域

管理控制域的物理资源

管理域的物理资源时的限制

升级至 Oracle VM Server for SPARC 2.1 软件

已知问题

常见问题

不再需要 I/O MMU 旁路模式

"服务处理器"一词和"系统控制器"一词可互换使用

在某些情况下,来宾域的 Solaris Volume Manager 配置或元设备可能会丢失

逻辑域通道和 Logical Domains

内存大小要求

引导大量域

彻底关闭 Logical Domains 系统以及对 Logical Domains 系统执行关开机循环

请求的内存大小可能不同于分配的内存

Logical Domains 变量持久性

Oracle 的 Sun SNMP Management Agent 不支持多个域

容器、处理器集和池与 CPU 电源管理不兼容

故障管理

延迟重新配置

加密单元

ldmp2v convert 命令:引导期间出现 VxVM 警告消息

扩展的 Mapin 空间仅在 Oracle Solaris /10 8/11 OS 和 Oracle Solaris 11 OS 中可用

图形配置辅助工具已删除

使用 ldmp2v prepare -R 时不显示 "Upgrade"(升级)选项

动态添加的内存块只能作为一个整体动态删除

ldmp2v 命令:ufsdump 归档方法不再使用

域迁移限制

迁移的版本限制

迁移的 CPU 限制

Oracle VM Server for SPARC MIB 问题

错误的 ldomCryptoRpReserved 属性值

snmptable 命令无法与版本 2 或版本 3 选项配合使用

影响 Oracle VM Server for SPARC 2.1 软件的错误

init-system 无法从已保存的 XML 文件恢复来宾域的已命名核心约束

处于绑定模式时,已命名核心可能会关闭所有 CPU 的电源

Oracle Solaris 11 OS:在多插槽 SPARC T 系列系统上,使用直接 I/O 从 primary 域中删除多个 PCIe 插槽可能会在引导时出现紧急情况

部分核心 primary 未能允许完整核心 DR 转换

ldmconfig 仅在 Oracle Solaris /10 系统上受支持

Oracle VM Server for SPARC MIB 仅在 Oracle Solaris /10 系统上受支持

在 SPARC T4-4s 上迁移内存非常大的域会导致目标系统上的域出现紧急情况

从来宾域中删除大量 CPU

取消域迁移之后不会恢复 CPU 线程模式

内存较大的域在弹性模式下需要较长的时间来停止

无法使用 Solaris 热插拔操作来热删除 PCIe 端点设备

从其他目录使用绝对路径运行 install-ldm 时,该命令将挂起

ldm add-dev 可以创建比 OpenBoot 所支持的长度更长的设备别名

对于没有分片 2 的物理磁盘,虚拟磁盘验证失败

incoming_migration_enabled=false 时,向外迁移失败

迁移包含混合 I/O 和虚拟 I/O 虚拟网络设备的来宾域时,nxge 出现紧急情况

不要使用 Sun Management Console 软件监控 Oracle VM Server for SPARC 系统

使用错误的 SP 配置作为默认值

迁移过程中丢失共享 NFS 资源时所有 ldm 命令挂起

ldmd 无法从包含部分核心的域中删除核心

以单用户模式引导的域中,失败的 CPU DR 操作返回错误的状态

如果系统日志服务不联机,Logical Domains 代理服务就无法联机

内核死锁导致计算机在迁移期间挂起

DRM 和 ldm list 输出显示的虚拟 CPU 数与来宾域中的实际虚拟 CPU 数不符

策略已删除或过期时,DRM 无法为已迁移的域恢复默认数量的虚拟 CPU

DR 过程中虚拟 CPU 超时失败

当 XML 文件包含无效的网络或磁盘后端时域绑定失败

当系统 MAC 地址与其他 MAC 地址发生冲突时,不报告迁移失败原因

"相反方向"的同时迁移操作可能导致 ldm 挂起

从控制域中删除大量 CPU

SPARC T3:执行内存操作时 Oracle VM Server for SPARC 挂起

设置了弹性策略并正在运行 Oracle Solaris /10 8/11 OS 的系统可能会挂起

pkgadd 无法在 /var/svc/manifest/platform/sun4v/ldmd.xml 上设置 ACL 项

SPARC T3-1:检测和处理可以通过多个直接 I/O 路径访问的磁盘

对多个已激活的 NIU nxge 实例执行内存 DR 删除操作可能会无限期挂起而且永远无法完成

ldmd 错误地报告域中CPU 使用率为 100%

来宾域无法从已导出的 DVD 设备引导

对具有主-从关系的域使用 ldm stop -a 命令会在从域中设置 stopping 标志

无法从 primary 域删除加密单元

如果要迁移的来宾域具有支持混合 I/O 的虚拟网络设备,服务域会出现紧急情况

迁移启用了默认 DRM 策略的域导致为目标域指定所有可用的 CPU

某个正在使用中的 MAC 地址可以被重新分配

ldmconfig 无法在 SP 上创建域配置

cpu0 处于脱机状态时,可能会阻止对 Oracle Solaris 域进行非协同迁移

在取消迁移之后,内存 DR 处于禁用状态

有时,对虚拟网络设备的 MTU 值执行动态重新配置会失败

某些物理内存配置不支持内存 DR

当目标 OS 不支持对加密单元执行 DR 时,具有 MAU 的迁移域仅包含一个 CPU

对于实际地址内存绑定故障显示令人混淆的迁移失败消息

从域中动态删除所有的加密单元导致 SSH 终止

Atlas PCI Express Dual 10-Gigabit Ethernet Fiber 卡在 ldm list-io -l 输出中显示四个子设备

当多个域正在引导时,ldm 命令很慢,无法响应

当系统处于电源管理弹性模式时,来宾域可能无法成功重新引导

在重新引导控制域或来宾域时看到虚假的 ds_ldc_cb: LDC READ event 消息

来宾域有时无法与控制域建立正确的域服务连接

在控制域上未正确创建虚拟网络设备

在配置了 Logical Domains 的情况下,新添加的 NIU/XAUI 适配器在主机 OS 中不可见

e1000g 引导时,I/O 域或来宾域出现紧急情况

显式控制台组和端口绑定未迁移

约束数据库未同步到已保存的配置

当目标上的 vdsdev 具有不同的后端时迁移不失败

即使目标有足够的内存,迁移功能也无法绑定内存

当计算机未联网而且 NIS 客户端正在运行时,Logical Domains Manager 不启动

当迁移后的域已经引导时,Logical Domains Manager 将这些域显示为处于过渡状态

除非重新启动 vntsd,否则无法连接到迁移后的域控制台

有时,从 Logical Domains 系统执行 uadmin 1 0 命令时系统不返回到 OK 提示符

Logical Domains Manager 关闭域至少需要 15 分钟

如果 Oracle Solaris /10 5/08 OS 安装在服务域上,尝试在该服务域所服务的任何来宾域上执行 Oracle Solaris /10 8/07 OS 的网络引导可能会使安装挂起

当针对处于延迟重新配置模式的控制域执行多个 set-vcpu 操作时,ldmd 可能会转储核心

在分片 2 上构建的 Solaris Volume Manager 卷在用作来宾域中的引导设备时无法执行 JumpStart

在公用控制台组中同时进行多个域的网络安装会失败

scadm 命令在 SC 或 SP 重置之后可能会挂起

ldc_close: (0xb) unregister failed, 11 警告消息

在同一个网络上有太多虚拟网络使用 DHCP 的来宾域可能会变得不响应

在出现紧急情况并重新引导之后,Logical Domains Manager 不弃用来宾域上的资源

在 Logical Domains Manager 正在运行时,OpenBoot PROM 变量无法由 eeprom(1M) 命令进行修改

在 Logical Domains 运行时无法设置安全密钥

ldm stop-domain 命令的行为可能会引起混淆

在执行并发操作时客操作系统可能会挂起

有时 DR 请求无法删除所请求的全部 CPU

文档勘误表

对所需软件信息的交叉引用不正确

ldm stop 命令描述造成误导

升级过程中的 Logical Domains Manager 软件包名称不正确

ILOM load 命令用法概要使用不正确的字符

已解决的问题

Oracle Solaris /10 8/11 OS 中修复的 Oracle VM Server for SPARC 2.1 RFE 和错误

已针对 Oracle VM Server for SPARC 2.1 软件修复的 RFE 和错误

已针对 Oracle VM Server for SPARC 2.1 软件修补程序修复的 RFE 和错误

已知问题

本节包含与 Oracle VM Server for SPARC 2.1 软件有关的常见问题和特定错误。

常见问题

本节介绍此发行版 Oracle VM Server for SPARC 软件中常见的已知问题,这些问题比具有特定编号的错误广泛。如果有解决方法,则会提供。

不再需要 I/O MMU 旁路模式

从 Oracle VM Server for SPARC 2.0 发行版开始,不再需要 I/O 内存管理单元 (memory management unit, MMU) 旁路模式。因此,bypass=on 属性不再可由 ldm add-io 命令使用。

“服务处理器”一词和“系统控制器”一词可互换使用

在 Oracle VM Server for SPARC 文档内的讨论中,服务处理器 (service processor, SP) 一词和系统控制器 (system controller, SC) 一词可互换使用。

在某些情况下,来宾域的 Solaris Volume Manager 配置或元设备可能会丢失

如果服务域运行的是 Oracle Solaris 10 9/10 之前的 Oracle Solaris /10 OS 版本,而且要将物理磁盘分片作为虚拟磁盘导出到来宾域,则该虚拟磁盘将以不正确的设备 ID 出现在来宾域中。如果随后将该服务域升级到 Oracle Solaris 10 9/10,作为虚拟磁盘导出的物理磁盘分片将以不带设备 ID 的形式出现在来宾域中。

这种删除虚拟磁盘设备 ID 的方式可能会导致尝试引用虚拟磁盘设备 ID 的应用程序出现问题。特别是,这可能会导致 Solaris Volume Manager 找不到其配置或者无法访问其元设备。

解决方法:在将服务域升级到 Oracle Solaris 10 9/10 之后,如果来宾域找不到其 Solaris Volume Manager 配置或其元设备,请执行以下过程。

查找来宾域的 Solaris Volume Manager 配置或元设备

  1. 引导来宾域。
  2. 通过在 /kernel/dr/md.conf 文件中添加以下行来禁用 Solaris Volume Manager 的 devid 功能:
    md_devid_destroy=1;
    md_keep_repl_state=1;
  3. 重新引导来宾域。

    在来宾域引导之后,Solaris Volume Manager 配置和元设备应当会可用。

  4. 检查 Solaris Volume Manager 配置并确保它正确无误。
  5. 通过从 /kernel/drv/md.conf 文件中删除在步骤 2 中添加的两行来重新启用 Solaris Volume Manager 的 devid 功能。
  6. 重新引导来宾域。

    在重新引导期间,您将看到类似如下的消息:

    NOTICE: mddb: unable to get devid for 'vdc', 0x10

    这些消息是正常的,不报告任何问题。

逻辑域通道和 Logical Domains

对任何逻辑域中提供的逻辑域通道 (logical domain channel, LDC) 的数量有一定的限制。对于 UltraSPARC T2 服务器、SPARC T3-1 服务器、SPARC T3-1B 服务器、SPARC T4-1 服务器和 SPARC T4-1B 服务器,限制为 512。对于 UltraSPARC T2 Plus 服务器、其他 SPARC T3 服务器和其他 SPARC T4 服务器,限制为 768。这只会在控制域上造成问题,因为已至少向控制域分配了 I/O 子系统的一部分(如果不是全部的话)。如果为了实现虚拟 I/O 数据通信和 Logical Domains Manager 对其他逻辑域的控制而创建了可能非常多的 LDC,则这也可能会造成问题。

如果在您尝试添加服务或绑定域时 LDC 通道的数量超过了控制域的限值,则该操作会失败并出现类似如下的错误消息:

13 additional LDCs are required on guest primary to meet this request,
but only 9 LDCs are available

如果有大量虚拟网络设备连接到同一台虚拟交换机,则可以通过使用 ldm add-vswldm set-vsw 命令来设置 inter-vnet-lin =off,以减少分配的 LDC 通道。当此属性设置为 off(关闭)时,不会为 inter-vnet 通信使用 LDC 通道。在此情况下,分配的 LDC 通道仅用于虚拟网络设备和虚拟交换机设备之间的通信。请参见 ldm(1M) 手册页。


注 - 尽管禁用 inter-vnet 通道分配可以减少 LDC 的数量,但这可能会对来宾到来宾的网络性能产生负面影响。


下面的指导可帮助防止创建可能会使控制域的 LDC 容量溢出的配置:

  1. 控制域为虚拟机管理程序 (hypervisor)、故障管理体系结构 (Fault Management Architecture, FMA) 和系统控制器 (system controller, SC) 的各种通信用途分配大约 15 个 LDC,而不考虑所配置的其他逻辑域的数量。控制域分配的 LDC 通道的准确数目取决于平台和所使用的软件版本。

  2. 控制域为每个逻辑域分配 1 个 LDC,还为控制域本身分配 1 个 LDC,用于控制通信。

  3. 控制域上的每个虚拟 I/O 服务针对与该服务相连的每个客户端占用 1 个 LDC。

例如,假定有 1 个控制域和 8 个额外的逻辑域。每个逻辑域至少需要以下内容:

应用上面的指导会产生如下结果(括号中的数字对应于上面的指导编号,值是根据该编号的指导得出的):

15(1) + 9(2) + 8 x 3(3) = 总共 48 个 LDC

现在考虑如下情况:有 45 个(而不是 8 个)域,每个域中包括 5 个虚拟磁盘、5 个虚拟网络和 1 个虚拟控制台。现在,等式变为:

15 + 46 + 45 x 11 = 总共 556 个 LDC

根据平台支持的 LDC 数量,Logical Domains Manager 将接受或拒绝这些配置。

内存大小要求

在创建域时,Oracle VM Server for SPARC 软件不施加内存大小限制。内存大小要求是客操作系统的特征。如果所提供的内存量小于建议的大小,某些 Oracle VM Server for SPARC 功能可能不起作用。有关为 Oracle Solaris /10 OS 建议的内存大小及其最小内存要求,请参见《Oracle Solaris 10 9/10 安装指南:规划安装和升级》中的"系统要求和建议"

OpenBoot PROM 对于域有最小大小限制。目前,限制在 12 MB。对于小于 12 MB 的域,Logical Domains Manager 会自动将该域扩展到 12 MB。有关内存大小要求的信息,请参阅系统固件的发行说明。

内存动态重新配置 (dynamic reconfiguration, DR) 功能可对给定操作中所涉及内存的地址和大小强制执行 256 MB 对齐。请参见《Oracle VM Server for SPARC 2.1 管理指南》中的"内存对齐"

引导大量域

根据所使用的平台,可以引导以下数量的域:

如果存在未分配的虚拟 CPU,请将它们指定给服务域以帮助处理虚拟 I/O 请求。在创建 32 个以上的域时,为服务域分配 4 到 8 个虚拟 CPU。如果最大的域配置是服务域中只有一个 CPU,则在配置和使用该域时不要为这个唯一的 CPU 施加不必要的压力。虚拟交换机 (vsw) 服务应当分布到计算机中的所有网络适配器上。例如,如果在 Sun SPARC Enterprise T5240 服务器上引导 128 个域,请创建 4 个 vsw 服务,每个服务为 32 个虚拟网络 (vnet) 实例提供服务。每个 vsw 服务所面向的 vnet 实例数不要超过 32 个,因为针对单个 vsw 绑定 32 个以上的实例可能会导致服务域硬挂起。

要运行最大配置,计算机将需要足够的内存量来支持来宾域。内存量取决于您的平台和 OS。请参见您的平台文档《Oracle Solaris 10 8/11 Installation Guide: Planning for Installation and Upgrade》《Installing Oracle Solaris 11 Systems》

当来宾域所使用的 vsw 服务为(多个域中)许多虚拟网络提供服务时,该域中的内存和交换空间使用量会增加,这是由于与 vsw 相连的所有 vnet 之间的对等链路所导致的。对于服务域来说,内存越多越好。在运行 64 个以上的域时,建议至少使用 4 GB。分组启动域(一组最多包含 10 个)并等到它们引导之后再启动下一批。在域上安装操作系统时适用同样的建议。可以通过禁用 inter-vnet 通道来减少链接数量。请参见《Oracle VM Server for SPARC 2.1 管理指南》中的"Inter-Vnet LDC 通道"

彻底关闭 Logical Domains 系统以及对 Logical Domains 系统执行关开机循环

如果自上次将配置保存到 SC 以后对配置进行了任何更改,请在尝试关闭 Logical Domains 系统或对其执行关开机循环之前,确保您保存了希望保留的最新配置。

关闭具有多个活动域的系统

  1. 关闭、停止并解除绑定所有的非 I/O 域。
  2. 关闭、停止并解除绑定所有处于活动状态的 I/O 域。
  3. 停止 primary 域。

    因为未绑定任何其他域,所以固件会自动关闭系统。

对系统执行关开机循环

  1. 关闭、停止并解除绑定所有的非 I/O 域。
  2. 关闭、停止并解除绑定所有处于活动状态的 I/O 域。
  3. 重新引导 primary 域。

    因为未绑定任何其他域,所以固件会自动对系统执行关开机循环,然后再重新引导系统。当系统重新启动时,它会引导至上次保存的或者显式设置的 Logical Domains 配置。

请求的内存大小可能不同于分配的内存

在某些情况下,Logical Domains Manager 会将所请求的内存分配舍入到下一个为 8 KB 或 4 MB 倍数的最大内存量。这可以在 ldm list-domain -l 命令的如下示例输出中看出,其中的约束值比实际分配的内存量小:

Memory:
          Constraints: 1965 M
          raddr          paddr5          size
          0x1000000      0x291000000     1968M

Logical Domains 变量持久性

变量更新会在重新引导之后保持,但除非变量更新是从控制域上的 OpenBoot 固件启动的,或者在执行变量更新之后将配置保存到了 SC,否则在执行关开机循环之后,变量更新将不保持。

在该上下文中,一定要注意,重新引导控制域可能会对系统启动关开机循环:

可以使用下列任一方法来指定域的 Logical Domains 变量:

这样做的目的是:使用上述任何方法进行的变量更新始终在域重新引导之后保持。变量更新还始终在已保存到 SC 的任何后续逻辑域配置中得以反映。

在 Oracle VM Server for SPARC 2.1 软件中,少数情况下变量更新不会按所预期的那样得以保持:

如果您希望保留 Logical Domains 变量更改,请执行下列操作之一:

如果您修改逻辑域上的时间或日期(例如,使用 ntpdate 命令),则所做的更改会在该域重新引导之后保持,而在对相应主机执行关开机循环之后将不会保持。为了确保对时间进行的更改得以保持,请将包含时间更改的配置保存到 SP 并从该配置进行引导。

已对下面的错误号进行归档以解决这些问题:6520041654036865409376590259

Oracle 的 Sun SNMP Management Agent 不支持多个域

Sun SNMP Management Agent 不支持多个域,SNMP 是 Simple Management Network Protocol(简单管理网络协议)的缩写。仅支持一个全局域。

容器、处理器集和池与 CPU 电源管理不兼容

对于处理器集、资源池或区域的专用 CPU 功能,不能使用 CPU 动态重新配置 (dynamic reconfiguration, DR) 关闭虚拟 CPU 的电源。

在弹性模式下使用 CPU 电源管理时,Oracle Solaris OS 来宾只能看到为已经打开电源的域分配的 CPU。这意味着,psrinfo(1M) 命令的输出会根据其电源当前受管理的 CPU 的数量而动态更改。这会对处理器集和池造成问题,因为只有当实际 CPU ID 为静态时才允许将它们分配给相应的处理器集和池。这还可能会影响区域的专用 CPU 功能。

解决方法:为电源管理策略设置性能模式。

故障管理

存在若干个与 FMA 和电源受到管理的 CPU 相关联的问题。如果 CPU 在弹性模式下运行时出现故障,请切换到性能模式,直到出现故障的 CPU 恢复为止。如果所有出现故障的 CPU 都得以恢复,则可以再次使用弹性模式。

延迟重新配置

primary 域处于延迟重新配置状态时,CPU 的电源仅在 primary 域重新引导之后才受到管理。这意味着,在 primary 域重新引导从而清除延迟重新配置状态之前,CPU 电源管理不会在该域的负载使用率很高时,将其他 CPU 置于联机。

加密单元

Oracle Solaris /10 10/09 OS 引入了在域中动态添加和删除加密单元这一功能,该功能称为加密单元动态重新配置 (dynamic reconfiguration, DR)。Logical Domains Manager 自动检测域是否允许对加密单元执行 DR,并且仅针对允许执行 DR 的域启用该功能。另外,在绑定了加密单元而且运行适当版本 Oracle Solaris OS 的域中,CPU DR 不再处于禁用状态。

当 SP 设置为弹性模式时,不会针对绑定了加密单元的域执行核心禁用操作。要允许在系统处于弹性模式时执行核心禁用操作,请删除绑定到该域的加密单元。

ldmp2v convert 命令:引导期间出现 VxVM 警告消息

在 Oracle Solaris /10 OS 上,对于 Oracle VM Server for SPARC P2V 工具来说,Veritas Volume Manager (VxVM) 5.x 是唯一受支持(经过测试)的版本。在 Solaris 8 和 Solaris 9 操作系统上,早期版本的 VxVM(如 3.x 和 4.x)可能也可以正常工作。在这些情况下,在运行 ldmp2v convert 命令之后首次引导时可能会显示来自 VxVM 驱动程序的警告消息。可以忽略这些消息。在来宾域引导之后,可以删除旧的 VRTS* 软件包。

Boot device: disk0:a File and args:
SunOS Release 5.10 Version Generic_139555-08 64-bit
Copyright 1983-2009 Sun Microsystems, Inc. All rights reserved.
Use is subject to license terms.
Hostname: normaal
Configuring devices.
/kernel/drv/sparcv9/vxdmp: undefined symbol ?romp?
WARNING: mod_load: cannot load module ?vxdmp?
WARNING: vxdmp: unable to resolve dependency, module ?misc/ted? not found
/kernel/drv/sparcv9/vxdmp: undefined symbol ?romp?
WARNING: mod_load: cannot load module ?vxdmp?
WARNING: vxdmp: unable to resolve dependency, module ?misc/ted? not found
/kernel/drv/sparcv9/vxio: undefined symbol ?romp?
WARNING: mod_load: cannot load module ?vxio?
WARNING: vxio: unable to resolve dependency, module ?drv/vxdmp? not found
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
WARNING: VxVM vxspec V-5-0-0 vxspec: vxio not loaded. Aborting vxspec load
WARNING: vxspec : CANNOT INITIALIZE vxio DRIVER
NOTICE: VxVM not started

扩展的 Mapin 空间仅在 Oracle Solaris /10 8/11 OS 和 Oracle Solaris 11 OS 中可用

扩展的 mapin 空间在 Oracle Solaris /10 8/11 OS 和 Oracle Solaris 11 OS 中可用。默认情况下,禁用此功能。

可以使用 ldm add-domainldm set-domain 命令在运行 Oracle Solaris /10 8/11 OS 或 Oracle Solaris 11 OS 的域中设置 extended-mapin-space=on,来启用该模式。请参见 ldm(1M) 手册页。

图形配置辅助工具已删除

从 Oracle VM Server for SPARC 2.1 发行版开始,仅提供基于终端的配置辅助工具 ldmconfig。不再提供图形用户界面工具。

使用 ldmp2v prepare -R 时不显示 "Upgrade"(升级)选项

如果未将保存根 (/) 文件系统的分片的分区标记设为 root,Solaris 安装程序将不会显示 "Upgrade"(升级)选项。如果在标记临时用户的引导磁盘时未明确设置该标记,则会发生此情况。可以按如下所示使用 format 命令设置分区标记:

AVAILABLE DISK SELECTIONS:
       0. c0d0 <SUN-DiskImage-10GB cyl 282 alt 2 hd 96 sec 768>
          /virtual-devices@100/channel-devices@200/disk@0
       1. c4t2d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@400/pci@0/pci@1/scsi@0/sd@2,0
       2. c4t3d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@400/pci@0/pci@1/scsi@0/sd@3,0
Specify disk (enter its number)[0]: 0
selecting c0d0
[disk formatted, no defect list found]
format> p


PARTITION MENU:
        0      - change `0' partition
        1      - change `1' partition
        2      - change `2' partition
        3      - change `3' partition
        4      - change `4' partition
        5      - change `5' partition
        6      - change `6' partition
        7      - change `7' partition
        select - select a predefined table
        modify - modify a predefined partition table
        name   - name the current table
        print  - display the current table
        label  - write partition map and label to the disk
        !<cmd> - execute <cmd>, then return
        quit

partition> 0
Part      Tag    Flag     Cylinders       Size            Blocks
  0 unassigned    wm       0              0         (0/0/0)          0

Enter partition id tag[unassigned]: root
Enter partition permission flags[wm]:
Enter new starting cyl[0]: 0
Enter partition size[0b, 0c, 0e, 0.00mb, 0.00gb]: 8g
partition> label
Ready to label disk, continue? y

partition>

动态添加的内存块只能作为一个整体动态删除

动态添加的内存块只能作为一个整体动态删除。也就是说,不能动态删除该内存块的一部分。

如果内存较小的域动态增长到包含更大的内存,可能会出现这种情况,如下面的示例所示:

# ldm list ldom1
NAME  STATE FLAGS   CONS VCPU MEMORY UTIL UPTIME
ldom1 active -n---- 5000 2    1G     0.4% 23h

# ldm add-mem 16G ldom1

# ldm rm-mem 8G ldom1
Memory removal failed because all of the memory is in use.

# ldm rm-mem 16G ldom1

# ldm list ldom1
NAME  STATE FLAGS   CONS VCPU MEMORY UTIL UPTIME
ldom1 active -n---- 5000 2    1G     0.4% 23h

解决方法:动态添加少量内存以减少这种情况发生的概率。

恢复:重新引导域。

ldmp2v 命令:ufsdump 归档方法不再使用

恢复受 UFS 文件系统上的文件支持的虚拟磁盘上的 ufsdump 归档可能会导致系统挂起。在这种情况下,ldmp2v prepare 命令将退出。如果虚拟磁盘是 UFS 文件系统上的文件,则在手动恢复 ufsdump 归档以便为 ldmp2v prepare -R /altroot 命令做准备时,可能会遇到此问题。为了与以前创建的 ufsdump 归档兼容,仍可以使用 ldmp2v prepare 命令恢复不受 UFS 文件系统上的文件支持的虚拟磁盘上的 ufsdump 归档。不过,建议不要使用 ufsdump 归档。

域迁移限制

以下各节说明域迁移的限制。Logical Domains Manager 软件和系统固件版本必须兼容才允许迁移。此外,还必须满足特定的 CPU 要求,以确保成功进行域迁移。

迁移的版本限制

源计算机和目标计算机均必须至少运行 Logical Domains Manager 的 2.1 版。

以下示例说明运行 Logical Domains Manager 和/或系统固件的旧版本时将显示的消息:

迁移的 CPU 限制

如果要迁移的域正在运行的 Oracle Solaris OS 版本低于 Oracle Solaris 10 9/10 OS,则在迁移过程中可能会显示以下消息:

Domain domain-name is not running an operating system that is
compatible with the latest migration functionality.

适用以下 CPU 要求和限制:

尝试迁移在 OpenBoot 或内核调试程序中运行的域时,也适用这些限制。请参见《Oracle VM Server for SPARC 2.1 管理指南》中的"迁移在 OpenBoot 或内核调试器中运行的域"

Oracle VM Server for SPARC MIB 问题

本节总结了使用 Oracle VM Server for SPARC 管理信息库 (Management Information Base, MIB) 软件时可能遇到的问题。


注 - Oracle VM Server for SPARC MIB 软件在 Oracle Solaris /10 系统上可用。


错误的 ldomCryptoRpReserved 属性值

错误号 7042966:加密单元资源池 (ldomCryptoResourcePool) 中的 ldomCryptoRpReserved 属性的值错误地包含已分配给非活动域的加密单元设备的数量。

snmptable 命令无法与版本 2 或版本 3 选项配合使用

错误号 6521530:使用 snmptable 命令与 -v2c-v3 选项查询 Oracle VM Server for SPARC MIB 2.1 软件时收到空的 SNMP 表。snmptable 命令和 -v1 选项可以按预期工作。

解决方法:使用 -CB 选项以仅使用 GETNEXT 来请求检索数据,而不使用 GETBULK。请参见《Oracle VM Server for SPARC 2.1 管理指南》中的"检索 Oracle VM Server for SPARC MIB 对象"

影响 Oracle VM Server for SPARC 2.1 软件的错误

本节总结了在使用此版本的软件时可能遇到的错误。错误说明按错误号的数值顺序列出。如果存在解决方法和恢复过程,则会进行具体说明。

init-system 无法从已保存的 XML 文件恢复来宾域的已命名核心约束

错误号 7117766:ldm init-system 命令无法从已保存的 XML 文件恢复来宾域的已命名 CPU 核心约束。

解决方法:执行以下步骤:

  1. primary 域创建一个 XML 文件。

    # ldm ls-constraints -x primary > primary.xml
  2. 为一个或多个来宾域创建一个 XML 文件。

    # ldm ls-constraints -x ldom[,ldom][,...] > guest.xml
  3. 对系统执行关开机循环,并引导出厂默认配置。

  4. 将 XML 配置应用到 primary 域。

    # ldm init-system -r -i primary.xml
  5. 重新引导。

  6. 将 XML 配置应用到一个或多个来宾域。

    # ldm init-system -f -i guest.xml

处于绑定模式时,已命名核心可能会关闭所有 CPU 的电源

错误号 7111119:当域启用了弹性策略时,不能使用 ldm add-coreldm set-coreldm remove-core 命令。

解决方法:确保域已启用性能策略。

Oracle Solaris 11 OS:在多插槽 SPARC T 系列系统上,使用直接 I/O 从 primary 域中删除多个 PCIe 插槽可能会在引导时出现紧急情况

错误号 7100859:如果使用直接 I/O (ldm remove-io) 从多插槽 SPARC T 系列系统中删除多个 PCIe 插槽,系统可能会在引导时出现紧急情况。如果各个 PCIe 插槽的路径都彼此相似(根联合体路径除外),则会发生这种情况。在删除 PCIe 插槽并随之重新引导 primary 域之后,可能会出现紧急情况。有关直接 I/O (direct I/O, DIO) 功能的更多信息,请参见《Oracle VM Server for SPARC 2.1 管理指南》中的"分配 PCIe 端点设备"

例如,如果删除 /SYS/MB/PCIE5 (pci@500/pci@2/pci@0/pci@0) 和 /SYS/MB/PCIE4 (pci@400/pci@2/pci@0/pci@0) 插槽(它们具有相似的路径名),则在下次引导 Oracle Solaris 11 OS 时可能会出现紧急情况。

删除 /SYS/MB/PCIE4/SYS/MB/PCIE5 PCIe 插槽后,会运行以下 ldm list-io 命令。

# ldm list-io
IO              PSEUDONYM       DOMAIN
--              ---------       ------
pci@400         pci_0           primary
niu@480         niu_0           primary
pci@500         pci_1           primary
niu@580         niu_1           primary

PCIE                       PSEUDONYM       STATUS  DOMAIN
----                       ---------       ------  ------
pci@400/pci@2/pci@0/pci@8  /SYS/MB/PCIE0   OCC     primary
pci@400/pci@2/pci@0/pci@4  /SYS/MB/PCIE2   OCC     primary
pci@400/pci@2/pci@0/pci@0  /SYS/MB/PCIE4   OCC
pci@400/pci@1/pci@0/pci@8  /SYS/MB/PCIE6   OCC     primary
pci@400/pci@1/pci@0/pci@c  /SYS/MB/PCIE8   OCC     primary
pci@400/pci@2/pci@0/pci@e  /SYS/MB/SASHBA  OCC     primary
pci@400/pci@1/pci@0/pci@4  /SYS/MB/NET0    OCC     primary
pci@500/pci@2/pci@0/pci@a  /SYS/MB/PCIE1   OCC     primary
pci@500/pci@2/pci@0/pci@6  /SYS/MB/PCIE3   OCC     primary
pci@500/pci@2/pci@0/pci@0  /SYS/MB/PCIE5   OCC
pci@500/pci@1/pci@0/pci@6  /SYS/MB/PCIE7   OCC     primary
pci@500/pci@1/pci@0/pci@0  /SYS/MB/PCIE9   OCC     primary
pci@500/pci@1/pci@0/pci@5  /SYS/MB/NET2    OCC     primary
#

解决方法:删除所有具有相似路径名的插槽,而是仅删除一个此类 PCIe 插槽。

您还可以将 PCIe 卡插入到不具有相似路径的插槽中,然后对其使用 DIO 功能。

部分核心 primary 未能允许完整核心 DR 转换

错误号 7100841:primary 域与其他域共享编号最低的物理核心(通常为 0)时,尝试设置 primary 域的完整核心约束将失败。

解决方法:执行以下步骤:

  1. 确定域共享的编号最低的绑定核心。

    # ldm list -o cpu
  2. 从除 primary 域外的所有域取消绑定编号最低的核心的所有 CPU 线程。

    因此,编号最低的核心的 CPU 线程将取消共享,并可用于绑定到 primary 域。

  3. 通过执行以下操作之一设置完整核心约束:

    • 使用 ldm set-vcpu -c 命令将 CPU 线程绑定到 primary 域,并设置完整核心约束。

    • 使用 ldm set-core 命令绑定 CPU 线程,并在一个步骤中设置完整核心约束。

ldmconfig 仅在 Oracle Solaris /10 系统上受支持

错误 ID 7093344:只能在 Oracle Solaris /10 系统上使用 ldmconfig 命令。

Oracle VM Server for SPARC MIB 仅在 Oracle Solaris /10 系统上受支持

错误 ID 7082776:只能在 Oracle Solaris /10 系统上使用 Oracle VM Server for SPARC MIB。

在 SPARC T4-4s 上迁移内存非常大的域会导致目标系统上的域出现紧急情况

错误 ID 7071426:如果要迁移的域具有多个内存块,其总大小超过 500 GB,则迁移期间可能会出现紧急情况。使用 ldm list -o mem 命令确定域上的内存量。

该紧急情况类似于以下内容:

panic[cpu21]/thread=2a100a5dca0:
BAD TRAP: type=30 rp=2a100a5c930 addr=6f696e740a232000 mmu_fsr=10009

sched:data access exception: MMU sfsr=10009: Data or instruction address out of range context 0x1

pid=0, pc=0x1076e2c, sp=0x2a100a5c1d1, tstate=0x4480001607, context=0x0
g1-g7: 80000001, 0, 80a5dca0, 0, 0, 0, 2a100a5dca0

000002a100a5c650 unix:die+9c (30, 2a100a5c930, 6f696e740a232000, 10009, 2a100a5c710, 10000)
000002a100a5c730 unix:trap+75c (2a100a5c930, 0, 0, 10009, 30027b44000, 2a100a5dca0)
000002a100a5c880 unix:ktl0+64 (7022d6dba40, 0, 1, 2, 2, 18a8800)
000002a100a5c9d0 unix:page_trylock+38 (6f696e740a232020, 1, 6f69639927eda164, 7022d6dba40, 13, 1913800)
000002a100a5ca80 unix:page_trylock_cons+c (6f696e740a232020, 1, 1, 5, 7000e697c00, 6f696e740a232020)
000002a100a5cb30 unix:page_get_mnode_freelist+19c (701ee696d00, 12, 1, 0, 19, 3)
000002a100a5cc80 unix:page_get_cachelist+318 (12, 1849fe0, ffffffffffffffff, 3,
0, 1)
000002a100a5cd70 unix:page_create_va+284 (192aec0, 300ddbc6000, 0, 0, 2a100a5cf00, 300ddbc6000)
000002a100a5ce50 unix:segkmem_page_create+84 (18a8400, 2000, 1, 198e0d0, 1000, 11)
000002a100a5cf60 unix:segkmem_xalloc+b0 (30000002d98, 0, 2000, 300ddbc6000, 0, 107e290)
000002a100a5d020 unix:segkmem_alloc_vn+c0 (30000002d98, 2000, 107e000, 198e0d0,
30000000000, 18a8800)
000002a100a5d0e0 genunix:vmem_xalloc+5c8 (30000004000, 2000, 0, 0, 80000, 0)
000002a100a5d260 genunix:vmem_alloc+1d4 (30000004000, 2000, 1, 2000, 30000004020, 1)
000002a100a5d320 genunix:kmem_slab_create+44 (30000056008, 1, 300ddbc4000, 18a6840, 30000056200, 30000004000)
000002a100a5d3f0 genunix:kmem_slab_alloc+30 (30000056008, 1, ffffffffffffffff, 0, 300000560e0, 30000056148)
000002a100a5d4a0 genunix:kmem_cache_alloc+2dc (30000056008, 1, 0, b9, fffffffffffffffe, 2006)
000002a100a5d550 genunix:kmem_cpucache_magazine_alloc+64 (3000245a740, 3000245a008, 7, 6028f283750, 3000245a1d8,
193a880)
000002a100a5d600 genunix:kmem_cache_free+180 (3000245a008, 6028f2901c0, 7, 7, 7, 3000245a740)
000002a100a5d6b0 ldc:vio_destroy_mblks+c0 (6028efe8988, 800, 0, 200, 19de0c0, 0)
000002a100a5d760 ldc:vio_destroy_multipools+30 (6028f1542b0, 2a100a5d8c8, 40, 0, 10, 30000282240)
000002a100a5d810 vnet:vgen_unmap_rx_dring+18 (6028f154040, 0, 6028f1a3cc0, a00,
200, 6028f1abc00)
000002a100a5d8d0 vnet:vgen_process_reset+254 (1, 6028f154048, 6028f154068, 6028f154060, 6028f154050, 6028f154058)
000002a100a5d9b0 genunix:taskq_thread+3b8 (6028ed73908, 6028ed738a0, 18a6840, 6028ed738d2, e4f746ec17d8,
6028ed738d4)

解决方法:避免迁移具有 500 GB 以上内存的域。

从来宾域中删除大量 CPU

错误 ID 7062298:尝试从来宾域中删除大量 CPU 时会显示以下错误消息:

Request to remove cpu(s) sent, but no valid response received
VCPU(s) will remain allocated to the domain, but might
not be available to the guest OS
Resource modification failed

解决方法:从域中删除 100 个以上 CPU 之前停止来宾域。

取消域迁移之后不会恢复 CPU 线程模式

错误 ID 7061265:如果取消迁移 threading 属性设置为 max-ipc 的域,要迁移的域的 threading 属性值将错误地恢复为 max-throughput

解决方法:在要从源计算机迁移的域上,手动将 threading 属性重置为 max-ipc

内存较大的域在弹性模式下需要较长的时间来停止

错误 ID 7058261:当系统处于弹性电源管理模式时,使用 ldm stop 命令停止内存较大的域可能需要花费较长时间。如果域有足够空闲,将禁用大多数分配给该域的 CPU 线程。禁用 CPU 之后,剩余的活动线程将执行停止域所需的处理操作。

例如,具有 252 GB 的内存并且仅启用了 2 个 CPU 的来宾域将花费大约 7 分钟停止。

解决方法:在停止域之前,通过从弹性模式切换到性能模式来禁用电源管理 (PM)。

无法使用 Solaris 热插拔操作来热删除 PCIe 端点设备

错误 ID 7054326:使用 ldm rm-io 命令将 PCIe 端点设备从 primary 域删除之后,不能使用 Solaris 热插拔操作来热删除该设备。有关替换或删除 PCIe 端点设备的信息,请参见《Oracle VM Server for SPARC 2.1 管理指南》中的"更改 PCIe 硬件"

从其他目录使用绝对路径运行 install-ldm 时,该命令将挂起

错误 ID 7050588:如果从其他目录指定 install-ldm 命令的绝对路径,该命令将挂起。

解决方法:在运行命令之前,转到在其中安装 install-ldm 命令的目录。

# cd dirname/OVM_Server_SPARC-2_1/Install
# ./install-ldm

ldm add-dev 可以创建比 OpenBoot 所支持的长度更长的设备别名

错误号 7044329:如果来宾域包含名称长于 31 个字符的虚拟设备,OpenBoot 将在启动域时发出错误消息。创建与虚拟设备名称相匹配的设备别名。

错误消息类似如下:

Error: device alias name 'mynet1234567890123456789012345678901234567890'
length is greater than 31 chars, device alias not created

对于没有分片 2 的物理磁盘,虚拟磁盘验证失败

错误号 7042353:如果物理磁盘配置了大小为 0 的分片 2,可能会遇到以下问题:

另一种解决方法允许您永久禁用 ldm add-vdsdevldm bind 命令所执行的磁盘验证。因此,不必指定 -q 选项。通过更新 ldmd 服务的 device_validation 属性永久禁用磁盘验证。

# svccfg -s ldmd setprop ldmd/device_validation=value
# svcadm refresh ldmd
# svcadm restart ldmd

指定值 0 可禁用对网络和磁盘设备的验证。指定值 1 可禁用对磁盘设备的验证,但仍然启用对网络设备的验证。

device_validation 属性可能的值有:

0

对所有设备禁用验证

1

对网络设备启用验证

2

对磁盘设备启用验证

3

对网络和磁盘设备启用验证

-1

对所有类型的设备启用验证,这是默认值

incoming_migration_enabled=false 时,向外迁移失败

错误号 7039793:incoming_migration_enabled=falseoutgoing_migration_enabled=true 时,向外迁移会失败,并显示以下消息:

The source machine is running an older version of the System Firmware
that is not compatible with the version running on the target machine.

outgoing_migration_enabled=false 时,向外迁移应该失败。

解决方法:请执行以下操作:

  1. 设置 incoming_migration_enabled=true

    # svccfg -s ldmd setprop ldmd/incoming_migration_enabled=true
  2. 刷新 ldmd

    # svcadm refresh ldmd
  3. 重新启动 ldmd

    # svcadm restart ldmd

迁移包含混合 I/O 和虚拟 I/O 虚拟网络设备的来宾域时,nxge 出现紧急情况

错误号 7038650:如果高负载的来宾域具有混合 I/O 配置并且您尝试迁移该域,nxge 可能会出现紧急情况。

解决方法:将以下行添加到 primary 域和作为该域的混合 I/O 配置一部分的任何服务域中的 /etc/system 文件:

set vsw:vsw_hio_max_cleanup_retries = 0x200

不要使用 Sun Management Console 软件监控 Oracle VM Server for SPARC 系统

错误号 7037495:使用 Sun Management Console 查询 Oracle VM Server for SPARC 系统的 CPU 状态可能会导致数据损坏。该损坏仅限于虚拟机管理程序用于跟踪正在运行的域的数据结构,并且会导致 Logical Domains Manager 无法启动。因此,请使用 Sun Management Console 软件监控 Oracle VM Server for SPARC 系统。

解决方法:关闭系统电源然后重新打开,以使用已知有效的配置。

使用错误的 SP 配置作为默认值

错误号 7037295:如果在运行 ldm add-spconfig -r spconfig 命令后重新启动 Logical Domains Manager 或重新引导 primary 域,Logical Domains Manager 会使用默认配置而不使用指定的配置 spconfig。这意味着所有后续配置更改都会基于默认配置,而不是基于指定的配置 spconfig

解决方法:通过执行关开机循环或运行 ldm add-spconfig spconfig 命令来设置 Logical Domains Manager 的当前配置。

迁移过程中丢失共享 NFS 资源时所有 ldm 命令挂起

错误号 7036137:已启动的或正在进行中的迁移,或任何 ldm 命令永远挂起。当要迁移的域使用来自其他系统的共享文件系统,而该文件系统已不再共享时会出现此情况。

解决方法:使共享文件系统可以重新访问。

ldmd 无法从包含部分核心的域中删除核心

错误号 7035438:ldmd 允许对包含部分核心的域启用完整核心约束,但无法在同一域中删除或设置核心。

解决方法:在控制域中,从出厂默认配置执行以下操作:

  1. 在控制域上启动延迟重新配置。

    # ldm start-reconf primary
  2. 首先执行任意内存重新配置操作。

  3. 执行 CPU 重新配置操作。

    # ldm set-vcpu 16 primary
    # ldm set-vcpu -c 2 primary

此示例使用 2 个核心,但核心的数量可以为 1 到系统限制值。

以单用户模式引导的域中,失败的 CPU DR 操作返回错误的状态

错误号 7034498:在单用户模式下时,尝试向域中添加虚拟 CPU 会返回状态值 0。此错误的状态值应该为 1

如果系统日志服务不联机,Logical Domains 代理服务就无法联机

错误号 7034191:如果系统日志服务 svc:/system/system-log 启动失败且未能联机,则 Logical Domains 代理服务将不会联机。Logical Domains 代理服务没有联机时,virtinfoldm add-vswldm add-vdsdevldm list-io 命令可能无法按预期工作。

解决方法:确保 svc:/ldoms/agents:default 服务已启用且已联机:

# svcs -l svc:/ldoms/agents:default

如果 svc:/ldoms/agents:default 服务处于脱机状态,请验证该服务是否已启用,并且所有相关服务是否处于联机状态。

内核死锁导致计算机在迁移期间挂起

错误号 7030045:迁移处于活动状态的来宾域时可能会挂起,并导致源计算机无法响应。出现此问题时,以下消息将写入到控制台和 /var/adm/messages 文件:

vcc: i_vcc_ldc_fini: cannot close channel 15

vcc: [ID 815110 kern.notice] i_vcc_ldc_fini: cannot
close channel 15

请注意,显示的通道号是 Oracle Solaris 内部通道号,每个警告消息中的内部通道号可能会各不相同。

解决方法:迁移域之前,先与来宾域的控制台断开连接。

恢复:对源计算机执行关开机循环。

DRM 和 ldm list 输出显示的虚拟 CPU 数与来宾域中的实际虚拟 CPU 数不符

错误号 7027105:如果已装入域的 DRM 策略在 CPU 数量大幅减少后过期,Oracle VM Server for SPARC 日志中可能出现 No response(无响应)消息。ldm list输出中显示的分配给该域的 CPU 资源多于 psrinfo 输出中显示的数量。

解决方法:使用 ldm set-vcpu 命令将域中的 CPU 数量重置为 psrinfo 输出中显示的值。

策略已删除或过期时,DRM 无法为已迁移的域恢复默认数量的虚拟 CPU

错误号 7026160:在 DRM 策略有效时执行了域迁移。稍后,如果 DRM 策略过期或从已迁移的域中删除,DRM 将无法为该域恢复原始数量的虚拟 CPU。

解决方法:如果在 DRM 策略有效时迁移域,并且随后 DRM 策略过期或被删除,请重置虚拟 CPU 的数量。使用 ldm set-vcpu 命令在域中将虚拟 CPU 的数量设置为原始值。

DR 过程中虚拟 CPU 超时失败

错误号 7025445:在包含超过 100 个虚拟 CPU 和一些加密单元的来宾域中运行 ldm set-vcpu 1 命令无法删除虚拟 CPU。未能删除虚拟 CPU 是由于 DR 超时错误。加密单元可以成功删除。

解决方法:使用 ldm rm-vcpu 命令从来宾域中删除除一个虚拟 CPU 之外的所有虚拟 CPU。请一次删除超过 100 个虚拟 CPU。

当 XML 文件包含无效的网络或磁盘后端时域绑定失败

错误号 7024499:如果使用 XML 文件通过 ldm bind -i xml-file 命令绑定域,绑定可能会失败。失败的原因是网络设备或磁盘后端路径无效,即使使用 -f-q 选项也是如此。同时满足以下两种条件时绑定会失败:

尽管可以随 bind -i xml-file 命令指定 -f-q 选项,但这些选项都会被忽略。

解决方法:请执行以下操作:

  1. 在包含无效设备或后端的服务域中暂时禁用 ldmad

    # svcadm disable ldoms/agents
  2. 绑定后,在每个禁用了 ldmad 的服务域中重新启用 ldmad

    # svcadm enable ldoms/agents

当系统 MAC 地址与其他 MAC 地址发生冲突时,不报告迁移失败原因

错误号 7023216:如果域中包含重复的 MAC 地址,则无法迁移该域。通常,如果迁移由于此原因失败,失败消息会显示重复的 MAC 地址。但在极少数情况下,此失败消息可能不会报告重复的 MAC 地址。

# ldm migrate ldg2 system2
Target Password:
Domain Migration of LDom ldg2 failed

解决方法:确保目标计算机上的 MAC 地址是唯一的。

“相反方向”的同时迁移操作可能导致 ldm 挂起

错误号 7019493:如果在“相反方向”上同时发出两个 ldm migrate 命令,这两个命令可能会挂起,永不会完成。例如,相反方向的一种情况是,同时启动从计算机 A 到计算机 B 的迁移,和从计算机 B 到计算机 A 的迁移。

即使迁移过程是使用 -n 选项启动的模拟运行,也会导致挂起。出现此问题时,所有其他 ldm 命令均可能挂起。

解决方法:无。

从控制域中删除大量 CPU

错误号 6994984:使用延迟重新配置(而不是动态重新配置)从 primary 域中删除超过 100 个 CPU。执行以下步骤:

  1. 使用 ldm start-reconf primary 命令将控制域置于延迟重新配置模式下。

  2. 根据需要对控制域拥有的主机系统资源进行分区。

  3. 如果需要,使用 ldm cancel-reconf 命令撤消步骤 2 中的操作,重新从头开始。

  4. 重新引导控制域以使重新配置更改生效。

SPARC T3:执行内存操作时 Oracle VM Server for SPARC 挂起

错误号 6994300:在执行内存操作和可能的迁移操作时,SPARC T3 系统上的 Logical Domains Manager 可能会挂起。此类操作将无法成功完成。

这种挂起可能会发生在使用任意网络接口单元 (network interface unit, NIU) 适配器的任何 T3 平台上,但在具有 XAUI 扩展器的系统中已确定会发生该挂起。

解决方法:应用修补程序 ID 144500-19。

设置了弹性策略并正在运行 Oracle Solaris /10 8/11 OS 的系统可能会挂起

错误 ID 6989192 和 7071760:在以下条件下,登录或执行命令时 OS 可能会挂起:

解决方法:应用修补程序 ID 147149-01。

pkgadd 无法在 /var/svc/manifest/platform/sun4v/ldmd.xml 上设置 ACL 项

错误 ID 6984681:使用 pkgadd 命令从某个目录(该目录通过 NFS 从 Sun ZFS 存储设备导出)安装 SUNWldm.v 软件包时,会显示以下错误消息:

cp: failed to set acl entries on /var/svc/manifest/platform/sun4v/ldmd.xml

解决方法:忽略此消息。

SPARC T3-1:检测和处理可以通过多个直接 I/O 路径访问的磁盘

错误号 6984008:可以在 SPARC T3-1 系统上安装双端口磁盘,这些磁盘可通过两个不同的直接 I/O 设备访问。在这种情况下,如果将这两个直接 I/O 设备指定给不同的域,可能会导致这些磁盘由这两个域公用并在实际使用当中相互影响。

解决方法:不将能够访问同一组磁盘的直接 I/O 设备指定给不同的 I/O 域。下面是用来确定 T3-1 系统上是否有双端口磁盘的步骤:

通过对 SP 运行以下命令来确定系统上是否有双端口磁盘:

-> show /SYS/SASBP

如果输出中包含下面的 fru_description 值,则说明相应的系统上有双端口磁盘:

fru_description = BD,SAS2,16DSK,LOUISE

当发现系统中存在两个磁盘时,请确保下面的两个直接 I/O 设备始终指定给同一个域:

pci@400/pci@1/pci@0/pci@4  /SYS/MB/SASHBA0
pci@400/pci@2/pci@0/pci@4  /SYS/MB/SASHBA1

对多个已激活的 NIU nxge 实例执行内存 DR 删除操作可能会无限期挂起而且永远无法完成

错误号 6983279:当在域上激活多个 NIU nxge 实例时,用来从域中删除内存的 ldm rm-memldm set-mem 命令可能永远无法完成。要确定在执行内存删除操作期间是否出现此问题,请使用 ldm list -o status 命令监视内存删除操作的进度。如果进度百分比在几分钟内一直保持恒定,则说明您可能遇到了此问题。

恢复:取消 ldm rm-memldm set-mem 命令。

解决方法:取消 ldm rm-memldm set-mem 命令,并检查是否删除了足够多的内存。如果没有,则随后发出的用来删除较少量内存的内存删除命令可能会成功完成。

如果在 primary 域上出现此问题,请执行以下操作:

  1. 在 primary 域上启动延迟重新配置操作。

    # ldm start-reconf primary
  2. 为该域指定所需的内存量。

  3. 重新引导 primary 域。

如果此问题出现在另一个域上,请先停止这个有问题的域,然后再调整为该域指定的内存量。

ldmd 错误地报告域中CPU 使用率为 100%

错误号 6982280:极少数情况下,当处于弹性模式时,ldmd 可能会错误地报告来宾域中少数执行 I/O 的 CPU 使用率为 100%。此 ldmd 报告与在来宾域中运行 prsinfo 所报告的实际处理器状态相矛盾。

解决方法:将来宾域中的 CPU 计数设置为 2。然后,将 CPU 计数重置为原始值。

来宾域无法从已导出的 DVD 设备引导

错误号 6981081:在将可引导的物理 CD 或 DVD 作为虚拟磁盘导出之后,虚拟 CD 或 DVD 可能无法从使用它的来宾域引导。而且,引导可能会失败,并显示类似如下的错误:

{0} ok boot /virtual-devices@100/channel-devices@200/disk@1:f
Boot device: /virtual-devices@100/channel-devices@200/disk@1:f  File and args:
Bad magic number in disk label
ERROR: /virtual-devices@100/channel-devices@200/disk@1: Can't open disk label package
ERROR: boot-read fail
Can't open boot device

此问题是否出现取决于系统上安装的物理 CD 或 DVD 驱动器的类型。

对具有主-从关系的域使用 ldm stop -a 命令会在从域中设置 stopping 标志

错误号 6979574:在创建了重置依赖性之后,ldm stop -a 命令可能会导致具有重置依赖性的域重新启动(而不只是停止)。

解决方法:首先向主域发出 ldm stop 命令,然后向从域发出 ldm stop 命令。如果最初停止从域时导致故障,请向从域发出 ldm stop -f 命令。

无法从 primary 域删除加密单元

错误号 6978843:有时,在尝试动态删除加密单元时,会发出以下消息:

# ldm set-crypto 0 primary
Aug 20 13:02:27 guest1 ncp: WARNING: ncp0: ncp_mau_unconfig:
unable to find MAU for cpu 112
Aug 20 13:02:27 guest1 ncp: WARNING: ncp0: ncp_mau_unconfig:
unable to find MAU for cpu 104

解决方法:确定是否有出现故障的 CPU,如果有的话,请将它们标记为联机状态。

# psrinfo
# psradm -n 0-127

使用延迟重新配置功能删除加密单元。

# ldm start-reconf primary
# ldm set-crypto 0 primary
# reboot

如果要迁移的来宾域具有支持混合 I/O 的虚拟网络设备,服务域会出现紧急情况

错误号 6972633:对来宾域执行热迁移时,服务域会出现紧急情况。迁移所涉及的源计算机是具有 NIU 混合 I/O 功能的 SPARC T3-1。

当满足下面的所有条件时,可能会出现此问题:

为虚拟网络接口启用了混合 I/O 的来宾域在 MODE 列中显示 hybrid,如下所示:

# ldm list -o network ldg1
...
NAME    SERVICE             ID  DEVICE     MAC                MODE    PVID  MTU
vnet2    niu-vsw@primary     1  network@1  00:14:4f:fa:9e:89  hybrid  1    1500

但是,只有当下面的命令显示了有关来宾域的任何输出时,才指定混合 I/O 资源:

# kstat -p nxge

解决方法:执行以下步骤:

  1. 获取虚拟网络设备的当前配置。

    此步骤可确保在重新激活接口时没有任何错误。

    # ifconfig vnet1
  2. 在迁移之前,取消激活来宾域上的虚拟网络接口。

    # ifconfig vnet1 unplumb
  3. 执行迁移。

  4. 激活该接口。

    # ifconfig vnet1 plumb

迁移启用了默认 DRM 策略的域导致为目标域指定所有可用的 CPU

错误号 6968507:在迁移处于活动状态的域之后,迁移后的域中的 CPU 利用率可能会在短时间内显著提高。如果在迁移时,对于该域存在有效的动态资源管理 (dynamic resource managment, DRM) 策略,Logical Domains Manager 可能会开始添加 CPU。特别是,如果在添加策略时未指定 vcpu-maxattack 属性,则默认值 unlimited 会导致将目标计算机中所有未绑定的 CPU 添加到迁移后的域中。

恢复:没有必要执行恢复。当 CPU 利用率下降到低于 DRM 策略所指定的上限之后,Logical Domains Manager 会自动删除 CPU。

某个正在使用中的 MAC 地址可以被重新分配

错误号 6968100:有时检测不到正在使用中的 MAC 地址,这些地址被错误地重新分配。

解决方法:手动确保正在使用中的 MAC 地址不被重新分配。

ldmconfig 无法在 SP 上创建域配置

错误号 6967799:ldmconfig 脚本无法在服务处理器 (service processor, SP) 上正确创建存储逻辑域配置。

解决方法:ldmconfig 脚本完成并且域重新引导后,请关闭系统电源然后再打开。而应该执行以下手动步骤:

  1. 将配置添加到 SP。

    # ldm add-spconfig new-config-name
  2. 从 SP 中删除 primary-with-clients 配置。

    # ldm rm-spconfig primary-with-clients
  3. 关闭系统电源,然后再打开系统电源。

如果在系统关开机循环之前未执行这些步骤,primary-with-client 配置的存在将导致域变为不活动。在这种情况下,必须手动绑定每个域,然后通过运行 ldm start -a 命令启动它们。引导来宾域后,重复此序列会使来宾域在关开机循环后自动引导。

cpu0 处于脱机状态时,可能会阻止对 Oracle Solaris 域进行非协同迁移

错误号 6965758:如果处于活动状态的域运行的是低于 Oracle Solaris /10 10/09 的发行版,而且该域中编号最低的 CPU 处于 offline 状态,则在迁移该域时可能会失败。当 Logical Domains Manager 使用 CPU DR 将该域缩减到包含单个 CPU 时,迁移操作会失败。在这种情况下,Logical Domains Manager 尝试删除该域中除编号最低的 CPU 以外的所有 CPU,但是,由于编号最低的 CPU 处于脱机状态,因此迁移操作会失败。

解决方法:在尝试执行迁移之前,请确保域中编号最低的 CPU 处于 online 状态。

在取消迁移之后,内存 DR 处于禁用状态

错误号 6956431:在执行迁移操作过程中,在暂停 Oracle Solaris /10 9/10 域之后,内存动态重新配置 (dynamic reconfiguration, DR) 会被禁用。这不仅在迁移成功时适用,而且还在迁移取消后适用(尽管域仍保留在源计算机上)。

有时,对虚拟网络设备的 MTU 值执行动态重新配置会失败

错误号 6936833:如果您修改控制域上虚拟网络设备的最大传输单元 (maximum transmission unit, MTU),则会触发延迟重新配置操作。如果后来取消了延迟重新配置,则该设备的 MTU 值不会恢复到其初始值。

恢复:重新运行 ldm set-vnet 命令以将 MTU 设置为其初始值。重置 MTU 值会将控制域置于延迟重新配置模式,而该模式需要取消。所得到的 MTU 值现在是最初的正确 MTU 值。

# ldm set-vnet mtu=orig-value vnet1 primary
# ldm cancel-op reconf primary

某些物理内存配置不支持内存 DR

错误号 6912155:在某些支持的配置中,当未将所有 DIMM 插槽插入计算机中时,生成的物理内存地址映射将不连续,连续内存块之间可能存在地址“缺口”。对于此类配置,不支持内存 DR。

解决方法:要在不支持内存 DR 时重新配置内存,请执行以下操作:

有关内存布局信息,请参见平台的硬件文档。

当目标 OS 不支持对加密单元执行 DR 时,具有 MAU 的迁移域仅包含一个 CPU

错误号 6904849:从 Logical Domains 1.3 发行版开始,即使域绑定了一个或多个加密单元,也可能会对该域进行迁移。

在以下情况下,在完成迁移后,目标计算机上将仅包含一个 CPU:

在完成迁移之后,目标域将成功恢复而且将正常工作,但是将处于降级状态(仅包含一个 CPU)。

解决方法:在迁移之前,从运行 Logical Domains 1.3 的源计算机中删除加密单元。

缓解:为了避免出现此问题,请执行下面的一个或两个步骤:

对于实际地址内存绑定故障显示令人混淆的迁移失败消息

错误号 6904240:在某些情况下,迁移会失败并出现以下错误消息,ldmd 会报告它无法绑定源域所需的内存。即使目标计算机上的可用内存总量大于源域正使用的内存量(如 ldm ls-devices -a mem 所示),也会出现此情况。

Unable to bind 29952M memory region at real address 0x8000000
Domain Migration of LDom ldg0 failed

原因:出现这种故障的原因是无法满足目标计算机上实际地址 (Real Address, RA) 和物理地址 (Physical Address, PA) 之间的一致性要求。

解决方法:停止该域并以冷迁移形式执行迁移。还可以将来宾域上的内存量减少 128 MB,这可能会允许在域正在运行时继续迁移。

从域中动态删除所有的加密单元导致 SSH 终止

错误号 6897743:如果从正在运行的域中动态删除所有的硬件加密单元,加密框架将无法无缝地切换到软件加密提供程序,而且会中止所有 ssh 连接。

恢复:在从域中删除所有的加密单元之后,重新建立 ssh 连接。

解决方法:在服务器端上的 /etc/ssh/sshd_config 文件中设置 UseOpenSSLEngine=no,然后运行 svcadm restart ssh 命令。

之后,所有的 ssh 连接将不再使用硬件加密单元(但这会因此而得不到相关的性能改进),ssh 连接将在加密单元被删除之后断开。

Atlas PCI Express Dual 10-Gigabit Ethernet Fiber 卡在 ldm list-io -l 输出中显示四个子设备

错误号 6892229:在装有 Atlas PCI Express Dual 10-Gigabit Ethernet Fiber 卡 (X1027A-Z) 的系统上运行 ldm ls-io -l 命令时,输出中可能显示如下内容:

primary# ldm ls-io -l
...
pci@500/pci@0/pci@c PCIE5 OCC primary
network@0
network@0,1
ethernet
ethernet

即使该以太网卡只有两个端口,输出中也会显示四个子设备。出现这种异常的原因在于该卡有四个 PCI 功能。其中的两个功能在内部禁用,在 ldm ls-io -l 输出中显示为 ethernet

解决方法:可以忽略 ldm ls-io -l 输出中的 ethernet 条目。

当多个域正在引导时,ldm 命令很慢,无法响应

错误号 6855079:当多个域正在引导时,ldm 命令可能很慢,无法响应。如果在该阶段发出 ldm 命令,该命令可能看起来处于挂起状态。请注意,在执行预期的任务之后,ldm 命令将返回。在该命令返回之后,系统应当能够正常响应 ldm 命令。

解决方法:避免同时引导许多域。但是,如果您必须同时引导多个域,请避免在系统恢复到正常状态之前进一步发出 ldm 命令。例如,在 Sun SPARC Enterprise T5140 和 T5240 服务器上等待两分钟左右,在 Sun SPARC Enterprise T5440 服务器或 Netra T5440 服务器上等待四分钟左右。

当系统处于电源管理弹性模式时,来宾域可能无法成功重新引导

错误号 6853273:当系统处于电源管理弹性模式时,重新引导来宾域可能会生成下面的警告消息,而且来宾域将无法成功引导:

WARNING: /virtual-devices@100/channel-devices@200/disk@0:
Sending packet to LDC, status: -1
WARNING: /virtual-devices@100/channel-devices@200/disk@0:
Can't send vdisk read request!
WARNING: /virtual-devices@100/channel-devices@200/disk@0:
Timeout receiving packet from LDC ... retrying

解决方法:如果您看到上述警告,请按如下顺序执行下列解决方法之一:

在重新引导控制域或来宾域时看到虚假的 ds_ldc_cb: LDC READ event 消息

错误号 6846889:在重新引导控制域或来宾域时,可能会针对正在重新引导的控制域和来宾域记录以下警告消息:

WARNING: ds@0: ds_ldc_cb: LDC READ event while port not up

解决方法:可以忽略此消息。

来宾域有时无法与控制域建立正确的域服务连接

错误号 6839787:有时,运行 Oracle Solaris /10 10/08 OS 或更高版本的来宾域无法与运行 Oracle Solaris /10 5/09 OS 的控制域建立正确的域服务连接。

通过域服务连接可实现动态重新配置 (dynamic reconfiguration, DR)、FMA 和电源管理 (power management, PM) 等功能。来宾域在引导后会出现这样的故障,因此,重新引导来宾域通常能够消除此问题。

解决方法:重新引导来宾域。

在控制域上未正确创建虚拟网络设备

错误号 6836587:有时,当您在域中添加虚拟网络或虚拟磁盘设备之后,ifconfig 指示该设备不存在。这种情况可能是由于未创建 /devices 条目而导致的。

尽管这在正常操作期间不应当发生,但是,当虚拟网络设备的实例编号与 /etc/path_to_inst 文件中列出的实例编号不匹配时,会看到此错误。

例如:

# ifconfig vnet0 plumb
ifconfig: plumb: vnet0: no such interface

虚拟设备的实例编号显示在 ldm list 输出的 DEVICE 列下面:

# ldm list -o network primary
NAME             
primary          

MAC
    00:14:4f:86:6a:64

VSW
    NAME         MAC               NET-DEV DEVICE   DEFAULT-VLAN-ID PVID VID MTU  MODE  
    primary-vsw0 00:14:4f:f9:86:f3 nxge0   switch@0 1               1        1500        

NETWORK
    NAME   SERVICE              DEVICE    MAC               MODE PVID VID MTU  
    vnet1  primary-vsw0@primary network@0 00:14:4f:f8:76:6d      1        1500

可以将该实例编号(对于前面显示的 vnetvsw 均为 0)与 path_to_inst 文件中的实例编号进行比较以确保它们匹配。

# egrep '(vnet|vsw)' /etc/path_to_inst
"/virtual-devices@100/channel-devices@200/virtual-network-switch@0" 0 "vsw"
"/virtual-devices@100/channel-devices@200/network@0" 0 "vnet"

解决方法:如果实例编号不匹配,请删除虚拟网络或虚拟交换机设备,然后通过显式指定所需的实例编号(方法是设置 id 属性)来再次添加这些设备。

还可以手动编辑 /etc/path_to_inst 文件。请参见 path_to_inst(4) 手册页。


注意

注意 - 请注意该手册页中包括的如下警告:"changes should not be made to /etc/path_to_inst without careful consideration."(在对 /etc/path_to_inst 进行更改时一定要格外小心)。


在配置了 Logical Domains 的情况下,新添加的 NIU/XAUI 适配器在主机 OS 中不可见

错误号 6829016:如果在系统上配置了 Logical Domains 的情况下,添加了另外一块 XAUI 网卡,则在对计算机执行关开机循环之后,该卡不可见。

恢复:为了使新添加的 XAUI 在控制域中可见,请执行以下步骤:

  1. 设置和清除控制域中的伪变量。

    下面的命令使用一个名为 fix-xaui 的伪变量:

    # ldm set-var fix-xaui=yes primary
    # ldm rm-var fix-xaui primary
  2. 将修改后的配置保存到 SP,替换当前的配置。

    下面的命令使用 config1 作为配置名称:

    # ldm rm-spconfig config1
    # ldm add-spconfig config1
  3. 在对控制域执行重新配置后重新引导。

    # reboot -- -r

    此时,可以配置新提供的网络,使其可供 Logical Domains 使用。

e1000g 引导时,I/O 域或来宾域出现紧急情况

错误号 6808832:可以在诸如 Sun Fire T5240 之类的系统上最多配置两个具有专用 PCI-E 根联合体的域。这些系统具有两个 UltraSPARC T2+ CPU 和两个 I/O 根联合体。

pci@500pci@400 是系统中的两个根联合体。primary 域始终至少包含一个根联合体。可以为另外一个域配置未指定或未绑定的根联合体。

pci@400 结构(或叶)包含板载 e1000g 网卡。以下情况可能会导致域出现紧急情况:

如果在非 primary 域中配置了以下网络设备,请避免使用它们:

/pci@400/pci@0/pci@c/network@0,1
/pci@400/pci@0/pci@c/network@0

当满足这些条件时,域将出现紧急情况,而且会出现 PCI-E 致命错误。

请避免进行这样的配置,或者如果使用了这样的配置,请不要从上面列出的设备进行引导。

显式控制台组和端口绑定未迁移

错误号 6781589:在迁移期间,会忽略显式指定的任何控制台组和端口,而且会为目标域创建一个具有默认属性的控制台。此控制台是通过使用目标域名称作为控制台组并使用控制域中第一个虚拟控制台集中器 (vcc) 设备上的任意可用端口创建的。如果与默认组名有冲突,迁移将失败。

恢复:要在迁移之后恢复显式控制台属性,请解除对目标域的绑定,然后使用 ldm set-vcons 命令手动设置所需的属性。

约束数据库未同步到已保存的配置

错误号 6773569:在从一个配置切换到另一个配置(使用 ldm set-config 命令,然后执行关开机循环)之后,在先前配置中定义的域可能仍在当前的配置中以非活动状态存在。

这是由于 Logical Domains Manager 的约束数据库未与配置更改同步而导致的。这些非活动域不会影响正在运行的配置,可以放心地销毁。

当目标上的 vdsdev 具有不同的后端时迁移不失败

错误号 6772120:如果目标计算机上的虚拟磁盘不指向源计算机上所使用的同一个磁盘后端,则迁移后的域无法访问使用该磁盘后端的虚拟磁盘。在访问域上的虚拟磁盘时,可能会挂起。

目前,Logical Domains Manager 仅检查源计算机上与目标计算机上的虚拟磁盘卷名称是否相匹配。在这种情况下,如果磁盘后端不匹配,不会显示错误消息。

解决方法:确保在将目标域配置为接收迁移的域时,目标域上的磁盘卷 (vdsdev) 与源域上使用的磁盘后端相匹配。

恢复:如果发现目标计算机上的虚拟磁盘指向不正确的磁盘后端,请执行下列操作之一:

即使目标有足够的内存,迁移功能也无法绑定内存

错误号 6772089:在某些情况下,迁移会失败,ldmd 会报告它无法绑定源域所需的内存。即使目标计算机上的可用内存总量大于源域正使用的内存量,也会出现此情况。

出现这种故障的原因是,迁移正由源域使用的特定内存范围需要目标上也有一致的内存范围。如果对于源域中的任何内存范围没有找到此类一致的内存范围,迁移将无法继续。

恢复:遇到这种情况时,可以修改目标计算机上的内存使用情况来迁移域。为此,请解除绑定目标上任何已绑定的或处于活动状态的逻辑域。

使用 ldm list-devices -a mem 命令可以查看可用的内存及其使用方式。您可能还需要减少指定给另一个域的内存量。

当计算机未联网而且 NIS 客户端正在运行时,Logical Domains Manager 不启动

错误号 6764613:如果您的计算机上运行有网络信息服务 (Network Information Service, NIS) 客户端,但未配置网络,则 Logical Domains Manager 将无法在您的系统上启动。

解决方法:在非联网计算机上禁用 NIS 客户端:

# svcadm disable nis/client

当迁移后的域已经引导时,Logical Domains Manager 将这些域显示为处于过渡状态

错误号 6760933:有时,处于活动状态的逻辑域在完成引导很长时间之后或者在完成域迁移之后,显示为处于过渡状态,而不是正常状态。这个小错误没有任何害处,该域仍能够完全正常运行。要查看设置了哪个标志,请检查 ldm list -l -p 命令输出中的 flags 字段,或者检查 ldm list 命令的 FLAGS 字段,这两个字段会显示 -n----(表示正常)或 -t----(表示过渡)。

恢复:在下次重新引导后,该域会显示正确的状态。

除非重新启动 vntsd,否则无法连接到迁移后的域控制台

错误号 6757486:有时,在迁移域之后,无法连接到该域的控制台。

解决方法:重新启动 vntsd SMF 服务以允许连接到控制台:

# svcadm restart vntsd

注 - 此命令将断开所有处于活动状态的控制台连接。


有时,从 Logical Domains 系统执行 uadmin 1 0 命令时系统不返回到 OK 提示符

错误号 6753683:有时,从 Logical Domains 系统的命令行执行 uadmin 1 0 命令不会使系统在随后重置后保留在 ok 提示符。只有当 Logical Domains 变量 auto-reboot? 设置为 true 时,才会出现这种不正确的行为。如果 auto-reboot? 设置为 false,则会出现预期的行为。

解决方法:改为使用以下命令:

uadmin 2 0

或者,始终在 auto-reboot? 设置为 false 的情况下运行。

Logical Domains Manager 关闭域至少需要 15 分钟

错误号 6742805:对于具有单个 CPU 和巨大内存的配置,关闭域或清理内存可能至少需要 15 分钟。在关闭过程中,域中的 CPU 用于清理由该域拥有的所有内存。如果配置不平衡(例如,只有一个 CPU 的域,内存多达 512 GB),完成清理所需的时间可能会相当长。清理时间延长后,关闭域所需的时间也会延长。

解决方法:确保大内存配置 (>100 GB) 至少有一个核心。这可能会缩短关闭时间。

如果 Oracle Solaris /10 5/08 OS 安装在服务域上,尝试在该服务域所服务的任何来宾域上执行 Oracle Solaris /10 8/07 OS 的网络引导可能会使安装挂起

错误号 6705823:在运行 Oracle Solaris /10 5/08 OS 的服务域所服务的任何来宾域上,尝试执行 Oracle Solaris /10 8/07 OS 的网络引导可能会导致来宾域在安装期间挂起。

解决方法:用修补程序 ID 127111-05 修补 Oracle Solaris /10 8/07 OS 网络安装映像的 miniroot。

当针对处于延迟重新配置模式的控制域执行多个 set-vcpu 操作时,ldmd 可能会转储核心

错误号 6697096:在某些情况下,当针对处于延迟重新配置模式的控制域执行多个 ldm set-vcpu 操作时,ldmd 可能会中止而且可能会由服务管理工具 (Service Management Facility, SMF) 重新启动。

在控制域处于延迟重新配置模式的情况下尝试执行 ldm set-vcpu 操作时一定要格外小心。执行 ldm set-vcpu 操作一次将成功,再次执行 ldm set-vcpu 操作可能导致 ldmd 守护进程转储核心。

解决方法:在尝试再次执行 ldm set-vcpu 操作之前重新引导控制域。

在分片 2 上构建的 Solaris Volume Manager 卷在用作来宾域中的引导设备时无法执行 JumpStart

错误号 6687634:如果 Solaris Volume Manager 卷是在包含磁盘的块 0 的磁盘分片上构建的,Solaris Volume Manager 会禁止写入该卷的块 0 以免覆写磁盘的标签。

如果 Solaris Volume Manager 卷是在包含磁盘的块 0 的磁盘分片上构建的,则在将该卷作为完整的虚拟磁盘导出时,来宾域无法为该虚拟磁盘写入磁盘标签,这会防止将 Oracle Solaris OS 安装在这样的磁盘上。

解决方法:作为虚拟磁盘导出的 Solaris Volume Manager 卷不应当在包含磁盘的块 0 的磁盘分片上构建。

更通用的准则是:从物理磁盘的第一个块(块 0)开始的分片不应当作为虚拟磁盘(直接或间接)导出。请参阅《Oracle VM Server for SPARC 2.1 管理指南》中的"直接或间接导出磁盘分片"

在公用控制台组中同时进行多个域的网络安装会失败

错误号 6656033:在共用同一个控制台组的系统上同时进行的多个来宾域的网络安装失败。

解决方法:仅在拥有其各自控制台组的来宾域上进行网络安装。只有在多个网络安装域之间共享一个公用控制台组的域上才会出现这种失败情况。

scadm 命令在 SC 或 SP 重置之后可能会挂起

错误号 6629230:对于运行 Solaris 10 11/06 OS 或更高版本的控制域,scadm 命令可能会在 SC 重置之后挂起。在 SC 重置之后,系统无法正确地重新建立连接。

解决方法:重新引导主机,以便与 SC 重新建立连接。

恢复:重新引导主机,以便与 SC 重新建立连接。

ldc_close: (0xb) unregister failed, 11 警告消息

错误号 6610702:在系统控制台上或系统日志中可能会看到下面的警告消息:

ldc_close: (0xb) unregister failed, 11

请注意,括号中的编号是 Oracle Solaris 内部通道号,每个警告消息中的内部通道号可能会各不相同。

解决方法:可以忽略这些消息。

在同一个网络上有太多虚拟网络使用 DHCP 的来宾域可能会变得不响应

错误号 6603974:如果在同一个网络上的来宾域中使用动态主机配置协议 (Dynamic Host Configuration Protocol, DHCP) 配置了四个以上的虚拟网络 (vnet),则来宾域最终可能会在运行网络通信时变得不响应。

解决方法:如果有 8 个接口,请将 ip_ire_min_bucket_cntip_ire_max_bucket_cnt 设置为较大的值(如 32)。

恢复:针对有问题的来宾域 (ldom) 发出 ldm stop-domain ldom 命令,随后发出 ldm start-domain ldom 命令。

在出现紧急情况并重新引导之后,Logical Domains Manager 不弃用来宾域上的资源

错误号 6591844:如果 CPU 或内存出现故障,受到影响的域可能会出现紧急情况并重新引导。如果故障管理体系结构 (Fault Management Architecture, FMA) 在该域重新引导时尝试弃用出现故障的组件,Logical Domains Manager 将无法与该域通信,而且弃用操作将失败。在这种情况下,fmadm faulty 命令会将该资源列为 degraded

恢复:等待该域完成重新引导,然后强制 FMA 重放故障事件,方法是使用以下命令重新启动控制域上的故障管理器守护进程 (fmd):

primary# svcadm restart fmd

在 Logical Domains Manager 正在运行时,OpenBoot PROM 变量无法由 eeprom(1M) 命令进行修改

错误号 6540368:Logical Domains 变量持久性中对此问题进行了总结,它仅影响控制域。

在 Logical Domains 运行时无法设置安全密钥

错误号 6510214:在 Logical Domains 环境中,不支持从 Oracle Solaris OS 内部,使用 ickey(1M) 命令设置或删除广域网 (wide-area network, WAN) 引导密钥。所有的 ickey 操作都会失败并出现以下错误:

ickey: setkey: ioctl: I/O error

另外,在逻辑域(而不是控制域)中使用 OpenBoot 固件设置的 WAN 引导密钥在该域重新引导之后不会被记住。在这些域中,从 OpenBoot 固件设置的密钥将只能用于单一用途。

ldm stop-domain 命令的行为可能会引起混淆

错误号 6506494:在某些情况下,ldm stop-domain 命令的行为会引起混淆。

# ldm stop-domain -f ldom

如果域位于内核模块调试器 kmdb(1) 提示符下,则 ldm stop-domain 命令会失败并出现以下错误消息:

LDom <domain name> stop notification failed

在执行并发操作时客操作系统可能会挂起

错误号 6497796:在极少数情况下,如果 Logical Domains 变量(如 boot-device)正使用 eeprom(1M) 命令从来宾域进行更新,而与此同时,Logical Domains Manager 正用于在同一个域中添加或删除虚拟 CPU,则客操作系统可能会挂起。

解决方法:确保不同时执行这两个操作。

恢复:使用 ldm stop-domainldm start-domain 命令停止然后启动客操作系统。

有时 DR 请求无法删除所请求的全部 CPU

错误号 6493140:有时,Oracle Solaris OS 无法使用 DR 删除所请求的全部 CPU。出现此问题时,会显示类似如下的错误消息:

Removal of cpu 10 failed

恢复:发出后续请求以删除在第一次无法删除的 CPU 的编号。这样的重试通常会成功。

文档勘误表

本节包含 Oracle VM Server for SPARC 2.1 发行版中已发现但因发现太晚而尚未解决的文档错误:

对所需软件信息的交叉引用不正确

《Oracle VM Server for SPARC 2.1 管理指南》中的“软件兼容性”一节未正确引用有关获取最新功能的要求信息,而引用的是即时域迁移要求

ldm stop 命令描述造成误导

该描述指出 ldm stop 命令发出 shutdown 请求,而它实际发出的是 uadmin() 系统调用。

要以最“正常”的方式关闭域,请在想要停止的域中执行 shutdowninit 操作。请参见 shutdown(1M)init(1M) 手册页。

升级过程中的 Logical Domains Manager 软件包名称不正确

要安装的 Logical Domains Manager 软件包的名称是 SUNWldm.v。Oracle VM Server for SPARC 2.1 文档中的任何 pkgadd 命令都必须引用 SUNWldm.v 软件包名称。

ILOM load 命令用法概要使用不正确的字符

《Oracle VM Server for SPARC 2.1 管理指南》中的"升级系统固件" 中的 ILOM load 命令用法概要错误地使用反斜杠字符 (\) 来指示整个命令必须在单个行中输入。

指定该命令时,不要包含反斜杠字符,并确保整个命令在单个行中输入。