Oracle® VM Server for SPARC 3.2 릴리스 노트

인쇄 보기 종료

업데이트 날짜: 2015년 5월
 
 

Oracle VM Server for SPARC 소프트웨어에 영향을 주는 버그

이 절에서는 이 버전의 소프트웨어를 사용할 때 발생할 수 있는 버그를 요약해서 보여 줍니다. 최근 버그가 먼저 설명됩니다. 가능한 경우 임시해결책 및 복구 절차가 지정됩니다.


주 - 이 절에 설명된 버그 중 일부는 Oracle VM Server for SPARC 3.1 릴리스 이후 수정되었습니다. 이러한 버그 기록은 여전히 Oracle VM Server for SPARC 3.1 릴리스를 실행 중인 사용자를 위해 남겨둡니다.

Oracle VM Server for SPARC 3.2 소프트웨어에 영향을 주는 버그

ldm remove-io 작업 중 rcm_daemon에서 콘솔에 메시지를 방출할 수 있음

버그 ID 20619894: system/management/hwmgmtd 패키지가 설치되지 않은 경우 동적 버스 제거 작업을 수행하면 rcm_daemon에서 콘솔에 다음 메시지를 출력합니다.

rcm_daemon[839]: rcm script ORCL,pcie_rc_rcm.pl: svcs: Pattern 'sp/management'
doesn't match any instances

임시해결책: 이 메시지는 무시해도 됩니다.

전원 관리 정책이 elastic으로 설정된 경우 복구 모드가 중단될 수 있음

버그 ID 20570207: 전원 관리 정책이 elastic으로 설정된 경우 Logical Domains Manager에서 결함이 있거나 누락된 리소스를 감지한 후 도메인을 복구하는 동안 primary 도메인이 중단될 수 있습니다.

복구: 정책을 disabled로 변경하고 시스템 전원을 껐다가 켜서 복구 모드를 다시 시작합니다.

지연된 재구성 중 Fujitsu M10 서버 소켓 명령을 사용할 때 예상치 않은 동작 발생

버그 ID 20432421: 지연된 재구성 중 grow-socket 또는 shrink-socket 명령을 사용하여 가상 CPU 또는 코어를 수정하는 경우 예상치 않은 동작이 발생할 수 있습니다. 지정한 소켓의 메모리만 도메인에 바인딩되도록 primary 도메인에 속한 메모리가 다시 지정됩니다.

임시해결책: 지연된 재구성 중이 아닐 때만 shrink-socketgrow-socket 명령을 사용하여 가상 CPU 또는 코어를 수정합니다.

factory-default로 전환된 후 이전 활성 구성에서 부트된 장치가 아닌 다른 장치에서 시스템을 부트하면 복구 모드가 실패함

버그 ID 20425271: factory-default로 전환된 후 복구를 트리거하는 동안 이전 활성 구성에서 부트된 장치가 아닌 다른 장치에서 시스템을 부트하면 복구 모드가 실패합니다. 이 오류는 활성 구성에서 factory-default 부트 장치가 아닌 부트 장치를 사용하는 경우에 발생할 수 있습니다.

임시해결책: 언제든지 다음 단계를 수행하여 새 구성을 SP에 저장합니다.

  1. primary 도메인에 대한 부트 장치의 전체 PCI 경로를 결정합니다.

    4단계에서 이 경로를 ldm set-var 명령에 사용합니다.

  2. primary 도메인에서 현재 설정된 boot-device 등록 정보를 모두 제거합니다.

    boot-device 등록 정보에 값이 설정된 경우에만 이 단계를 수행해야 합니다. 등록 정보에 값이 설정되지 않은 경우 boot-device 등록 정보를 제거하려고 시도하면 boot-device not found 메시지가 표시됩니다.

    primary# ldm rm-var boot-device primary
  3. 현재 구성을 SP에 저장합니다.

    primary# ldm add-spconfig config-name
  4. primary 도메인에 대한 boot-device 등록 정보를 명시적으로 설정합니다.

    primary# ldm set-var boot-device=value primary

    설명한 대로 구성을 SP에 저장한 후 boot-device 등록 정보를 설정하면 복구 모드가 트리거될 때 지정한 부트 장치가 부트됩니다.

복구: 설명한 대로 복구 모드가 이미 실패한 경우 다음 단계를 수행합니다.

  1. 부트 장치를 마지막으로 실행한 구성에서 사용된 장치로 명시적으로 설정합니다.

    primary# ldm set-var boot-device=value primary
  2. primary 도메인을 재부트합니다.

    primary# reboot

    재부트하면 복구를 계속할 수 있습니다.

ldm list-rsrc-group을 실행할 때 PCIe 버스 정보가 잘못된 리소스 그룹 아래에 잘못 표시됨

버그 ID 20426593: 리소스 그룹 이름의 숫자 접미어가 2자리 이상인 경우 ldm list-rsrc-group을 실행할 때 I/O 리소스 정보가 잘못된 리소스 그룹 아래에 표시될 수 있습니다.

다음 예에서는 ldm list-rsrc-group 명령을 실행할 때 /SYS/CMIOU10에 대한 PCIE 버스 정보가 /SYS/CMIOU1 리소스 그룹 아래에 잘못 표시됩니다.

primary# ldm list-io
NAME                  TYPE   BUS      DOMAIN    STATUS
----                  ----   ---      ------    ------
..
/SYS/CMIOU10/PCIE2     PCIE   pci_50   primary   OCC
/SYS/CMIOU10/PCIE3     PCIE   pci_51   primary   OCC
/SYS/CMIOU10/PCIE1     PCIE   pci_53   primary   OCC
..
.
primary# ldm list-rsrc-group -l -o io /SYS/CMIOU1
NAME
/SYS/CMIOU1

IO
    DEVICE           PSEUDONYM        BOUND
    pci@305          pci_5            alt-root
    pci@306          pci_6            primary
    pci@308          pci_8            alt-root
    pci@309          pci_9            primary
    pci@332          pci_50           primary
    pci@333          pci_51           primary
    pci@335          pci_53           primary

PCIe 버스 pci_50, pci_51pci_53/SYS/CMIOU10 리소스 그룹 대신 /SYS/CMIOU1 리소스 그룹 아래에 잘못 표시됩니다.

임시해결책: ldm list-io -l 명령을 실행하여 I/O 이름에서 PCIe 버스에 대한 올바른 리소스 그룹 이름을 가져옵니다. 예를 들어, I/O 이름이 /SYS/CMIOU10/PCIE2인 PCIe 버스는 /SYS/CMIOU1이 아니라 /SYS/CMIOU10에 속해야 합니다.

서비스 도메인에서 가상 디스크 백엔드를 사용할 수 없는 경우 복구 모드에서 게스트 도메인을 복구하지 않음

버그 ID 20321459: 가상 디스크 백엔드가 누락되었으며 검증할 수 없는 경우 Logical Domains Manager에서 해당 백엔드가 지정된 게스트 도메인을 복구하지 않습니다. 이는 다중 경로가 구성된 경우에도 해당됩니다.

해결 방법: 다음 단계를 수행합니다.

  1. 일시적으로 장치 검증을 사용 안함으로 설정합니다.

    primary# svccfg -s ldmd setprop ldmd/device_validation integer: 0
    primary# svcadm refresh ldmd
    primary# svcadm restart ldmd
  2. 백엔드가 누락된 게스트 도메인을 수동으로 복구합니다.

    장치 검증이 사용 안함으로 설정된 경우 백엔드나 연관된 물리적 네트워크 장치가 없어도 Logical Domains Manager에서 게스트 도메인에 가상 장치를 추가합니다. 따라서 도메인 구성을 복구한 후 장치 검증을 다시 사용으로 설정합니다.

    primary# svccfg -s ldmd setprop ldmd/device_validation integer: -1
    primary# svcadm refresh ldmd
    primary# svcadm restart ldmd
ldm bind 명령을 실행할 때 Invalid response 오류 발생

버그 ID 20307560: 가상 CPU와 메모리를 사용하는 게스트 도메인을 만들고 ldm bind 명령을 실행할 경우 Invalid response 오류가 발생할 수 있습니다. 게스트 도메인을 만들고 ldm bind 명령을 실행하기 전에 primary 도메인에 모든 리소스가 있으면 이 오류가 발생할 수 있습니다.

임시해결책: primary 도메인에서 일부 메모리를 제거한 다음 ldm bind 명령을 실행합니다.

지연된 재구성 중 물리적 기능 또는 가상 기능이 INV 상태로 멈추고 Logical Domains Manager가 다시 시작됨

버그 ID 20257979: 물리적 기능에서 가상 기능을 만드는 방법 중 하나는 물리적 기능을 소유한 루트 도메인을 지연된 재구성에 넣는 것입니다. 지연된 재구성 중 ldm create-vf 명령을 사용하여 가상 기능을 하나 이상 만들 수 있습니다.

일반적으로 ldm list-io 명령을 실행하면 물리적 기능과 하위 가상 기능이 정상 상태로 표시됩니다. 그러나 루트 도메인이 재부트되기 전에 ldmd 서비스를 다시 시작하거나 지연된 재구성을 취소하면 물리적 기능과 해당 가상 기능이 INV 상태로 표시됩니다.

지연된 재구성 중 가상 기능을 삭제하는 경우에도 동일한 문제가 발생합니다. 가상 기능을 삭제하고 Logical Domains Manager를 다시 시작한 다음 ldm list-io 출력을 실행하면 해당 루트 도메인에 대한 물리적 기능이 표시되지 않습니다.

해결 방법: 다음 해결 방법 중 하나를 수행합니다.

  • 지연된 재구성을 취소합니다.

    다음에 ldm list-io 명령을 실행하면 물리적 기능과 기존 가상 기능이 모두 유효 상태입니다.

  • 지연된 재구성 중인 루트 도메인을 재부트합니다.

    루트 도메인이 지연된 재구성 중일 때 수정한 사항은 OS의 게스트 도메인에 포함됩니다.

전력 상한값이 제한 아래일 때 CPU가 재개되지 않음

버그 ID 20187197: 전력 상한값을 사용으로 설정하면 가장 낮은 전원 상태를 설정할 수 없는 경우가 있습니다. 전원 상태가 저하되었지만 가장 낮은 상태로는 저하되지 않습니다. 이 경우 가장 높은 전원 상태를 보장하는 더 높은 전원 제한을 설정한 후 가장 높은 전원 상태가 재개되지 않을 수 있습니다.

이 오류는 시스템에 대한 최소 전원 제한에 가까운 새 전력 상한값 제한을 설정하거나 실제 전원(전력 상한값이 지정되지 않은 경우)과 새 제한의 차이로 인해 가장 낮은 전원 상태가 사용되는 새 전력 상한값 제한을 설정할 때 발생합니다.

임시해결책: 다음 단계 중 하나를 수행합니다.

  • 전력 상한값을 사용 안함으로 설정합니다.

  • 시스템에 대한 최소 전원 제한에 가깝거나 크지 않은 새 전력 상한값 제한을 설정합니다.

I/O 도메인의 ixgbevf 노드가 ipadm 명령을 실행할 때 사용 안함으로 보고되고 ifconfig 명령을 실행할 때 존재하지 않음으로 보고됨

버그 ID 20004281: primary 도메인의 전원을 껐다가 켠 경우 I/O 도메인의 ixgbevf 노드가 ipadm 명령을 실행할 때 사용 안함으로 보고되고 ifconfig 명령을 실행할 때 존재하지 않음으로 보고됩니다.

임시해결책: IP 인터페이스를 다시 사용으로 설정합니다.

# svcadm restart network/physical:default
직접 I/O를 사용하여 I/O 도메인에 지정된 경우 HGXE 인터페이스를 사용할 수 없음

버그 ID 19943809: 직접 I/O 기능을 사용하여 카드가 지정된 경우 hxge 드라이버가 I/O 도메인 내에서 인터페이스를 사용할 수 없습니다.

시스템 로그 파일에 다음 경고가 발생합니다.

WARNING: hxge0 : <== hxge_setup_mutexes: failed 0x1

임시해결책: /etc/system에 다음 라인을 추가하고 재부트합니다.

set px:px_force_intx_support=1
ldm add-spconfig 작업이 완료되지 않으면 게스트 도메인 eeprom 업데이트가 손실됨

버그 ID 19932842: eeprom 또는 OBP 명령을 사용하는 경우 다음 명령 중 하나가 완료되기 전에 게스트 도메인에서 OBP 변수를 설정하려고 시도하면 실패할 수 있습니다.

  • ldm add-spconfig

  • ldm remove-spconfig

  • ldm set-spconfig

  • ldm bind

이 문제는 이러한 명령을 완료하는 데 걸리는 시간이 15초를 초과할 때 발생할 수 있습니다.

# /usr/sbin/eeprom boot-file\=-k
promif_ldom_setprop: promif_ldom_setprop: ds response timeout
eeprom: OPROMSETOPT: Invalid argument
boot-file: invalid property

복구: ldm 작업이 완료된 후 eeprom 또는 OBP 명령을 재시도합니다.

임시해결책: 영향 받는 게스트 도메인에서 eeprom 또는 OBP 명령을 재시도합니다. primary 도메인에서 ldm set-var 명령을 사용하면 문제를 방지할 수 있습니다.

포함된 가상 네트워크 장치가 1000개를 초과하는 게스트 도메인을 재부트할 때 패닉 발생

버그 ID 19449221: 한 도메인에 최대 999개의 가상 네트워크 장치(vnet)가 포함될 수 있습니다.

임시해결책: 도메인의 vnet 수를 999개로 제한합니다.

Oracle VM Server for SPARC에서 해제된 MAC 주소를 더 이상 추적하지 않음

버그 ID 19078763: Oracle VM Server for SPARC에서 해제된 MAC 주소를 더 이상 추적하지 않습니다. 이제 주소를 무작위로 선택한 다음 로컬 네트워크의 논리적 도메인에서 해당 주소를 사용하지 않는지 확인하여 MAC 주소가 할당됩니다.

Sun Storage 16Gb 광 섬유 채널 범용 HBA 펌웨어가 대역폭 콘트롤을 지원하지 않음

버그 ID 18083904: Sun Storage 16Gb 광 섬유 채널 범용 HBA(Emulex) 카드용 펌웨어는 대역폭 콘트롤 설정을 지원하지 않습니다. HBA 펌웨어는 bw-percent 등록 정보에 대해 지정하는 모든 값을 무시합니다.

임시해결책: 없음.

루트 도메인에서 광 섬유 채널 가상 기능에 대한 잘못된 장치 경로

버그 ID 18001028: 루트 도메인에서 광 섬유 채널 가상 기능에 대한 Oracle Solaris 장치 경로가 잘못되었습니다.

예를 들어, 잘못된 경로 이름은 pci@380/pci@1/pci@0/pci@6/fibre-channel@0,2이며, pci@380/pci@1/pci@0/pci@6/SUNW,emlxs@0,2가 되어야 합니다.

ldm list-io -l 출력은 광 섬유 채널 가상 기능에 대한 올바른 장치 경로를 보여 줍니다.

임시해결책: 없음.

FMA에서 결함이 있는 메모리를 감지하는 경우 문제가 발생할 수 있음

버그 ID 17576087: 결함이 있는 메모리가 교체된 후 저장된 구성으로 시스템 전원을 껐다가 켜도 메모리가 복원되지 않을 수 있습니다.

임시해결책: 결함이 있는 메모리를 교체한 후 factory-default 구성으로 시스템 전원을 껐다 켭니다. 그런 다음 사용하려는 구성으로 시스템 전원을 껐다 켭니다.

게스트 도메인의 가상 네트워크 장치 또는 SR-IOV 가상 기능에서 DLMP가 작동하지 않음

게스트 도메인의 가상 네트워크 장치 또는 SR-IOV NIC 가상 기능에서 DLMP 통합을 구성할 수 없습니다.

단일 슬라이스 가상 디스크에서 EFI GPT 디스크 레이블을 사용하여 Oracle Solaris 11.1 OS를 설치할 수 없음

버그 ID 17422973: 단일 슬라이스 디스크에 Oracle Solaris 11.1 OS를 설치할 경우 시스템 펌웨어 버전 8.4.0 이상을 실행하는 SPARC T4 서버, 시스템 펌웨어 버전 9.1.0 이상을 실행하는 SPARC T5, SPARC M5, SPARC M6 서버, XCP 버전 2230 이상을 실행하는 Fujitsu M10 서버에서 다음 오류가 표시됩니다.

cannot label 'c1d0': try using fdisk(1M) and then provide a specific slice
Unable to build pool from specified devices: invalid vdev configuration

임시해결책: SMI 레이블을 사용하여 디스크 레이블을 재지정하십시오.

가상 기능이나 PCIe 장치를 제거한 후 자동 저장 구성이 업데이트되지 않음

버그 ID 17051532: PCIe 장치나 가상 기능을 게스트 도메인에서 제거할 때 자동 저장 구성이 업데이트되지 않습니다. 이 문제로 인해 자동 저장 복구를 수행한 후에, 즉 autorecovery_policy=3일 때 장치나 가상 기능이 게스트 도메인에 다시 나타날 수 있습니다. 또한 이 문제로 인해 ldm add-spconfig -r 명령을 실행할 때 자동 저장 업데이트를 발생시키는 다른 ldm 명령을 수행하지 않으면 Autosave configuration config-name is invalid 메시지와 함께 실패할 수 있습니다.

해결 방법: 다음 해결 방법 중 하나를 수행합니다.

  • PCIe 장치나 가상 기능을 제거한 후 새 구성을 저장합니다.

    primary# ldm add-config new-config-name
  • PCIe 장치나 가상 기능을 제거한 후 저장된 구성을 제거했다가 다시 만들어서 구성을 새로 고칩니다.

    primary# ldm rm-config config-name
    primary# ldm add-config config-name

    이 버그 때문에 ldm add-config -r config-name 명령이 제대로 작동하지 않습니다.

  • ldm set-vcpu, ldm bind, ldm unbind와 같이 자동 저장 업데이트를 발생시키는 다른 ldm 명령을 실행합니다.

lgrp_lineage_add(mutex_enter: bad mutex, lp=10351178)에서 게스트 도메인 패닉 발생

버그 ID 17020950: 펌웨어 버전 8.3을 사용하여 바인드된 SPARC T4 플랫폼에서 SPARC T5, SPARC M5 또는 SPARC M6 플랫폼으로 활성 도메인을 마이그레이션한 후 메모리 동적 재구성을 수행하면 게스트 도메인 패닉이 발생할 수 있습니다.

임시해결책: 마이그레이션을 수행하기 전에 SPARC T4 시스템을 8.4 버전의 시스템 펌웨어로 업데이트합니다. 그런 다음 도메인을 다시 바인드합니다.

primary 도메인을 재부트한 후 게스트 도메인이 전환 상태에 있음

버그 ID 17020481: primary 도메인을 재부트한 후 게스트 도메인이 전환 상태(t)에 있습니다. 이 문제는 대량의 가상 기능이 시스템에 구성되었을 때 발생합니다.

임시해결책: 이 문제를 피하려면 OBP 디스크 부트 명령을 여러 번 재시도하여 네트워크에서 부트되지 않도록 합니다.

    각 도메인에서 다음 단계를 수행합니다.

  1. 도메인의 콘솔에 액세스합니다.

    primary# telnet localhost 5000
  2. boot-device 등록 정보를 설정합니다.

    ok> setenv boot-device disk disk disk disk disk disk disk disk disk disk net

    boot-device 등록 정보의 값으로 지정하는 disk 항목 수는 시스템에 구성된 가상 기능 수에 따라 다릅니다. 시스템이 작을수록 더 적은 수의 disk 인스턴스를 등록 정보 값에 포함할 수 있습니다.

  3. printenv를 사용하여 boot-device 등록 정보가 올바르게 설정되었는지 확인합니다.

    ok> printenv
  4. primary 도메인 콘솔로 돌아갑니다.

  5. 시스템의 각 도메인에 대해 단계 1-4를 반복합니다.

  6. primary 도메인을 재부트합니다.

    primary# shutdown -i6 -g0 -y
복구 모드 중 비-primary 루트 도메인에서 PCIe 슬롯 제거를 지원해야 함

버그 ID 16713362: 현재 복구 작업 중 비-primary 루트 도메인에서 PCIe 슬롯을 제거할 수 없습니다. PCIe 슬롯은 비-primary 루트 도메인에 그대로 지정되어 있습니다.

임시해결책: 복구 작업이 완료된 후 비-primary 루트 도메인에서 PCIe 슬롯을 수동으로 제거하고 적절한 I/O 도메인에 지정해야 합니다.

비-primary 루트 도메인에서 PCIe 슬롯을 제거하는 방법은 Oracle VM Server for SPARC 3.2 관리 설명서 의 비primary 루트 도메인 개요를 참조하십시오.

비-primary 루트 도메인이 소유한 PCIe 슬롯을 사용하는 I/O 도메인의 복구는 I/O 도메인 구성에 따라 다릅니다.

  • I/O 도메인이 PCIe 슬롯만 사용하고 이 PCIe 슬롯 중 아무것도 사용할 수 없는 경우, I/O 도메인이 복구되지 않고 PCIe 슬롯이 비워짐으로 표시된 채 바인드 해제 상태로 남습니다.

  • I/O 도메인이 SR-IOV 가상 기능과 PCIe 슬롯을 사용하는 경우, 도메인이 복구되고 사용 불가능한 PCIe 슬롯은 비워짐으로 표시됩니다.

비-primary 루트 도메인에서 PCIe 슬롯을 수동으로 제거한 후 ldm add-io 명령을 사용하여 I/O 도메인에 슬롯을 추가합니다.

ldm list에 물리적 I/O 장치의 evacuated 등록 정보가 표시되지 않음

버그 ID 16617981: ldm list 출력에 물리적 I/O 장치의 evacuated 등록 정보가 표시되지 않습니다.

임시해결책: ldm list 명령과 함께 –p 옵션을 사용하여 물리적 I/O 장치의 evacuated 등록 정보를 표시하십시오.

send_mondo_set: timeout 스트레스 작업 후 게스트 도메인에서 ldm stop 명령 사용 시 패닉 발생

버그 ID 16486383: 이 문제는 게스트 도메인에 직접 PCI 장치나 버스를 지정할 때 이 도메인에 PCI 카드가 물리적으로 존재하는 /SYS/DCU에서 지정된 코어가 없는 경우 발생할 수 있습니다. 하이퍼바이저는 게스트 도메인 대신 PCI 장치를 재설정하므로 각 게스트 도메인 재부트 동안 PCI 장치에 연결된 DCU의 코어가 있는 도메인에서 패닉이 발생할 수 있습니다. 비-DCU-로컬 게스트에 지정된 PCI 장치가 많을수록 패닉이 발생할 가능성이 높아집니다.

해결 방법: 다음 해결 방법 중 하나를 수행합니다.

  • 게스트 도메인에 PCI 장치를 지정할 때 카드가 코어와 동일한 DCU에 물리적으로 위치하는지 확인합니다.

  • 물리적 카드 배치 유연성을 위해 수동으로 코어를 지정합니다.

    예를 들어, IOU0(pci_0 ~ pci_15)에 있는 PCI 장치의 경우 0 ~ 127 사이의 코어를 선택하고 도메인에 할당합니다.

    # ldm add-core cid=16 domain-name

    다음 명령을 사용하여 시스템 코어를 확인합니다.

    # ldm ls-devices -a core

    IOU1(pci_16 ~ pci_31)에 있는 PCI 장치의 경우 128 ~ 255 사이의 코어를 선택합니다. IOU2(pci_32 ~ pci_47)에 있는 PCI 장치의 경우 256 ~ 383 사이의 코어를 선택합니다. IOU3(pci_48 ~ pci_63)에 있는 PCI 장치의 경우 384 ~ 511 사이의 코어를 선택합니다.

PCIe 장치 아래의 하위 장치가 지정되지 않은 이름으로 복원됨

버그 ID 16299053: PCIe 장치를 사용 안함으로 설정한 후 예상치 않은 동작이 발생할 수 있습니다. PCIe 장치는 계속 도메인이 소유하고 있지만 사용 안함으로 설정된 PCIe 장치 아래에 있는 하위 장치가 지정되지 않은 이름으로 복원됩니다.

임시해결책: ILOM에서 PCIe 슬롯을 사용 안함으로 설정할 경우 직접 I/O(DIO) 기능을 사용하여 PCIe 슬롯이 도메인에 지정되지 않도록 합니다. 즉, ILOM에서 슬롯을 사용 안함으로 설정하기 전에 먼저 PCIe 슬롯이 해당하는 루트 도메인에 지정되도록 합니다.

ILOM에서 PCIe 슬롯을 사용 안함으로 설정할 경우 올바른 동작을 위해서는 DIO를 사용하여 PCIe 슬롯이 도메인에 지정된 상태에서 해당 도메인을 중지하고 루트 도메인에 장치를 재지정합니다.

WARNING: ddi_intr_alloc: cannot fit into interrupt pool은 I/O 장치 드라이버를 연결하는 동안 인터럽트 공급이 소진되었음을 의미함

버그 ID 16284767: Oracle Solaris 콘솔에 표시된 이 경고는 I/O 장치 드라이버를 연결하는 동안 인터럽트 공급이 소진되었음을 의미합니다.

WARNING: ddi_intr_alloc: cannot fit into interrupt pool

하드웨어는 한정된 수의 인터럽트를 제공하므로 Oracle Solaris는 각 장치가 사용할 수 있는 개수를 제한합니다. 기본 제한은 표준 시스템 구성 요구에 맞게 설계되었지만, 특정 시스템 구성에 따라 이 제한을 조정할 수 있습니다.

특히, 시스템이 여러 논리적 도메인으로 분할된 경우와 너무 많은 I/O 장치가 게스트 도메인에 지정된 경우 제한 조정이 필요합니다. Oracle VM Server for SPARC는 전체 인터럽트를 게스트 도메인에 제공된 더 작은 세트로 나눕니다. 너무 많은 I/O 장치가 게스트 도메인에 지정된 경우 각 장치에 기본 인터럽트 제한을 제공하기에는 공급량이 너무 작을 수 있습니다. 따라서 모든 드라이버를 완전히 연결하기 전에 공급량을 소진합니다.

일부 드라이버는 Oracle Solaris에서 자동으로 인터럽트를 조정할 수 있도록 선택적 콜백 루틴을 제공합니다. 이러한 드라이버에는 기본 제한이 적용되지 않습니다.

임시해결책: ::irmpools::irmreqs MDB 매크로를 사용하여 인터럽트가 어떻게 사용되는지 확인합니다. ::irmpools 매크로는 전체 인터럽트 공급량을 풀로 나눈 값을 보여줍니다. ::irmreqs 매크로는 각 풀에 매핑된 장치를 보여줍니다. 각 장치에 대해 ::irmreqs는 선택적 콜백 루틴에 의해 기본 제한이 강제 적용되는지 여부, 각 드라이버가 요청한 인터럽트 수, 드라이버에 제공된 인터럽트 수를 보여줍니다.

연결을 실패한 드라이버에 대한 정보는 매크로에 표시되지 않습니다. 그러나 표시된 정보를 바탕으로 어느 정도까지 기본 제한을 조정할 수 있는지 계산할 수 있습니다. 콜백 루틴을 제공하지 않고 여러 개의 인터럽트를 사용하는 장치의 경우 기본 제한을 조정하여 더 적은 인터럽트를 사용하도록 강제할 수 있습니다. 해당 장치에서 사용되는 분량 이하로 기본 제한을 줄이면 다른 장치에서 사용할 인터럽트를 확보할 수 있습니다.

기본 제한을 조정하려면 /etc/system 파일에서 ddi_msix_alloc_limit 등록 정보를 1 - 8 범위의 값으로 설정합니다. 그런 다음 시스템을 재부트하여 변경 사항을 적용합니다.

성능을 최대화하려면 큰 값을 지정하여 시작했다가 시스템이 경고 없이 성공적으로 부트할 때까지 증분 값을 조금씩 줄입니다. ::irmpools::irmreqs 매크로를 사용하여 값 조정이 모든 연결된 드라이버에 미치는 영향을 측정합니다.

예를 들어, 게스트 도메인에서 Oracle Solaris OS를 부트하는 동안 다음 경고가 발생한다고 가정합니다.

WARNING: emlxs3: interrupt pool too full.
WARNING: ddi_intr_alloc: cannot fit into interrupt pool

::irmpools::irmreqs 매크로는 다음 정보를 보여줍니다.

# echo "::irmpools" | mdb -k
ADDR             OWNER   TYPE   SIZE  REQUESTED  RESERVED
00000400016be970 px#0    MSI/X  36    36         36

# echo "00000400016be970::irmreqs" | mdb -k
ADDR             OWNER   TYPE   CALLBACK NINTRS NREQ NAVAIL
00001000143acaa8 emlxs#0 MSI-X  No       32     8    8
00001000170199f8 emlxs#1 MSI-X  No       32     8    8
000010001400ca28 emlxs#2 MSI-X  No       32     8    8
0000100016151328 igb#3   MSI-X  No       10     3    3
0000100019549d30 igb#2   MSI-X  No       10     3    3
0000040000e0f878 igb#1   MSI-X  No       10     3    3
000010001955a5c8 igb#0   MSI-X  No       10     3    3

이 예제에서 기본 제한은 장치당 8개 인터럽트이며, 마지막 emlxs3 장치까지 시스템에 연결하기에 인터럽트가 부족합니다. 모든 emlxs 인스턴스가 같은 방법으로 작동한다고 가정하면, emlxs3은 8개 인터럽트를 요청했을 것입니다.

총 풀 크기인 36개 인터럽트에서 모든 igb 장치에서 사용된 12개 인터럽트를 빼면 emlxs 장치에 24개 인터럽트를 사용할 수 있습니다. 24개 인터럽트를 4로 나누면 장치당 6개 인터럽트가 모든 emlxs 장치를 같은 성능으로 연결할 수 있을 것입니다. 따라서 다음 조정이 /etc/system 파일에 추가됩니다.

set ddi_msix_alloc_limit = 6

시스템이 경고 없이 성공적으로 부트하면 ::irmpools::irmreqs 매크로는 다음 업데이트된 정보를 보여줍니다.

# echo "::irmpools" | mdb -k
ADDR             OWNER   TYPE   SIZE  REQUESTED  RESERVED
00000400018ca868 px#0    MSI/X  36    36         36
 
# echo "00000400018ca868::irmreqs" | mdb -k
ADDR             OWNER   TYPE   CALLBACK NINTRS NREQ NAVAIL
0000100016143218 emlxs#0 MSI-X  No       32     8    6
0000100014269920 emlxs#1 MSI-X  No       32     8    6
000010001540be30 emlxs#2 MSI-X  No       32     8    6
00001000140cbe10 emlxs#3 MSI-X  No       32     8    6
00001000141210c0 igb#3   MSI-X  No       10     3    3
0000100017549d38 igb#2   MSI-X  No       10     3    3
0000040001ceac40 igb#1   MSI-X  No       10     3    3
000010001acc3480 igb#0   MSI-X  No       10     3    3
SPARC M5-32 및 SPARC M6-32: 다중 직접 I/O 경로를 통해 액세스할 수 있는 디스크 관련 문제

버그 ID 16232834: ldm add-vcpu 명령을 사용하여 CPU를 도메인에 지정할 경우 Oracle Solaris OS에서 다음 메시지와 함께 패닉이 발생할 수 있습니다.

panic[cpu16]/thread=c4012102c860: mpo_cpu_add: Cannot read MD

    이 패닉은 다음 조건이 있을 경우 발생합니다.

  • 추가 DCU가 호스트에 지정되었습니다.

  • 호스트에 지정된 일부 하드웨어를 포함하지 않는 이전에 저장된 SP 구성을 사용하여 호스트가 시작되었습니다.

ldm add-vcpu 작업의 대상 도메인이 패닉이 발생하는 도메인입니다. 재부트하면 도메인이 추가 CPU로 복구됩니다.

임시해결책: 호스트에 지정된 것보다 적은 수의 하드웨어 리소스로 생성된 구성을 사용하지 마십시오.

문제를 피하려면 문제 설명에 설명된 대로 CPU를 추가하지 마십시오. 또는 다음 단계를 수행합니다.

  1. DCU가 추가된 후 새로운 SP 구성을 생성합니다.

    예를 들어, 다음 명령은 new-config-more-dcus라는 구성을 만듭니다.

    primary# ldm add-config new-config-more-dcus
  2. 도메인을 종료합니다.

  3. 호스트를 중지합니다.

    -> stop /HOST
  4. 호스트를 시작합니다.

    -> start /HOST
ixgbevf primary 도메인을 재부트할 때 SR-IOV 도메인의 장치가 사용 안함으로 설정될 수 있음

버그 ID 16224353: 주 도메인을 재부트한 후 primary 도메인의 ixgbevf 인스턴스가 작동하지 않을 수 있습니다.

임시해결책: 없음.

Oracle Solaris 10 1/13 primary 도메인의 재부트로 IP 주소가 가상 기능 인터페이스에 자동으로 연결 또는 지정되지 않을 수 있음

버그 ID 16219069: Oracle Solaris 10 1/13 OS를 실행하는 primary 도메인에서 /etc/hostname.vf-interface 파일을 기준으로 IP 주소가 가상 기능 인터페이스에 자동으로 연결 또는 지정되지 않을 수 있습니다.

이 문제는 primary 도메인에서 Oracle Solaris 10 1/13 OS를 실행하는 SPARC T3, SPARC T4 또는 SPARC T5 시스템을 부트하거나 재부트할 때 발생합니다. 이 문제는 온보드 물리적 기능 및 추가 장착 물리적 기능 모두에서 만들어진 가상 기능에 영향을 줍니다. 이 문제는 Logical Domains 게스트 도메인 이미지를 부트할 경우에는 발생하지 않습니다.

Oracle Solaris 10만 해당: 재부트 또는 종료 중 primary 도메인에서 mutex_enter: bad mutex 패닉 발생

 

버그 ID 16080855: primary 도메인의 재부트 또는 종료 중 primary 도메인에서 다음과 유사한 패닉 메시지와 함께 커널 패닉이 발생할 수 있습니다.

panic[cpu2]/thread=c40043b818a0: mutex_enter: bad mutex, lp=c4005fa01c88
owner=c4005f70aa80 thread=c40043b818a0

000002a1075c3630 ldc:ldc_mem_rdwr_cookie+20 (c4005fa01c80,
c4004e2c2000,2a1075c37c8, 6c80000, 1, 0)
%l0-3: 00000000001356a4 0000000000136800 0000000000000380
00000000000002ff
%l4-7: 00000000001ad3f8 0000000000000004 00000000ffbffb9c
0000c4005fa01c88
000002a1075c3710 vldc:i_vldc_ioctl_write_cookie+a4 (c4004c400030,
380,ffbff898, 100003, 0, 70233400)
%l0-3: 0000000006c80000 0000000000156dc8 0000000000000380
0000000000100003
%l4-7: 00000000702337b0 000002a1075c37c8 0000000000040000
0000000000000000
000002a1075c37f0 vldc:vldc_ioctl+1a4 (3101, c4004c400030,
ffbff898,c4004c400000, c4004c438030, 0)
%l0-3: 0000000000100003 0000000000000000 000000007b340400
0000c4004c438030
%l4-7: 0000c4004c400030 0000000000000000 0000000000000000
0000000000000000
000002a1075c38a0 genunix:fop_ioctl+d0 (c4004d327800, 0, ffbff898,
100003,c4004384f718, 2a1075c3acc)
%l0-3: 0000000000003103 0000000000100003 000000000133ce94
0000c4002352a480
%l4-7: 0000000000000000 0000000000000002 00000000000000c0
0000000000000000
000002a1075c3970 genunix:ioctl+16c (3, 3103, ffbff898, 3, 134d50, 0)
%l0-3: 0000c40040e00a50 000000000000c6d3 0000000000000003
0000030000002000
%l4-7: 0000000000000003 0000000000000004 0000000000000000
0000000000000000

복구: primary 도메인이 재부트하도록 허용합니다. 충돌 발생 후 primary 도메인이 재부트하지 않도록 구성된 경우 primary 도메인을 수동으로 부트합니다.

SPARC M5-32 및 SPARC M6-32: LSI-SAS 컨트롤러가 SR-IOV로 잘못 내보내짐

버그 ID 16071170: SPARC M5-32 또는 SPARC M6-32 시스템에서 내부 SAS 컨트롤러가 SR-IOV를 지원하지 않더라도 이러한 카드가 SR-IOV 사용 컨트롤러로 내보내집니다.

이러한 카드에서 물리적 기능을 만들려고 시도하면 Oracle VM Server for SPARC 로그에 다음 메시지가 표시됩니다.

Dec 11 04:27:54 warning: Dropping pf
pci@d00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@d80/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@c00/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@e00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver

시스템에는 SPARC M5-32 및 SPARC M6-32 어셈블리의 한 IOU에 하나씩 4개의 LSI SAS 컨트롤러 포트가 있습니다. 이 오류는 각 포트에 대해 보고됩니다.

해결 방법: 이러한 메시지는 무시할 수 있습니다. 이러한 메시지에서는 시스템의 LSI-SAS 컨트롤러 장치에 SR-IOV 기능이 있지만, 이 하드웨어에 대해서는 SR-IOV가 지원되지 않음을 나타낼 뿐입니다.

SPARC T5-8: 일부 ldm List 명령에서 업타임 데이터에 0 값이 표시됨

버그 ID 16068376: 약 128개 도메인으로 구성된 T5-8에서 ldm list와 같은 일부 ldm 명령에서 모든 도메인의 업타임으로 0초를 표시할 수 있습니다.

임시해결책: 도메인에 로그인하고 uptime 명령을 사용하여 도메인의 업타임을 확인합니다.

ldm이 게스트 도메인에서 결함이 있는 코어를 비우지 못함

버그 ID 15962837: 칩 레벨 결함이 발생할 때 코어 비우기가 완료되지 않습니다. 코어 결함에 뒤이어 비우기는 예상한 대로 작동하지만, 전체 CMP 노드를 회수하려고 시도할 때 칩 레벨 결함이 완료되지 않습니다.

임시해결책: 없음. 칩 레벨 결함을 진단할 때 칩 교체 일정을 잡습니다.

Oracle Solaris 10: 4GB 미만으로 메모리를 줄이는 경우 메모리 DR 작업 중단

버그 ID 15942036: 메모리 DR 작업을 수행하여 메모리를 4GB 미만으로 줄이는 경우 작업이 영구적으로 중단될 수 있습니다. 해당 도메인에서 ldm cancel-op memdr 명령을 실행하는 경우 잘못된 메시지가 표시됩니다.

The memory removal operation has completed. You cannot cancel this operation.

메시지가 표시되어도 메모리 DR 작업이 중단되며 해당 게스트 도메인에서 다른 ldmd 작업을 수행할 수 없습니다.

임시해결책: 4GB 미만의 도메인에서 메모리를 줄이려고 시도하지 마십시오. 이미 이를 수행한 경우 ldm stop -f 명령을 실행하거나 도메인에 로그인하여 재부트합니다.

가상 CPU 수가 매우 많은 CPU DR은 실패로 보일 수 있음

 

버그 ID 15826354: 대량의 CPU가 관련된 CPU 동적 재구성(DR)으로 인해 ldmd 데몬이 실패를 반환합니다. ldmd 시간이 초과되더라도 DR 작업은 백그라운드에서 계속되고 결국 성공합니다. 그렇지만 ldmd는 더 이상 결과 도메인과 맞추어지지 않고 이후의 DR 작업은 허용되지 않을 수 있습니다.

예를 들면 다음과 같습니다.

# ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    7     20G      2.7%  0.4%  1h 41m
ldg0             active     -n----  5000    761   16G       75%   51%  6m

# ldm rm-vcpu 760 ldg0
Request to remove cpu(s) sent, but no valid response received
VCPU(s) will remain allocated to the domain, but might
not be available to the guest OS
Resource removal failed
 
# ldm set-vcpu 1 ldg0
Busy executing earlier command; please try again later.
Unable to remove the requested VCPUs from domain ldg0
Resource modification failed
 
# ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    7     20G      0.9%  0.1%  1h 45m
ldg0             active     -n----  5000    761   16G      100%  0.0%  10m

임시해결책: 몇 분 정도 기다린 후 ldm set-vcpu 명령을 다시 실행합니다.

# ldm set-vcpu 1 ldg0
# ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    7     20G      0.9%  0.1%  1h 50m
ldg0             active     -n----  5000    1     16G       52%  0.0%  15m

760은 권장 최대값을 초과합니다.

SPARC T4-4: 게스트 도메인을 바인드할 수 없음

 

버그 ID 15825330: Oracle VM Server for SPARC가 단일 프로세서 보드만 있는 일부 SPARC T4-4 구성에서 시작 시 중단됩니다.

임시해결책: 프로세서 보드가 항상 프로세서 0 및 1 슬롯을 차지하는지 확인합니다. 이러한 구성에서 시스템을 다시 시작하면 Oracle VM Server for SPARC 소프트웨어를 시작할 수 있습니다.

threading 등록 정보 값을 max-throughput에서 max-ipc로 변경할 때 게스트 도메인 패닉 발생

버그 ID 15821246: Oracle Solaris 11.1 OS를 실행하는 시스템에서 마이그레이션된 도메인의 threading 등록 정보 값을 max-ipc에서 max-throughput으로 변경하면 게스트 도메인에 패닉이 발생할 수 있습니다.

임시해결책: 재부트될 때까지 마이그레이션된 게스트 도메인의 threading 상태를 변경하지 마십시오.

두 개의 활성 직접 I/O 도메인이 있는 컨트롤 도메인이 재부트 시 중단됨

버그 ID 15820741: 직접 I/O 구성의 도메인이 2개가 있는 Oracle Solaris 11.1 시스템에서 컨트롤 도메인을 재부트할 때 중단될 수 있습니다.

복구: 재부트 중단에서 복구하려면 다음 명령을 SP에 실행하여 컨트롤 도메인을 재설정하십시오.

-> reset -f /HOST/domain/control
메모리 DR 추가가 부분적으로 성공한 경우 오류 메시지가 표시되지 않음

버그 ID 15812823: 메모리 사용 가능 공간이 적은 경우 크기 때문에 일부 메모리 블록만 메모리 DR 작업의 일부로 사용할 수 있습니다. 하지만 이러한 메모리 블록은 사용 가능한 메모리 양에 포함됩니다. 이로 인해 예상했던 것보다 적은 양의 메모리가 도메인에 추가될 수 있습니다. 이 상황이 발생하는 경우 오류 메시지가 표시되지 않습니다.

임시해결책: 없음.

XML 파일로부터 PCIe 가상 기능이 포함된 도메인을 다시 만드는 작업이 실패함

버그 ID 15783851: 잘못된 가상 기능 제약 조건을 나타내는 XML 파일로부터 구성을 다시 만들려고 시도하면 문제가 발생할 수 있습니다.

이 문제는 PCIe 가상 기능을 포함하는 도메인의 구성을 저장하기 위해 ldm list-constraints -x 명령을 사용할 때 발생합니다.

나중에 ldm add-domain -i 명령을 사용하여 도메인을 다시 만들면 원본 가상 기능이 존재하지 않고, 다음 오류 메시지와 함께 도메인 바인드 시도가 실패합니다.

No free matching PCIe device...

누락된 가상 기능을 만들 경우에도, 가상 기능이 ldm add-domain 명령에서 PCIe 장치로 잘못 분류되기 때문에 동일한 오류 메시지와 함께 다른 도메인 바인드 시도가 실패합니다.

해결 방법: 다음 단계를 수행합니다.

  1. ldm list-io 명령을 사용하여 가상 기능에 대한 정보를 저장합니다.

  2. ldm rm-dom 명령을 사용하여 영향을 받는 각 도메인을 삭제합니다.

  3. ldm create-vf 명령을 사용하여 필요한 모든 가상 기능을 만듭니다.

  4. ldm 명령을 사용하여 도메인을 재구축합니다.

ldm add-io 명령을 사용하여 각 가상 기능을 추가하면 가상 기능 장치로 올바르게 분류되므로 도메인을 바인드할 수 있습니다.

가상 기능을 사용하는 도메인 구성을 재구축하는 방법은 ldm init-system 명령이 물리적 I/O 변경을 수행한 도메인 구성을 올바르게 복원하지 못함을 참조하십시오.

전체 코어 사용에서 부분 코어 사용으로 컨트롤 도메인을 변경할 때 잘못된 오류 메시지가 발생함

버그 ID 15783608: 물리적으로 제한된 코어 사용에서 제약이 없는 CPU 리소스 사용으로 컨트롤 도메인을 변경할 경우 다음과 같은 관계없는 메시지가 표시될 수 있습니다.

Whole-core partitioning has been removed from domain primary,because
dynamic reconfiguration has failed and the domain is now configured
with a partial CPU core.

해결 방법: 이 메시지는 무시할 수 있습니다.

ldm init-system 명령이 물리적 I/O 변경을 수행한 도메인 구성을 올바르게 복원하지 못함

버그 ID 15783031: 직접 I/O 또는 SR-IOV 작업이 사용된 도메인 구성을 복원하기 위해 ldm init-system 명령을 사용할 때 문제를 겪을 수 있습니다.

    다음 작업 중 하나 이상이 복원할 구성에 수행된 경우 문제가 발생합니다.

  • primary 도메인이 소유한 슬롯을 버스에서 제거했습니다.

  • primary 도메인이 소유한 물리적 기능으로부터 가상 기능을 만들었습니다.

  • 가상 기능이 primary 도메인이나 다른 게스트 도메인(또는 둘 다)에 지정되었습니다.

  • 루트 컴플렉스가 primary 도메인에서 제거되어 게스트 도메인에 지정되었습니다. 해당 루트 컴플렉스는 추후 I/O 가상화 작업의 기초로 사용됩니다.

    다시 말해서, 비-primary 루트 도메인을 만들어서 이전 작업 중 하나를 수행했습니다.

시스템이 이전 작업 중 아무것도 수행되지 않은 상태인지 확인하려면 Using the ldm init-system Command to Restore Domains on Which Physical I/O Changes Have Been Made를 참조하십시오.

여러 도메인을 동시에 수정하려고 시도하면 Logical Domains Manager가 중단되고 다시 시작될 수 있음

버그 ID 15782994: 여러 도메인의 구성에 영향을 주는 작업을 시도하면 Logical Domains Manager가 중단되고 다시 시작될 수 있습니다. 이 문제는 가상 네트워킹 구성과 관련된 항목을 변경하려고 시도할 때 및 동일한 가상 스위치에서 여러 가상 네트워크 장치가 여러 도메인에 걸쳐 존재하는 경우 발생할 수 있습니다. 일반적으로 이 문제는 동일한 가상 스위치에 가상 네트워크 장치가 연결되어 있고 inter-vnet-link 등록 정보가 사용으로 설정된(기본 동작) 약 90개 이상의 도메인에서 발생합니다. 이 증상을 확인하기 위해서는 /var/opt/SUNWldm 디렉토리의 ldmd 로그 파일 및 core 파일에서 다음 메시지를 찾아 보십시오.

Frag alloc for 'domain-name'/MD memory of size 0x80000 failed

해결 방법: 동일한 가상 스위치에 연결된 여러 가상 네트워크 장치를 만들지 마십시오. 이렇게 해야 할 경우에는 가상 스위치에서 inter-vnet-link 등록 정보를 off로 설정하십시오. 이 옵션은 게스트 도메인 간 네트워크 성능에 부정적인 영향을 줄 수 있습니다.

컨트롤 도메인이 시스템에서 가장 낮은 코어를 요구함

버그 ID 15778392: 컨트롤 도메인이 시스템에서 가장 낮은 코어를 요구합니다. 따라서 코어 ID 0이 가장 낮은 코어인 경우, 전체 코어 제약 조건을 컨트롤 도메인에 적용하려는 경우 이 코어를 다른 도메인과 공유할 수 없습니다.

예를 들어, 시스템에서 가장 낮은 코어가 코어 ID 0인 경우 컨트롤 도메인이 다음 출력과 비슷하게 표시됩니다.

# ldm ls -o cpu primary
NAME
primary

VCPU
VID    PID    CID    UTIL STRAND
0      0      0      0.4%   100%
1      1      0      0.2%   100%
2      2      0      0.1%   100%
3      3      0      0.2%   100%
4      4      0      0.3%   100%
5      5      0      0.2%   100%
6      6      0      0.1%   100%
7      7      0      0.1%   100%
Oracle Solaris 11: DRM 도용으로 Oracle Solaris DR 오류가 보고되고 재시도됨

버그 ID 15775668: 정책 우선순위가 높은 도메인이 정책 우선순위가 낮은 도메인에서 가상 CPU 리소스를 갈취할 수 있습니다. 이러한 “도용” 동작이 진행 중일 때는 ldmd 로그에 다음과 같은 경고 메시지가 10초 간격으로 표시될 수 있습니다.

warning: Unable to unconfigure CPUs out of guest domain-name

해결 방법: 이러한 잘못된 메시지는 무시할 수 있습니다.

도메인에 지정할 수 있는 최대 가상 기능 수 제한

버그 ID 15775637: I/O 도메인에는 루트 컴플렉스당 사용할 수 있는 인터럽트 리소스 수에 대한 제한이 있습니다.

SPARC T3 및 SPARC T4 시스템에서 이 제한은 약 63 MSI/X 벡터입니다. 각 igb 가상 기능은 세 개의 인터럽트를 사용합니다. ixgbe 가상 기능은 두 개의 인터럽트를 사용합니다.

많은 수의 가상 기능을 한 도메인에 지정할 경우 도메인에서 이러한 장치를 지원하는 데 필요한 시스템 리소스가 부족해집니다. 다음과 유사한 메시지가 표시될 수 있습니다.

WARNING: ixgbevf32: interrupt pool too full.
WARNING: ddi_intr_alloc: cannot fit into interrupt pool
바인딩되는 동안 게스트 도메인 콘솔에 연결하려고 하면 입력이 차단될 수 있음

버그 ID 15771384: 도메인의 게스트 콘솔이 바인드된 시간 이전과 도중에 반복해서 콘솔에 연결하려고 시도하면 콘솔이 고정될 수 있습니다. 예를 들어, 도메인을 시스템으로 마이그레이션하는 도중에 콘솔을 잡기 위해 자동화된 스크립트를 사용할 경우 이 문제가 발생할 수 있습니다.

임시해결책: 콘솔의 고정을 해제하려면 도메인의 콘솔 집중기를 호스트하는 도메인(대개 컨트롤 도메인)에서 다음 명령을 수행합니다.

primary# svcadm disable vntsd
primary# svcadm enable vntsd
모든 가상 기능을 삭제하고 슬롯을 루트 도메인으로 반환해도 루트 컴플렉스 리소스가 복원되지 않음

버그 ID 15765858: 모든 가상 기능을 삭제하고 슬롯을 루트 도메인에 반환한 후에도 루트 컴플렉스의 리소스가 복원되지 않습니다.

임시해결책: 특정 PCIe 버스에 대해 iov 옵션을 off로 설정합니다.

primary# ldm start-reconf primary
primary# ldm set-io iov=off pci_0
PCIe-PCI 브리지가 포함된 PCIe 카드의 ldm remove-io가 허용되지 않아야 함

버그 ID 15761509:support document에 나열된 DIO(직접 I/O) 기능을 지원하는 PCIe 카드만 사용하십시오.

임시해결책: ldm add-io 명령을 사용하여 카드를 primary 도메인에 다시 추가합니다.

ldm start 명령 후 즉시 실행할 경우 ldm stop 명령이 실패할 수 있음

버그 ID 15759601: ldm start 명령 후에 즉시 ldm stop 명령을 실행하면 다음 오류와 함께 ldm stop 명령이 실패할 수 있습니다.

LDom domain-name stop notification failed

해결 방법: ldm stop 명령을 다시 실행합니다.

init-system이 저장된 XML 파일에서 게스트 도메인의 이름이 지정된 코어 제약 조건을 복원하지 않음

버그 ID 15758883: 저장된 XML 파일에서 게스트 도메인의 이름이 지정된 CPU 코어 제약 조건을 복원하기 위한 ldm init-system 명령이 실패합니다.

해결 방법: 다음 단계를 수행합니다.

  1. 기본 도메인에 대한 XML 파일을 만듭니다.

    # ldm ls-constraints -x primary > primary.xml
  2. 게스트 도메인에 대한 XML 파일을 만듭니다.

    # ldm ls-constraints -x domain-name[,domain-name][,...] > guest.xml
  3. 시스템을 껐다 켜고 출하 시 기본 구성으로 부트합니다.

  4. primary 도메인에 XML 구성을 적용합니다.

    # ldm init-system -r -i primary.xml
  5. 게스트 도메인에 XML 구성을 적용합니다.

    # ldm init-system -f -i guest.xml
지정된 가상 기능 수가 매우 많은 primary 도메인을 재부트할 때 시스템 패닉이 발생함

버그 ID 15750727: 매우 많은 수의 가상 기능이 지정된 primary 도메인을 재부트하면 시스템 패닉이 발생할 수 있습니다.

해결 방법: 다음 해결 방법 중 하나를 수행합니다.

  • 가상 기능 수를 줄여서 실패한 가상 기능 수를 줄입니다. 이렇게 변경하면 칩 응답성이 향상될 수 있습니다.

  • 시스템에서 모든 ixgbe 가상 기능에 대해 기본적으로 IRM 풀이 하나만 만들어지므로 ixgbe 가상 기능에 대해 IRM(Interrupt Resource Management) 풀을 더 많이 만듭니다.

부분 코어 primary가 전체 코어 DR 변환을 허용하지 않음

버그 ID 15748348: primary 도메인이 가장 낮은 물리적 코어(일반적으로 0)를 다른 도메인과 공유할 경우, 전체 코어 제약 조건을 primary 도메인에 대해 설정하려는 시도가 실패합니다.

해결 방법: 다음 단계를 수행합니다.

  1. 도메인에서 공유되는 가장 낮은 바인드된 코어를 확인합니다.

    # ldm list -o cpu
  2. primary 도메인이 아니라 모든 도메인에서 가장 낮은 코어의 모든 CPU 스레드를 바인드 해제합니다.

    그 결과 가장 낮은 코어의 CPU 스레드가 공유되지 않으며 primary 도메인에 대한 바인딩에 사용할 수 있도록 확보됩니다.

  3. 다음 중 하나를 수행하여 전체 코어 제약 조건을 설정합니다.

    • CPU 스레드를 primary 도메인에 바인드하고, ldm set-vcpu -c 명령을 사용하여 전체 코어 제약 조건을 설정합니다.

    • ldm set-core 명령을 사용하여 CPU 스레드를 바인드하고, 단일 단계로 전체 코어 제약 조건을 설정합니다.

ldm list-io 명령이 부트 후 UNK 또는 INV 상태를 표시함

버그 ID 15738561: primary 도메인을 부트한 후 즉시 ldm list-io 명령을 실행할 경우 명령이 PCIe 슬롯 및 SR-IOV 가상 기능에 대해 UNK 또는 INV 상태를 표시할 수 있습니다. 이 문제는 Oracle Solaris OS에서 Logical Domains 에이전트 응답 지연으로 인해 발생합니다.

이 문제는 일부 시스템에서만 보고되었습니다.

해결 방법: PCIe 슬롯 및 가상 기능의 상태는 Logical Domains 에이전트에서 정보가 수신된 후 자동으로 업데이트됩니다.

도메인에서 많은 수의 CPU를 제거할 경우 실패할 수 있음

    다음 버그는 도메인에서 많은 수의 CPU를 제거할 때 발생할 수 있는 오류에 대해 설명합니다.

  • 컨트롤 도메인

    버그 ID 15677358: 컨트롤 도메인(primary 도메인이라고도 함)에서 100개 이상의 CPU를 제거하기 위해 동적 재구성이 아닌 지연된 재구성을 사용합니다. 다음 단계를 수행합니다.

    1. ldm start-reconf primary 명령을 사용하여 컨트롤 도메인을 지연된 재구성 모드로 설정합니다.

    2. 원하는 개수의 CPU 리소스를 제거합니다.

      CPU 리소스를 제거할 때 실수를 한 경우 컨트롤 도메인이 지연된 재구성 모드에 있는 동안 다른 CPU 제거 요청을 시도하지 마십시오. 그렇지 않으면 명령이 실패합니다(Oracle VM Server for SPARC 3.2 관리 설명서 의 지연된 재구성 중 하나의 CPU 구성 작업만 수행할 수 있음 참조). 대신 ldm cancel-reconf 명령을 사용하여 지연된 재구성 작업을 실행 취소하고 처음부터 다시 시작합니다.

    3. 컨트롤 도메인을 재부트합니다.

  • 게스트 도메인

    버그 ID 15726205: 게스트 도메인에서 많은 수의 CPU를 제거하려고 시도하면 다음과 같은 오류 메시지가 표시될 수 있습니다.

    Request to remove cpu(s) sent, but no valid response received
    VCPU(s) will remain allocated to the domain, but might
    not be available to the guest OS
    Resource modification failed

    해결 방법: 도메인에서 100개 이상의 CPU를 제거하기 전에 게스트 도메인을 중지하십시오.

Oracle Solaris 핫 플러그 작업을 사용하여 PCIe 끝점 장치를 제거할 수 없음

버그 ID 15721872: ldm rm-io 명령을 사용하여 primary 도메인에서 장치를 제거한 후에는 Oracle Solaris 핫 플러그 작업을 사용하여 PCIe 끝점 장치를 작업 중 제거할 수 없습니다. PCIe 끝점 장치 교체 또는 제거에 대한 자세한 내용은 Oracle VM Server for SPARC 3.2 관리 설명서 의 PCIe 하드웨어 변경를 참조하십시오.

시스템 로그 서비스가 온라인으로 설정되지 않으면 Logical Domains 에이전트 서비스가 온라인으로 설정되지 않음

버그 ID 15707426: 시스템 로그 서비스 svc:/system/system-log가 시작하지 않고 온라인으로 설정되지 않으면 Logical Domains 에이전트 서비스가 온라인으로 설정되지 않습니다. Logical Domains 에이전트 서비스가 온라인이 아니면 virtinfo, ldm add-vsw, ldm add-vdsdevldm list-io 명령이 예상한 대로 작동하지 않을 수 있습니다.

해결 방법: svc:/ldoms/agents:default 서비스가 사용으로 설정되었고 온라인인지 확인합니다.

# svcs -l svc:/ldoms/agents:default

svc:/ldoms/agents:default 서비스가 오프라인이면 서비스가 사용으로 설정되었고 모든 종속 서비스가 온라인인지 확인합니다.

DRM 및 ldm list 출력에 실제 게스트 도메인에 있는 것과 다른 개수의 가상 CPU가 표시됨

버그 ID 15702475: CPU 수가 크게 줄어든 후 로드된 도메인의 DRM 정책이 만료되면 No response 메시지가 Oracle VM Server for SPARC 로그에 표시될 수 있습니다. ldm list 출력에는 psrinfo 출력에 표시된 것보다 많은 CPU 리소스가 도메인에 할당된 것으로 표시됩니다.

해결 방법: ldm set-vcpu 명령을 사용하여 psrinfo 출력에 표시된 값으로 도메인의 CPU 수를 재설정합니다.

DR 중 가상 CPU 시간 초과 오류가 발생함

버그 ID 15701258: 가상 CPU 수가 100개 이상이고 일부 암호화 단위를 포함하는 게스트 도메인에서 ldm set-vcpu 1 명령을 실행할 경우 가상 CPU를 제거하지 못합니다. DR 시간 초과 오류로 인해 가상 CPU가 제거되지 않습니다. 암호화 단위는 성공적으로 제거됩니다.

해결 방법: ldm rm-vcpu 명령을 사용하여 가상 CPU 중 하나만 제외하고 모두 게스트 도메인에서 제거합니다. 가상 CPU를 한 번에 100개 이상은 제거하지 마십시오.

pkgadd/var/svc/manifest/platform/sun4v/ldmd.xml에 ACL 항목을 설정하지 못함

버그 ID 15668881: pkgadd 명령을 사용하여 Sun ZFS Storage Appliance에서 NFS를 통해 내보낸 디렉토리에서 SUNWldm.v 패키지를 설치할 경우, 다음과 같은 오류 메시지가 표시될 수 있습니다.

cp: failed to set acl entries on /var/svc/manifest/platform/sun4v/ldmd.xml

해결 방법: 이 메시지를 무시합니다.

SPARC T3-1: 다중 직접 I/O 경로를 통해 액세스할 수 있는 디스크의 문제

버그 ID 15668368: 두 개의 서로 다른 직접 I/O 장치에서 액세스할 수 있는 이중 포트 디스크에 SPARC T3-1 시스템을 설치할 수 있습니다. 이 경우 이러한 두 직접 I/O 장치를 서로 다른 도메인에 지정하면 디스크가 두 도메인 모두에서 사용되어 디스크의 실제 사용에 따라 서로의 성능에 영향을 줄 수 있습니다.

해결 방법: 동일 디스크 세트에 액세스할 수 있는 직접 I/O 장치를 서로 다른 I/O 도메인에 지정하지 마십시오. SPARC T3-1 시스템에 이중 포트 디스크가 있는지 확인하려면 SP에서 다음 명령을 실행합니다.

-> show /SYS/SASBP

출력에 다음 fru_description 값이 포함될 경우 해당 시스템에 이중 포트 디스크가 포함된 것입니다.

fru_description = BD,SAS2,16DSK,LOUISE

이중 디스크가 시스템에 있는 것으로 확인되면 다음 직접 I/O 장치가 모두 동일한 도메인에 항상 지정되는지 확인합니다.

pci@400/pci@1/pci@0/pci@4  /SYS/MB/SASHBA0
pci@400/pci@2/pci@0/pci@4  /SYS/MB/SASHBA1
Oracle Solaris 10을 실행하는 게스트 도메인: 다중 플럼된 NIU nxge 인스턴스를 사용한 메모리 DR 제거 작업이 무기한 중단되고 완료되지 않을 수 있음

버그 ID 15667770: 다중 NIU nxge 인스턴스가 도메인에 플럼된 경우, 도메인에서 메모리를 제거하기 위해 사용되는 ldm rm-memldm set-mem 명령이 완료되지 않을 수 있습니다. 메모리 제거 작업 중 문제가 발생했는지 확인하려면 ldm list -o status 명령으로 작업 진행 상태를 모니터합니다. 진행 백분율이 몇 분 동안 그대로 있으면 이 문제가 발생한 것으로 간주할 수 있습니다.

임시해결책: ldm rm-mem 또는 ldm set-mem 명령을 취소하고 충분한 양의 메모리가 제거되었는지 확인합니다. 그렇지 않으면 소량의 메모리를 제거하기 위한 이후 메모리 제거 명령이 성공적으로 완료될 수 있습니다.

    문제가 primary 도메인에서 발생한 경우 다음을 수행합니다.

  1. 주 도메인에서 지연된 재구성 작업을 시작합니다.

    # ldm start-reconf primary
  2. 원하는 양의 메모리를 도메인에 지정합니다.

  3. primary 도메인을 재부트합니다.

문제가 다른 도메인에서 발생한 경우 도메인에 지정되는 메모리 양을 조정하기 전에 도메인을 중지합니다.

마스터-슬레이브 관계의 도메인에서 ldm stop -a 명령을 사용하면 슬레이브에 stopping 플래그가 설정됨

버그 ID 15664666: 재설정 종속성을 만들 경우 ldm stop -a 명령으로 인해 도메인에서 재설정 종속성이 중지되는 대신 다시 시작될 수 있습니다.

해결 방법: 먼저 마스터 도메인에 대해 ldm stop 명령을 실행합니다. 그런 다음 슬레이브 도메인에 대해 ldm stop 명령을 실행합니다. 슬레이브 도메인의 초기 중지로 인해 오류가 발생하면 슬레이브 도메인에 대해 ldm stop -f 명령을 실행합니다.

사용 중인 MAC 주소를 다시 지정할 수 있음

버그 ID 15655199: 일부 경우에는 사용 중인 MAC 주소가 감지되지 않아서 다시 잘못 지정됩니다.

해결 방법: 사용 중인 MAC 주소를 다시 지정할 수 없도록 수동으로 확인합니다.

ldmconfig가 SP에 도메인 구성을 만들 수 없음

버그 ID 15654965: ldmconfig 스크립트가 SP(서비스 프로세서)에서 저장된 도메인 구성을 올바르게 만들 수 없습니다.

    임시해결책: ldmconfig 스크립트가 완료되고 도메인이 재부트된 다음 시스템 전원을 껐다 켜지 마십시오. 대신 다음과 같은 수동 단계를 수행합니다.

  1. 구성을 SP에 추가합니다.

    # ldm add-spconfig new-config-name
  2. SP에서 primary-with-clients 구성을 제거합니다.

    # ldm rm-spconfig primary-with-clients
  3. 시스템 전원을 껐다 켭니다.

시스템 전원을 껐다 켜기 전에 이러한 단계를 수행하지 않으면 primary-with-client 구성으로 인해 도메인이 비활성 상태가 됩니다. 이 경우 각 도메인을 수동으로 바인드하고 ldm start -a 명령을 실행하여 도메인을 시작합니다. 게스트가 부트된 후 이 시퀀스를 반복하면 전원을 껐다 켠 후 게스트 도메인이 자동으로 부트될 수 있습니다.

일부 경우에 가상 네트워크 장치에서 MTU 값의 동적 재구성이 실패함

버그 ID 15631119: 컨트롤 도메인에서 가상 네트워크 장치의 MTU(최대 전송 단위)를 수정할 경우 지연된 재구성 작업이 트리거됩니다. 이후에 지연된 재구성을 취소하면 해당 장치의 MTU 값이 원래 값으로 복원되지 않습니다.

복구: ldm set-vnet 명령을 다시 실행하여 MTU를 원래 값으로 설정합니다. MTU 값을 재설정하면 컨트롤 도메인이 지연된 재구성 모드로 설정되어, 이를 취소해야 합니다. 결과 MTU 값은 이제 원래의 올바른 MTU 값입니다.

# ldm set-vnet mtu=orig-value vnet1 primary
# ldm cancel-op reconf primary
도메인에서 모든 암호화 단위를 동적으로 제거하면 SSH가 종료됨

버그 ID 15600969: 실행 중인 도메인에서 모든 하드웨어 암호화 단위가 동적으로 제거된 경우, 암호화 프레임워크가 소프트웨어 암호화 제공자로 효과적으로 전환되지 못한 것으로 표시되고 모든 ssh 연결을 종료합니다.

복구: 도메인에서 모든 암호화 단위가 제거된 후 ssh 연결을 다시 설정합니다.

해결 방법: 서버측의 /etc/ssh/sshd_config 파일에 UseOpenSSLEngine=no를 설정하고 svcadm restart ssh 명령을 실행합니다.

모든 ssh 연결에 더 이상 하드웨어 암호화 단위가 사용되지 않으며(따라서 연관된 성능 향상 이점도 얻을 수 없음), 암호화 단위가 제거될 때 ssh 연결이 해제되지 않습니다.

ldm list-io -l 출력에서 PCI Express 이중 10Gbit 이더넷 파이버 카드에 4개의 하위 장치가 표시됨

버그 ID 15597025: PCI Express 이중 10Gbit 이더넷 파이버 카드(X1027A-Z)가 설치된 시스템에서 ldm ls-io -l 명령을 실행할 경우 출력에 다음이 표시될 수 있습니다.

primary# ldm ls-io -l
...
pci@500/pci@0/pci@c PCIE5 OCC primary
network@0
network@0,1
ethernet
ethernet

이 이더넷 카드에 포트가 2개 뿐이지만 출력에서는 하위 장치가 4개 있는 것으로 표시됩니다. 이러한 비정상 동작은 카드에 포함된 PCI 기능이 4개이기 때문에 발생합니다. 이러한 기능 중 2개는 내부적으로 사용 안함으로 설정되어 있고 ldm ls-io -l 출력에서 ethernet으로 표시됩니다.

해결 방법: ldm ls-io -l 출력에서 ethernet 항목은 무시할 수 있습니다.

여러 도메인을 부트할 때 ldm 명령의 응답 속도가 느림

버그 ID 15572184: 여러 도메인을 부트할 때 ldm 명령의 응답 속도가 느려질 수 있습니다. 이 단계에서 ldm 명령을 실행하면 명령 실행이 중단된 것처럼 보일 수 있습니다. ldm 명령은 예상된 작업을 수행한 후에 결과를 반환합니다. 명령이 반환된 후에는 시스템이 ldm 명령에 정상적으로 응답합니다.

해결 방법: 여러 도메인을 동시에 부트하지 마십시오. 하지만 여러 도메인을 한 번에 부트해야 할 경우 시스템이 정상으로 돌아올 때까지 추가 ldm 명령을 실행하지 마십시오. 예를 들어, Sun SPARC Enterprise T5140 및 T5240 서버에서는 2분 정도 기다리고, Sun SPARC Enterprise T5440 서버 또는 Sun Netra T5440 서버에서는 4분 정도 기다리십시오.

Oracle Solaris 11: 자동 네트워크 인터페이스로 구성된 영역을 시작하지 못할 수 있음

버그 ID 15560811: Oracle Solaris 11에서 자동 네트워크 인터페이스(anet)로 구성된 영역이 Logical Domains 가상 네트워크 장치만 있는 도메인에서 시작되지 못할 수 있습니다.

  • 해결 방법 1: 게스트 도메인에 하나 이상의 물리적 네트워크 장치를 지정합니다. PCIe 버스 지정, DIO(직접 I/O) 또는 SR-IOV 기능을 사용하여 물리적 NIC를 도메인에 지정합니다.

  • 임시해결책 2: 영역 구성 요구 사항이 도메인 내에서만 영역 간 통신을 설정하는 것이면, etherstub 장치를 만듭니다. 가상 NIC가 etherstub 장치에 만들어지도록 영역 구성에서 etherstub 장치를 "하위 링크"로 사용합니다.

  • 해결 방법 3: 배타적 링크 지정을 사용하여 영역에 Logical Domains 가상 네트워크 장치를 지정합니다. 필요에 따라 도메인에 가상 네트워크 장치를 지정합니다. 또한 가상 네트워크 장치를 대량으로 만들 수 있도록 inter-vnet 링크를 사용 안함으로 설정하도록 선택할 수도 있습니다.

Oracle Solaris 10: 가상 네트워크 장치가 컨트롤 도메인에 올바르게 생성되지 않음

버그 ID 15560201: 일부 경우에 ifconfig는 사용자가 가상 네트워크 또는 가상 디스크 장치를 도메인에 추가한 후에도 장치가 존재하지 않는 것으로 표시할 수 있습니다. 이러한 상황은 /devices 항목을 만들지 않은 결과로 인해 발생할 수 있습니다.

정상 작업 중에는 이 문제가 발생하지 않아야 하지만 가상 네트워크 장치의 인스턴스 수가 /etc/path_to_inst 파일에 나열된 인스턴스 수와 일치하지 않을 경우 때때로 이 오류가 발생합니다.

예를 들면 다음과 같습니다.

# ifconfig vnet0 plumb
ifconfig: plumb: vnet0: no such interface

가상 장치의 인스턴스 수는 ldm list 출력에서 DEVICE 열 아래에 표시됩니다.

# ldm list -o network primary
NAME             
primary          

MAC
 00:14:4f:86:6a:64

VSW
 NAME         MAC               NET-DEV DEVICE   DEFAULT-VLAN-ID PVID VID MTU  MODE  
 primary-vsw0 00:14:4f:f9:86:f3 nxge0   switch@0 1               1        1500        

NETWORK
 NAME   SERVICE              DEVICE    MAC               MODE PVID VID MTU  
 vnet1  primary-vsw0@primary network@0 00:14:4f:f8:76:6d      1        1500

인스턴스 수(이전에 표시된 vnetvsw의 경우 모두 0)를 path_to_inst 파일의 인스턴스 수와 비교하여 개수가 일치하는지 확인할 수 있습니다.

# egrep '(vnet|vsw)' /etc/path_to_inst
"/virtual-devices@100/channel-devices@200/virtual-network-switch@0" 0 "vsw"
"/virtual-devices@100/channel-devices@200/network@0" 0 "vnet"

해결 방법: 인스턴스 수가 일치하지 않는 경우 가상 네트워크 또는 가상 스위치 장치를 제거합니다. 그런 후 id 등록 정보를 설정하여 필요한 인스턴스 수를 명시적으로 지정하여 다시 추가합니다.

또한 /etc/path_to_inst 파일을 수동으로 편집할 수도 있습니다. path_to_inst(4) 매뉴얼 페이지를 참조하십시오.


Caution

주의  - 충분한 고려 없이 /etc/path_to_inst를 변경해서는 안됩니다.


Logical Domains가 구성된 경우 새로 추가된 NIU/XAUI 어댑터가 호스트 OS에 표시되지 않음

버그 ID 15555509: Logical Domains가 시스템에 구성된 상태에서 또 다른 XAUI 네트워크 카드를 추가하면 시스템 전원을 껐다 켠 후 카드가 표시되지 않습니다.

복구: 새로 추가된 XAUI가 컨트롤 도메인에 표시되도록 하려면 다음 단계를 수행합니다.

  1. 컨트롤 도메인에서 더미 변수를 설정하고 지웁니다.

    다음 명령은 fix-xaui라는 더미 변수를 사용합니다.

    # ldm set-var fix-xaui=yes primary
    # ldm rm-var fix-xaui primary
  2. 수정된 구성을 SP에 저장하여 현재 구성을 바꿉니다.

    다음 명령은 구성 이름으로 config1을 사용합니다.

    # ldm rm-spconfig config1
    # ldm add-spconfig config1
  3. 컨트롤 도메인의 재구성 재부트를 수행합니다.

    # reboot -- -r

    이번에는 새로 제공되는 네트워크를 Logical Domains에서 사용할 수 있도록 구성할 수 있습니다.

e1000g에서 부트할 때 I/O 도메인 또는 게스트 도메인 패닉이 발생함

버그 ID 15543982: Sun Fire T5240과 같은 시스템에서 전용 PCI-E 루트 컴플렉스를 사용하여 최대 두 개의 도메인을 구성할 수 있습니다. 이러한 시스템에는 두 개의 UltraSPARC T2 Plus CPU와 두 개의 I/O 루트 컴플렉스가 포함됩니다.

pci@500pci@400은 시스템의 두 루트 컴플렉스입니다. primary 도메인은 항상 최소 하나 이상의 루트 컴플렉스를 포함합니다. 두번째 도메인은 지정되지 않은 또는 바인드 해제된 루트 컴플렉스로 구성될 수 있습니다.

    pci@400 패브릭(또는 리프)에는 온보드 e1000g 네트워크 카드가 포함됩니다. 다음 환경에서는 도메인 패닉이 발생할 수 있습니다.

  • 시스템이 pci@500을 포함하는 primary 도메인과 pci@400을 포함하는 보조 도메인으로 구성된 경우


    주 - 일부 블레이드의 경우 primary 도메인(시스템 디스크)이 기본적으로 pci@400 버스에 배치됩니다.
  • pci@400 패브릭의 e1000g 장치가 보조 도메인을 부트하는 데 사용되는 경우

주 도메인 이외의 도메인으로 구성된 경우 다음 네트워크 장치를 사용하지 마십시오.

/pci@400/pci@0/pci@c/network@0,1
/pci@400/pci@0/pci@c/network@0

이러한 조건이 충족될 경우 PCI-E 치명적인 오류와 함께 도메인 패닉이 발생합니다.

이러한 구성을 피하고, 구성을 사용하더라도 나열된 장치로부터 부트하지 마십시오.

시스템이 네트워크에 연결되지 않았고 NIS 클라이언트가 실행 중인 경우 Logical Domains Manager가 시작되지 않음

버그 ID 15518409: 시스템에서 네트워크를 구성하지 않았고 NIS(네트워크 정보 서비스) 클라이언트가 실행 중인 경우 Logical Domains Manager가 시스템에서 시작되지 않습니다.

해결 방법: 네트워크에 연결되지 않은 시스템에서 NIS 클라이언트를 사용 안함으로 설정합니다.

# svcadm disable nis/client
일부 경우에 Logical Domains 시스템에서 uadmin 1 0 명령을 실행하면 시스템이 OK 프롬프트로 돌아가지 않음

버그 ID 15511551: 일부 경우에 Logical Domains 시스템의 명령줄에서 uadmin 1 0 명령을 실행하면 이후 재설정 후에도 시스템이 ok 프롬프트로 돌아가지 않습니다. 이러한 잘못된 동작은 Logical Domains 변수 auto-reboot?true로 설정된 경우에만 표시됩니다. auto-reboot?false로 설정된 경우에는 예상된 동작이 발생합니다.

해결 방법: 대신 다음 명령을 사용합니다.

uadmin 2 0

또는 항상 auto-reboot?false로 설정하여 실행합니다.

Logical Domains Manager가 도메인을 종료하는 데 15분 이상 소요될 수 있음

버그 ID 15505014: 단일 CPU 구성에서 매우 많은 양의 메모리가 구성된 경우 도메인을 종료하거나 메모리를 지우는 데 15분 이상 소요될 수 있습니다. 종료 중 도메인의 CPU는 도메인에서 소유하는 모든 메모리를 지우는 데 사용됩니다. 구성의 균형이 맞지 않을 경우(예: 단일 CPU 도메인과 512GB 메모리) 스크러빙 작업을 완료하는 데 걸리는 시간이 상당히 오래 걸릴 수 있습니다. 이렇게 지연된 스크러빙 시간으로 인해 도메인을 종료하는 데 필요한 시간이 연장됩니다.

임시해결책: 큰 메모리 구성(100GB 이상)에 적어도 하나의 코어가 포함되는지 확인합니다.

SC 또는 SP 재설정 후 scadm 명령이 중단될 수 있음

 

버그 ID 15469227: 최소한 Oracle Solaris 10 5/08 OS를 실행하는 컨트롤 도메인에서 SC 재설정 후 scadm 명령이 중단될 수 있습니다. 시스템이 SC 재설정 후 연결을 올바르게 다시 설정할 수 없습니다.

복구: SC에서 연결을 다시 설정하도록 호스트를 재부트합니다.

공통 콘솔 그룹에 있을 경우 다중 도메인의 동시 넷 설치가 실패함

버그 ID 15453968: 공통 콘솔 그룹을 갖는 시스템에서 다중 게스트 도메인의 동시 넷 설치가 실패합니다.

해결 방법: 각각 고유한 콘솔 그룹을 갖는 게스트 도메인에서만 넷 설치를 수행합니다. 이 오류는 다중 넷 설치 도메인 간에 공통 콘솔 그룹이 공유되는 도메인에서만 표시됩니다.

DHCP를 사용하는 동일 네트워크에서 가상 네트워크가 너무 많은 게스트 도메인이 응답하지 않을 수 있음

버그 ID 15422900: DHCP(동적 호스트 구성 프로토콜)를 사용하는 동일 네트워크에서 게스트 도메인에 4개 이상의 가상 네트워크(vnet)를 구성할 경우 네트워크 트래픽을 실행하는 동안 게스트 도메인이 결국 응답하지 않을 수 있습니다.

해결 방법: ip_ire_min_bucket_cntip_ire_max_bucket_cnt를 더 큰 값으로 설정합니다(예: 인터페이스가 8개인 경우 32).

복구: 해당 게스트 도메인(domain-name)에서 ldm stop-domain domain-name 명령 및 ldm start-domain domain-name 명령을 차례로 실행합니다.

OpenBoot PROM 변수는 Logical Domains Manager가 실행 중일 때 eeprom 명령으로 수정할 수 없음

버그 ID 15387338: 이 문제는 Oracle VM Server for SPARC 3.2 관리 설명서 의 Logical Domains 변수 지속성에 요약되어 있으며 컨트롤 도메인에만 영향을 줍니다.

Logical Domains가 실행 중인 상태로 보안 키를 설정할 수 없음

버그 ID 15370442: Logical Domains 환경에서는 ickey(1M) 명령을 사용하여 Oracle Solaris OS 내에서 WAN(광대역 네트워크) 부트 키 설정이나 삭제를 지원하지 않습니다. 모든 ickey 작업은 다음 오류와 함께 실패합니다.

ickey: setkey: ioctl: I/O error

또한 컨트롤 도메인이 아닌 논리적 도메인에서 OpenBoot 펌웨어를 사용하여 설정된 WAN 부트 키는 도메인 재부트 시에 기억되지 않습니다. 이러한 도메인에서 OpenBoot 펌웨어에서 설정된 키는 일회용으로만 유효합니다.

ldm stop-domain 명령 동작이 혼동될 수 있음

버그 ID 15368170: 일부 경우에는 ldm stop-domain 명령의 동작이 혼동될 수 있습니다.

# ldm stop-domain -f domain-name

도메인이 커널 모듈 디버거, kmdb(1) 프롬프트에 있는 경우 ldm stop-domain 명령이 다음 오류 메시지와 함께 실패합니다.

LDom <domain-name> stop notification failed