Oracle® VM Server for SPARC 3.3 릴리스 노트

인쇄 보기 종료

업데이트 날짜: 2015년 10월
 
 

Oracle VM Server for SPARC 소프트웨어에 영향을 주는 버그

이 절에서는 이 버전의 소프트웨어를 사용할 때 발생할 수 있는 버그를 요약해서 보여 줍니다. 최근 버그가 먼저 설명됩니다. 가능한 경우 임시해결책 및 복구 절차가 지정됩니다.

Oracle VM Server for SPARC 3.3 소프트웨어에 영향을 주는 Oracle Solaris OS 버그

다음 Oracle Solaris OS 버그는 정규화된 Oracle Solaris OS 릴리스에서 수정되었습니다. 이러한 버그는 Oracle Solaris 10 OS 버전에 계속 존재할 수 있습니다. 이러한 문제를 방지하려면 버그 ID와 연관된 Oracle Solaris OS 버전 중 하나를 실행해야 합니다.

이 표에 나온 버그에 대한 세부정보를 확인하려면 버그 보고서를 검토하십시오.

표 1-1  해결된 Oracle Solaris OS 버그
버그 ID
버그 설명
Oracle Solaris OS 버전에서 해결됨
15707426
시스템 로그 서비스가 온라인으로 설정되지 않으면 Logical Domains 에이전트 서비스가 온라인으로 설정되지 않음
Oracle Solaris 11
패치 ID 147147-26 이상의 Oracle Solaris 10 1/13
15701258
DR 중 가상 CPU 시간 초과 오류가 발생함
Oracle Solaris 11
패치 ID 147147-26 이상의 Oracle Solaris 10 1/13
15560811
Oracle Solaris 11: 자동 네트워크 인터페이스로 구성된 영역을 시작하지 못할 수 있음
Oracle Solaris 11
15422900
DHCP를 사용하는 동일 네트워크에서 가상 네트워크가 너무 많은 게스트 도메인이 응답하지 않을 수 있음
Oracle Solaris 11

Oracle VM Server for SPARC 3.3 소프트웨어에 영향을 주는 버그

cfgadm configure 또는 cfgadm unconfigure 명령을 실행한 후 IOV 정보를 업데이트하는 데 4분 정도의 시간이 소요될 수 있음

버그 ID 21953704: cfgadm 명령을 실행한 후 ldm list-io 명령이 최신 IOV 정보를 즉시 표시하지 않을 수 있습니다. 업데이트된 정보를 사용할 수 있으려면 4분까지 기다려야 할 수도 있습니다.

임시해결책: 없음.

로케일이 C가 아닌 경우 ovmtcreate에서 잘못된 OVF 파일을 생성함

버그 ID 21780045: 로케일이 C 로케일이 아닌 경우(영어 이외의 로케일 환경) ovmtcreate 유틸리티가 OVF 파일에서 Version 정보에 대해 NULL 문자열을 생성합니다.

VersionFullVersion 등록 정보에 대한 값은 이 예에서 굵게 표시된 XML 라인과 같이 널입니다.

<ovf:VirtualSystem ovf:id="templates">
        <ovf:Info>Oracle VM Template</ovf:Info>
        <ovf:ProductSection ovf:class="com.oracle.ovmt">
                <ovf:Info>Oracle VM Template</ovf:Info>
                <ovf:Product>Oracle VM Template</ovf:Product>
                <ovf:Version></ovf:Version>
                <ovf:FullVersion></ovf:FullVersion>

ovmtdeploy 유틸리티가 C가 아닌 로케일 환경에서 ovmtcreate 유틸리티를 사용하여 만든 템플리트를 사용할 때 템플리트에 NULL 문자열이 포함되어 있으므로 Java 예외사항이 발생합니다.

# /opt/ovmtutils/bin/ovmtdeploy -d guest10 -o /export/home/ovm \
/export/home/templates.ova

Oracle Virtual Machine for SPARC Deployment Utility
ovmtdeploy Version
Copyright (c) 2014, 2015, Oracle and/or its affiliates. All rights reserved.

STAGE 1 - EXAMINING SYSTEM AND ENVIRONMENT
------------------------------------------
Checking user privilege
Performing platform & prerequisite checks
Checking for required services
Named resourced available

2 - ANALYZING ARCHIVE & RESOURCE REQUIREMENTS
---------------------------------------------------
Checking .ova format and contents
Validating archive configuration
Exception in thread "main" java.lang.NullPointerException
        at ovfparse.OvfParse.getTagValue(OvfParse.java:233)
        at ovfparse.VmProduct.<init>(VmProduct.java:33)
        at ovfparse.VmSys.<init>(VmSys.java:72)
        at ovfparse.OvfParse.parseOVFByDOM(OvfParse.java:371)
        at ovfparse.OvfParse.<init>(OvfParse.java:56)
        at ovmtdeploy.Ovmtdeploy.exec(Ovmtdeploy.java:1841)
        at ovmtdeploy.Ovmtdeploy.main(Ovmtdeploy.java:1946)

해결 방법: 다음 단계를 수행합니다.

  1. OVF 파일을 편집하여 버전 번호를 VersionFullVersion 등록 정보의 내용에 추가합니다.

  2. gtar 명령을 사용하여 ova 템플리트를 다시 아카이브합니다.

    예를 들면 다음과 같습니다.

    # /usr/bin/gtar -cf templates.ova templates.ovf templates.mf System.img.gz
  3. –k 옵션과 함께 ovmtdeploy 유틸리티를 실행하여 체크섬 확인을 건너뜁니다.

PCIe 카드를 교체한 후 ldm add-vsan이 실패함

버그 ID 21674282: 동일한 슬롯에서 PCIe 카드를 교체할 때 물리적 SCSI HBA 장치(/SYS)에 대한 별명을 지정하는 ldm add-vsan 명령이 실패할 수 있습니다.

임시해결책: 장치 이름 별명을 지정하지 마십시오. 대신 ldm add-vsan 명령에 전체 장치 경로 이름(/pci)을 지정하십시오.

서비스 도메인에 가상 디스크 서버가 여러 개 있는 경우 ovmtcreate가 실패함

버그 ID 21635033: 서비스 도메인에 가상 디스크 서버(vds)가 둘 이상 있는 경우 ovmtcreate 유틸리티는 서비스 도메인에서 첫번째 vds 인스턴스만 검사하므로 게스트 도메인에 대해 해당 유틸리티를 실행하면 실패할 수 있습니다.

    예를 들어 가상 디스크가 다음과 같이 구성된 경우 gdom3 도메인에 대해 ovmtcreate 유틸리티를 실행하면 실패합니다.

  • primary 도메인에 4개의 가상 디스크 서버(vds)가 있습니다.

  • gdom3 도메인의 가상 디스크에 해당하는 가상 디스크 서버 장치는 vds3과 연관됩니다.

다음 샘플 출력에서 굵게 표시된 라인은 vds0이 첫번째 가상 디스크 서버이며, gdom3 가상 디스크의 가상 디스크 서버 장치는 vds0이 아님을 보여줍니다.

primary# ldm list -l -p -o disk
VERSION 1.15

DOMAIN|name=primary|
VDS|name=vds0|nclients=1
|vol=vol0|opts=|dev=/export/home/ovm/gdom0.img|mpgroup=
VDS|name=vds1|nclients=1
|vol=vol0|opts=|dev=/export/home/ovm/gdom1.img|mpgroup=
VDS|name=vds2|nclients=1
|vol=vol0|opts=|dev=/export/home/ovm/gdom2.img|mpgroup=
VDS|name=cdrom|nclients=3
|vol=1|opts=|dev=/export/home/ovm/sol-113_1.iso|mpgroup=
|vol=2|opts=|dev=/export/home/ovm/sol-113_2.iso|mpgroup=
|vol=3|opts=|dev=/export/home/ovm/sol-113_3.iso|mpgroup=
|vol=4|opts=|dev=/export/home/ovm/sol-113_4.iso|mpgroup=
VDS|name=vds3|nclients=1
|vol=disk0|opts=|dev=/export/home/ovm/gdom3.img|mpgroup=
DOMAIN|name=gdom0|
VDISK|name=vdisk0|vol=vol0@vds0|timeout=|dev=disk@0|server=primary|mpgroup=|id=0
VDISK|name=cdrom|vol=1@cdrom|timeout=|dev=disk@1|server=primary|mpgroup=|id=1
DOMAIN|name=gdom1|
VDISK|name=vdisk0|vol=vol0@vds1|timeout=|dev=disk@0|server=primary|mpgroup=|id=0
VDISK|name=cdrom|vol=2@cdrom|timeout=|dev=disk@1|server=primary|mpgroup=|id=1
DOMAIN|name=gdom2|
VDISK|name=vdisk0|vol=vol0@vds2|timeout=|dev=disk@0|server=primary|mpgroup=|id=0
VDISK|name=cdrom|vol=3@cdrom|timeout=|dev=disk@1|server=primary|mpgroup=|id=1
DOMAIN|name=gdom3|
VDISK|name=vdisk0|vol=disk0@vds3|timeout=|dev=disk@0|server=primary|mpgroup=|id=0

다음 ldm list 명령은 gdom3 도메인 상태를 보여줍니다.

primary# ldm list
NAME         STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary      active     -n-cv-  UART    32    46848M   0.3%  0.3%  1d 51m
gdom0        active     -n----  5000    24    24G      0.0%  0.0%  1d 35m
gdom1        active     -n----  5001    24    24G      0.0%  0.0%  8d 18h 21m
gdom2        active     -n----  5002    24    24G      0.0%  0.0%  8d 17h 43m
gdom3        bound      ------  5003    24    24G

다음 명령은 gdom3 도메인에 대해 ovmtcreate 명령을 실행할 때 발생하는 오류를 보여줍니다.

# /opt/ovmtutils/bin/ovmtcreate -d gdom3 -o /export/home/ovmt
STAGE 1 - EXAMINING SYSTEM AND ENVIRONMENT
-------------------------------------------
Performing platform & prerequisite checks
Checking user permissions
Checking for required packages
Checking for required services
Checking directory permissions

STAGE 2 - ANALYZING DOMAIN
---------------------------
Retrieving and processing attributes
Checking domain state
Getting domain resource settings
Discovering network topology
Discovering disk topology
ERROR: VDS Device  does not exist or not readable

임시해결책: ovmtcreate 유틸리티를 실행하기 전에 서비스 도메인에 가상 디스크 서버가 하나만 있는지 확인하십시오.

소켓 제약 조건이 있는 도메인은 XML 파일에서 다시 만들 수 없음

버그 ID 21616429: Oracle VM Server for SPARC 3.3 소프트웨어는 Fujitsu M10 서버에 대한 소켓 지원만 제공합니다.

Oracle SPARC 시스템 및 Oracle VM Server for SPARC 3.3 이전 버전을 실행 중인 소프트웨어는 XML 파일에서 소켓 제약 조건이 있는 도메인을 다시 만들 수 없습니다.

Oracle VM Server for SPARC 소프트웨어 이전 버전 또는 Oracle SPARC 시스템의 XML 파일에서 소켓 제약 조건이 있는 도메인을 다시 만들려고 시도하면 다음 메시지와 함께 실패합니다.

primary# ldm add-domain -i ovm3.3_socket_ovm11.xml
socket not a known resource

Oracle VM Server for SPARC 3.2가 Fujitsu M10 서버에서 실행 중이며 XML 파일에서 소켓 제약 조건이 있는 도메인을 다시 만들려고 시도하는 경우 다음과 같은 여러 오류 메시지와 함께 명령이 실패합니다.

primary# ldm add-domain -i ovm3.3_socket_ovm11.xml
Unknown property: vcpus

primary# ldm add-domain -i ovm3.3_socket_ovm11.xml
perf-counters property not supported, platform does not have
performance register access capability, ignoring constraint setting.

임시해결책: XML 파일을 편집하여 socket 리소스 유형을 참조하는 섹션을 제거하십시오.

도메인에 가상 CPU의 수가 매우 적으면 DRM이 응답하지 않음

버그 ID 21561834: 도메인에 있는 가상 CPU의 수가 4개 미만이면 활용률이 상한 활용률 레벨을 훨씬 초과해도 DRM이 도메인에 가상 CPU를 추가하지 못할 수 있습니다. util-upper 등록 정보 값이 기본값인 70보다 큰 경우 도메인에 있는 가상 CPU의 수가 4개를 초과해도 DRM이 가상 CPU를 추가하지 못할 수 있습니다.

임시해결책: DRM 정책의 elastic-margin 등록 정보 값을 15 이상으로 설정하십시오.

primary# ldm set-policy elastic-margin=15 name=policy-name domain-name

util-upper 등록 정보 값이 70보다 큰 경우 DRM 정책의 elastic-margin 등록 정보 값을 20 이상으로 설정하십시오.

primary# ldm set-policy elastic-margin=20 name=policy-name domain-name

주 - elastic-margin 등록 정보 값이 util-upper 등록 정보 값보다 작은지 확인하십시오.
Fujitsu M10 서버: 활성 도메인에서 ldm set-socket을 실행하면 Logical Domains Manager의 작업이 불안정해질 수 있음

버그 ID 21527087: 드물기는 하지만 ldm set-socket 명령을 사용하여 실행 중인 도메인에 대한 소켓을 지정할 때 다음과 같은 예기치 않은 동작이 발생할 수 있습니다.

  • Logical Domains Manager가 중단될 수 있습니다.

  • ldm set-socket 명령이 완료되지만 모든 도메인의 CPU 및 메모리가 지정된 소켓에 재매핑되지는 않습니다.

그러나 물리적 분할 영역(PPAR)에 있는 소켓의 수가 12개를 초과하는 경우 도메인 실행 중에는 ldm set-socket --restored-degradedldm set-socket socket_id=id 명령을 사용하지 마십시오. 실행 중인 도메인에서 이러한 명령을 실행하는 경우 ldmd 상태가 손상될 수 있습니다.

임시해결책: ldm set-socket 명령을 실행하기 전에 도메인을 중지하십시오.

ldm set-socket 명령으로 socket_id 등록 정보를 NULL 값으로 설정하여 활성 도메인의 소켓 제약 조건을 지우는 것이 항상 안전합니다.

하나 이상의 PCIe 버스를 제거하는 동안 무작위로 device busy 또는 ldm remove-io 명령이 실패함

버그 ID 21510615: 하나 이상의 PCIe 버스를 제거하는 동안 device busy 또는 ldm remove-io 실패가 지속적으로 발생할 수 있습니다.

임시해결책: gdm 서비스를 검사하고 ldm remove-io 작업을 수동으로 사용 안함으로 설정하거나 검사한 후 Xorg를 제거한 다음 재시도하십시오.

# svcs | grep gdm
# svcadm disable -st svc:/application/graphical-login/gdm:default

또는

# ps -ef | grep Xorg
# pkill Xorg
Fujitsu M10 서버: CPU 제거 중 불일치 소켓 제약 조건으로 인해 Logical Domains Manager가 중단될 수 있음

버그 ID 21367043: 드물기는 하지만 소켓 제약 조건이 도메인의 바인딩된 CPU 및 메모리 리소스와 동기화되지 않는 경우가 있습니다. ldm rm-vcpu, ldm set-vcpu, ldm rm-coreldm set-core 명령으로 인해 Logical Domains Manager가 ldmd SMF 로그의 다음 오류 메시지와 함께 중단될 수 있습니다.

fatal error: xcalloc(0,4) : one of number or size is <= 0 at line 1183
of affinity_core.c

임시해결책: 다음 명령을 사용하여 도메인의 소켓 제약 조건을 지우십시오.

primary# ldm list-socket domain-name
primary# ldm set-socket socket_id= domain-name
ldmpower로 인해 ldmd의 세그먼테이션 결함이 발생함

버그 ID 21369897: 게스트 도메인을 관리하는 동안 ldmpower 명령을 실행하면 ldmd 데몬의 세그먼테이션 결함이 발생할 수 있습니다.

임시해결책: 게스트 도메인에서 추가 또는 제거 작업을 수행하는 동안 ldmpower 명령을 실행하지 마십시오.

PCIe 패브릭의 치명적 오류로 인해 루트 도메인에 패닉이 발생함

버그 ID 21352084, 21861284 및 21861327: 드물기는 하지만 I/O 도메인이 재설정되는 동안 I/O 오류를 수신하고 해당 오류 분석을 시작하는 경우 루트 도메인에 패닉이 발생하는 경우가 있습니다.

패닉 메시지는 다음과 유사합니다.

panic[cpu15]/thread=2a1017d3c20:
Fatal error has occured in: PCIe fabric.(0x2)(0x245)

패닉이 발생할 때 ereports가 콘솔에 덤프됩니다. ereports는 일부 상태 레지스터 값(pcie_ue_status 값 포함)이 모두 FF임을 보여줍니다. 패닉이 발생한 후 루트 도메인은 자체적으로 재부트되고 복구됩니다.

임시해결책: 없음.

서비스 도메인 중 하나가 가상 SCSI HBA 시간 초과 설정으로 인해 다운될 때 가상 SCSI HBA 게스트 도메인의 I/O가 느려짐

버그 ID 21321166: 오프라인 서비스 도메인에 대한 가상 SCSI HBA MPxIO 경로를 사용하는 동안 I/O 처리량이 더 느려지는 경우가 있습니다.

임시해결책: 서비스 도메인이 서비스에 반환될 때까지 mpathadm disable path 명령으로 오프라인 서비스 도메인에 대한 경로를 사용 안함으로 설정하십시오.

Fujitsu M10 서버: 메모리 블록이 정렬되지 않은 경우 ldm shrink-socket 명령이 추가 메모리를 제거함

버그 ID 21299404: ldm shrink-socket 명령을 사용하여 메모리 DR 작업을 수행하고 도메인의 메모리 블록 중 하나가 256MB로 정렬되지 않은 경우 이 명령이 활성 도메인에서 256MB의 추가 메모리를 제거할 수 있습니다. 도메인의 메모리가 단편화된 경우 ldmd 데몬이 추가 메모리 제거를 시도할 수도 있습니다.

임시해결책: 없음.

ldm list-group/SYS/MB와 기타 리소스 그룹 모두에 동일한 메모리 및 I/O를 표시함

버그 ID 21283102: ldm list-rsrc-group 명령이 /SYS/MB(마더보드)와 기타 리소스 그룹 모두에 동일한 메모리 및 I/O 리소스 정보를 표시할 수 있습니다. 예를 들면 다음과 같습니다.

primary# ldm list-group
NAME                                    CORE  MEMORY   IO
/SYS/PM0                                32    64G      4
/SYS/PM1                                32    256G     4
/SYS/PM2                                32    128G     4
/SYS/PM3                                32    128G     4
/SYS/MB                                 0     576G     16

primary# ldm list-group -a -l
NAME                                    CORE  MEMORY   IO
/SYS/PM0                                32    64G      4

CORE
    CID                                             BOUND
    0, 1                                            primary
    2, 3, 4, 5, 6, 7, 8, 9
    10, 11, 12, 13, 14, 15, 16, 17
    18, 19, 20, 21, 22, 23, 24, 25
    26, 27, 28, 29, 30, 31

MEMORY
    PA               SIZE             BOUND
    0x0              57M              _sys_
    0x3900000        32M              _sys_
    0x5900000        94M              _sys_
    0xb700000        393M             _sys_
    0x24000000       192M             _sys_
    0x30000000       31488M
    0x7e0000000      64M              _sys_
    0x7e4000000      64M              _sys_
    0x7e8000000      384M             _sys_
    0x80000000000    32G

IO
    DEVICE           PSEUDONYM        BOUND
    pci@300          pci_0            primary
    pci@340          pci_1            primary
    pci@380          pci_2            primary
    pci@3c0          pci_3            primary
------------------------------------------------------------------------------

NAME                                    CORE  MEMORY   IO
/SYS/PM1                                32    256G     4

CORE
    CID                                             BOUND
    32, 33, 34, 35, 36, 37, 38, 39
    40, 41, 42, 43, 44, 45, 46, 47
    48, 49, 50, 51, 52, 53, 54, 55
    56, 57, 58, 59, 60, 61, 62, 63

MEMORY
    PA               SIZE             BOUND
    0x100000000000   768M
    0x100030000000   24G              primary
    0x100630000000   105728M
    0x180000000000   128G

IO
    DEVICE           PSEUDONYM        BOUND
    pci@400          pci_4            primary
    pci@440          pci_5            primary
    pci@480          pci_6            primary
    pci@4c0          pci_7            primary
------------------------------------------------------------------------------

NAME                                    CORE  MEMORY   IO
/SYS/PM2                                32    128G     4

CORE
    CID                                             BOUND
    64, 65, 66, 67, 68, 69, 70, 71
    72, 73, 74, 75, 76, 77, 78, 79
    80, 81, 82, 83, 84, 85, 86, 87
    88, 89, 90, 91, 92, 93, 94, 95

MEMORY
    PA               SIZE             BOUND
    0x200000000000   64G
    0x280000000000   64G

IO
    DEVICE           PSEUDONYM        BOUND
    pci@500          pci_8            primary
    pci@540          pci_9            primary
    pci@580          pci_10           primary
    pci@5c0          pci_11           primary
------------------------------------------------------------------------------

NAME                                    CORE  MEMORY   IO
/SYS/PM3                                32    128G     4

CORE
    CID                                             BOUND
    96, 97, 98, 99, 100, 101, 102, 103
    104, 105, 106, 107, 108, 109, 110, 111
    112, 113, 114, 115, 116, 117, 118, 119
    120, 121, 122, 123, 124, 125, 126, 127

MEMORY
    PA               SIZE             BOUND
    0x300000000000   64G
    0x380000000000   64G

IO
    DEVICE           PSEUDONYM        BOUND
    pci@600          pci_12           primary
    pci@640          pci_13           primary
    pci@680          pci_14           primary
    pci@6c0          pci_15           primary
------------------------------------------------------------------------------

NAME                                    CORE  MEMORY   IO
/SYS/MB                                 0     576G     16

MEMORY
    PA               SIZE             BOUND
    0x0              57M              _sys_
    0x3900000        32M              _sys_
    0x5900000        94M              _sys_
    0xb700000        393M             _sys_
    0x24000000       192M             _sys_
    0x30000000       31488M
    0x7e0000000      64M              _sys_
    0x7e4000000      64M              _sys_
    0x7e8000000      384M             _sys_
    0x80000000000    32G
    0x100000000000   768M
    0x100030000000   24G              primary
    0x100630000000   105728M
    0x180000000000   128G
    0x200000000000   64G
    0x280000000000   64G
    0x300000000000   64G
    0x380000000000   64G

IO
    DEVICE           PSEUDONYM        BOUND
    pci@300          pci_0            primary
    pci@340          pci_1            primary
    pci@380          pci_2            primary
    pci@3c0          pci_3            primary
    pci@400          pci_4            primary
    pci@440          pci_5            primary
    pci@480          pci_6            primary
    pci@4c0          pci_7            primary
    pci@500          pci_8            primary
    pci@540          pci_9            primary
    pci@580          pci_10           primary
    pci@5c0          pci_11           primary
    pci@600          pci_12           primary
    pci@640          pci_13           primary
    pci@680          pci_14           primary
    pci@6c0          pci_15           primary

임시해결책: 동일한 리소스 정보가 표시되는지 여부를 확인하려면 다음 열에서 메모리 및 I/O에 대한 자세한 정보를 검토하십시오.

  • 메모리: PA, SIZEBOUND

  • I/O: DEVICE, PSEUDONYMBOUND

가상 SCSI HBA가 재부트 없이 동적 LUN 변경 사항을 표시하지 않음

버그 ID 21188211: 가상 SCSI HBA 구성 후 가상 SAN에서 LUN이 추가되거나 제거되는 경우 ldm rescan-vhba 명령이 새 LUN 보기를 표시하지 않는 경우도 있습니다.

임시해결책: 가상 SCSI HBA를 제거한 다음 다시 추가하십시오. LUN이 표시되는지 여부를 확인하십시오. 제거 및 다시 추가 작업이 실패하는 경우 게스트 도메인을 재부트해야 합니다.

Logical Domains Manager가 DIO 에이전트에서 구성 상태를 가져올 때 폴링에 의존하지 않아야 함

버그 ID 21114622: ldm create-vf 또는 ldm destroy-vf 명령을 실행할 때 연관된 물리적 기능 드라이버가 분리된 다음 다시 연결되므로 상당하지만 수량화할 수 없는 양의 시간이 걸릴 수 있습니다. 시간은 관련된 가상 기능의 수 및 대상 하드웨어 장치의 복잡성에 따라 달라집니다.

ldm list-io 명령을 실행하면 물리적 기능 및 해당 하위 가상 기능의 상태가 INV(잘못됨)로 표시될 수 있습니다.

현재 Logical Domains Manager는 지정된 기간 동안 에이전트를 폴링한 다음 폴링을 중지합니다. 폴링 기간이 너무 짧은 경우 장치에서 INV 상태를 무기한 표시할 수도 있습니다.


주 - 20772410 버그 수정은 이 문제의 발생 횟수를 줄여야 하는 것입니다.

임시해결책: 물리적 기능 장치를 소유한 루트 도메인에서 ldoms/agents 서비스를 다시 시작하십시오.

primary# svcadm restart ldoms/agents

ldm create-vf 또는 ldm destroy-vf 명령을 실행한 후 6분 이상 INV 상태가 지속되는 경우 이 명령을 실행하십시오.

서비스 도메인에서 MPxIO를 사용으로 설정할 때 vhba에서 SCSI HBA를 지원해야 함

버그 ID 20951004: 서비스 도메인에서 MPxIO를 사용으로 설정할 때 vhba에서 SCSI HBA를 지원해야 합니다.

임시해결책: 다음 명령을 실행하여 서비스 도메인의 모든 개시자 포트에 대해 MPxIO를 사용 안함으로 설정하십시오.

# stmsboot -d
PCI 버스가 primary 도메인에서 게스트 도메인으로 재지정될 때 FRU-모니터 경보가 숨겨짐

버그 ID 20882700: PCIe 장치 또는 SR-IOV 가상 기능을 도메인에서 제거하거나 추가할 때 Oracle Solaris 11.3 fmd 결함 관리 데몬은 FRU가 물리적으로 제거되거나 추가된 방식과 정확히 동일하게 이벤트를 보고합니다.

    /var/adm/messages 파일에서 다음과 유사한 메시지 및 콘솔 메시지를 볼 수 있습니다.

  • SUNW-MSG-ID: FMD-8000-A0, TYPE: Alert, VER: 1, SEVERITY: Minor
    EVENT-TIME: Tue May 19 18:39:41 PDT 2015
    PLATFORM: unknown, CSN: unknown, HOSTNAME: starbuck
    SOURCE: software-diagnosis, REV: 0.1
    EVENT-ID: 5077e6c3-6a15-457e-a55b-cb72ea5f9728
    DESC: FRU has been added to the system.
    AUTO-RESPONSE: FMD topology will be updated.
    IMPACT: System impact depends on the type of FRU.
    REC-ACTION: Use fmadm faulty to provide a more detailed view of this event. 
    Please refer to the associated reference document at 
    http://support.oracle.com/msg/FMD-8000-A0 for the latest service procedures 
    and policies regarding this diagnosis.
  • # fmadm faulty
    --------------- ------------------------------------  ----------- --------- 
    TIME            EVENT-ID                              MSG-ID      SEVERITY 
    
    --------------- ------------------------------------  ----------- --------- 
    Apr 14 10:04:00 2d981602-975c-4861-9f26-e37360eca697  FMD-8000-CV Minor    
    
    Problem Status    : open 
    Diag Engine       : software-diagnosis / 0.1 
    System 
        Manufacturer  : Oracle Corporation 
        Name          : SPARC T7-2 
        Part_Number   : T7_2 
        Serial_Number : T7_2 
        Host_ID       : 86582a8c 
    
    ---------------------------------------- 
    Suspect 1 of 1 : 
       Problem class : alert.oracle.solaris.fmd.fru-monitor.fru-remove 
       Certainty   : 100% 
    
       FRU 
         Status           : active/not present 
         Location         : "/SYS/MB/PCIE1" 
         Manufacturer     : unknown 
         Name             : unknown 
         Part_Number      : unknown 
         Revision         : unknown 
         Serial_Number    : unknown 
         Chassis 
            Manufacturer  : Oracle-Corporation 
            Name          : SPARC-T7-2 
            Part_Number   : T7_2 
            Serial_Number : T7_2 
       Resource 
         Status           : active/not present 
    
    Description : FRU '/SYS/MB/PCIE1' has been removed from the system. 
    
    Response    : FMD topology will be updated. 
    
    Impact      : System impact depends on the type of FRU. 
    
    Action      : Use 'fmadm faulty' to provide a more detailed view of this event. 
                  Please refer to the associated reference document at 
                  http://support.oracle.com/msg/FMD-8000-CV for the latest service 
                  procedures and policies regarding this diagnosis.

임시해결책: 이러한 경보가 도메인에서 I/O 장치를 추가하거나 제거하려는 명시적 관리자 작업으로 생성된 경우 해당 경보를 무시할 수 있습니다.

광 섬유 채널 케이블을 끌어올 때 mpathadm이 가상 SCSI HBA에 대해 잘못된 Path State 출력을 표시함

버그 ID 20876502: 가상 SCSI HBA MPxIO 게스트 도메인 구성의 일부인 서비스 도메인에서 SAN 케이블을 끌어올 때 mpathadm 출력의 Path State 열에 잘못된 값이 표시될 수 있습니다. 또한 케이블을 끌어올 때 게스트 도메인에서 I/O 작업이 실패할 수 있습니다.

임시해결책: SAN 케이블을 플러그인하고 해당 케이블이 연결된 서비스 도메인에 대한 모든 가상 SCSI HBA에 대해 ldm rescan-vhba 명령을 실행하십시오. 이 임시해결책을 수행한 후 게스트 도메인은 I/O 작업 수행을 재개해야 합니다.

SES를 사용하는 저장 장치를 호스트하는 PCIe 버스를 제거하려고 시도하면 device busy 오류 발생

버그 ID 20774477: SES를 사용하는 저장 장치를 사용하는 경우 이 장치를 호스트하는 PCIe 버스를 제거하려고 시도하면 device busy 오류가 발생할 수 있습니다. 이러한 유형의 저장 장치를 사용하는지 확인하려면 PCIe 버스에 대한 ldm list-io -l 출력에서 ses 또는 enclosure 문자열을 검색하십시오.

임시해결책: 다음 임시해결책 중 하나를 수행하여 PCIe 버스를 제거합니다.

  • PCIe 버스를 동적으로 제거합니다.

    1. FMD 서비스를 사용 안함으로 설정합니다.

      primary# svcadm disable -st svc:/system/fmd
    2. PCIe 버스를 제거합니다.

      primary# ldm remove-io bus
    3. FMD 서비스를 다시 사용으로 설정합니다.

      primary# svcadm enable svc:/system/fmd
  • PCIe 버스를 정적으로 제거합니다.

    1. PCIe 버스를 포함하는 루트 도메인을 지연된 재구성으로 전환합니다.

      primary# ldm start-reconf root-domain
    2. PCIe 버스를 제거합니다.

      primary# ldm remove-io bus
    3. 루트 도메인 콘솔에서 재부트를 수행합니다.

      root-domain# reboot
ldm remove-io 작업 중 rcm_daemon에서 콘솔에 메시지를 방출할 수 있음

버그 ID 20619894: system/management/hwmgmtd 패키지가 설치되지 않은 경우 동적 버스 제거 작업을 수행하면 rcm_daemon에서 콘솔에 다음 메시지를 출력합니다.

rcm_daemon[839]: rcm script ORCL,pcie_rc_rcm.pl: svcs: Pattern 'sp/management'
doesn't match any instances

임시해결책: 이 메시지는 무시해도 됩니다.

PCIe 버스 제거 전에 동적 버스 제거 작업이 가상 SAN 장치를 인식해야 함

버그 ID 20532270: 가상 SAN의 컨트롤에서 물리적 SCSI HBA를 제거하려고 시도하는 모든 직접 I/O 또는 동적 버스 제거 작업을 인식해야 합니다.

가상 SAN 장치가 참조하는 PCIe 리소스에서 ldm remove-io 작업을 수행하는 경우 ldm add-vhba 명령이 해당 장치를 참조한 적이 없는 경우 사용할 수 없습니다. ldm add-vhba 명령을 실행한 후 ldm remove-io 작업이 수행되는 경우 vsan 모듈로 인해 PCIe 리소스가 제거되지 않습니다.

임시해결책: 가상 SAN을 삭제하십시오.

factory-default로 전환된 후 이전 활성 구성에서 부트된 장치가 아닌 다른 장치에서 시스템을 부트하면 복구 모드가 실패함

 

버그 ID 20425271: factory-default로 전환된 후 복구를 트리거하는 동안 이전 활성 구성에서 부트된 장치가 아닌 다른 장치에서 시스템을 부트하면 복구 모드가 실패합니다. 이 오류는 활성 구성에서 factory-default 부트 장치가 아닌 부트 장치를 사용하는 경우에 발생할 수 있습니다.

임시해결책: 언제든지 다음 단계를 수행하여 새 구성을 SP에 저장합니다.

  1. primary 도메인에 대한 부트 장치의 전체 PCI 경로를 결정합니다.

    4단계에서 이 경로를 ldm set-var 명령에 사용합니다.

  2. primary 도메인에서 현재 설정된 boot-device 등록 정보를 모두 제거합니다.

    boot-device 등록 정보에 값이 설정된 경우에만 이 단계를 수행해야 합니다. 등록 정보에 값이 설정되지 않은 경우 boot-device 등록 정보를 제거하려고 시도하면 boot-device not found 메시지가 표시됩니다.

    primary# ldm rm-var boot-device primary
  3. 현재 구성을 SP에 저장합니다.

    primary# ldm add-spconfig config-name
  4. primary 도메인에 대한 boot-device 등록 정보를 명시적으로 설정합니다.

    primary# ldm set-var boot-device=value primary

    설명한 대로 구성을 SP에 저장한 후 boot-device 등록 정보를 설정하면 복구 모드가 트리거될 때 지정한 부트 장치가 부트됩니다.

복구: 설명한 대로 복구 모드가 이미 실패한 경우 다음 단계를 수행합니다.

  1. 부트 장치를 마지막으로 실행한 구성에서 사용된 장치로 명시적으로 설정합니다.

    primary# ldm set-var boot-device=value primary
  2. primary 도메인을 재부트합니다.

    primary# reboot

    재부트하면 복구를 계속할 수 있습니다.

가상 SCSI HBA가 포함된 MPxIO에 ldm rm-io virtual-function 명령을 사용하면 패닉이 발생함

버그 ID 20046234: 가상 SCSI HBA 및 광 섬유 채널 SR-IOV 장치에서 게스트 도메인의 동일한 LUN을 볼 수 있는 경우 MPxIO를 사용으로 설정하면 패닉이 발생할 수 있습니다. 광 섬유 채널 SR-IOV 카드가 게스트 도메인에서 제거된 다음 다시 추가되는 경우 패닉이 발생합니다.

임시해결책: 광 섬유 채널 SR-IOV 및 가상 SCSI HBA 둘 다에 MPxIO가 사용으로 설정된 경우 게스트 도메인을 구성하지 마십시오.

I/O 도메인의 ixgbevf 노드가 ipadm 명령에 의해 사용 안함으로 보고되고 ifconfig 명령에 의해 존재하지 않음으로 보고됨

버그 ID 20004281: primary 도메인의 전원을 껐다가 켠 경우 I/O 도메인의 ixgbevf 노드가 ipadm 명령을 실행할 때 사용 안함으로 보고되고 ifconfig 명령을 실행할 때 존재하지 않음으로 보고됩니다.

임시해결책: IP 인터페이스를 다시 사용으로 설정합니다.

# svcadm restart network/physical:default
직접 I/O를 사용하여 I/O 도메인에 지정된 경우 HGXE 인터페이스를 사용할 수 없음

버그 ID 19943809: 직접 I/O 기능을 사용하여 카드가 지정된 경우 hxge 드라이버가 I/O 도메인 내에서 인터페이스를 사용할 수 없습니다.

시스템 로그 파일에 다음 경고가 발생합니다.

WARNING: hxge0 : <== hxge_setup_mutexes: failed 0x1

임시해결책: /etc/system에 다음 라인을 추가하고 재부트합니다.

set px:px_force_intx_support=1
ldm add-spconfig 작업이 완료되지 않으면 게스트 도메인 eeprom 업데이트가 손실됨

버그 ID 19932842: eeprom 또는 OBP 명령을 사용하는 경우 다음 명령 중 하나가 완료되기 전에 게스트 도메인에서 OBP 변수를 설정하려고 시도하면 실패할 수 있습니다.

  • ldm add-spconfig

  • ldm remove-spconfig

  • ldm set-spconfig

  • ldm bind

이 문제는 이러한 명령을 완료하는 데 걸리는 시간이 15초를 초과할 때 발생할 수 있습니다.

# /usr/sbin/eeprom boot-file\=-k
promif_ldom_setprop: promif_ldom_setprop: ds response timeout
eeprom: OPROMSETOPT: Invalid argument
boot-file: invalid property

복구: ldm 작업이 완료된 후 eeprom 또는 OBP 명령을 재시도합니다.

임시해결책: 영향 받는 게스트 도메인에서 eeprom 또는 OBP 명령을 재시도합니다. primary 도메인에서 ldm set-var 명령을 사용하면 문제를 방지할 수 있습니다.

포함된 가상 네트워크 장치가 1000개를 초과하는 게스트 도메인을 재부트할 때 패닉 발생

버그 ID 19449221: 한 도메인에 최대 999개의 가상 네트워크 장치(vnet)가 포함될 수 있습니다.

임시해결책: 도메인의 vnet 수를 999개로 제한합니다.

Oracle VM Server for SPARC에서 해제된 MAC 주소를 더 이상 추적하지 않음

버그 ID 19078763: Oracle VM Server for SPARC에서 해제된 MAC 주소를 더 이상 추적하지 않습니다. 이제 주소를 무작위로 선택한 다음 로컬 네트워크의 논리적 도메인에서 해당 주소를 사용하지 않는지 확인하여 MAC 주소가 할당됩니다.

Sun Storage 16Gb 광 섬유 채널 범용 HBA 펌웨어가 대역폭 콘트롤을 지원하지 않음

버그 ID 18083904: Sun Storage 16Gb 광 섬유 채널 범용 HBA(Emulex) 카드용 펌웨어는 대역폭 콘트롤 설정을 지원하지 않습니다. HBA 펌웨어는 bw-percent 등록 정보에 대해 지정하는 모든 값을 무시합니다.

임시해결책: 없음.

루트 도메인에서 광 섬유 채널 가상 기능에 대한 잘못된 장치 경로

버그 ID 18001028: 루트 도메인에서 광 섬유 채널 가상 기능에 대한 Oracle Solaris 장치 경로가 잘못되었습니다.

예를 들어, 잘못된 경로 이름은 pci@380/pci@1/pci@0/pci@6/fibre-channel@0,2이며, pci@380/pci@1/pci@0/pci@6/SUNW,emlxs@0,2가 되어야 합니다.

ldm list-io -l 출력은 광 섬유 채널 가상 기능에 대한 올바른 장치 경로를 보여 줍니다.

임시해결책: 없음.

FMA에서 결함이 있는 메모리를 감지하는 경우 문제가 발생할 수 있음

버그 ID 17576087: 결함이 있는 메모리가 교체된 후 저장된 구성으로 시스템 전원을 껐다가 켜도 메모리가 복원되지 않을 수 있습니다.

임시해결책: 결함이 있는 메모리를 교체한 후 factory-default 구성으로 시스템 전원을 껐다 켭니다. 그런 다음 사용하려는 구성으로 시스템 전원을 껐다 켭니다.

게스트 도메인의 가상 네트워크 장치 또는 SR-IOV 가상 기능에서 DLMP가 작동하지 않음

게스트 도메인의 가상 네트워크 장치 또는 SR-IOV NIC 가상 기능에서 DLMP 통합을 구성할 수 없습니다.

단일 슬라이스 가상 디스크에서 EFI GPT 디스크 레이블을 사용하여 Oracle Solaris 11.1 OS를 설치할 수 없음

버그 ID 17422973: 단일 슬라이스 디스크에 Oracle Solaris 11.1 OS를 설치할 경우 시스템 펌웨어 버전 8.4.0 이상을 실행하는 SPARC T4 서버, 시스템 펌웨어 버전 9.1.0 이상을 실행하는 SPARC T5, SPARC M5, SPARC M6 서버, XCP 버전 2230 이상을 실행하는 Fujitsu M10 서버에서 다음 오류가 표시됩니다.

cannot label 'c1d0': try using fdisk(1M) and then provide a specific slice
Unable to build pool from specified devices: invalid vdev configuration

임시해결책: SMI 레이블을 사용하여 디스크 레이블을 재지정하십시오.

lgrp_lineage_add(mutex_enter: bad mutex, lp=10351178)에서 게스트 도메인 패닉 발생

버그 ID 17020950: 펌웨어 버전 8.3을 사용하여 바인드된 SPARC T4 플랫폼에서 SPARC T5, SPARC M5 또는 SPARC M6 플랫폼으로 활성 도메인을 마이그레이션한 후 메모리 동적 재구성을 수행하면 게스트 도메인 패닉이 발생할 수 있습니다.

임시해결책: 마이그레이션을 수행하기 전에 SPARC T4 시스템을 8.4 버전의 시스템 펌웨어로 업데이트합니다. 그런 다음 도메인을 다시 바인드합니다.

InfiniBand SR-IOV 제거 작업에 잘못된 메시지가 표시됨

버그 ID 16979993: InfiniBand 장치에서 동적 SR-IOV 제거 작업을 사용하려고 시도하면 혼동스럽고 부적절한 오류 메시지가 표시됩니다.

동적 SR-IOV 제거 작업은 InfiniBand 장치에 지원되지 않습니다.

임시해결책: 다음 절차 중 하나를 수행하여 InfiniBand 가상 기능을 제거하십시오.

루트 도메인이 재부트된 후 복원형 I/O 도메인은 PCI 장치 구성 변경을 지원해야 함

버그 ID 16691046: 루트 도메인에서 가상 기능이 지정된 경우 다음 핫 플러그 상황에서 I/O 도메인이 복원성을 제공하지 못할 수 있습니다.

  • 루트 컴플렉스(PCIe 버스)를 루트 도메인에 동적으로 추가한 다음 가상 기능을 만들고 해당 기능을 I/O 도메인에 지정합니다.

  • 루트 컴플렉스를 소유하는 루트 도메인에 SR-IOV 카드를 핫 추가한 다음 가상 기능을 만들고 해당 기능을 I/O 도메인에 지정합니다.

  • 루트 도메인이 소유하는 루트 컴플렉스의 빈 슬롯에 PCIe 카드를 교체하거나 추가합니다(핫 플러그를 통해서 또는 루트 도메인이 다운될 때). 이 루트 도메인은 루트 컴플렉스의 가상 기능을 I/O 도메인에 제공합니다.

임시해결책: 다음 단계 중 하나를 수행하십시오.

  • 루트 컴플렉스에서 이미 I/O 도메인에 가상 기능을 제공한 상태에서 해당 루트 컴플렉스에 PCIe 카드를 추가, 제거 또는 교체하는 경우(핫 플러그를 통해서 또는 루트 도메인이 다운될 때) 루트 도메인과 I/O 도메인을 모두 재부트해야 합니다.

  • 루트 컴플렉스의 가상 기능이 현재 I/O 도메인에 지정되어 있지 않은 상태에서 루트 컴플렉스에 SR-IOV 카드 또는 다른 모든 PCIe 카드를 추가하는 경우 PCIe 카드를 추가하는 루트 도메인을 중지해야 합니다. 루트 도메인이 재부트된 후 해당 루트 컴플렉스의 가상 기능을 I/O 도메인에 지정할 수 있습니다.

  • 루트 도메인에 새 PCIe 버스를 추가한 다음 해당 버스에서 가상 기능을 만들고 I/O 도메인에 지정하려는 경우 다음 단계 중 하나를 수행한 후 루트 도메인을 재부트합니다.

    • 지연된 재구성 동안 버스 추가

    • 동적으로 버스 추가

primary 도메인을 재부트한 후 게스트 도메인이 전환 상태에 있음

버그 ID 16659506: primary 도메인을 재부트한 후 게스트 도메인이 전환 상태(t)에 있습니다. 이 문제는 대량의 가상 기능이 시스템에 구성되었을 때 발생합니다.

임시해결책: 이 문제를 피하려면 OBP 디스크 부트 명령을 여러 번 재시도하여 네트워크에서 부트되지 않도록 합니다.

    각 도메인에서 다음 단계를 수행합니다.

  1. 도메인의 콘솔에 액세스합니다.

    primary# telnet localhost 5000
  2. boot-device 등록 정보를 설정합니다.

    ok> setenv boot-device disk disk disk disk disk disk disk disk disk disk net

    boot-device 등록 정보의 값으로 지정하는 disk 항목 수는 시스템에 구성된 가상 기능 수에 따라 다릅니다. 시스템이 작을수록 더 적은 수의 disk 인스턴스를 등록 정보 값에 포함할 수 있습니다.

  3. printenv를 사용하여 boot-device 등록 정보가 올바르게 설정되었는지 확인합니다.

    ok> printenv
  4. primary 도메인 콘솔로 돌아갑니다.

  5. 시스템의 각 도메인에 대해 단계 1-4를 반복합니다.

  6. primary 도메인을 재부트합니다.

    primary# shutdown -i6 -g0 -y
PCIe 장치 아래의 하위 장치가 지정되지 않은 이름으로 복원됨

버그 ID 16299053: PCIe 장치를 사용 안함으로 설정한 후 예상치 않은 동작이 발생할 수 있습니다. PCIe 장치는 계속 도메인이 소유하고 있지만 사용 안함으로 설정된 PCIe 장치 아래에 있는 하위 장치가 지정되지 않은 이름으로 복원됩니다.

임시해결책: ILOM에서 PCIe 슬롯을 사용 안함으로 설정할 경우 직접 I/O(DIO) 기능을 사용하여 PCIe 슬롯이 도메인에 지정되지 않도록 합니다. 즉, ILOM에서 슬롯을 사용 안함으로 설정하기 전에 먼저 PCIe 슬롯이 해당하는 루트 도메인에 지정되도록 합니다.

ILOM에서 PCIe 슬롯을 사용 안함으로 설정할 경우 올바른 동작을 위해서는 DIO를 사용하여 PCIe 슬롯이 도메인에 지정된 상태에서 해당 도메인을 중지하고 루트 도메인에 장치를 재지정합니다.

WARNING: ddi_intr_alloc: cannot fit into interrupt pool은 I/O 장치 드라이버를 연결하는 동안 인터럽트 공급이 소진되었음을 의미함

버그 ID 16284767: Oracle Solaris 콘솔에 표시된 이 경고는 I/O 장치 드라이버를 연결하는 동안 인터럽트 공급이 소진되었음을 의미합니다.

WARNING: ddi_intr_alloc: cannot fit into interrupt pool

하드웨어는 한정된 수의 인터럽트를 제공하므로 Oracle Solaris는 각 장치가 사용할 수 있는 개수를 제한합니다. 기본 제한은 표준 시스템 구성 요구에 맞게 설계되었지만, 특정 시스템 구성에 따라 이 제한을 조정할 수 있습니다.

특히, 시스템이 여러 논리적 도메인으로 분할된 경우와 너무 많은 I/O 장치가 게스트 도메인에 지정된 경우 제한 조정이 필요합니다. Oracle VM Server for SPARC는 전체 인터럽트를 게스트 도메인에 제공된 더 작은 세트로 나눕니다. 너무 많은 I/O 장치가 게스트 도메인에 지정된 경우 각 장치에 기본 인터럽트 제한을 제공하기에는 공급량이 너무 작을 수 있습니다. 따라서 모든 드라이버를 완전히 연결하기 전에 공급량을 소진합니다.

일부 드라이버는 Oracle Solaris에서 자동으로 인터럽트를 조정할 수 있도록 선택적 콜백 루틴을 제공합니다. 이러한 드라이버에는 기본 제한이 적용되지 않습니다.

임시해결책: ::irmpools::irmreqs MDB 매크로를 사용하여 인터럽트가 어떻게 사용되는지 확인합니다. ::irmpools 매크로는 전체 인터럽트 공급량을 풀로 나눈 값을 보여줍니다. ::irmreqs 매크로는 각 풀에 매핑된 장치를 보여줍니다. 각 장치에 대해 ::irmreqs는 선택적 콜백 루틴에 의해 기본 제한이 강제 적용되는지 여부, 각 드라이버가 요청한 인터럽트 수, 드라이버에 제공된 인터럽트 수를 보여줍니다.

연결을 실패한 드라이버에 대한 정보는 매크로에 표시되지 않습니다. 그러나 표시된 정보를 바탕으로 어느 정도까지 기본 제한을 조정할 수 있는지 계산할 수 있습니다. 콜백 루틴을 제공하지 않고 여러 개의 인터럽트를 사용하는 장치의 경우 기본 제한을 조정하여 더 적은 인터럽트를 사용하도록 강제할 수 있습니다. 해당 장치에서 사용되는 분량 이하로 기본 제한을 줄이면 다른 장치에서 사용할 인터럽트를 확보할 수 있습니다.

기본 제한을 조정하려면 /etc/system 파일에서 ddi_msix_alloc_limit 등록 정보를 1 - 8 범위의 값으로 설정합니다. 그런 다음 시스템을 재부트하여 변경 사항을 적용합니다.

성능을 최대화하려면 큰 값을 지정하여 시작했다가 시스템이 경고 없이 성공적으로 부트할 때까지 증분 값을 조금씩 줄입니다. ::irmpools::irmreqs 매크로를 사용하여 값 조정이 모든 연결된 드라이버에 미치는 영향을 측정합니다.

예를 들어, 게스트 도메인에서 Oracle Solaris OS를 부트하는 동안 다음 경고가 발생한다고 가정합니다.

WARNING: emlxs3: interrupt pool too full.
WARNING: ddi_intr_alloc: cannot fit into interrupt pool

::irmpools::irmreqs 매크로는 다음 정보를 보여줍니다.

# echo "::irmpools" | mdb -k
ADDR             OWNER   TYPE   SIZE  REQUESTED  RESERVED
00000400016be970 px#0    MSI/X  36    36         36

# echo "00000400016be970::irmreqs" | mdb -k
ADDR             OWNER   TYPE   CALLBACK NINTRS NREQ NAVAIL
00001000143acaa8 emlxs#0 MSI-X  No       32     8    8
00001000170199f8 emlxs#1 MSI-X  No       32     8    8
000010001400ca28 emlxs#2 MSI-X  No       32     8    8
0000100016151328 igb#3   MSI-X  No       10     3    3
0000100019549d30 igb#2   MSI-X  No       10     3    3
0000040000e0f878 igb#1   MSI-X  No       10     3    3
000010001955a5c8 igb#0   MSI-X  No       10     3    3

이 예제에서 기본 제한은 장치당 8개 인터럽트이며, 마지막 emlxs3 장치까지 시스템에 연결하기에 인터럽트가 부족합니다. 모든 emlxs 인스턴스가 같은 방법으로 작동한다고 가정하면, emlxs3은 8개 인터럽트를 요청했을 것입니다.

총 풀 크기인 36개 인터럽트에서 모든 igb 장치에서 사용된 12개 인터럽트를 빼면 emlxs 장치에 24개 인터럽트를 사용할 수 있습니다. 24개 인터럽트를 4로 나누면 장치당 6개 인터럽트가 모든 emlxs 장치를 같은 성능으로 연결할 수 있을 것입니다. 따라서 다음 조정이 /etc/system 파일에 추가됩니다.

set ddi_msix_alloc_limit = 6

시스템이 경고 없이 성공적으로 부트하면 ::irmpools::irmreqs 매크로는 다음 업데이트된 정보를 보여줍니다.

# echo "::irmpools" | mdb -k
ADDR             OWNER   TYPE   SIZE  REQUESTED  RESERVED
00000400018ca868 px#0    MSI/X  36    36         36
 
# echo "00000400018ca868::irmreqs" | mdb -k
ADDR             OWNER   TYPE   CALLBACK NINTRS NREQ NAVAIL
0000100016143218 emlxs#0 MSI-X  No       32     8    6
0000100014269920 emlxs#1 MSI-X  No       32     8    6
000010001540be30 emlxs#2 MSI-X  No       32     8    6
00001000140cbe10 emlxs#3 MSI-X  No       32     8    6
00001000141210c0 igb#3   MSI-X  No       10     3    3
0000100017549d38 igb#2   MSI-X  No       10     3    3
0000040001ceac40 igb#1   MSI-X  No       10     3    3
000010001acc3480 igb#0   MSI-X  No       10     3    3
ixgbevf primary 도메인을 재부트할 때 SR-IOV 도메인의 장치가 사용 안함으로 설정될 수 있음

버그 ID 16224353: 주 도메인을 재부트한 후 primary 도메인의 ixgbevf 인스턴스가 작동하지 않을 수 있습니다.

임시해결책: 없음.

SPARC M5-32 및 SPARC M6-32: LSI-SAS 컨트롤러가 SR-IOV로 잘못 내보내짐

버그 ID 16071170: SPARC M5-32 또는 SPARC M6-32 시스템에서 내부 SAS 컨트롤러가 SR-IOV를 지원하지 않더라도 이러한 카드가 SR-IOV 사용 컨트롤러로 내보내집니다.

이러한 카드에서 물리적 기능을 만들려고 시도하면 Oracle VM Server for SPARC 로그에 다음 메시지가 표시됩니다.

Dec 11 04:27:54 warning: Dropping pf
pci@d00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@d80/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@c00/pci@1/pci@0/pci@c/pci@0/pci@4/LSI,sas@0: no IOV capable driver
Dec 11 04:27:54 warning: Dropping pf
pci@e00/pci@1/pci@0/pci@0/pci@0/pci@4/LSI,sas@0: no IOV capable driver

시스템에는 SPARC M5-32 및 SPARC M6-32 어셈블리의 한 IOU에 하나씩 4개의 LSI SAS 컨트롤러 포트가 있습니다. 이 오류는 각 포트에 대해 보고됩니다.

해결 방법: 이러한 메시지는 무시할 수 있습니다. 이러한 메시지에서는 시스템의 LSI-SAS 컨트롤러 장치에 SR-IOV 기능이 있지만, 이 하드웨어에 대해서는 SR-IOV가 지원되지 않음을 나타낼 뿐입니다.

SPARC T5-8: 일부 ldm List 명령에서 업타임 데이터에 0 값이 표시됨

버그 ID 16068376: 약 128개 도메인으로 구성된 T5-8에서 ldm list와 같은 일부 ldm 명령에서 모든 도메인의 업타임으로 0초를 표시할 수 있습니다.

임시해결책: 도메인에 로그인하고 uptime 명령을 사용하여 도메인의 업타임을 확인합니다.

메모리 DR 추가가 부분적으로 성공한 경우 오류 메시지가 표시되지 않음

버그 ID 15812823: 메모리 사용 가능 공간이 적은 경우 크기 때문에 일부 메모리 블록만 메모리 DR 작업의 일부로 사용할 수 있습니다. 하지만 이러한 메모리 블록은 사용 가능한 메모리 양에 포함됩니다. 이로 인해 예상했던 것보다 적은 양의 메모리가 도메인에 추가될 수 있습니다. 이 상황이 발생하는 경우 오류 메시지가 표시되지 않습니다.

임시해결책: 없음.

ldm init-system 명령이 물리적 I/O 변경을 수행한 도메인 구성을 올바르게 복원하지 못함

버그 ID 15783031: 직접 I/O 또는 SR-IOV 작업이 사용된 도메인 구성을 복원하기 위해 ldm init-system 명령을 사용할 때 문제를 겪을 수 있습니다.

    다음 작업 중 하나 이상이 복원할 구성에 수행된 경우 문제가 발생합니다.

  • primary 도메인이 소유한 슬롯을 버스에서 제거했습니다.

  • primary 도메인이 소유한 물리적 기능으로부터 가상 기능을 만들었습니다.

  • 가상 기능이 primary 도메인이나 다른 게스트 도메인(또는 둘 다)에 지정되었습니다.

  • 루트 컴플렉스가 primary 도메인에서 제거되어 게스트 도메인에 지정되었습니다. 해당 루트 컴플렉스는 추후 I/O 가상화 작업의 기초로 사용됩니다.

    다시 말해서, 비-primary 루트 도메인을 만들어서 이전 작업 중 하나를 수행했습니다.

시스템이 이전 작업 중 아무것도 수행되지 않은 상태인지 확인하려면 Using the ldm init-system Command to Restore Domains on Which Physical I/O Changes Have Been Made를 참조하십시오.

컨트롤 도메인이 시스템에서 가장 낮은 코어를 요구함

버그 ID 15778392: 컨트롤 도메인이 시스템에서 가장 낮은 코어를 요구합니다. 따라서 코어 ID 0이 가장 낮은 코어인 경우, 전체 코어 제약 조건을 컨트롤 도메인에 적용하려는 경우 이 코어를 다른 도메인과 공유할 수 없습니다.

예를 들어, 시스템에서 가장 낮은 코어가 코어 ID 0인 경우 컨트롤 도메인이 다음 출력과 비슷하게 표시됩니다.

# ldm ls -o cpu primary
NAME
primary

VCPU
VID    PID    CID    UTIL STRAND
0      0      0      0.4%   100%
1      1      0      0.2%   100%
2      2      0      0.1%   100%
3      3      0      0.2%   100%
4      4      0      0.3%   100%
5      5      0      0.2%   100%
6      6      0      0.1%   100%
7      7      0      0.1%   100%
도메인에 지정할 수 있는 최대 가상 기능 수 제한

버그 ID 15775637: I/O 도메인에는 루트 컴플렉스당 사용할 수 있는 인터럽트 리소스 수에 대한 제한이 있습니다.

SPARC T3 및 SPARC T4 시스템에서 이 제한은 약 63 MSI/X 벡터입니다. 각 igb 가상 기능은 세 개의 인터럽트를 사용합니다. ixgbe 가상 기능은 두 개의 인터럽트를 사용합니다.

많은 수의 가상 기능을 한 도메인에 지정할 경우 도메인에서 이러한 장치를 지원하는 데 필요한 시스템 리소스가 부족해집니다. 다음과 유사한 메시지가 표시될 수 있습니다.

WARNING: ixgbevf32: interrupt pool too full.
WARNING: ddi_intr_alloc: cannot fit into interrupt pool
바인딩되는 동안 게스트 도메인 콘솔에 연결하려고 하면 입력이 차단될 수 있음

버그 ID 15771384: 도메인의 게스트 콘솔이 바인드된 시간 이전과 도중에 반복해서 콘솔에 연결하려고 시도하면 콘솔이 고정될 수 있습니다. 예를 들어, 도메인을 시스템으로 마이그레이션하는 도중에 콘솔을 잡기 위해 자동화된 스크립트를 사용할 경우 이 문제가 발생할 수 있습니다.

임시해결책: 콘솔의 고정을 해제하려면 도메인의 콘솔 집중기를 호스트하는 도메인(대개 컨트롤 도메인)에서 다음 명령을 수행합니다.

primary# svcadm disable vntsd
primary# svcadm enable vntsd
PCIe-PCI 브리지가 포함된 PCIe 카드의 ldm remove-io가 허용되지 않아야 함

버그 ID 15761509:support document에 나열된 DIO(직접 I/O) 기능을 지원하는 PCIe 카드만 사용하십시오.

임시해결책: ldm add-io 명령을 사용하여 카드를 primary 도메인에 다시 추가합니다.

ldm start 명령 후 즉시 실행할 경우 ldm stop 명령이 실패할 수 있음

버그 ID 15759601: ldm start 명령 후에 즉시 ldm stop 명령을 실행하면 다음 오류와 함께 ldm stop 명령이 실패할 수 있습니다.

LDom domain-name stop notification failed

해결 방법: ldm stop 명령을 다시 실행합니다.

지정된 가상 기능 수가 매우 많은 primary 도메인을 재부트할 때 시스템 패닉이 발생함

버그 ID 15750727: 매우 많은 수의 가상 기능이 지정된 primary 도메인을 재부트하면 시스템 패닉이 발생할 수 있습니다.

해결 방법: 다음 해결 방법 중 하나를 수행합니다.

  • 가상 기능 수를 줄여서 실패한 가상 기능 수를 줄입니다. 이렇게 변경하면 칩 응답성이 향상될 수 있습니다.

  • 시스템에서 모든 ixgbe 가상 기능에 대해 기본적으로 IRM 풀이 하나만 만들어지므로 ixgbe 가상 기능에 대해 IRM(Interrupt Resource Management) 풀을 더 많이 만듭니다.

부분 코어 primary가 전체 코어 DR 변환을 허용하지 않음

버그 ID 15748348: primary 도메인이 가장 낮은 물리적 코어(일반적으로 0)를 다른 도메인과 공유할 경우, 전체 코어 제약 조건을 primary 도메인에 대해 설정하려는 시도가 실패합니다.

해결 방법: 다음 단계를 수행합니다.

  1. 도메인에서 공유되는 가장 낮은 바인드된 코어를 확인합니다.

    # ldm list -o cpu
  2. primary 도메인이 아니라 모든 도메인에서 가장 낮은 코어의 모든 CPU 스레드를 바인드 해제합니다.

    그 결과 가장 낮은 코어의 CPU 스레드가 공유되지 않으며 primary 도메인에 대한 바인딩에 사용할 수 있도록 확보됩니다.

  3. 다음 중 하나를 수행하여 전체 코어 제약 조건을 설정합니다.

    • CPU 스레드를 primary 도메인에 바인드하고, ldm set-vcpu -c 명령을 사용하여 전체 코어 제약 조건을 설정합니다.

    • ldm set-core 명령을 사용하여 CPU 스레드를 바인드하고, 단일 단계로 전체 코어 제약 조건을 설정합니다.

Oracle Solaris 핫 플러그 작업을 사용하여 PCIe 끝점 장치를 제거할 수 없음

버그 ID 15721872: ldm rm-io 명령을 사용하여 primary 도메인에서 장치를 제거한 후에는 Oracle Solaris 핫 플러그 작업을 사용하여 PCIe 끝점 장치를 작업 중 제거할 수 없습니다. PCIe 끝점 장치 교체 또는 제거에 대한 자세한 내용은 Oracle VM Server for SPARC 3.3 관리 설명서 의 PCIe 하드웨어 변경를 참조하십시오.

DRM 및 ldm list 출력에 실제 게스트 도메인에 있는 것과 다른 개수의 가상 CPU가 표시됨

버그 ID 15701853: CPU 수가 크게 줄어든 후 로드된 도메인의 DRM 정책이 만료되면 No response 메시지가 Oracle VM Server for SPARC 로그에 표시될 수 있습니다. ldm list 출력에는 psrinfo 출력에 표시된 것보다 많은 CPU 리소스가 도메인에 할당된 것으로 표시됩니다.

해결 방법: ldm set-vcpu 명령을 사용하여 psrinfo 출력에 표시된 값으로 도메인의 CPU 수를 재설정합니다.

SPARC T3-1: 다중 직접 I/O 경로를 통해 액세스할 수 있는 디스크의 문제

버그 ID 15668368: 두 개의 서로 다른 직접 I/O 장치에서 액세스할 수 있는 이중 포트 디스크에 SPARC T3-1 시스템을 설치할 수 있습니다. 이 경우 이러한 두 직접 I/O 장치를 서로 다른 도메인에 지정하면 디스크가 두 도메인 모두에서 사용되어 디스크의 실제 사용에 따라 서로의 성능에 영향을 줄 수 있습니다.

해결 방법: 동일 디스크 세트에 액세스할 수 있는 직접 I/O 장치를 서로 다른 I/O 도메인에 지정하지 마십시오. SPARC T3-1 시스템에 이중 포트 디스크가 있는지 확인하려면 SP에서 다음 명령을 실행합니다.

-> show /SYS/SASBP

출력에 다음 fru_description 값이 포함될 경우 해당 시스템에 이중 포트 디스크가 포함된 것입니다.

fru_description = BD,SAS2,16DSK,LOUISE

이중 디스크가 시스템에 있는 것으로 확인되면 다음 직접 I/O 장치가 모두 동일한 도메인에 항상 지정되는지 확인합니다.

pci@400/pci@1/pci@0/pci@4  /SYS/MB/SASHBA0
pci@400/pci@2/pci@0/pci@4  /SYS/MB/SASHBA1
Oracle Solaris 10을 실행하는 게스트 도메인: 다중 플럼된 NIU nxge 인스턴스를 사용한 메모리 DR 제거 작업이 무기한 중단되고 완료되지 않을 수 있음

버그 ID 15667770: 다중 NIU nxge 인스턴스가 도메인에 플럼된 경우, 도메인에서 메모리를 제거하기 위해 사용되는 ldm rm-memldm set-mem 명령이 완료되지 않을 수 있습니다. 메모리 제거 작업 중 문제가 발생했는지 확인하려면 ldm list -o status 명령으로 작업 진행 상태를 모니터합니다. 진행 백분율이 몇 분 동안 그대로 있으면 이 문제가 발생한 것으로 간주할 수 있습니다.

임시해결책: ldm rm-mem 또는 ldm set-mem 명령을 취소하고 충분한 양의 메모리가 제거되었는지 확인합니다. 그렇지 않으면 소량의 메모리를 제거하기 위한 이후 메모리 제거 명령이 성공적으로 완료될 수 있습니다.

    문제가 primary 도메인에서 발생한 경우 다음을 수행합니다.

  1. 주 도메인에서 지연된 재구성 작업을 시작합니다.

    # ldm start-reconf primary
  2. 원하는 양의 메모리를 도메인에 지정합니다.

  3. primary 도메인을 재부트합니다.

문제가 다른 도메인에서 발생한 경우 도메인에 지정되는 메모리 양을 조정하기 전에 도메인을 중지합니다.

마스터-슬레이브 관계의 도메인에서 ldm stop -a 명령을 사용하면 슬레이브에 stopping 플래그가 설정됨

버그 ID 15664666: 재설정 종속성을 만들 경우 ldm stop -a 명령으로 인해 도메인에서 재설정 종속성이 중지되는 대신 다시 시작될 수 있습니다.

해결 방법: 먼저 마스터 도메인에 대해 ldm stop 명령을 실행합니다. 그런 다음 슬레이브 도메인에 대해 ldm stop 명령을 실행합니다. 슬레이브 도메인의 초기 중지로 인해 오류가 발생하면 슬레이브 도메인에 대해 ldm stop -f 명령을 실행합니다.

일부 경우에 가상 네트워크 장치에서 MTU 값의 동적 재구성이 실패함

버그 ID 15631119: 컨트롤 도메인에서 가상 네트워크 장치의 MTU(최대 전송 단위)를 수정할 경우 지연된 재구성 작업이 트리거됩니다. 이후에 지연된 재구성을 취소하면 해당 장치의 MTU 값이 원래 값으로 복원되지 않습니다.

복구: ldm set-vnet 명령을 다시 실행하여 MTU를 원래 값으로 설정합니다. MTU 값을 재설정하면 컨트롤 도메인이 지연된 재구성 모드로 설정되어, 이를 취소해야 합니다. 결과 MTU 값은 이제 원래의 올바른 MTU 값입니다.

# ldm set-vnet mtu=orig-value vnet1 primary
# ldm cancel-op reconf primary
도메인에서 모든 암호화 단위를 동적으로 제거하면 SSH가 종료됨

버그 ID 15600969: 실행 중인 도메인에서 모든 하드웨어 암호화 단위가 동적으로 제거된 경우, 암호화 프레임워크가 소프트웨어 암호화 제공자로 효과적으로 전환되지 못한 것으로 표시되고 모든 ssh 연결을 종료합니다.

복구: 도메인에서 모든 암호화 단위가 제거된 후 ssh 연결을 다시 설정합니다.

해결 방법: 서버측의 /etc/ssh/sshd_config 파일에 UseOpenSSLEngine=no를 설정하고 svcadm restart ssh 명령을 실행합니다.

모든 ssh 연결에 더 이상 하드웨어 암호화 단위가 사용되지 않으며(따라서 연관된 성능 향상 이점도 얻을 수 없음), 암호화 단위가 제거될 때 ssh 연결이 해제되지 않습니다.

ldm list-io -l 출력에서 PCI Express 이중 10Gbit 이더넷 파이버 카드에 4개의 하위 장치가 표시됨

버그 ID 15597025: PCI Express 이중 10Gbit 이더넷 파이버 카드(X1027A-Z)가 설치된 시스템에서 ldm ls-io -l 명령을 실행할 경우 출력에 다음이 표시될 수 있습니다.

primary# ldm ls-io -l
...
pci@500/pci@0/pci@c PCIE5 OCC primary
network@0
network@0,1
ethernet
ethernet

이 이더넷 카드에 포트가 2개 뿐이지만 출력에서는 하위 장치가 4개 있는 것으로 표시됩니다. 이러한 비정상 동작은 카드에 포함된 PCI 기능이 4개이기 때문에 발생합니다. 이러한 기능 중 2개는 내부적으로 사용 안함으로 설정되어 있고 ldm ls-io -l 출력에서 ethernet으로 표시됩니다.

해결 방법: ldm ls-io -l 출력에서 ethernet 항목은 무시할 수 있습니다.

여러 도메인을 부트할 때 ldm 명령의 응답 속도가 느림

버그 ID 15572184: 여러 도메인을 부트할 때 ldm 명령의 응답 속도가 느려질 수 있습니다. 이 단계에서 ldm 명령을 실행하면 명령 실행이 중단된 것처럼 보일 수 있습니다. ldm 명령은 예상된 작업을 수행한 후에 결과를 반환합니다. 명령이 반환된 후에는 시스템이 ldm 명령에 정상적으로 응답합니다.

해결 방법: 여러 도메인을 동시에 부트하지 마십시오. 하지만 여러 도메인을 한 번에 부트해야 할 경우 시스템이 정상으로 돌아올 때까지 추가 ldm 명령을 실행하지 마십시오. 예를 들어, Sun SPARC Enterprise T5140 및 T5240 서버에서는 2분 정도 기다리고, Sun SPARC Enterprise T5440 서버 또는 Sun Netra T5440 서버에서는 4분 정도 기다리십시오.

Oracle Solaris 11: 자동 네트워크 인터페이스로 구성된 영역을 시작하지 못할 수 있음

버그 ID 15560811: Oracle Solaris 11에서 자동 네트워크 인터페이스(anet)로 구성된 영역이 Logical Domains 가상 네트워크 장치만 있는 도메인에서 시작되지 못할 수 있습니다.

  • 해결 방법 1: 게스트 도메인에 하나 이상의 물리적 네트워크 장치를 지정합니다. PCIe 버스 지정, DIO(직접 I/O) 또는 SR-IOV 기능을 사용하여 물리적 NIC를 도메인에 지정합니다.

  • 임시해결책 2: 영역 구성 요구 사항이 도메인 내에서만 영역 간 통신을 설정하는 것이면, etherstub 장치를 만듭니다. 가상 NIC가 etherstub 장치에 만들어지도록 영역 구성에서 etherstub 장치를 "하위 링크"로 사용합니다.

  • 해결 방법 3: 배타적 링크 지정을 사용하여 영역에 Logical Domains 가상 네트워크 장치를 지정합니다. 필요에 따라 도메인에 가상 네트워크 장치를 지정합니다. 또한 가상 네트워크 장치를 대량으로 만들 수 있도록 inter-vnet 링크를 사용 안함으로 설정하도록 선택할 수도 있습니다.

시스템이 네트워크에 연결되지 않았고 NIS 클라이언트가 실행 중인 경우 Logical Domains Manager가 시작되지 않음

버그 ID 15518409: 시스템에서 네트워크를 구성하지 않았고 NIS(네트워크 정보 서비스) 클라이언트가 실행 중인 경우 Logical Domains Manager가 시스템에서 시작되지 않습니다.

해결 방법: 네트워크에 연결되지 않은 시스템에서 NIS 클라이언트를 사용 안함으로 설정합니다.

# svcadm disable nis/client
일부 경우에 Logical Domains 시스템에서 uadmin 1 0 명령을 실행하면 시스템이 OK 프롬프트로 돌아가지 않음

버그 ID 15511551: 일부 경우에 Logical Domains 시스템의 명령줄에서 uadmin 1 0 명령을 실행하면 이후 재설정 후에도 시스템이 ok 프롬프트로 돌아가지 않습니다. 이러한 잘못된 동작은 Logical Domains 변수 auto-reboot?true로 설정된 경우에만 표시됩니다. auto-reboot?false로 설정된 경우에는 예상된 동작이 발생합니다.

해결 방법: 대신 다음 명령을 사용합니다.

uadmin 2 0

또는 항상 auto-reboot?false로 설정하여 실행합니다.

공통 콘솔 그룹에 있을 경우 다중 도메인의 동시 넷 설치가 실패함

버그 ID 15453968: 공통 콘솔 그룹을 갖는 시스템에서 다중 게스트 도메인의 동시 넷 설치가 실패합니다.

해결 방법: 각각 고유한 콘솔 그룹을 갖는 게스트 도메인에서만 넷 설치를 수행합니다. 이 오류는 다중 넷 설치 도메인 간에 공통 콘솔 그룹이 공유되는 도메인에서만 표시됩니다.

OpenBoot PROM 변수는 Logical Domains Manager가 실행 중일 때 eeprom 명령으로 수정할 수 없음

버그 ID 15387338: 이 문제는 Oracle VM Server for SPARC 3.3 관리 설명서 의 Logical Domains 변수 지속성에 요약되어 있으며 컨트롤 도메인에만 영향을 줍니다.

Logical Domains가 실행 중인 상태로 보안 키를 설정할 수 없음

버그 ID 15370442: Logical Domains 환경에서는 ickey(1M) 명령을 사용하여 Oracle Solaris OS 내에서 WAN(광대역 네트워크) 부트 키 설정이나 삭제를 지원하지 않습니다. 모든 ickey 작업은 다음 오류와 함께 실패합니다.

ickey: setkey: ioctl: I/O error

또한 컨트롤 도메인이 아닌 논리적 도메인에서 OpenBoot 펌웨어를 사용하여 설정된 WAN 부트 키는 도메인 재부트 시에 기억되지 않습니다. 이러한 도메인에서 OpenBoot 펌웨어에서 설정된 키는 일회용으로만 유효합니다.

ldm stop-domain 명령 동작이 혼동될 수 있음

버그 ID 15368170: 일부 경우에는 ldm stop-domain 명령의 동작이 혼동될 수 있습니다.

# ldm stop-domain -f domain-name

도메인이 커널 모듈 디버거, kmdb(1) 프롬프트에 있는 경우 ldm stop-domain 명령이 다음 오류 메시지와 함께 실패합니다.

LDom <domain-name> stop notification failed