탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
![]() |
Oracle Solaris Cluster 소프트웨어 설치 설명서 Oracle Solaris Cluster (한국어) |
1. Oracle Solaris Cluster 구성 계획
Oracle Solaris Cluster 설치 작업 찾기
Oracle Solaris Cluster 구성 가능 구성 요소
영역 클러스터의 Trusted Extensions에 대한 지침
Solaris Volume Manager 소프트웨어에 대한 지침
Veritas Volume Manager(VERITAS 볼륨 관리자) 소프트웨어에 대한 지침
4. Solaris Volume Manager 소프트웨어 구성
5. Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성
8. Sun Management Center에 Oracle Solaris Cluster 모듈 설치
이 절에서는 클러스터 구성에서 Solaris 소프트웨어 설치를 계획하기 위한 다음 지침을 제공합니다.
Solaris 소프트웨어에 대한 자세한 내용은 Solaris 설치 설명서를 참조하십시오.
로컬 DVD-ROM에서 Solaris 소프트웨어를 설치하거나 네트워크 설치 서버에서 JumpStart 설치 방법을 사용하여 설치할 수 있습니다. 또한 Oracle Solaris Cluster 소프트웨어에는 JumpStart 설치 방법을 사용하여 Solaris OS와 Oracle Solaris Cluster 소프트웨어를 모두 설치하는 사용자 정의 방법이 있습니다. 여러 개의 클러스터 노드를 설치할 경우에는 네트워크 설치를 고려해 보십시오.
scinstall JumpStart 설치 방법에 대한 자세한 내용은 Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치하는 방법(JumpStart)을 참조하십시오. 표준 Solaris 설치 방법에 대한 자세한 내용은 Solaris 설치 설명서를 참조하십시오.
Oracle Solaris Cluster 구성에서 Solaris OS의 사용을 계획할 때 다음 사항을 고려하십시오.
Solaris 영역 – 전역 영역에만 Oracle Solaris Cluster 프레임워크 소프트웨어를 설치합니다.
비전역 영역에 Oracle Solaris Cluster 데이터 서비스를 직접 설치할 수 있는지 여부를 확인하려면 해당 데이터 서비스에 대한 설명서를 참조하십시오.
전역 클러스터 노드에 비전역 영역을 구성할 경우 LOFS(Loopback File System)를 활성화해야 합니다. 추가 고려 사항은 LOFS에 대한 정보를 참조하십시오.
LOFS(Loopback File System) – 클러스터를 만드는 동안에는 LOFS 기능이 기본적으로 활성화되어 있습니다. 클러스터가 다음 두 조건 모두를 충족할 경우 스위치오버 문제 또는 기타 오류를 방지하려면 LOFS를 비활성화해야 합니다.
클러스터가 이러한 조건 중 하나만 충족할 경우 LOFS를 안전하게 활성화할 수 있습니다.
LOFS와 automountd 데몬을 모두 활성화해야 하는 경우 HA for NFS에서 내보낸 고가용성 로컬 파일 시스템에 포함된 모든 파일을 automounter 맵에서 제외시킵니다.
절전 효과 종료 – 자동 절전 효과 종료는 Oracle Solaris Cluster 구성에서 지원되지 않으며 활성화해서는 안 됩니다. 자세한 내용은 pmconfig(1M) 및 power.conf(4) 매뉴얼 페이지를 참조하십시오.
IP 필터 – Oracle Solaris Cluster 소프트웨어는 확장 가능한 서비스에 대해서는 Solaris IP 필터 기능을 지원하지 않지만 페일오버 서비스에 대해서는 Solaris IP 필터를 지원합니다. 클러스터에 Solaris IP 필터를 구성할 경우 다음 지침 및 제한 사항을 준수하십시오.
NAT 라우팅은 지원되지 않습니다.
로컬 주소 변환을 위해 NAT를 사용하는 것은 지원됩니다. NAT 변환은 전송 도중 패킷을 다시 기록하므로 클러스터 소프트웨어에서 이를 명확하게 알 수 있습니다.
상태 있는 필터링 규칙은 지원되지 않으며 상태 없는 필터링만 지원됩니다. Oracle Solaris Cluster에서는 공용 네트워크 모니터링에 IPMP(IP 네트워크 다중 경로 지정)를 사용하며, 상태 있는 필터링 규칙에서 작동하지 않습니다.
fssnap – Oracle Solaris Cluster 소프트웨어에서는 UFS의 기능인 fssnap 명령을 지원하지 않습니다. 그러나 Oracle Solaris Cluster 소프트웨어에서 제어하지 않는 로컬 시스템에서는 fssnap 명령을 사용할 수 있습니다. fssnap 지원에는 다음 제한 사항이 적용됩니다.
fssnap 명령은 Oracle Solaris Cluster 소프트웨어가 관리하지 않는 로컬 파일 시스템에서 지원됩니다.
fssnap 명령은 클러스터 파일 시스템에서 지원되지 않습니다.
fssnap 명령은 HAStoragePlus에서 제어하는 로컬 파일 시스템에서 지원되지 않습니다.
Oracle Solaris Cluster 3.3 5/11 소프트웨어에는 최종 사용자 Solaris 소프트웨어 그룹(SUNWCuser) 이상이 필요합니다. 그러나 클러스터 구성의 다른 구성 요소에도 자체 Solaris 소프트웨어에 대한 요구 사항이 있을 수 있습니다. 설치할 Solaris 소프트웨어 그룹을 결정하려면 다음 정보를 고려하십시오.
서버 - Solaris 소프트웨어에 대한 요구 사항은 서버 설명서를 참조하십시오. 예를 들어 Sun Enterprise 10000 서버에는 전체 Solaris 소프트웨어 그룹과 OEM 지원이 필요합니다.
추가 Solaris 패키지 - 최종 사용자 Solaris 소프트웨어 그룹의 일부가 아닌 다른 Solaris 소프트웨어 패키지를 설치해야 할 수도 있습니다. Apache HTTP 서버 패키지 및 Trusted Extensions 소프트웨어는 최종 사용자보다 높은 소프트웨어 그룹의 일부인 패키지가 필요한 두 가지 예입니다. 타사 소프트웨어에도 추가 Solaris 소프트웨어 패키지가 필요할 수 있습니다. Solaris 소프트웨어 요구 사항은 타사 설명서를 참조하십시오.
참고 - Solaris 소프트웨어 패키지를 수동으로 설치하지 않으려면 전체 Solaris 소프트웨어 그룹과 OEM 지원을 설치합니다.
적절한 로컬 파일 시스템 레이아웃 워크시트에 이 정보를 추가합니다.
Solaris OS를 설치하는 경우 필요한 Oracle Solaris Cluster 분할 영역을 만들고 모든 분할 영역이 최소 공간 요구 사항을 충족하는지 확인하십시오.
스왑 – Solaris 및 Oracle Solaris Cluster 소프트웨어에 대해 할당되는 결합된 총 swap 공간은 750MB 이상이어야 합니다. 최상의 결과를 얻으려면 Solaris OS에 필요한 크기에 Oracle Solaris Cluster 소프트웨어용으로 최소한 512MB를 추가하십시오. 또한 Solaris 호스트에서 실행할 응용 프로그램에 필요한 추가 swap 공간을 할당하십시오.
(선택 사항) /globaldevices – scinstall(1M) 유틸리티에서 전역 장치에 사용할 파일 시스템을 512MB 이상 크기로 만듭니다. lofi 장치를 대신 사용하는 경우에는 이 파일 시스템을 만들 필요가 없습니다. 두 경우 모두 기능적으로는 동일합니다.
볼륨 관리자 – 볼륨 관리자에서 사용할 수 있도록 슬라이스 7에 20MB의 분할 영역을 만듭니다. 클러스터에서 VxVM(Veritas Volume Manager(VERITAS 볼륨 관리자))을 사용하고 루트 디스크를 캡슐화하려는 경우에는 VxVM에서 사용할 수 있도록 사용되지 않은 두 개의 슬라이스가 있어야 합니다.
이러한 요구 사항을 충족하려면 Solaris OS의 대화식 설치를 수행하는 경우 분할 영역을 사용자 정의해야 합니다.
추가 분할 영역 계획 정보는 다음 지침을 참조하십시오.
Solaris OS가 실행되는 다른 시스템과 마찬가지로 루트(/), /var, /usr 및 /opt 디렉토리를 별도의 파일 시스템으로 구성할 수 있습니다. 또는 모든 디렉토리를 루트(/) 파일 시스템에 포함할 수 있습니다.
다음은 Oracle Solaris Cluster 구성에서 루트(/), /var, /usr 및 /opt 디렉토리의 소프트웨어 내용에 대한 설명입니다. 분할 체계를 계획할 때 이 정보를 고려하십시오.
루트(/) – Oracle Solaris Cluster 소프트웨어 자체는 루트(/) 파일 시스템에서 40MB 미만의 공간을 차지합니다. Solaris Volume Manager 소프트웨어에 5MB 미만의 공간이 필요하고 VxVM 소프트웨어에는 15MB 미만의 공간이 필요합니다. 충분한 추가 공간과 inode 용량을 구성하려면 루트(/) 파일 시스템에 일반적으로 할당하는 공간에 100MB 이상을 추가하십시오. 이 공간은 볼륨 관리 소프트웨어에 사용되는 블록 특수 장치 및 문자 특수 장치를 만들 때 사용됩니다. 특히 클러스터에 많은 수의 공유 디스크가 있는 경우 이 추가 공간을 할당해야 합니다.
Solaris 10 OS에서 전역 장치 이름 공간에 lofi 장치를 사용하려면 100MB의 사용 가능한 공간이 있어야 합니다.
/var – Oracle Solaris Cluster 소프트웨어는 설치 시 /var 파일 시스템에서 무시해도 될 만큼 적은 공간을 차지합니다. 그러나 로그 파일을 기록할 수 있도록 충분한 공간을 따로 설정해야 합니다. 또한 클러스터 노드에서는 일반 독립형 서버에서 기록되는 것보다 많은 메시지가 로그 파일에 기록될 수 있습니다. 따라서 100MB 이상의 공간을 /var 파일 시스템에 할당하는 것이 좋습니다.
/usr – Oracle Solaris Cluster 소프트웨어는 /usr 파일 시스템에서 25MB 미만의 공간을 차지합니다. Solaris Volume Manager 및 VxVM 소프트웨어에는 각각 15MB 미만의 공간이 필요합니다.
/opt – Oracle Solaris Cluster 프레임워크 소프트웨어는 /opt 파일 시스템에서 2MB 미만의 공간을 사용합니다. 그러나 각 Oracle Solaris Cluster 데이터 서비스는 1MB에서 5MB 사이의 공간을 사용할 수 있습니다. Solaris Volume Manager 소프트웨어는 /opt 파일 시스템의 공간을 사용하지 않습니다. VxVM 소프트웨어는 해당 패키지와 도구를 모두 설치할 경우 40MB 이상의 공간을 사용할 수 있습니다.
또한 대부분의 데이터베이스와 응용 프로그램 소프트웨어가 /opt 파일 시스템에 설치됩니다.
SPARC: Sun Management Center 소프트웨어를 사용하여 클러스터를 모니터할 경우에는 Sun Management Center 에이전트 및 Oracle Solaris Cluster 모듈 패키지를 지원하기 위해 각 Solaris 호스트에 추가로 25MB의 공간이 필요합니다.
Oracle Solaris Cluster 소프트웨어에서는 전역 장치 이름 공간을 호스트하는 두 가지 위치를 선택할 수 있습니다.
lofi 장치
로컬 디스크 중 하나에 있는 전용 파일 시스템
이 절에서는 전용 분할 영역 사용에 대한 지침을 설명합니다. 이 정보는 lofi에서 전역 장치 이름 공간을 호스트하는 경우에는 적용되지 않습니다.
/globaldevices 파일 시스템은 일반적으로 루트 디스크에 있습니다. 그러나 논리적 볼륨 관리자 볼륨과 같은 전역 장치 파일 시스템을 배치하는 데 다른 저장소를 사용할 경우 해당 저장소는 Solaris Volume Manager 공유 디스크 세트의 일부 또는 루트 디스크 그룹이 아닌 VxVM 디스크 그룹의 일부가 아니여야 합니다. 이 파일 시스템은 나중에 UFS 클러스터 파일 시스템으로 마운트됩니다. 이 파일 시스템의 이름을 /globaldevices로 지정합니다. 이 이름은 scinstall(1M) 명령에서 인식하는 기본 이름입니다.
주 - UFS 외에 전역 장치 파일 시스템에 유효한 파일 시스템 유형이 없습니다. 전역 장치 파일 시스템을 만든 후 파일 시스템 유형을 변경하지 마십시오.
그러나 UFS 전역 장치 파일 시스템은 ZFS를 사용하는 다른 루트 파일 시스템과 노드에서 공존할 수 있습니다.
scinstall 명령은 나중에 파일 시스템 /global/.devices/node@nodeid의 이름을 변경합니다. 여기서 nodeid는 전역 클러스터 구성원이 될 때 Solaris 호스트에 할당되는 번호를 나타냅니다. 원래의 /globaldevices 마운트 지점이 제거됩니다.
/globaldevices 파일 시스템에는 블록 특수 장치와 문자 특수 장치를 모두 만들 수 있는 충분한 공간과 충분한 inode 용량이 있어야 합니다. 이 지침은 클러스터에 많은 수의 디스크가 있는 경우에 특히 중요합니다. 다음과 같이 크기가 512MB 이상이고 밀도가 512인 파일 시스템을 만드십시오.
# newfs -i 512 globaldevices-partition
이 inode 수는 대부분의 클러스터 구성에 충분합니다.
Solaris Volume Manager 소프트웨어를 사용할 경우에는 상태 데이터베이스 복제본을 만들 때 사용할 수 있도록 루트 디스크에 별도 슬라이스를 설정해야 합니다. 특히 로컬 디스크마다 이러한 용도로 사용할 슬라이스를 별도로 설정해야 합니다. 그러나 Solaris 호스트에 로컬 디스크가 하나만 있는 경우에는 Solaris Volume Manager 소프트웨어의 올바른 작동을 위해 동일한 슬라이스에 세 개의 상태 데이터베이스 복제본을 만들어야 할 수 있습니다. 자세한 내용은 Solaris Volume Manager 설명서를 참조하십시오.
VxVM(Veritas Volume Manager(VERITAS 볼륨 관리자))을 사용하고 루트 디스크를 캡슐화하려는 경우에는 VxVM에서 사용할 수 있도록 사용되지 않은 두 개의 슬라이스가 있어야 합니다. 또한 디스크의 시작 부분이나 끝 부분에 할당되지 않은 사용 가능한 공간이 더 있어야 합니다. 루트 디스크 캡슐화에 대한 자세한 내용은 VxVM 설명서를 참조하십시오.
표 1-2에서는 물리적 메모리가 750MB보다 작은 Solaris 호스트의 분할 체계를 보여 줍니다. 이 체계에는 최종 사용자 Solaris 소프트웨어 그룹, Oracle Solaris Cluster 소프트웨어 및 Oracle Solaris Cluster HA for NFS 데이터 서비스가 설치됩니다. 디스크의 마지막 슬라이스(슬라이스 7)에는 볼륨 관리자에서 사용하도록 작은 공간이 할당됩니다.
이 레이아웃에서는 Solaris Volume Manager 소프트웨어 또는 VxVM 소프트웨어 중 하나를 사용할 수 있습니다. Solaris Volume Manager 소프트웨어를 사용하는 경우에는 상태 데이터베이스 복제본에 슬라이스 7을 사용합니다. VxVM을 사용하는 경우에는 슬라이스에 길이 0을 할당하여 슬라이스 7의 공간을 비웁니다. 이 레이아웃에서는 필요한 두 개의 슬라이스 4와 7을 제공하고 디스크 끝에서 사용되지 않은 공간을 제공합니다.
표 1-2 파일 시스템 할당의 예
|
클러스터의 Solaris 영역 용도 및 기능에 대한 자세한 내용은 Oracle Solaris Cluster Concepts Guide의 Support for Oracle Solaris Zones를 참조하십시오.
비전역 영역의 클러스터 구성에 대한 지침은 영역 클러스터를 참조하십시오.
전역 클러스터 노드에 Solaris 10 비전역 영역(간단히 영역이라고도 함)을 만드는 경우 다음 사항을 고려하십시오.
다중 노드에서 영역 이름 다시 사용 – 클러스터 관리를 단순화하기 위해 영역 내 자원 그룹이 온라인으로 전환되는 각 노드의 영역 이름을 동일하게 사용할 수 있습니다.
개인 IP 주소 - 클러스터에서 사용할 수 있는 개인 IP 주소의 수보다 많이 사용하지 마십시오.
마운트 – 영역 정의에서 전역 마운트를 포함하지 마십시오. 루프백 마운트만 포함하십시오.
페일오버 서비스 - 다중 호스트 클러스터에서 Oracle Solaris Cluster 소프트웨어가 페일오버 자원 그룹의 노드 목록에 있는 동일한 Solaris 호스트에 서로 다른 영역을 지정하도록 허용할 수 있지만 이는 테스트 중에만 유용합니다. 단일 호스트에 노드 목록의 모든 영역이 포함된 경우 이 노드는 자원 그룹의 단일 실패 지점이 됩니다. 고가용성을 위해, 페일오버 자원 그룹의 노드 목록에 있는 영역은 다른 호스트에 있어야 합니다.
단일 호스트 클러스터에서 페일오버 자원 그룹의 노드 목록에 여러 영역을 지정하는 경우 기능 위험이 발생하지 않습니다.
확장 가능 서비스 - 동일한 Solaris 호스트의 동일한 확장 가능 서비스에서 사용하도록 비전역 영역을 생성하지 마십시오. 확장 가능 서비스의 각 인스턴스는 다른 호스트에서 실행되어야 합니다.
클러스터 파일 시스템 - UFS 또는 VxFS를 사용하는 클러스터 파일 시스템의 경우 zonecfs 명령을 사용하여 비전역 영역에 클러스터 파일 시스템을 직접 추가하지 마십시오. 대신 전역 영역에서 클러스터 파일 시스템의 마운트를 관리하고 비전역 영역에서 클러스터 파일 시스템의 루프백 마운트를 수행하는 HAStoragePlus 자원을 구성하십시오.
LOFS – Oracle Solaris 영역에서는 루프백 파일 시스템(LOFS)을 활성화해야 합니다. 그러나 Oracle Solaris Cluster HA for NFS 데이터 서비스에서는 스위치오버 문제 또는 다른 오류를 방지하기 위해 LOFS를 비활성화해야 합니다. 클러스터에서 비전역 영역과 Oracle Solaris Cluster HA for NFS를 모두 구성하는 경우 데이터 서비스에서 발생할 수 있는 문제를 방지하기 위해 다음 중 하나를 수행합니다.
automountd 데몬을 비활성화합니다.
Oracle Solaris Cluster HA for NFS에서 내보낸 고가용성 로컬 파일 시스템의 일부인 모든 파일을 automounter 맵에서 제외시킵니다.
배타적 IP 영역 – 다음 지침은 특별히 배타적 IP 비전역 영역에 적용됩니다.
논리 호스트 이름 자원 그룹 –LogicalHostname 자원이 포함된 자원 그룹에서 노드 목록에 ip-type 등록 정보가 exclusive로 설정된 비전역 영역이 포함되어 있으면 해당 노드 목록의 모든 영역에서 이 등록 정보를 exclusive로 설정해야 합니다. 전역 영역은 ip-type 등록 정보가 항상 shared로 설정되어 있으므로 ip-type=exclusive의 영역을 포함하는 노드 목록에 공존할 수 없습니다. 이 제한 사항은 Oracle Solaris 영역 ip-type 등록 정보를 사용하는 Oracle Solaris OS 버전에만 적용됩니다.
IPMP 그룹 – 비전역 영역에서 데이터 서비스 트래픽에 사용되는 모든 공용 네트워크 어댑터의 경우 영역의 모든 /etc/hostname.adapter 파일에서 IPMP 그룹을 수동으로 구성해야 합니다. 이 정보는 전역 영역에서 상속되지 않습니다. IPMP 그룹을 구성하는 지침은 System Administration Guide: IP Services의 제VI부, IPMP에 나오는 절차를 따르십시오.
개인 호스트 이름 종속성 - 배타적 IP 영역은 클러스터의 개인 호스트 이름 및 개인 주소에 따라 달라지지 않습니다.
공유 주소 자원 – 공유 주소 자원은 배타적 IP 영역을 사용할 수 없습니다.
SPARC 하이퍼바이저를 사용할 수 있는, 물리적으로 클러스터링된 시스템에서 LDoms(Sun Logical Domains) I/O 도메인 또는 게스트 도메인을 만드는 경우 다음 사항을 고려하십시오.
SCSI LUN 요구 사항 – LDoms 게스트 도메인의 가상 공유 저장 장치 또는 가상 디스크 백엔드는 I/O 도메인에서 전체 SCSI LUN이어야 합니다. 임의 가상 장치는 사용할 수 없습니다.
보호(Fencing) – 해당 장치에 대한 보호(fencing)를 비활성화할 수 없는 경우 동일한 물리적 시스템에 있는 둘 이상의 게스트 도메인으로 저장소 LUN을 내보내지 마십시오. 그렇지 않으면 같은 시스템에 있는 두 개의 다른 게스트 도메인이 모두 장치에 표시될 경우 해당 장치는 게스트 도메인 중 하나가 정지할 때마다 보호(fencing)됩니다. 장치의 보호(fencing)로 인해 이후에 장치에 액세스하려고 하는 다른 게스트 도메인에서 패닉 상태가 발생합니다.
네트워크 격리 – 동일한 물리적 시스템에 있지만 다른 클러스터에 구성된 게스트 도메인은 네트워크에서 서로 격리되어야 합니다. 다음 방법 중 하나를 사용합니다.
개인 네트워크에 I/O 도메인의 다른 네트워크 인터페이스를 사용하도록 클러스터를 구성합니다.
각 클러스터에 다른 네트워크 주소를 사용합니다.
게스트 도메인의 네트워킹 – 게스트 도메인 간에 전달되는 네트워크 패킷이 가상 스위치를 통해 네트워크 드라이버에 연결하려면 서비스 도메인을 통과해야 합니다. 가상 스위치는 시스템 우선 순위에 따라 실행되는 커널 스레드를 사용합니다. 가상 스위치 스레드는 하트비트, 구성원, 검사점 등 중요한 클러스터 작업을 수행하려면 필요한 CPU 자원을 획득할 수 있어야 합니다. mode=sc 설정으로 가상 스위치를 구성하면 클러스터 하트비트 패킷을 신속하게 처리할 수 있습니다. 그러나 다음과 같은 작업 부하에서 서비스 도메인에 더 많은 CPU 자원을 추가하면 다른 중요한 클러스터 작업의 안정성을 향상시킬 수 있습니다.
네트워크 또는 디스크 I/O 등으로 인한 많은 인터럽트 로드. 로드가 매우 많은 상태에서 가상 스위치는 가상 스위치 스레드를 포함한 시스템 스레드가 오랫동안 실행되지 않도록 할 수 있습니다.
CPU 자원을 유지할 때 지나치게 공격적인 실시간 스레드. 실시간 스레드는 가상 스위치 스레드보다 더 높은 우선 순위로 실행되며 연장된 시간 동안 가상 스위치 스레드에 대해 CPU 자원을 제한할 수 있습니다.
비공유 저장소 - LDoms 게스트 도메인 OS 이미지와 같은 비공유 저장소에 대해 모든 유형의 가상 장치를 사용할 수 있습니다. 파일 또는 볼륨과 같은 I/O 도메인의 구현을 통해 이러한 가상 장치를 백업할 수 있습니다. 그러나 같은 클러스터에 있는 다른 게스트 도메인에 매핑하기 위해 I/O 도메인에서 파일을 복사하거나 볼륨을 복제하지 마십시오. 이렇게 복사하거나 복제하면 결과 가상 장치의 장치 ID가 다른 게스트 도메인의 장치와 동일해지므로 문제가 발생할 수 있습니다. 항상 I/O 도메인에 새 파일이나 장치를 만들어 고유한 장치 ID를 할당한 다음 새 파일이나 장치를 다른 게스트 도메인에 매핑하십시오.
I/O 도메인에서 저장소 내보내기 – LDoms I/O 도메인으로 구성되는 클러스터를 구성하는 경우 해당 저장 장치를 Oracle Solaris Cluster 소프트웨어에서도 실행되는 다른 게스트 도메인으로 내보내지 마십시오.
Solaris I/O 다중 경로 – 게스트 도메인에서 Solaris I/O 다중 경로 소프트웨어(MPxIO)를 실행하지 마십시오. 대신 I/O 도메인에서 Solaris I/O 다중 경로 소프트웨어를 실행하고 게스트 도메인으로 내보내십시오.
개인 상호 연결 IP 주소 범위 – 개인 네트워크는 동일한 물리적 시스템에 만들어진 모든 게스트 도메인에서 공유되며 이러한 도메인에 모두 표시됩니다. 게스트 도메인 클러스터에서 사용할 scinstall 유틸리티에 대해 개인 네트워크 IP 주소 범위를 지정하기 전에 해당 주소 범위가 동일한 물리적 시스템에 있는 다른 게스트 도메인에 의해 이미 사용되고 있지 않은지 확인하십시오.
Sun Logical Domains에 대한 자세한 내용은 Logical Domains (LDoms) 1.0.3 Administration Guide를 참조하십시오.