탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
Oracle Solaris Cluster 소프트웨어 설치 설명서 Oracle Solaris Cluster 4.0 (한국어) |
1. Oracle Solaris Cluster 구성 계획
Oracle Solaris Cluster 설치 작업 찾기
Oracle Solaris Cluster 구성 가능 구성 요소
Solaris Volume Manager 소프트웨어에 대한 지침
이 절에서는 클러스터 구성에서 Oracle Solaris 소프트웨어 설치를 계획하기 위한 다음 지침을 제공합니다.
Oracle Solaris 소프트웨어에 대한 자세한 내용은 Oracle Solaris 설치 설명서를 참조하십시오.
로컬 DVD-ROM에서 Oracle Solaris 소프트웨어를 설치하거나 네트워크 설치 서버에서 AI(자동 설치 프로그램) 설치 방법을 사용하여 설치할 수 있습니다. 또한 Oracle Solaris Cluster 소프트웨어에는 AI 설치 방법을 사용하여 Oracle Solaris OS와 Oracle Solaris Cluster 소프트웨어를 모두 설치하는 사용자 정의 방법이 있습니다. Oracle Solaris 소프트웨어의 AI 설치 중 기본값을 적용하여 OS를 설치하거나, 대화식 OS 설치를 실행하여 부트 디스크 및 ZFS 루트 풀과 같은 구성 요소의 설치를 사용자 정의할 수 있습니다. 여러 개의 클러스터 노드를 설치할 경우에는 네트워크 설치를 고려해 보십시오.
scinstall AI 설치 방법에 대한 자세한 내용은 Oracle Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치 및 구성하는 방법(자동 설치 프로그램)을 참조하십시오. 표준 Oracle Solaris 설치 방법과 OS 설치 중 선택할 수 있는 구성 옵션은 Oracle Solaris 설치 설명서를 참조하십시오.
Oracle Solaris Cluster 구성에서 Oracle Solaris OS의 사용을 계획할 때 다음 사항을 고려하십시오.
Oracle Solaris 영역 – Oracle Solaris Cluster 프레임워크 소프트웨어를 전역 영역에만 설치합니다.
LOFS(Loopback File System) – 클러스터를 만드는 동안에는 LOFS 기능이 기본적으로 활성화되어 있습니다. 클러스터가 다음 두 조건 모두를 충족할 경우 스위치오버 문제 또는 기타 오류를 방지하려면 LOFS를 비활성화해야 합니다.
클러스터가 이러한 조건 중 하나만 충족할 경우 LOFS를 안전하게 활성화할 수 있습니다.
LOFS와 automountd 데몬을 모두 활성화해야 하는 경우 HA for NFS에서 내보낸 고가용성 로컬 파일 시스템에 포함된 모든 파일을 automounter 맵에서 제외시킵니다.
절전 효과 종료 – 자동 절전 효과 종료는 Oracle Solaris Cluster 구성에서 지원되지 않으며 활성화해서는 안 됩니다. 자세한 내용은 poweradm(1M) 매뉴얼 페이지를 참조하십시오.
NWAM(Network Auto-Magic) – Oracle Solaris NWAM(Network Auto-Magic) 기능은 단일 네트워크 인터페이스를 활성화하고 다른 모든 항목은 사용 안함으로 설정합니다. 이러한 이유로 NWAM은 Oracle Solaris Cluster 소프트웨어와 공존할 수 없으므로 클러스터를 구성하거나 실행하기 전에 사용 안함으로 설정해야 합니다.
IP 필터 – Oracle Solaris Cluster는 공용 네트워크 모니터링을 위해 IP 네트워크 다중 경로(IPMP)를 사용합니다. IP 필터에 관한 IPMP 구성 지침 및 제한 사항에 따라 IP 필터를 구성해야 합니다.
fssnap – Oracle Solaris Cluster 소프트웨어에서는 UFS의 기능인 fssnap 명령을 지원하지 않습니다. 그러나 Oracle Solaris Cluster 소프트웨어에서 제어하지 않는 로컬 시스템에서는 fssnap 명령을 사용할 수 있습니다. fssnap 지원에는 다음 제한 사항이 적용됩니다.
fssnap 명령은 Oracle Solaris Cluster 소프트웨어가 관리하지 않는 로컬 파일 시스템에서 지원됩니다.
fssnap 명령은 클러스터 파일 시스템에서 지원되지 않습니다.
fssnap 명령은 HAStoragePlus에서 제어하는 로컬 파일 시스템에서 지원되지 않습니다.
Oracle Solaris OS를 설치하는 경우 필요한 Oracle Solaris Cluster 분할 영역을 만들고 모든 분할 영역이 최소 공간 요구 사항을 충족하는지 확인하십시오.
루트(/) – 루트(/) 파일 시스템의 주요 공간 요구 사항은 다음과 같습니다.
Oracle Solaris Cluster 소프트웨어 자체는 루트(/) 파일 시스템에서 40MB 미만의 공간을 차지합니다.
각 Oracle Solaris Cluster 데이터 서비스는 1MB - 5MB 정도 사용할 수 있습니다.
Solaris Volume Manager 소프트웨어는 5MB 미만이 필요합니다.
충분한 추가 공간과 inode 용량을 구성하려면 루트(/) 파일 시스템에 일반적으로 할당하는 공간에 100MB 이상을 추가하십시오. 이 공간은 볼륨 관리 소프트웨어에 사용되는 블록 특수 장치 및 문자 특수 장치를 만들 때 사용됩니다. 특히 클러스터에 많은 수의 공유 디스크가 있는 경우 이 추가 공간을 할당해야 합니다.
로그 파일을 기록할 수 있도록 충분한 공간을 따로 설정해야 합니다. 또한 클러스터 노드에서는 일반 독립형 서버에서 기록되는 것보다 많은 메시지가 로그 파일에 기록될 수 있습니다. 따라서 로그 파일에 최소한 100MB가 허용됩니다.
전역 장치 이름 공간에 lofi 장치를 사용하려면 100MB의 사용 가능한 공간이 있어야 합니다. Oracle Solaris Cluster 4.0부터 전역 장치 이름 공간에 더 이상 전용 분할 영역이 사용되지 않습니다.
/var – Oracle Solaris Cluster 소프트웨어는 설치 시 /var 파일 시스템에서 극소량의 공간을 차지합니다. 그러나 로그 파일을 기록할 수 있도록 충분한 공간을 따로 설정해야 합니다. 또한 클러스터 노드에서는 일반 독립형 서버에서 기록되는 것보다 많은 메시지가 로그 파일에 기록될 수 있습니다. 따라서 100MB 이상의 공간을 /var 파일 시스템에 할당하는 것이 좋습니다.
스왑 – Oracle Solaris 및 Oracle Solaris Cluster 소프트웨어에 대해 할당되는 결합된 총 swap 공간은 750MB 이상이어야 합니다. 최상의 결과를 얻으려면 Oracle Solaris OS에 필요한 크기에 Oracle Solaris Cluster 소프트웨어용으로 최소한 512MB를 추가하십시오. 또한 Oracle Solaris 호스트에서 실행할 응용 프로그램에 필요한 추가 swap 공간을 할당하십시오.
Solaris Volume Manager를 지원하려면 다음 위치 중 하나에 이 분할 영역을 만들 수 있습니다.
ZFS 루트 풀이 아닌 로컬 디스크
ZFS 루트 풀이 디스크가 아닌 분할 영역에 있는 경우 ZFS 루트 풀
로컬 디스크마다 이러한 용도로 사용할 슬라이스를 별도로 설정해야 합니다. 그러나 Oracle Solaris 호스트에 로컬 디스크가 하나만 있는 경우에는 Solaris Volume Manager 소프트웨어의 올바른 작동을 위해 동일한 슬라이스에 세 개의 상태 데이터베이스 복제본을 만들어야 할 수 있습니다. 자세한 내용은 Solaris Volume Manager Administration Guide 를 참조하십시오.
이러한 요구 사항을 충족하려면 Oracle Solaris OS의 대화식 설치를 수행하는 경우 분할 영역을 사용자 정의해야 합니다.
SPARC 하이퍼바이저를 사용할 수 있는, 물리적으로 클러스터링된 시스템에서 Oracle VM Server for SPARC I/O 도메인 또는 게스트 도메인을 만드는 경우 다음 사항을 고려하십시오.
SCSI LUN 요구 사항 – Oracle VM Server for SPARC 게스트 도메인의 가상 공유 저장 장치 또는 가상 디스크 백엔드는 I/O 도메인에서 전체 SCSI LUN이어야 합니다. 임의 가상 장치는 사용할 수 없습니다.
보호(Fencing) – 해당 장치에 대한 보호(fencing)를 사용 안함으로 설정할 수 없는 경우 동일한 물리적 시스템에 있는 둘 이상의 게스트 도메인으로 저장소 LUN을 내보내지 마십시오. 그렇지 않으면 같은 시스템에 있는 두 개의 다른 게스트 도메인이 모두 장치에 표시될 경우 해당 장치는 게스트 도메인 중 하나가 정지할 때마다 보호(fencing)됩니다. 장치의 보호(fencing)로 인해 이후에 장치에 액세스하려고 하는 다른 게스트 도메인에서 패닉 상태가 발생합니다.
네트워크 격리 – 동일한 물리적 시스템에 있지만 다른 클러스터에 구성된 게스트 도메인은 네트워크에서 서로 격리되어야 합니다. 다음 방법 중 하나를 사용합니다.
개인 네트워크에 I/O 도메인의 다른 네트워크 인터페이스를 사용하도록 클러스터를 구성합니다.
클러스터의 초기 구성을 수행할 때 각 클러스터에 다른 네트워크 주소를 사용합니다.
게스트 도메인의 네트워킹 – 게스트 도메인 간에 전달되는 네트워크 패킷이 가상 스위치를 통해 네트워크 드라이버에 연결하려면 서비스 도메인을 통과해야 합니다. 가상 스위치는 시스템 우선 순위에 따라 실행되는 커널 스레드를 사용합니다. 가상 스위치 스레드는 하트비트, 구성원, 검사점 등 중요한 클러스터 작업을 수행하려면 필요한 CPU 자원을 획득할 수 있어야 합니다. mode=sc 설정으로 가상 스위치를 구성하면 클러스터 하트비트 패킷을 신속하게 처리할 수 있습니다. 그러나 다음과 같은 작업 부하에서 서비스 도메인에 더 많은 CPU 자원을 추가하면 다른 중요한 클러스터 작업의 안정성을 향상시킬 수 있습니다.
네트워크 또는 디스크 I/O로 인한 높은 인터럽트 부하. 극심한 부하 상황에서는 가상 스위치 스레드를 포함한 시스템 스레드가 장시간 실행되지 못할 수 있습니다.
CPU 자원을 유지할 때 지나치게 공격적인 실시간 스레드. 실시간 스레드는 가상 스위치 스레드보다 더 높은 우선 순위로 실행되며 연장된 시간 동안 가상 스위치 스레드에 대해 CPU 자원을 제한할 수 있습니다.
비공유 저장소 – Oracle VM Server for SPARC 게스트 도메인 OS 이미지와 같은 비공유 저장소에 대해 모든 유형의 가상 장치를 사용할 수 있습니다. 파일 또는 볼륨과 같은 I/O 도메인의 구현을 통해 이러한 가상 장치를 백업할 수 있습니다. 그러나 같은 클러스터에 있는 다른 게스트 도메인에 매핑하기 위해 I/O 도메인에서 파일을 복사하거나 볼륨을 복제하지 마십시오. 이렇게 복사하거나 복제하면 결과 가상 장치의 장치 ID가 다른 게스트 도메인의 장치와 동일해지므로 문제가 발생할 수 있습니다. 항상 I/O 도메인에 새 파일이나 장치를 만들어 고유한 장치 ID를 할당한 다음 새 파일이나 장치를 다른 게스트 도메인에 매핑하십시오.
I/O 도메인에서 저장소 내보내기 – Oracle VM Server for SPARC I/O 도메인으로 구성되는 클러스터를 구성하는 경우 해당 저장 장치를 Oracle Solaris Cluster 소프트웨어에서도 실행되는 다른 게스트 도메인으로 내보내지 마십시오.
Oracle Solaris I/O 다중 경로 – 게스트 도메인에서 Oracle Solaris I/O 다중 경로 소프트웨어(MPxIO)를 실행하지 마십시오. 대신 I/O 도메인에서 Oracle Solaris I/O 다중 경로 소프트웨어를 실행하고 게스트 도메인으로 내보내십시오.
Oracle VM Server for SPARC에 대한 자세한 내용은 Oracle VM Server for SPARC 2.1 Administration Guide 를 참조하십시오.