Solaris OS용 Sun Cluster 개요

2장 Sun Cluster의 주요 개념

이 장에서는 Sun Cluster 시스템을 사용하기 전에 알아두어야 할 Sun Cluster 시스템의 하드웨어 및 소프트웨어 구성 요소 관련 주요 개념을 설명합니다.

이 장은 다음 내용으로 구성되어 있습니다.

클러스터 노드

클러스터 노드는 Solaris 소프트웨어 및 Sun Cluster 소프트웨어를 모두 실행하는 시스템입니다. Sun Cluster 소프트웨어에서는 2-8개의 노드를 하나의 클러스터에 포함시킬 수 있습니다.

클러스터 노드는 일반적으로 하나 이상의 디스크와 연결됩니다. 디스크에 연결되지 않은 노드는 멀티 호스트 디스크에 액세스하기 위해 클러스터 파일 시스템을 사용합니다. 병렬 데이터베이스 구성에서의 노드들은 디스크 일부 또는 전부를 동시에 공동으로 액세스할 수 있습니다.

다른 노드가 클러스터에 결합되거나 클러스터에서 제거될 때 클러스터의 모든 노드가 이것을 인식합니다. 또한 클러스터의 모든 노드가 로컬로 실행되는 자원뿐 아니라 다른 클러스터 노드에서 실행되는 자원을 인식합니다.

성능이 크게 떨어지지 않고 페일오버가 발생하도록 하려면 동일한 클러스터의 노드가 모두 유사한 프로세싱, 메모리 및 I/O 기능을 사용해야 합니다. 페일오버가 발생할 수 있으므로 각 노드는 노드가 실패할 경우 SLA(service level agreement)를 충족시키기에 충분한 용량을 가지고 있어야 합니다.

클러스터 상호 연결

클러스터 상호 연결은 클러스터 노드 사이에 클러스터 개인 통신과 데이터 서비스 통신을 전송하기 위해 사용하는 물리적 장치 구성입니다.

중복 상호 연결에서는 시스템 관리자가 오류를 격리하고 통신을 복구하는 동안 활성 상태에 있는 상호 연결을 통해 작업이 계속될 수 있습니다. Sun Cluster 소프트웨어는 복구된 상호 연결을 통해 통신을 감지, 복구하고 자동으로 재시작합니다.

자세한 내용은 클러스터 상호 연결을 참조하십시오.

클러스터 멤버쉽

클러스터 구성원 모니터(CMM)는 다음 작업을 완료하기 위해 클러스터 상호 연결을 통해 메시지를 교환하는 분산된 에이전트 집합입니다.

CMM의 주 기능은 클러스터 구성원을 설정하는 것이며, 그러기 위해서는 언제라도 클러스터에 참여하는 노드 집합에 대해 클러스터 전체에 걸쳐 동의가 필요합니다. CMM은 각 노드에서 노드간 통신 단절과 같은 중요한 클러스터 상태 변화를 감지합니다. CMM은 전송 커널 모듈을 사용하여 클러스터의 다른 노드와 연결되는 전송 매체를 통해 하트비트를 생성합니다. CMM은 정의된 시간 초과 기간에 어떤 노드로부터 하트비트를 감지하지 못하면 그 노드가 실패했다고 간주하고 클러스터 재구성을 시작하여 클러스터 구성원을 재협상합니다.

클러스터 구성원을 결정하고 데이터 무결성을 보장하기 위해 CMM은 다음 작업을 수행합니다.

클러스터가 여러 개의 별도 클러스터로 분할되지 않도록 보호하는 방법은 데이터 무결성을 참조하십시오.

Cluster Configuration Repository

CCR(Cluster Configuration Repository)은 클러스터 전체의 전용 분산 데이터베이스이며, 클러스터 구성 및 상태와 관련된 정보를 저장합니다. 구성 데이터 손상을 방지하기 위해 각 노드는 클러스터 자원의 현재 상태를 알고 있어야 합니다. CCR은 모든 노드가 클러스터에 대해 일관성 있는 보기를 갖도록 보장합니다. CCR은 오류나 복구 상황이 발생할 때 또는 일반적인 클러스터 상태가 바뀔 때 업데이트됩니다.

CCT 구조는 다음 유형의 정보를 포함하고 있습니다.

오류 모니터

Sun Cluster 시스템은 응용 프로그램 자체, 파일 시스템 및 네트워크 인터페이스를 모니터링하는 방법으로 사용자와 데이터 사이의 ”경로”에 있는 모든 구성 요소의 가용성을 높입니다.

Sun Cluster 소프트웨어는 노드 오류를 신속하게 감지하고, 실패한 노드의 자원을 위해 동등한 서버를 만듭니다. Sun Cluster 소프트웨어에서는 실패한 노드의 영향을 받지 않는 자원은 복구 과정에서 계속 사용 가능하며 실패한 노드의 자원은 복구되는 즉시 사용 가능합니다.

데이터 서비스 모니터링

각 Sun Cluster 데이터 서비스는 정기적으로 데이터 서비스를 규명하여 상태를 판별하는 오류 모니터를 제공합니다. 오류 모니터는 응용 프로그램 데몬이 실행 중인지 그리고 클라이언트 서비스가 제공되고 있는지 확인합니다. 프로브에 의해 반환된 정보를 기초로, 데몬을 재시작하고 페일오버를 야기하는 것과 같은 사전에 정의된 조치가 초기화될 수 있습니다.

디스크 경로 모니터링

Sun Cluster 소프트웨어는 디스크 경로 모니터링(DPM)을 지원합니다. DPM은 보조 디스크 경로의 실패를 보고하는 방법으로 페일오버 및 스위치오버의 안정성을 전반적으로 향상시킵니다. 두 가지 디스크 경로 모니터링 방법 중 하나를 사용할 수 있습니다. 첫 번째 방법은 scdpm 명령에 의해 제공됩니다. 이 명령을 사용하면 클러스터의 디스크 경로 상태를 모니터, 모니터 해제 또는 표시할 수 있습니다. 명령줄 옵션에 대한 자세한 내용은 scdpm(1M) 설명서 페이지를 참조하십시오.

클러스터의 디스크 경로를 모니터하는 두 번째 방법은 SunPlex Manager 그래픽 사용자 인터페이스(GUI)에 의해 제공됩니다. SunPlex Manager에서는 모니터되는 디스크 경로에 대해 토폴로지 보기를 제공합니다. 이 뷰는 10분마다 업데이트되어 실패한 핑의 개수 정보를 제공합니다.

IP 다중 경로 모니터링

각 클러스터 노드에는 다른 클러스터 노드 구성과 다를 수 있는 자체 IP network multipathing 구성이 있습니다. IP network multipathing에서는 다음 네트워크 통신 실패를 모니터합니다.

쿼럼 장치

쿼럼 장치란 두 개 이상의 노드가 공유하고 클러스터 실행에 필요한 쿼럼 계산에 포함되는 디스크입니다. 투표 쿼럼이 충족될 경우에만 클러스터가 작동합니다. 쿼럼 장치는 클러스터가 별도의 노드 세트로 분할되어 새 클러스터를 구성하는 노드 세트를 설정할 때 사용됩니다.

클러스터 노드와 쿼럼 장치가 모두 투표하여 쿼럼을 채웁니다. 기본적으로, 클러스터 노드는 부트하여 클러스터 구성원이 될 때 하나의 쿼럼 투표 수를 확보합니다. 노드가 설치되거나 관리자가 노드를 유지 보수 상태에 둘 경우 노드는 0의 투표 수를 확보하지 못할 수 있습니다.

쿼럼 장치는 장치에 대한 노드 연결 수를 기초로 쿼럼 투표 수를 확보할 수 있습니다. 쿼럼 장치를 설정할 경우 N-1의 최대 투표 수를 획득해야 합니다. 여기서 N은 쿼럼 장치에 연결된 투표 수입니다. 예를 들어, 투표 수가 0이 아닌 두 노드에 연결된 쿼럼 장치는 쿼럼이 1입니다(2 - 1).

데이터 무결성

Sun Cluster 시스템은 데이터 손상을 방지하고 데이터 무결성을 보장하려고 합니다. 클러스터 노드는 데이터와 자원을 공유하기 때문에 클러스터가 동시에 작동하는 별도의 분할 영역으로 분리되지 않습니다. CMM은 언제라도 하나의 클러스터만 작동하도록 보장합니다.

클러스터 분할 영역에서는정보 분리 및 정보 유실이라는 두 가지 유형의 문제가 발생할 수 있습니다. 정보 분리는 노드 사이의 클러스터 상호 연결이 끊기고 클러스터가 서브 클러스터로 분할될 경우에 발생합니다. 이 때 각 서브 클러스터는 자신을 유일한 분할 영역으로 간주합니다. 다른 하위 클러스터를 인식하지 못하는 하위 클러스터는 중복된 네트워크 주소와 데이터 통신 등 공유 자원에서 충돌을 유발할 수 있습니다.

정보 유실은 모든 노드가 일제히 클러스터에서 제거될 때 발생합니다. 한 가지 예로 노드 A와 노드 B로 구성된 2-노드 클러스터가 있습니다. 노드 A가 다운되면 CCR의 구성 데이터는 노드 A가 아니라 노드 B에서만 업데이트됩니다. 이후에 노드 B가 다운되고 노드 A가 재부트되면 노드 A는 CCR의 기존 내용을 사용하여 실행됩니다. 이 상태를 정보 유실이라 부르며, 부정확한 구성 정보로 클러스터를 실행하는 결과를 초래할 수 있습니다.

각 노드에 한 표만 부여하고 대부분의 표가 작동 클러스터에 참여하도록 지시하면 정보 분리 및 정보 유실 문제를 방지할 수 있습니다. 다수표를 받은 분할 영역은 쿼럼이 충족되기 때문에 작동할 수 있습니다. 다수표 기법은 셋 이상의 노드가 클러스터에 존재할 때 효과적입니다. 노드가 두 개인 클러스터에서는 다수가 둘입니다. 이러한 클러스터가 분할된 경우 분할 영역이 쿼럼을 얻으려면 외부 표가 필요합니다. 외부 표는 쿼럼 장치에서 제공합니다. 두 노드 사이에 공유되는 디스크라면 쿼럼 장치가 될 수 있습니다.

표 2–1에서는 Sun Cluster 소프트웨어에서 쿼럼을 사용하여 정보 분리 및 정보 유실을 방지하는 방법을 설명합니다.

표 2–1 클러스터 쿼럼과 정보 분리 및 정보 유실 문제

분할 영역 유형 

쿼럼 해결 방법 

정보 분리 

다수표를 받은 분할 영역(서브 클러스터)만 클러스터로 실행되게 합니다(다수표 분할 영역은 하나만 존재합니다). 쿼럼 경합에서 진 노드는 중지됩니다.  

정보 유실 

클러스터가 부트될 경우, 최근 클러스터 구성원이었던 최소한 하나의 노드가 있습니다(그러므로 최근 구성 데이터를 수반함).  

장애 차단

클러스터에서 가장 중요한 문제는 클러스터를 분할하는 장애(정보 분리)입니다. 이러한 상황이 발생하면, 모든 노드가 통신할 수 있는 것은 아니므로 개인 노드나 노드 서브 세트가 개인 또는 서브 세트 클러스터를 형성할 수도 있습니다. 각 서브 세트 또는 분할 영역은 멀티 호스트 디스크에 대해 단독 액세스 및 소유권을 갖고 있는 것으로 “인식”할 수도 있습니다. 여러 노드가 이 디스크에 쓰기를 시도하면 데이터 손상이 발생할 수 있습니다.

장애 차단은 디스크에 대한 액세스를 금지하여 멀티 호스트 디스크에 대한 노드 액세스를 제한합니다. 노드가 클러스터에서 나갈 경우(실패하거나 분할되어), 장애 차단은 그 노드가 더 이상 디스크에 액세스할 수 없게 만듭니다. 현재 구성원 노드만 디스크에 대해 액세스할 수 있으므로, 데이터 무결성이 보장됩니다.

Sun Cluster 시스템은 SCSI 디스크 예약 기능을 사용하여 장애 차단을 구현합니다. SCSI 예약 기능을 사용하면 실패한 노드가 멀티 호스트 디스크로부터 “금지”되어 디스크에 액세스할 수 없습니다.

다른 노드가 더 이상 클러스터 상호 연결을 통해 통신할 수 없음을 클러스터 구성원이 발견하면, 그 구성원은 장애 차단 절차를 시작하여 실패한 노드가 공유 디스크에 액세스하지 못하도록 합니다. 장애 차단이 발생하면 차단된 노드는 중단되고 “예약 충돌” 메시지가 콘솔에 나타납니다.

장애 차단을 위한 페일패스트 메커니즘

페일패스트 기법은 실패한 노드를 중단시키지만, 실패한 노드가 재부트되지 않도록 하지는 않습니다. 중단된 노드가 재부트하여 클러스터에 다시 포함되려고 시도할 수 있습니다.

노드가 클러스터의 다른 노드와 연결이 끊어지고 쿼럼을 채울 수 있는 분할 영역에 포함되지 않은 경우에는 다른 노드에 의해 강제로 클러스터에서 제거됩니다. 분할 영역에 포함되고 쿼럼을 채울 수 있는 또 다른 노드가 공유 디스크를 예약할 수 있습니다. 페일패스트 기법의 결과, 쿼럼을 채우지 못한 노드가 중단됩니다.

장치

전역 파일 시스템은 클러스터 전체의 모든 파일을 모든 노드에서 액세스하고 볼 수 있게 합니다. 이와 비슷하게 Sun Cluster 소프트웨어는 클러스터 전체에 걸쳐 모든 장치를 액세스 및 조회 가능하게 만듭니다. 즉 I/O 하위 시스템은 장치가 물리적으로 어디에 연결되었는가와 상관 없이 모든 노드에서 클러스터의 모든 장치에 액세스할 수 있게 합니다. 이러한 액세스를 전역 장치 액세스라고 부릅니다.

전역 장치

Sun Cluster 시스템에서는 전역 장치를 사용하여 클러스터 전체에 걸쳐 모든 노드에서 클러스터의 모든 장치에 대해 고가용 액세스를 제공합니다. 일반적으로 전역 장치에 액세스를 제공하는 동안 노드가 실패하면 Sun Cluster 소프트웨어는 해당 장치에 대한 다른 경로로 스위치오버하고 해당 경로에 대한 액세스를 리디렉션합니다. 전역 장치에서는 이러한 리디렉션이 용이한데, 경로와 상관 없이 해당 장치에 대해 동일한 이름을 사용하기 때문입니다. 원격 장치에 대한 액세스는 동일한 이름을 사용하는 로컬 장치에서와 동일한 방식으로 수행됩니다. 또한 클러스터에서 전역 장치에 액세스하는 API는 로컬 장치 액세스에 사용하는 API와 동일합니다.

Sun Cluster 전역 장치에는 디스크, CD-ROM 및 테이프가 포함됩니다. 그러나 멀티 포트 전역 장치로는 디스크만 지원됩니다. 즉 CD-ROM 및 테이프 장치는 현재 고가용성 장치가 아닙니다. 각 서버의 로컬 디스크 역시 멀티포트 상태가 아니므로 고가용성 장치가 아닙니다.

클러스터는 클러스터를 구성하는 각 디스크, CD-ROM 및 테이프 장치에 고유 ID를 자동으로 할당합니다. 이러한 할당은 클러스터의 어떤 노드에서도 각 장치에 일관되게 액세스할 수 있게 합니다.

장치 ID

Sun Cluster 소프트웨어는 장치 ID(DID) 드라이브라고 부르는 구성 요소를 통해 전역 장치를 관리합니다. 이 드라이버는 멀티 호스트 디스크, 테이프 드라이브 및 CD-ROM을 비롯하여 클러스터의 모든 장치에 고유 ID를 자동 할당할 때 사용합니다.

DID 드라이버는 클러스터의 전역 장치 액세스 기능의 필수 요소입니다. DID 드라이버는 클러스터의 모든 노드를 검사하고 고유 디스크 장치 목록을 작성합니다. 또한 DID 드라이버는 클러스터의 모든 노드에서 일관성을 갖는 고유한 주 번호 및 부 번호를 각 장치마다 할당합니다. 기존의 Solaris DID 대신 DID 드라이버가 할당한 고유 DID를 통해 전역 장치에 액세스합니다.

이 방식에서는 Solaris 볼륨 관리자 또는 Sun Java System Directory Server처럼 디스크에 액세스하는 모든 응용 프로그램이 클러스터 전체에 걸쳐 일관성 있는 경로를 사용할 수 있습니다. 이러한 일관성은 멀티 호스트 디스크에서 특히 중요합니다. 각 장치의 로컬 주 번호 및 부 번호가 노드에 따라 달라질 수 있기 때문입니다. 이 번호는 Solaris 장치 이름 지정 규약도 변경할 수 있습니다.

로컬 장치

Sun Cluster 소프트웨어는 로컬 장치를 관리하기도 합니다. 이 장치는 서비스를 실행하며 클러스터와 물리적으로 연결된 노드에서만 액세스할 수 있습니다. 로컬 장치는 여러 노드의 상태 정보를 동시에 복제할 필요가 없으므로 전역 장치에 비해 성능상의 이점을 가질 수 있습니다. 여러 노드에서 해당 장치를 공유할 수 없는 한 그 장치의 도메인이 실패하면 장치에 대한 액세스가 제거됩니다.

디스크 장치 그룹

디스크 장치 그룹은 기본 디스크에 대해 다중 경로 및 멀티 호스트 지원을 제공하므로 볼륨 관리자 디스크 그룹이 “전역”이 되도록 할 수 있습니다. 물리적으로 멀티 호스트 디스크에 연결된 각 클러스터 노드는 디스크 장치 그룹에 대한 경로를 제공합니다.

Sun Cluster 시스템에서 멀티 호스트 디스크는 디스크 장치 그룹으로 등록하여 Sun Cluster 소프트웨어에서 제어할 수 있습니다. 이 등록을 통해 Sun Cluster 시스템은 어떤 노드가 어떤 볼륨 관리자 디스크 그룹에 대한 경로를 갖는가에 대한 정보를 얻습니다. Sun Cluster 소프트웨어는 클러스터의 각 디스크와 테이프 장치에 대한 원시 디스크 장치 그룹을 만듭니다. 전역 파일 시스템을 마운트하거나 원시 데이터베이스 파일에 액세스하는 방법으로 전역 장치처럼 액세스할 때까지 이 클러스터 장치 그룹은 오프라인 상태를 유지합니다.

데이터 서비스

데이터 서비스는 Sun Cluster 구성 수정 없이 응용 프로그램이 실행될 수 있게 하는 소프트웨어 및 구성 파일의 조합입니다. Sun Cluster 구성에서 실행되는 응용 프로그램은 자원 그룹 관리자(RGM)가 제어하는 자원 형태로 실행됩니다. 데이터 서비스는 Sun Java System Web Server 또는 Oracle 데이터베이스와 같은 응용 프로그램이 단일 서버가 아니라 클러스터에서 실행되도록 구성할 수 있게 합니다.

데이터 서비스 소프트웨어는 응용 프로그램에서 다음 작업을 수행하는 Sun Cluster 관리 방법을 구현합니다.

데이터 서비스의 구성 파일은 RGM에게 응용 프로그램을 나타내는 자원 등록 정보를 정의합니다.

RGM은 클러스터에 포함된 페일오버 및 확장 가능 데이터 서비스의 특징을 제어합니다. RGM은 클러스터 구성원 변경에 대응하여 클러스터의 선택된 노드에서 데이터 서비스를 시작하고 중지하는 일을 담당합니다. RGM은 데이터 서비스 응용 프로그램이 클러스터 프레임워크를 활용할 수 있게 합니다.

RGM은 데이터 서비스를 자원처럼 제어합니다. 이 구현은 Sun에서 제공되거나 개발자가 일반 데이터 서비스 템플리트, 데이터 서비스 개발 라이브러리(DSDL API) 또는 자원 관리 API(RMAPI)를 사용하여 작성합니다. 클러스터 관리자는 자원 그룹이라고 부르는 컨테이너에 자원을 만들고 관리합니다. RGM 및 관리자 작업을 통해 자원 및 자원 그룹은 온라인 상태와 오프라인 상태 간을 전환하게 됩니다.

자원 유형

자원 유형이란 클러스터에 응용 프로그램을 인식시키는 등록 정보 모음입니다. 이러한 모음에는 클러스터의 노드에서 응용 프로그램을 시작, 중지 및 모니터하는 방법에 대한 정보가 포함됩니다. 또한 자원 유형에는 응용 프로그램을 클러스터에서 사용하기 위해 정의해야 하는 응용 프로그램별 등록 정보가 포함됩니다. Sun Cluster 데이터 서비스에는 몇 가지 사전 정의된 자원 유형이 있습니다. 예를 들어, Sun Cluster HA for DNS는 자원 유형 SUNW.oracle-server이고 Sun Cluster HA for Apache는 자원 유형 SUNW.apache입니다.

자원

자원은 클러스터 전체에 걸쳐 정의된 자원 유형의 인스턴스입니다. 자원 유형이 있어 여러 응용 프로그램 인스턴스가 클러스터에 설치될 수 있습니다. 자원을 초기화하면 RGM은 응용 프로그램별 등록 정보에 값을 할당하고 해당 자원은 자원 유형 수준의 모든 등록 정보를 상속합니다.

데이터 서비스는 여러 가지 유형의 자원을 사용합니다. Apache 웹 서버 또는 Sun Java System Web Server와 같은 응용 프로그램은 자신이 종속된 네트워크 주소(논리 호스트 이름 및 공유 주소)를 사용합니다. 응용 프로그램과 네트워크 자원이 RGM에 의해 관리되는 기본 단위를 구성합니다.

자원 그룹

RGM이 관리하는 자원은 하나의 단위로 관리될 수 있도록 자원 그룹에 놓입니다. 자원 그룹은 관련된 또는 상호 종속된 자원들의 집합니다. 예를 들어, SUNW.LogicalHostname 자원 유형에서 파생된 자원은 Oracle 데이터베이스 자원 유형에서 파생된 자원과 같은 자원 그룹에 속할 수 있습니다. 자원 그룹에서 페일오버나 스위치오버가 시작되면 해당 자원 그룹은 하나의 단위로서 마이그레이션합니다.

데이터 서비스 유형

데이터 서비스는 응용 프로그램이 고가용성을 가질 수 있게 하며, 확장 가능한 서비스는 클러스터 내부에서 한번의 실패가 발생한 후 심각한 응용 프로그램 중단이 발생하지 않도록 하는 데 기여합니다.

데이터 서비스를 구성할 때 다음 데이터 서비스 유형 중 하나로 구성해야 합니다.

페일오버 데이터 서비스

페일오버는 클러스터가 실패한 기본 노드에서 응용 프로그램을 찾아서 지정된 중복 보조 노드로 자동 재배치하는 프로세스입니다. 페일오버 응용 프로그램은 다음과 같은 특징을 갖습니다.

오류 모니터가 오류를 발견하면, 데이터 서비스가 구성된 방법에 따라 동일한 노드에서 인스턴스를 재시작하려고 하거나 다른 노드에서 인스턴스를 시작하려고 합니다(페일오버). 페일오버 서비스는 페일오버 자원 그룹을 사용합니다. 이 자원 그룹은 응용 프로그램 인스턴스 자원 및 네트워크 자원(논리 호스트 이름)을 위한 컨테이너입니다. 논리 호스트 이름은 하나의 노드에서 구성될 수 있는 IP 주소로, 나중에 원래 노드에서 자동으로 구성이 중지되고 다른 노드에서 구성이 시작됩니다.

클라이언트의 서비스 연결이 일시 중단되고 페일오버가 종료된 후에 다시 연결해야 하는 경우도 있습니다. 그러나 클라이언트에서는 서비스를 제공하는 물리적 서버의 변경 사항을 알 수 없습니다.

확장 가능 데이터 서비스

확장 가능 데이터 서비스는 응용 프로그램 인스턴스들이 여러 노드에서 동시에 실행될 수 있게 합니다. 확장 가능 서비스는 두 가지 자원 그룹을 사용합니다. 확장 가능 자원 그룹은 응용 프로그램 자원을 포함하며, 페일오버 자원 그룹은 확장 가능 서비스가 종속되는 네트워크 자원(공유 주소)을 포함합니다. 확장 가능 자원 그룹은 여러 노드에서 온라인 상태가 가능하므로, 서비스의 여러 인스턴스가 동시에 실행될 수 있습니다. 공유 주소를 호스팅하는 페일오버 자원 그룹은 한 번에 한 노드에서만 온라인 상태입니다. 확장 가능 서비스를 호스팅하는 모든 노드는 동일한 공유 주소를 사용하여 서비스를 호스팅합니다.

클러스터는 단일 네트워크 인터페이스(전역 인터페이스)를 통해 서비스 요청을 받습니다. 이러한 요청은 로드 균형 조정 정책이 설정한 사전 정의 알고리즘 중 하나를 기반으로 각 노드에 분산됩니다. 클러스터는 로드 균형 조정 정책을 사용하여 몇몇 노드 사이의 서비스 부하 균형을 맞추는 로드 균형 조정 정책을 사용할 수 있습니다.

병렬 응용 프로그램

Sun Cluster 시스템에서는 병렬 데이터베이스를 사용하여 클러스터의 모든 노드에 걸쳐 응용 프로그램의 병렬 실행을 공유하는 환경을 제공합니다. Sun Cluster Support for Oracle Parallel Server/Real Application Clusters는 설치되면 Oracle Parallel Server/Real Application Clusters가 Sun Cluster 노드에서 실행될 수 있게 하는 패키지의 집합입니다. 또한 이 데이터 서비스에서는 Sun Cluster 명령을 사용하여 Sun Cluster Support for Oracle Parallel Server/Real Application Clusters를 관리할 수 있게 합니다.

병렬 응용 프로그램은 클러스터 환경에서 실행되어 둘 이상의 노드에서 마스터할 수 있게 되어 있습니다. Oracle Parallel Server/Real Application Clusters 환경에서는 여러 Oracle 인스턴스가 함께 동일한 공유 주소에 대해 액세스를 제공합니다. Oracle 클라이언트는 이 인스턴스 중 어떤 것이라도 사용하여 데이터베이스에 액세스할 수 있습니다. 따라서 하나 이상의 인스턴스가 실패하더라도 클라이언트는 남아 있는 인스턴스에 연결하여 계속 데이터베이스에 액세스할 수 있습니다.