Sun Java System Application Server 9.1 배포 계획 설명서

HADB 구조

HADB는 노드 쌍으로 구성된 분산 시스템입니다. 노드는 두 개의 DRU(Data Redundancy Units)로 구분되는데, DRU(Data Redundancy Units)의 설명처럼 각 DRU에는 각 노드 쌍의 한 노드가 포함됩니다.

각 노드를 구성하는 요소는 다음과 같습니다.

한 개의 HADB 노드 세트는 하나 이상의 세션 데이터베이스를 호스팅할 수 있습니다. 세션 데이터베이스는 각각 다른 Application Server 클러스터와 연결됩니다. 클러스터를 삭제하면 연결된 세션 데이터베이스도 삭제됩니다.

HADB 하드웨어 요구 사항을 보려면 Sun Java System Application Server 9.1 릴리스 노트하드웨어 및 소프트웨어 요구 사항을 참조하십시오.

노드 및 노드 프로세스

HADB 노드에는 두 가지 유형이 있습니다.

각 노드에는 한 개의 부모 프로세스와 여러 개의 자식 프로세스가 있습니다. NSUP(노드 수퍼바이저)라고 하는 부모 프로세스는 관리 에이전트에 의해 시작되며, 자식 프로세스를 만들어 실행 상태를 유지하는 작업을 수행합니다.

자식 프로세스는 다음과 같습니다.

DRU(Data Redundancy Units)

앞에서 설명한 대로 HADB 인스턴스에는 한 쌍의 DRU가 포함되어 있습니다. 각 DRU는 쌍을 이루는 다른 DRU와 동일한 수의 활성 노드와 예비 노드를 갖습니다. 한 DRU의 각 활성 노드에는 다른 DRU의 미러 노드가 있습니다. 각 DRU에는 미러링으로 인해 전체 데이터베이스의 복사본이 포함되어 있습니다.

다음 그림은 활성 노드 4개와 예비 노드 두 개로 구성된 6개의 노드가 있는 HADB 구조 예를 보여줍니다. 노드 0과 노드 1은 하나의 미러 쌍이고 노드 2와 노드 3도 미러 쌍입니다. 이 예에서 각 호스트에는 하나의 노드가 있습니다. 일반적으로, 시스템 자원이 충분할 경우 호스트에 둘 이상의 노드가 있을 수 있습니다( 시스템 요구 사항 참조).


주 –

각 DRU에 한 시스템씩 HADB 노드를 쌍으로 호스팅하는 시스템을 추가해야 합니다.


HADB는 데이터와 서비스를 복제하여 고가용성을 달성합니다. 미러 노드의 데이터 복제본은 기본 복제본상시 대기 복제본으로 지정됩니다. 기본 복제본은 삽입, 삭제, 업데이트 및 읽기와 같은 작업을 수행합니다. 상시 대기 복제본은 기본 복제본 작업의 로그 레코드를 수신하여 트랜잭션 수명 내에서 재실행합니다. 읽기 작업은 기본 노드에 의해서만 수행되므로 기록되지 않습니다. 각 노드는 기본 복제본과 상시 대기 복제본을 모두 포함하고 두 역할을 모두 수행합니다. 데이터베이스는 단편화되어 DRU의 활성 노드에 분산됩니다. 미러 쌍의 각 노드는 동일한 데이터 단편 집합을 포함합니다. 미러 노드의 데이터 중복화를 복제라고 합니다. 복제를 사용하면 HADB에서 고가용성을 제공할 수 있습니다. 노드에 오류가 발생하면 미러 노드가 몇 초 내로 거의 즉시 인계를 받습니다. 복제는 가용성을 확보하고 데이터나 서비스 손실 없이 노드 오류 또는 DRU 오류를 마스크합니다.

오류 발생 노드의 기능을 인계 받은 미러 노드는 자체 작업과 함께 오류 발생 노드의 작업까지 이중 작업을 수행해야 합니다. 미러 노드의 자원이 부족한 경우 오버로드로 인해 성능이 저하되고 오류 가능성이 높아집니다. 노드에 오류가 발생하면 HADB는 노드를 다시 시작하려고 시도합니다. 하드웨어 장애 등으로 인해 오류 발생 노드가 다시 시작되지 않으면 시스템은 계속 작동하지만 가용성이 감소합니다.

HADB는 노드 하나, 전체 DRU 또는 여러 노드의 오류를 허용하지만 노드와 해당 미러에 모두 오류가 발생하는 "이중 오류"는 허용하지 않습니다. 이중 오류 가능성을 줄이는 방법에 대한 자세한 내용은 이중 오류 완화를 참조하십시오.

예비 노드

노드에 오류가 발생하면 해당 미러 노드가 작업을 인계 받습니다. 오류 노드에 예비 노드가 없으면 이 때 오류 노드에 미러가 없습니다. 예비 노드는 오류 발생 노드의 미러를 자동으로 복제합니다. 예비 노드가 있으면 시스템이 미러 노드 없이 작동하는 시간이 감소합니다.

예비 노드는 일반적으로 데이터를 포함하지 않지만 DRU의 활성 노드에 오류가 있는지 지속적으로 모니터합니다. 한 노드에 오류가 발생하고 지정된 시간 초과 기간 내에 복구되지 않으면 예비 노드가 미러 노드에서 데이터를 복사하여 동기화합니다. 이 작업에 소요되는 시간은 복사되는 데이터 양과 시스템 및 네트워크 용량에 따라 달라집니다. 동기화한 후 예비 노드가 수동 개입 없이 미러 노드를 자동으로 대체하므로 미러 노드가 오버로드에서 해제되어 미러의 로드 균형이 조정됩니다. 이 작업은 페일백 또는 자체 복구라고도 합니다.

하드웨어를 바꾸거나 소프트웨어를 업그레이드하여 오류 발생 호스트가 복구 및 다시 시작되면 원래 예비 노드가 현재 활성 상태이므로 호스트에서 실행 중인 노드가 예비 노드로 시스템에 참가합니다.

예비 노드가 필수 항목은 아니지만 이를 사용하여 시스템에 오류가 발생한 경우에도 시스템의 전체 서비스 수준을 유지할 수 있습니다. 또한 예비 노드를 사용하면 활성 노드를 호스팅하는 시스템에서 계획된 유지 보수를 손쉽게 수행할 수 있습니다. 시스템 중 하나에 오류가 발생할 경우 HADB 시스템이 성능과 가용성에 악영향을 주지 않고 계속 작동하도록 DRU에 예비 시스템 역할을 수행할 시스템을 각각 하나씩 할당합니다.


주 –

일반적으로 사용할 수 없게 되는 시스템을 대체할 만큼 Application Server 인스턴스 및 HADB 노드가 충분한 예비 시스템을 사용합니다.


예비 노드 구성 예

다음 예는 HADB 배포에서 예비 노드의 사용을 보여줍니다. 가능한 두 가지 배포 토폴로지로 HADB 및 Application Server가 동일한 호스트에 상주하는 공존 토폴로지와 각각 다른 호스트에 상주하는 개별 계층 토폴로지가 있습니다. 배포 토폴로지에 대한 자세한 내용은 3 장, 토폴로지 선택을 참조하십시오.

예: 공존 구성

예비 노드 구성 예로서 각 서버에 Application Server 인스턴스 하나와 HADB 데이터 노드 둘이 있는 4대의 Sun FireTM V480 서버로 구성된 공존 토폴로지가 있다고 가정합니다.

예비 노드로 두 대의 서버를 추가로 할당합니다(DRU당 시스템 한 대). 각 예비 시스템은 Application Server 인스턴스 하나와 예비 HADB 노드 둘을 실행합니다.

예: 개별 계층 구성

HADB 계층에 서버당 두 개의 HADB 데이터 노드를 실행하는 두 대의 Sun FireTM 280R 서버가 있는 개별 계층 토폴로지가 있다고 가정합니다. 이 시스템에서 시스템 한 대가 사용할 수 없게 된 경우에도 성능을 유지하려면 Application Server 인스턴스 계층과 HADB 계층에 사용할 예비 시스템을 각각 하나씩 구성합니다.

Application Server 인스턴스 계층용 예비 시스템에는 Application Server 인스턴스 계층의 다른 시스템과 동일한 수의 인스턴스가 있어야 합니다. 마찬가지로 HADB 계층용 예비 시스템에도 HADB 계층의 다른 시스템과 동일한 수의 HADB 노드가 있어야 합니다.