Sun Cluster 3.0 개념

2장 주요 개념 - 하드웨어 서비스 제공업체

이 장에서는 Sun Cluster 구성의 하드웨어 구성요소에 관련되는 주요 개념에 대해 설명합니다.

Sun Cluster 하드웨어 구성요소

이 정보는 기본적으로 하드웨어 서비스 제공업체를 위한 것입니다. 이 개념들은 서비스 제공업체에서 클러스터 하드웨어를 설치, 구성하거나 서비스를 제공하기 전에 하드웨어 구성요소 사이의 관계를 이해하는데 도움이 됩니다. 클러스터 시스템 관리자는 클러스터 소프트웨어 설치, 구성 및 관리에 대한 배경 정보로 이 정보를 사용할 수 있습니다.

클러스터는 다음과 같은 몇 가지의 하드웨어 구성요소로 구성됩니다.

Sun Cluster는 이러한 구성요소를 다양한 구성으로 결합할 수 있도록 하며 "Sun Cluster 토폴로지"에서 설명됩니다.

다음 그림은 클러스터 구성 샘플을 보여줍니다.

그림 2-1 2-노드 클러스터 구성 샘플

Graphic

클러스터 노드

클러스터 노드는 Solaris 운영 환경 및 Sun Cluster 소프트웨어 둘 다를 실행하는 시스템으로, 클러스터의 현재 구성원(클러스터 구성원)이거나 잠재 구성원입니다. Sun Cluster 소프트웨어가 있는 경우 클러스터에 2 - 8개의 노드가 있을 수 있습니다. 지원되는 노드 구성에 대해서는 "Sun Cluster 토폴로지"의 내용을 참조하십시오.

클러스터 노드는 일반적으로 하나 이상의 멀티호스트 디스크에 접속됩니다. 하나의 확장 가능 서비스 구성은 직접적으로 멀티호스트 디스크에 접속되지 않고도 노드에서 서비스 요청이 가능하도록 합니다. 멀티호스트 디스크에 접속되지 않은 노드는 멀티호스트 디스크에 액세스하기 위해 클러스터 파일 시스템을 사용합니다.

병렬 데이터베이스 구성에서, 노드들은 모든 디스크에 대한 동시 액세스를 공유합니다. 병렬 데이터베이스 구성에 대한 자세한 정보는 "멀티호스트 디스크"제 3 장의 내용을 참조하십시오.

클러스터의 모든 노드는 클러스터에 액세스하고 클러스터를 관리하기 위해 사용되는 공통 이름-클러스터 이름-으로 그룹화됩니다.

공용 네트워크 어댑터는 노드를 공유 네트워크에 접속하여, 클러스터에 대한 클라이언트 액세스를 제공합니다.

클러스터 구성원은 사설 네트워크라는 하나 이상의 실제 독립적 네트워크를 통해 클러스터의 다른 노드와 통신합니다. 클러스터의 사설 네트워크 세트를 클러스터 상호연결이라고 합니다.

클러스터의 모든 노드는 다른 노드가 클러스터에 조인하거나 클러스터에서 나갈 때 이를 인식합니다. 또한 클러스터의 모든 노드는 로컬로 실행되는 자원 뿐만 아니라 다른 클러스터 노드에서 실행되는 자원을 인식합니다.

페일오버 및/또는 확장가능 기능을 제공하는 것과 같은 형태로 자원(응용프로그램, 디스크 스토리지 등)을 사용하여 클러스터 구성원을 구성하십시오.

동일한 클러스터의 노드들은 프로세싱, 메모리 및 I/O 기능이 유사한 지 확인하여 현저한 성능 저하 없이 페일오버가 발생할수 있도록 하십시오. 페일오버 가능성을 위해, 모든 노드가 백업 또는 2차 노드로 있는 모든 노드의 작업부하를 처리할 수 있을 만큼 충분한 용량을 갖고 있는지 확인하십시오.

각 노드는 고유한 개별 루트(/) 파일 시스템을 부팅합니다.

클러스터 구성원용 소프트웨어 구성요소

클러스터 구성원으로서 기능을 가지려면, 다음 소프트웨어가 설치되어야 합니다.

한가지 예외는 Oracle Parallel Server(OPS)에서 하드웨어 독립 디스크의 중복 배열(RAID)을 사용하는 구성입니다. 이러한 구성은 Oracle 데이터를 관리하는 데 Solstice DiskSuite 또는 VERITAS Volume Manager 같은 소프트웨어 볼륨 관리자가 필요하지 않습니다

Solaris 운영 환경, Sun Cluster 및 볼륨 관리 소프트웨어를 설치하는 방법에 대해서는 Sun Cluster 3.0 Installation Guide의 내용을 참조하십시오. 데이터 서비스의 설치 및 구성 방법에 대해서는 Sun Cluster 3.0 Data Services Installation and Configuration Guide의 내용을 참조하십시오

이전의 소프트웨어 구성요소에 대한 개념 정보에 대해서는 제 3 장의 내용을 참조하십시오.

다음 그림은 Sun Cluster 소프트웨어 환경을 만들기 위해 함께 작동되는 소프트웨어 구성요소들의 고급 보기입니다.

그림 2-2 Sun Cluster 소프트웨어 구성요소들의 고급 관계

Graphic

클러스터 구성원에 대한 질문 및 응답에 대해서는 제 4 장의 내용을 참조하십시오.

멀티호스트 디스크

Sun Cluster에서는 한번에 한개 이상의 노드에 연결될 수 있는 멀티호스트 디스크 스토리지가 요구됩니다. Sun Cluster 환경에서, 멀티호스트 스토리지는 디스크 디바이스를 고가용성으로 작성합니다. 멀티호스트 저장장치에 상주하는 디스크 디바이스는 단일 노드 실패를 허용합니다.

멀티호스트 디스크는 응용프로그램 데이터를 저장하고 데이터 서비스 바이너리 및 구성 파일도 저장할 수 있습니다.

멀티호스트 디스크는 디스크를 "마스터"하는 1차 노드를 통하거나 로컬 경로를 통한 직접 동시 액세스에 의해 글로벌하게 액세스됩니다. 현재 직접 동시 액세스를 사용하는 응용프로그램은 OPS 뿐입니다.

멀티호스트 디스크는 노드 실패를 보호합니다. 클라이언트 요청이 하나의 노드를 통해 데이터에 액세스하는데 그 노드가 실패하면, 요청은 스위치오버되어 동일한 디스크에 대한 직접 연결을 가진 또 다른 노드를 사용합니다.

볼륨 관리자는 멀티호스트 디스크의 데이터 중복성에 대한 미러링된 구성 또는 RAID-5 구성에 대해 제공됩니다. 현재, Sun Cluster는 Solstice DiskSuite 및 VERITAS Volume Manager를 볼륨 관리자로 그리고 Sun StorEdgeTM A3x00 스토리지 유닛의 RDAC RAID-5 하드웨어 제어기로 지원합니다.

멀티호스트 디스크를 디스크 미러링 및 스트라이핑으로 결합하면, 노드 실패와 개인 디스크 실패 둘 다에 대해 보호됩니다.

멀티호스트 스토리지에 대한 질문 및 응답에 대해서는 제 4 장의 내용을 참조하십시오.

다중 초기설정기 SCSI

이 절은 SCSI 스토리지 디바이스에만 적용되며 멀티호스트 디스크에 사용되는 Fibre Channel 스토리지에는 적용되지 않습니다.

독립형 서버에서, 서버 노드는 서버를 특정 SCSI 버스에 연결하는 SCSI 호스트 어댑터 회로를 사용하여 SCSI 버스 활동을 제어합니다. 이 SCSI 호스트 어댑터 회로를 SCSI 초기설정기라고 합니다. 이 회로는 해당 SCSI 버스에 대한 모든 버스 활동을 초기화합니다. Sun 시스템에서 SCSI 호스트 어댑터의 기본 SCSI 주소는 7입니다.

클러스터 구성은 다중 서버 노드들 사이에 스토리지를 공유합니다. 클러스터 스토리지가 단일 단자 또는 차등 SCSI 디바이스로 구성될 경우, 그 구성을 다중 초기설정기 SCSI라고 합니다. 이 용어에서 암시하는 것처럼, 여러 개의 SCSI 초기설정기가 SCSI 버스에 존재합니다.

SCSI 스펙에서는 SCSI 버스에 있는 각 디바이스가 고유한 SCSI 주소를 갖도록 요구합니다(또한 호스트 어댑터도 SCSI 버스의 디바이스입니다). 다중 초기설정기 환경에서의 기본 하드웨어 구성은 모든 SCSI 호스트 어댑터 기본값이 7이므로 충돌을 일으킵니다.

이러한 충돌을 해결하려면, 각 SCSI 버스에서 SCSI 주소가 7인 SCSI 호스트 어댑터 중 하나를 버리고 다른 호스트 어댑터를 사용하지 않는 SCSI 주소로 설정하십시오. 적절한 계획 방법은 이러한 "사용되지 않는" SCSI 주소에 현재 사용되지 않는 주소와 최종적으로 사용되지 않을 주소 둘 다를 포함시키는 것입니다. 이후 사용되지 않을 주소의 예는 새로운 드라이브를 빈 드라이브 슬롯에 설치하여 스토리지를 추가할 경우의 주소입니다. 대부분의 구성에서 2차 호스트 어댑터에 대해 사용가능한 SCSI 주소는 6입니다.

scsi-initiator-id OBP(Open Boot PROM) 등록 정보를 설정하여 이러한 호스트 어댑터에 대해 선택된 SCSI 주소를 변경할 수 있습니다. 하나의 노드 또는 호스트 어댑터 기준으로 이 등록 정보를 글로벌로 설정할 수 있습니다. 각 SCSI 호스트 어댑터에 대한 고유한 scsi-initiator-id를 설정하는 방법에 대한 지시사항은 Sun Cluster 3.0 Hardware Guide에서 각각의 디스크 인클로저에 포함되어 있습니다.

로컬 디스크

로컬 디스크는 하나의 노드에만 연결된 디스크입니다. 그러므로 노드 실패에 대해 보호되지 않습니다(고가용성이 아님). 그러나 로컬 디스크를 포함한 모든 디스크가 글로벌 이름 공간에 포함되므로 글로벌 디바이스로 구성됩니다. 그러므로 디스크 자체는 모든 클러스터 노드에서 볼 수 있습니다. 이러한 디스크의 파일 시스템을 글로벌 마운트 지점 아래에 놓아서 다른 노드가 사용할 수 있도록 만들 수 있습니다. 현재 이러한 글로벌 파일 시스템 중 하나를 가지고 있는 노드가 마운트하는 데 실패하면, 모든 노드가 그 파일 시스템에 대한 액세스를 유실하게 됩니다. 볼륨 관리자를 사용하면 디스크 실패가 있어도 이러한 파일 시스템에 액세스할 수 있도록 디스크를 미러링할 수 있지만, 볼륨 관리자는 노드 실패에 대해 보호되지 않습니다.

제거가능 미디어

테이프 드라이브와 CD-ROM 드라이브와 같은 제거가능한 미디어가 클러스터에서 지원됩니다. 일반적으로, 클러스터링되지 않은 환경에서와 동일한 방법으로 이러한 디바이스를 설치, 구성하고 서비스를 제공할 수 있습니다. 이 디바이스들은 Sun Cluster에서 글로벌 디바이스로 구성되므로 각 디바이스는 클러스터에 있는 모든 노드에서 액세스할 수 있습니다 제거가능한 미디어 설치 및 구성에 대해서는 Sun Cluster 3.0 Hardware Guide의 내용을 참조하십시오

클러스터 상호연결

클러스터 상호연결은 클러스터 개인 통신과 데이터 서비스 통신을 클러스터 노드들 사이에 전송하기 위해 사용되는 디바이스들의 실제 구성입니다. 상호연결은 클러스터 개인 통신에 포괄적으로 사용되므로 성능을 제한할 수 있습니다.

클러스터 노드만 개인 상호연결에 연결될 수 있습니다. Sun Cluster 보안 모델은 클러스터 노드만 개인용 상호연결에 대한 실제 액세스를 갖고 있다고 가정합니다.

모든 노드는 단일 실패 지점을 피하기 위해, 최소한 두 개의 중복된 사설 네트워크 또는 경로를 통해 클러스터 상호연결에 의해 연결되어야 합니다. 두 노드 사이에 여러개의 사설 네트워크(2 - 6개)를 사용할 수 있습니다. 클러스터 상호연결은 세 개의 하드웨어 구성요소인 어댑터, 접합 및 케이블로 구성됩니다. 각각의 사설 네트워크는 다른 사설 네트워크와 공통 하드웨어 구성요소들을 전혀 공유하지 않도록 구성됩니다.

다음 목록은 이러한 하드웨어 구성요소 각각에 대해 설명합니다.

클러스터 상호연결에 대한 질문 및 응답에 대해서는 제 4 장의 내용을 참조하십시오.

공용 네트워크 인터페이스

클라이언트는 공용 네트워크 인터페이스를 통해 클러스터에 연결합니다. 각 네트워크 어댑터 카드는 카드에 여러 하드웨어 인터페이스가 있는지에 따라 하나 이상의 공용 네트워크에 연결할 수 있습니다. 하나의 카드가 활동 중이고 다른 카드들은 백업으로 작동되도록 구성된, 여러 개의 공용 네트워크 인터페이스 카드를 포함하도록 노드를 설정할 수 있습니다. "공용 네트워크 관리"(PNM)라는 Sun Cluster 소프트웨어 서브시스템은 활동 중인 인터페이스를 모니터합니다. 활동 중인 어댑터가 실패할 경우, 백업 어댑터 중 하나로 인터페이스를 페일오버하기 위해 NAFO(Network Adapter Failover) 소프트웨어를 호출합니다.

공용 네트워크 인터페이스에 대한 클러스터링에 관련되는 특수 하드웨어 고려사항은 없습니다.

공용 네트워크에 대한 질문 및 응답에 대해서는 제 4 장의 내용을 참조하십시오.

클라이언트 시스템

클라이언트 시스템은 공용 네트워크를 통해 클러스터에 액세스하는 다른 서버나 워크스테이션을 포함합니다. 클라이언트측 프로그램은 클러스터에서 실행되는 서버측 응용프로그램에 의해 제공되는 데이터나 다른 서비스를 사용합니다.

클라이언트 시스템은 고가용성 시스템이 아닙니다. 클러스터의 데이터 및 응용프로그램은 고가용성입니다.

클라이언트 시스템에 대한 질문 및 응답에 대해서는 제 4 장의 내용을 참조하십시오.

관리 콘솔

관리 콘솔이라는 전용 SPARCstationTM 시스템을 사용하여 활동 중인 클러스터를 관리할 수 있습니다. 일반적으로, CCP(Cluster Control Panel) 및 Sun Management Center 제품용 Sun Cluster 모듈과 같은 관리 도구 소프트웨어를 관리 콘솔에 설치하고 실행합니다. CCP에서 cconsole을 사용하면 여러 개의 노드 콘솔을 한번에 연결할 수 있습니다. CCP 사용에 대해서는 Sun Cluster 3.0 System Administration Guide의 내용을 참조하십시오

관리 콘솔은 클러스터 노드가 아닙니다. 네트워크용 터미널 콘센트레이터를 통해 공용 또는 선택적 네트워크를 거쳐 클러스터 노드에 원격 액세스하기 위해 관리 콘솔을 사용합니다. 클러스터가 SunTM Enterprise E10000 플랫폼으로 구성될 경우, 관리 콘솔에서 SSP(System Service Processor)로 로그인하고 netcon(1M) 명령을 연결할 수 있는 능력을 가지고 있어야 합니다.

일반적으로, 노드를 모니터 없이 구성합니다. 그러면, 터미널 콘센트레이터에 연결되어 있는 관리 콘솔과 노드의 직렬 포트에 연결된 터미널 콘센트레이터에서 telnet 세션을 통해 노드 콘솔에 액세스합니다. (Sun Enterprise E10000 server의 경우, SSP에서 연결합니다.)"콘솔 액세스 디바이스"에서 자세한 내용을 참조하십시오.

Sun Cluster는 전용 관리 콘솔을 요구하지 않지만 전용 관리 콘솔을 사용하면 다음과 같은 이점이 있습니다.

관리 콘솔에 대한 질문 및 응답에 대해서는 제 4 장의 내용을 참조하십시오.

콘솔 액세스 디바이스

모든 클러스터 노드에 대해 콘솔 액세스가 있어야 합니다. 콘솔 액세스를 확보하려면, 클러스터 하드웨어와 함께 구입한 터미널 콘센트레이터, Sun Enterprise E10000 server 서버상의 SSP 또는 각 노드에서 ttya에 액세스할 수 있는 또 다른 디바이스를 사용하십시오.

지원되는 하나의 콘센트레이터만 Sun에서 사용할 수 있습니다. 지원되는 Sun 터미널 콘센트레이터를 사용하는 것은 선택적입니다. 터미널 콘센트레이터는 TCP/IP 네트워크를 사용하여 각 노드에서 ttya에 액세스할 수 있게 합니다. 그 결과, 네트워크 상의 원격 워크스테이션에서 각 노드에 콘솔 레벨로 액세스할 수 있습니다.

SSP는 Sun Enterprise E10000 server에 대한 콘솔 액세스를 제공합니다. SSP는 Sun Enterprise E10000 server를 지원하기 위해 구성된 이더넷 네트워크의 SPARCstation 시스템입니다. SSP는 Sun Enterprise E10000 server용 관리 콘솔입니다. Sun Enterprise E10000 네트워크 콘솔 기능을 사용하면, 네트워크의 워크스테이션은 호스트 콘솔 세션을 열 수 있습니다.

다른 콘솔 액세스 방법에는 다른 터미널 콘센트레이터가 포함됩니다(tip(1) 다른 노드나 더미 터미널로부터의 직렬 포트 액세스). SunTM 키보드와 모니터를 사용하거나 하드웨어 서비스 제공업체에서 지원하는 다른 직렬 포트 디바이스를 사용할 수 있습니다.

콘솔 디바이스에 대한 질문 및 응답에 대해서는 제 4 장의 내용을 참조하십시오.

Sun Cluster 토폴로지

토폴로지는 클러스터 노드를 클러스터에서 사용되는 스토리지 플랫폼에 연결하는 연결 스키마입니다.

Sun Cluster는 다음과 같은 토폴로지를 지원합니다.

다음 절에서는 각각의 토폴로지에 대해 설명합니다.

클러스터된 쌍 토폴로지

클러스터된 쌍 토폴로지는 단일 클러스터 관리 프레임워크 하에 작동되는 두 개 이상의 노드 쌍입니다. 이 구성에서는 쌍 사이에서만 페일오버가 발생합니다. 그러나 모든 노드는 사설 네트워크에 의해 연결되고 Sun Cluster 소프트웨어 제어 하에 작동됩니다. 이 토폴로지를 사용하여, 하나의 쌍에서 병렬 데이터베이스 응용프로그램을 실행하고 다른 쌍에서 고가용성 응용프로그램을 실행할 수 있습니다. 클러스터 파일 시스템을 사용하면, 모든 노드가 응용프로그램 데이터를 저장하는 디스크에 직접 연결되어 있지 않아도 세 개 이상의 노드가 확장가능 서비스나 병렬 데이터베이스를 실행하는 두쌍 구성도 사용할 수 있습니다.

다음 그림은 클러스터된 쌍 구성을 보여줍니다.

그림 2-3 클러스터된 쌍 토폴로지

Graphic

Pair+M 토폴로지

pair+M 토폴로지에는 공유 스토리지 및 추가 노드 세트에 직접 연결된 노드의 쌍이 포함되어 있습니다. 이 추가 노드 세트는 자체적인 직접 연결이 없이 공유 스토리지에 액세스하기 위해 클러스터 상호 연결을 사용합니다. 이 구성에 있는 모든 노드는 여전히 볼륨 관리자로 구성됩니다.

다음 그림은 네 개의 노드 중 두 개의 노드(노드 3 및 노드 4)가 클러스터 상호연결을 사용하여 스토리지에 액세스하는 pair+M 토폴로지를 보여줍니다. 이 구성은 공유 스토리지에 직접 액세스하지 않은 추가 노드를 포함하도록 확장될 수 있습니다.

그림 2-4 Pair+M 토폴로지

Graphic

N+1(Star) 토폴로지

N+1 토폴로지에는 몇 개의 1차 노드와 하나의 2차 노드가 들어 있습니다. 1차 노드와 2차 노드를 동일하게 구성할 필요는 없습니다. 1차 노드는 활동적으로 응용프로그램 서비스를 제공합니다. 2차 노드는 1차 노드의 실패가 있을 때까지 비활동 상태일 필요는 없습니다.

2차 노드는 실제로 모든 멀티호스트 스토리지에 연결된 구성에서 유일한 노드입니다.

1차 노드에서 실패가 발생하면, Sun Cluster는 자원을 2차 노드로 실패 복귀합니다.

2차 노드는 1차 노드 중 하나가 실패할 경우, 부하를 처리할 수 있을 만큼 충분히 많은 CPU 용량이 있어야 합니다.

다음 그림은 N+1 구성을 보여줍니다.

그림 2-5 N+1 토폴로지

Graphic