탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
![]() |
Oracle Solaris Cluster 소프트웨어 설치 설명서 Oracle Solaris Cluster (한국어) |
1. Oracle Solaris Cluster 구성 계획
관리 콘솔에 클러스터 제어판 소프트웨어를 설치하는 방법
SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법
4. Solaris Volume Manager 소프트웨어 구성
5. Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성
8. Sun Management Center에 Oracle Solaris Cluster 모듈 설치
이 절에서는 클러스터 노드에 소프트웨어를 설치하는 정보 및 절차에 대해 설명합니다.
다음 작업 맵에는 다중 호스트 또는 단일 호스트 클러스터에 소프트웨어를 설치하기 위해 수행해야 하는 작업이 나열되어 있습니다. 표시된 순서대로 절차를 완료하십시오.
표 2-1 작업 맵: 소프트웨어 설치
|
소프트웨어 설치를 시작하기 전에 다음과 같이 준비하십시오.
지원되는 클러스터 구성에 대한 최신 정보는 Oracle 영업 센터에 문의하십시오.
Oracle Solaris Cluster 3.3 5/11 릴리스 노트 - 제한 사항, 버그 해결 방법 및 기타 최신 정보를 제공합니다.
Oracle Solaris Cluster Concepts Guide - Oracle Solaris Cluster 제품 개요입니다.
Oracle Solaris Cluster 소프트웨어 설치 설명서(본 설명서) - Solaris, Oracle Solaris Cluster 및 볼륨 관리자 소프트웨어를 설치하고 구성하기 위한 계획 지침 및 절차입니다.
Oracle Solaris Cluster Data Services Planning and Administration Guide - 데이터 서비스를 설치하고 구성하기 위한 계획 지침 및 절차입니다.
다음은 클러스터 설치 중에 참조해야 할 제품 설명서 목록 중 일부입니다.
Solaris OS
Solaris Volume Manager 소프트웨어
Sun QFS 소프트웨어
Veritas Volume Manager(VERITAS 볼륨 관리자)
타사 응용 프로그램
![]() | 주의 - 클러스터 설치를 완벽하게 계획합니다. Solaris 및 Oracle Solaris Cluster 소프트웨어 설치를 시작하기 전에 모든 데이터 서비스 및 타사 제품의 요구 사항을 확인합니다. 그렇게 하지 않으면 설치 오류가 발생하여 Solaris 및 Oracle Solaris Cluster 소프트웨어를 완전히 다시 설치해야 할 수도 있습니다. Oracle Solaris Cluster 소프트웨어를 설치한 후에는 호스트 이름을 변경할 수 없기 때문에 Oracle Solaris Cluster 소프트웨어를 설치하기 전에 이러한 요구 사항을 충족해야 합니다. |
1 장Oracle Solaris Cluster 구성 계획 및 Oracle Solaris Cluster Data Services Planning and Administration Guide의 계획 지침을 사용하여 클러스터를 설치하고 구성하는 방법을 결정합니다.
계획 지침을 참조하여 클러스터 프레임워크 및 데이터 서비스 구성 워크시트를 작성합니다. 설치 및 구성 작업 중에 완성된 워크시트를 참조합니다.
패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.
다음 순서
관리 콘솔에서 클러스터 노드로 연결하기 위해 클러스터 제어판(Cluster Control Panel, CCP) 소프트웨어를 사용하려면 관리 콘솔에 클러스터 제어판 소프트웨어를 설치하는 방법으로 이동합니다.
그렇지 않으면 사용할 Solaris 설치 절차를 선택합니다.
scinstall(1M) 유틸리티를 사용하여 Oracle Solaris Cluster 소프트웨어를 구성하려면 Solaris 소프트웨어를 설치하는 방법으로 이동하여 Solaris 소프트웨어를 먼저 설치합니다.
Solaris 및 Oracle Solaris Cluster 소프트웨어를 동일한 작업으로 설치하고 구성(JumpStart 방법)하려면 Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치하는 방법(JumpStart)으로 이동합니다.
호스트 서버를 쿼럼 서버로 구성하려면 이 절차를 수행합니다.
시작하기 전에
다음 작업을 수행합니다.
쿼럼 서버로 선택한 시스템에 Oracle Java Web Console 소프트웨어 설치에 사용할 1MB 이상의 디스크 공간이 있는지 확인합니다.
쿼럼 서버 시스템이 클러스터 노드에 액세스할 수 있는 공용 네트워크에 연결되어 있는지 확인합니다.
쿼럼 서버가 실행될 클러스터 공용 네트워크에 연결된 포트에 대한 이더넷 스위치에서 확장 트리 알고리즘을 비활성화합니다.
# xhost + # setenv DISPLAY nodename:0.0
볼륨 관리 데몬(vold(1M))이 실행 중이고 CD-ROM 또는 DVD 장치를 관리하도록 구성되어 있으면 이 데몬은 /cdrom/cdrom0 디렉토리에 매체를 자동으로 마운트합니다.
SPARC 플랫폼에 소프트웨어 패키지를 설치하려는 경우 다음 명령을 입력합니다.
phys-schost# cd /cdrom/cdrom0Solaris_sparc
x86 플랫폼에 소프트웨어 패키지를 설치하려는 경우 다음 명령을 입력합니다.
phys-schost# cd /cdrom/cdrom0Solaris_x86
phys-schost# ./installer
Configure Later(나중에 구성) 옵션을 선택합니다.
주 - 설치 프로그램에서 Configure Later(나중에 구성) 옵션을 선택할 수 없으면 Configure Now(지금 구성)를 선택합니다.
설치가 완료된 후 사용 가능한 설치 로그를 볼 수 있습니다. installer 프로그램 사용에 대한 추가 정보는 Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX를 참조하십시오.
phys-schost# eject cdrom
패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.
quorumserver# PATH=$PATH:/usr/cluster/bin
quorumserver# MANPATH=$MANPATH:/usr/cluster/man
다음 항목을 /etc/scqsd/scqsd.conf 파일에 추가하여 쿼럼 서버에 대한 구성 정보를 지정합니다.
인스턴스 이름이나 포트 번호 중 하나 이상을 사용하여 쿼럼 서버를 식별합니다. 포트 번호는 반드시 제공해야 하지만 인스턴스 이름은 선택 사항입니다.
인스턴스 이름을 제공할 경우 해당 이름은 쿼럼 서버에서 고유해야 합니다.
인스턴스 이름을 제공하지 않을 경우 항상 이 쿼럼 서버가 수신하는 포트별로 쿼럼 서버를 참조합니다.
/usr/cluster/lib/sc/scqsd [-d quorumdirectory] [-i instancename] -p port
쿼럼 서버가 쿼럼 데이터를 저장할 수 있는 디렉토리에 대한 경로입니다.
쿼럼 서버 프로세스에서는 클러스터별 쿼럼 정보를 저장하기 위해 이 디렉토리에 클러스터당 하나의 파일을 만듭니다.
기본적으로 이 옵션의 값은 /var/scqsd입니다. 이 디렉토리는 구성하는 각 쿼럼 서버에 대해 고유해야 합니다.
쿼럼 서버 인스턴스에 대해 사용자가 선택하는 고유한 이름입니다.
쿼럼 서버가 클러스터로부터 요청을 수신하는 포트 번호입니다.
quorumserver# /usr/cluster/bin/clquorumserver start quorumserver
쿼럼 서버를 식별합니다. 쿼럼 서버가 수신하는 포트 번호를 사용할 수 있습니다. 구성 파일에서 인스턴스 이름을 제공한 경우 해당 이름을 대신 사용할 수 있습니다.
단일 쿼럼 서버를 시작하려면 인스턴스 이름이나 포트 번호를 제공합니다.
여러 개의 쿼럼 서버를 구성한 경우 모든 쿼럼 서버를 시작하려면 + 피연산자를 사용합니다.
일반 오류
설치 프로그램에서 쿼럼 서버 패키지의 간단한 pkgadd 설치를 수행하고 필요한 디렉토리를 설정합니다. 소프트웨어는 다음 패키지로 구성됩니다.
SUNWscqsr
SUNWscqsu
SUNWscqsman
이러한 패키지를 설치하면 소프트웨어가 /usr/cluster 및 /etc/scqsd 디렉토리에 추가됩니다. 쿼럼 서버 소프트웨어의 위치는 수정할 수 없습니다.
쿼럼 서버 소프트웨어에 대한 설치 오류 메시지가 표시될 경우 패키지가 올바르게 설치되었는지 확인합니다.
다음 순서
관리 콘솔을 사용하여 클러스터 노드와 통신하려면 관리 콘솔에 클러스터 제어판 소프트웨어를 설치하는 방법으로 이동합니다.
그렇지 않으면 Solaris 소프트웨어를 설치하는 방법으로 이동합니다.
주 - 반드시 관리 콘솔을 사용할 필요는 없습니다. 관리 콘솔을 사용하지 않을 경우 지정된 클러스터 노드에서 관리 작업을 수행하십시오.
이 소프트웨어를 사용하여 LDoms(Sun Logical Domains) 게스트 도메인에 연결할 수 없습니다.
이 절차에서는 관리 콘솔에 클러스터 제어판(Cluster Control Panel, CCP) 소프트웨어를 설치하는 방법에 대해 설명합니다. CCP는 cconsole, cssh, ctelnet, 및 crlogin 도구를 시작할 수 있는 단일 인터페이스를 제공합니다. 이러한 각 도구는 공용 창과 노드 세트에 대한 다중 창 연결을 제공합니다. 공용 창을 사용하면 한 번에 모든 노드로 입력을 보낼 수 있습니다. 자세한 내용은 ccp(1M) 매뉴얼 페이지를 참조하십시오.
Oracle Solaris Cluster 3.3 5/11 소프트웨어에서 지원하는 Solaris OS 버전을 관리 콘솔로 실행하는 모든 데스크탑 컴퓨터를 사용할 수 있습니다. SPARC 기반 시스템에서 Oracle Solaris Cluster 소프트웨어를 사용하고 있는 경우 관리 콘솔을 Sun Management Center 콘솔이나 서버로도 사용할 수 있습니다. Sun Management Center 소프트웨어 설치 방법에 대한 자세한 내용은 Sun Management Center 설명서를 참조하십시오.
시작하기 전에
지원되는 Solaris OS 및 Solaris 패치 버전이 관리 콘솔에 설치되어 있는지 확인합니다. 모든 플랫폼에는 최소한 최종 사용자 Solaris 소프트웨어 그룹이 필요합니다.
볼륨 관리 데몬 vold(1M)이 실행 중이고 CD-ROM 또는 DVD 장치를 관리하도록 구성된 경우 이 데몬은 /cdrom/cdrom0 디렉토리에 미디어를 자동으로 마운트합니다.
adminconsole# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
adminconsole# pkgadd -d . SUNWccon
adminconsole# pkgadd -d . pkgname …
|
관리 콘솔에 Oracle Solaris Cluster 매뉴얼 페이지 패키지를 설치할 경우 클러스터 노드나 쿼럼 서버에 Oracle Solaris Cluster 소프트웨어를 설치하기 전에 관리 콘솔에서 이러한 패키지를 볼 수 있습니다.
adminconsole# eject cdrom
클러스터 이름과 각 클러스터 노드의 물리적 노드 이름을 파일에 추가합니다.
adminconsole# vi /etc/clusters clustername node1 node2
자세한 내용은 /opt/SUNWcluster/bin/clusters(4) 매뉴얼 페이지를 참조하십시오.
클러스터의 각 노드에 대한 항목을 파일에 추가합니다. 물리적 노드 이름, 콘솔 액세스 장치의 호스트 이름 및 포트 번호를 지정합니다. 콘솔 액세스 장치의 예로는 단말기 집중 장치(Terminal Concentrator, TC), 시스템 서비스 프로세서(System Service Processor, SSP) 및 Sun Fire 시스템 컨트롤러가 있습니다.
adminconsole# vi /etc/serialports node1 ca-dev-hostname port node2 ca-dev-hostname port
클러스터 노드의 물리적 이름입니다.
콘솔 액세스 장치의 호스트 이름입니다.
직렬 포트 번호 또는 보안 쉘 연결을 위한 보안 쉘 포트 번호입니다.
이러한 특별 지침에 주의하여 /etc/serialports 파일을 만듭니다.
Sun Fire 15000 시스템 컨트롤러의 경우 각 항목의 직렬 포트 번호에 telnet(1) 포트 번호 23을 사용합니다.
다른 모든 콘솔 액세스 장치의 경우 telnet 연결을 통해 콘솔에 연결하려면 물리적 포트 번호가 아닌 telnet 직렬 포트 번호를 사용합니다. telnet 직렬 포트 번호를 확인하려면 물리적 포트 번호에 5000을 더합니다. 예를 들어 물리적 포트 번호가 6이면 telnet 직렬 포트 번호는 5006입니다.
Sun Enterprise 10000 서버의 경우 자세한 내용 및 특별 고려 사항은 /opt/SUNWcluster/bin/serialports(4) 매뉴얼 페이지를 참조하십시오.
노드 콘솔에 보안 쉘로 연결하려면 각 노드에 대해 콘솔 액세스 장치의 이름 및 보안 연결에 사용할 포트 번호를 지정합니다. 보안 쉘을 위한 기본 포트 번호는 22입니다.
클러스터 노드에 관리 콘솔을 직접 연결하거나 관리 네트워크를 통해 연결하려면 관리 콘솔 또는 관리 네트워크에 연결할 때 사용하는 각 노드의 해당 호스트 이름 및 포트 번호를 지정합니다.
adminconsole# /opt/SUNWcluster/bin/ccp &
CCP 창에서 cconsole, cssh, crlogin 또는 ctelnet 버튼을 눌러 해당 도구를 시작합니다. 또는 이러한 도구를 직접 시작할 수 있습니다. 예를 들어 ctelnet을 시작하려면 다음 명령을 입력합니다.
adminconsole# /opt/SUNWcluster/bin/ctelnet &
CCP 소프트웨어는 다음 보안 쉘 연결을 지원합니다.
노드 콘솔과의 보안 연결을 위해 cconsole 도구를 시작합니다. 그런 다음, 클러스터 콘솔 창의 옵션 메뉴에서 SSH 사용 확인란을 선택합니다.
클러스터 노드와의 보안 연결을 위해 cssh 도구를 사용합니다.
CCP 유틸리티 사용 방법에 대한 추가 정보는 Oracle Solaris Cluster 시스템 관리 설명서의 원격으로 클러스터에 로그인하는 방법에서 "원격으로 Oracle Solaris Cluster에 로그인하는 방법" 절차를 참조하십시오. ccp(1M) 매뉴얼 페이지도 참조하십시오.
다음 순서
Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris OS가 이미 설치되어 있는지 확인합니다. Solaris OS의 Oracle Solaris Cluster 설치 요구 사항에 대한 자세한 내용은 Oracle Solaris OS 계획을 참조하십시오.
Solaris OS가 Oracle Solaris Cluster 요구 사항을 충족하는 경우 Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.
Solaris OS가 Oracle Solaris Cluster 요구 사항을 충족하지 않는 경우 필요에 따라 Solaris OS를 설치, 재구성 또는 재설치합니다.
Solaris OS를 단독 설치하려면 Solaris 소프트웨어를 설치하는 방법으로 이동합니다.
scinstall 사용자 정의 JumpStart 방법을 사용하여 Solaris OS와 Oracle Solaris Cluster 소프트웨어를 모두 설치하려면 Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치하는 방법(JumpStart)으로 이동합니다.
scinstall 사용자 정의 JumpStart 설치 방법을 사용하여 소프트웨어를 설치할 수 없는 경우 이 절차를 수행하여 전역 클러스터의 각 노드에 Solaris OS를 설치합니다. 클러스터의 JumpStart 설치에 대한 자세한 내용은 Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치하는 방법(JumpStart)을 참조하십시오.
참고 - 설치 시간을 단축하려면 각 노드에서 동시에 Solaris OS를 설치할 수 있습니다.
노드에 Solaris OS가 이미 설치되어 있지만 해당 노드가 Oracle Solaris Cluster 설치 요구 사항에 맞지 않으면 Solaris 소프트웨어를 다시 설치해야 할 수 있습니다. 후속 Oracle Solaris Cluster 소프트웨어를 성공적으로 설치하려면 이 절차의 단계를 따르십시오. 필수적인 루트 디스크 분할 및 기타 Oracle Solaris Cluster 설치 요구 사항에 대한 자세한 내용은 Oracle Solaris OS 계획을 참조하십시오.
시작하기 전에
다음 작업을 수행합니다.
Solaris 소프트웨어를 설치하기 전에 하드웨어 설치가 완료되고 제대로 연결되었는지 확인합니다. 자세한 내용은 Oracle Solaris Cluster Hardware Administration Collection과 서버 및 저장 장치 설명서를 참조하십시오.
클러스터 구성 계획이 완료되었는지 확인합니다. 요구 사항 및 지침은 클러스터 소프트웨어 설치를 준비하는 방법을 참조하십시오.
로컬 파일 시스템 레이아웃 워크시트를 완성합니다.
이름 지정 서비스를 사용하는 경우 모든 공용 호스트 이름 및 논리적 주소에 대한 주소-이름 간 매핑을 클라이언트에서 클러스터 서비스에 액세스하는 데 사용하는 모든 이름 지정 서비스에 추가합니다. 계획 지침은 공용 네트워크 IP 주소를 참조하십시오. Solaris 이름 지정 서비스 사용에 대한 자세한 내용은 Solaris 시스템 관리자 설명서를 참조하십시오.
수퍼유저로 다음 명령을 사용하여 cconsole 유틸리티를 시작합니다.
adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
cconsole 유틸리티를 사용하면 사용자 입력을 모든 개별 콘솔 창으로 동시에 전송할 수 있는 마스터 창도 열립니다.
주 - 클러스터의 모든 노드에 동일한 Solaris OS 버전을 설치해야 합니다.
Solaris 소프트웨어를 설치하는 데 일반적으로 사용되는 방법을 사용할 수 있습니다. Solaris 소프트웨어를 설치하는 동안 다음 단계를 수행합니다.
참고 - Solaris 소프트웨어 패키지를 수동으로 설치하지 않으려면 전체 Solaris 소프트웨어 그룹과 OEM 지원을 설치합니다.
추가 Solaris 소프트웨어 요구 사항에 대한 자세한 내용은 Oracle Solaris 소프트웨어 그룹 고려 사항을 참조하십시오.
주 - 또는 이 전용 파일 시스템을 만드는 대신 lofi 장치를 사용하십시오. 클러스터를 설정할 때 lofi 장치의 용도를 scinstall 명령으로 지정합니다.
수퍼유저가 아닐 경우 이 설치 절차를 수행하려면 다음과 같은 Oracle Solaris Cluster RBAC 인증이 필요합니다.
solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read
RBAC 역할 사용에 대한 자세한 내용은 System Administration Guide: Security Services의 Role-Based Access Control (Overview)을 참조하십시오. 각 Oracle Solaris Cluster 하위 명령에 필요한 RBAC 인증에 대해서는 Oracle Solaris Cluster 매뉴얼 페이지를 참조하십시오.
|
phys-schost# pkgadd -G -d . package …
이러한 패키지는 전역 영역에만 추가해야 합니다. -G 옵션은 현재 영역에만 패키지를 추가합니다. 또한 이 옵션은 패키지가 기존 비전역 영역 또는 나중에 만든 모든 비전역 영역에 전달되지 않도록 지정합니다.
저장소 어레이를 지원하기 위해 이러한 패치를 포함합니다. 또한 하드웨어 패치에 포함된 필요한 펌웨어를 모두 다운로드합니다.
패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.
이 값의 설정을 사용하면 로그인 프롬프트에 액세스할 수 없는 경우 노드를 재부트할 수 있습니다.
grub edit> kernel /platform/i86pc/multiboot kmdb
이름 지정 서비스를 사용하고 있는지 여부에 관계없이 이 단계를 수행합니다.
주 - 새 클러스터 또는 새 클러스터 노드를 설정하는 동안 scinstall 유틸리티에서 구성되는 각 노드의 공용 IP 주소를 /etc/inet/hosts 파일에 자동으로 추가합니다.
클러스터의 각 노드에서 /etc/system 파일에 다음 항목을 추가합니다.
set kernel_cage_enable=1
다음에 시스템을 재부트하면 이 항목이 적용됩니다. 동적 재구성에 대한 자세한 내용은 서버 설명서를 참조하십시오.
클러스터를 만드는 동안 scinstall 유틸리티에서 구성하는 다중 어댑터 IPMP 그룹을 사용하지 않으려면 독립형 시스템과 같이 사용자 정의 IPMP 그룹을 구성합니다. 자세한 내용은 System Administration Guide: IP Services의 31 장, Administering IPMP (Tasks)를 참조하십시오.
클러스터를 만드는 동안, scinstall 유틸리티에서는 동일한 서브넷을 사용하고 IPMP 그룹에 아직 구성되지 않은 공용 네트워크 어댑터의 각 세트를 단일 다중 어댑터 IPMP 그룹으로 구성합니다. scinstall 유틸리티는 기존의 IPMP 그룹을 무시합니다.
![]() | 주의 - Oracle Solaris Cluster 소프트웨어가 이미 설치된 경우에는 이 명령을 실행하지 마십시오. 활성 클러스터 노드에서 stmsboot 명령을 실행하면 Solaris 서비스가 유지 보수 모드로 전환될 수 있습니다. 대신 stmsboot(1M) 매뉴얼 페이지의 지침에 따라 Oracle Solaris Cluster 환경에서 stmsboot 명령을 사용합니다. |
phys-schost# /usr/sbin/stmsboot -e
Solaris I/O 다중 경로 기능을 활성화합니다.
자세한 내용은 stmsboot(1M) 매뉴얼 페이지를 참조하십시오.
다음 순서
서버에서 내부 하드 드라이브의 미러링을 지원하는 경우 내부 디스크 미러링을 구성하려면 내부 디스크 미러링을 구성하는 방법으로 이동합니다.
그렇지 않고 VxFS를 설치하려면 Veritas 파일 시스템 소프트웨어를 설치하는 방법으로 이동합니다.
그렇지 않으면 Oracle Solaris Cluster 소프트웨어 패키지를 설치합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.
참조
Oracle Solaris Cluster 구성에서 동적 재구성 작업을 수행하는 절차는 Oracle Solaris Cluster 시스템 관리 설명서를 참조하십시오.
시스템 디스크를 미러링하도록 내부 하드웨어 RAID 디스크 미러링을 구성하려면 전역 클러스터의 각 노드에서 이 절차를 수행합니다. 이 절차는 선택 사항입니다.
주 - 다음과 같은 경우에는 이 절차를 수행하지 마십시오.
서버에서 내부 하드 드라이브의 미러링을 지원하지 않습니다.
클러스터가 이미 설정되었습니다. 대신 Oracle Solaris Cluster 3.3 Hardware Administration Manual의 Mirroring Internal Disks on Servers that Use Internal Hardware Disk Mirroring or Integrated Mirroring을 수행합니다.
시작하기 전에
Solaris 운영 체제 및 필수 패치가 설치되어 있는지 확인합니다.
phys-schost# raidctl -c clt0d0 clt1d0
미러 디스크에 기본 디스크의 미러를 생성합니다. 기본 디스크의 이름을 첫 번째 인수로 입력합니다. 미러 디스크의 이름을 두 번째 인수로 입력합니다.
서버의 내부 디스크 미러링을 구성하는 방법에 대한 자세한 내용은 서버와 함께 제공된 설명서 및 raidctl(1M) 매뉴얼 페이지를 참조하십시오.
다음 순서
SPARC: LDoms(Sun Logical Domains)을 생성하려면 SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법으로 이동합니다.
그렇지 않고 VxFS를 설치하려면 Veritas 파일 시스템 소프트웨어를 설치하는 방법으로 이동합니다.
그렇지 않으면 Oracle Solaris Cluster 소프트웨어 패키지를 설치합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.
물리적으로 클러스터링된 시스템에 LDoms(Sun Logical Domains) 소프트웨어를 설치하고 I/O 및 게스트 도메인을 생성하려면 이 절차를 수행합니다.
시작하기 전에
다음 작업을 수행합니다.
시스템에서 SPARC 하이퍼바이저를 사용할 수 있는지 확인합니다.
Logical Domains (LDoms) 1.0.3 Administration Guide 및 Logical Domains (LDoms) 1.0.3 Release Notes를 준비합니다.
SPARC: 클러스터의 Sun Logical Domains에 대한 지침의 요구 사항 및 지침을 검토합니다.
게스트 도메인을 만드는 경우 클러스터에서 게스트 도메인을 만드는 것에 대한 Oracle Solaris Cluster 지침을 준수합니다.
다음 순서
서버에서 내부 하드 드라이브의 미러링을 지원하는 경우 내부 디스크 미러링을 구성하려면 내부 디스크 미러링을 구성하는 방법으로 이동합니다.
그렇지 않고 VxFS를 설치하려면 Veritas 파일 시스템 소프트웨어를 설치하는 방법으로 이동합니다.
그렇지 않으면 Oracle Solaris Cluster 소프트웨어 패키지를 설치합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.
클러스터에서 VxFS(Veritas 파일 시스템) 소프트웨어를 사용하려면 전역 클러스터의 각 노드에서 이 절차를 수행합니다.
패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.
set rpcmod:svc_default_stksize=0x8000 set lwp_default_stksize=0x6000
이러한 변경 사항은 다음에 시스템이 재부트될 때 적용됩니다.
Oracle Solaris Cluster 소프트웨어에서는 최소값 rpcmod:svc_default_stksize를 0x8000으로 설정해야 합니다. VxFS 설치에서는 rpcmod:svc_default_stksize 변수 값을 0x4000으로 설정하므로 VxFS 설치가 완료된 후 해당 값을 0x8000으로 수동 설정해야 합니다.
/etc/system 파일의 lwp_default_stksize 변수가 VxFS 기본값 0x4000을 대체하도록 설정해야 합니다.
다음 순서
Oracle Solaris Cluster 소프트웨어 패키지를 설치합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.
installer 프로그램을 사용하여 다음 설치 작업 중 하나 이상을 수행하려면 이 절차에 따릅니다.
전역 클러스터의 각 노드에 Oracle Solaris Cluster 프레임워크 소프트웨어 패키지 설치를 설치합니다. 이러한 노드는 물리적 시스템, (SPARC만 해당) LDoms(Sun Logical Domains) I/O 도메인이나 게스트 도메인 또는 이러한 노드 유형의 조합이 될 수 있습니다.
JumpStart 설치를 위한 플래시 아카이브를 만들 마스터 노드에 Oracle Solaris Cluster 프레임워크 소프트웨어를 설치합니다. 전역 클러스터의 JumpStart 설치에 대한 자세한 내용은 Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치하는 방법(JumpStart)을 참조하십시오.
데이터 서비스를 설치합니다.
주 - 이 절차에서는 전역 영역에만 데이터 서비스를 설치합니다. 특정 비전역 영역 내에서만 표시되도록 데이터 서비스를 설치하려면 전역 클러스터 노드에 비전역 영역을 만드는 방법을 참조하십시오.
주 - 이 절차에서는 대화식 installer 프로그램을 사용합니다. 설치 스크립트를 개발할 때처럼 비대화식 installer 프로그램을 사용하려면 Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX의 5 장, Installing in Silent Mode를 참조하십시오.
시작하기 전에
다음 작업을 수행합니다.
Oracle Solaris Cluster 소프트웨어를 지원하는 Solaris OS가 설치되어 있는지 확인하십시오.
노드에 Solaris 소프트웨어가 이미 설치된 경우에도 설치된 Solaris 소프트웨어가 Oracle Solaris Cluster 소프트웨어와 클러스터에 설치할 다른 소프트웨어의 요구 사항을 충족시켜야 합니다. Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris 소프트웨어를 설치하는 방법에 대한 자세한 내용은 Solaris 소프트웨어를 설치하는 방법을 참조하십시오.
DVD-ROM을 준비합니다.
Solaris OS 설치 중에는 특정 네트워크 서비스에 대한 외부 액세스를 비활성화하는 제한된 네트워크 프로필이 사용됩니다. 제한된 서비스에는 클러스터 기능에 영향을 주는 다음 서비스가 포함됩니다.
클러스터 통신에 필요한 RPC 통신 서비스
Oracle Solaris Cluster Manager GUI를 사용하는 데 필요한 Oracle Java Web Console 서비스
다음 단계에서는 Oracle Solaris Cluster 프레임워크에서는 사용되지만 제한된 네트워크 프로필이 사용될 경우 사용되지 않는 Solaris 기능을 복원합니다.
phys-schost# svccfg svc:> select network/rpc/bind svc:/network/rpc/bind> setprop config/local_only=false svc:/network/rpc/bind> quit phys-schost# svcadm refresh network/rpc/bind:default phys-schost# svcprop network/rpc/bind:default | grep local_only
마지막 명령의 출력에는 local_only 등록 정보가 false로 설정된 것으로 표시되어야 합니다.
phys-schost# svccfg svc:> select system/webconsole svc:/system/webconsole> setprop options/tcp_listen=true svc:/system/webconsole> quit phys-schost# /usr/sbin/smcwebserver restart phys-schost# netstat -a | grep 6789
마지막 명령의 출력에서는 Oracle Java Web Console에 연결하는 데 사용되는 포트 번호인 6789에 대한 항목을 반환해야 합니다.
제한된 네트워크 프로필에서 로컬 연결로 제한하는 서비스에 대한 자세한 내용은 Solaris 10 10/09 설치 설명서: 설치 및 업그레이드 계획의 네트워크 보안 계획을 참조하십시오.
% xhost + % setenv DISPLAY nodename:0.0
이렇게 설정되지 않은 경우 installer 프로그램은 텍스트 기반 모드로 실행됩니다.
주 - 물리적으로 클러스터링된 시스템에 LDoms가 구성된 경우에는 I/O 도메인이나 게스트 도메인에만 Oracle Solaris Cluster 소프트웨어를 설치합니다.
볼륨 관리 데몬 vold(1M)이 실행 중이고 CD-ROM 또는 DVD 장치를 관리하도록 구성된 경우 이 데몬은 /cdrom/cdrom0 디렉토리에 미디어를 자동으로 마운트합니다.
SPARC 플랫폼에 소프트웨어 패키지를 설치하려는 경우 다음 명령을 입력합니다.
phys-schost# cd /cdrom/cdrom0/Solaris_sparc
x86 플랫폼에 소프트웨어 패키지를 설치하려는 경우 다음 명령을 입력합니다.
phys-schost# cd /cdrom/cdrom0/Solaris_x86
phys-schost# ./installer
installer 프로그램의 다양한 형식 및 기능 사용에 대한 자세한 내용은 Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX를 참조하십시오.
Oracle Solaris Cluster Manager(이전 SunPlex Manager)를 설치하지 않으려면 선택 해제합니다.
주 - Oracle Solaris Cluster Manager는 클러스터의 모든 노드에 설치하거나 모든 노드에 설치하지 않아야 합니다.
Oracle Solaris Cluster Geographic Edition 소프트웨어를 설치하려면 해당 소프트웨어를 선택합니다.
클러스터가 설정된 이후의 추가 설치 절차에 대한 내용은 Oracle Solaris Cluster Geographic Edition Installation Guide를 참조하십시오.
Oracle Solaris Cluster 프레임워크 소프트웨어의 구성 여부에 관한 프롬프트가 표시되면 나중에 구성을 선택합니다.
설치가 완료된 후 사용 가능한 설치 로그를 볼 수 있습니다.
phys-schost# eject cdrom
패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.
|
다음에 시스템을 재부트하면 이 항목이 적용됩니다.
다음 순서
Sun QFS 파일 시스템 소프트웨어를 설치하려면 초기 설치에 대한 지침을 따릅니다. Sun QFS 소프트웨어를 설치하는 방법을 참조하십시오.
그렇지 않고 루트 사용자 환경을 설정하려면 루트 환경을 설정하는 방법으로 이동합니다
전역 클러스터의 각 노드에서 이 절차를 수행하십시오.
Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법을 참조하십시오.
Installing Sun QFS(Sun QFS 설치)의 초기 설치에 대한 절차를 수행합니다.
다음 순서
루트 사용자 환경을 설정합니다. 루트 환경을 설정하는 방법으로 이동합니다.
주 - Oracle Solaris Cluster 구성에서 다양한 쉘에 대한 사용자 초기화 파일은 대화식 쉘에서 실행되도록 확인되어야 합니다. 이러한 파일은 단말기에 출력을 시도하기 전에 확인되어야 합니다. 그렇지 않으면 데이터 서비스에서 예상하지 않은 동작이나 장애가 발생할 수 있습니다. 자세한 내용은 System Administration Guide: Basic Administration의 Customizing a User’s Work Environment를 참조하십시오.
전역 클러스터의 각 노드에서 이 절차를 수행하십시오.
추가 파일 경로 설정에 대해서는 Solaris OS 설명서, 볼륨 관리자 설명서 및 기타 응용 프로그램 설명서를 참조하십시오.
다음 순서
Solaris IP 필터를 사용하려면 Solaris IP 필터를 구성하는 방법으로 이동합니다.
그렇지 않으면 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성합니다. 새 전역 클러스터 또는 새 전역 클러스터 노드 설정으로 이동합니다.
전역 클러스터에 Solaris IP 필터를 구성하려면 이 절차를 수행합니다.
주 - 페일오버 데이터 서비스가 있는 Solaris IP 필터만 사용합니다. 확장 가능 데이터 서비스가 있는 Solaris IP 필터는 사용할 수 없습니다.
Solaris IP 필터 기능에 대한 자세한 내용은 System Administration Guide: IP Services의 제IV부, IP Security를 참조하십시오.
시작하기 전에
클러스터에 Solaris IP 필터를 구성할 때 따라야 하는 지침 및 제한 사항을 검토합니다. Oracle Solaris OS 기능 제한 사항에서 "IP 필터" 게시 항목을 참조하십시오.
필터 규칙을 Oracle Solaris Cluster 노드에 추가할 때는 다음 지침과 요구 사항을 준수하십시오.
각 노드의 ipf.conf 파일에서 클러스터 상호 연결 트래픽이 필터링되지 않고 통과하도록 명시적으로 허용하는 규칙을 추가합니다. 인터페이스와 관련되지 않은 규칙은 클러스터 상호 연결을 비롯한 모든 인터페이스에 적용됩니다. 이러한 인터페이스의 트래픽이 실수로 차단되지 않는지 확인합니다. 상호 연결 트래픽이 차단되면 IP 필터 구성이 클러스터 핸드셰이크 및 인프라 작업을 방해합니다.
예를 들어 다음 규칙이 현재 사용된다고 가정합니다.
# Default block TCP/UDP unless some later rule overrides block return-rst in proto tcp/udp from any to any # Default block ping unless some later rule overrides block return-rst in proto icmp all
클러스터 상호 연결 트래픽을 차단 해제하려면 다음 규칙을 추가합니다. 사용된 서브넷은 예제용입니다. ifconfig interface 명령을 사용하여 사용할 서브넷을 가져옵니다.
# Unblock cluster traffic on 172.16.0.128/25 subnet (physical interconnect) pass in quick proto tcp/udp from 172.16.0.128/25 to any pass out quick proto tcp/udp from 172.16.0.128/25 to any # Unblock cluster traffic on 172.16.1.0/25 subnet (physical interconnect) pass in quick proto tcp/udp from 172.16.1.0/25 to any pass out quick proto tcp/udp from 172.16.1.0/25 to any # Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet) pass in quick proto tcp/udp from 172.16.4.0/23 to any pass out quick proto tcp/udp from 172.16.4.0/23 to any
클러스터 개인 네트워크의 어댑터 이름이나 IP 주소를 지정할 수 있습니다. 예를 들어 다음 규칙에서는 어댑터의 이름별로 클러스터 개인 네트워크를 지정합니다.
# Allow all traffic on cluster private networks. pass in quick on e1000g1 all …
Oracle Solaris Cluster 소프트웨어는 네트워크 주소를 한 노드에서 다른 노드로 페일오버합니다. 페일오버 시에 특수한 프로시저나 코드는 필요하지 않습니다.
논리적 호스트 이름 및 공유 주소 자원의 IP 주소를 참조하는 모든 필터링 규칙은 모든 클러스터 노드에서 동일해야 합니다.
대기 노드의 규칙은 존재하지 않는 IP 주소를 참조합니다. 이 규칙은 여전히 IP 필터의 활성 규칙 집합의 일부이며 페일오버 후에 노드에서 주소를 수신할 때 적용됩니다.
모든 필터링 규칙은 동일한 IPMP 그룹의 모든 NIC에 대해 동일해야 합니다. 즉, 규칙이 인터페이스와 관련된 경우 동일한 IPMP 그룹의 다른 모든 인터페이스에 대해서도 동일한 규칙이 존재해야 합니다.
Solaris IP 필터 규칙에 대한 자세한 내용은 ipf(4) 매뉴얼 페이지를 참조하십시오.
phys-schost# svcadm enable /network/ipfilter:default
다음 순서
클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성합니다. 새 전역 클러스터 또는 새 전역 클러스터 노드 설정으로 이동합니다.