JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris Cluster 소프트웨어 설치 설명서     Oracle Solaris Cluster (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris Cluster 구성 계획

2.  전역 클러스터 노드에 소프트웨어 설치

소프트웨어 설치

클러스터 소프트웨어 설치를 준비하는 방법

쿼럼 서버 소프트웨어를 설치하고 구성하는 방법

관리 콘솔에 클러스터 제어판 소프트웨어를 설치하는 방법

Solaris 소프트웨어를 설치하는 방법

내부 디스크 미러링을 구성하는 방법

SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법

Veritas 파일 시스템 소프트웨어를 설치하는 방법

Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법

Sun QFS 소프트웨어를 설치하는 방법

루트 환경을 설정하는 방법

Solaris IP 필터를 구성하는 방법

3.  전역 클러스터 설정

4.  Solaris Volume Manager 소프트웨어 구성

5.  Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성

6.  클러스터 파일 시스템 만들기

7.  비전역 영역 및 영역 클러스터 만들기

8.  Sun Management Center에 Oracle Solaris Cluster 모듈 설치

9.  클러스터에서 소프트웨어 제거

A.  Oracle Solaris Cluster 설치 및 구성 워크시트

색인

소프트웨어 설치

이 절에서는 클러스터 노드에 소프트웨어를 설치하는 정보 및 절차에 대해 설명합니다.

다음 작업 맵에는 다중 호스트 또는 단일 호스트 클러스터에 소프트웨어를 설치하기 위해 수행해야 하는 작업이 나열되어 있습니다. 표시된 순서대로 절차를 완료하십시오.

표 2-1 작업 맵: 소프트웨어 설치

작업
지침
클러스터 구성의 레이아웃을 계획하고 소프트웨어 설치를 준비합니다.
(선택 사항) 쿼럼 서버를 설치 및 구성합니다.
(선택 사항) 관리 콘솔에 클러스터 제어판(Cluster Control Panel, CCP) 소프트웨어를 설치합니다.
모든 노드에 Solaris OS를 설치합니다. 선택적으로 Solaris I/O 다중 경로를 활성화합니다.
(선택 사항) 내부 디스크 미러링을 구성합니다.
(선택 사항) LDoms(Sun Logical Domains) 소프트웨어를 설치하고 도메인을 만듭니다.
(선택 사항) SPARC: Veritas 파일 시스템 소프트웨어를 설치합니다.
사용할 Oracle Solaris Cluster 소프트웨어 및 데이터 서비스를 설치합니다.
(선택 사항) Sun QFS 소프트웨어를 설치합니다.
디렉토리 경로를 설정합니다.
(선택 사항) Solaris IP 필터를 구성합니다.

클러스터 소프트웨어 설치를 준비하는 방법

소프트웨어 설치를 시작하기 전에 다음과 같이 준비하십시오.

  1. 클러스터용으로 선택한 하드웨어와 소프트웨어가 현재 Oracle Solaris Cluster 구성을 지원하는지 확인합니다.

    지원되는 클러스터 구성에 대한 최신 정보는 Oracle 영업 센터에 문의하십시오.

  2. 클러스터 구성 계획 및 설치 전략 준비에 도움이 되도록 다음 설명서를 검토합니다.
  3. 타사 설명서를 포함하여 모든 관련 설명서를 준비합니다.

    다음은 클러스터 설치 중에 참조해야 할 제품 설명서 목록 중 일부입니다.

    • Solaris OS

    • Solaris Volume Manager 소프트웨어

    • Sun QFS 소프트웨어

    • Veritas Volume Manager(VERITAS 볼륨 관리자)

    • 타사 응용 프로그램

  4. 클러스터 구성을 계획합니다.

    주의

    주의 - 클러스터 설치를 완벽하게 계획합니다. Solaris 및 Oracle Solaris Cluster 소프트웨어 설치를 시작하기 전에 모든 데이터 서비스 및 타사 제품의 요구 사항을 확인합니다. 그렇게 하지 않으면 설치 오류가 발생하여 Solaris 및 Oracle Solaris Cluster 소프트웨어를 완전히 다시 설치해야 할 수도 있습니다. Oracle Solaris Cluster 소프트웨어를 설치한 후에는 호스트 이름을 변경할 수 없기 때문에 Oracle Solaris Cluster 소프트웨어를 설치하기 전에 이러한 요구 사항을 충족해야 합니다.


  5. 클러스터 구성에 필요한 모든 패치를 얻습니다.

    패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.

다음 순서

관리 콘솔에서 클러스터 노드로 연결하기 위해 클러스터 제어판(Cluster Control Panel, CCP) 소프트웨어를 사용하려면 관리 콘솔에 클러스터 제어판 소프트웨어를 설치하는 방법으로 이동합니다.

그렇지 않으면 사용할 Solaris 설치 절차를 선택합니다.

쿼럼 서버 소프트웨어를 설치하고 구성하는 방법

호스트 서버를 쿼럼 서버로 구성하려면 이 절차를 수행합니다.

시작하기 전에

다음 작업을 수행합니다.

  1. 쿼럼 서버 소프트웨어를 설치할 시스템에서 수퍼유저로 전환합니다.
  2. (옵션) GUI와 함께 설치 프로그램을 사용하려면 설치할 호스트 서버의 디스플레이 환경이 GUI를 표시하도록 설정되어 있는지 확인합니다.
    # xhost +
    # setenv DISPLAY nodename:0.0
  3. 설치 매체를 드라이브에 로드합니다.

    볼륨 관리 데몬(vold(1M))이 실행 중이고 CD-ROM 또는 DVD 장치를 관리하도록 구성되어 있으면 이 데몬은 /cdrom/cdrom0 디렉토리에 매체를 자동으로 마운트합니다.

  4. 매체의 설치 마법사 디렉토리로 변경합니다.
    • SPARC 플랫폼에 소프트웨어 패키지를 설치하려는 경우 다음 명령을 입력합니다.

      phys-schost# cd /cdrom/cdrom0Solaris_sparc
    • x86 플랫폼에 소프트웨어 패키지를 설치하려는 경우 다음 명령을 입력합니다.

      phys-schost# cd /cdrom/cdrom0Solaris_x86
  5. 설치 마법사를 시작합니다.
    phys-schost# ./installer
  6. 화면의 지침에 따라 쿼럼 서버 소프트웨어를 호스트 서버에 설치합니다.

    Configure Later(나중에 구성) 옵션을 선택합니다.


    주 - 설치 프로그램에서 Configure Later(나중에 구성) 옵션을 선택할 수 없으면 Configure Now(지금 구성)를 선택합니다.


    설치가 완료된 후 사용 가능한 설치 로그를 볼 수 있습니다. installer 프로그램 사용에 대한 추가 정보는 Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX를 참조하십시오.

  7. 필수 쿼럼 서버 패치를 적용합니다.
  8. 드라이브에서 설치 매체를 언로드합니다.
    1. 설치 매체가 사용되고 있지 않음을 확인하려면 매체에 존재하지 않는 디렉토리로 변경합니다.
    2. 매체를 꺼냅니다.
      phys-schost# eject cdrom
  9. 쿼럼 서버 소프트웨어를 지원하는 필수 패치를 모두 적용합니다.

    패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.

  10. (옵션) 쿼럼 서버 이진 위치를 PATH 환경 변수에 추가합니다.
    quorumserver# PATH=$PATH:/usr/cluster/bin
  11. (옵션) 쿼럼 서버 매뉴얼 페이지 위치를 MANPATH 환경 변수에 추가합니다.
    quorumserver# MANPATH=$MANPATH:/usr/cluster/man
  12. 쿼럼 서버를 구성합니다.

    다음 항목을 /etc/scqsd/scqsd.conf 파일에 추가하여 쿼럼 서버에 대한 구성 정보를 지정합니다.

    인스턴스 이름이나 포트 번호 중 하나 이상을 사용하여 쿼럼 서버를 식별합니다. 포트 번호는 반드시 제공해야 하지만 인스턴스 이름은 선택 사항입니다.

    • 인스턴스 이름을 제공할 경우 해당 이름은 쿼럼 서버에서 고유해야 합니다.

    • 인스턴스 이름을 제공하지 않을 경우 항상 이 쿼럼 서버가 수신하는 포트별로 쿼럼 서버를 참조합니다.

    /usr/cluster/lib/sc/scqsd [-d quorumdirectory] [-i instancename] -p port
    -d quorumdirectory

    쿼럼 서버가 쿼럼 데이터를 저장할 수 있는 디렉토리에 대한 경로입니다.

    쿼럼 서버 프로세스에서는 클러스터별 쿼럼 정보를 저장하기 위해 이 디렉토리에 클러스터당 하나의 파일을 만듭니다.

    기본적으로 이 옵션의 값은 /var/scqsd입니다. 이 디렉토리는 구성하는 각 쿼럼 서버에 대해 고유해야 합니다.

    -i instancename

    쿼럼 서버 인스턴스에 대해 사용자가 선택하는 고유한 이름입니다.

    -p port

    쿼럼 서버가 클러스터로부터 요청을 수신하는 포트 번호입니다.

  13. (옵션) 다른 포트 번호나 인스턴스를 사용하여 둘 이상의 클러스터를 제공하려면 필요한 쿼럼 서버의 각 추가 인스턴스에 대한 추가 항목을 구성합니다.
  14. /etc/scqsd/scqsd.conf 파일을 저장하고 닫습니다.
  15. 새로 구성한 쿼럼 서버를 시작합니다.
    quorumserver# /usr/cluster/bin/clquorumserver start quorumserver
    quorumserver

    쿼럼 서버를 식별합니다. 쿼럼 서버가 수신하는 포트 번호를 사용할 수 있습니다. 구성 파일에서 인스턴스 이름을 제공한 경우 해당 이름을 대신 사용할 수 있습니다.

    • 단일 쿼럼 서버를 시작하려면 인스턴스 이름이나 포트 번호를 제공합니다.

    • 여러 개의 쿼럼 서버를 구성한 경우 모든 쿼럼 서버를 시작하려면 + 피연산자를 사용합니다.

일반 오류

설치 프로그램에서 쿼럼 서버 패키지의 간단한 pkgadd 설치를 수행하고 필요한 디렉토리를 설정합니다. 소프트웨어는 다음 패키지로 구성됩니다.

이러한 패키지를 설치하면 소프트웨어가 /usr/cluster/etc/scqsd 디렉토리에 추가됩니다. 쿼럼 서버 소프트웨어의 위치는 수정할 수 없습니다.

쿼럼 서버 소프트웨어에 대한 설치 오류 메시지가 표시될 경우 패키지가 올바르게 설치되었는지 확인합니다.

다음 순서

관리 콘솔을 사용하여 클러스터 노드와 통신하려면 관리 콘솔에 클러스터 제어판 소프트웨어를 설치하는 방법으로 이동합니다.

그렇지 않으면 Solaris 소프트웨어를 설치하는 방법으로 이동합니다.

관리 콘솔에 클러스터 제어판 소프트웨어를 설치하는 방법


주 - 반드시 관리 콘솔을 사용할 필요는 없습니다. 관리 콘솔을 사용하지 않을 경우 지정된 클러스터 노드에서 관리 작업을 수행하십시오.

이 소프트웨어를 사용하여 LDoms(Sun Logical Domains) 게스트 도메인에 연결할 수 없습니다.


이 절차에서는 관리 콘솔에 클러스터 제어판(Cluster Control Panel, CCP) 소프트웨어를 설치하는 방법에 대해 설명합니다. CCP는 cconsole, cssh, ctelnet, 및 crlogin 도구를 시작할 수 있는 단일 인터페이스를 제공합니다. 이러한 각 도구는 공용 창과 노드 세트에 대한 다중 창 연결을 제공합니다. 공용 창을 사용하면 한 번에 모든 노드로 입력을 보낼 수 있습니다. 자세한 내용은 ccp(1M) 매뉴얼 페이지를 참조하십시오.

Oracle Solaris Cluster 3.3 5/11 소프트웨어에서 지원하는 Solaris OS 버전을 관리 콘솔로 실행하는 모든 데스크탑 컴퓨터를 사용할 수 있습니다. SPARC 기반 시스템에서 Oracle Solaris Cluster 소프트웨어를 사용하고 있는 경우 관리 콘솔을 Sun Management Center 콘솔이나 서버로도 사용할 수 있습니다. Sun Management Center 소프트웨어 설치 방법에 대한 자세한 내용은 Sun Management Center 설명서를 참조하십시오.

시작하기 전에

지원되는 Solaris OS 및 Solaris 패치 버전이 관리 콘솔에 설치되어 있는지 확인합니다. 모든 플랫폼에는 최소한 최종 사용자 Solaris 소프트웨어 그룹이 필요합니다.

  1. 관리 콘솔에서 수퍼유저로 전환합니다.
  2. DVD-ROM을 DVD-ROM 드라이브에 로드합니다.

    볼륨 관리 데몬 vold(1M)이 실행 중이고 CD-ROM 또는 DVD 장치를 관리하도록 구성된 경우 이 데몬은 /cdrom/cdrom0 디렉토리에 미디어를 자동으로 마운트합니다.

  3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ 디렉토리입니다. 여기서 archsparc 또는 x86이고 ver은 Solaris 10의 경우10입니다. 디렉토리로 변경합니다.
    adminconsole# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
  4. SUNWccon 패키지를 설치합니다.
    adminconsole# pkgadd -d . SUNWccon
  5. (옵션) Oracle Solaris Cluster 매뉴얼 페이지 패키지를 설치합니다.
    adminconsole# pkgadd -d . pkgname

    패키지 이름
    설명
    SUNWscman
    Oracle Solaris Cluster 프레임워크 매뉴얼 페이지
    SUNWscdsman
    Oracle Solaris Cluster 데이터 서비스 매뉴얼 페이지
    SUNWscqsman
    쿼럼 서버 매뉴얼 페이지

    관리 콘솔에 Oracle Solaris Cluster 매뉴얼 페이지 패키지를 설치할 경우 클러스터 노드나 쿼럼 서버에 Oracle Solaris Cluster 소프트웨어를 설치하기 전에 관리 콘솔에서 이러한 패키지를 볼 수 있습니다.

  6. DVD-ROM 드라이브에서 DVD-ROM을 언로드합니다.
    1. DVD-ROM이 사용되고 있지 않음을 확인하려면 DVD-ROM에 존재하지 않는 디렉토리로 변경합니다.
    2. DVD-ROM을 꺼냅니다.
      adminconsole# eject cdrom
  7. 관리 콘솔에 /etc/clusters 파일을 만듭니다.

    클러스터 이름과 각 클러스터 노드의 물리적 노드 이름을 파일에 추가합니다.

    adminconsole# vi /etc/clusters
    clustername node1 node2

    자세한 내용은 /opt/SUNWcluster/bin/clusters(4) 매뉴얼 페이지를 참조하십시오.

  8. /etc/serialports 파일을 만듭니다.

    클러스터의 각 노드에 대한 항목을 파일에 추가합니다. 물리적 노드 이름, 콘솔 액세스 장치의 호스트 이름 및 포트 번호를 지정합니다. 콘솔 액세스 장치의 예로는 단말기 집중 장치(Terminal Concentrator, TC), 시스템 서비스 프로세서(System Service Processor, SSP) 및 Sun Fire 시스템 컨트롤러가 있습니다.

    adminconsole# vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    node1, node2

    클러스터 노드의 물리적 이름입니다.

    ca-dev-hostname

    콘솔 액세스 장치의 호스트 이름입니다.

    port

    직렬 포트 번호 또는 보안 쉘 연결을 위한 보안 쉘 포트 번호입니다.

    이러한 특별 지침에 주의하여 /etc/serialports 파일을 만듭니다.

    • Sun Fire 15000 시스템 컨트롤러의 경우 각 항목의 직렬 포트 번호에 telnet(1) 포트 번호 23을 사용합니다.

    • 다른 모든 콘솔 액세스 장치의 경우 telnet 연결을 통해 콘솔에 연결하려면 물리적 포트 번호가 아닌 telnet 직렬 포트 번호를 사용합니다. telnet 직렬 포트 번호를 확인하려면 물리적 포트 번호에 5000을 더합니다. 예를 들어 물리적 포트 번호가 6이면 telnet 직렬 포트 번호는 5006입니다.

    • Sun Enterprise 10000 서버의 경우 자세한 내용 및 특별 고려 사항은 /opt/SUNWcluster/bin/serialports(4) 매뉴얼 페이지를 참조하십시오.

    • 노드 콘솔에 보안 쉘로 연결하려면 각 노드에 대해 콘솔 액세스 장치의 이름 및 보안 연결에 사용할 포트 번호를 지정합니다. 보안 쉘을 위한 기본 포트 번호는 22입니다.

    • 클러스터 노드에 관리 콘솔을 직접 연결하거나 관리 네트워크를 통해 연결하려면 관리 콘솔 또는 관리 네트워크에 연결할 때 사용하는 각 노드의 해당 호스트 이름 및 포트 번호를 지정합니다.

  9. (옵션) 편의를 위해 관리 콘솔에서 디렉토리 경로를 설정합니다.
    1. /opt/SUNWcluster/bin/ 디렉토리를 PATH에 추가합니다.
    2. /opt/SUNWcluster/man/ 디렉토리를 MANPATH에 추가합니다.
    3. SUNWscman 패키지를 설치한 경우에는 /usr/cluster/man/ 디렉토리도 MANPATH에 추가합니다.
  10. CCP 유틸리티를 시작합니다.
    adminconsole# /opt/SUNWcluster/bin/ccp &

    CCP 창에서 cconsole, cssh, crlogin 또는 ctelnet 버튼을 눌러 해당 도구를 시작합니다. 또는 이러한 도구를 직접 시작할 수 있습니다. 예를 들어 ctelnet을 시작하려면 다음 명령을 입력합니다.

    adminconsole# /opt/SUNWcluster/bin/ctelnet &

    CCP 소프트웨어는 다음 보안 쉘 연결을 지원합니다.

    • 노드 콘솔과의 보안 연결을 위해 cconsole 도구를 시작합니다. 그런 다음, 클러스터 콘솔 창의 옵션 메뉴에서 SSH 사용 확인란을 선택합니다.

    • 클러스터 노드와의 보안 연결을 위해 cssh 도구를 사용합니다.

    CCP 유틸리티 사용 방법에 대한 추가 정보는 Oracle Solaris Cluster 시스템 관리 설명서의 원격으로 클러스터에 로그인하는 방법에서 "원격으로 Oracle Solaris Cluster에 로그인하는 방법" 절차를 참조하십시오. ccp(1M) 매뉴얼 페이지도 참조하십시오.

다음 순서

Oracle Solaris Cluster 소프트웨어 요구 사항에 맞게 Solaris OS가 이미 설치되어 있는지 확인합니다. Solaris OS의 Oracle Solaris Cluster 설치 요구 사항에 대한 자세한 내용은 Oracle Solaris OS 계획을 참조하십시오.

Solaris 소프트웨어를 설치하는 방법

scinstall 사용자 정의 JumpStart 설치 방법을 사용하여 소프트웨어를 설치할 수 없는 경우 이 절차를 수행하여 전역 클러스터의 각 노드에 Solaris OS를 설치합니다. 클러스터의 JumpStart 설치에 대한 자세한 내용은 Solaris 및 Oracle Solaris Cluster 소프트웨어를 설치하는 방법(JumpStart)을 참조하십시오.


참고 - 설치 시간을 단축하려면 각 노드에서 동시에 Solaris OS를 설치할 수 있습니다.


노드에 Solaris OS가 이미 설치되어 있지만 해당 노드가 Oracle Solaris Cluster 설치 요구 사항에 맞지 않으면 Solaris 소프트웨어를 다시 설치해야 할 수 있습니다. 후속 Oracle Solaris Cluster 소프트웨어를 성공적으로 설치하려면 이 절차의 단계를 따르십시오. 필수적인 루트 디스크 분할 및 기타 Oracle Solaris Cluster 설치 요구 사항에 대한 자세한 내용은 Oracle Solaris OS 계획을 참조하십시오.

시작하기 전에

다음 작업을 수행합니다.

  1. 클러스터 관리 콘솔을 사용하고 있는 경우 클러스터의 각 노드에 대해 콘솔 화면을 표시합니다.
    • 클러스터 제어판(Cluster Control Panel, CCP) 소프트웨어가 관리 콘솔에 설치되어 구성된 경우 cconsole(1M) 유틸리티를 사용하여 개별 콘솔 화면을 표시합니다.

      수퍼유저로 다음 명령을 사용하여 cconsole 유틸리티를 시작합니다.

      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

      cconsole 유틸리티를 사용하면 사용자 입력을 모든 개별 콘솔 창으로 동시에 전송할 수 있는 마스터 창도 열립니다.

    • cconsole 유틸리티를 사용하지 않는 경우 각 노드의 콘솔에 개별적으로 연결합니다.
  2. Solaris 설치 설명서의 지침에 따라 Solaris OS를 설치합니다.

    주 - 클러스터의 모든 노드에 동일한 Solaris OS 버전을 설치해야 합니다.


    Solaris 소프트웨어를 설치하는 데 일반적으로 사용되는 방법을 사용할 수 있습니다. Solaris 소프트웨어를 설치하는 동안 다음 단계를 수행합니다.

    1. 최소한 최종 사용자 Solaris 소프트웨어 그룹을 설치합니다.

      참고 - Solaris 소프트웨어 패키지를 수동으로 설치하지 않으려면 전체 Solaris 소프트웨어 그룹과 OEM 지원을 설치합니다.


      추가 Solaris 소프트웨어 요구 사항에 대한 자세한 내용은 Oracle Solaris 소프트웨어 그룹 고려 사항을 참조하십시오.

    2. 수동 배열을 선택하여 파일 시스템을 설정합니다.
      • 슬라이스 7의 크기가 20MB 이상이 되도록 지정합니다.
      • (옵션) 전역 장치 하위 시스템에서 사용할 파일 시스템을 512MB 이상 크기로 만듭니다.

        주 - 또는 이 전용 파일 시스템을 만드는 대신 lofi 장치를 사용하십시오. 클러스터를 설정할 때 lofi 장치의 용도를 scinstall 명령으로 지정합니다.


      • 시스템 디스크 분할 영역에 설명된 대로 기타 필요한 파일 시스템 분할 영역을 만듭니다.
    3. 관리를 쉽게 하려면 각 노드에서 동일한 루트 암호를 설정합니다.
  3. 수퍼유저 대신 역할별 접근 제어(Role-Based Access Control, RBAC)를 사용하여 클러스터 노드에 액세스하는 경우 모든 Oracle Solaris Cluster 명령에 대해 인증을 제공하는 RBAC 역할로 설정합니다.

    수퍼유저가 아닐 경우 이 설치 절차를 수행하려면 다음과 같은 Oracle Solaris Cluster RBAC 인증이 필요합니다.

    • solaris.cluster.modify

    • solaris.cluster.admin

    • solaris.cluster.read

    RBAC 역할 사용에 대한 자세한 내용은 System Administration Guide: Security Services의 Role-Based Access Control (Overview)을 참조하십시오. 각 Oracle Solaris Cluster 하위 명령에 필요한 RBAC 인증에 대해서는 Oracle Solaris Cluster 매뉴얼 페이지를 참조하십시오.

  4. 기존 클러스터에 새 노드를 추가하려면 클러스터 파일 시스템에 대한 마운트 지점을 새 노드에 추가합니다.
    1. 활성 클러스터 노드에서 모든 클러스터 파일 시스템의 이름을 표시합니다.
      phys-schost-1# mount | grep global | egrep -v node@ | awk '{print $1}'
    2. 새 노드에서 클러스터의 각 파일 시스템에 대한 마운트 지점을 만듭니다.
      phys-schost-new# mkdir -p mountpoint

      예를 들어 mount 명령에서 파일 시스템 이름 /global/dg-schost-1을 반환한 경우 클러스터에 추가하려는 새 노드에서 mkdir -p /global/dg-schost-1을 실행합니다.

  5. 노드를 추가하려는 경우 VxVM이 클러스터의 노드에 설치되어 있으면 다음 작업을 수행합니다.
    1. 동일한 vxio 번호가 VxVM 설치 노드에서 사용되는지 확인합니다.
      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
    2. VxVM이 설치되지 않은 각 노드에서 vxio 번호를 사용할 수 있는지 확인합니다.
    3. vxio 번호가 VxVM이 설치되지 않은 노드에서 이미 사용되고 있는 경우 다른 번호를 사용하도록 /etc/name_to_major 항목을 변경합니다.
  6. 최종 사용자 Solaris 소프트웨어 그룹을 설치한 경우 다음 Oracle Solaris Cluster 기능을 사용하려면 이러한 기능을 지원하는 추가 Solaris 소프트웨어 패키지를 설치합니다.
    기능
    필수 Solaris 소프트웨어 패키지
    scsnapshot
    SUNWp15u SUNWp15v SUNWp15p
    Oracle Solaris Cluster Manager
    SUNWapchr SUNWapchu
    phys-schost# pkgadd -G -d . package

    이러한 패키지는 전역 영역에만 추가해야 합니다. -G 옵션은 현재 영역에만 패키지를 추가합니다. 또한 이 옵션은 패키지가 기존 비전역 영역 또는 나중에 만든 모든 비전역 영역에 전달되지 않도록 지정합니다.

  7. 필수 Solaris OS 패치 및 하드웨어 관련 펌웨어와 패치를 설치합니다.

    저장소 어레이를 지원하기 위해 이러한 패치를 포함합니다. 또한 하드웨어 패치에 포함된 필요한 펌웨어를 모두 다운로드합니다.

    패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.

  8. x86: 기본 부트 파일을 설정합니다.

    이 값의 설정을 사용하면 로그인 프롬프트에 액세스할 수 없는 경우 노드를 재부트할 수 있습니다.

    grub edit> kernel /platform/i86pc/multiboot kmdb
  9. 클러스터에서 사용되는 모든 공용 IP 주소로 각 노드의 /etc/inet/hosts 파일을 업데이트합니다.

    이름 지정 서비스를 사용하고 있는지 여부에 관계없이 이 단계를 수행합니다.


    주 - 새 클러스터 또는 새 클러스터 노드를 설정하는 동안 scinstall 유틸리티에서 구성되는 각 노드의 공용 IP 주소를 /etc/inet/hosts 파일에 자동으로 추가합니다.


  10. (옵션) Sun Enterprise 10000 서버에서 동적 재구성을 사용하도록 /etc/system 파일을 구성합니다.

    클러스터의 각 노드에서 /etc/system 파일에 다음 항목을 추가합니다.

    set kernel_cage_enable=1

    다음에 시스템을 재부트하면 이 항목이 적용됩니다. 동적 재구성에 대한 자세한 내용은 서버 설명서를 참조하십시오.

  11. (옵션) IPMP 그룹에 공용 네트워크 어댑터를 구성합니다.

    클러스터를 만드는 동안 scinstall 유틸리티에서 구성하는 다중 어댑터 IPMP 그룹을 사용하지 않으려면 독립형 시스템과 같이 사용자 정의 IPMP 그룹을 구성합니다. 자세한 내용은 System Administration Guide: IP Services의 31 장, Administering IPMP (Tasks)를 참조하십시오.

    클러스터를 만드는 동안, scinstall 유틸리티에서는 동일한 서브넷을 사용하고 IPMP 그룹에 아직 구성되지 않은 공용 네트워크 어댑터의 각 세트를 단일 다중 어댑터 IPMP 그룹으로 구성합니다. scinstall 유틸리티는 기존의 IPMP 그룹을 무시합니다.

  12. Solaris I/O 다중 경로를 사용하려면 각 노드에서 다중 경로를 활성화합니다.

    주의

    주의 - Oracle Solaris Cluster 소프트웨어가 이미 설치된 경우에는 이 명령을 실행하지 마십시오. 활성 클러스터 노드에서 stmsboot 명령을 실행하면 Solaris 서비스가 유지 보수 모드로 전환될 수 있습니다. 대신 stmsboot(1M) 매뉴얼 페이지의 지침에 따라 Oracle Solaris Cluster 환경에서 stmsboot 명령을 사용합니다.


    phys-schost# /usr/sbin/stmsboot -e
    -e

    Solaris I/O 다중 경로 기능을 활성화합니다.

    자세한 내용은 stmsboot(1M) 매뉴얼 페이지를 참조하십시오.

다음 순서

서버에서 내부 하드 드라이브의 미러링을 지원하는 경우 내부 디스크 미러링을 구성하려면 내부 디스크 미러링을 구성하는 방법으로 이동합니다.

그렇지 않고 VxFS를 설치하려면 Veritas 파일 시스템 소프트웨어를 설치하는 방법으로 이동합니다.

그렇지 않으면 Oracle Solaris Cluster 소프트웨어 패키지를 설치합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.

참조

Oracle Solaris Cluster 구성에서 동적 재구성 작업을 수행하는 절차는 Oracle Solaris Cluster 시스템 관리 설명서를 참조하십시오.

내부 디스크 미러링을 구성하는 방법

시스템 디스크를 미러링하도록 내부 하드웨어 RAID 디스크 미러링을 구성하려면 전역 클러스터의 각 노드에서 이 절차를 수행합니다. 이 절차는 선택 사항입니다.


주 - 다음과 같은 경우에는 이 절차를 수행하지 마십시오.


시작하기 전에

Solaris 운영 체제 및 필수 패치가 설치되어 있는지 확인합니다.

  1. 수퍼유저로 전환합니다.
  2. 내부 미러를 구성합니다.
    phys-schost# raidctl -c clt0d0 clt1d0 
    -c clt0d0 clt1d0

    미러 디스크에 기본 디스크의 미러를 생성합니다. 기본 디스크의 이름을 첫 번째 인수로 입력합니다. 미러 디스크의 이름을 두 번째 인수로 입력합니다.

    서버의 내부 디스크 미러링을 구성하는 방법에 대한 자세한 내용은 서버와 함께 제공된 설명서 및 raidctl(1M) 매뉴얼 페이지를 참조하십시오.

다음 순서

SPARC: LDoms(Sun Logical Domains)을 생성하려면 SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법으로 이동합니다.

그렇지 않고 VxFS를 설치하려면 Veritas 파일 시스템 소프트웨어를 설치하는 방법으로 이동합니다.

그렇지 않으면 Oracle Solaris Cluster 소프트웨어 패키지를 설치합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.

SPARC: Sun Logical Domains 소프트웨어를 설치하고 도메인을 생성하는 방법

물리적으로 클러스터링된 시스템에 LDoms(Sun Logical Domains) 소프트웨어를 설치하고 I/O 및 게스트 도메인을 생성하려면 이 절차를 수행합니다.

시작하기 전에

다음 작업을 수행합니다.

  1. 시스템에서 수퍼유저로 전환합니다.
  2. LDoms 소프트웨어를 설치하고 도메인을 구성합니다.
    • Logical Domains (LDoms) 1.0.3 Administration Guide의 Installing and Enabling Software에 나오는 지침에 따릅니다.

      게스트 도메인을 만드는 경우 클러스터에서 게스트 도메인을 만드는 것에 대한 Oracle Solaris Cluster 지침을 준수합니다.

    • 클러스터 상호 연결로 사용되는 가상 네트워크 장치를 연결하는 모든 가상 스위치 장치에 대해 mode=sc 옵션을 사용합니다.
    • 공유 저장소의 경우 전체 SCSI 디스크만 게스트 도메인에 매핑합니다.

다음 순서

서버에서 내부 하드 드라이브의 미러링을 지원하는 경우 내부 디스크 미러링을 구성하려면 내부 디스크 미러링을 구성하는 방법으로 이동합니다.

그렇지 않고 VxFS를 설치하려면 Veritas 파일 시스템 소프트웨어를 설치하는 방법으로 이동합니다.

그렇지 않으면 Oracle Solaris Cluster 소프트웨어 패키지를 설치합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.

Veritas 파일 시스템 소프트웨어를 설치하는 방법

클러스터에서 VxFS(Veritas 파일 시스템) 소프트웨어를 사용하려면 전역 클러스터의 각 노드에서 이 절차를 수행합니다.

  1. VxFS 설치 설명서의 절차에 따라 클러스터의 각 노드에 VxFS 소프트웨어를 설치합니다.
  2. VxFS를 지원하는 데 필요한 Oracle Solaris Cluster 패치를 설치합니다.

    패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.

  3. 각 노드의 /etc/system 파일에서 다음 값을 설정합니다.
    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    이러한 변경 사항은 다음에 시스템이 재부트될 때 적용됩니다.

    • Oracle Solaris Cluster 소프트웨어에서는 최소값 rpcmod:svc_default_stksize0x8000으로 설정해야 합니다. VxFS 설치에서는 rpcmod:svc_default_stksize 변수 값을 0x4000으로 설정하므로 VxFS 설치가 완료된 후 해당 값을 0x8000으로 수동 설정해야 합니다.

    • /etc/system 파일의 lwp_default_stksize 변수가 VxFS 기본값 0x4000을 대체하도록 설정해야 합니다.

다음 순서

Oracle Solaris Cluster 소프트웨어 패키지를 설치합니다. Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.

Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법

installer 프로그램을 사용하여 다음 설치 작업 중 하나 이상을 수행하려면 이 절차에 따릅니다.


주 - 이 절차에서는 대화식 installer 프로그램을 사용합니다. 설치 스크립트를 개발할 때처럼 비대화식 installer 프로그램을 사용하려면 Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX의 5 장, Installing in Silent Mode를 참조하십시오.


시작하기 전에

다음 작업을 수행합니다.

  1. RPC 통신 및 선택적으로 Oracle Java Web Console에 대한 외부 액세스를 복원합니다.

    Solaris OS 설치 중에는 특정 네트워크 서비스에 대한 외부 액세스를 비활성화하는 제한된 네트워크 프로필이 사용됩니다. 제한된 서비스에는 클러스터 기능에 영향을 주는 다음 서비스가 포함됩니다.

    • 클러스터 통신에 필요한 RPC 통신 서비스

    • Oracle Solaris Cluster Manager GUI를 사용하는 데 필요한 Oracle Java Web Console 서비스

    다음 단계에서는 Oracle Solaris Cluster 프레임워크에서는 사용되지만 제한된 네트워크 프로필이 사용될 경우 사용되지 않는 Solaris 기능을 복원합니다.

    1. RPC 통신에 대한 외부 액세스를 복원하려면 다음 명령을 수행합니다.
      phys-schost# svccfg
      svc:> select network/rpc/bind
      svc:/network/rpc/bind> setprop config/local_only=false
      svc:/network/rpc/bind> quit
      phys-schost# svcadm refresh network/rpc/bind:default
      phys-schost# svcprop network/rpc/bind:default | grep local_only

      마지막 명령의 출력에는 local_only 등록 정보가 false로 설정된 것으로 표시되어야 합니다.

    2. (선택 사항) Oracle Java Web Console에 대한 외부 액세스를 복원하려면 다음 명령을 수행합니다.
      phys-schost# svccfg
      svc:> select system/webconsole
      svc:/system/webconsole> setprop options/tcp_listen=true
      svc:/system/webconsole> quit
      phys-schost# /usr/sbin/smcwebserver restart
      phys-schost# netstat -a | grep 6789

      마지막 명령의 출력에서는 Oracle Java Web Console에 연결하는 데 사용되는 포트 번호인 6789에 대한 항목을 반환해야 합니다.

      제한된 네트워크 프로필에서 로컬 연결로 제한하는 서비스에 대한 자세한 내용은 Solaris 10 10/09 설치 설명서: 설치 및 업그레이드 계획의 네트워크 보안 계획을 참조하십시오.

  2. (옵션) GUI를 갖춘 installer 프로그램을 사용하려면 설치할 클러스터 노드의 디스플레이 환경이 GUI를 표시하도록 설정되어 있는지 확인합니다.
    % xhost +
    % setenv DISPLAY nodename:0.0

    이렇게 설정되지 않은 경우 installer 프로그램은 텍스트 기반 모드로 실행됩니다.

  3. 설치할 클러스터 노드에서 수퍼유저로 전환합니다.

    주 - 물리적으로 클러스터링된 시스템에 LDoms가 구성된 경우에는 I/O 도메인이나 게스트 도메인에만 Oracle Solaris Cluster 소프트웨어를 설치합니다.


  4. DVD-ROM을 DVD-ROM 드라이브에 로드합니다.

    볼륨 관리 데몬 vold(1M)이 실행 중이고 CD-ROM 또는 DVD 장치를 관리하도록 구성된 경우 이 데몬은 /cdrom/cdrom0 디렉토리에 미디어를 자동으로 마운트합니다.

  5. DVD-ROM의 설치 마법사 디렉토리로 변경합니다.
    • SPARC 플랫폼에 소프트웨어 패키지를 설치하려는 경우 다음 명령을 입력합니다.

      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
    • x86 플랫폼에 소프트웨어 패키지를 설치하려는 경우 다음 명령을 입력합니다.

      phys-schost# cd /cdrom/cdrom0/Solaris_x86
  6. 설치 마법사 프로그램을 시작합니다.
    phys-schost# ./installer

    installer 프로그램의 다양한 형식 및 기능 사용에 대한 자세한 내용은 Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX를 참조하십시오.

  7. 화면의 지침에 따라 노드에 Oracle Solaris Cluster 프레임워크 소프트웨어 및 데이터 서비스를 설치합니다.
    • Oracle Solaris Cluster Manager(이전 SunPlex Manager)를 설치하지 않으려면 선택 해제합니다.


      주 - Oracle Solaris Cluster Manager는 클러스터의 모든 노드에 설치하거나 모든 노드에 설치하지 않아야 합니다.


    • Oracle Solaris Cluster Geographic Edition 소프트웨어를 설치하려면 해당 소프트웨어를 선택합니다.

      클러스터가 설정된 이후의 추가 설치 절차에 대한 내용은 Oracle Solaris Cluster Geographic Edition Installation Guide를 참조하십시오.

    • Oracle Solaris Cluster 프레임워크 소프트웨어의 구성 여부에 관한 프롬프트가 표시되면 나중에 구성을 선택합니다.

    설치가 완료된 후 사용 가능한 설치 로그를 볼 수 있습니다.

  8. DVD-ROM 드라이브에서 DVD-ROM을 언로드합니다.
    1. DVD-ROM이 사용되고 있지 않은지 확인하려면 DVD-ROM에 존재하지 않는 디렉토리로 변경합니다.
    2. DVD-ROM을 꺼냅니다.
      phys-schost# eject cdrom
  9. Oracle Solaris Cluster 소프트웨어를 지원하는 필수 패치를 모두 적용합니다.

    패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.

  10. 클러스터 상호 연결에 다음 어댑터를 사용하려면 각 노드의 /etc/system 파일에서 관련 항목에 대한 주석을 해제하십시오.
    어댑터
    항목
    ipge
    set ipge:ipge_taskq_disable=1
    ixge
    set ixge:ixge_taskq_disable=1

    다음에 시스템을 재부트하면 이 항목이 적용됩니다.

다음 순서

Sun QFS 파일 시스템 소프트웨어를 설치하려면 초기 설치에 대한 지침을 따릅니다. Sun QFS 소프트웨어를 설치하는 방법을 참조하십시오.

그렇지 않고 루트 사용자 환경을 설정하려면 루트 환경을 설정하는 방법으로 이동합니다

Sun QFS 소프트웨어를 설치하는 방법

전역 클러스터의 각 노드에서 이 절차를 수행하십시오.

  1. Oracle Solaris Cluster 소프트웨어가 설치되어 있는지 확인합니다.

    Oracle Solaris Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법을 참조하십시오.

  2. 클러스터 노드에서 수퍼유저로 전환합니다.
  3. Sun QFS 파일 시스템 소프트웨어를 설치합니다.

    Installing Sun QFS(Sun QFS 설치)의 초기 설치에 대한 절차를 수행합니다.

다음 순서

루트 사용자 환경을 설정합니다. 루트 환경을 설정하는 방법으로 이동합니다.

루트 환경을 설정하는 방법


주 - Oracle Solaris Cluster 구성에서 다양한 쉘에 대한 사용자 초기화 파일은 대화식 쉘에서 실행되도록 확인되어야 합니다. 이러한 파일은 단말기에 출력을 시도하기 전에 확인되어야 합니다. 그렇지 않으면 데이터 서비스에서 예상하지 않은 동작이나 장애가 발생할 수 있습니다. 자세한 내용은 System Administration Guide: Basic Administration의 Customizing a User’s Work Environment를 참조하십시오.


전역 클러스터의 각 노드에서 이 절차를 수행하십시오.

  1. 클러스터 노드에서 수퍼유저로 전환합니다.
  2. .cshrc 또는 .profile 파일에서 PATHMANPATH 항목을 수정합니다.
    1. /usr/sbin//usr/cluster/bin/PATH에 추가합니다.
    2. /usr/cluster/man/MANPATH에 추가합니다.

    추가 파일 경로 설정에 대해서는 Solaris OS 설명서, 볼륨 관리자 설명서 및 기타 응용 프로그램 설명서를 참조하십시오.

  3. (옵션) 관리를 쉽게 하려면 각 노드에서 루트 암호를 동일하게 설정합니다.

다음 순서

Solaris IP 필터를 사용하려면 Solaris IP 필터를 구성하는 방법으로 이동합니다.

그렇지 않으면 클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성합니다. 새 전역 클러스터 또는 새 전역 클러스터 노드 설정으로 이동합니다.

Solaris IP 필터를 구성하는 방법

전역 클러스터에 Solaris IP 필터를 구성하려면 이 절차를 수행합니다.


주 - 페일오버 데이터 서비스가 있는 Solaris IP 필터만 사용합니다. 확장 가능 데이터 서비스가 있는 Solaris IP 필터는 사용할 수 없습니다.


Solaris IP 필터 기능에 대한 자세한 내용은 System Administration Guide: IP Services의 제IV부, IP Security를 참조하십시오.

시작하기 전에

클러스터에 Solaris IP 필터를 구성할 때 따라야 하는 지침 및 제한 사항을 검토합니다. Oracle Solaris OS 기능 제한 사항에서 "IP 필터" 게시 항목을 참조하십시오.

  1. 수퍼유저로 전환합니다.
  2. 영향을 받는 모든 노드의 /etc/ipf/ipf.conf 파일에 필터 규칙을 추가합니다.

    필터 규칙을 Oracle Solaris Cluster 노드에 추가할 때는 다음 지침과 요구 사항을 준수하십시오.

    • 각 노드의 ipf.conf 파일에서 클러스터 상호 연결 트래픽이 필터링되지 않고 통과하도록 명시적으로 허용하는 규칙을 추가합니다. 인터페이스와 관련되지 않은 규칙은 클러스터 상호 연결을 비롯한 모든 인터페이스에 적용됩니다. 이러한 인터페이스의 트래픽이 실수로 차단되지 않는지 확인합니다. 상호 연결 트래픽이 차단되면 IP 필터 구성이 클러스터 핸드셰이크 및 인프라 작업을 방해합니다.

      예를 들어 다음 규칙이 현재 사용된다고 가정합니다.

      # Default block TCP/UDP unless some later rule overrides
      block return-rst in proto tcp/udp from any to any
      
      # Default block ping unless some later rule overrides
      block return-rst in proto icmp all

      클러스터 상호 연결 트래픽을 차단 해제하려면 다음 규칙을 추가합니다. 사용된 서브넷은 예제용입니다. ifconfig interface 명령을 사용하여 사용할 서브넷을 가져옵니다.

      # Unblock cluster traffic on 172.16.0.128/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.0.128/25 to any
      pass out quick proto tcp/udp from 172.16.0.128/25 to any
      
      # Unblock cluster traffic on 172.16.1.0/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.1.0/25 to any
      pass out quick proto tcp/udp from 172.16.1.0/25 to any
      
      # Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet)
      pass in quick proto tcp/udp from 172.16.4.0/23 to any
      pass out quick proto tcp/udp from 172.16.4.0/23 to any
    • 클러스터 개인 네트워크의 어댑터 이름이나 IP 주소를 지정할 수 있습니다. 예를 들어 다음 규칙에서는 어댑터의 이름별로 클러스터 개인 네트워크를 지정합니다.

      # Allow all traffic on cluster private networks.
      pass in quick on e1000g1 all
      …
    • Oracle Solaris Cluster 소프트웨어는 네트워크 주소를 한 노드에서 다른 노드로 페일오버합니다. 페일오버 시에 특수한 프로시저나 코드는 필요하지 않습니다.

    • 논리적 호스트 이름 및 공유 주소 자원의 IP 주소를 참조하는 모든 필터링 규칙은 모든 클러스터 노드에서 동일해야 합니다.

    • 대기 노드의 규칙은 존재하지 않는 IP 주소를 참조합니다. 이 규칙은 여전히 IP 필터의 활성 규칙 집합의 일부이며 페일오버 후에 노드에서 주소를 수신할 때 적용됩니다.

    • 모든 필터링 규칙은 동일한 IPMP 그룹의 모든 NIC에 대해 동일해야 합니다. 즉, 규칙이 인터페이스와 관련된 경우 동일한 IPMP 그룹의 다른 모든 인터페이스에 대해서도 동일한 규칙이 존재해야 합니다.

    Solaris IP 필터 규칙에 대한 자세한 내용은 ipf(4) 매뉴얼 페이지를 참조하십시오.

  3. ipfilter SMF 서비스를 활성화합니다.
    phys-schost# svcadm enable /network/ipfilter:default

다음 순서

클러스터 노드에 Oracle Solaris Cluster 소프트웨어를 구성합니다. 새 전역 클러스터 또는 새 전역 클러스터 노드 설정으로 이동합니다.