Solaris OS용 Sun Cluster 소프트웨어 설치 안내서

2장 클러스터에서 소프트웨어 설치

본 장에서는 클러스터 노드 및 관리 콘솔에서 소프트웨어를 설치하는 방법에 대한 절차를 설명합니다.

소프트웨어 설치

이 절에서는 클러스터 노드에 소프트웨어를 설치하는 정보와 절차에 대해 설명합니다.

다음 작업 맵에서는 다중 노드 또는 단일 노드 클러스터에 소프트웨어를 설치하기 위해 수행하는 작업을 나열합니다. 표시된 순서대로 절차를 완료하십시오.

표 2–1 작업 맵: 소프트웨어 설치

작업 

지침 

1. 클러스터 구성의 레이아웃 계획 및 소프트웨어 설치 준비 

클러스터 소프트웨어 설치를 준비하는 방법

2. (선택 사항) 관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어를 설치합니다.

관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어를 설치하는 방법

3. 모든 노드에서 Solaris OS를 설치합니다. 

Solaris 소프트웨어를 설치하는 방법

4. (선택 사항) 내부 디스크 미러링을 구성합니다.

내부 디스크 미러링을 구성하는 방법

5. (선택 사항) SPARC: Sun 다중 경로 소프트웨어를 설치하고 구성합니다.

Sun Multipathing 소프트웨어를 설치하는 방법

6. (선택 사항) SPARC: VERITAS File System 소프트웨어를 설치합니다.

SPARC: VERITAS File System 소프트웨어 설치 방법

7. 사용할 Sun Cluster 소프트웨어 및 데이터 서비스를 설치합니다. 

Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법

8. 디렉토리 경로를 설정합니다. 

루트 환경을 설정하는 방법

Procedure클러스터 소프트웨어 설치를 준비하는 방법

소프트웨어 설치를 시작하기 전에 다음과 같이 준비하십시오.

  1. 클러스터용으로 선택한 하드웨어와 소프트웨어가 현재 Sun Cluster 구성을 지원하는지 확인합니다.

    지원되는 클러스터 구성에 대한 최신 정보는 Sun 영업 센터에 문의하십시오.

  2. 클러스터 구성 계획 및 설치 전략 준비에 도움이 되도록 다음 설명서를 읽으십시오.

  3. 다른 회사 설명서를 포함하여 모든 관련 설명서를 준비하십시오.

    다음은 클러스터 설치 중에 참조해야 할 제품 설명서 목록 중 일부입니다.

    • Solaris OS

    • Solaris Volume Manager 소프트웨어

    • Sun StorEdge QFS 소프트웨어

    • VERITAS Volume Manager

    • 타사 응용 프로그램

  4. 클러스터 구성을 계획하십시오.


    Caution – Caution –

    클러스터 설치를 완벽하게 계획하십시오. Solaris 및 Sun Cluster 소프트웨어 설치를 시작하기 전에 모든 데이터 서비스 및 타사 제품에 대한 요구 사항을 확인하십시오. 그렇게 하지 않으면 설치 오류가 발생하여 Solaris 및 Sun Cluster 소프트웨어를 완전히 다시 설치해야 할 수도 있습니다.

    예를 들어, Oracle RAC의 Oracle Real Application Clusters Guard 옵션에는 클러스터에서 사용하는 호스트 이름에 대한 특별 요구 사항이 있습니다. 또 하나의 예로 Sun Cluster HA for SAP에도 특별한 요구 사항이 있습니다. Sun Cluster 소프트웨어를 설치한 후에는 호스트 이름을 변경할 수 없기 때문에 Sun Cluster 소프트웨어를 설치하기 전에 이러한 요구 사항을 충족시켜야 합니다.


  5. 클러스터 구성에 필요한 모든 패치를 얻습니다.

    패치의 위치 및 설치 지침에 대한 자세한 내용은 Solaris OS용 Sun Cluster 3.2 릴리스 노트패치 및 필요한 펌웨어 수준을 참조하십시오.

다음 순서

관리 콘솔에서 클러스터 노드로 연결하기 위해 CCP(Cluster Control Panel) 소프트웨어를 사용하려면 관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어를 설치하는 방법으로 이동합니다.

그렇지 않으면 사용할 Solaris 설치 절차를 선택합니다.

Procedure관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어를 설치하는 방법


주 –

반드시 관리 콘솔을 사용할 필요는 없습니다. 관리 콘솔을 사용하지 않을 경우에는 지정된 클러스터 노드에서 관리 작업을 수행하십시오.


이 절차에서는 관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어를 설치하는 방법에 대해 설명합니다. CCP는 cconsole, cssh, ctelnetcrlogin 도구를 시작할 수 있는 단일 인터페이스를 제공합니다. 이러한 각 도구는 공용 창과 노드 세트에 대한 다중 창 연결을 제공합니다. 공용 창을 사용하여 한 번에 모든 노드에 입력을 보낼 수 있습니다. 자세한 내용은 ccp(1M) 매뉴얼 페이지를 참조하십시오.

관리 콘솔로 Sun Cluster 3.2 소프트웨어가 지원하는 Solaris OS 버전을 실행하는 모든 데스크탑 컴퓨터를 사용할 수 있습니다. SPARC 기반 시스템에서 Sun Cluster 소프트웨어를 사용하는 경우 관리 콘솔을 Sun Management Center 콘솔이나 서버로도 사용할 수 있습니다. Sun Management Center 소프트웨어 설치 방법은 Sun Management Center 설명서를 참조하십시오.

시작하기 전에

지원되는 Solaris OS 및 Solaris 패치 버전이 관리 콘솔에 설치되어 있는지 확인하십시오. 모든 플랫폼에는 최소한 최종 사용자 Solaris 소프트웨어 그룹이 필요합니다.

  1. 관리 콘솔에서 수퍼유저로 전환합니다.

  2. Sun Java Availability Suite DVD-ROM을 DVD-ROM 드라이브에 삽입합니다.

    볼륨 관리 데몬 vold(1M)가 실행 중이고 CD-ROM 또는 DVD 장치를 관리하도록 구성되었다면 이 데몬은 /cdrom/cdrom0/ 디렉토리에 미디어를 자동으로 마운트합니다.

  3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/로 변경합니다. 여기서 archsparc 또는 x86(Solaris 10의 경우만)이고 ver은 Solaris 9의 경우에는 9, Solaris 10의 경우에는 10입니다


    adminconsole# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
    
  4. SUNWccon 패키지를 설치하십시오.


    adminconsole# pkgadd -d . SUNWccon
    
  5. (옵션) SUNWscman 패키지를 설치하십시오.


    adminconsole# pkgadd -d . SUNWscman
    

    관리 콘솔에 SUNWscman 패키지를 설치하면, 클러스터 노드에 Sun Cluster 소프트웨어를 설치하기 전에 관리 콘솔에서 Sun Cluster 매뉴얼 페이지를 볼 수 있습니다.

  6. DVD-ROM 드라이브에서 Sun Java Availability Suite DVD-ROM을 언로드합니다.

    1. DVD-ROM이 사용되고 있지 않음을 확인하려면 DVD-ROM에 존재하지 않는 디렉토리로 이동합니다.

    2. DVD-ROM을 꺼냅니다.


      adminconsole# eject cdrom
      
  7. 관리 콘솔에 /etc/clusters 파일을 만드십시오.

    클러스터 이름과 각 클러스터 노드의 물리적 노드 이름을 파일에 추가합니다.


    adminconsole# vi /etc/clusters
    clustername node1 node2
    

    자세한 내용은 /opt/SUNWcluster/bin/clusters(4) 매뉴얼 페이지를 참조하십시오.

  8. /etc/serialports 파일을 만듭니다.

    클러스터의 각 노드에 대한 항목을 파일에 추가합니다. 물리적 노드 이름, 콘솔 액세스 장치의 호스트 이름 및 포트 번호를 지정합니다. 콘솔 액세스 장치의 예로는 단말기 집중 장치(TC), SSP (System Service Processor), Sun Fire 시스템 컨트롤러 등이 있습니다.


    adminconsole# vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    
    node1, node2

    클러스터 노드의 물리적 이름

    ca-dev-hostname

    콘솔 액세스 장치의 호스트 이름

    port

    직렬 포트 번호 또는 Secure Shell 연결을 위한 Secure Shell 포트 번호.

    이러한 특별 지침에 주의하여 /etc/serialports 파일을 만듭니다.

    • Sun Fire 15000 시스템 컨트롤러의 경우, 각 항목의 직렬 포트 번호에 telnet(1) 포트 번호 23을 사용합니다.

    • 다른 모든 콘솔 액세스 장치의 경우 telnet 연결을 통해 콘솔과 연결하려면 물리적 포트 번호가 아닌 telnet 직렬 포트 번호를 사용합니다. telnet 직렬 포트 번호를 지정하려면 물리적 포트 번호에 5000을 더하십시오. 예를 들어, 물리적 포트 번호가 6이면 telnet 직렬 포트 번호는 5006입니다.

    • Sun Enterprise 10000 서버에 대한 자세한 내용 및 특별 고려 사항은 /opt/SUNWcluster/bin/serialports(4) 매뉴얼 페이지를 참조하십시오.

    • 노드 콘솔에 Secure Shell로 연결하려면 각 노드에 대해 콘솔 액세스 장치의 이름 및 보안 연결에 사용할 포트 번호를 지정합니다. Secure Shell을 위한 기본 포트 번호는 22입니다.

    • 클러스터에 관리 콘솔을 직접 연결하거나 관리 네트워크를 통해 연결하려면 관리 콘솔 또는 관리 네트워크로 연결할 때 사용하는 각 노드의 해당 호스트 이름 및 포트 번호를 지정합니다.

  9. (옵션) 편의를 위해 관리 콘솔에 디렉토리 경로를 설정합니다.

    1. /opt/SUNWcluster/bin/ 디렉토리를 PATH에 추가합니다.

    2. /opt/SUNWcluster/man/ 디렉토리를 MANPATH에 추가합니다.

    3. SUNWscman 패키지를 설치했으면 MANPATH/usr/cluster/man 디렉토리도 추가합니다.

  10. CCP 유틸리티를 시작합니다.


    adminconsole# /opt/SUNWcluster/bin/ccp &
    

    도구를 사용하려면 CCP 창에서 cconsole, cssh, crlogin 또는 ctelnet 버튼을 누릅니다. 도구를 직접 시작할 수도 있습니다. 예를 들어, ctelnet을 시작하려면 다음 명령을 입력합니다.


    adminconsole# /opt/SUNWcluster/bin/ctelnet &
    

    CCP 소프트웨어는 다음 Secure Shell 연결을 지원합니다.

    • 노드 콘솔과의 보안 연결을 위해 cconsole 도구를 시작합니다. 그런 다음, 클러스터 콘솔 창의 옵션 메뉴에서 SSH 사용 확인란을 선택합니다.

    • 클러스터 노드와의 보안 연결을 위해 cssh 도구를 사용합니다.

    CCP 유틸리티를 사용하는 방법에 대한 추가 정보는 Solaris OS용 Sun Cluster 시스템 관리 안내서클러스터 관리 시작에 있는 "Sun Cluster 원격 로그인 방법" 절차를 참조하십시오. ccp(1M) 매뉴얼 페이지도 참조하십시오.

다음 순서

Sun Cluster 소프트웨어 요구 사항에 맞게 Solaris OS가 이미 설치되었는지 확인합니다. Solaris OS에서 Sun Cluster 설치 요구 사항에 대한 자세한 내용은 Solaris OS 계획을 참조하십시오.

ProcedureSolaris 소프트웨어를 설치하는 방법

scinstall 사용자 정의 JumpStart 설치 방법으로 소프트웨어를 설치할 수 없는 경우 클러스터의 각 노드에서 Solaris OS를 설치하도록 이 절차를 수행하십시오. 클러스터의 JumpStart 설치에 대한 자세한 내용은 Solaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)을 참조하십시오.


정보 –

각 노드에서 동시에 Solaris OS를 설치하면 설치 시간을 단축할 수 있습니다.


노드에 Solaris OS가 이미 설치되어 있지만 해당 노드가 Sun Cluster 설치 요구 사항에 맞지 않으면 Solaris 소프트웨어를 다시 설치해야 합니다. 후속 Sun Cluster 소프트웨어를 성공적으로 설치하려면 이 절차의 단계를 따르십시오. 필수적인 루트 디스크 분할 및 기타 Sun Cluster 설치 요구 사항에 대한 자세한 내용은 Solaris OS 계획을 참조하십시오.

시작하기 전에

다음 작업을 수행합니다.

  1. 클러스터 관리 콘솔을 사용할 경우에는 클러스터의 각 노드에 대한 콘솔 화면을 표시하십시오.

    • 관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어가 설치 및 구성되어 있는 경우 cconsole(1M) 유틸리티를 사용하여 개별 콘솔 화면을 표시합니다.

      수퍼유저로서 cconsole 유틸리티를 시작하려면 다음 명령을 사용합니다.


      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
      

      cconsole 유틸리티는 사용자의 입력과 동시에 모든 개별 콘솔 창으로 전송할 수 있도록 마스터 창을 엽니다.

    • cconsole 유틸리티를 사용하지 않는 경우 각 노드의 콘솔에 개별적으로 연결합니다.

  2. Solaris 설치 설명서의 지침에 따라 Solaris OS를 설치하십시오.


    주 –

    클러스터의 모든 노드에 동일한 Solaris OS 버전을 설치해야 합니다.


    Solaris 소프트웨어를 설치하는 데 일반적으로 사용되는 방법을 사용할 수 있습니다. Solaris 소프트웨어를 설치할 때 다음 단계를 수행하십시오.

    1. 최소한 최종 사용자 Solaris 소프트웨어 그룹을 설치하십시오.


      정보 –

      Solaris 소프트웨어 패키지를 수동으로 설치하지 않으려면 전체 Solaris 소프트웨어 그룹과 OEM 지원을 설치합니다.


      추가 Solaris 소프트웨어 요구 사항에 대한 자세한 내용은 Solaris 소프트웨어 그룹에 대한 참고 사항을 참조하십시오.

    2. Manual Layout을 선택하여 파일 시스템을 설정하십시오.

      • 전역 장치 하위 시스템에서 사용할 최소 512MB의 파일 시스템을 만듭니다.


        주 –

        Sun Cluster 소프트웨어를 성공적으로 설치하려면 전역 장치 파일 시스템이 필요합니다.


      • 슬라이스 7은 최소 20MB의 크기로 지정합니다.

      • 시스템 디스크 분할 영역에 설명한 대로 기타 필요한 파일 시스템 분할 영역을 만듭니다.

    3. 관리를 쉽게 하려면 각 노드에서 동일한 루트 암호를 설정하십시오.

  3. 수퍼유저 대신 RBAC를 사용하여 클러스터 노드에 액세스하는 경우 모든 Sun Cluster 명령에 대해 인증을 제공하는 RBAC 역할로 설정할 수 있는지 확인하십시오.

    수퍼유저가 아닌 경우, 이 설치 절차에서는 다음 Sun Cluster RBAC 인증이 필요합니다.

    • solaris.cluster.modify

    • solaris.cluster.admin

    • solaris.cluster.read

    RBAC 역할에 대한 자세한 내용은 System Administration Guide: Security ServicesRole-Based Access Control (Overview)을 참조하십시오. 각 Sun Cluster 하위 명령에 필요한 RBAC 인증에 대해서는 Sun Cluster 매뉴얼 페이지를 참조하십시오.

  4. 기존 클러스터에 노드를 추가하려면 새 노드에 클러스터 파일 시스템의 마운트 지점을 추가합니다.

    1. 활성 클러스터 노드에서 모든 클러스터 파일 시스템의 이름을 표시합니다.


      phys-schost-1# mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. 새 노드에서 클러스터의 각 파일 시스템에 대한 마운트 지점을 만드십시오.


      phys-schost-new# mkdir -p mountpoint
      

      예를 들어, mount 명령에서 파일 시스템 이름 /global/dg-schost-1이 반환되었으면 클러스터에 추가하려는 새 노드에서 mkdir -p /global/dg-schost-1 명령을 실행하십시오.

  5. 노드를 추가하는 중이고 VxVM이 클러스터의 노드에 설치되면 다음 작업을 수행합니다.

    1. 동일한 vxio 번호가 VxVM 설치 노드에서 사용되었는지 확인합니다.


      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
      
    2. 또한, VxVM이 설치되지 않은 각 노드에서 vxio 번호를 사용할 수 있는지 확인하십시오.

    3. VxVM이 설치되지 않은 노드에서 이미 vxio 번호를 사용하고 있으면 다른 번호를 사용하도록 /etc/name_to_major 항목을 변경합니다.

  6. End User Solaris Software Group을 설치하였으며 다음의 Sun Cluster 기능을 사용하려는 경우, 이 기능을 지원하는 추가적인 Solaris 소프트웨어 패키지를 설치하십시오.

    • Remote Shared Memory Application Programming Interface(RSMAPI)

    • RSMRDT 드라이버

    • SPARC: SCI-PCI 어댑터

    • SPARC: Solaris 9 OS의 경우, 다음 명령을 사용합니다.


      phys-schost# pkgadd -d . SUNWrsm SUNWrsmc SUNWrsmo SUNWrsmox
      
    • Solaris 10 OS의 경우, 다음 명령을 사용합니다.


      phys-schost# pkgadd -G -d . SUNWrsm SUNWrsmo
      

      전역 영역에만 이 패키지를 추가해야 합니다. -G 옵션은 현재 영역에만 패키지를 추가합니다. 또한, 이 옵션은 패키지가 기존 비전역 영역 또는 나중에 만든 비전역 영역에 전달되지 않도록 지정합니다.

  7. 필요한 Solaris OS 패치 및 하드웨어 관련 펌웨어와 패치(저장 배열 지원용 포함)를 모두 설치합니다. 또한 하드웨어 패치에 포함된 필요한 모든 펌웨어를 다운로드하십시오.

    패치의 위치 및 설치 지침에 대한 자세한 내용은 Solaris OS용 Sun Cluster 3.2 릴리스 노트패치 및 필요한 펌웨어 수준을 참조하십시오.

  8. x86: 기본 부트 파일을 설정합니다.

    이 값 설정을 사용하면 로그인 프롬프트에 액세스할 수 없는 경우에 노드를 재부트할 수 있습니다.

    • Solaris 9 OS에서 기본값을 kadb로 설정합니다.


      phys-schost# eeprom boot-file=kadb
      
    • Solaris 10 OS에서 GRUB 부트 매개 변수 메뉴에서 kmdb를 기본값으로 설정합니다.


      grub edit> kernel /platform/i86pc/multiboot kmdb
      
  9. 클러스터에서 사용되는 모든 공용 IP 주소를 사용하여 각 노드에서 /etc/inet/hosts 또는 /etc/inet/ipnodes 파일을 업데이트합니다.

    이름 지정 서비스 사용 여부와 관계없이 이 단계를 수행하십시오. ipnodes 파일은 IPv4 및 IPv6 주소를 모두 포함할 수 있습니다. IP 주소를 추가해야 하는 Sun Cluster 구성 요소 목록은 공용 네트워크 IP 주소를 참조하십시오.


    주 –

    새 클러스터 또는 새 클러스터 노드를 설정하는 동안 scinstall 유틸리티가 구성되는 각 노드의 공용 IP 주소를 /etc/inet/hosts 파일에 자동으로 추가합니다. /etc/inet/ipnodes 파일에 IP 주소를 추가하는 것은 선택 사항입니다.


  10. 클러스터 상호 연결에 ce 어댑터를 사용할 경우, /etc/system 파일에 다음 항목을 추가합니다.


    set ce:ce_taskq_disable=1

    다음에 시스템을 재부트하면 이 항목이 적용됩니다.

  11. (옵션) Sun Enterprise 10000 서버에서 동적 재구성을 사용하도록 /etc/system 파일을 구성합니다.

    클러스터의 각 노드에서 /etc/system 파일에 다음 항목을 추가합니다.


    set kernel_cage_enable=1

    다음에 시스템을 재부트하면 이 항목이 적용됩니다. 동적 재구성에 대한 자세한 내용은 서버 설명서를 참조하십시오.

  12. (옵션) IPMP 그룹에서 공용 네트워크 어댑터를 구성합니다.

    클러스터를 생성하는 동안 scinstall 유틸리티가 구성하는 다중 어댑터 IPMP 그룹을 사용하지 않으려면 독립형 시스템과 같이 사용자 지정 IPMP 그룹을 구성합니다. 자세한 내용은 System Administration Guide: IP Services의 제VI부, IPMP를 참조하십시오.

    클러스터가 생성되는 동안, scinstall 유틸리티는 동일한 서브넷을 사용하고 IPMP 그룹에서 아직 구성되지 않은 공용 네트워크 어댑터의 각 세트를 단일 다중 어댑터 IPMP 그룹으로 구성합니다. scinstall 유틸리티는 기존의 IPMP 그룹을 무시합니다.

다음 순서

내부 하드 드라이브의 미러링을 지원하는 서버로 내부 디스크 미러링을 구성하려면 내부 디스크 미러링을 구성하는 방법으로 이동합니다.

Sun 다중 경로 소프트웨어를 사용하려면 Sun Multipathing 소프트웨어를 설치하는 방법으로 이동합니다.

VxFS를 설치하려면 SPARC: VERITAS File System 소프트웨어 설치 방법으로 이동합니다.

그렇지 않으면 Sun Cluster 소프트웨어 패키지를 설치합니다. Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.

참조

Sun Cluster 구성에서 동적 재구성 작업을 수행하려면 Solaris OS용 Sun Cluster 시스템 관리 안내서를 참조하십시오.

Procedure내부 디스크 미러링을 구성하는 방법

시스템 디스크를 미러링하도록 내부 하드웨어 RAID 디스크 미러링을 구성하려면 클러스터의 각 노드에서 이 작업을 수행합니다. 이 절차는 선택 사항입니다.


주 –

다음과 같은 경우에는 이 절차를 수행하지 마십시오.


시작하기 전에

Solaris 운영 체제 및 필요한 패치의 설치 여부를 확인합니다.

  1. 수퍼유저로 전환합니다.

  2. 내부 미러를 구성합니다.


    phys-schost# raidctl -c clt0d0 clt1d0 
    
    -c clt0d0 clt1d0

    미러 디스크에 기본 디스크의 미러를 생성합니다. 기본 디스크의 이름을 첫 번째 인수로 입력합니다. 미러 디스크의 이름을 두 번째 인수로 입력합니다.

    서버의 내부 디스크 미러링을 구성하는 방법에 대한 자세한 내용은 서버와 함께 배송된 문서 및 raidctl(1M) 매뉴얼 페이지를 참조하십시오.

다음 순서

Sun 다중 경로 소프트웨어를 사용하려면 Sun Multipathing 소프트웨어를 설치하는 방법으로 이동합니다.

VxFS를 설치하려면 SPARC: VERITAS File System 소프트웨어 설치 방법으로 이동합니다.

그렇지 않으면 Sun Cluster 소프트웨어 패키지를 설치합니다. Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.

ProcedureSun Multipathing 소프트웨어를 설치하는 방법

FC(fiber channel) 저장소용 Sun Multipathing 소프트웨어를 설치 및 구성하려면 클러스터의 각 노드에서 이 절차를 수행합니다. Multipathing 소프트웨어는 공유 클러스터 저장소의 여러 I/O 경로를 관리합니다. 이 절차는 선택 사항입니다.

시작하기 전에

다음 작업을 수행합니다.

  1. 수퍼유저로 전환합니다.

  2. SPARC: Solaris 9 OS의 경우, Sun StorEdge Traffic Manager 소프트웨어와 필요한 패치를 각 노드에 설치합니다.

  3. 다중 경로 기능을 활성화합니다.

    • Solaris 9 OS의 경우, mpxio-disable 매개 변수의 값을 no로 변경합니다.

      각 노드에서 /kernel/drv/scsi_vhci.conf 파일의 이 항목을 수정합니다.


      set mpxio-disable=no
    • Solaris 10 OS의 경우, 각 노드에서 다음 명령을 실행합니다.


      주의 – 주의 –

      Sun Cluster 소프트웨어가 이미 설치된 경우에는 이 명령을 실행하지 마십시오. 활성 클러스터 노드에서 stmsboot 명령을 실행하면 Solaris 서비스가 유지 보수 모드로 이동할 수 있습니다. 대신 Sun Cluster 환경에서 stmsboot 명령을 사용하려면 stmsboot(1M) 매뉴얼 페이지의 지침을 따릅니다.



      phys-schost# /usr/sbin/stmsboot -e
      
      -e

      Solaris I/O 다중 경로를 활성화합니다.

      자세한 내용은 stmsboot(1M) 매뉴얼 페이지를 참조하십시오.

  4. SPARC: Solaris 9 OS의 경우, Sun StorEdge SAN Foundation 소프트웨어의 버전에 저장소 어레이를 위한 내장 지원이 포함되었는지 판별합니다.

    소프트웨어가 저장소 어레이에 대해 내장 지원을 포함하지 않는 경우, 필요한 항목을 포함하도록 각 노드의 /kernel/drv/scsi_vhci.conf 파일을 편집합니다. 자세한 내용은 저장 장치의 릴리스 노트를 참조하십시오.

  5. SPARC: Solaris 9 OS의 경우, 각 노드를 종료하고 재구성 부트를 수행합니다.

    재구성 부트에서는 새로운 Solaris 장치 파일 및 링크를 만듭니다.


    phys-schost# shutdown -y -g0 -i0
    ok boot -r
    
  6. 모든 노드에서 재구성 재부트가 완료된 다음에는 저장 배열 구성을 마치는 데 필요한 추가 작업을 수행합니다.

    자세한 내용은 Sun Cluster Hardware Administration Collection 에서 해당 저장 배열의 설치 지침을 참조하십시오.

일반 오류

Sun Cluster 소프트웨어가 클러스터에 설치되고 난 후 Sun 다중 경로 소프트웨어를 설치하면 DID 매핑을 업데이트해야 할 수 있습니다. DID 이름 공간을 다시 만들려면 클러스터의 각 노드에서 다음 명령을 실행합니다.

phys-schost# cldevice clearphys-schost# cldevice refresh(Solaris 9만 해당) phys-schost# cfgadm -c configurephys-schost# cldevice populate

자세한 내용은 cfgadm(1M)cldevice(1CL) 매뉴얼 페이지를 참조하십시오.

다음 순서

VxFS를 설치하려면 SPARC: VERITAS File System 소프트웨어 설치 방법으로 이동합니다.

그렇지 않으면 Sun Cluster 소프트웨어 패키지를 설치합니다. Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.

ProcedureSPARC: VERITAS File System 소프트웨어 설치 방법

클러스터에서 VERITAS File System(VxFS) 소프트웨어를 사용하려면 클러스터의 각 노드에서 이 절차를 수행합니다.

  1. VxFS 설치 설명서의 절차에 따라 클러스터의 각 노드에 VxFS 소프트웨어를 설치하십시오.

  2. VxFS를 지원하는 데 필요한 Sun Cluster 패치를 설치하십시오.

    패치의 위치 및 설치 지침에 대한 자세한 내용은 Solaris OS용 Sun Cluster 3.2 릴리스 노트패치 및 필요한 펌웨어 수준을 참조하십시오.

  3. 각 노드의 /etc/system 파일에서 다음 값을 설정합니다.


    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    시스템을 다시 부트하면 변경 사항이 적용됩니다.

    • Sun Cluster 소프트웨어에서는 최소값 rpcmod:svc_default_stksize0x8000으로 설정해야 합니다. VxFS 설치에서 rpcmod:svc_default_stksize 변수 값을 0x4000으로 설정하기 때문에 VxFS를 설치한 후에 값을 0x8000으로 수동으로 설정해야 합니다.

    • /etc/system 파일의 lwp_default_stksize 변수가 VxFS의 기본값인 0x4000을 대체하도록 설정해야 합니다.

다음 순서

Sun Cluster 소프트웨어 패키지를 설치합니다. Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법으로 이동합니다.

ProcedureSun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법

Sun JavaTM Enterprise System(Java ES) installer 프로그램을 사용하여 다음 설치 작업 중 하나 이상을 수행하려면 이 절차를 수행합니다.


주 –

이 절차에서는 대화식 installer 프로그램을 사용합니다. 설치 스크립트를 개발할 때와 같이 비대화식 installer 프로그램을 사용하려면 Sun Java Enterprise System 5 Installation Guide for UNIX의 5 장, Installing in Silent Mode를 참조하십시오.


시작하기 전에

다음 작업을 수행합니다.

  1. (옵션) GUI를 갖춘 installer 프로그램을 사용하려면 설치할 클러스터 노드의 디스플레이 환경이 GUI를 표시하도록 설정되어 있는지 확인합니다.


    % xhost +
    % setenv DISPLAY nodename:0.0
    

    이렇게 설정하지 않는 경우 installer 프로그램은 텍스트 기반 모드에서 실행됩니다.

  2. 설치할 클러스터 노드에서 수퍼유저로 전환합니다.

  3. Sun Java Availability Suite DVD-ROM을 DVD-ROM 드라이브에 삽입합니다.

    볼륨 관리 데몬 vold(1M)가 실행 중이고 CD-ROM 또는 DVD 장치를 관리하도록 구성되었다면 이 데몬은 /cdrom/cdrom0/ 디렉토리에 미디어를 자동으로 마운트합니다.

  4. DVD-ROM의 설치 마법사 디렉토리로 이동합니다.

    • SPARC 플랫폼에 소프트웨어 패키지를 설치하려는 경우 다음 명령을 입력합니다.


      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
      
    • x86 플랫폼에 소프트웨어 패키지를 설치하려는 경우 다음 명령을 입력합니다.


      phys-schost# cd /cdrom/cdrom0/Solaris_x86
      
  5. 설치 마법사 프로그램을 시작합니다.


    phys-schost# ./installer
    

    Java ES installer 프로그램의 기타 형식 및 기능 사용에 대한 자세한 내용은 Sun Java Enterprise System 5 Installation Guide for UNIX 를 참조하십시오.

  6. 화면의 지침에 따라 노드에 Sun Cluster 프레임워크 소프트웨어 및 데이터 서비스를 설치합니다.

    • 이전 SunPlex Manager인 Sun Cluster Manager를 설치하지 않으려면 선택을 해제합니다.


      주 –

      Sun Cluster Manager를 클러스터의 모든 노드에 설치하거나 모든 노드에 설치하지 않아야 합니다.


    • Sun Cluster Geographic Edition 소프트웨어를 설치하려면 해당 소프트웨어를 선택합니다.

      클러스터가 설정된 이후의 추가 설치 절차에 대한 내용은 Sun Cluster Geographic Edition Installation Guide 를 참조하십시오.

    • Sun Cluster 프레임워크 소프트웨어의 구성 여부에 관한 프롬프트에서 나중에 구성을 선택합니다.

    설치를 완료한 후 사용 가능한 설치 로그를 볼 수 있습니다.

  7. 다음 기능 중 하나를 사용하여 추가 패키지를 설치합니다.

    • Remote Shared Memory Application Programming Interface(RSMAPI)

    • 상호 연결 전송을 위한 SCI-PCI 어댑터

    • RSMRDT 드라이버


    주 –

    RSMRDT 드라이버의 사용은 RSM 사용 가능한 Oracle9i 릴리스 2 SCI 구성을 실행하는 클러스터로 제한되어 있습니다. 자세한 설치 및 구성 지침은 Oracle9i 릴리스 2 사용자 설명서를 참조하십시오.


    1. 설치해야 하는 패키지를 결정합니다.

      다음 표에서는 각 기능에서 필요한 Sun Cluster 3.2 패키지가 각 패키지 그룹의 설치 순서대로 나열되어 있습니다. Java ES installer 프로그램은 이러한 패키지를 자동으로 설치하지 않습니다.


      주 –

      다음 표에 나열된 순서대로 패키지를 설치합니다.


      기능 

      설치할 추가 Sun Cluster 3.2 패키지 

      RSMAPI 

      SUNWscrif

      SCI-PCI 어댑터 

      • Solaris 9: SUNWsci SUNWscid SUNWscidx

      • Solaris 10: SUNWscir SUNWsci SUNWscidr SUNWscid

      RSMRDT 드라이버 

      SUNWscrdt

    2. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/로 변경합니다. 여기서 archsparc 또는 x86(Solaris 10의 경우만)이고 ver은 Solaris 9의 경우에는 9, Solaris 10의 경우에는 10입니다 디렉토리로 이동합니다.


      phys-schost# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      
    3. 추가 패키지를 설치합니다.

      • SPARC: Solaris 9 OS의 경우, 다음 명령을 사용합니다.


        phys-schost# pkgadd -d . packages
        
      • Solaris 10 OS의 경우, 다음 명령을 사용합니다.


        phys-schost# pkgadd -G -d . packages
        
  8. DVD-ROM 드라이브에서 Sun Java Availability Suite DVD-ROM을 언로드합니다.

    1. DVD-ROM이 사용되고 있지 않음을 확인하려면 DVD-ROM에 존재하지 않는 디렉토리로 이동합니다.

    2. DVD-ROM을 꺼냅니다.


      phys-schost# eject cdrom
      
  9. Sun Cluster 소프트웨어를 지원하는 필수 패치를 모두 적용합니다.

    패치의 위치 및 설치 지침에 대한 자세한 내용은 Solaris OS용 Sun Cluster 3.2 릴리스 노트패치 및 필요한 펌웨어 수준을 참조하십시오.

다음 순서

Sun StorEdge QFS 파일 시스템 소프트웨어를 설치하려는 경우 Sun StorEdge QFS Installation and Upgrade Guide의 초기 설치 지침을 따릅니다.

그렇지 않고, 루트 사용자 환경을 설정하려면 루트 환경을 설정하는 방법으로 이동합니다.

Procedure루트 환경을 설정하는 방법


주 –

Sun Cluster 구성에서는 다양한 쉘의 사용자 초기화 파일이 대화식 쉘에서 실행되는지 확인해야 합니다. 이러한 파일은 단말기에 출력을 시도하기 전에 확인되어야 합니다. 초기화 파일을 이렇게 정의하지 않으면 데이터 서비스에 예상하지 않은 작동이나 장애가 발생할 수 있습니다. 자세한 내용은 System Administration Guide: Basic AdministrationCustomizing a User's Work Environment(Solaris 9 또는 Solaris 10)를 참조하십시오.


클러스터의 각 노드에서 이 절차를 수행하십시오.

  1. 클러스터 노드에서 수퍼유저로 전환합니다.

  2. .cshrc 또는 .profile 파일에서 PATHMANPATH 항목을 수정합니다.

    1. /usr/sbin//usr/cluster/bin/PATH에 추가합니다.

    2. /usr/cluster/man/MANPATH에 추가합니다.

    추가 파일 경로 설정에 대해서는 Solaris OS 문서, 볼륨 관리자 문서 및 다른 응용 프로그램 문서를 참조하십시오.

  3. (옵션) 관리를 쉽게 하려면 각 노드에 루트 암호를 동일하게 설정하십시오.

다음 순서

클러스터 노드에 Sun Cluster 소프트웨어를 구성하십시오. 새 클러스터 또는 새 클러스터 노드 설정으로 이동합니다.