Sun Cluster 3.0 설치 안내서

2장 Sun Cluster 소프트웨어 설치 및 구성

이 장에서는 클러스터를 설치 및 구성하기 위한 단계별 프로시저를 제공합니다.

다음의 단계별 지시사항이 이 장에 수록되어 있습니다.

소프트웨어 설치

시작하기 전에, 클러스터 구성 계획 및 설치 전략 준비에 도움이 되도록 다음 매뉴얼을 읽으십시오.

다음 테이블에는 소프트웨어를 설치하기 위해 수행할 작업들이 나열되어 있습니다.

표 2-1 작업 맵: 소프트웨어 설치

작업 

지시사항을 보려면, ...로 가십시오. 

클러스터 구성의 배치를 계획하십시오.  

Sun Cluster 3.0 Release Notes에 있는 제 1 장 및 "구성 워크시트 및 예제"

(optional) 관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어를 설치하십시오.

"관리 콘솔에 클러스터 제어판 소프트웨어 설치 방법"

두 가지 방법 중 하나를 사용하여 Solaris 운영 환경과 Sun Cluster 소프트웨어를 설치하십시오 

 

 

Method 1 - Solaris 소프트웨어를 설치한 후, scinstall 유틸리티를 사용하여 Sun Cluster 소프트웨어를 설치하십시오.

"Solaris 운영 환경 설치 방법""Sun Cluster 소프트웨어 설치 및 새 클러스터 노드 설정 방법"

Method 2 - Solaris 소프트웨어와 Sun Cluster 소프트웨어를 scinstall 유틸리티 사용자 정의 JumpStart 옵션을 사용하여 하나의 작동으로 설치하십시오.

"JumpStart를 사용하여 Solaris 운영 환경을 설치하고 새 클러스터 노드를 설정하는 방법"

이름 서비스 찾아보기 순서를 구성하십시오.  

"이름 서비스 스위치 구성 방법"

볼륨 관리자 소프트웨어를 설치하십시오. 

 

 

Solstice DiskSuite 소프트웨어를 설치하십시오 

"Solstice DiskSuite 소프트웨어 설치 방법" 및 Solstice DiskSuite 문서

VERITAS Volume Manager 소프트웨어를 설치하십시오.  

"VERITAS Volume Manager 소프트웨어 설치 방법" 및 VERITAS Volume Manager 문서

디렉토리 경로를 설정하십시오.  

"루트 사용자 환경 설정 방법"

데이터 서비스 소프트웨어 패키지를 설치하십시오.  

"데이터 서비스 소프트웨어 패키지 설치 방법"

클러스터를 구성하십시오.  

"클러스터 구성"

관리 콘솔에 클러스터 제어판 소프트웨어 설치 방법

이 프로시저는 관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어를 설치하는 방법에 대해 설명합니다. CCP는 cconsole(1M), ctelnet(1M) 및 crlogin(1M) 도구에 대한 실행판을 제공합니다. 이 도구 각각은 노드 세트에 대한 다중창 연결과 한번에 모든 노드에 입력을 보내는 일반 창을 제공합니다.

관리 콘솔로서 Solaris 8 운영 환경을 실행하는 데스크탑 시스템을 사용할 수 있습니다. 또한 관리 콘솔을 Sun Management Center 콘솔 그리고/또는 서버, 그리고 AnswerBook 서버로 사용할 수 있습니다. Sun Management Center 소프트웨어 설치에 관한 정보는, Sun Management Center 소프트웨어 문서를 참조하십시오. AnswerBook 서버 설치에 대해서는 Sun Cluster 3.0 Release Notes의 내용을 참조하십시오.


주 -

관리 콘솔은 사용하지 않아도 됩니다. 관리 콘솔을 사용하지 않으면, 클러스터에서 지시된 하나의 노드에서 관리 작업을 수행하십시오.


  1. Solaris 8 운영 환경과 Solaris 패치가 관리 콘솔에 설치되어 있는지 확인하십시오.

    모든 플랫폼은 최소한 일반 사용자 시스템 지원 소프트웨어 그룹이 있는 Solaris 8를 요구합니다.

  2. CD-ROM으로부터 설치할 경우, Sun Cluster 3.0 CD-ROM을 관리 콘솔의 CD-ROM 드라이브에 넣으십시오.

    볼륨 관리 디먼 vold(1M)가 실행중이고 CD-ROM 디바이스를 관리하도록 구성되어 있으면, 자동으로 CD-ROM을 /cdrom/suncluster_3_0 디렉토리에 마운트합니다.

  3. /cdrom_image/suncluster_3_0/SunCluster_3.0/Packages 디렉토리로 변경하십시오.


    # cd /cdrom_image/suncluster_3_0/SunCluster_3.0/Packages
    
  4. SUNWccon 패키지를 설치하십시오.


    # pkgadd -d . SUNWccon
    
  5. (옵션) SUNWscman 패키지를 설치하십시오.


    # pkgadd -d . SUNWscman
    

    SUNWscman 패키지를 관리 콘솔에 설치하면, 클러스터 노드에 Sun Cluster 소프트웨어를 설치하기 전에 관리 콘솔에서 Sun Cluster man 페이지를 볼 수 있습니다.

  6. CD-ROM으로부터 설치했을 경우, CD-ROM을 빼십시오.

  7. /etc/clusters 파일을 작성하십시오.

    각 클러스터 노드의 클러스터 이름과 실제 노드 이름을 파일에 추가하십시오.


    # vi /etc/clusters
    clustername node1 node2
    

    세부사항은 /opt/SUNWcluster/bin/clusters(4) man 페이지를 보십시오.

  8. /etc/serialports 파일을 작성하십시오.

    각 클러스터 노드의 실제 노드 이름, 단말기 집중 장치(TC) 또는 시스템 서비스 프로세서(SSP) 이름 그리고 직렬 포트 번호를 파일에 추가하십시오.


    주 -

    /etc/serialports 파일의 직렬 포트 번호에, 실제 포트 번호가 아니라, telnet(1) 포트 번호를 사용하십시오. 실제 포트 번호에 5000을 추가하여 직렬 포트 번호를 판별하십시오. 예를 들어, 실제 포트 번호가 6이면, 직렬 포트 번호는 5006이어야 합니다.



    # vi /etc/serialports
    node1 TC_hostname 500n
    node2 TC_hostname 500n
    

    Sun Enterprise E10000 server에 대한 세부사항 및 특별한 고려사항은 /opt/SUNWcluster/bin/serialports(4)man 페이지를 참조하십시오.

  9. 편의성을 향상시키려면, /opt/SUNWcluster/bin 디렉토리를 PATH에 그리고 /opt/SUNWcluster/man 디렉토리를 관리 콘솔에 있는 MANPATH에 추가하십시오.

    SUNWscman 패키지를 설치했을 경우,/usr/cluster/man 디렉토리도 MANPATH에 추가하십시오.

  10. CCP 유틸리티를 시작하십시오.


    # /opt/SUNWcluster/bin/ccp clustername
    

    CCP 사용에 관한 정보는, Sun Cluster 3.0 System Administration Guide에 있는 "Sun Cluster 원격 로그인 방법" 및 /opt/SUNWcluster/bin/ccp(1M) man 페이지를 참조하십시오.

이동해야 할 곳

Solaris 소프트웨어를 설치하려면, "Solaris 운영 환경 설치 방법"로 이동하십시오. scinstall 사용자 정의 JumpStart 옵션을 사용하여 Solaris 및 Sun Cluster 소프트웨어를 설치하려면, "JumpStart를 사용하여 Solaris 운영 환경을 설치하고 새 클러스터 노드를 설정하는 방법"로 이동하십시오.

Solaris 운영 환경 설치 방법

scinstall(1M) 사용자 정의 JumpStart 설치 방법을 사용하지 않고 소프트웨어를 설치할 경우, 클러스터의 각 노드에서 이 작업을 수행하십시오.

  1. solaris 소프트웨어 설치 전에 하드웨어 설정이 완료되고 연결이 검증되었는지 확인하십시오.

    세부사항은 Sun Cluster 3.0 Hardware Guide와 스토리지 디바이스 문서를 참조하십시오.

  2. 클러스터의 각 노드에서, local-mac-address 변수가 false로 올바르게 설정되어 있는지 확인하십시오.


    # /usr/sbin/eeprom local-mac-address?
    
    • 명령이 local-mac-address=false를 리턴하면, 변수 설정이 올바른 것입니다. 단계 3로 계속 진행하십시오.

    • 명령이 local-mac-address=true를 리턴하면, false로 설정을 변경하십시오.


      # /usr/sbin/eeprom local-mac-address?=false
      

      새로운 설정은 다음 시스템 재시동에서 적용됩니다.

  3. Sun Cluster 3.0 Release Notes에서 완료된 "논리 파일 시스템 배치 워크시트"를 사용가능하게 하십시오.

  4. 이름지정 서비스를 갱신하십시오.

    모든 공용 호스트 이름과 논리 주소에 대한 주소 대 이름 맵핑을 클러스터 서비스에 액세스하기 위해 클라이언트에서 사용되는 이름지정 서비스(NIS, NIS+ 또는 DNS와 유사)에 추가하십시오. 계획 지침에 대해서는 "IP 주소"의 내용을 참조하십시오.

    또한 이 주소들은 "이름 서비스 스위치 구성 방법" 프로시저 동안 각 노드의 로컬 /etc/inet/hosts 파일에 추가하십시오.

  5. 클러스터 관리 콘솔을 사용 중일 경우, 클러스터의 각 노드에 대해 콘솔 화면을 표시하십시오.

    클러스터 제어판이 관리 콘솔에 설치되고 구성되었으면, cconsole(1M) 유틸리티를 사용하여 개인 콘솔 화면을 표시할 수 있습니다. 그렇지 않으면, 개별적으로 각 노드의 콘솔에 연결해야 합니다.

    시간을 절약하려면, 동시에 각 노드에서 Solaris 운영 환경을 설치할 수 있습니다. cconsole 유틸리티를 사용하여 한번에 모든 노드를 설치하십시오.

  6. 기존 클러스터에 새 노드를 설치하시겠습니까?

    • 아니면, 단계 7로 진행하십시오.

    • 맞으면, 클러스터의 각 클러스터 파일 시스템에 대한 새 노드에 마운트 지점을 작성하기 위해 다음 단계를 수행하십시오.

    1. 클러스터의 또다른 활동 노드에서, 모든 클러스터 파일 시스템의 이름을 표시하십시오.


      % mount | grep global | egrep -v node@ | awk `{print $1}'
      
    2. 클러스터에 추가하는 노드에서, 클러스터의 각 클러스터 파일 시스템에 대해 마운트 지점을 작성하십시오.


      % mkdir -p mountpoint
      

      예를 들어, 마운트 명령에 의해 리턴된 파일 시스템이 /global/dg-schost-1이었으면, 클러스터에 추가될 노드에서 mkdir -p /global/dg-schost-1을 실행하십시오.

  7. Solaris 설치 문서에 지시된 대로 Solaris 운영 환경을 설치하십시오.


    주 -

    Solaris 운영 환경에서 클러스터에 있는 동일한 버전의 모든 노드를 설치해야 합니다.


    Solaris 운영 환경 설치에 보통 사용되는 방법을 사용하여 클러스터링된 환경에 설치될 새 노드에서 소프트웨어를 설치할 수 있습니다. 이러한 방법에는 Solaris 대화식 설치 프로그램, Solaris JumpStart 및 Solaris Web Start가 포함됩니다.

    설치 중에, 다음을 수행하십시오.

    • 최소한 일반 사용자 시스템 지원 소프트웨어 그룹을 설치하십시오. Apache HTTP Server 패키지의 예처럼, 일반 사용자 시스템 지원 소프트웨어 그룹의 일부가 아닌, 다른 Solaris 소프트웨어 패키지를 설치해야 합니다. Oracle과 같은 타사 소프트웨어에서는 추가 Solaris 패키지가 필요할 수도 있습니다. Solaris 소프트웨어 요구사항에 대해서는 타사 제품의 문서를 참조하십시오.


      주 -

      Sun Enterprise E10000 server에서는 Entire Distribution + OEM 소프트웨어 그룹을 필요로 합니다.


    • 마운트 지점이 /globaldevices로 설정된 최소한 100MB의 파일 시스템과 볼륨 관리자 소프트웨어 지원에 필요한 파일 시스템 파티션을 작성하십시오. Sun Cluster 소프트웨어 지원을 위한 파티션 지침은 "시스템 디스크 파티션"의 내용을 참조하십시오.


      주 -

      /globaldevices 파일 시스템은 Sun Cluster 소프트웨어의 성공적인 설치를 위해 필요합니다.


    • 자동 절전 시스템 종료를 할 것인지를 물으면 no로 응답하십시오. Sun Cluster 구성에서는 자동 시스템 종료를 사용할 수 없습니다. 자세한 정보는 pmconfig(1M) 및 power.conf(4) man 페이지를 참조하십시오.

    • 관리를 쉽게 하려면, 각 노드에서 동일한 루트 암호를 설정하십시오.


    주 -

    Solaris 인터페이스 그룹 기능은 기본적으로 Solaris 소프트웨어 설치 동안 사용할 수 없습니다. 인터페이스 그룹은 Sun Cluster 구성에서 지원되지 않으므로 사용할 수 없습니다Solaris 인터페이스 그룹에 대한 자세한 정보는 ifconfig(1M) man 페이지를 참조하십시오.


  8. Solaris 소프트웨어 패치를 설치하십시오.

    패치 위치와 설치 지시사항에 대해서는 Sun Cluster 3.0 Release Notes의 내용을 참조하십시오.

  9. 하드웨어 관련 패치를 설치하고 하드웨어 패치에 포함된 필요한 펌웨어를 다운로드하십시오.

    패치 위치와 설치 지시사항에 대해서는 Sun Cluster 3.0 Release Notes의 내용을 참조하십시오.

이동해야 할 곳

클러스터 노드에 Sun Cluster 소프트웨어를 설치하려면, "Sun Cluster 소프트웨어 설치 및 새 클러스터 노드 설정 방법"로 이동하십시오.

Sun Cluster 소프트웨어 설치 및 새 클러스터 노드 설정 방법

Solaris 운영 환경을 설치하고 나면, 클러스터의 각 노드에서 이 작업을 수행하십시오.


주 -

scinstall(1M) 사용자 정의 JumpStart 방법을 사용하여 소프트웨어를 설치했으면, Sun Cluster 소프트웨어는 이미 설치되어 있습니다. "이름 서비스 스위치 구성 방법"로 계속 진행하십시오.


  1. Sun Cluster 3.0 Release Notes에서 다음 완성된 구성 계획 워크시트를 사용할 수 있도록 하십시오.

    • "클러스터 및 노드 이름 워크시트"

    • "클러스터 상호연결 워크시트"

    계획 지침에 대해서는 제 1 장의 내용을 참조하십시오.

  2. 클러스터 노드에서 수퍼유저가 되어야 합니다.

  3. CD-ROM으로부터 설치할 경우, Sun Cluster 3.0 CD-ROM을 설치 및 구성할 노드의 CD-ROM 드라이브에 넣으십시오.

    볼륨 관리 디먼 vold(1M)가 실행중이고 CD-ROM 디바이스를 관리하도록 구성되어 있으면, 자동으로 CD-ROM을 /cdrom/suncluster_3_0 디렉토리에 마운트합니다.

  4. /cdrom_image/suncluster_3_0/SunCluster_3.0/Tools 디렉토리로 변경하십시오.


    # cd /cdrom_image/suncluster_3_0/SunCluster_3.0/Tools
    
  5. scinstall(1M) 유틸리티를 시작하십시오.


    # ./scinstall
    

    대화식 scinstall 유틸리티를 사용할 때 다음 지침을 따르십시오.

    • 대화식 scinstall은 우선 입력할 수 있도록 합니다. 그러므로 다음 메뉴 화면이 바로 나타나지 않으면 Return을 두 번 이상 누르지 마십시오.

    • 달리 명시되지 않으면, Control-D를 누르면 일련의 관련된 질문들의 맨 앞이나 기본 메뉴로 돌아갑니다.

    • 세션 응답은 다음에 이 메뉴 옵션을 실행할 때 기본값으로 사용되도록 저장됩니다.

    • 클러스터 모드에서 노드가 성공적으로 시동될 때까지, scinstall을 재실행하고 필요에 따라 구성 정보를 변경할 수있습니다. 그러나 노드에 대한 불량 구성 데이터가 클러스터의 설정된 부분 위에 놓이면, 먼저 불량 정보를 제거해야 하는 경우도 있습니다. 이를 수행하려면, 활동 중인 클러스터 노드 중 하나에 로그인한 후 scsetup(1M) 유틸리티를 사용하여 불량 어댑터, 접합 또는 케이블 정보를 제거하십시오.

  6. 첫번째 노드를 설치하고 새로운 클러스터를 설정하려면, 1(새 클러스터 설정)을 입력하십시오.

    Sun Cluster 소프트웨어를 설치하려면 프롬프트에 따르십시오. 다음 정보에 대한 질문을 받게됩니다.

    • 클러스터 이름

    • 클러스터의 부분이 될 다른 노드의 이름

    • 노드 인증

    • 사설 네트워크 주소 및 네트마스크-클러스터가 성공적으로 형성된 후에는 사설 네트워크 주소를 변경할 수 없습니다.

    • 클러스터 상호연결(전송 어댑터 및 전송 접합)-scinstall 명령을 사용하여 두 개를 넘는 어댑터를 구성할 수 없지만, 나중에 scsetup 유틸리티를 사용하여 추가 어댑터를 구성할 수 있습니다.

    • 글로벌 디바이스 파일 시스템 이름

    • 자동 다시 시동-설치할 Sun Cluster 소프트웨어 패치가 있으면 자동 다시 시동을 선택하지 마십시오.

    프롬프트 응답을 마치면, 입력으로부터 생성된 scinstall 명령이 확인을 위해 표시됩니다. 명령을 승인하지 않을 것을 선택하면, scinstall 유틸리티는 기본 메뉴를 표시합니다. 이 곳에서 메뉴 옵션 1을 다시 실행하여 다른 응답을 제공할 수 있습니다. 이전 항목은 기본값으로 표시됩니다.


    주 -

    자신의 고유한 /etc/inet/ntp.conf 파일을 설치하지 않았으면, scinstall 명령은 기본 ntp.conf 파일을 자동으로 설치해 줍니다. 기본 파일은 8개 노드에 대한 참조사항과 함께 제공되므로, xntpd(1M) 디먼은 이 참조사항에 관한 오류 메시지를 시동 할때 나타낼 수 있습니다. 이 메시지들은 무시할 수 있습니다. 그렇지 않고, 정상적인 클러스터 조건 하에서 이 메시지들이 표시되지 않도록 하는 방법에 대해서는 "NTP(Network Time Protocol) 갱신 방법"의 내용을 참조하십시오.


  7. 클러스터의 두 번째 노드를 설치하려면, 2(이 시스템을 노드로 추가)를 입력하십시오.

    첫번째 노드가 계속 설치되어 있는 동안 이 단계를 시작할 수 있습니다.

    Sun Cluster 소프트웨어를 설치하려면 프롬프트를 따르십시오. 다음 정보에 대해 질문합니다.

    • sponsor node라는 기존 클러스터 노드 이름.

    • 클러스터 이름

    • 클러스터 상호연결(전송 어댑터 및 전송 접합)

    • 글로벌 디바이스 파일 시스템 이름

    • 자동 다시 시동-설치할 Sun Cluster 소프트웨어 패치가 있으면 자동 다시 시동을 선택하지 마십시오.

    프롬프트 응답을 마치면, 입력으로부터 생성된 scinstall 명령이 확인을 위해 표시됩니다. 명령을 승인하지 않을 것을 선택하면, scinstall 유틸리티는 기본 메뉴를 표시합니다. 이 곳에서 메뉴 옵션 2를 다시 실행하여 다른 응답을 제공할 수 있습니다. 이전 항목은 기본값으로 표시됩니다.

    설치를 계속할 것을 선택하였으나 스폰서 노드가 아직 설정되지 않은 경우, scinstall은 스폰서 노드가 사용가능하게 될 때까지 기다립니다.

  8. 모든 노드가 완전히 구성될 때까지 각 추가 노드에서 단계 7를 반복하십시오.

    추가 노드에서 설치를 시작하기 전에 두 번째 노드가 완료되기를 기다리지 않아도 됩니다.

  9. Sun Cluster 소프트웨어 패치를 설치하십시오.

    패치 위치와 설치 지시사항에 대해서는 Sun Cluster 3.0 Release Notes의 내용을 참조하십시오.

  10. Sun Cluster 소프트웨어 패치를 설치했으면, 클러스터를 시스템 종료한 뒤, 클러스터의 각 노드를 다시 시동하십시오.

    클러스터의 첫번째 노드를 다시 시동하기 전에, scshutdown 명령을 사용하여 클러스터를 시스템 종료하십시오. 클러스터 노드가 설치 모드에서 제거될 때까지, 클러스터를 형성하는 첫번째 노드(소폰서 노드)에만 정족수 투표가 있습니다. 아직 설치 모드에 있는 형성된 클러스터에서, 첫번째 노드가 다시 시동되기 전에 클러스터가 시스템 종료되지 않으면, 나머지 클러스터 노드는 정족수를 확보할 수 없고 전체 클러스터가 시스템 종료됩니다.

    클러스터 노드는 "사후 설치 설정 수행 방법" 프로시저 동안 scsetup(1M) 명령을 처음 실행할 때까지 설치 모드에 남아 있습니다.

예-Sun Cluster 소프트웨어 설치

다음 예는 클러스터에 설치될 첫번째 노드인 phys-schost-1 노드에서 scinstall 설치 작업이 완료될 때의 진행 메시지를 보여줍니다.


** Installing SunCluster 3.0 **
        SUNWscr.....done.
        SUNWscdev...done.
        SUNWscu.....done.
        SUNWscman...done.
        SUNWscsal...done.
        SUNWscsam...done.
        SUNWscrsmop.done.
        SUNWsci.....done.
        SUNWscid....done.
        SUNWscidx...done.
        SUNWscvm....done.
        SUNWmdm.....done.

Initializing cluster name to "sccluster" ... done
Initializing authentication options ... done
Initializing configuration for adapter "hme2" ... done
Initializing configuration for adapter "hme4" ... done
Initializing configuration for junction "switch1" ... done
Initializing configuration for junction "switch2" ... done
Initializing configuration for cable ... done
Initializing configuration for cable ... done
Setting the node ID for "phys-schost-1" ... done (id=1)
 
Checking for global devices global file system ... done
Checking device to use for global devices file system ... done
Updating vfstab ... done
 
Verifying that NTP is configured ... done
Installing a default NTP configuration ... done
Please complete the NTP configuration after scinstall has finished.
 
Verifying that "cluster" is set for "hosts" in nsswitch.conf ... done
Adding the "cluster" switch to "hosts" in nsswitch.conf ... done
 
Verifying that "cluster" is set for "netmasks" in nsswitch.conf ... done
Adding the "cluster" switch to "netmasks" in nsswitch.conf ... done
 
Verifying that power management is NOT configured ... done
Unconfiguring power management ... done
/etc/power.conf has been renamed to /etc/power.conf.060199105132
Power management is incompatible with the HA goals of the cluster.
Please do not attempt to re-configure power management.
 
Ensure routing is disabled ... done
Network routing has been disabled on this node by creating /etc/notrouter.
Having a cluster node act as a router is not supported by Sun Cluster.
Please do not re-enable network routing.
 
Log file - /var/cluster/logs/install/scinstall.log.276
 
Rebooting ...

이동해야 할 곳

이름 서비스 찾아보기 순서를 설정하려면, "이름 서비스 스위치 구성 방법"로 가십시오.

JumpStart를 사용하여 Solaris 운영 환경을 설치하고 새 클러스터 노드를 설정하는 방법

사용자 정의 JumpStart 설치 방법을 사용하려면 이 프로시저를 수행하십시오. 이 방법은 Solaris 운영 환경과 Sun Cluster 소프트웨어를 단일 조작으로 모든 클러스터 노드에 설치합니다.

  1. solaris 소프트웨어 설치 전에 하드웨어 설정이 완료되고 연결이 검증되었는지 확인하십시오.

    하드웨어 설정에 대한 세부사항은 Sun Cluster 3.0 Hardware Guide, 사용자 서버 및 스토리지 디바이스 문서를 참조하십시오.

  2. 클러스터의 각 노드에서, local-mac-address 변수가 false로 올바로 설정되어 있는지 확인하십시오.


    # /usr/sbin/eeprom local-mac-address?
    
    • 명령이 local-mac-address=false를 리턴하면, 변수 설정이 올바릅니다. 단계 3로 계속 진행하십시오.

    • 명령이local-mac-address=true를 리턴하면, false로 설정을 변경하십시오.


      # /usr/sbin/eeprom local-mac-address?=false
      

      새로운 설정은 다음 시스템 재시동에서 적용됩니다.

  3. 다음 정보를 사용할 수 있도록 하십시오.

    • 각 클러스터 노드의 이더넷 주소

    • Sun Cluster 3.0 Release Notes에 있는 완성된 구성 계획 워크시트.

      • "로컬 파일 시스템 배치 워크시트"

      • "클러스터 및 노드 이름 워크시트"

      • "클러스터 상호연결 워크시트"

    계획 지침에 대해서는 제 1 장의 내용을 참조하십시오.

  4. 이름지정 서비스를 갱신하십시오.

    모든 공용 호스트 이름과 논리 주소에 대한 주소 대 이름 맵핑과 JumpStart 서버의 IP 주소 및 호스트 이름을 클러스터 서비스에 액세스하기 위해 클라이언트에서 사용되는 이름지정 서비스(NIS, NIS+ 또는 DNS와 유사)에 추가하십시오. 계획 지침에 대해서는 "IP 주소"의 내용을 참조하십시오. 또한 이 주소들은 "이름 서비스 스위치 구성 방법" 프로시저 동안 각 노드의 로컬 /etc/inet/hosts 파일에 추가하십시오.


    주 -

    이름 서비스를 사용하지 않을 경우, jumpstart-dir/autoscinstall.d/nodes/nodename/archive/etc/inet/hosts파일을 JumpStart 설치 서버에 작성하고, 클러스터의 각 노드에 대해 한 파일을 작성하십시오. 여기서 nodename은 클러스터의 노드 이름입니다. 주소 대 이름 맵핑을 추가하십시오.


  5. 수퍼유저로서 Solaris 운영 환경 설치를 위해 JumpStart 설치 서버를 설정하십시오.

    JumpStart 설치 서버 설정에 대한 지시사항은 setup_install_server(1M) 및 add_install_client(1M) man 페이지 그리고 Solaris Advanced Installation Guide를 참조하십시오.

    설치 서버 설정시, 다음 요구사항을 만족하는지 확인하십시오.

    • 설치 서버는 클러스터 노드와 동일한 서브넷에 있지만 자체가 클러스터 노드는 아닙니다.

    • 설치 서버는 Sun Cluster 소프트웨어에서 요구하는 Solaris 운영 환경의 릴리스를 설치합니다.

    • 사용자 정의 JumpStart 디렉토리는 Sun Cluster의 JumpStart 설치를 위해 존재합니다. jumpstart-dir 디렉토리에는 check(1M) 유틸리티의 사본이 포함되어 있어야 하고 JumpStart 설치 서버가 읽기 위해 NFS를 내보내야 합니다.

    • 각각의 새로운 클러스터 노드는 Sun Cluster 설치를 위해 사용자 정의 JumpStart를 사용하여 사용자 정의 JumpStart 설치 클라이언트로 구성됩니다.

  6. (옵션) Sun Cluster 및 Sun Cluster 데이터 서비스 CD-ROM 사본을 보유할 디렉토리를 JumpStart 설치 서버에 작성하십시오.

    다음 예에서, /export/suncluster 디렉토리는 이러한 목적으로 작성됩니다.


    # mkdir -m 755 /export/suncluster
    
  7. Sun Cluster CD-ROM을 JumpStart 설치 서버에 복사하십시오.

    1. Sun Cluster 3.0 CD-ROM을 JumpStart 설치 서버의 CD-ROM 드라이브에 넣으십시오.

      볼륨 관리 디먼 vold(1M)가 실행중이고 CD-ROM 디바이스를 관리하도록 구성되어 있으면, 자동으로 CD-ROM을 /cdrom/suncluster_3_0 디렉토리에 마운트합니다.

    2. /cdrom_image/suncluster_3_0/SunCluster_3.0/Tools 디렉토리로 변경하십시오.


      # cd /cdrom_image/suncluster_3_0/SunCluster_3.0/Tools
      

    3. CD-ROM을 JumpStart 설치 서버의 새로운 디렉토리에 복사하십시오.

      scinstall 명령은 CD-ROM 파일을 복사하면서 새 설치 디렉토리를 작성합니다. 설치 디렉토리 이름 /export/suncluster/sc30은 여기에서 예로 사용되었습니다.


      # ./scinstall -a /export/suncluster/sc30
      

    4. CD-ROM을 꺼내십시오.


      # cd /
      # eject cdrom
      
    5. JumpStart 설치 서버에 있는 Sun Cluster 3.0 CD-ROM 이미지가 JumpStart 설치 서버가 읽을 수 있도록 NFS 내보내기가 되었는지 확인하십시오.

      자동 파일 공유에 대한 자세한 정보는 NFS Administration Guideshare(1M) 및 dfstab(4) man 페이지를 참조하십시오.

  8. JumpStart 설치 서버에서 scinstall(1M) 유틸리티를 시작하십시오.

    /export/suncluster/sc30 경로는 작성된 설치 디렉토리에 대한 예로 사용됩니다.


    # cd /export/suncluster/sc30/SunCluster_3.0/Tools
    # ./scinstall
    

    대화식 scinstall 유틸리티를 사용할 때 다음 지침을 따르십시오.

    • 대화식 scinstall은 우선 입력할 수 있게 합니다. 그러므로 다음 메뉴 화면이 바로 나타나지 않으면 Return을 두 번 이상 누르지 마십시오.

    • 달리 명시되지 않으면, Control-D를 누르면 관련된 질문들의 시작이나 기본 메뉴로 돌아갑니다.

    • 세션 응답은 다음에 이 메뉴 옵션을 실행할 때 기본값으로 사용되도록 저장됩니다.

  9. JumpStart 설치를 선택하려면, 3을 입력하십시오(이 설치 서버에서 JumpStart 되도록 클러스터 구성).


    주 -

    옵션 3의 앞에 별표(*)가 없으면, JumpStart 설정이 완료되지 않았거나 오류가 있어서 사용 안함을 의미합니다. scinstall 유틸리티를 종료하고, JumpStart 설정을 정정한 후 scinstall 유틸리티를 다시 시작하십시오.


    Sun Cluster 구성 정보를 지정하려면 프롬프트에 따르십시오.

    • JumpStart 디렉토리 이름

    • 클러스터 이름

    • 클러스터 노드 이름

    • 노드 인증

    • 사설 네트워크 주소 및 네트마스크-클러스터가 성공적으로 형성된 후에는 사설 네트워크 주소를 변경할 수 없습니다.

    • 클러스터 상호연결(전송 어댑터 및 전송 접합)-scinstall 명령을 사용하여 세 개 이상의 어댑터를 구성할 수 없지만, 나중에 scsetup 유틸리티를 사용하여 추가 어댑터를 구성할 수 있습니다.

    • 글로벌 디바이스 파일 시스템 이름

    • 자동 다시 시동-설치할 Sun Cluster 소프트웨어 패치가 있으면 자동 다시 시동을 선택하지 마십시오.

    완료하면, 입력으로부터 생성된 scinstall명령이 확인을 위해 표시됩니다. 명령 중 하나를 승인하지 않을 것을 선택하면, scinstall 유틸리티는 기본 메뉴를 표시합니다. 이 곳에서 메뉴 옵션 3을 다시 실행하여 다른 응답을 제공할 수 있습니다. 이전 항목은 기본값으로 표시됩니다.

  10. 필요하면, scinstall에 의해 작성된 기본 class 파일이나 프로파일로 조정됩니다.

    scinstall 명령은 다음 autoscinstall.class 기본 클래스 파일을 jumpstart-dir/autoscinstall.d/3.0디렉토리에 작성합니다.


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750 swap
    filesys         rootdisk.s3 100  /globaldevices
    filesys         rootdisk.s7 10
    cluster         SUNWCuser       add
    package         SUNWman         add


    주 -

    기본 class 파일은 Solaris 소프트웨어의 일반 사용자 시스템 지원 소프트웨어 그룹(SUNWCuser)을 설치합니다. Sun Enterprise E10000 server의 경우, Entire Distribution + OEM 소프트웨어 그룹을 설치해야 합니다. 또한 Oracle과 같은 타사 소프트웨어에서는 추가 Solaris 패키지가 필요할 수도 있습니다. Solaris 소프트웨어 요구사항에 대해서는 타사 제품의 문서를 참조하십시오.


    다음 방법 중 한가지 방법으로 프로파일을 변경할 수 있습니다.

    • autoscinstall.class 파일을 직접 편집하십시오. 이 변경사항은 이 사용자 정의 JumpStart 디렉토리를 사용하는 모든 클러스터의 모든 노드에 적용됩니다.

    • 다른 프로파일을 지시하도록 rules 파일을 갱신한 후 check 유틸리티를 실행하여 rules 파일을 확인하십시오.

    최소 파일 시스템 할당 요구사항이 만족되면, Solaris 운영 환경 설치 프로파일에 대한 변경사항에 제한이 없습니다. Sun Cluster 3.0 소프트웨어 지원을 위한 파티션 지침 및 요구사항은 "시스템 디스크 파티션"의 내용을 참조하십시오.

  11. 기존 클러스터에 새 노드를 설치하시겠습니까?

    • 아닌 경우, 단계 12로 진행하십시오.

    • 설치하려는 경우, 클러스터의 각 클러스터 파일 시스템에 대한 새 노드에 마운트 지점을 작성하기 위해 다음 단계를 수행하십시오.

    1. 클러스터의 또다른 활동 노드에서, 모든 클러스터 파일 시스템의 이름을 표시하십시오.


      % mount | grep global | egrep -v node@ | awk `{print $1}'
      
    2. 클러스터에 추가하는 노드에서, 클러스터의 각 클러스터 파일 시스템에 대해 마운트 지점을 작성하십시오.


      % mkdir -p mountpoint
      

      예를 들어, 마운트 명령에 의해 리턴된 파일 시스템 이름이 /global/dg-schost-1이면, 클러스터에 추가될 노드에서 mkdir -p /global/dg-schost-1을 실행하십시오.

  12. Solaris 패치 디렉토리를 설정하십시오.

    1. JumpStart 설치 서버에서 jumpstart-dir/autoscinstall.d/nodes/nodename/patches 디렉토리를 작성하십시오(클러스터의 각 노드마다 디렉토리 하나씩). nodename은 클러스터 노드의 이름입니다.


      # mkdir jumpstart-dir/autoscinstall.d/nodes/nodename/patches
      
    2. 모든 Solaris 패치 사본을 각각의 디렉토리에 놓으십시오. 또한 Solaris 소프트웨어가 설치된 후 설치될 모든 하드웨어 관련 패치 사본을 각각의 디렉토리에 놓으십시오.

  13. 이름 서비스를 사용하지 않을 경우, 필요한 호스트 이름 정보를 포함하도록 파일을 설정하십시오.

    1. JumpStart 설치 서버에서, 이름이 jumpstart-dir/autoscinstall.d/nodes/nodename/archive/etc/inet/hosts인 파일을 작성하십시오.

      각 노드에 대해 하나의 파일을 작성하십시오. nodename은 클러스터 노드의 이름입니다.

    2. 다음 항목을 각 파일에 추가하십시오.

      • Sun Cluster CD-ROM 이미지의 사본을 보유하는 NFS 서버의 IP 주소와 호스트 이름. 이는 JumpStart 설치 서버나 다른 시스템이 될 수 있습니다.

      • 클러스터에 있는 각 노드의 IP 주소와 호스트 이름.

  14. (옵션) 사용자 고유의 설치 완료 후 스크립트를 추가하십시오.

    완료 스크립트를 추가할 수 있으며, 이는 scinstall 명령에 의해 설치된 표준 완료 스크립트 이후에 실행됩니다.

    1. 완료 스크립트 이름에 finish라고 명명하십시오.

    2. 완료 스크립트를 클러스터의 각 노드에 대해 한 디렉토리인 jumpstart-dir/autoscinstall.d/nodes/nodename 디렉토리에 복사하십시오.

  15. 관리 콘솔을 사용 중일 경우, 클러스터의 각 노드에 대해 콘솔 화면을 표시하십시오.

    cconsole(1M)이 관리 콘솔에 설치되고 구성되었으면, 이를 사용하여 개인 콘솔 화면을 표시할 수 있습니다. 그렇지 않으면, 개별적으로 각 노드의 콘솔에 연결해야 합니다.

  16. 각 노드의 콘솔에 있는 ok PROM 프롬프트에서, boot net - install 명령을 입력하여 각 노드의 네트워크 JumpStart 설치를 시작하십시오.


    주 -

    명령의 대시(-)는 양쪽에 공백이 있어야 합니다.



    ok boot net - install
    

    주 -

    /etc/inet 디렉토리에 자신의 고유한 ntp.conf 파일을 설치하지 않았으면, scinstall 명령은 기본 ntp.conf 파일을 자동으로 설치해 줍니다. 기본 파일은 8개 노드에 대한 참조사항과 함께 제공되므로, xntpd(1M) 디먼은 이 참조사항에 관한 오류 메시지를 시동 할 때 나타낼수 있습니다. 이 메시지들은 무시해도 안전합니다. 그렇지 않고, 정상적인 클러스터 조건 하에서 이 메시지들이 표시되지 않도록 하는 방법에 대해서는 "NTP(Network Time Protocol) 갱신 방법"의 내용을 참조하십시오.


    설치가 성공적으로 완료되면, 각 노드는 새 클러스터 노드로 완전히 설치됩니다.


    주 -

    Solaris 인터페이스 그룹 기능은 기본적으로 Solaris 소프트웨어 설치 동안 사용할 수 없습니다. 인터페이스 그룹은 Sun Cluster 구성에서 지원되지 않으므로 사용할 수 없습니다. Solaris 인터페이스 그룹에 대한 자세한 정보는 ifconfig(1M) man 페이지를 참조하십시오.


  17. Sun Cluster 소프트웨어 패치를 설치하십시오.

    패치 위치와 설치 지시사항에 대해서는 Sun Cluster 3.0 Release Notes의 내용을 참조하십시오.

  18. Sun Cluster 소프트웨어 패치를 설치했으면, 클러스터를 시스템 종료한 뒤, 클러스터의 각 노드를 다시 시동하십시오.

    클러스터의 첫번째 노드를 다시 시동하기 전에, scshutdown 명령을 사용하여 클러스터를 시스템 종료하십시오. 클러스터 노드가 설치 모드에서 제거될 때까지, 클러스터를 형성하는 첫번째 노드(스폰서 노드)에만 정족수 투표가 있습니다. 아직 설치 모드에 있는 형성된 클러스터에서, 첫번째 노드가 다시 시동되기 전에 클러스터가 시스템 종료되지 않으면, 나머지 클러스터 노드는 정족수를 확보할 수 없고 전체 클러스터가 시스템 종료됩니다.

    클러스터 노드는 "사후 설치 설정 수행 방법" 프로시저 동안 scsetup(1M) 명령을 처음 실행할 때까지 설치 모드에 남아 있습니다.

이동해야 할 곳

이름 서비스 찾아보기 순서를 설정하려면, "이름 서비스 스위치 구성 방법"로 가십시오.

이름 서비스 스위치 구성 방법

클러스터의 각 노드에서 다음 작업을 수행하십시오.

  1. 클러스터 노드에서 수퍼유저가 되어야 합니다.

  2. /etc/nsswitch.conf 파일을 편집하십시오.

    1. clusterhostsnetmasks 데이터베이스 항목에 대한 첫번째 소스 찾아보기인지 확인하십시오.

      이 순서는 Sun Cluster 소프트웨어가 제대로 작동되도록 하기 위해 필요합니다. scinstall(1M) 명령은 설치 동안 이 항목들에 cluster를 추가합니다.

    2. (옵션) hostsnetmasks 데이터베이스 항목의 경우, 파일들에 대해 cluster를 따르십시오.

    3. (옵션) 다른 모든 데이터베이스 항목의 경우, files을 먼저 찾아보기 순서에 놓으십시오.


    주 -

    단계 b단계 c를 수행하면, 이름 지정 서비스가 사용할 수 없게 될 경우 데이터 서비스에 대한 가용성이 증가합니다.


    다음 예는 /etc/nsswitch.conf 파일의 일부 내용을 보여줍니다. hostsnetmasks 데이터베이스 항목에 대한 찾아보기 순서는 먼저 cluster이고, 그 다음에 files입니다. 다른 항목에 대한 찾아보기 순서는 files에서 시작합니다.


    # vi /etc/nsswitch.conf
    ...
    passwd:     files nis
    group:      files nis
    ...
    hosts:      cluster files nis
    ...
    netmasks:   cluster files nis
    ...

  3. 클러스터에 대한 모든 공용 호스트 이름과 논리 주소로 /etc/inet/hosts 파일을 갱신하십시오.

이동해야 할 곳

Solstice DiskSuite 볼륨 관리자 소프트웨어를 설치하려면, "Solstice DiskSuite 소프트웨어 설치 방법"로 가십시오. VERITAS Volume Manager 볼륨 관리자 소프트웨어를 설치하려면, "VERITAS Volume Manager 소프트웨어 설치 방법"로 가십시오

Solstice DiskSuite 소프트웨어 설치 방법

클러스터의 각 노드에서 다음 작업을 수행하십시오.

  1. 클러스터 노드에서 수퍼유저가 되어야 합니다.

  2. CD-ROM으로부터 설치할 경우, 2 CD-ROM의 Solaris 8 Software 2를 노드의 CD-ROM 드라이브에 넣으십시오.


    주 -

    Solstice DiskSuite 소프트웨어 패키지는 이제 Solaris 8 소프트웨어 CD-ROM에 위치됩니다.


    이 단계에서는 볼륨 관리 디먼 vold(1M)가 실행중이고 CD-ROM 디바이스 관리를 위해 구성되어 있다고 가정합니다.

  3. Solstice DiskSuite 소프트웨어 패키지를 설치하십시오.


    주 -

    설치할 Solstice DiskSuite 소프트웨어가 있을 경우, Solstice DiskSuite 소프트웨어 설치 후 다시 시동하지 마십시오.


    다음 예에 표시된 순서대로 소프트웨어 패키지를 설치하십시오.


    # cd /cdrom_image/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packages
    # pkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] optional-pkgs
    

    SUNWmdr and SUNWmdu 패키지는 모든 Solstice DiskSuite 설치에 필요합니다. SUNWmdx 패키지도 64비트 Solstice DiskSuite 설치에 필요합니다. 선택적 소프트웨어 패키지에 대한 정보는 Solstice DiskSuite 설치 문서를 참조하십시오.

  4. CD-ROM으로부터 설치했을 경우, CD-ROM을 빼십시오.

  5. Solstice DiskSuite 패치를 아직 설치하지 않았으면 지금 설치하십시오.

    패치 위치와 설치 지시사항에 대해서는 Sun Cluster 3.0 Release Notes의 내용을 참조하십시오.

  6. /usr/cluster/bin/scgdevs 명령을 실행하여, Solstice DiskSuite에 대한 글로벌 디바이스 이름공간을 수동으로 상주시키십시오.

  7. Solstice DiskSuite 소프트웨어 패치를 설치했으면, 클러스터를 시스템 종료한 뒤, 클러스터의 각 노드를 다시 시동하십시오.

    클러스터의 첫번째 노드를 다시 시동하기 전에, scshutdown 명령을 사용하여 클러스터를 시스템 종료하십시오. 클러스터 노드가 설치 모드에서 제거될 때까지, 클러스터를 형성하는 첫번째 노드(스폰서 노드)에만 정족수 투표가 있습니다. 아직 설치 모드에 있는 형성된 클러스터에서, 첫번째 노드가 다시 시동되기 전에 클러스터가 시스템 종료되지 않으면, 나머지 클러스터 노드는 정족수를 확보할 수 없고 전체 클러스터가 시스템 종료됩니다.

    클러스터 노드는 "사후 설치 설정 수행 방법" 프로시저 동안 scsetup(1M) 명령을 처음 실행할 때까지 설치 모드에 남아 있습니다.

Solstice DiskSuite 소프트웨어 설치에 관한 완전한 정보는 Solstice DiskSuite 설치 문서를 참조하십시오.

이동해야 할 곳

루트 사용자의 환경을 설정하려면, "루트 사용자 환경 설정 방법"로 이동하십시오.

VERITAS Volume Manager 소프트웨어 설치 방법

클러스터의 각 노드에서 다음 작업을 수행하십시오.

  1. 클러스터 노드에서 수퍼유저가 되어야 합니다.

  2. DMP(Dynamic Multipathing)를 사용할 수 없게 하십시오.


    # mkdir /dev/vx
    # ln -s /dev/dsk /dev/vx/dmp
    # ln -s /dev/rdsk /dev/vx/rdmp
    
  3. VxVM CD-ROM을 노드의 CD-ROM 드라이브에 삽입하십시오.

  4. VxVM 소프트웨어 패키지를 설치하십시오.


    주 -

    설치할 VxVM 소프트웨어가 있을 경우, VxVM 소프트웨어 설치 후 다시 시동하지 마십시오.



    # cd /cdrom_image/volume_manager_3_0_4_solaris/pkgs
    # pkgadd -d . VRTSvxvm VRTSvmdev VRTSvmman
    

    pkgadd(1M) 명령에서 VRTSvxvm은 먼저 나열하고, VRTSvmdev는 두 번째로 나열하십시오. 다른 VxVM 소프트웨어 패키지의 설명은 VxVM 설치 문서를 참조하십시오.


    주 -

    VRTSvxvmVRTSvmdev 패키지는 모든 VxVM설치에 필요합니다.


  5. CD-ROM을 꺼내십시오.

  6. VxVM 패치를 설치하십시오.

    패치 위치와 설치 지시사항에 대해서는 Sun Cluster 3.0 Release Notes의 내용을 참조하십시오.

  7. VxVM 소프트웨어 패치를 설치했으면, 클러스터를 시스템 종료한 뒤, 클러스터의 각 노드를 다시 시동하십시오.

    클러스터의 첫번째 노드를 다시 시동하기 전에, scshutdown 명령을 사용하여 클러스터를 시스템 종료하십시오. 클러스터 노드가 설치 모드에서 제거될 때까지, 클러스터를 형성하는 첫번째 노드(스폰서 노드)에만 정족수 투표가 있습니다. 아직 설치 모드에 있는 형성된 클러스터에서, 첫번째 노드가 다시 시동되기 전에 클러스터가 시스템 종료되지 않으면, 나머지 클러스터 노드는 정족수를 확보할 수 없고 전체 클러스터가 시스템 종료됩니다.

    클러스터 노드는 "사후 설치 설정 수행 방법" 프로시저 동안 scsetup(1M) 명령을 처음 실행할 때까지 설치 모드에 남아 있습니다.

VxVM 소프트웨어 설치에 관한 완전한 정보는 VxVM 설치 문서를 참조하십시오.

이동해야 할 곳

루트 사용자의 환경을 설정하려면, "루트 사용자 환경 설정 방법"로 이동하십시오.

루트 사용자 환경 설정 방법

클러스터의 각 노드에서 다음 작업을 수행하십시오.

  1. 클러스터 노드에서 수퍼유저가 되어야 합니다.

  2. /usr/sbin/usr/cluster/bin을 포함하도록 PATH를 설정하십시오.

    VERITAS Volume Manager의 경우, 또한 /etc/vx/bin을 포함하도록 PATH를 설정하십시오. VRTSvmsa 패키지를 설치했다면, /opt/VRTSvmsa/binPATH에 추가하십시오.

  3. /usr/cluster/man을 포함하도록 MANPATH를 설정하십시오. 볼륨 관리자 고유 경로도 포함시키십시오.

    • Solstice DiskSuite 소프트웨어의 경우, /usr/share/man을 포함하도록 MANPATH를 설정하십시오.

    • VERITAS Volume Manager의 경우, /opt/VRTSvxvm/man을 포함하도록 MANPATH를 설정하십시오. VRTSvmsa 패키지를 설정했다면, /opt/VRTSvmsa/manMANPATH에 추가하십시오.

  4. (옵션) 관리를 쉽게 하려면, 각 노드에서 동일한 루트 암호를 설정하십시오(아직 이렇게 하지 않은 경우).

이동해야 할 곳

데이터 서비스 소프트웨어 패키지를 설치하려면, "데이터 서비스 소프트웨어 패키지 설치 방법"로 이동하십시오.

데이터 서비스 소프트웨어 패키지 설치 방법

각 클러스터 노드에서 이 작업을 수행하십시오.


주 -

설치된 데이터 서비스의 호스트 자원에 대해 노드가 예상되지 않아도, 각 노드에 같은 데이터 서비스 패키지 세트를 설치해야 합니다.


  1. 클러스터 노드에서 수퍼유저가 되어야 합니다.

  2. CD-ROM으로부터 설치할 경우, Data Services CD-ROM을 노드의 CD-ROM 드라이브에 넣으십시오.

  3. scinstall(1M) 유틸리티를 시작하십시오.


    # scinstall
    

    대화식 scinstall 유틸리티를 사용할 때 다음 지침을 따르십시오.

    • 대화식 scinstall은 우선 입력할 수 있게 합니다. 그러므로 다음 메뉴 화면이 바로 나타나지 않으면 Return을 두 번 이상 누르지 마십시오.

    • 달리 명시되지 않으면, Control-D를 누르면 일련의 관련된 질문들의 시작이나 기본 메뉴로 돌아갑니다.

  4. 데이터 서비스를 추가하려면, 4(이 클러스터 노드에 새로운 데이터 서비스 지원 추가)를 입력하십시오.

    설치할 모든 데이터 서비스를 선택하려면 프롬프트를 따르십시오.

  5. CD-ROM으로부터 설치했을 경우, CD-ROM을 빼십시오.

  6. Sun Cluster 데이터 서비스 패치를 설치하십시오.

    패치 위치와 설치 지시사항에 대해서는 Sun Cluster 3.0 Release Notes의 내용을 참조하십시오.


    주 -

    패치 특별 지시사항에 의해 지정되지 않는다면, Sun Cluster 데이터 서비스 패치 설치 후에 다시 시동할 필요가 없습니다. 패치 지시사항에서 다시 시동하도록 요구하면, 클러스터의 첫번재 노드를 다시 시동하기 전에 scshutdown 명령을 사용하여 클러스터를 시스템 종료하십시오. 클러스터 노드가 설치 모드에서 제거될 때까지, 클러스터를 형성하는 첫번째 노드(스폰서 노드)에만 정족수 투표가 있습니다. 아직 설치 모드에 있는 형성된 클러스터에서, 첫번째 노드가 다시 시동되기 전에 클러스터가 시스템 종료되지 않으면, 나머지 클러스터 노드는 정족수를 확보할 수 없고 전체 클러스터가 시스템 종료됩니다. 클러스터 노드는 "사후 설치 설정 수행 방법" 프로시저 동안 scsetup(1M) 명령을 처음 실행할 때까지 설치 모드에 남아 있습니다.


이동해야 할 곳

설치후 설정 및 구성 작업에 대해서는, "클러스터 구성"의 내용을 참조하십시오.

클러스터 구성

다음 테이블은 클러스터를 구성하기 위해 수행하는 작업들을 나열한 것입니다.

표 2-2 작업 맵: 클러스터 구성

작업 

지시사항을 보려면, ...로 가십시오. 

사후 설치 설정 수행 

"사후 설치 설정 수행 방법"

Solstice DiskSuite 또는 VERITAS Volume Manager 볼륨 관리자 및 디바이스 그룹을 구성하십시오.  

"볼륨 관리자 구성 방법" 그리고 볼륨 관리자 문서

클러스터 파일 시스템을 작성한 후 마운트하십시오. 

"클러스터 파일 시스템 추가 방법"

(optional) 추가 공용 네트워크 어댑터를 구성하십시오.

"추가 공용 네트워크 어댑터 구성 방법"

PNM(Public Network Management) 및 NAFO 그룹을 구성하십시오.  

"PNM(Public Network Management) 구성 방법"

(optional) 노드의 개인용 호스트 이름을 변경하십시오.

"개인용 호스트 이름 변경 방법"

/etc/inet/ntp.conf 파일을 편집하여 노드 이름 항목을 갱신하십시오.

"NTP(Network Time Protocol) 갱신 방법"

(optional) Sun Cluster 모듈을 Sun Management Center 소프트웨어에 설치하십시오.

"Sun Cluster 모니터링을 위한 Sun Management Center 소프트에어 설치 요구사항" 및 Sun Management Center 문서

타사 응용프로그램을 설치하고 응용프로그램, 데이터 서비스 및 자원 그룹을 구성하십시오.  

Sun Cluster 3.0 Data Services Installation and Configuration Guide 및 타사 응용프로그램 문서

사후 설치 설정 수행 방법

클러스터가 완전하게 형성된 후에, 이 프로시저를 한번만 수행하십시오.

  1. 모든 노드가 클러스터를 연결하였는지 확인하십시오.

    1. 한 노드에서, 모든 노드가 클러스터를 조인하였는지 확인하기 위해 클러스터 노드 목록을 표시하십시오.

      수퍼유저로 로그인하지 않아도 이 명령을 실행할 수 있습니다.


      % scstat -n
      

      출력은 다음과 유사합니다.


      -- Cluster Nodes --
                         Node name      Status
                         ---------      ------
        Cluster node:    phys-schost-1  Online
        Cluster node:    phys-schost-2  Online
    2. 각 노드에서, 시스템이 확인하는 모든 디바이스들의 목록을 표시하여 클러스터 노드에 대한 연결을 확인하십시오.

      수퍼유저로 로그인하지 않아도 이 명령을 실행할 수 있습니다.


      % scdidadm -L
      

      각 노드에서의 목록은 동일해야 합니다. 출력은 다음과 유사합니다.


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      ...
    3. scdidadm 출력에서 정족수 디바이스로 구성할 각 공유 디스크의 글로벌 디바이스 ID(DID) 이름을 식별하십시오.

      예를 들어, 이전 부속단계의 출력은 글로벌 디바이스 d2phys-schost-1phys-schost-2에 의해 공유됨을 보여줍니다. 이 정보는 단계 4에서 필요합니다. 정족수 디바이스 계획에 대한 추가 정보는 "정족수 디바이스"의 내용을 참조하십시오.

  2. 클러스터의 한 노드에서 수퍼유저가 되어야 합니다.

  3. scsetup(1M) 유틸리티를 시작하십시오.


    # scsetup
    

    초기 클러스터 설정 화면이 표시됩니다.


    주 -

    기본 메뉴가 대신 표시되면, 이 프로시저는 이미 성공적으로 수행되었습니다.


  4. 프롬프트에 응답하십시오.

    1. 프롬프트 Do you want to add any quorum disks?에서, 클러스터가 2-노드 클러스터이면 최소한 하나의 공유 정족수 디바이스를 구성하십시오.

      2-노드 클러스터는 공유 정족수 디바이스가 구성될 때까지 설치 모드에 남아 있습니다. scsetup 유틸리티가 정족수 디바이스를 구성한 후, 메시지 Commandcompleted successfully가 표시됩니다. 클러스터에 세 개 이상의 노드가 있을 경우, 정족수 디바이스 구성은 선택적입니다.

    2. Is it okay to reset "installmode"? 프롬프트에서, Yes라고 응답하십시오.

      scsetup 유틸리티가 정족수 구성 및 클러스터에 대한 투표수를 구성한 후, 메시지 Cluster initialization is complete가 표시되고 유틸리티가 기본 메뉴로 돌아 갑니다.


    주 -

    정족수 설정 프로세스가 성공적으로 완료하는데 실패했거나 인터럽트된 경우, 단계 3단계 4를 다시 실행하십시오.


  5. 어느 노드에서, 클러스터 설치 모드를 사용할 수 없는지 확인하십시오.


    # scconf -p | grep "Cluster install mode:"
    Cluster install mode:                                  disabled

이동해야 할 곳

볼륨 관리자 소프트웨어를 구성하려면, "볼륨 관리자 구성 방법"로 가십시오.

볼륨 관리자 구성 방법

  1. 다음 정보를 사용할 수 있도록 하십시오.

    • 스토리지 디스크 드라이브의 맵핑

    • Sun Cluster 3.0 Release Notes에 있는 완성된 구성 계획 워크시트.

      • "로컬 파일 시스템 배치 워크시트"

      • "디스크 디바이스 그룹 구성 워크시트"

      • "볼륨 관리자 구성 워크시트"

      • "메타디바이스 워크시트(Solstice DiskSuite)"

      계획 지침에 대해서는 제 1 장의 내용을 참조하십시오.

  2. 볼륨 관리자에 대해서는 해당되는 구성 프로시저를 따르십시오.

    볼륨 관리자 

    문서 

    Solstice DiskSuite 

    부록 A

    Solstice DiskSuite 문서 

    VERITAS Volume Manager 

    부록 B

    VERITAS Volume Manager 문서 

이동해야 할 곳

볼륨 관리자를 구성한 후, 클러스터 파일 시스템을 작성하려면 "클러스터 파일 시스템 추가 방법"로 이동하십시오.

클러스터 파일 시스템 추가 방법

추가한 각 클러스터 파일 시스템에 대해 이 작업을 수행하십시오.


주의 - 주의 -

파일 시스템을 작성하면 디스크의 데이터가 소멸됩니다. 올바른 디스크 디바이스 이름을 지정하였는지 확인하십시오. 잘못된 디바이스 이름을 지정할 경우, 새로운 파일 시스템이 작성될 때 그 내용을 지웁니다.


  1. 클러스터의 노드에서 수퍼유저가 되어야 합니다.


    정보 -

    더 빠르게 파일 시스템을 작성하려면, 파일 시스템을 작성하는 글로벌 디바이스의 현재 1차 노드에서 수퍼유저가 되어야 합니다.


  2. newfs(1M) 명령을 사용하여 파일 시스템을 작성하십시오.


    # newfs raw-disk-device
    

    다음 테이블은 raw-disk-device 인수 이름의 예를 보여줍니다. 이름지정 규정은 각 볼륨 관리자마다 다릅니다.

    표 2-3 원래 디스크 디바이스 이름 샘플

    볼륨 관리자 

    디스크 디바이스 이름 샘플 

    설명 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 디스크세트 내의 원래 디스크 디바이스 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹 내의 원래 디스크 디바이스 vo101

    없음 

    /dev/global/rdsk/d1s3

    원래 디스크 디바이스 d1s3

  3. 각각의 클러스터 노드에서, 클러스터 파일 시스템마다 마운트 지점 디렉토리를 작성하십시오.

    마운트 지점은 클러스터 파일 시스템이 해당 노드에서 액세스되지 않을 경우에도 각 노드에서 필요합니다.


    # mkdir -p /global/device-group/mount-point
    
    device-group

    디바이스를 포함하는 디바이스 그룹의 이름에 해당되는 디렉토리 이름

    mount-point

    클러스터 파일 시스템을 마운트할 디렉토리 이름


    정보 -

    편리한 관리를 위해, /global/device-group 디렉토리에 마운트 지점을 작성하십시오. 이 위치는 클러스터 파일 시스템을 쉽게 구별할 수 있게 하고, 로컬 파일 시스템에서 글로벌로 사용가능합니다.


  4. 클러스터의 각 노드에서, 마운트 지점에 대해 항목을 /etc/vfstab 파일에 추가하십시오.


    주 -

    syncdir 마운트 옵션은 클러스터 파일 시스템에 대해 필수 옵션이 아닙니다. syncdir을 지정할 경우, POSIX를 준수하는 파일 시스템 동작이 보장됩니다. 그렇게 하지 않으면, UFS 파일 시스템에서와 같은 동작을 수반하게 됩니다. syncdir을 지정하지 않으면 데이터를 파일에 추가하는 것처럼, 디스크 블록을 할당하는 쓰기의 성능이 현저하게 향상될 수 있습니다. 그러나 일부 경우에 syncdir이 없으면, 파일을 닫을 때가지 공간 부족 상태를 발견하지 못합니다. syncdir을 지정하지 않을 경우, 문제점이 발생하는 경우가 거의 없습니다. syncdir(및 POSIX 동작)을 사용하면, 닫기 전에 공간 부족 상태가 발견되었을 것입니다.


    1. 클러스터 파일 시스템을 자동으로 마운트하려면, mount at boot 필드를 yes로 설정하십시오.

    2. 다음 필수 마운트 옵션을 사용하십시오.

      • Solaris UFS logging을 사용할 경우, global,logging 마운트 옵션을 사용하십시오.

      • 클러스터 파일 시스템이 Solstice DiskSuite trans 메타디바이스를 사용할 경우, global 마운트 옵션을 사용하십시오(logging 마운트 옵션을 사용하지 마십시오). trans 메타디바이스 설정에 대해서는 Solstice DiskSuite 문서를 참조하십시오


      주 -

      로그 기록은 모든 클러스터 파일 시스템에 필요합니다.


    3. 각 클러스터 파일 시스템에 대해, /etc/vfstab 항목의 정보가 각 노드에서 같은 지 확인하십시오.

    4. 파일 시스템의 시동 순서 종속성에 대해 확인하십시오.

      예를 들어, phys-schost-1이 디스크 디바이스 d0/global/oracle에 마운트하고, phys-schost-2가 디스크 디바이스 d1/global/oracle/logs에 마운트한다고 가정합니다. 이 구성에서, phys-schost-1이 시동되고 /global/oracle을 마운트한 후에만 phys-schost-2가 시동되고 /global/oracle/logs를 마운트할 수 있습니다.

    5. 각 노드의 /etc/vfstab 파일에 있는 항목들이 디바이스들을 동일한 순서대로 나열하는지 확인하십시오.

    세부사항은 vfstab(4) man 페이지를 참조하십시오.

  5. 클러스터의 임의의 노드에서, 마운트 지점이 존재하고 /etc/vfstab 파일 항목이 클러스터의 모든 노드에서 올바른지 확인하십시오.


    # sccheck
    

    어떤 오류도 발생하지 않으면, 어떤 것도 리턴되지 않습니다.

  6. 클러스터의 임의의 노드에서, 클러스터 파일 시스템을 마운트하십시오.


    # mount /global/device-group/mount-point
    
  7. 클러스터의 각 노드에서, 클러스터 파일 시스템이 마운트되었는지 확인하십시오.

    df(1M) 또는 mount(1M) 명령을 사용하여 마운트된 파일 시스템을 나열할 수 있습니다.

예-클러스터 파일 시스템 작성

다음 예는 Solstice DiskSuite 메타디바이스 /dev/md/oracle/rdsk/d1에서 UFS 클러스터 파일 시스템을 작성합니다.


# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node:)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node:)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999

이동해야 할 곳

클러스터 노드가 여러 개의 공용 서브넷에 연결되어 있는 경우, 추가 공용 네트워크 어댑터를 구성하려면 "추가 공용 네트워크 어댑터 구성 방법"로 이동하십시오.

그렇지 않고, PNM을 구성하고 NAFO 그룹을 설정하려면, "PNM(Public Network Management) 구성 방법"로 이동하십시오.

추가 공용 네트워크 어댑터 구성 방법

클러스터 노드가 여러 개의 공용 서브넷에 연결되어 있는 경우, 2차 서브넷에 대해 추가 공용 네트워크 어댑터를 구성할 수 있습니다. 그러나 2차 서브넷을 구성하는 것은 반드시 수행하지 않아도 됩니다.


주 -

사설 네트워크 어댑터가 아닌, 공용 네트워크 어댑터만을 구성하십시오.


  1. Sun Cluster 3.0 Release Notes에서 완료된 "공용 네트워크 워크시트"를 사용가능하게 하십시오.

  2. 추가 공용 네트워크 어댑터에 대해 구성될 노드에서 수퍼유저가 되어야 합니다.

  3. /etc/hostname.adapter 파일을 작성하십시오. adapter는 어댑터 이름입니다.


    주 -

    각 NAFO 그룹에서, /etc/hostname.adapter 파일은 그룹에서 단 하나의 어댑터에 대해 존재해야 합니다.


  4. /etc/hostname.adapter 파일에서 공용 네트워크 어댑터 IP 주소의 호스트 이름을 입력하십시오.

    예를 들어, 다음은 어댑터 hme3에 대해 작성된 /etc/hostname.hme3파일을 보여주며, 파일에는 호스트 이름 phys-schost-1이 들어 있습니다.


    # vi /etc/hostname.hme3
    phys-schost-1
  5. 각 클러스터 노드에서, /etc/inet/hosts 파일에, 공용 네트워크 어댑터에 할당된 IP 주소와 해당되는 호스트 이름이 포함되어 있는지 확인하십시오.

    예를 들어, 다음은 phys-schost-1 입력항목을 보여줍니다.


    # vi /etc/inet/hosts
    ...
    192.29.75.101 phys-schost-1
    ...


    주 -

    이름지정 서비스를 사용할 경우, 이 정보도 이름지정 서비스 데이터베이스에 존재해야 합니다.


  6. 각 클러스터 노드에서, 어댑터를 켜십시오.


    # ifconfig adapter plumb
    # ifconfig adapter hostname netmask + broadcast + -trailers up
    

  7. 어댑터가 올바로 구성되어 있는지 확인하십시오.


    # ifconfig adapter
    

    출력에는 어댑터에 대한 올바른 IP 주소가 포함되어 있어야 합니다.

이동해야 할 곳

자원 그룹 관리자(RGM)에 의해 관리될 각 공용 네트워크 어댑터는 NAFO 그룹에 속해야 합니다. PNM을 구성하고 NAFO 그룹을 설정하려면, "PNM(Public Network Management) 구성 방법"로 이동하십시오.

PNM(Public Network Management) 구성 방법

클러스터의 각 노드에서 이 작업을 수행하십시오.


주 -

모든 공용 네트워크 어댑터는 반드시 NAFO(Network Adapter Failover) 그룹에 속해야 합니다. 또한 각 노드에는 서브넷 당 단 하나의 NAFO 그룹만 있을 수 있습니다.


  1. Sun Cluster 3.0 Release Notes에서 완료된 "공용 네트워크 워크시트"를 사용가능하게 하십시오.

  2. NAFO 그룹에 대해 구성될 노드에서 수퍼유저가 되어야 합니다.

  3. NAFO 그룹을 작성하십시오.


    # pnmset -c nafo_group -o create adapter [adapter ...]
    -c nafo_group

    NAFO 그룹을 구성합니다 nafo_group

    -o create adapter

    하나 이상의 공용 네트워크 어댑터를 포함하는 새 NAFO 그룹을 작성합니다.

    자세한 정보는 pnmset(1M) man 페이지를 참조하십시오.

  4. NAFO 그룹의 상태를 확인하십시오.


    # pnmstat -l
    

    자세한 정보는 pnmstat(1M) man 페이지를 참조하십시오.

예-PNM 구성

다음 예는 NAFO 그룹 nafo0를 작성합니다. 이는 공용 네트워크 어댑터 qfe1qfe5를 사용합니다.


# pnmset -c nafo0 -o create qfe1 qfe5
# pnmstat -l
group  adapters       status  fo_time    act_adp
nafo0  qfe1:qfe5      OK      NEVER      qfe5
nafo1  qfe6           OK      NEVER      qfe6

이동해야 할 곳

개인용 호스트 이름을 변경하려면, "개인용 호스트 이름 변경 방법"로 이동하십시오. 그렇지 않고, /etc/inet/ntp.conf 파일을 갱신하려면, "NTP(Network Time Protocol) 갱신 방법"로 이동하십시오.

개인용 호스트 이름 변경 방법

Sun Cluster 소프트웨어 설치중 지정된 기본 개인용 호스트 이름(clusternodenodeid-priv)을 사용하지 않으려면 이 작업을 수행하십시오.


주 -

이 프로시저는 응용프로그램과 데이터 서비스가 구성되어 시작되고 나면 수행하지 않아야 합니다. 그렇지 않으면, 응용프로그램이나 데이터 서비스가 이름이 바뀐 후에도 이전의 개인용 호스트 이름을 계속 사용하게 되어 호스트 이름 충돌이 발생할 수도 있습니다. 응용프로그램이나 데이터 서비스가 실행 중이면, 이 프로시저를 수행하기 전에 정지하십시오.


  1. 클러스터 노드에서 수퍼유저가 되어야 합니다.

  2. scsetup(1M) 유틸리티를 시작하십시오.


    # scsetup
    
  3. 개인용 호스트 이름에 대해 작업하려면, 4(개인용 호스트 이름)를 입력하십시오.

  4. 개인용 호스트 이름을 변경하려면, 1(개인용 호스트 이름 변경)을 입력하십시오.

    개인용 호스트 이름을 변경하려면 프롬프트를 따르십시오. 변경할 각각의 개인용 호스트 이름마다 반복하십시오.

  5. 새로운 개인용 호스트 이름을 확인하십시오.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

이동해야 할 곳

/etc/inet/ntp.conf 파일을 갱신하려면, "NTP(Network Time Protocol) 갱신 방법"로 이동하십시오.

NTP(Network Time Protocol) 갱신 방법

각 노드에서 이 작업을 수행하십시오.

  1. 클러스터 노드에서 수퍼유저가 되어야 합니다.

  2. /etc/inet/ntp.conf 파일을 편집하십시오.

    scinstall(1M) 명령은 템플리트 파일 ntp.cluster를 표준 클러스터 설치의 일부로 /etc/inet/ntp.conf에 복사합니다. 하지만 Sun Cluster 설치 전에 ntp.conf 파일이 이미 존재하면, 그 기존 파일은 변경되지 않습니다. 다른 수단으로 클러스터 패키지가 설치된 경우(pkgadd(1M)의 직접적인 사용과 유사), NTP를 구성해야 합니다.

    1. 클러스터에서 사용되지 않는 개인용 호스트 이름에 대한 모든 항목을 제거하십시오.

      ntp.conf 파일에 존재하지 않는 개인용 호스트 이름이 포함되어 있으면, 노드가 다시 시동될 때, 해당되는 개인용 호스트 이름을 접속시키려는 노드의 시도에서 오류 메시지가 생성됩니다.

    2. Sun Cluster 소프트웨어 설치 후에 개인용 호스트 이름을 변경하였으면, 각 파일 항목을 새로운 개인용 호스트 이름으로 갱신하십시오.

    3. 필요하면, NTP 요구사항에 만족되도록 다른 수정을 수행하십시오.

      NTP를 구성할 때 또는 클러스터 내에서 동기화 기능 수행 시 기본 요구사항은 모든 클러스터 노드가 동시에 동기화되는 것입니다. 노드들 사이의 시간 동기화에 대한 보조로 개인 노드에서 시간의 정확성을 고려하십시오. 동기화에 대한 이러한 기본 요구사항이 만족되면 사용자가 필요한 대로 NTP를 구성할 수 있습니다.

      클러스터 시간에 관한 추가 정보는 Sun Cluster 3.0 Concepts를, Sun Cluster 구성에 맞는 NTP 구성 지침은 ntp.cluster 템플리트를 참조하십시오.

  3. NTP 디먼을 다시 시작하십시오.


    # /etc/init.d/xntpd stop
    # /etc/init.d/xntpd start
    

이동해야 할 곳

Sun Management Center 제품을 사용하여 자원 그룹을 구성하거나 클러스터를 모니터하려면, "Sun Cluster 모니터링을 위한 Sun Management Center 소프트에어 설치 요구사항"로 이동하십시오.

그렇지 않고, 타사 응용프로그램을 설치하려면 응용프로그램 소프트웨어와 함께 제공되는 문서와 Sun Cluster 3.0 Data Services Installation and Configuration Guide의 내용을 참조하십시오. 자원 유형을 등록하려면, 자원 그룹을 설정하고 데이터 서비스를 구성한 후 Sun Cluster 3.0 Data Services Installation and Configuration Guide의 내용을 참조하십시오.

Sun Management Center용 Sun Cluster 모듈 설치

다음 테이블에는 Sun Management Center용 Sun Cluster 모듈 소프트웨어를 설치하기 위해 수행하는 작업들이 나열되어 있습니다.

표 2-4 작업 맵: Sun Management Center용 Sun Cluster 모듈 설치

작업 

지시사항을 보려면, ...로 가십시오. 

Sun Management Center 서버, 도움말 서버, 에이전트 및 콘솔 패키지를 설치하십시오.  

Sun Management Center 문서 

"Sun Cluster 모니터링을 위한 Sun Management Center 소프트에어 설치 요구사항"

Sun Cluster 모듈 패키지를 설치하십시오.  

"Sun Management Center용 Sun Cluster 모듈 설치 방법"

Sun Management Center 서버, 콘솔 및 에이전트 프로세스를 시작하십시오.  

"Sun Management Center 소프트웨어 시작 방법"

각 클러스터 노드를 Sun Management Center 에이전트 호스트 오브젝트로서 추가하십시오.  

"클러스터 노드를 Sun Management Center 에이전트 호스트 오브젝트로 추가하는 방법"

Sun Cluster 모듈을 로드하여 클러스터의 모니터링을 시작하십시오.  

"Sun Cluster 모듈 로드 방법"

Sun Cluster 모니터링을 위한 Sun Management Center 소프트에어 설치 요구사항

Sun Management Center 제품용 Sun Cluster 모듈(이전에는 Sun Enterprise SyMON)은 자원 그룹 및 모니터 클러스터 구성에 사용됩니다. Sun Cluster 모듈 패키지를 설치하기 전에 다음 작업을 수행하십시오.

Sun Management Center용 Sun Cluster 모듈 설치 방법

Sun Cluster 모듈 콘솔, 서버 및 도움말 서버 패키지를 설치하려면 이 프로시저를 수행하십시오.


주 -

Sun Cluster 모듈 에이전트 패키지(SUNWscsalSUNWscsam)가 Sun Cluster 소프트웨어 설치 중에 클러스터 노드에 추가되었습니다.


  1. Sun Management Center 핵심 패키지가 설치되었는지 확인하십시오.

    이 단계에는 각 클러스터 노드에 Sun Management Center 에이전트 패키지를 설치하는 작업이 포함됩니다. 설치 지시사항에 대해서는 Sun Management Center 문서를 참조하십시오.

  2. 관리 콘솔에서 Sun Cluster 모듈 콘솔 패키지를 설치하십시오.

    1. 수퍼유저가 되어야 합니다.

    2. CD-ROM으로부터 설치할 경우, Sun Cluster 모듈 CD-ROM을 CD-ROM 드라이브에 넣으십시오.

    3. /cdrom_image/SunCluster_3.0/Packages 디렉토리로 변경하십시오.

    4. Sun Cluster 모듈 콘솔 패키지를 설치하십시오.


      # pkgadd -d . SUNWscscn
      
    5. CD-ROM으로부터 설치했을 경우, CD-ROM을 빼십시오.

  3. 서버 기계에서, Sun Cluster 모듈 서버 패키지 SUNWscssv를 설치하십시오.

    단계 2에서와 동일한 프로시저를 사용하십시오.

  4. 도움말 서버 시스템에서, Sun Cluster 모듈 도움말 서버 패키지 SUNWscshl을 설치하십시오.

    단계 2에서와 동일한 프로시저를 사용하십시오.

  5. Sun Cluster 모듈 패치를 설치하십시오.

    패치 위치와 설치 지시사항에 대해서는 Sun Cluster 3.0 Release Notes의 내용을 참조하십시오.

이동해야 할 곳

Sun Management Center 소프트웨어를 시작하려면, "Sun Management Center 소프트웨어 시작 방법"로 이동하십시오.

Sun Management Center 소프트웨어 시작 방법

Sun Management Center 서버, 에이전트 및 콘솔 프로세스를 시작하려면 이 프로시저를 수행하십시오.

  1. 수퍼유저로서, Sun Management Center 서버 시스템에서 Sun Management Center 서버 프로세스를 시작하십시오.


    # /opt/SUNWsymon/sbin/es-start -S
    
  2. 수퍼유저로서, 각각의 Sun Management Center 에이전트 시스템(클러스터 노드)에서 Sun Management Center 에이전트 프로세스를 시작하십시오.


    # /opt/SUNWsymon/sbin/es-start -a
    
  3. Sun Management Center 콘솔 시스템(관리 콘솔)에서 Sun Management Center 콘솔을 시작하십시오.

    수퍼유저가 아니어도 콘솔 프로세스를 시작할 수 있습니다.


    % /opt/SUNWsymon/sbin/es-start -c
    
  4. 로그인 이름, 암호 및 서버 호스트 이름을 입력하고 로그인을 클릭하십시오.

이동해야 할 곳

클러스터 노드를 모니터되는 호스트 오브젝트로서 추가하려면, "클러스터 노드를 Sun Management Center 에이전트 호스트 오브젝트로 추가하는 방법"로 이동하십시오.

클러스터 노드를 Sun Management Center 에이전트 호스트 오브젝트로 추가하는 방법

클러스터 노드에 대해 Sun Management Center 에이전트 호스트 오브젝트를 작성하려면 다음 프로시저를 수행하십시오.


주 -

전체 클러스터에 대해 Sun Cluster 모듈 모니터링과 구성 기능을 사용하려면 단 하나의 클러스터 노드만 필요합니다. 그러나 그 클러스터 노드가 사용할 수 없게 되면, 그 호스트 오브젝트를 통한 클러스터 연결도 사용할 수 없게 됩니다. 그러면, 클러스터에 다시 연결하기 위해 다른 클러스터 노드 호스트 오브젝트가 필요합니다.


  1. Sun Management Center 기본 창에서, Sun Management Center 관리 도메인 풀다운 목록으로부터 도메인을 선택하십시오.

    이 도메인에는 작성 중인 Sun Management Center 에이전트 호스트 오브젝트가 포함됩니다. Sun Management Center 소프트웨어 설치 동안, 기본 도메인이 자동으로 작성되었습니다. 이 도메인을 사용하거나 다른 기존 도메인을 선택하거나 새 도메인을 작성할 수 있습니다.

    Sun Management Center 도메인 작성에 관한 정보는 Sun Management Center 문서를 참조하십시오.

  2. 풀다운 메뉴에서 편집>오브젝트 작성을 선택하십시오.

  3. 노드 탭을 선택하십시오.

  4. 풀다운 목록을 통한 모니터에서, Sun Management Center Agent - Host를 선택하십시오.

  5. 노드 레이블과 호스트 이름 텍스트 필드에서 클러스터 노드의 이름(예: phys-schost-1)을 채우십시오.

    IP 텍스트 필드를 공백으로 두십시오. 설명 텍스트 필드는 선택적입니다.

  6. 포트 텍스트 필드에서, Sun Management Center 에이전트 설치 시 선택한 포트 번호를 입력하십시오.

  7. 확인을 누르십시오.

    Sun Management Center 에이전트 호스트 오브젝트가 도메인에서 작성됩니다.

이동해야 할 곳

Sun Cluster 모듈을 로드하려면 "Sun Cluster 모듈 로드 방법"로 이동하십시오.

Sun Cluster 모듈 로드 방법

클러스터 모니터링을 시작하려면 이 프로시저를 수행하십시오.

  1. Sun Management Center 기본 창에서, 클러스터 노드에 대한 에이전트 호스트 오브젝트를 두 번 클릭하십시오.

    에이전트 호스트 오브젝트는 두 곳에서 표시됩니다. 둘 중 하나를 두 번 클릭할 수 있습니다. 호스트 오브젝트의 세부사항 창이 표시됩니다.

  2. 계층의 루트(맨 위)에서 아이콘을 선택하여 강조표시하십시오.

    이 아이콘은 클러스터 노드 이름 레이블이 붙습니다.

  3. 풀다운 메뉴에서 모듈>모듈 로드를 선택하십시오.

    모듈 로드 창에는 사용가능한 각 Sun Management Center 모듈과 현재 로드되어 있는 지의 여부가 나열됩니다.

  4. Sun Cluster: 로드되지 않음(보통 목록의 맨 아래에 있음)을 선택하고 확인을 누르십시오.

    모듈 로더 창은 선택된 모듈에 대한 현재 매개변수 정보를 보여줍니다.

  5. OK를 누르십시오.

    모듈이 로드되고 잠시 후에 Sun Cluster 아이콘이 세부사항 창에 표시됩니다.

  6. 운영체제 범주 하의 세부사항 창에서 다음 방법 중 하나로 Sun Cluster 서브트리를 펼치십시오.

    • 창의 왼쪽에 있는 트리 계층에서, 커서를 Sun Cluster 모듈 아이콘 위에 놓고 마우스 왼쪽 단추를 한 번 누르십시오.

    • 창의 오른쪽에 있는 토폴로지 트리에서, 커서를 Sun Cluster 모듈 아이콘 위에 놓고 마우스 왼쪽 단추를 두 번 클릭하십시오.

Sun Cluster 모듈 기능 사용에 관한 정보는 Sun Cluster 모듈 온라인 도움말을 참조하십시오.


주 -

Sun Management Center 브라우저의 도움말 단추는 Sun Cluster 모듈에 특정한 주제가 아니라 Sun Management Center 온라인 도움말에 액세스합니다.


Sun Management Center 제품 사용에 관한 정보는 Sun Management Center 온라인 도움말과 Sun Management Center문서를 참조하십시오.

이동해야 할 곳

타사 응용프로그램을 설치하려면, 응용프로그램 소프트웨어와 함께 제공되는 문서 및 Sun Cluster 3.0 Data Services Installation and Configuration Guide의 내용을 참조하십시오. 자원 유형을 등록하려면, 자원 그룹을 설정하고 데이터 서비스를 구성한 후 Sun Cluster 3.0 Data Services Installation and Configuration Guide의 내용을 참조하십시오.