Solaris OS용 Sun Cluster 소프트웨어 설치 안내서

2장 Sun Cluster 소프트웨어 설치 및 구성

이 장에서는 클러스터를 설치하고 구성하는 방법을 절차별로 설명합니다. 이 절차를 사용하여 기존 클러스터에 새 노드를 추가할 수도 있습니다. 이 장에서는 특정 클러스터 소프트웨어 제거 절차에 대해 설명합니다.

이 장은 다음 내용으로 구성되어 있습니다.

소프트웨어 설치

이 절에서는 클러스터 노드에 소프트웨어를 설치하는 정보와 절차에 대해 설명합니다.

다음 작업 맵에서는 다중 노드 또는 단일 노드 클러스터에 소프트웨어를 설치하기 위해 수행하는 작업을 나열합니다. 표시된 순서대로 절차를 완료하십시오.

표 2–1 작업 맵: 소프트웨어 설치

작업 

지침 

1. 클러스터 구성의 레이아웃 계획 및 소프트웨어 설치 준비 

클러스터 소프트웨어 설치를 준비하는 방법

2. (옵션) 관리 콘솔에 CCP (Cluster Control Panel) 소프트웨어 설치

관리 콘솔에 CCP (Cluster Control Panel) 소프트웨어를 설치하는 방법

3. 모든 노드에서 Solaris OS를 설치합니다. 

Solaris 소프트웨어를 설치하는 방법

4. (선택 사항) SPARC: Sun StorEdge Traffic Manager 소프트웨어를 설치합니다.

SPARC: Sun Multipathing 소프트웨어를 설치하는 방법

5. (선택 사항) SPARC: VERITAS File System 소프트웨어를 설치합니다.

SPARC: VERITAS File System 소프트웨어 설치 방법

6. Sun Cluster 소프트웨어 패키지 및 사용하려는 Solaris 8 또는 Solaris 9 OS용 Sun Java System 데이터 서비스를 모두 설치합니다. 

Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)

7. 디렉토리 경로를 설정합니다. 

루트 환경을 설정하는 방법

8. 클러스터 또는 추가 클러스터 노드를 설정합니다. 

클러스터 설정

Procedure클러스터 소프트웨어 설치를 준비하는 방법

소프트웨어 설치를 시작하기 전에 다음과 같이 준비하십시오.

단계
  1. 클러스터 구성에 선택한 하드웨어 및 소프트웨어가 해당 Sun Cluster 소프트웨어 릴리스에서 지원되는지 확인합니다.

    지원되는 클러스터 구성에 대한 최신 정보는 Sun 영업 센터에 문의하십시오.

  2. 클러스터 구성 계획 및 설치 전략 준비에 도움이 되도록 다음 설명서를 읽으십시오.

  3. 다른 회사 설명서를 포함하여 모든 관련 설명서를 준비하십시오.

    다음은 클러스터 설치 중에 참조해야 할 제품 설명서 목록 중 일부입니다.

    • Solaris OS

    • Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어

    • Sun StorEdge QFS 소프트웨어

    • SPARC: VERITAS Volume Manager

    • SPARC: Sun Management Center

    • 타사 응용 프로그램

  4. 클러스터 구성을 계획하십시오.


    Caution – Caution –

    클러스터 설치를 완벽하게 계획하십시오. Solaris 및 Sun Cluster 소프트웨어 설치를 시작하기 전에 모든 데이터 서비스 및 타사 제품에 대한 요구 사항을 확인하십시오. 그렇게 하지 않으면 설치 오류가 발생하여 Solaris 및 Sun Cluster 소프트웨어를 완전히 다시 설치해야 할 수도 있습니다.

    예를 들어, Oracle Real Application Clusters의 Oracle Real Application Clusters Guard 옵션에는 클러스터에서 사용하는 호스트 이름에 대한 특별 요구 사항이 있습니다. 또 하나의 예로 Sun Cluster HA for SAP에도 특별한 요구 사항이 있습니다. Sun Cluster 소프트웨어를 설치한 후에는 호스트 이름을 변경할 수 없기 때문에 Sun Cluster 소프트웨어를 설치하기 전에 이러한 요구 사항을 충족시켜야 합니다.

    또한, Oracle Real Application Clusters와 Sun Cluster HA for SAP는 모두 x86 기반 클러스터에서 지원되지 않습니다.


  5. 클러스터 구성에 필요한 모든 패치를 얻습니다.

    패치 위치 및 설치 지침은 Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트패치 및 필수 펌웨어 수준을 참조하십시오.

    1. Sun Cluster에 필요한 패치를 단일 디렉토리에 합니다.

      디렉토리는 모든 노드에서 액세스할 수 있는 파일 시스템에 있어야 합니다. 기본 패치 디렉토리는 /var/cluster/patches/입니다.


      정보 –

      Solaris 소프트웨어를 노드에 설치한 후 /etc/release 파일에서 설치한 Solaris 소프트웨어의 정확한 버전을 볼 수 있습니다.


    2. (옵션) SunPlex Installer을 사용하는 경우 패치 목록 파일을 만들 수 있습니다.

      패치 목록 파일을 지정하면 SunPlex Installer는 해당 패치 목록 파일에 있는 패치만 설치합니다. 패치 목록 파일 만들기에 대한 자세한 내용은 patchadd(1M) 설명서 페이지를 참조하십시오.

    3. 패치 디렉토리의 경로를 기록하십시오.

다음 순서

관리 콘솔에서 클러스터 노드로 연결하기 위해 CCP(Cluster Control Panel) 소프트웨어를 사용하려면 관리 콘솔에 CCP (Cluster Control Panel) 소프트웨어를 설치하는 방법으로 이동합니다.

그렇지 않으면 사용할 Solaris 설치 절차를 선택합니다.

Procedure관리 콘솔에 CCP (Cluster Control Panel) 소프트웨어를 설치하는 방법


주 –

반드시 관리 콘솔을 사용할 필요는 없습니다. 관리 콘솔을 사용하지 않을 경우에는 지정된 클러스터 노드에서 관리 작업을 수행하십시오.


이 절차에서는 관리 콘솔에 CCP (Cluster Control Panel) 소프트웨어를 설치하는 방법에 대해 설명합니다. CCP는 cconsole(1M), ctelnet(1M)crlogin(1M) 도구를 시작하는 단일 인터페이스를 제공합니다. 이러한 각 도구는 공용 창과 노드 세트에 대한 다중 창 연결을 제공합니다. 공용 창을 사용하여 한 번에 모든 노드에 입력을 보낼 수 있습니다.

Solaris 8 또는 Solaris 9 OS를 실행하는 데스크탑 시스템이면 어떤 시스템이든지 관리 콘솔로 사용할 수 있습니다. 또한, 관리 콘솔을 문서 서버로 사용할 수 있습니다. SPARC 기반 시스템에서 Sun Cluster를 사용하는 경우 관리 콘솔을 Sun Management Center 콘솔 또는 서버로도 사용할 수 있습니다. Sun Management Center 소프트웨어 설치 방법은 Sun Management Center 설명서를 참조하십시오. Sun Cluster 설명서 설치 방법에 대한 자세한 내용은 Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트를 참조하십시오.

시작하기 전에

지원되는 Solaris OS 및 Solaris 패치 버전이 관리 콘솔에 설치되어 있는지 확인하십시오. 모든 플랫폼에는 최소한 최종 사용자 Solaris 소프트웨어 그룹이 필요합니다.

단계
  1. 관리 콘솔에서 수퍼유저가 되십시오.

  2. 관리 콘솔의 CD-ROM 드라이브에 Sun Cluster 2 of 2 CD-ROM를 넣으십시오.

    볼륨 관리 데몬 vold(1M)이 실행 중이고 CD-ROM 장치를 관리하도록 구성되었다면 이 데몬은 /cdrom/cdrom0/ 디렉토리에 CD-ROM을 자동으로 마운트합니다.

  3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ 디렉토리. 여기서 archsparc 또는 x86이고 ver8(Solaris 8), 9(Solaris 9) 또는 10(Solaris 10)


    # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
    
  4. SUNWccon 패키지를 설치하십시오.


    # pkgadd -d . SUNWccon
    
  5. (옵션) SUNWscman 패키지를 설치하십시오.


    # pkgadd -d . SUNWscman
    

    관리 콘솔에 SUNWscman 패키지를 설치하면, 클러스터 노드에 Sun Cluster 소프트웨어를 설치하기 전에 관리 콘솔에서 Sun Cluster 설명서 페이지를 볼 수 있습니다.

  6. (옵션) Sun Cluster 설명서 패키지를 설치합니다.


    주 –

    설명서를 관리 콘솔에 설치하지 않더라도 HTML 또는 PDF 설명서를 CD-ROM에서 직접 볼 수 있습니다. 웹 브라우저를 사용하여 Sun Cluster 2 of 2 CD-ROM에서 Solaris_arch/Product/sun_cluster/index.html 파일을 봅니다. 여기서 archsparc 또는 x86입니다.


    1. 관리 콘솔에 SUNWsdocs 패키지가 이미 설치되었는지 확인합니다.


      # pkginfo | grep SUNWsdocs
      application SUNWsdocs     Documentation Navigation for Solaris 9

      SUNWsdocs 패키지가 아직 설치되지 않은 경우에는 설명서 패키지를 설치하기 전에 이 패키지를 먼저 설치해야 합니다.

    2. 설치할 Sun Cluster 설명서 패키지를 선택합니다.

      다음 설명서 모음은 HTML 형식과 PDF 형식 모두로 볼 수 있습니다.

      모음 제목 

      HTML 패키지 이름 

      PDF 패키지 이름 

      Sun Cluster 3.1 9/04 Software Collection for Solaris OS (SPARC Platform Edition) 

      SUNWscsdoc

      SUNWpscsdoc

      Sun Cluster 3.1 9/04 Software Collection for Solaris OS(x86 Platform Edition) 

      SUNWscxdoc

      SUNWpscxdoc

      Sun Cluster 3.x Hardware Collection for Solaris OS(SPARC Platform Edition) 

      SUNWschw

      SUNWpschw

      Sun Cluster 3.x Hardware Collection for Solaris OS(x86 Platform Edition) 

      SUNWscxhw

      SUNWpscxhw

      Sun Cluster 3.1 9/04 Reference Collection for Solaris OS 

      SUNWscref

      SUNWpscref

    3. 아직 설치되지 않은 경우에는 SUNWsdocs 패키지 및 선택한 Sun Cluster 설명서 페이지를 설치합니다.


      주 –

      모든 설명서 패키지는 SUNWsdocs 패키지에 대해 종속성을 갖습니다. 시스템에 설명서 패키지를 성공적으로 설치하려면 먼저 해당 시스템에 SUNWsdocs 패키지가 있어야 합니다.



      # pkgadd -d . SUNWsdocs pkg-list
      
  7. CD-ROM에 상주하지 않는 디렉토리로 변경한 다음 CD-ROM을 꺼냅니다.


    # eject cdrom
    
  8. 관리 콘솔에 /etc/clusters 파일을 만드십시오.

    클러스터 이름과 각 클러스터 노드의 물리적 노드 이름을 파일에 추가합니다.


    # vi /etc/clusters
    clustername node1 node2
    

    자세한 내용은 /opt/SUNWcluster/bin/clusters(4) 설명서 페이지를 참조하십시오.

  9. /etc/serialports 파일을 만듭니다.

    클러스터의 각 노드에 대한 항목을 파일에 추가합니다. 물리적 노드 이름, 콘솔 액세스 장치의 호스트 이름 및 포트 번호를 지정합니다. 콘솔 액세스 장치의 예로는 단말기 집중 장치(TC), SSP (System Service Processor), Sun Fire 시스템 컨트롤러 등이 있습니다.


    # vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    
    node1, node2

    클러스터 노드의 물리적 이름

    ca-dev-hostname

    콘솔 액세스 장치의 호스트 이름

    port

    직렬 포트 번호

    이러한 특별 지침에 주의하여 /etc/serialports 파일을 만듭니다.

    • Sun Fire 15000 시스템 컨트롤러의 경우, 각 항목의 직렬 포트 번호에 telnet(1) 포트 번호 23을 사용합니다.

    • 기타 모든 콘솔 액세스 장치의 경우에는 물리적 포트 번호 대신 telnet 직렬 포트 번호를 사용합니다. telnet 직렬 포트 번호를 확인하려면 물리적 포트 번호에 5000을 더하십시오. 예를 들어, 물리적 포트 번호가 6이면 telnet 직렬 포트 번호는 5006입니다.

    • Sun Enterprise 10000 서버의 자세한 내용 및 특별 고려 사항은 /opt/SUNWcluster/bin/serialports(4) 설명서 페이지를 참조하십시오.

  10. (옵션) 편의상 관리 콘솔에 디렉토리 경로를 설정합니다.

    1. /opt/SUNWcluster/bin/ 디렉토리를 PATH에 추가합니다.

    2. /opt/SUNWcluster/man/ 디렉토리를 MANPATH에 추가합니다.

    3. SUNWscman 패키지를 설치했으면 MANPATH/usr/cluster/man 디렉토리도 추가합니다.

  11. CCP 유틸리티를 시작합니다.


    # /opt/SUNWcluster/bin/ccp &
    

    CCP 창에서 cconsole, crlogin 또는 ctelnet 버튼을 눌러 해당 도구를 시작합니다. 도구를 직접 시작할 수도 있습니다. 예를 들어, ctelnet을 시작하려면 다음 명령을 입력합니다.


    # /opt/SUNWcluster/bin/ctelnet &
    

    CCP 유틸리티 사용 방법에 대한 자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서클러스터 관리 시작에서 “Sun Cluster 원격 로그인 방법”을 참조하십시오. ccp(1M) 설명서 페이지도 참조하십시오.

다음 순서

Sun Cluster 소프트웨어 요구 사항에 맞게 Solaris OS가 이미 설치되었는지 확인합니다.

ProcedureSolaris 소프트웨어를 설치하는 방법

다음 절차대로 클러스터의 각 노드에서 Solaris OS를 설치하거나 JumpStart 설치를 위해 플래시 아카이브할 마스터 노드에서 Solaris OS를 설치합니다. 클러스터의 JumpStart 설치에 대한 자세한 내용은 Solaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)을 참조하십시오.


정보 –

각 노드에서 동시에 Solaris OS를 설치하면 설치 시간을 단축할 수 있습니다.


노드에 Solaris OS가 이미 설치되어 있지만 해당 노드가 Sun Cluster 설치 요구 사항에 맞지 않으면 Solaris 소프트웨어를 다시 설치해야 합니다. 후속 Sun Cluster 소프트웨어를 성공적으로 설치하려면 이 절차의 단계를 따르십시오. 필수적인 루트 디스크 분할 및 기타 Sun Cluster 설치 요구 사항에 대한 자세한 내용은 Solaris OS 계획을 참조하십시오.

시작하기 전에

다음 작업을 수행합니다.

단계
  1. 클러스터 관리 콘솔을 사용할 경우에는 클러스터의 각 노드에 대한 콘솔 화면을 표시하십시오.

    • 관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어가 설치 및 구성되었다면 cconsole(1M) 유틸리티를 사용하여 개별 콘솔 화면을 표시합니다.

      cconsole 유틸리티를 시작하려면 다음 명령을 사용합니다.


      # /opt/SUNWcluster/bin/cconsole clustername &
      

      cconsole 유틸리티는 사용자의 입력과 동시에 모든 개별 콘솔 창으로 전송할 수 있도록 마스터 창을 엽니다.

    • cconsole 유틸리티를 사용하지 않는 경우 각 노드의 콘솔에 개별적으로 연결합니다.

  2. Solaris 설치 설명서의 지침에 따라 Solaris OS를 설치하십시오.


    주 –

    클러스터의 모든 노드에 동일한 Solaris OS 버전을 설치해야 합니다.


    Solaris 소프트웨어를 설치하는 데 일반적으로 사용되는 방법을 사용할 수 있습니다. Solaris 소프트웨어를 설치할 때 다음 단계를 수행하십시오.

    1. 최소한 최종 사용자 Solaris 소프트웨어 그룹을 설치하십시오.


      정보 –

      Solaris 소프트웨어 패키지를 수동으로 설치하지 않으려면 전체 Solaris 소프트웨어 그룹과 OEM 지원을 설치합니다.


      추가 Solaris 소프트웨어 요구 사항에 대한 자세한 내용은 Solaris 소프트웨어 그룹에 대한 참고 사항을 참조하십시오.

    2. Manual Layout을 선택하여 파일 시스템을 설정하십시오.

      • 전역 장치 하위 시스템에서 사용할 최소 512MB의 파일 시스템을 만듭니다.

        SunPlex Installer를 사용하여 Sun Cluster 소프트웨어를 설치하려면 /globaldevices 마운트 지점 이름을 사용하여 파일 시스템을 만들어야 합니다. /globaldevices 마운트 지점 이름은 scinstall에서 사용하는 기본값입니다.


        주 –

        Sun Cluster 소프트웨어를 성공적으로 설치하려면 전역 장치 파일 시스템이 필요합니다.


      • 슬라이스 7의 크기를 최소 20MB가 되도록 지정합니다.

        SunPlex Installer을 사용하여 Solstice DiskSuite 소프트웨어(Solaris 8)를 설치하거나 Solaris 볼륨 관리자 소프트웨어(Solaris 9)를 구성할 경우에도 이 파일 시스템이 /sds에 마운트되도록 합니다.


        주 –

        SunPlex Installer을 사용하여 Sun Cluster HA for NFS 또는 Sun Cluster HA for Apache를 설치하려면, SunPlex Installer에서 Solstice DiskSuite 소프트웨어(Solaris 8)를 설치하거나 Solaris 볼륨 관리자 소프트웨어(Solaris 9 또는 Solaris 10)를 구성해야 합니다.


      • 시스템 디스크 분할 영역에 설명한 대로 기타 필요한 파일 시스템 분할 영역을 만듭니다.

    3. 관리를 쉽게 하려면 각 노드에서 동일한 루트 암호를 설정하십시오.

  3. 노드를 기존 클러스터에 추가하는 경우 새 노드를 추가할 수 있도록 클러스터를 준비합니다.

    1. 활성 클러스터 구성원에서 scsetup(1M) 유틸리티를 시작하십시오.


      # scsetup
      

      주 메뉴가 표시됩니다.

    2. 메뉴 항목에서 새 노드를 선택하십시오.

    3. 스스로를 추가할 수 있는 시스템의 이름 지정 메뉴 항목을 선택하십시오.

    4. 화면에 표시되는 메시지에 따라 인식된 시스템 목록에 노드 이름을 추가합니다.

      오류 없이 작업을 마치면 scsetup 유틸리티는 Command completed successfully라는 메시지를 인쇄합니다.

    5. scsetup 유틸리티를 종료합니다.

    6. 활성 클러스터 노드에서 모든 클러스터 파일 시스템의 이름을 표시합니다.


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      
    7. 새 노드에서 클러스터의 각 파일 시스템에 대한 마운트 지점을 만드십시오.


      % mkdir -p mountpoint
      

      예를 들어, mount 명령에서 파일 시스템 이름 /global/dg-schost-1이 반환되었으면 클러스터에 추가하려는 새 노드에서 mkdir -p /global/dg-schost-1 명령을 실행하십시오.

  4. 노드를 추가하는 중이고 VxVM이 클러스터의 노드에 설치되면 다음 작업을 수행합니다.

    1. 동일한 vxio 번호가 VxVM 설치 노드에서 사용되었는지 확인합니다.


      # grep vxio /etc/name_to_major
      vxio NNN
      
    2. 또한, VxVM이 설치되지 않은 각 노드에서 vxio 번호를 사용할 수 있는지 확인하십시오.

    3. VxVM이 설치되지 않은 노드에서 이미 vxio 번호를 사용하고 있으면 다른 번호를 사용하도록 /etc/name_to_major 항목을 변경합니다.

  5. 최종 사용자 Solaris 소프트웨어 그룹을 설치한 경우에는 pkgadd 명령을 사용하여 필요한 추가 Solaris 소프트웨어 패키지를 수동으로 설치합니다.

    다음 Solaris 패키지는 일부 Sun Cluster 기능을 지원하는 데 필요합니다.


    주 –

    다음 표에 나열된 순서대로 패키지를 설치합니다.


    기능 

    필수 Solaris 소프트웨어 패키지 

    RSMAPI, RSMRDT 드라이버 또는 SCI-PCI 어댑터(SPARC 기반 클러스터 전용) 

    Solaris 8 또는 Solaris 9: SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox

    Solaris 10: SUNWrsm SUNWrsmo

    SunPlex Manager 

    SUNWapchr SUNWapchu

    • Solaris 8 또는 Solaris 9 OS의 경우, 다음 명령을 사용합니다.


      # pkgadd -d . packages
      
    • Solaris 10 OS의 경우, 다음 명령을 사용합니다.


      # pkgadd -G -d . packages
      

      전역 영역에만 이 패키지를 추가해야 합니다. -G 옵션은 현재 영역에만 패키지를 추가합니다. 또한, 이 옵션은 패키지가 기존 비전역 영역 또는 나중에 만든 비전역 영역에 전달되지 않도록 지정합니다.

  6. 필요한 Solaris OS 패치 및 하드웨어 관련 펌웨어와 패치(저장 배열 지원용 포함)를 모두 설치합니다. 또한 하드웨어 패치에 포함된 필요한 모든 펌웨어를 다운로드하십시오.

    패치 위치 및 설치 지침은 Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트패치 및 필수 펌웨어 수준을 참조하십시오.

  7. x86: 기본 부트 파일을 kadb로 설정합니다.


    # eeprom boot-file=kadb
    

    이 값 설정을 사용하면 로그인 프롬프트에 액세스할 수 없는 경우에 노드를 재부트할 수 있습니다.

  8. 각 노드의 /etc/inet/hosts 파일을 클러스터에서 사용되는 모든 IP 주소로 업데이트합니다.

    이름 지정 서비스 사용 여부와 관계없이 이 단계를 수행하십시오. IP 주소를 추가해야 하는 Sun Cluster 구성 요소 목록은 IP 주소를 참조하십시오.

  9. 클러스터 상호 연결에 ce 어댑터를 사용할 경우, /etc/system 파일에 다음 항목을 추가합니다.


    set ce:ce_taskq_disable=1

    다음에 시스템을 재부트하면 이 항목이 적용됩니다.

  10. (옵션) Sun Enterprise 10000 서버에서는 동적 재구성을 사용하도록 /etc/system 파일을 구성합니다.

    클러스터의 각 노드에서 /etc/system 파일에 다음 항목을 추가합니다.


    set kernel_cage_enable=1

    다음에 시스템을 재부트하면 이 항목이 적용됩니다. 동적 재구성에 대한 자세한 내용은 서버 설명서를 참조하십시오.

다음 순서

Sun Multipathing 소프트웨어를 사용하려면 SPARC: Sun Multipathing 소프트웨어를 설치하는 방법으로 이동합니다.

VxFS를 설치하려면 SPARC: VERITAS File System 소프트웨어 설치 방법으로 이동합니다.

그렇지 않으면 Sun Cluster 소프트웨어 패키지를 설치합니다. Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)으로 이동합니다.

참조

Sun Cluster 구성에서 동적 재구성 작업을 수행하는 절차는 Solaris OS용 Sun Cluster 시스템 관리 안내서를 참조하십시오.

ProcedureSPARC: Sun Multipathing 소프트웨어를 설치하는 방법

FC(fiber channel) 저장소용 Sun Multipathing 소프트웨어를 설치 및 구성하려면 클러스터의 각 노드에서 이 절차를 수행합니다. Multipathing 소프트웨어는 공유 클러스터 저장소의 여러 I/O 경로를 관리합니다.

시작하기 전에

다음 작업을 수행합니다.

단계
  1. 수퍼유저가 되도록 합니다.

  2. Solaris 8 또는 Solaris 9 OS에서는 각 노드에 Sun StorEdge Traffic Manager 소프트웨어 및 필요한 패치를 설치합니다.

  3. Multipathing 기능을 활성화합니다.

    • Solaris 8 또는 9 OS의 경우, mpxio-disable 매개 변수의 값을 no로 변경합니다.

      각 노드에서 /kernel/drv/scsi_vhci.conf 파일의 이 항목을 수정합니다.


      set mpxio-disable=no
    • Solaris 10 OS의 경우, 각 노드에서 다음 명령을 실행합니다.


      주의 – 주의 –

      Sun Cluster 소프트웨어가 이미 설치된 경우에는 이 명령을 실행하지 마십시오. 활성 클러스터 노드에서 stmsboot 명령을 실행하면 Solaris 서비스가 유지 보수 모드로 이동할 수 있습니다. 대신, Sun Cluster 환경에서 stmsboot 명령을 사용하려면 stmsboot(1M) 설명서 페이지의 지침을 수행합니다.



      # /usr/sbin/stmsboot -e
      
      -e

      Solaris I/O Multipathing을 활성화합니다.

      자세한 내용은 stmsboot(1M) 설명서 페이지를 참조하십시오.

  4. Solaris 8 또는 Solaris 9 OS에서는 해당 Sun StorEdge SAN Foundation 소프트웨어 버전이 저장 배열을 기본적으로 지원하는지 확인합니다.

    소프트웨어가 저장 배열을 기본적으로 지원하지 않으면 각 노드의 /kernel/drv/scsi_vhci.conf 파일에 필요한 항목이 포함되도록 편집합니다. 자세한 내용은 저장 장치의 릴리스 노트를 참조하십시오.

  5. Solaris 8 또는 Solaris 9 OS에서는 각 노드를 종료하고 재구성 부트를 수행합니다.

    재구성 부트에서는 새로운 Solaris 장치 파일 및 링크를 만듭니다.


    # shutdown -y -g0 -i0
    ok boot -r
    
  6. 모든 노드에서 재구성 재부트가 완료된 다음에는 저장 배열 구성을 마치는 데 필요한 추가 작업을 수행합니다.

    자세한 내용은 Sun Cluster Hardware Administration Collection 에서 해당 저장 배열의 설치 지침을 참조하십시오.

일반 오류

클러스터에 Sun Cluster 소프트웨어가 설치된 후 Sun Multipathing 소프트웨어를 설치한 경우에는 DID 매핑 업데이트가 필요할 수 있습니다. DID 이름 공간을 다시 만들려면 클러스터의 각 노드에서 다음 명령을 실행합니다.

# scdidadm -C# scdidadm -r(Solaris 8 또는 9만 해당) # cfgadm -c configure# scgdevs

자세한 내용은 scdidadm(1M), scgdevs(1M) 설명서 페이지를 참조하십시오.

다음 순서

VxFS를 설치하려면 SPARC: VERITAS File System 소프트웨어 설치 방법으로 이동합니다.

그렇지 않으면 Sun Cluster 소프트웨어 패키지를 설치합니다. Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)으로 이동합니다.

ProcedureSPARC: VERITAS File System 소프트웨어 설치 방법

클러스터의 각 노드에서 이 절차를 수행합니다.

단계
  1. VxFS 설치 설명서의 절차에 따라 클러스터의 각 노드에 VxFS 소프트웨어를 설치하십시오.

  2. VxFS를 지원하는 데 필요한 Sun Cluster 패치를 설치하십시오.

    패치 위치 및 설치 지침은 Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트패치 및 필수 펌웨어 수준을 참조하십시오.

  3. 각 노드의 /etc/system 파일에서 다음 값을 설정합니다.


    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    시스템을 다시 부트하면 변경 사항이 적용됩니다.

    • Sun Cluster 소프트웨어에서는 최소값 rpcmod:svc_default_stksize0x8000으로 설정해야 합니다. VxFS 설치에서 rpcmod:svc_default_stksize 변수 값을 0x4000으로 설정하기 때문에 VxFS를 설치한 후에 값을 0x8000으로 수동으로 설정해야 합니다.

    • /etc/system 파일의 lwp_default_stksize 변수가 VxFS의 기본값인 0x4000을 대체하도록 설정해야 합니다.

다음 순서

Sun Cluster 소프트웨어 패키지를 설치합니다. Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)으로 이동합니다.

ProcedureSun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)

Sun JavaTM Enterprise System(Java ES) installer 프로그램을 사용하여 다음 설치 작업 중 하나 이상을 수행하려면 이 절차를 수행합니다.


주 –

다음과 같은 데이터 서비스 패키지를 설치할 경우에는 이 절차를 사용하지 마십시오.


시작하기 전에

다음 작업을 수행합니다.

단계
  1. (옵션) GUI와 함께 installer 프로그램을 사용하려면 설치할 클러스터 노드의 디스플레이 환경이 GUI를 표시하도록 설정되어야 합니다.


    % xhost +
    % setenv DISPLAY nodename:0.0
    
  2. 설치할 클러스터 노드에서 수퍼유저가 되십시오.

  3. CD-ROM 드라이브에 Sun Cluster 1 of 2 CD-ROM을 넣습니다.

  4. CD-ROM에서 installer 프로그램이 있는 디렉토리로 변경합니다.


    # cd /cdrom/cdrom0/Solaris_arch/
    

    Solaris_arch/ 디렉토리에서 archsparc 또는 x86입니다.

  5. Java ES installer 프로그램을 시작합니다.


    # ./installer
    
  6. 화면의 지침에 따라 노드에 Sun Cluster 프레임워크 소프트웨어 및 데이터 서비스를 설치합니다.

    Sun Cluster 프레임워크 소프트웨어를 구성하라는 메시지가 표시되면 나중에 구성을 선택합니다.

    설치를 완료한 후 사용 가능한 설치 로그를 볼 수 있습니다. Java ES installer 프로그램 사용에 대한 자세한 내용은 Sun Java Enterprise System 2005Q5 Installation Guide를 참조하십시오.

  7. 다음 기능을 사용하려면 추가 패키지를 설치합니다.

    • Remote Shared Memory Application Programming Interface(RSMAPI)

    • 상호 연결 전송을 위한 SCI-PCI 어댑터

    • RSMRDT 드라이버


    주 –

    RSMRDT 드라이버는 RSM이 사용 가능한 Oracle9i 릴리스 2 SCI 구성을 실행하는 클러스터에서만 사용할 수 있습니다. 자세한 설치 및 구성 지침은 Oracle9i 릴리스 2 사용자 설명서를 참조하십시오.


    1. 설치해야 하는 패키지를 결정합니다.

      다음 표에서는 각 기능에서 필요한 Sun Cluster 3.1 8/05 패키지가 각 패키지 그룹의 설치 순서대로 나열되어 있습니다. Java ES installer 프로그램은 이러한 패키지를 자동으로 설치하지 않습니다.


      주 –

      다음 표에 나열된 순서대로 패키지를 설치합니다.


      기능 

      설치할 추가 Sun Cluster 3.1 8/05 패키지 

      RSMAPI 

      SUNWscrif

      SCI-PCI 어댑터 

      • Solaris 8 및 9: SUNWsci SUNWscid SUNWscidx

      • Solaris 10: SUNWscir SUNWsci SUNWscidr SUNWscid

      RSMRDT 드라이버 

      SUNWscrdt

    2. Sun Cluster 2 of 2 CD-ROM이 아직 CD-ROM 드라이브에 없다면 넣습니다.

    3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ 디렉토리. 여기서 archsparc 또는 x86이고 ver8(Solaris 8), 9(Solaris 9) 또는 10(Solaris 10) 로 변경합니다.


      # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      
    4. 추가 패키지를 설치합니다.


      # pkgadd -d . packages
      
  8. CD-ROM에 상주하지 않는 디렉토리로 변경한 다음 CD-ROM을 꺼냅니다.


    # eject cdrom
    
  9. /usr/java/ 디렉토리가 최소 또는 최신 버전의 Java 소프트웨어에 대한 심볼릭 링크인지 확인합니다.

    Sun Cluster 소프트웨어에서는 버전 1.4.2_03 이상의 Java 소프트웨어가 필요합니다.

    1. /usr/java/ 디렉토리와 심볼릭 링크되는 디렉토리를 결정합니다.


      # ls -l /usr/java
      lrwxrwxrwx   1 root   other    9 Apr 19 14:05 /usr/java -> /usr/j2se/
    2. 설치되는 Java 소프트웨어의 버전을 결정합니다.

      다음은 Java 소프트웨어 릴리스의 버전을 표시할 때 사용할 수 있는 명령의 예입니다.


      # /usr/j2se/bin/java -version
      # /usr/java1.2/bin/java -version
      # /usr/jdk/jdk1.5.0_01/bin/java -version
      
    3. /usr/java/ 디렉토리가 지원되는 Java 소프트웨어 버전과 심볼릭 링크되지 않았다면 지원되는 Java 소프트웨어 버전과 연결되도록 심볼릭 링크를 다시 만듭니다.

      다음 예에서는 Java 1.4.2_03 소프트웨어를 포함하는 /usr/j2se/ 디렉토리와의 심볼릭 링크 생성을 보여 줍니다.


      # rm /usr/java
      # ln -s /usr/j2se /usr/java
      
다음 순서

Sun StorEdge QFS 파일 시스템 소프트웨어를 설치하려면 Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide의 초기화 설치 절차를 수행합니다.

그렇지 않고 루트 사용자 환경을 설정하려면 루트 환경을 설정하는 방법으로 이동합니다.

Procedure루트 환경을 설정하는 방법


주 –

Sun Cluster 구성에서는 다양한 쉘의 사용자 초기화 파일이 대화식 쉘에서 실행되는지 확인해야 합니다. 이러한 파일은 단말기에 출력을 시도하기 전에 확인되어야 합니다. 초기화 파일을 이렇게 정의하지 않으면 데이터 서비스에 예상하지 않은 작동이나 장애가 발생할 수 있습니다. 자세한 내용은 System Administration Guide(Solaris 8) 또는 System Administration Guide: Basic Administration(Solaris 9 또는 Solaris 10)의 Customizing a User's Work Environment를 참조하십시오.


클러스터의 각 노드에서 이 절차를 수행하십시오.

단계
  1. 클러스터 노드에서 수퍼유저가 됩니다.

  2. .cshrc 또는 .profile 파일에서 PATHMANPATH 항목을 수정합니다.

    1. PATH/usr/sbin//usr/cluster/bin/을 포함하도록 설정합니다.

    2. MANPATH/usr/cluster/man/을 포함하도록 설정합니다.

    추가 파일 경로 설정에 대해서는 볼륨 관리자 설명서 및 다른 응용 프로그램 설명서를 참조하십시오.

  3. (옵션) 관리를 쉽게 하려면 각 노드에 루트 암호를 동일하게 설정하십시오.

다음 순서

클러스터 노드에 Sun Cluster 소프트웨어를 구성하십시오. 클러스터 설정으로 이동합니다.

클러스터 설정

이 절에서는 새 클러스터를 설정하거나 기존 클러스터에 노드를 추가하는 것에 대한 정보 및 절차를 제공합니다. 이 작업을 시작하기 전에 소프트웨어 설치에서 설명한 대로 Solaris OS용 소프트웨어 패키지, Sun Cluster 프레임워크 및 기타 제품을 설치했는지 확인합니다.

다음 작업 맵에서는 수행할 작업을 나열합니다. 표시된 순서대로 절차를 완료하십시오.

표 2–2 작업 맵: 클러스터 설정

메소드 

지침 

1. 다음 방법 중 하나를 사용하여 새 클러스터를 설정하거나 기존 클러스터에 노드를 추가합니다. 

  • (새 클러스터만 해당) scinstall 유틸리티를 사용하여 클러스터를 설정합니다.

모든 노드에 Sun Cluster 소프트웨어를 구성하는 방법(scinstall)

  • (새 클러스터 또는 추가된 노드) JumpStart 설치 서버를 설정합니다. 그런 다음 설치된 시스템의 플래시 아카이브를 만듭니다. 마지막으로 scinstall JumpStart 옵션을 사용하여 각 노드에 플래시 아카이브를 설치하고 클러스터를 설정합니다.

Solaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)

  • (새 다중 노드 클러스터만 해당)SunPlex Installer을 사용하여 클러스터를 설정합니다. 선택적으로 Solstice DiskSuite 또는 Solaris 볼륨 관리자 디스크 세트, 확장 가능 Sun Cluster HA for Apache 데이터 서비스 및 Sun Cluster HA for NFS 데이터 서비스도 구성합니다.

SunPlex Installer을 사용하여 Sun Cluster 소프트웨어를 구성합니다.

Sun Cluster 소프트웨어를 구성하는 방법(SunPlex Installer)

  • (추가된 노드만 해당) 새 노드에서 scinstall 유틸리티를 사용하여 Sun Cluster 소프트웨어를 구성합니다.

다른 추가 클러스터 노드에 Sun Cluster 소프트웨어를 구성하는 방법(scinstall)

2. (Oracle Real Application Clusters만 해당) Sun Cluster Support for Oracle Real Application Clusters을 실행하고 공유 SCSI 디스크를 쿼럼 장치로 사용하는 2-노드 클러스터에 노드를 추가했으면 SCSI 예약을 업데이트합니다.

노드 추가 후 SCSI 예약을 업데이트하는 방법

3. 데이터 서비스 소프트웨어 패키지를 설치합니다. 

데이터 서비스 소프트웨어 패키지를 설치하는 방법(pkgadd)

데이터 서비스 소프트웨어 패키지를 설치하는 방법(scinstall)

데이터 서비스 소프트웨어 패키지를 설치하는 방법(Web Start installer)

4. 쿼럼 투표를 지정하고 클러스터를 설치 모드에서 제거합니다(이 작업이 아직 수행되지 않은 경우). 

쿼럼 장치를 구성하는 방법

5. 쿼럼 구성을 확인합니다. 

쿼럼 구성 및 설치 모드 확인 방법

6. 클러스터를 구성합니다. 

클러스터 구성

Procedure모든 노드에 Sun Cluster 소프트웨어를 구성하는 방법(scinstall)

클러스터의 모든 노드에 Sun Cluster 소프트웨어를 구성하려면 클러스터 노드 중 하나에서 이 절차를 수행합니다.

시작하기 전에

다음 작업을 수행합니다.

이번 절차에서는 아래 지침대로 대화식 scinstall 유틸리티를 사용합니다.

단계
  1. Sun Cluster 소프트웨어 설치 중에 원격 구성을 사용 불가능하게 한 경우 원격 구성을 다시 사용 가능하게 합니다.

    모든 클러스터 노드에 수퍼유저용 원격 쉘(rsh(1M)) 또는 보안 쉘(ssh(1)) 액세스 을 활성화합니다.

  2. (옵션) scinstall(1M) 유틸리티를 사용하여 패치를 설치하려면 패치 디렉토리에 패치를 다운로드합니다.

    • 일반 모드를 사용하여 클러스터를 설치하려면 설치할 패치를 /var/cluster/patches/ 또는 /var/patches/라는 이름의 디렉토리에 보관합니다.

      표준 모드에서 scinstall 명령은 두 디렉토리 모두에서 패치가 있는지 확인합니다.

      • 두 디렉토리가 모두 없는 경우 패치가 추가되지 않습니다.

      • 두 디렉토리가 모두 있는 경우 /var/cluster/patches/ 디렉토리의 패치만 추가됩니다.

    • 사용자 정의 모드를 사용하여 클러스터를 설치할 경우, 패치 디렉토리의 경로를 지정합니다. 경로 지정 시 scinstall이 일반 모드에서 검사하는 패치 디렉토리를 사용하지 않도록 합니다.

    패치 디렉토리에 패치 목록 파일을 저장할 수 있습니다. 기본 패치 목록 파일 이름은 patchlist입니다. 패치 목록 파일 만들기에 대한 자세한 내용은 patchadd(1M) 설명서 페이지를 참조하십시오.

  3. 클러스터를 구성할 클러스터 노드에서 수퍼유저가 되십시오.

  4. scinstall 유틸리티를 시작하십시오.


    # /usr/cluster/bin/scinstall
    
  5. 주 메뉴에서 메뉴 항목을 선택하고 클러스터 또는 클러스터 노드를 설치합니다.


     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Install a cluster or cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Add support for new data services to this cluster node
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
          * ?) Help with menu options
          * q) Quit
    
        Option:  1
    
  6. 설치 메뉴에서 메뉴 항목을 선택하고 새 클러스터의 모든 노드를 설치합니다.

  7. 설치 유형 메뉴에서 일반 또는 사용자 지정을 선택합니다.

  8. 메뉴 프롬프트에 따라 답하십시오. 구성 계획 워크시트

    scinstall 유틸리티가 모든 클러스터 노드를 설치 및 구성하고 클러스터를 재부트합니다. 모든 노드가 성공적으로 클러스터에 부트했을 때 클러스터가 설정됩니다. Sun Cluster 설치 출력이 /var/cluster/logs/install/scinstall.log.N 파일에 기록됩니다.

  9. Solaris 10 OS,의 경우, 각 노드에서 SMF용 복수 사용자 서비스가 온라인 상태인지 확인합니다.

    어떤 노드에서 서비스가 아직 온라인 상태가 아니라면 다음 단계로 진행하기에 앞서 온라인 상태가 될 때까지 기다립니다.


    # svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. 노드에서 모든 노드가 클러스터에 연결되어 있는지 확인합니다.

    scstat(1M) 명령을 실행하여 클러스터 노드 목록을 표시하십시오. 이 명령을 실행하기 위해 수퍼유저로 로그인할 필요는 없습니다.


     % scstat -n
    

    다음과 비슷한 결과가 출력됩니다.


    -- Cluster Nodes --
                               Node name      Status
                               ---------      ------
      Cluster node:            phys-schost-1  Online
      Cluster node:            phys-schost-2  Online
  11. Sun Cluster 소프트웨어 지원에 필요한 패치가 아직 설치되지 않은 경우에는 해당 패치를 설치합니다.

  12. LOFS(loopback file system)를 재활성화하려면 클러스터의 각 노드 중 /etc/system 파일에서 다음 항목을 삭제합니다.


    exclude:lofs

    다음에 시스템이 재부트되면 LOFS 재활성화가 적용됩니다.


    주 –

    가용성 높은 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하고 또한 automountd가 실행 중이라면 LOFS를 활성화할 수 없습니다. LOFS는 Sun Cluster HA for NFS에서 스위치오버 문제를 유발할 수 있습니다. LOFS를 활성화하고 나중에 가용성 높은 로컬 파일 시스템에서 Sun Cluster HA for NFS를 추가하도록 선택한다면 다음 중 하나를 수행해야 합니다.

    • 클러스터의 각 노드에서 /etc/system 파일에 exclude:lofs 항목을 복원하고 각 노드를 재부트합니다. 이 변경은 LOFS를 비활성화합니다.

    • automountd 데몬을 비활성화합니다.

    • Sun Cluster HA for NFS에서 내보낸 가용성 높은 로컬 파일 시스템에 속한 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 사용 가능한 상태로 유지할 수 있습니다.


    LOFS에 대한 자세한 내용은 System Administration Guide, Volume 1(Solaris 8)의 Types of File Systems 또는 System Administration Guide: Devices and File SystemsThe Loopback File System(Solaris 9 또는 Solaris 10)을 참조하십시오.


예 2–1 모든 노드에서 Sun Cluster 소프트웨어 구성

다음은 scinstall이 2노드 클러스터 schost에서 구성 작업을 완료할 때 기록되는 scinstall 진행률 메시지의 예입니다. 클러스터는 scinstall 일반 모드를 사용하여 phys-schost-1에서 설치됩니다. 기타 클러스터 노드는 phys-schost-2입니다. 어댑터 이름은 qfe2qfe3입니다. 쿼럼 장치의 자동 선택이 활성화됩니다.


  Installation and Configuration

    Log file - /var/cluster/logs/install/scinstall.log.24747

    Testing for "/globaldevices" on "phys-schost-1" … done
    Testing for "/globaldevices" on "phys-schost-2" … done
    Checking installation status … done

    The Sun Cluster software is already installed on "phys-schost-1".
    The Sun Cluster software is already installed on "phys-schost-2".
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:qfe2  switch1  phys-schost-2:qfe2
        phys-schost-1:qfe3  switch2  phys-schost-2:qfe3

    Completed discovery of the cluster transport configuration.

    Started sccheck on "phys-schost-1".
    Started sccheck on "phys-schost-2".

    sccheck completed with no errors or warnings for "phys-schost-1".
    sccheck completed with no errors or warnings for "phys-schost-2".

    Removing the downloaded files … done

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

Rebooting …

다음 순서

데이터 서비스를 설치하려면 설치할 데이터 서비스 및 사용 중인 Solaris OS 버전에 맞는 절차로 이동합니다.

 

Sun Cluster 2 of 2 CD-ROM 

(Sun Java System 데이터 서비스) 

Sun Cluster Agents CD 

(그 밖의 모든 데이터 서비스) 

절차 

Solaris 8 또는 9 

Solaris 10 

Solaris 8 또는 9 

Solaris 10 

Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)

     

데이터 서비스 소프트웨어 패키지를 설치하는 방법(pkgadd)

 

   

데이터 서비스 소프트웨어 패키지를 설치하는 방법(scinstall)

   

데이터 서비스 소프트웨어 패키지를 설치하는 방법(Web Start installer)

   

 

그렇지 않으면, 다음 해당 절차로 이동합니다.

일반 오류

scinstall 처리가 완료된 후에는 개인 네트워크 주소와 넷 마스크를 변경할 수 없습니다. 다른 개인 네트워크 주소나 넷마스크를 사용해야 하고 해당 노드가 아직 설치 모드에 있으면 Sun Cluster 소프트웨어를 제거하여 설치 문제를 해결하는 방법의 절차를 수행합니다. 그런 다음 Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)의 절차와 이 절차를 차례로 수행하여 소프트웨어를 다시 설치하고 올바른 정보로 노드를 구성합니다.

ProcedureSolaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)

이 절차에서는 scinstall(1M) 사용자 정의 JumpStart 설치 방법을 설정하고 사용하는 방법에 대해 설명합니다. 이 방법을 사용하면 한 번의 작업으로 모든 클러스터 노드에 Solaris OS 및 Sun Cluster 소프트웨어를 설치하고 클러스터를 구성합니다. 이 절차를 사용하여 기존 클러스터에 새 노드를 추가할 수도 있습니다.

시작하기 전에

다음 작업을 수행합니다.

이번 절차에서는 아래 지침대로 대화식 scinstall 유틸리티를 사용합니다.

단계
  1. JumpStart 설치 서버를 설정합니다.

  2. 새 노드를 기존 클러스터에 설치하는 경우 인증된 클러스터 노드 목록에 노드를 추가합니다.

    1. 활성 상태인 또 다른 클러스터 노드로 전환하고 scsetup(1M) 유틸리티를 시작합니다.

    2. scsetup 유틸리티를 사용하여 인증된 클러스터 노드 목록에 새 노드 이름을 추가합니다.

    자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서권한이 부여된 노드 목록에 노드를 추가하는 방법을 참조하십시오.

  3. 클러스터 노드나 서버 플랫폼이 같은 다른 시스템에 Solaris OS를 설치합니다(아직 설치하지 않은 경우).

    Solaris 소프트웨어를 설치하는 방법의 절차를 수행합니다.

  4. 설치된 시스템에서 Sun Cluster 소프트웨어가 아직 설치되지 않은 경우에는 해당 소프트웨어를 설치합니다.

    Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)의 절차를 수행합니다.

  5. common agent container 데몬이 시스템 부트 중에 자동으로 시작되도록 합니다.


    # cacaoadm enable
    
  6. 설치된 시스템에서 Sun Cluster 소프트웨어 지원에 필요한 모든 패치를 설치합니다.

  7. 설치된 시스템에서는 클러스터에서 사용하는 모든 IP 주소로 /etc/inet/hosts 파일을 업데이트합니다.

    이름 지정 서비스 사용 여부와 관계없이 이 단계를 수행하십시오. IP 주소를 추가해야 하는 Sun Cluster 구성 요소의 목록은 IP 주소를 참조하십시오.

  8. Solaris 10의 경우, 설치된 시스템의 /etc/inet/ipnodes 파일을 클러스터에서 사용하는 모든 IP 주소로 업데이트합니다.

    이름 지정 서비스 사용 여부와 관계없이 이 단계를 수행하십시오.

  9. 설치된 시스템의 플래시 아카이브를 만듭니다.


    # flarcreate -n name archive
    
    -n name

    플래시 아카이브에 지정할 이름입니다.

    archive

    플래시 아카이브에 지정할 파일 이름(전체 경로 포함)입니다. 일반적으로 파일 이름은 .flar로 끝납니다.

    다음 설명서 중 하나의 절차를 수행합니다.

  10. JumpStart 설치 서버에서 읽을 수 있도록 내보낸 NFS가 플래시 아카이브되었는지 확인합니다.

    자동 파일 공유에 대한 자세한 내용은 System Administration Guide, Volume 3 (Solaris 8)의 Solaris NFS Environment 또는 System Administration Guide: Network ServicesManaging Network File Systems(Overview)(Solaris 9 또는 Solaris 10)를 참조하십시오.

    share(1M)dfstab(4) 설명서 페이지도 참조하십시오.

  11. JumpStart 설치 서버에서 scinstall(1M) 유틸리티를 시작합니다.

    이 예에서는 앞에서 만든 /export/suncluster/sc31/을 설치 디렉토리로 사용합니다. CD-ROM 경로에서 arch 대신 sparc 또는 x86으로, ver 대신 8(Solaris 8), 9(Solaris 9), 10(Solaris 10)으로 바꿉니다.


    # cd /export/suncluster/sc31/Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    # ./scinstall
    
  12. 주 메뉴에서 메뉴 항목을 선택하고 이 설치 서버에서 JumpStart하도록 클러스터를 구성합니다.

    이 옵션은 사용자 정의 JumpStart 완료 옵션을 구성하는 데 사용됩니다. JumpStart는 이 완료 스크립트를 사용하여 Sun Cluster 소프트웨어를 설치합니다.


     *** Main Menu ***
     
        Please select from one of the following (*) options:
     
          * 1) Install a cluster or cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Add support for new data services to this cluster node
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
     
        Option:  2
    
  13. 메뉴 프롬프트에 따라 답하십시오. 구성 계획 워크시트

    scinstall 명령은 구성 정보를 저장하고 autoscinstall.class 기본 class 파일을 jumpstart-dir/autoscinstall.d/3.1/ 디렉토리에 복사합니다. 이 파일은 다음 예와 유사합니다.


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add
  14. autoscinstall.class 파일을 수정하여 JumpStart가 플래시 아카이브를 설치하도록 구성합니다.

    1. 플래시 아카이브 시스템에 Solaris OS를 설치했거나 scinstall 유틸리티를 실행한 경우에는 선택한 구성에 맞게 항목을 수정합니다.

      예를 들어, 슬라이스 4를 전역 장치 파일 시스템에 지정했고 scinstall에 파일 시스템 이름을 /gdevs라고 지정한 경우에는 autoscinstall.class 파일의 /globaldevices 항목을 다음과 같이 변경합니다.


      filesys         rootdisk.s4 512  /gdevs
    2. autoscinstall.class 파일에서 다음 항목을 변경합니다.

      교체할 기존 항목 

      추가할 새 항목 

      install_type

      initial_install

      install_type

      flash_install

      system_type

      standalone

      archive_location

      retrieval_type location

      archive_location 키워드와 함께 사용할 경우 retrieval_typelocation의 유효한 값에 대한 자세한 내용은 Solaris 8 Advanced Installation Guide, Solaris 9 9/04 Installation Guide 또는 Solaris 10 설치 설명서: 사용자 정의 JumpStart 및 고급 설치archive_location Keyword를 참조하십시오.

    3. 다음 항목과 같이, 특정 패키지를 설치하는 모든 항목을 제거합니다.


      cluster         SUNWCuser        add
      package         SUNWman          add
  15. 플래시 아카이브된 시스템에 Solaris 패치가 아직 설치되지 않은 경우에는 패치 디렉토리를 설정합니다.


    주 –

    scinstall 유틸리티에 패치 디렉토리를 지정한 경우 Solaris 패치 디렉토리에 있는 패치는 설치되지 않습니다.


    1. JumpStart 설치 서버에서 읽을 수 있도록 내보낸 NFS에 jumpstart-dir/autoscinstall.d/nodes/node/patches/ 디렉토리를 만듭니다.

      클러스터의 각 노드마다 하나씩의 디렉토리를 만듭니다. 여기서 node는 클러스터 노드의 이름입니다. 대신 이 이름 지정 규칙을 사용하여 공유 패치 디렉토리에 대한 기호 링크를 만들 수도 있습니다.


      # mkdir jumpstart-dir/autoscinstall.d/nodes/node/patches/
      
    2. 모든 Solaris 패치 사본을 각 디렉토리에 넣으십시오.

    3. Solaris 소프트웨어가 설치된 후에 설치해야 하는 하드웨어 관련 패치 복사본도 각 디렉토리에 넣으십시오.

  16. 클러스터 관리 콘솔을 사용할 경우에는 클러스터의 각 노드에 대한 콘솔 화면을 표시하십시오.

    • 관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어가 설치 및 구성되었다면 cconsole(1M) 유틸리티를 사용하여 개별 콘솔 화면을 표시합니다.

      cconsole 유틸리티를 시작하려면 다음 명령을 사용합니다.


      # /opt/SUNWcluster/bin/cconsole clustername &
      

      cconsole 유틸리티는 사용자의 입력과 동시에 모든 개별 콘솔 창으로 전송할 수 있도록 마스터 창을 엽니다.

    • cconsole 유틸리티를 사용하지 않는 경우 각 노드의 콘솔에 개별적으로 연결합니다.

  17. 각 노드를 종료합니다.


    # shutdown -g0 -y -i0
    
  18. 각 노드를 부트하여 JumpStart 설치를 시작합니다.

    • SPARC 기반 시스템에서는 다음을 수행합니다.


      ok boot net - install
      

      주 –

      명령의 양쪽에 대시(-)를 표시하고 대시의 앞뒤를 한 칸씩 띄우십시오.


    • x86 기반 시스템에서는 다음을 수행합니다.

      1. BIOS 정보 화면이 표시되면 Esc 키를 누릅니다.

        부트 장치 선택 화면이 나타납니다.

      2. 부트 장치 선택 화면에서 JumpStart PXE 설치 서버와 동일한 네트워크에 연결 표시된 IBA를 선택합니다.

        오른쪽에 가장 낮은 번호가 표시된 IBA 부트 선택 항목이 가장 낮은 번호의 이더넷 포트에 해당합니다. IBA 부트 선택 항목의 오른쪽에 표시된 번호가 높을수록 높은 번호의 이더넷 포트에 해당합니다.

        노드가 재부트되고 Device Configuration Assistant가 나타납니다.

      3. Solaris 부트 화면에서 Net을 선택합니다.

      4. 다음 프롬프트에서 Custom JumpStart를 선택하고 Enter를 누릅니다.


        Select the type of installation you want to perform:
        
                 1 Solaris Interactive
                 2 Custom JumpStart
        
        Enter the number of your choice followed by the <ENTER> key.
        
        If you enter anything else, or if you wait for 30 seconds,
        an interactive installation will be started.
      5. 메시지가 표시되면 질문에 대답하고 화면의 지시를 따릅니다.

    JumpStart가 각 노드에 Solaris OS와 Sun Cluster 소프트웨어를 설치합니다. 설치가 성공적으로 완료되면 각 노드가 새 클러스터 노드로 완전히 설치됩니다. Sun Cluster를 설치할 때 화면에 출력되는 내용은 /var/cluster/logs/install/scinstall.log. N 파일에 기록됩니다.

  19. Solaris 10 OS,의 경우, 각 노드에서 SMF용 복수 사용자 서비스가 온라인 상태인지 확인합니다.

    어떤 노드에서 서비스가 아직 온라인 상태가 아니라면 다음 단계로 진행하기에 앞서 온라인 상태가 될 때까지 기다립니다.


    # svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  20. 기존 클러스터에 새 노드를 설치하는 경우 모든 기존 클러스터 파일 시스템에 대해 새 노드에 마운트 지점을 만듭니다.

    1. 활성 상태인 다른 클러스터 노드에서 모든 클러스터 파일 시스템의 이름을 표시하십시오.


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. 클러스터에 추가하는 노드에서 클러스터의 각 파일 시스템에 대한 마운트 지점을 만드십시오.


      % mkdir -p mountpoint
      

      예를 들어, mount 명령에서 반환되는 파일 시스템 이름이 /global/dg-schost-1이면 클러스터에 추가하는 노드에서 mkdir -p /global/dg-schost-1 명령을 실행합니다.


      주 –

      단계 24에서 클러스터를 재부트하면 마운트 지점이 활성화됩니다.


    3. 이미 클러스터에 있는 노드에 VERITAS Volume Manager(VxVM)가 설치된 경우에는 각 VxVM– 설치 노드에서 vxio 번호를 확인합니다.


      # grep vxio /etc/name_to_major
      vxio NNN
      
      • 동일한 vxio 번호가 각 VxVM 설치 노드에서 사용되는지 확인합니다.

      • 또한, VxVM이 설치되지 않은 각 노드에서 vxio 번호를 사용할 수 있는지 확인하십시오.

      • vxio 번호가 VxVM이 설치되지 않은 노드에서 이미 사용 중인 경우 해당 노드에서 이 번호를 해제합니다. 다른 번호를 사용하도록 /etc/name_to_major 항목을 변경합니다.

  21. (옵션) Sun Enterprise 10000 서버에서 동적 재구성을 사용하려면 /etc/system 파일에 다음 항목을 추가합니다. 다음 항목을 클러스터의 각 노드에 추가합니다.


    set kernel_cage_enable=1

    다음에 시스템을 재부트하면 이 항목이 적용됩니다. Sun Cluster 구성에서 동적 재구성 작업을 수행하는 절차는 Solaris OS용 Sun Cluster 시스템 관리 안내서를 참조하십시오. 동적 재구성에 대한 자세한 내용은 서버 설명서를 참조하십시오.

  22. LOFS(loopback file system)를 재활성화하려면 클러스터의 각 노드 중 /etc/system 파일에서 다음 항목을 삭제합니다.


    exclude:lofs

    다음에 시스템이 재부트되면 LOFS 재활성화가 적용됩니다.


    주 –

    가용성 높은 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하고 또한 automountd가 실행 중이라면 LOFS를 활성화할 수 없습니다. LOFS는 Sun Cluster HA for NFS에서 스위치오버 문제를 유발할 수 있습니다. LOFS를 활성화하고 나중에 가용성 높은 로컬 파일 시스템에서 Sun Cluster HA for NFS를 추가하도록 선택한다면 다음 중 하나를 수행해야 합니다.

    • 클러스터의 각 노드에서 /etc/system 파일에 exclude:lofs 항목을 복원하고 각 노드를 재부트합니다. 이 변경은 LOFS를 비활성화합니다.

    • automountd 데몬을 비활성화합니다.

    • Sun Cluster HA for NFS에서 내보낸 가용성 높은 로컬 파일 시스템에 속한 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 사용 가능한 상태로 유지할 수 있습니다.


    LOFS에 대한 자세한 내용은 System Administration Guide, Volume 1(Solaris 8)의 Types of File Systems 또는 System Administration Guide: Devices and File SystemsThe Loopback File System(Solaris 9 또는 Solaris 10)을 참조하십시오.

  23. x86: 기본 부트 파일을 kadb로 설정합니다.


    # eeprom boot-file=kadb
    

    이 값 설정을 사용하면 로그인 프롬프트에 액세스할 수 없는 경우에 노드를 재부트할 수 있습니다.

  24. 클러스터 재부트가 필요한 작업을 수행한 경우에는 다음 단계에 따라 클러스터를 재부트합니다.

    다음은 재부트를 필요로 하는 몇 가지 작업입니다.

    • 기존 클러스터에 새 노드 추가

    • 노드 또는 클러스터 재부트를 필요로 하는 패치 설치

    • 재부트해야만 적용되는 구성 변경

    1. 하나의 노드에서 클러스터를 종료하십시오.


      # scshutdown
      

      주 –

      클러스터가 종료될 때까지 첫 번째로 설치된 클러스터 노드를 재부트하지 마십시오. 클러스터 설치 모드가 비활성화될 때까지 클러스터를 구성한 첫 번째 설치 노드만 쿼럼 투표를 갖습니다. 설치 모드에 있는 설정된 클러스터에서 첫 번째 설치 노드가 재부트되기 전에 클러스터가 종료되지 않으면 나머지 클러스터 노드가 쿼럼을 포함할 수 없습니다. 그러면 전체 클러스터 노드가 종료됩니다.

      scsetup(1M) 명령을 처음 실행할 때까지는 클러스터 노드가 설치 모드로 유지됩니다. 쿼럼 장치를 구성하는 방법 절차 중 이 명령을 실행합니다.


    2. 클러스터의 각 노드를 재부트하십시오.

      • SPARC 기반 시스템에서는 다음을 수행합니다.


        ok boot
        
      • x86 기반 시스템에서는 다음을 수행합니다.


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
        Boot args:
        
        Type   b [file-name] [boot-flags] <ENTER>  to boot with options
        or     i <ENTER>                           to enter boot interpreter
        or     <ENTER>                             to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b
        

    scinstall 유틸리티가 모든 클러스터 노드를 설치 및 구성하고 클러스터를 재부트합니다. 모든 노드가 성공적으로 클러스터에 부트했을 때 클러스터가 설정됩니다. Sun Cluster 설치 출력이 /var/cluster/logs/install/scinstall.log.N 파일에 기록됩니다.

  25. 노드에서 모든 노드가 클러스터에 연결되어 있는지 확인합니다.

    scstat(1M) 명령을 실행하여 클러스터 노드 목록을 표시하십시오. 이 명령을 실행하기 위해 수퍼유저로 로그인할 필요는 없습니다.


     % scstat -n
    

    다음과 비슷한 결과가 출력됩니다.


    -- Cluster Nodes --
                               Node name      Status
                               ---------      ------
      Cluster node:            phys-schost-1  Online
      Cluster node:            phys-schost-2  Online
다음 순서

2-노드 클러스터에 노드를 추가했으면 노드 추가 후 SCSI 예약을 업데이트하는 방법으로 이동합니다.

데이터 서비스를 설치하려면 설치할 데이터 서비스 및 사용 중인 Solaris OS 버전에 맞는 절차로 이동합니다.

 

Sun Cluster 2 of 2 CD-ROM 

(Sun Java System 데이터 서비스) 

Sun Cluster Agents CD 

(그 밖의 모든 데이터 서비스) 

절차 

Solaris 8 또는 9 

Solaris 10 

Solaris 8 또는 9 

Solaris 10 

Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)

     

데이터 서비스 소프트웨어 패키지를 설치하는 방법(pkgadd)

 

   

데이터 서비스 소프트웨어 패키지를 설치하는 방법(scinstall)

   

데이터 서비스 소프트웨어 패키지를 설치하는 방법(Web Start installer)

   

 

그렇지 않으면 다음 해당 절차로 이동합니다.

일반 오류

비활성화된 scinstall 옵션scinstall 명령의 JumpStart 옵션 앞에 별표가 없으면 이 옵션은 비활성화됩니다. 이 조건은 JumpStart 설정이 완료되지 않았거나 설정 오류가 발생했음을 나타냅니다. 이 조건을 수정하려면 먼저 scinstall 유틸리티를 종료합니다. 단계 1 ~ 단계 10을 반복하여 JumpStart 설정을 수정한 다음 scinstall 유틸리티를 다시 시작합니다.

존재하지 않는 노드에 대한 오류 메시지 – 자체적으로 /etc/inet/ntp.conf 파일을 설치하지 않은 경우에는 scinstall 명령이 기본 ntp.conf 파일을 대신 설치합니다. 기본 파일에는 최대 노드 수에 대한 참조가 있습니다. 따라서 xntpd(1M) 데몬은 부트 과정에서 이러한 참조 중 일부에 대해 오류 메시지를 표시할 수 있습니다. 이 메시지는 무시해도 됩니다. 그 밖에 문제가 없는 정상적인 클러스터 상태에서 이 메시지가 표시되지 않도록 하는 방법에 대해서는 NTP(Network Time Protocol)를 구성하는 방법을 참조하십시오.

개인 네트워크 주소 변경scinstall 처리가 완료된 후에는 개인 네트워크 주소와 넷마스크를 변경할 수 없습니다. 다른 개인 네트워크 주소나 넷마스크를 사용해야 하고 해당 노드가 아직 설치 모드인 경우에는 Sun Cluster 소프트웨어를 제거하여 설치 문제를 해결하는 방법의 절차를 수행합니다. 그런 다음 이 절차를 반복하여 정확한 정보와 함께 노드를 다시 설치하고 구성합니다.

SunPlex Installer을 사용하여 Sun Cluster 소프트웨어를 구성합니다.


주 –

다음과 같은 경우에는 이 구성 방법을 사용하지 마십시오.


이 절에서는 SunPlex Manager의 설치 모듈인 SunPlex Installer을 사용하여 새 클러스터를 설정하는 방법에 대해 설명합니다. SunPlex Installer를 사용하여 다음 중 하나 이상의 추가 소프트웨어 제품을 설치하거나 구성할 수도 있습니다.

설치 요구 사항

다음 표는 SunPlex Installer를 사용하여 이러한 추가 소프트웨어 제품을 설치하기 위한 요구 사항 목록입니다.

표 2–3 SunPlex Installer를 사용하여 소프트웨어를 설치하기 위한 요구 사항

소프트웨어 패키지 

설치 요구 사항 

Solstice DiskSuite 또는 Solaris 볼륨 관리자 

/sds를 마운트 지점 이름으로 사용하는 분할 영역. 분할 영역은 20MB 이상이어야 합니다.

Sun Cluster HA for NFS 데이터 서비스 

  • 동일한 노드 세트에 연결된 동일한 크기의 공유 디스크 두 개 이상

  • SunPlex Installer에서 설치한 Solstice DiskSuite 소프트웨어 또는 구성한 Solaris 볼륨 관리자 소프트웨어

  • Sun Cluster HA for NFS에 사용할 논리 호스트 이름. 논리 호스트 이름에는 모든 클러스터 노드에서 액세스할 수 있는 유효 IP 주소가 있어야 합니다. IP 주소는 논리 주소를 호스팅하는 IP 네트워크 다중 경로 지정 그룹의 어댑터와 동일한 서브넷에 있어야 합니다.

  • 각 클러스터 노드에 대한 테스트 IP 주소. SunPlex Installer는 이 테스트 IP 주소를 사용하여 Sun Cluster HA for NFS에서 사용할 IP 네트워크 다중 경로 지정(Internet Protocol (IP) Network Multipathing) 그룹을 만듭니다.

Sun Cluster HA for Apache 확장 가능 데이터 서비스 

  • 동일한 노드 세트에 연결된 동일한 크기의 공유 디스크 두 개 이상

  • SunPlex Installer에서 설치한 Solstice DiskSuite 소프트웨어 또는 구성한 Solaris 볼륨 관리자 소프트웨어

  • Sun Cluster HA for Apache에 사용할 공유 주소. 공유 주소에는 모든 클러스터 노드에서 액세스할 수 있는 유효 IP 주소가 있어야 합니다. IP 주소는 논리 주소를 호스팅하는 IP 네트워크 다중 경로 지정 그룹의 어댑터와 동일한 서브넷에 있어야 합니다.

  • 각 클러스터 노드에 대한 테스트 IP 주소. SunPlex Installer는 이 테스트 IP 주소를 사용하여 Sun Cluster HA for Apache에서 사용할 IP 네트워크 다중 경로 지정(Internet Protocol (IP) Network Multipathing) 그룹을 만듭니다.

테스트 IP 주소

지정한 테스트 IP 주소는 다음 요구 사항을 충족해야 합니다.

다음 표는 SunPlex Installer에서 만드는 각 메타 세트 이름과 클러스터 파일 시스템 마운트 지점 목록입니다. SunPlex Installer에서 만드는 메타 세트 및 마운트 지점의 수는 노드에 연결되는 공유 디스크 수에 따라 다릅니다. 예를 들어, 노드가 네 개의 공유 디스크에 연결되는 경우 SunPlex Installer는 mirror-1mirror-2 메타 세트를 만듭니다. 그러나, 노드에 세 번째 메타 세트를 만들 공유 디스크가 부족하기 때문에 SunPlex Installer는 mirror-3 메타 세트를 만들지 않습니다.

표 2–4 SunPlex Installer에서 만든 메타 세트

공유 디스크 

메타 세트 이름 

클러스터 파일 시스템 마운트 지점 

목적 

첫 번째 쌍 

mirror-1

/global/mirror-1

Sun Cluster HA for NFS나 Sun Cluster HA for Apache 확장 가능 데이터 서비스 또는 두 가지 모두 

두 번째 쌍 

mirror-2

/global/mirror-2

사용하지 않음 

세 번째 쌍 

mirror-3

/global/mirror-3

사용하지 않음 


주 –

클러스터 노드가 최소 공유 디스크 요구 사항을 충족시키지 않아도 SunPlex Installer는 Solstice DiskSuite 패키지를 설치합니다. 그러나, 공유 디스크가 부족하면 SunPlex Installer가 메타 세트, 메타 장치 또는 볼륨을 구성할 수 없습니다. 그럴 경우 SunPlex Installer는 데이터 서비스 인스턴스를 만드는 데 필요한 클러스터 파일 시스템을 구성할 수 없습니다.


문자 세트 제한

SunPlex Installer는 보안을 높이기 위해 제한된 문자 세트를 인식합니다. 문자 세트에 포함되지 않은 문자는 HTML 양식이 SunPlex Installer 서버에 제출될 때 자동으로 필터링되어 제거됩니다. SunPlex Installer에서 인식하는 문자는 다음과 같습니다.


()+,-./0-9:=@A-Z^_a-z{|}~

이 필터는 다음과 같은 두 영역에서 문제를 일으킬 수 있습니다.

ProcedureSun Cluster 소프트웨어를 구성하는 방법(SunPlex Installer)

SunPlex Installer을 사용하여 한 번의 작업으로 클러스터의 모든 노드에 Sun Cluster 소프트웨어를 구성하고 패치를 설치하려면 이 절차를 수행합니다. Solstice DiskSuite 소프트웨어 및 패치를 설치하거나(Solaris 8) Solstice DiskSuite 또는 Solaris 볼륨 관리자에서 미러된 디스크 세트를 구성할 때도 이 절차를 사용할 수 있습니다.


주 –

다음과 같은 경우에는 이 구성 방법을 사용하지 마십시오.


설치 프로세스는 30분에서 2시간 이상까지 걸릴 수 있습니다. 실제 시간은 클러스터의 노드 수, 설치하려고 선택한 데이터 서비스, 클러스터 구성에 있는 디스크 수 등에 따라 다릅니다.

시작하기 전에

다음 작업을 수행합니다.

단계
  1. 설치할 각 소프트웨어 제품의 CD-ROM 이미지가 있는 파일 시스템 경로를 준비하십시오.

    다음 지침에 따라 파일 시스템 경로를 준비하십시오.

    • 각 노드에서 사용할 수 있는 위치에 각 CD-ROM 이미지를 준비하십시오.

    • 클러스터의 모든 노드에서 동일한 파일 시스템 경로를 통해 CD-ROM 이미지에 액세스할 수 있는지 확인합니다. 이 경로는 다음 위치 중 하나 이상일 수 있습니다.

      • 클러스터 외부의 시스템에서 네트워크로 내보낸 CD-ROM 드라이브

      • 클러스터 외부의 시스템에 내보낸 파일 시스템

      • 클러스터의 각 노드에 있는 로컬 파일 시스템에 복사된 CD-ROM 이미지. 각 노드에서 로컬 파일 시스템이 동일한 이름을 사용해야 합니다.

  2. x86: 관리 콘솔에서 Netscape NavigatorTM 브라우저를 사용할지 Microsoft Internet Explorer 브라우저를 사용할지 여부를 결정합니다.

    • Netscape Navigator를 사용하는 중인 경우, 단계 3으로 진행합니다.

    • Internet Explorer를 사용하는 경우, 단계 4로 건너뜁니다.

  3. x86: Java 플러그 인이 설치되어 있고 관리 콘솔에서 작동하는지 확인합니다.

    1. 클러스터에 연결하는 데 사용할 관리 콘솔에서 Netscape Navigator 브라우저를 시작합니다.

    2. 도움말 메뉴에서 플러그 인 정보를 선택합니다.

    3. Java 플러그 인이 나열되는지 여부를 결정합니다.

      • 예인 경우, 단계 5로 건너뜁니다.

      • 아니요인 경우, 단계 d로 진행합니다.

    4. http://java.sun.com/products/plugin에서 최신 Java 플러그 인을 다운로드합니다.

    5. 관리 콘솔에 플러그 인을 설치합니다.

    6. 플러그 인에 대한 심볼릭 링크를 만듭니다.


      % cd ~/.netscape/plugins/
      % ln -s /usr/j2se/plugin/i386/ns4/javaplugin.so .
      
    7. 단계 5로 건너뜁니다.

  4. x86: Java 2 Platform, Standard Edition (J2SE) for Windows가 설치되어 있고 관리 콘솔에서 작동하는지 확인합니다.

    1. Microsoft Windows 바탕 화면에서 시작을 누르고 설정을 가리킨 다음 제어판을 선택합니다.

      제어판 창이 나타납니다.

    2. Java 플러그 인이 나열되는지 여부를 결정합니다.

      • 아니요인 경우, 단계 c로 진행합니다.

      • 그러면 Java 플러그 인 제어판을 두 번 누릅니다. 제어판 창이 열리면 정보 탭을 누릅니다.

        • 이전 버전이 표시되면 단계 c로 진행합니다.

        • 버전 1.4.1 이상이 표시되면 단계 5로 건너뜁니다.

    3. http://java.sun.com/j2se/downloads.html에서 최신 Windows용 J2ME 버전을 다운로드합니다.

    4. Windows용 J2ME 소프트웨어를 관리 콘솔에 설치합니다.

    5. 관리 콘솔이 실행되는 시스템을 다시 시작합니다.

      Windows용 J2ME 제어판이 활성화됩니다.

  5. Sun Cluster 또는 Solstice DiskSuite 소프트웨어를 지원하는 데 필요한 패치가 있는 경우 해당 패치를 설치하는 방법을 결정합니다.

    • 패치를 수동으로 설치하려면 SunPlex Installer을 사용하기 전에 patchadd 명령을 사용하여 모든 패치를 설치합니다.

    • SunPlex Installer를 사용하여 패치를 설치하려면 패치를 단일 디렉토리에 복사합니다.

      패치 디렉토리가 다음 요구 사항을 충족하는지 확인합니다.

      • 패치 디렉토리는 각 노드에서 사용할 수 있는 파일 시스템에 있어야 합니다.

      • 이 패치 디렉토리에는 각 패치의 버전이 한 가지만 있어야 합니다. 패치 디렉토리에 동일한 패치 버전이 여러 개 있으면 SunPlex Installer가 정확한 패치 종속성 순서를 결정할 수 없습니다.

      • 패치의 압축이 풀립니다.

  6. 관리 콘솔 또는 클러스터 외부의 다른 시스템에서 브라우저를 실행합니다.

  7. 브라우저의 웹 프록시를 비활성화합니다.

    SunPlex Installer 설치 기능은 웹 프록시와 호환되지 않습니다.

  8. 디스크 캐싱 및 메모리 캐싱 기능이 활성화되어야 합니다.

    디스크 캐시와 메모리 캐시 크기는 0보다 커야 합니다.

  9. 브라우저에서 클러스터의 한 노드에 포트 3000으로 연결하십시오.


    https://node:3000
    

    Sun Cluster 설치 화면이 브라우저 창에 표시됩니다.


    주 –

    SunPlex Installer가 Sun Cluster 설치 화면 대신 데이터 서비스 설치 화면을 표시하면 해당 노드에 Sun Cluster 프레임워크 소프트웨어가 이미 설치 및 구성된 것입니다. URL에 있는 노드 이름이 설치할 클러스터 노드의 이름이 맞는지 확인하십시오.


  10. 브라우저에 New Site Certification 창이 표시되면 화면의 지시에 따라 인증서를 받으십시오.

  11. 수퍼유저로 로그인합니다.

  12. Sun Cluster 설치 화면에서 클러스터가 SunPlex Installer를 사용하기 위한 요구 사항을 충족하는지 확인하십시오.

    모든 요구 사항이 충족되었으면 Next를 눌러 다음 화면으로 이동하십시오.

  13. 메뉴 프롬프트에 따라 답하십시오. 구성 계획 워크시트.

  14. Begin Installation을 눌러 설치 프로세스를 시작하십시오.

    SunPlex Installer을 사용하려면 이 지침을 수행합니다.

    • 설치 프로세스가 진행되는 동안에는 브라우저 창을 닫거나 URL을 변경하지 마십시오.

    • 브라우저에 New Site Certification 창이 표시되면 화면의 지시에 따라 인증서를 받으십시오.

    • 브라우저에 로그인 정보를 묻는 메시지가 표시되면 연결할 노드에 필요한 수퍼유저 ID와 암호를 입력하십시오.

    SunPlex Installer가 모든 클러스터 노드를 설치 및 구성하고 클러스터를 재부트합니다. 모든 노드가 성공적으로 클러스터에 부트했을 때 클러스터가 설정됩니다. Sun Cluster 설치 출력이 /var/cluster/logs/install/scinstall.log.N 파일에 기록됩니다.

    설치 중에 클러스터 설치 프로세스의 상태에 대한 간략한 메시지가 화면에 표시됩니다. 설치 및 구성이 완료되면 브라우저에 클러스터 모니터링 및 관리 GUI가 표시됩니다.

    SunPlex Installer 설치에서 출력된 내용은 /var/cluster/spm/messages 파일에 기록됩니다. Sun Cluster를 설치할 때 화면에 출력되는 내용은 /var/cluster/logs/install/scinstall.log. N 파일에 기록됩니다.

  15. 노드에서 모든 노드가 클러스터에 연결되어 있는지 확인합니다.

    scstat(1M) 명령을 실행하여 클러스터 노드 목록을 표시하십시오. 이 명령을 실행하기 위해 수퍼유저로 로그인할 필요는 없습니다.


     % scstat -n
    

    다음과 비슷한 결과가 출력됩니다.


    -- Cluster Nodes --
                               Node name      Status
                               ---------      ------
      Cluster node:            phys-schost-1  Online
      Cluster node:            phys-schost-2  Online
  16. 쿼럼 할당을 확인하고 필요한 경우 해당 할당을 수정합니다.

    노드가 세 개 이상인 클러스터에서는 필요할 경우에 공유 쿼럼 장치를 사용할 수 있습니다. SunPlex Installer는 해당 공유 디스크가 사용 가능한지 여부에 따라 쿼럼 장치에 쿼럼 투표를 할당하지 않을 수도 있습니다. SunPlex Manager를 사용하여 쿼럼 장치를 지정하고 클러스터에 쿼럼 투표를 재할당할 수 있습니다. 자세한 내용은 Solaris OS용 Sun Cluster 시스템 관리 안내서의 5 장, 쿼럼 관리를 참조하십시오.

  17. LOFS(loopback file system)를 재활성화하려면 클러스터의 각 노드 중 /etc/system 파일에서 다음 항목을 삭제합니다.


    exclude:lofs

    다음에 시스템이 재부트되면 LOFS 재활성화가 적용됩니다.


    주 –

    가용성 높은 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하고 또한 automountd가 실행 중이라면 LOFS를 활성화할 수 없습니다. LOFS는 Sun Cluster HA for NFS에서 스위치오버 문제를 유발할 수 있습니다. LOFS를 활성화하고 나중에 가용성 높은 로컬 파일 시스템에서 Sun Cluster HA for NFS를 추가하도록 선택한다면 다음 중 하나를 수행해야 합니다.

    • 클러스터의 각 노드에서 /etc/system 파일에 exclude:lofs 항목을 복원하고 각 노드를 재부트합니다. 이 변경은 LOFS를 비활성화합니다.

    • automountd 데몬을 비활성화합니다.

    • Sun Cluster HA for NFS에서 내보낸 가용성 높은 로컬 파일 시스템에 속한 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 사용 가능한 상태로 유지할 수 있습니다.


    LOFS에 대한 자세한 내용은 System Administration Guide, Volume 1(Solaris 8)의 Types of File Systems 또는 System Administration Guide: Devices and File SystemsThe Loopback File System(Solaris 9 또는 Solaris 10)을 참조하십시오.

다음 순서

데이터 서비스를 설치하려면 설치할 데이터 서비스 및 사용 중인 Solaris OS 버전에 맞는 절차로 이동합니다.

 

Sun Cluster 2 of 2 CD-ROM 

(Sun Java System 데이터 서비스) 

Sun Cluster Agents CD 

(그 밖의 모든 데이터 서비스) 

절차 

Solaris 8 또는 9 

Solaris 10 

Solaris 8 또는 9 

Solaris 10 

Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)

     

데이터 서비스 소프트웨어 패키지를 설치하는 방법(pkgadd)

 

   

데이터 서비스 소프트웨어 패키지를 설치하는 방법(scinstall)

   

데이터 서비스 소프트웨어 패키지를 설치하는 방법(Web Start installer)

   

 

그렇지 않으면 쿼럼 구성 및 설치 모드 확인 방법으로 이동합니다.

일반 오류

scinstall 처리가 완료된 후에는 개인 네트워크 주소와 넷마스크를 변경할 수 없습니다. 다른 개인 네트워크 주소 또는 넷마스크를 사용해야 하고 노드가 여전히 설치 모드에 있다면 Sun Cluster 소프트웨어를 제거하여 설치 문제를 해결하는 방법의 절차를 따릅니다. 그런 다음 이 절차를 반복하여 정확한 정보와 함께 노드를 다시 설치하고 구성합니다.

Procedure다른 추가 클러스터 노드에 Sun Cluster 소프트웨어를 구성하는 방법(scinstall)

기존 클러스터에 새 노드를 추가하려면 이 절차를 수행하십시오. JumpStart를 사용하여 새 노드를 추가하려면 Solaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)의 절차를 대신 수행합니다.

시작하기 전에

다음 작업을 수행합니다.

이번 절차에서는 아래 지침대로 대화식 scinstall 유틸리티를 사용합니다.

단계
  1. 단일 노드 클러스터에 이 노드를 추가하는 중인 경우에는, 상호 연결 구성을 표시하여 두 클러스터의 상호 연결이 있는지 확인합니다.


    # scconf -p | grep cable
    # scconf -p | grep adapter
    

    노드를 추가하려면 적어도 두 개의 케이블 또는 두 개의 어댑터가 구성되어 있어야 합니다.

    • 2개의 케이블 또는 2개의 어댑터에 대해 구성 정보가 출력되면 단계 2로 진행합니다.

    • 케이블 또는 어댑터에 대한 구성 정보가 출력되지 않거나, 한 개의 케이블 또는 어댑터에 대해서만 구성 정보가 출력될 경우 새 클러스터 상호 연결을 구성합니다.

      1. 기존 클러스터 노드에서 scsetup(1M) 유틸리티를 시작합니다.


        # scsetup
        
      2. 클러스터 상호 연결 메뉴 항목을 선택합니다.

      3. 전송 케이블 추가 메뉴 항목을 선택합니다.

        화면 지시에 따라 클러스터에 추가할 노드의 이름, 전송 어댑터 이름, 전송 연결 장치 사용 여부 등을 지정합니다.

      4. 필요한 경우, 단계 c를 반복하여 두 번째 클러스터 상호 연결을 구성합니다.

        구성이 완료되면 scsetup 유틸리티를 종료합니다.

      5. 클러스터에 두 개의 클러스터 상호 연결이 구성되어 있는지 확인합니다.


        # scconf -p | grep cable
        # scconf -p | grep adapter
        

        이 명령은 최소한 두 개의 클러스터 상호 연결에 대한 구성 정보를 출력해야 합니다.

  2. 기존 클러스터에 이 노드를 추가하는 경우, 클러스터의 허가된–노드 목록에 새 노드를 추가합니다.

    1. 활성 클러스터 구성원에서 scsetup(1M) 유틸리티를 시작하십시오.


      # scsetup
      

      주 메뉴가 표시됩니다.

    2. 메뉴 항목에서 새 노드를 선택하십시오.

    3. 스스로를 추가할 수 있는 시스템의 이름 지정 메뉴 항목을 선택하십시오.

    4. 화면에 표시되는 메시지에 따라 인식된 시스템 목록에 노드 이름을 추가합니다.

      오류 없이 작업을 마치면 scsetup 유틸리티는 Command completed successfully라는 메시지를 인쇄합니다.

    5. scsetup 유틸리티를 종료합니다.

  3. 구성할 클러스터 노드에서 수퍼유저가 되십시오.

  4. scinstall 유틸리티를 시작하십시오.


    # /usr/cluster/bin/scinstall
    
  5. 주 메뉴에서 메뉴 항목을 선택하고 클러스터 또는 클러스터 노드를 설치합니다.


      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Install a cluster or cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Add support for new data services to this cluster node
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1
    
  6. 설치 메뉴에서 이 시스템을 기존 클러스터에 노드로 추가 메뉴 항목을 선택합니다.

  7. 메뉴 프롬프트에 따라 답하십시오. 구성 계획 워크시트.

    scinstall 유틸리티가 노드를 구성하고 노드를 클러스터로 부트합니다.

  8. CD-ROM에 상주하지 않는 디렉토리로 변경한 다음 CD-ROM을 꺼냅니다.


    # eject cdrom
    
  9. Sun Cluster 소프트웨어 지원에 필요한 패치가 아직 설치되지 않은 경우에는 해당 패치를 설치합니다.

  10. 추가 노드가 모두 구성될 때까지 클러스터에 추가할 다른 노드에 대해 이 절차를 반복합니다.

  11. Solaris 10 OS,의 경우, 각 노드에서 SMF용 복수 사용자 서비스가 온라인 상태인지 확인합니다.

    어떤 노드에서 서비스가 아직 온라인 상태가 아니라면 다음 단계로 진행하기에 앞서 온라인 상태가 될 때까지 기다립니다.


    # svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  12. 활성 클러스터 구성원에서 노드가 클러스터에 연결되지 않도록 하십시오.


    # /usr/cluster/bin/scconf -a -T node=.
    
    -a

    명령의 추가 형식을 지정합니다.

    -T

    인증 옵션을 지정합니다

    node=.

    노드 이름(.)을 지정하여 인증 목록에 추가하고 다른 노드가 클러스터에 추가되지 않게 합니다.

    대신 scsetup(1M) 유틸리티를 사용할 수 있습니다. Solaris OS용 Sun Cluster 시스템 관리 안내서권한이 부여된 노드 목록에 노드를 추가하는 방법을 참조하십시오.

  13. 노드에서 모든 노드가 클러스터에 연결되어 있는지 확인합니다.

    scstat(1M) 명령을 실행하여 클러스터 노드 목록을 표시하십시오. 이 명령을 실행하기 위해 수퍼유저로 로그인할 필요는 없습니다.


     % scstat -n
    

    다음과 비슷한 결과가 출력됩니다.


    -- Cluster Nodes --
                               Node name      Status
                               ---------      ------
      Cluster node:            phys-schost-1  Online
      Cluster node:            phys-schost-2  Online
  14. LOFS(loopback file system)를 재활성화하려면 클러스터의 각 노드 중 /etc/system 파일에서 다음 항목을 삭제합니다.


    exclude:lofs

    다음에 시스템이 재부트되면 LOFS 재활성화가 적용됩니다.


    주 –

    가용성 높은 로컬 파일 시스템에서 Sun Cluster HA for NFS를 사용하고 또한 automountd가 실행 중이라면 LOFS를 활성화할 수 없습니다. LOFS는 Sun Cluster HA for NFS에서 스위치오버 문제를 유발할 수 있습니다. LOFS를 활성화하고 나중에 가용성 높은 로컬 파일 시스템에서 Sun Cluster HA for NFS를 추가하도록 선택한다면 다음 중 하나를 수행해야 합니다.

    • 클러스터의 각 노드에서 /etc/system 파일에 exclude:lofs 항목을 복원하고 각 노드를 재부트합니다. 이 변경은 LOFS를 비활성화합니다.

    • automountd 데몬을 비활성화합니다.

    • Sun Cluster HA for NFS에서 내보낸 가용성 높은 로컬 파일 시스템에 속한 모든 파일을 automounter 맵에서 제외시킵니다. 이렇게 선택하면 LOFS와 automountd 데몬을 모두 사용 가능한 상태로 유지할 수 있습니다.


    LOFS에 대한 자세한 내용은 System Administration Guide, Volume 1(Solaris 8)의 Types of File Systems 또는 System Administration Guide: Devices and File SystemsThe Loopback File System(Solaris 9 또는 Solaris 10)을 참조하십시오.


예 2–2 추가 노드에 Sun Cluster 소프트웨어 구성

다음 예에서는 phys-schost-3 노드가 schost 클러스터에 추가되는 것을 보여줍니다. 스폰서 노드는 phys-schost-1입니다.


*** Adding a Node to an Existing Cluster ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 
-m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2


Checking device to use for global devices file system ... done

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "qfe2" to the cluster configuration ... done
Adding adapter "qfe3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Copying the Common Agent Container keys from "phys-schost-1" ... done


Setting the node ID for "phys-schost-3" ... done (id=1)

Setting the major number for the "did" driver ... 
Obtaining the major number for the "did" driver from "phys-schost-1" ... done
"did" driver major number set to 300

Checking for global devices global file system ... done
Updating vfstab ... done

Verifying that NTP is configured ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... 
done

Adding clusternode entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done
The "local-mac-address?" parameter setting has been changed to "true".

Ensure network routing is disabled ... done

Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Rebooting ... 

다음 순서

다음 단계 결정:

2-노드 클러스터에 노드를 추가했으면 노드 추가 후 SCSI 예약을 업데이트하는 방법으로 이동합니다.

데이터 서비스를 설치하려면 설치할 데이터 서비스 및 사용 중인 Solaris OS 버전에 맞는 절차로 이동합니다.

 

Sun Cluster 2 of 2 CD-ROM 

(Sun Java System 데이터 서비스) 

Sun Cluster Agents CD 

(그 밖의 모든 데이터 서비스) 

절차 

Solaris 8 또는 9 

Solaris 10 

Solaris 8 또는 9 

Solaris 10 

Sun Cluster 프레임워크 및 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Java ES installer)

     

데이터 서비스 소프트웨어 패키지를 설치하는 방법(pkgadd)

 

   

데이터 서비스 소프트웨어 패키지를 설치하는 방법(scinstall)

   

데이터 서비스 소프트웨어 패키지를 설치하는 방법(Web Start installer)

   

 

그렇지 않으면 쿼럼 구성 및 설치 모드 확인 방법으로 이동합니다.

일반 오류

쿼럼 장치에 대한 노드 첨부 수를 늘리거나 줄이더라도 클러스터에서 쿼럼 투표 수를 자동으로 다시 계산하지 않습니다. 정확한 쿼럼 투표로 다시 설정하려면 scsetup 유틸리티를 사용하여 각 쿼럼 장치를 제거한 다음 구성에 다시 추가합니다. 한번에 하나의 쿼럼 장치에서 이 작업을 수행합니다.

클러스터에 쿼럼 장치가 하나만 있는 경우 원래 쿼럼 장치를 제거했다가 다시 추가하기 전에 두 번째 쿼럼 장치를 구성합니다. 그런 다음 두 번째 쿼럼 장치를 제거하여 클러스터를 원래 구성으로 되돌립니다.

Procedure노드 추가 후 SCSI 예약을 업데이트하는 방법

하나 이상의 공유 SCSI 디스크를 쿼럼 장치로 사용하는 2-노드 클러스터에 새 노드를 추가한 경우에는 SCSI PGR(Persistent Group Reservation)을 업데이트해야 합니다. 이 작업을 수행하려면 SCSI-2 예약이 있는 쿼럼 장치를 제거합니다. 쿼럼 장치를 다시 추가하면 새로 구성된 쿼럼 장치에 SCSI-3 예약이 있게 됩니다.

시작하기 전에

추가된 노드에서 Sun Cluster 소프트웨어의 설치가 완료되어야 합니다.

단계
  1. 클러스터의 노드에서 수퍼유저가 됩니다.

  2. 현재 쿼럼 구성을 확인합니다.

    다음 출력 예에서는 쿼럼 장치 d3의 상태를 보여줍니다.


    # scstat -q
    

    나열된 각 쿼럼 장치의 이름을 적어둡니다.

  3. 기존 쿼럼 장치를 제거합니다.

    구성되는 쿼럼 장치마다 이 단계를 수행합니다.


    # scconf -r -q globaldev=devicename
    
    -r

    제거합니다.

    -q globaldev=devicename

    쿼럼 장치의 이름을 지정합니다.

  4. 기존 쿼럼 장치가 모두 제거되었는지 확인합니다.


    # scstat -q
    
  5. (옵션) SCSI 쿼럼 장치를 추가합니다.

    원래 쿼럼 장치로 구성된 동일한 장치를 구성하거나, 구성할 새 공유 장치를 선택할 수 있습니다.

    1. (옵션) 쿼럼 장치로 구성할 새 공유 장치를 선택할 경우, 시스템에서 검사된 모든 장치를 표시합니다.

      그렇지 않으면 단계 c로 건너뜁니다.


      # scdidadm -L
      

      다음과 비슷한 결과가 출력됩니다.


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      …
    2. 출력에서 쿼럼 장치로 구성할 공유 장치를 선택합니다.

    3. 공유 장치를 쿼럼 장치로 구성합니다.


      # scconf -a -q globaldev=devicename
      
      -a

      추가합니다.

    4. 구성할 각 쿼럼 장치를 반복합니다.

  6. 쿼럼 장치를 추가한 경우에는 새 쿼럼 구성을 확인합니다.


    # scstat -q
    

    새 쿼럼 장치는 각각 Online 상태이고 투표가 지정되어야 합니다.


예 2–3 노드 추가 후 SCSI 예약 업데이트

다음 예에서는 기존 쿼럼 장치 d2를 식별하고 쿼럼 장치를 제거하며 가용 공유 장치를 나열하고 d3을 새 쿼럼 장치로 구성합니다.


(List quorum devices)
# scstat -q
…
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d2s2  1        1       Online

(Remove the original quorum device)
# scconf -r -q globaldev=d2
 
(Verify the removal of the original quorum device)
# scstat -q
…
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
 
(List available devices)
# scdidadm -L
…
3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
…
 
(Add a quorum device)
# scconf -a -q globaldev=d3
 
(Verify the addition of the new quorum device)
# scstat -q
…
-- Quorum Votes by Device --

                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d3s2 2        2       Online

다음 순서

Procedure데이터 서비스 소프트웨어 패키지를 설치하는 방법(pkgadd)

이 절차에 따라 Sun Cluster 2 of 2 CD-ROM에서 Solaris 10 OS용 데이터 서비스를 설치합니다. Sun Cluster 2 of 2 CD-ROM에는 Sun Java System 응용 프로그램용 데이터 서비스가 있습니다. 이 절차에서는 pkgadd(1M) 프로그램을 사용하여 패키지를 설치합니다. 선택한 데이터 서비스를 실행하려는 클러스터의 각 노드에서 이 절차를 수행합니다.


주 –

다음과 같은 데이터 서비스 패키지에서는 이 절차를 사용하지 마십시오.


단계
  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. CD-ROM 드라이브에 Sun Cluster 2 of 2 CD-ROM를 넣습니다.

    볼륨 관리 데몬 vold(1M)이 실행 중이고 CD-ROM 장치를 관리하도록 구성되었다면 이 데몬은 /cdrom/cdrom0/ 디렉토리에 CD-ROM을 자동으로 마운트합니다.

  3. Solaris_arch/Product/sun_cluster_agents/Solaris_10/Packages/ 디렉토리로 변경합니다. 여기서 archsparc 또는 x86입니다.


    # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster_agents/ \
    Solaris_10/Packages/
    
  4. 전역 영역에 데이터 서비스 패키지를 설치합니다.


    # pkgadd -G -d . [packages]
    -G

    현재 영역에만 패키지를 추가합니다. 전역 영역에만 Sun Cluster 패키지를 추가해야 합니다. 이 옵션에서는 기존 비전역 영역 또는 나중에 생성되는 어떤 비전역 영역에 패키지가 전달되지 않도록 지정할 수도 있습니다.

    -d

    설치할 패키지 위치를 지정합니다.

    packages

    선택 사항. 설치할 하나 이상의 패키지 이름을 지정합니다. 지정된 패키지 이름이 없으면 pkgadd 프로그램은 설치 가능한 모든 패키지로 구성된 선택 목록을 표시합니다.

  5. CD-ROM에 상주하지 않는 디렉토리로 변경한 다음 CD-ROM을 꺼냅니다.


    # eject cdrom
    
  6. 선택한 데이터 서비스의 모든 패치를 설치합니다.

    패치 위치 및 설치 지침은 Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트패치 및 필수 펌웨어 수준을 참조하십시오.

    Sun Cluster 데이터 서비스 패치를 설치한 후에 재부트하라는 지시가 패치 관련 지시 사항에 없으면 재부트하지 않아도 됩니다. 패치 관련 지시에 재부트하라는 지시가 있으면 다음 단계를 수행하십시오.

    1. 한 노드에서 scshutdown(1M) 명령을 사용하여 클러스터를 종료합니다.

    2. 클러스터의 각 노드를 재부트하십시오.


    주 –

    클러스터 설치 모드가 비활성화될 때까지 클러스터를 구성한 첫 번째 설치 노드만 쿼럼 투표를 갖습니다. 설치 모드에 있는 설정된 다중 노드 클러스터에서 첫 번째 설치 노드를 재부트하기 전에 클러스터를 종료하지 않은 경우 나머지 클러스터 노드가 쿼럼을 얻을 수 없습니다. 그러면 전체 클러스터 노드가 종료됩니다.

    Sun Cluster 설치 중 자동 쿼럼 구성을 선택했거나 SunPlex Installer을 사용하여 Sun Cluster 소프트웨어를 설치한 경우, 설치 재부트 중에 설치 유틸리티는 쿼럼 투표를 자동으로 지정하고 클러스터를 설치 모드로부터 제외시킵니다. 그러나 이 방법 중 하나도 선택하지 않은 경우에는 쿼럼 장치를 구성하는 방법의 절차 중 scsetup(1M) 명령이 실행될 때까지 클러스터노드는 설치 모드를 유지합니다.


다음 순서

Procedure데이터 서비스 소프트웨어 패키지를 설치하는 방법(scinstall)

Sun Cluster 3.1 8/05 릴리스의 Sun Cluster Agents CD에서 데이터 서비스를 설치하려면 이 절차를 수행합니다. 이 절차에서는 대화식 scinstall 유틸리티를 사용하여 패키지를 설치합니다. 선택한 데이터 서비스를 실행하려는 클러스터의 각 노드에서 이 절차를 수행합니다.


주 –

다음과 같은 데이터 서비스 패키지에서는 이 절차를 사용하지 마십시오.


SunPlex Installer을 사용하여 Sun Cluster HA for NFS, Sun Cluster HA for Apache 또는 두 가지를 모두 설치했고 다른 데이터 서비스를 설치하지 않을 경우 이 절차를 수행할 필요가 없습니다. 대신 쿼럼 장치를 구성하는 방법으로 이동합니다.

Sun Cluster 3.1 10/03 및 이전 릴리스에서 데이터 서비스를 설치하려면 Web Start installer 프로그램을 대신 사용하여 패키지를 설치할 수 있습니다. 데이터 서비스 소프트웨어 패키지를 설치하는 방법(Web Start installer)을 참조하십시오.

이번 절차에서는 아래 지침대로 대화식 scinstall 유틸리티를 사용합니다.

단계
  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. 노드의 CD-ROM 드라이브에 Sun Cluster Agents CD를 넣습니다.

    볼륨 관리 데몬 vold(1M)이 실행 중이고 CD-ROM 장치를 관리하도록 구성되었다면 이 데몬은 /cdrom/cdrom0/ 디렉토리에 CD-ROM을 자동으로 마운트합니다.

  3. CD-ROM이 마운트되는 디렉토리로 변경하십시오.


    # cd /cdrom/cdrom0/
    
  4. scinstall(1M) 유틸리티를 시작합니다.


    # scinstall
    
  5. 주 메뉴에서 이 클러스터 노드에 새 데이터 서비스에 대한 지원 추가 메뉴 항목을 선택합니다.

  6. 화면의 지시에 따라 설치할 데이터 서비스를 선택합니다.

    각 노드에 동일한 데이터 서비스 패키지 세트를 설치해야 합니다. 이 요구 사항은 설치된 데이터 서비스에 대한 자원을 노드가 호스트하지 않는 경우에도 적용됩니다.

  7. 데이터 서비스를 설치한 후 scinstall 유틸리티를 종료합니다.

  8. CD-ROM에 상주하지 않는 디렉토리로 변경한 다음 CD-ROM을 꺼냅니다.


    # eject cdrom
    
  9. Sun Cluster 데이터 서비스 패치가 있으면 설치하십시오.

    패치 위치 및 설치 지침은 Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트패치 및 필수 펌웨어 수준을 참조하십시오.

    Sun Cluster 데이터 서비스 패치를 설치한 후에 재부트하라는 지시가 패치 관련 지시 사항에 없으면 재부트하지 않아도 됩니다. 패치 관련 지시에 재부트하라는 지시가 있으면 다음 단계를 수행하십시오.

    1. 한 노드에서 scshutdown(1M) 명령을 사용하여 클러스터를 종료합니다.

    2. 클러스터의 각 노드를 재부트하십시오.


    주 –

    클러스터 설치 모드가 비활성화될 때까지 클러스터를 구성한 첫 번째 설치 노드만 쿼럼 투표를 갖습니다. 설치 모드에 있는 설정된 다중 노드 클러스터에서 첫 번째 설치 노드를 재부트하기 전에 클러스터를 종료하지 않은 경우 나머지 클러스터 노드가 쿼럼을 얻을 수 없습니다. 그러면 쿼럼을 가져올 수 없기 때문에 전체 클러스터가 종료됩니다.

    Sun Cluster 설치 중 자동 쿼럼 구성을 선택했거나 SunPlex Installer을 사용하여 Sun Cluster 소프트웨어를 설치한 경우, 설치 재부트 중에 설치 유틸리티는 쿼럼 투표를 자동으로 지정하고 클러스터를 설치 모드로부터 제외시킵니다. 그러나 이 방법 중 하나도 선택하지 않은 경우에는 쿼럼 장치를 구성하는 방법의 절차 중 scsetup(1M) 명령이 실행될 때까지 클러스터 노드가 설치 모드를 유지합니다.


다음 순서

Procedure데이터 서비스 소프트웨어 패키지를 설치하는 방법(Web Start installer)

Sun Cluster Agents CD에서 Solaris 8 또는 Solaris 9 OS용 데이터 서비스를 설치하려면 이 절차를 수행합니다. 이 절차에서는 CD-ROM에 있는 Web Start installer 프로그램을 사용하여 패키지를 설치합니다. 선택된 데이터 서비스를 실행하려는 클러스터의 각 노드에서 이 절차를 수행합니다.


주 –

다음과 같은 데이터 서비스 패키지에서는 이 절차를 이용하지 마십시오.

SunPlex Installer을 사용하여 Sun Cluster HA for NFS 또는 Sun Cluster HA for Apache 또는 두 가지 모두 설치했고 다른 데이터 서비스를 설치하지 않을 경우 이 절차를 수행할 필요가 없습니다. 대신 쿼럼 장치를 구성하는 방법으로 이동합니다.


Sun Cluster 3.1 10/03 및 이전 릴리스에서 데이터 서비스를 설치하려면 데이터 서비스 소프트웨어 패키지를 설치하는 방법(scinstall)의 절차를 대신 수행합니다.

명령줄 인터페이스(CLI)나 그래픽 사용자 인터페이스(GUI)를 사용하여 installer 프로그램을 실행할 수 있습니다. CLI 및 GUI의 내용과 명령 순서는 비슷합니다. installer 프로그램에 대한 자세한 내용은 installer(1M) 설명서 페이지를 참조하십시오.

시작하기 전에

installer 프로그램을 GUI와 함께 사용하려면 DISPLAY 환경 변수를 설정해야 합니다.

단계
  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. CD-ROM 드라이브에 Sun Cluster Agents CD를 넣습니다.

    볼륨 관리 데몬 vold(1M)이 실행 중이고 CD-ROM 장치를 관리하도록 구성되었다면 이 데몬은 /cdrom/cdrom0/ 디렉토리에 CD-ROM을 자동으로 마운트합니다.

  3. CD-ROM에서 installer 프로그램이 있는 디렉토리로 변경합니다.


    # cd /cdrom/cdrom0/Solaris_arch/
    

    Solaris_arch/ 디렉토리에서 archsparc 또는 x86입니다.

  4. Web Start installer 프로그램을 시작합니다.


    # ./installer
    
  5. 프롬프트에서 설치 유형을 선택합니다.

    각 데이터 서비스에 사용할 수 있는 로켈 목록은 Sun Cluster 릴리스 노트를 참조하십시오.

    • CD-ROM의 모든 데이터 서비스를 설치하려면 표준을 선택합니다.

    • CD-ROM에서 데이터 서비스의 하위 세트만 설치하려면 사용자 정의를 선택하십시오.

  6. 메시지가 표시되면, 설치할 로켈을 선택합니다.

    • C 로켈만 설치하려면 표준을 선택합니다.

    • 다른 로켈을 설치하려면 사용자 정의를 선택합니다.

  7. 화면의 지침에 따라 노드에 데이터 서비스 패키지를 설치하십시오.

    설치가 완료되면 installer 프로그램에서 설치 요약이 제공됩니다. 이 요약에서 설치 도중 프로그램에서 만든 로그를 확인할 수 있습니다. 이 로그는 /var/sadm/install/logs/ 디렉토리에 있습니다.

  8. installer 프로그램을 종료합니다.

  9. CD-ROM에 상주하지 않는 디렉토리로 변경한 다음 CD-ROM을 꺼냅니다.


    # eject cdrom
    
  10. Sun Cluster 데이터 서비스 패치가 있으면 설치하십시오.

    패치 위치 및 설치 지침은 Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트패치 및 필수 펌웨어 수준을 참조하십시오.

    Sun Cluster 데이터 서비스 패치를 설치한 후에 재부트하라는 지시가 패치 관련 지시 사항에 없으면 재부트하지 않아도 됩니다. 패치 관련 지시에 재부트하라는 지시가 있으면 다음 단계를 수행하십시오.

    1. 한 노드에서 scshutdown(1M) 명령을 사용하여 클러스터를 종료합니다.

    2. 클러스터의 각 노드를 재부트하십시오.


    주 –

    클러스터 설치 모드가 비활성화될 때까지 클러스터를 구성한 첫 번째 설치 노드만 쿼럼 투표를 갖습니다. 설치 모드에 있는 설정된 다중 노드 클러스터에서 첫 번째 설치 노드를 재부트하기 전에 클러스터를 종료하지 않은 경우 나머지 클러스터 노드가 쿼럼을 얻을 수 없습니다. 그러면 전체 클러스터 노드가 종료됩니다.

    Sun Cluster 설치 중 자동 쿼럼 구성을 선택했거나 SunPlex Installer을 사용하여 Sun Cluster 소프트웨어를 설치한 경우, 설치 재부트 중에 설치 유틸리티는 쿼럼 투표를 자동으로 지정하고 클러스터를 설치 모드로부터 제외시킵니다. 그러나 이 방법 중 하나도 선택하지 않은 경우에는 쿼럼 장치를 구성하는 방법의 절차 중 scsetup(1M) 명령이 실행될 때까지 클러스터노드는 설치 모드를 유지합니다.


다음 순서

Procedure쿼럼 장치를 구성하는 방법


주 –

다음 환경에서는 쿼럼 장치를 구성하지 않아도 됩니다.

대신 쿼럼 구성 및 설치 모드 확인 방법으로 진행합니다.


이 절차는 클러스터가 완전히 구성된 후에 한 번만 수행하면 됩니다. 이 절차를 사용하여 쿼럼 투표 수를 할당한 다음 설치 모드에서 클러스터를 제거합니다.

시작하기 전에

Network Appliance NAS(network-attached storage) 장치를 쿼럼 장치로 구성할 경우 다음과 같이 수행합니다.

단계
  1. 공유되는 SCSI 디스크를 쿼럼 장치로 사용하려면 클러스터 노드와의 장치 연결을 확인하고 구성할 장치를 선택합니다.

    1. 클러스터의 한 노드에서 시스템이 검사하는 모든 장치의 목록을 표시합니다.

      이 명령을 실행하기 위해 수퍼유저로 로그인할 필요는 없습니다.


      % scdidadm -L
      

      다음과 비슷한 결과가 출력됩니다.


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      …
    2. 클러스터 노드 및 저장 장치 간의 모든 연결이 출력되는지 확인합니다.

    3. 쿼럼 장치로 구성할 각 공유 디스크의 전역 장치 ID 이름을 결정하십시오.


      주 –

      선택한 공유 디스크가 쿼럼 장치로 사용하는 데 적합해야 합니다. 쿼럼 장치 선택에 대한 자세한 내용은 쿼럼 장치를 참조하십시오.


      단계 ascdidadm 출력을 사용하여 쿼럼 장치로 구성 중인 공유 디스크 각각의 장치–ID 이름을 식별합니다. 예를 들어, 단계 a에서는 글로벌 장치 d2phys-schost-1phys-schost-2에서 공유하는 것으로 결과가 출력되었습니다.

  2. 클러스터의 한 노드에서 수퍼유저가 되십시오.

  3. scsetup(1M) 유틸리티를 시작합니다.


    # scsetup
    

    Initial Cluster Setup 화면이 표시됩니다.


    주 –

    주 메뉴가 표시되면 이 절차가 이미 성공적으로 수행되었습니다. 단계 8로 건너뜁니다.


  4. Do you want to add any quorum disks?라는 메시지에 응답합니다.

    • 클러스터가 2노드 클러스터인 경우 하나 이상의 공유 쿼럼 장치를 구성해야 합니다. 하나 이상의 쿼럼 장치를 구성하려면 Yes를 입력합니다.

    • 클러스터에 세 개 이상의 노드가 있으면 쿼럼 장치 구성은 선택 사항입니다.

      • 추가 쿼럼 장치를 구성하지 않으려면 No를 입력합니다. 그런 다음 단계 7로 건너뜁니다.

      • 추가 쿼럼 장치를 구성하려면 Yes를 입력합니다. 그런 다음단계 5로 진행합니다.

  5. 쿼럼 장치로 구성할 장치 유형을 지정합니다.

    • 공유 SCSI 디스크를 구성하려면 scsi를 선택합니다.

    • Network Appliance NAS 장치를 구성하려면 netapp_nas를 선택합니다.

  6. 쿼럼 장치로 구성할 장치 이름을 지정합니다.

    Network Appliance NAS 장치에 대해 다음 정보도 지정합니다.

    • NAS 장치의 이름

    • NAS 장치의 LUN ID

  7. Is it okay to reset "installmode"?라는 메시지가 표시되면 Yes를 입력합니다.

    scsetup 유틸리티가 클러스터에 대한 쿼럼 구성 및 투표 수를 설정하면 Cluster initialization is complete라는 메시지가 표시됩니다. 주 메뉴로 돌아갑니다.

  8. scsetup 유틸리티를 종료합니다.

다음 순서

쿼럼 구성을 확인하고 설치 모드가 비활성화되어 있는지 확인합니다. 쿼럼 구성 및 설치 모드 확인 방법으로 이동합니다.

일반 오류

인터럽트된 scsetup 처리 — 쿼럼 설정 프로세스가 인터럽트되거나 성공적으로 완료되지 않으면 scsetup을 다시 실행합니다.

쿼럼 투표 수 변경 — 나중에 쿼럼 장치에 대한 노드 연결 수를 증감시킬 경우, 쿼럼 투표 수는 자동으로 다시 계산되지 않습니다. 각 쿼럼 장치를 제거하여 정확한 쿼럼 투표 수를 재설정한 다음 한 번에 한 쿼럼씩 구성에 다시 추가할 수 있습니다. 2노드 클러스터의 경우 원래 쿼럼 장치를 제거했다가 다시 추가하기 전에 새 쿼럼 장치를 임시로 추가합니다. 그런 다음 임시 쿼럼 장치를 제거합니다. Solaris OS용 Sun Cluster 시스템 관리 안내서의 5 장, 쿼럼 관리에서 “쿼럼 장치 노드 목록을 수정하는 방법” 절차를 참조하십시오.

Procedure쿼럼 구성 및 설치 모드 확인 방법

쿼럼 구성이 성공적으로 완료되었는지, 그리고 클러스터 설치 모드가 비활성 상태인지 확인하려면 이 절차를 수행합니다.

단계
  1. 한 노드에서 장치 및 노드 쿼럼 구성을 확인하십시오.


    % scstat -q
    
  2. 임의의 노드에서 클러스터 설치 모드가 비활성화되었는지 확인합니다.

    이 명령을 실행하기 위해 수퍼유저로 로그인할 필요는 없습니다.


    % scconf -p | grep "install mode"
    Cluster install mode:                disabled

    클러스터 설치가 완료됩니다.

다음 순서

클러스터 또는 새 클러스터 노드에 볼륨 관리 소프트웨어를 설치하고 다른 구성 작업을 수행하려면 클러스터 구성으로 이동합니다.


주 –

VxVM을 사용하는 클러스터에 새 노드를 추가했다면 SPARC: VERITAS Volume Manager 소프트웨어를 설치하는 방법의 단계대로 다음 작업 중 하나를 수행해야 합니다.


클러스터 구성

이 절에서는 클러스터나 새 클러스터 노드에 설치한 소프트웨어의 구성 정보 및 절차에 대해 설명합니다. 이 작업을 수행하기 전에 다음 작업이 완료되었는지 확인하십시오.

다음 표는 클러스터를 구성하기 위해 수행할 작업 목록입니다. 표시된 순서대로 절차를 완료하십시오.


주 –

VxVM을 사용하는 클러스터에 새 노드를 추가했다면 SPARC: VERITAS Volume Manager 소프트웨어를 설치하는 방법의 단계대로 다음 작업 중 하나를 수행해야 합니다.


표 2–5 작업 맵: 클러스터 구성

작업 

지침 

1. 볼륨 관리 소프트웨어를 설치하고 구성합니다. 

  • Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

3 장, Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성

Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서 

  • SPARC: VERITAS Volume Manager 소프트웨어 설치 및 구성

4 장, SPARC: VERITAS Volume Manager 설치 및 구성

VERITAS Volume Manager 문서 

2. 클러스터 파일 시스템을 만들고 마운트합니다. 

클러스터 파일 시스템을 만드는 방법

3. (Solaris 8 또는 SunPlex Installer 설치) IP 네트워크 다중 경로 지정 그룹에서 아직 구성되지 않은 공용 네트워크 어댑터별로 Internet Protocol (IP) Network Multipathing 그룹을 만듭니다.

Internet Protocol (IP) Network Multipathing 그룹을 구성하는 방법

4. (선택 사항) 노드의 개인 호스트 이름을 변경합니다.

개인 호스트 이름을 변경하는 방법

5. NTP 구성 파일을 만들거나 수정합니다. 

NTP(Network Time Protocol)를 구성하는 방법

6. (선택 사항) SPARC: Sun Cluster 모듈을 Sun Management Center 소프트웨어에 설치합니다.

SPARC: Sun Management Center용 Sun Cluster 모듈 설치

Sun Management Center 설명서 

7. 타사 응용 프로그램을 설치하고 응용 프로그램, 데이터 서비스 및 자원 그룹을 구성합니다. 

Sun Cluster Data Services Planning and Administration Guide for Solaris OS

다른 회사 응용 프로그램 문서 

Procedure클러스터 파일 시스템을 만드는 방법

만들려는 클러스터 파일 시스템마다 이 절차를 수행합니다. 로컬 파일 시스템과 달리 클러스터 파일 시스템은 클러스터의 모든 노드에서 액세스할 수 있습니다. SunPlex Installer를 사용하여 데이터 서비스를 설치한 경우 SunPlex Installer가 하나 이상의 클러스터 파일 시스템을 이미 만들었을 수 있습니다.


Caution – Caution –

파일 시스템을 만들면 디스크의 데이터가 모두 삭제됩니다. 정확한 디스크 장치 이름을 지정해야 합니다. 잘못된 장치 이름을 지정하면 삭제하지 말아야 할 데이터가 삭제됩니다.


시작하기 전에

다음 작업을 수행합니다.

단계
  1. 클러스터의 노드에서 수퍼유저가 됩니다.


    정보 –

    더 빨리 파일 시스템을 만들려면 파일 시스템을 만드는 현재 기본 전역 장치에서 수퍼유저가 됩니다.


  2. 파일 시스템을 만드십시오.

    • UFS 파일 시스템의 경우에는 newfs(1M) 명령을 사용합니다.


      # newfs raw-disk-device
      

      다음 표는 raw-disk-device 인자 이름의 예입니다. 이름 지정 규칙은 볼륨 관리자마다 다릅니다.

      볼륨 관리자 

      디스크 장치 이름 샘플 

      설명 

      Solstice DiskSuite 또는 Solaris 볼륨 관리자 

      /dev/md/nfs/rdsk/d1

      nfs 디스크 세트에 있는 원시 디스크 장치 d1

      SPARC: VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      oradg 디스크 그룹에 있는 원시 디스크 장치 vol01

      없음 

      /dev/global/rdsk/d1s3

      원시 디스크 장치 d1s3

    • Sun StorEdge QFS 파일 시스템에서는 Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide의 구성 정의 절차를 수행합니다.

    • SPARC: VERITAS File System(VxFS) 파일 시스템의 경우 VxFS 설명서에 있는 절차를 따르십시오.

  3. 클러스터의 각 노드에서 클러스터 파일 시스템에 대해 마운트 지점 디렉토리를 만듭니다.

    클러스터 파일 시스템이 액세스되지 않는 각 노드에도 마운트 지점이 필요합니다.


    정보 –

    손쉽게 관리하려면 /global/device-group/ 디렉토리에 마운트 포인트를 만듭니다. 이 위치를 사용하면 로컬 파일 시스템에서 전역으로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.



    # mkdir -p /global/device-group/mountpoint/
    
    device-group

    장치를 포함하는 장치 그룹의 이름에 해당하는 디렉토리 이름

    mountpoint

    클러스터 파일 시스템을 마운트할 디렉토리 이름

  4. 클러스터의 각 노드에서 /etc/vfstab 파일에 마운트 포인트에 대한 항목을 추가하십시오.

    자세한 내용은 vfstab(4) 설명서 페이지를 참조하십시오.

    1. 각 항목에서 사용하는 파일 시스템 유형에 대한 필수 마운트 옵션을 지정합니다.


      주 –

      Solstice DiskSuite 트랜잭션 메타 장치 또는 Solaris 볼륨 관리자 트랜잭션 볼륨에 대해서는 logging 마운트 옵션을 사용하지 마십시오. 트랜잭션 메타 장치 및 트랜잭션 볼륨은 자체 로깅을 제공합니다.

      또한, Solaris 볼륨 관리자 transactional-volume logging(이전의 Solstice DiskSuite trans-metadevice logging)은 앞으로 발표될 Solaris 릴리스부터는 Solaris OS에서 제거될 예정입니다. Solaris UFS logging은 시스템 관리 요구 사항과 오버헤드는 줄이면서 기능은 동일하지만 보다 우수한 성능을 제공합니다.


    2. 클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.

    3. 각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.

    4. 각 노드의 /etc/vfstab 파일에 있는 장치 항목 순서가 동일한지 확인하십시오.

    5. 파일 시스템의 부트 순서 종속성을 확인하십시오.

      예를 들어, phys-schost-1/global/oracle/의 디스크 장치 d0을 마운트하고 phys-schost-2/global/oracle/logs/의 디스크 장치 d1을 마운트한다고 가정합니다. 이러한 구성에서는 phys-schost-1이 부트되어 /global/oracle/을 마운트한 후에만 phys-schost-2가 부트되어 /global/oracle/logs/를 마운트할 수 있습니다.

  5. 클러스터에 포함된 임의의 노드에서 sccheck(1M) 유틸리티를 실행합니다.

    sccheck 유틸리티는 마운트 지점이 있는지 확인합니다. 또한 /etc/vfstab 파일 항목이 클러스터의 모든 노드에서 올바른지 확인합니다.


     # sccheck
    

    오류가 발생하지 않으면 아무 것도 반환되지 않습니다.

  6. 클러스터 파일 시스템을 마운트합니다.


    # mount /global/device-group/mountpoint/
    
    • UFS 및 QFS의 경우 클러스터의 노드에서 클러스터 파일 시스템을 마운트합니다.

    • SPARC: VxFS의 경우, device-group의 현재 마스터에서 클러스터 파일 시스템을 마운트하여 파일 시스템이 성공적으로 마운트되는지 확인합니다. 또한, VxFS 파일 시스템을 마운트 해제할 때도 현재 device-group의 마스터 노드에서 파일 시스템을 마운트 해제해야 성공적으로 마운트 해제됩니다.


      주 –

      Sun Cluster 환경에서 VxFS 클러스터 파일 시스템을 관리하려면 VxFS 클러스터 파일 시스템이 마운트되는 기본 노드에서만 관리 명령을 실행하십시오.


  7. 클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되는지 확인합니다.

    df(1M) 또는 mount(1M) 명령을 사용하면 마운트된 파일 시스템을 표시할 수 있습니다.


예 2–4 클러스터 파일 시스템 만들기

다음은 Solstice DiskSuite 메타 장치 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 만드는 예입니다.


# newfs /dev/md/oracle/rdsk/d1
…
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

다음 순서

Solaris 8 OS에서 Sun Cluster 소프트웨어를 설치했거나 SunPlex Installer을 사용하여 클러스터를 설치할 경우, Internet Protocol (IP) Network Multipathing 그룹을 구성하는 방법으로 이동합니다.

개인 호스트 이름을 변경하려면 개인 호스트 이름을 변경하는 방법으로 이동합니다.

Sun Cluster 소프트웨어를 설치하기 전에 사용자 고유의 /etc/inet/ntp.conf 파일을 설치하지 않은 경우 NTP 구성 파일을 설치하거나 만듭니다. NTP(Network Time Protocol)를 구성하는 방법으로 이동합니다.

SPARC: 클러스터를 모니터하도록 Sun Management Center를 구성하려면 SPARC: Sun Management Center용 Sun Cluster 모듈 설치로 이동합니다.

그렇지 않으면 타사 회사 응용 프로그램을 설치하고 자원 유형을 등록한 다음 자원 그룹을 설정하고 데이터 서비스를 구성합니다. Sun Cluster Data Services Planning and Administration Guide for Solaris OS 및 응용 프로그램 소프트웨어와 함께 제공된 설명서의 절차를 수행합니다.

ProcedureInternet Protocol (IP) Network Multipathing 그룹을 구성하는 방법

클러스터의 각 노드에서 이 작업을 수행하십시오. SunPlex Installer를 사용하여 Sun Cluster HA for Apache 또는 Sun Cluster HA for NFS를 설치한 경우 SunPlex Installer는 해당 데이터 서비스가 사용하는 공용 네트워크 어댑터에 대해 IP 네트워크 다중 경로 지정 그룹을 구성합니다. 나머지 공용 네트워크 어댑터에 대해 IP 네트워크 다중 경로 지정 그룹을 구성해야 합니다.


주 –

모든 공용 네트워크 어댑터가 IP 네트워크 다중 경로 지정 그룹에 반드시 포함되어야 합니다.


시작하기 전에

완성된 공용 네트워크 워크시트를 준비합니다.

단계

    IP 네트워크 다중 경로 지정 그룹을 구성합니다.

    • IP Network Multipathing Administration GuideDeploying Network Multipathing(Solaris 8), System Administration Guide: IP ServicesConfiguring Multipathing Interface Groups(Solaris 9) 또는 System Administration Guide: IP ServicesConfiguring IPMP Groups(Solaris 10)의 절차를 수행합니다.

    • 추가 요구 사항에 따라 Sun Cluster 구성에 IP 네트워크 다중 경로 지정 그룹을 구성하십시오.

      • 각 공용 네트워크 어댑터가 복수 경로 그룹에 포함되어야 합니다.

      • 다음과 같은 복수 경로 그룹에서는 그룹의 어댑터별로 테스트 IP 주소를 구성해야 합니다.

        • Solaris 8 OS에서는 모든 복수 경로 그룹에서 어댑터마다 테스트 IP 주소가 필요합니다.

        • Solaris 9 또는 Solaris 10 OS의 경우, 둘 이상의 어댑터가 포함된 복수 경로 그룹에서는 테스트 IP 주소가 필요합니다. 복수 경로 그룹에 하나의 어댑터만 포함된 경우 테스트 IP 주소를 구성하지 않아도 됩니다.

      • 동일한 다중 경로 그룹에 포함된 모든 어댑터의 테스트 IP 주소가 하나의 IP 서브넷에 속해야 합니다.

      • 테스트 IP 주소는 가용성이 높지 않기 때문에 일반 응용 프로그램에서 사용하면 안됩니다.

      • /etc/default/mpathd 파일에서 TRACK_INTERFACES_ONLY_WITH_GROUPS 값은 yes가 되어야 합니다.

      • Multipathing 그룹의 이름에는 요구 사항이나 제한 사항이 없습니다.

다음 순서

개인 호스트 이름을 변경하려면 개인 호스트 이름을 변경하는 방법으로 이동합니다.

Sun Cluster 소프트웨어를 설치하기 전에 사용자 고유의 /etc/inet/ntp.conf 파일을 설치하지 않은 경우 NTP 구성 파일을 설치하거나 만듭니다. NTP(Network Time Protocol)를 구성하는 방법으로 이동합니다.

SPARC 기반 시스템에서 Sun Cluster를 사용 중인 경우 Sun Management Center를 사용하여 클러스터를 모니터링하려면 Sun Management Center용 Sun Cluster 모듈을 설치합니다. SPARC: Sun Management Center용 Sun Cluster 모듈 설치로 이동합니다.

그렇지 않으면 타사 회사 응용 프로그램을 설치하고 자원 유형을 등록한 다음 자원 그룹을 설정하고 데이터 서비스를 구성합니다. Sun Cluster Data Services Planning and Administration Guide for Solaris OS 및 응용 프로그램 소프트웨어와 함께 제공된 설명서의 절차를 수행합니다.

Procedure개인 호스트 이름을 변경하는 방법

Sun Cluster 소프트웨어를 설치할 때 기본적으로 할당되는 개인 호스트 이름(clusternodenodeid-priv)을 사용하지 않으려면 이 작업을 수행합니다.


주 –

응용 프로그램과 데이터 서비스가 구성되어 시작된 후에는 이 절차를 수행하지 마십시오. 구성되어 시작된 후에 이 작업을 수행하면 개인 호스트 이름이 변경된 후에도 응용 프로그램이나 데이터 서비스가 이전의 개인 호스트 이름을 계속 사용하게 되어 호스트 이름 충돌이 발생할 수 있습니다. 실행하고 있는 응용 프로그램이나 데이터 서비스가 있으면 중지시킨 후에 이 절차를 수행하십시오.


클러스터의 한 활성 노드에 대해 이 절차를 수행합니다.

단계
  1. 클러스터의 노드에서 수퍼유저가 되십시오.

  2. scsetup(1M) 유틸리티를 시작합니다.


    # scsetup
    
  3. 주 메뉴에서 개인 호스트 이름 메뉴 항목을 선택합니다.

  4. 개인 호스트 이름 메뉴에서 개인 호스트 이름 변경 메뉴 항목을 선택합니다.

  5. 화면의 지시에 따라 개인 호스트 이름을 변경하십시오.

    변경할 각 개인 호스트 이름에 대하여 반복하십시오.

  6. 새 개인 호스트 이름을 확인합니다.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv
다음 순서

Sun Cluster 소프트웨어를 설치하기 전에 사용자 고유의 /etc/inet/ntp.conf 파일을 설치하지 않은 경우 NTP 구성 파일을 설치하거나 만듭니다. NTP(Network Time Protocol)를 구성하는 방법으로 이동합니다.

SPARC: 클러스터를 모니터하도록 Sun Management Center를 구성하려면 SPARC: Sun Management Center용 Sun Cluster 모듈 설치로 이동합니다.

그렇지 않으면 타사 회사 응용 프로그램을 설치하고 자원 유형을 등록한 다음 자원 그룹을 설정하고 데이터 서비스를 구성합니다. 응용 프로그램 소프트웨어와 함께 제공된 설명서 및 Sun Cluster Data Services Planning and Administration Guide for Solaris OS를 참조하십시오.

Procedure NTP(Network Time Protocol)를 구성하는 방법


주 –

Sun Cluster 소프트웨어를 설치하기 전에 자체적으로 /etc/inet/ntp.conf 파일을 설치한 경우에는 이 절차를 수행할 필요가 없습니다. 다음 단계 결정:


다음 작업을 수행한 다음에는 이 작업을 수행하여 NTP 구성 파일을 만들거나 수정합니다.

단일 노드 클러스터에 노드를 추가한 경우에는 사용한 NTP 구성 파일이 새 노드 및 기존 클러스터 노드에 복사되었는지 확인해야 합니다.

클러스터에서 NTP를 구성할 때나 동기화 기능을 수행할 때는 기본적으로 모든 클러스터 노드가 동일한 시간으로 동기화되어 있어야 합니다. 노드 사이의 시간 동기화 다음으로 중요한 요구 사항은 각 노드 시간의 정확성입니다. 동기화에 대한 이러한 기본 요구 사항이 충족되면 사용자가 필요한 대로 NTP를 구성할 수 있습니다.

클러스터 시간에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오. Sun Cluster 구성을 위해 NTP를 구성하는 방법은 /etc/inet/ntp.cluster 템플리트를 참조하십시오.

단계
  1. 클러스터 노드에서 수퍼유저가 됩니다.

  2. 자체 파일이 있으면 클러스터의 노드에 해당 파일을 복사합니다.

  3. 설치할 사용자 고유의 /etc/inet/ntp.conf 파일이 없는 경우 /etc/inet/ntp.conf.cluster 파일을 NTP 구성 파일로 사용합니다.


    주 –

    ntp.conf.cluster 파일의 이름을 ntp.conf로 변경하지 마십시오.


    이 노드에 /etc/inet/ntp.conf.cluster 파일이 없을 경우에는 이전에 설치한 Sun Cluster 소프트웨어의 /etc/inet/ntp.conf 파일을 사용할 수 있습니다. Sun Cluster 소프트웨어는 /etc/inet/ntp.conf 파일이 노드에 아직 없는 경우 /etc/inet/ntp.conf.cluster 파일을 NTP 구성 파일로 만듭니다. 그러면 해당 ntp.conf 파일을 다음과 같이 수정하십시오.

    1. 선호하는 텍스트 편집기를 사용하여 클러스터의 한 노드에서 편집할 /etc/inet/ntp.conf.cluster 파일을 엽니다.

    2. 각 클러스터 노드의 개인 호스트 이름에 대한 항목이 있는지 확인하십시오.

      노드의 개인 호스트 이름을 변경했으면 NTP 구성 파일에 새로운 개인 호스트 이름이 포함되어야 합니다.

    3. NTP 요구 사항을 충족시키기 위해 필요한 경우 다른 항목을 수정하십시오.

  4. NTP 구성 파일을 클러스터의 모든 노드에 복사하십시오.

    모든 클러스터 노드에서 NTP 구성 파일의 내용이 동일해야 합니다.

  5. 각 노드에서 NTP 데몬을 중지합니다.

    각 노드에서 명령이 성공적으로 완료된 후에 단계 6으로 진행합니다.

    • Solaris 8 또는 Solaris 9 OS의 경우, 다음 명령을 사용합니다.


      # /etc/init.d/xntpd stop
      
    • Solaris 10 OS의 경우, 다음 명령을 사용합니다.


      # svcadm disable ntp
      
  6. 각 노드에서 NTP 데몬을 다시 시작하십시오.

    • ntp.conf.cluster 파일을 사용할 경우, 다음 명령을 실행합니다.


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 시작 스크립트를 실행하면 먼저 /etc/inet/ntp.conf 파일을 찾습니다.

      • ntp.conf 파일이 있는 경우에는 NTP 데몬을 시작하지 않고 스크립트가 즉시 종료됩니다.

      • ntp.conf 파일은 없지만 ntp.conf.cluster 파일이 있는 경우 스크립트는 NTP 데몬을 시작합니다. 이 경우 스크립트는 ntp.conf.cluster 파일을 NTP 구성 파일로 사용합니다.

    • ntp.conf 파일을 사용할 경우, 다음 명령 중 하나를 실행합니다.

      • Solaris 8 또는 Solaris 9 OS의 경우, 다음 명령을 사용합니다.


        # /etc/init.d/xntpd start
        
      • Solaris 10 OS의 경우, 다음 명령을 사용합니다.


        # svcadm enable ntp
        
다음 순서

SPARC: 클러스터 모니터를 위해 Sun Management Center를 구성하려면 SPARC: Sun Management Center용 Sun Cluster 모듈 설치로 이동합니다.

그렇지 않으면, 타사 응용 프로그램을 설치하고 자원 유형을 등록한 다음 자원 그룹을 설정하고 데이터 서비스를 구성합니다. 응용 프로그램 소프트웨어와 함께 제공된 설명서 및 Sun Cluster Data Services Planning and Administration Guide for Solaris OS를 참조하십시오.

SPARC: Sun Management Center용 Sun Cluster 모듈 설치

이 절에서는 Sun Management Center에 대한 ProductName; 모듈용 소프트웨어 설치 정보 및 절차에 대해 설명합니다.

Sun Management Center용 Sun Cluster 모듈을 사용하여 Sun Management Center에서 클러스터를 모니터링할 수 있습니다. 다음 표는 Sun Management Center를 위해 Sun Cluster 모듈 소프트웨어를 설치하는 작업 목록입니다.

표 2–6 작업 맵: Sun Management Center용 Sun Cluster 모듈 설치

작업 

지침 

1. Sun Management Center 서버, 도움말 서버, 에이전트 및 콘솔 패키지를 설치합니다. 

Sun Management Center 설명서 

SPARC: Sun Cluster 모니터링을 위한 설치 요구 사항

2. Sun Cluster–모듈 패키지를 설치합니다. 

SPARC: Sun Management Center용 Sun Cluster 모듈을 설치하는 방법

3. Sun Management Center 서버, 콘솔 및 에이전트 프로세스를 시작합니다. 

SPARC: Sun Management Center를 시작하는 방법

4. 각 클러스터 노드를 Sun Management Center 에이전트 호스트 객체로 추가합니다. 

SPARC: 클러스터 노드를 Sun Management Center 에이전트 호스트 객체로 추가하는 방법

5. 클러스터 모니터를 시작하려면 Sun Cluster 모듈을 로드합니다. 

SPARC: Sun Cluster 모듈을 로드하는 방법

SPARC: Sun Cluster 모니터링을 위한 설치 요구 사항

Sun Management Center용 Sun Cluster 모듈은 Sun Cluster 구성을 모니터하는 데 사용됩니다. Sun Cluster 모듈 패키지를 설치하기 전에 다음 작업을 수행하십시오.

ProcedureSPARC: Sun Management Center용 Sun Cluster 모듈을 설치하는 방법

Sun Cluster 모듈 서버 및 도움말 서버 패키지를 설치하려면 이 절차를 수행하십시오.


주 –

Sun Cluster 모듈 에이전트 패키지(SUNWscsalSUNWscsam)는 Sun Cluster 소프트웨어를 설치할 때 클러스터 노드에 이미 추가되었습니다.


시작하기 전에

모든 Sun Management Center 주요 패키지가 해당 시스템에 설치되었는지 확인하십시오. 이 작업에서는 각 클러스터 노드에 Sun Management Center 에이전트 패키지를 설치합니다. 설치 방법은 Sun Management Center 문서를 참조하십시오.

단계
  1. 서버 시스템에서 Sun Cluster 모듈 서버 패키지 SUNWscssv를 설치하십시오.

    1. 수퍼유저가 되도록 합니다.

    2. SPARC 플랫폼용 Sun Cluster 2 of 2 CD-ROM를 CD-ROM 드라이브에 넣습니다.

      볼륨 관리 데몬 vold(1M)이 실행 중이고 CD-ROM 장치를 관리하도록 구성되었다면 이 데몬은 /cdrom/cdrom0/ 디렉토리에 CD-ROM을 자동으로 마운트합니다.

    3. Solaris_sparc/Product/sun_cluster/Solaris_ver/Packages/ 디렉토리로 변경합니다. 여기서 ver8(Solaris 8), 9(Solaris 9) 또는 10(Solaris 10)입니다.


      # cd /cdrom/cdrom0/Solaris_sparc/Product/sun_cluster/Solaris_ver/Packages/
      
    4. Sun Cluster 모듈 서버 패키지를 설치하십시오.


      # pkgadd -d . SUNWscssv
      
    5. CD-ROM에 상주하지 않는 디렉토리로 변경한 다음 CD-ROM을 꺼냅니다.


      # eject cdrom
      
  2. Sun Management Center 3.0 도움말 서버 시스템 또는 Sun Management Center 3.5 서버 시스템에서 Sun Cluster–모듈 도움말–서버 패키지 SUNWscshl을 설치합니다.

    이전 단계와 동일한 절차를 사용하십시오.

  3. Sun Cluster 모듈 패치가 있으면 설치하십시오.

    패치 위치 및 설치 지침은 Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트패치 및 필수 펌웨어 수준을 참조하십시오.

다음 순서

Sun Management Center를 시작하십시오. SPARC: Sun Management Center를 시작하는 방법으로 이동합니다.

ProcedureSPARC: Sun Management Center를 시작하는 방법

Sun Management Center 서버, 에이전트 및 콘솔 프로세스를 시작하려면 이 절차를 수행하십시오.

단계
  1. Sun Management Center 서버 시스템에서 수퍼유저 권한으로 Sun Management Center 서버 프로세스를 시작하십시오.

    install-dir은 Sun Management Center 소프트웨어를 설치한 디렉토리입니다. 기본 디렉토리는 /opt입니다.


    # /install-dir/SUNWsymon/sbin/es-start -S
    
  2. Sun Management Center 에이전트 시스템(클러스터 노드)에서 수퍼유저 권한으로 Sun Management Center 에이전트 프로세스를 시작하십시오.


    # /install-dir/SUNWsymon/sbin/es-start -a
    
  3. Sun Management Center 에이전트 시스템(클러스터 노드)에서 scsymon_srv 데몬이 실행되는지 확인하십시오.


    # ps -ef | grep scsymon_srv
    

    scsymon_srv 데몬을 실행하지 않는 클러스터 노드가 있으면 해당 노드에서 데몬을 시작하십시오.


    # /usr/cluster/lib/scsymon/scsymon_srv
    
  4. Sun Management Center 콘솔 시스템(관리 콘솔)에서 수퍼유저 권한으로 Sun Management Center 콘솔을 시작하십시오.

    콘솔 프로세스를 시작하기 위해 수퍼유저가 될 필요는 없습니다.


    % /install-dir/SUNWsymon/sbin/es-start -c
    
다음 순서

클러스터 노드를 모니터된 호스트 객체로 추가합니다. SPARC: 클러스터 노드를 Sun Management Center 에이전트 호스트 객체로 추가하는 방법으로 이동합니다.

ProcedureSPARC: 클러스터 노드를 Sun Management Center 에이전트 호스트 객체로 추가하는 방법

클러스터 노드에 대한 Sun Management Center 에이전트 호스트 객체를 만들려면 이 절차를 수행하십시오.

단계
  1. Sun Management Center에 로그인합니다.

    Sun Management Center 설명서를 참조하십시오.

  2. Sun Management Center 기본 창에 있는 Sun Management Center Administrative Domains 풀다운 목록에서 도메인을 선택하십시오.

    만드는 Sun Management Center 에이전트 호스트 객체가 이 도메인에 포함됩니다. Sun Management Center 소프트웨어를 설치할 때 자동으로 기본 도메인이 만들어졌습니다. 이 도메인을 사용하거나 다른 기존 도메인을 선택할 수도 있고 새 도메인을 만들 수도 있습니다.

    Sun Management Center 도메인을 만드는 방법은 Sun Management Center 문서를 참조하십시오.

  3. 풀다운 메뉴에서 편집⇒객체 만들기를 선택합니다.

  4. 노드 탭을 누릅니다.

  5. 모니터 경로 풀다운 목록에서 Sun Management Center Agent - Host를 선택합니다.

  6. Node Label and Hostname 텍스트 필드에 클러스터 노드의 이름(예: phys-schost-1)을 입력하십시오.

    IP 텍스트 필드는 비워 두십시오. Description 필드는 옵션입니다.

  7. Port 텍스트 필드에 Sun Management Center 에이전트 시스템을 설치할 때 선택한 포트 번호를 입력하십시오.

  8. 확인을 클릭합니다.

    도메인에 Sun Management Center 에이전트 호스트 객체가 만들어집니다.

다음 순서

Sun Cluster 모듈을 로드하십시오. SPARC: Sun Cluster 모듈을 로드하는 방법으로 이동합니다.

일반 오류

클러스터 노드 호스트 객체 하나만 있으면 전체 클러스터를 위한 Sun Cluster 모듈 모니터링 및 구성 기능을 사용할 수 있습니다. 그러나 이 클러스터 노드를 사용할 수 없게 되면 해당 호스트 객체를 통한 클러스터 연결도 사용할 수 없게 됩니다. 그러면 클러스터에 다시 연결하기 위해 다른 클러스터 노드 호스트 객체가 필요합니다.

ProcedureSPARC: Sun Cluster 모듈을 로드하는 방법

클러스터 모니터링을 시작하려면 이 절차를 수행하십시오.

단계
  1. Sun Management Center 주 창에서 클러스터 노드 아이콘을 마우스 오른쪽 버튼으로 누릅니다.

    풀다운 메뉴가 표시됩니다.

  2. 모듈 로드를 선택합니다.

    사용할 수 있는 Sun Management Center 모듈 목록과 모듈의 현재 로드 상태가 Load Module 창에 표시됩니다.

  3. Sun Cluster:로드되지 않음을 선택한 다음 확인을 누릅니다.

    현재 선택된 모듈에 대한 매개 변수 정보가 Module Loader 창에 표시됩니다.

  4. 확인을 클릭합니다.

    몇 분 후에 모듈이 로드됩니다. 그런 다음 Details 창에 Sun Cluster 아이콘이 표시됩니다.

  5. Sun Cluster 모듈이 로드되었는지 확인합니다.

    운영 체제 범주에서 다음 중 한 가지 방법으로 Sun Cluster 하위 트리를 확장합니다.

    • 창의 왼쪽에 있는 트리 계층에서 Sun Cluster 모듈 아이콘에 커서를 대고 마우스 왼쪽 버튼을 한 번 클릭하십시오.

    • 창의 오른쪽에 있는 토폴로지 보기에서 Sun Cluster 모듈 아이콘에 커서를 대고 마우스 왼쪽 버튼을 두 번 클릭하십시오.

참조

Sun Cluster 모듈 기능 사용 방법에 대한 자세한 내용은 Sun Cluster 모듈 온라인 도움말을 참조하십시오.


주 –

Sun Management Center 브라우저에서 Help 버튼을 누르면 Sun Cluster 모듈의 해당 항목이 아니라 Sun Management Center에 대한 온라인 도움말에 액세스됩니다.


Sun Management Center를 사용하는 방법은 Sun Management Center 온라인 도움말과 Sun Management Center 문서를 참조하십시오.

다음 순서

타사 응용 프로그램을 설치하고, 자원 유형을 등록하고, 자원 그룹을 설정하고, 데이터 서비스를 구성합니다. 응용 프로그램 소프트웨어와 함께 제공된 설명서 및 Sun Cluster Data Services Planning and Administration Guide for Solaris OS를 참조하십시오.

소프트웨어 제거

이 절에서는 Sun Cluster 소프트웨어 제거를 위한 다음 절차를 설명합니다.

ProcedureSun Cluster 소프트웨어를 제거하여 설치 문제를 해결하는 방법

설치한 노드에 클러스터를 연결할 수 없거나 구성 정보를 수정해야 하는 경우 이 절차를 수행합니다. 예를 들어, 이 절차를 수행하여 전송 어댑터 또는 개인 네트워크 주소를 재구성합니다.


주 –

쿼럼 구성 및 설치 모드 확인 방법단계 2에서 설명한 대로 노드가 이미 클러스터에 포함되었고 더 이상 설치 모드가 아니면 이 절차를 수행하지 마십시오. 대신 Solaris OS용 Sun Cluster 시스템 관리 안내서클러스터 노드 추가 및 제거 중 “클러스터 노드에서 Sun Cluster 소프트웨어를 설치 제거하는 방법”으로 이동합니다.


시작하기 전에

노드를 다시 설치해 보십시오. 노드에서 Sun Cluster 소프트웨어 설치를 반복하여 설치 실패를 해결할 수 있습니다.

단계
  1. 클러스터의 노드 인증 목록에 설치 제거하려는 노드를 추가합니다.

    단일 노드 클러스터를 설치 제거 중인 경우에는 단계 2로 건너뜁니다.

    1. 설치 제거할 노드 이외의 활성 클러스터 구성원에서 수퍼유저가 되십시오.

    2. 인증 목록에 추가할 노드 이름을 지정합니다.


      # /usr/cluster/bin/scconf -a -T node=nodename
      
      -a

      추가

      -T

      인증 옵션을 지정합니다

      node=nodename

      인증 목록에 추가할 노드 이름을 지정합니다

      scsetup(1M) 유틸리티를 사용하여 이 작업을 수행할 수도 있습니다. Solaris OS용 Sun Cluster 시스템 관리 안내서권한이 부여된 노드 목록에 노드를 추가하는 방법 절차를 참조하십시오.

  2. 제거할 노드에서 수퍼유저가 되십시오.

  3. 제거할 노드를 종료합니다.


    # shutdown -g0 -y -i0
    
  4. 노드를 비클러스터 모드로 재부트하십시오.

    • SPARC 기반 시스템에서는 다음을 수행합니다.


      ok boot -x
      
    • x86 기반 시스템에서는 다음을 수행합니다.


                          <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
      Boot args:
      
      Type   b [file-name] [boot-flags] <ENTER>  to boot with options
      or     i <ENTER>                           to enter boot interpreter
      or     <ENTER>                             to boot with defaults
      
                       <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      
  5. Sun Cluster 패키지에 제공되는 파일이 들어 있지 않은 디렉토리(예: 루트(/) 디렉토리)로 변경합니다.


    # cd /
    
  6. Sun Cluster 소프트웨어를 노드에서 제거합니다.


    # /usr/cluster/bin/scinstall -r
    

    자세한 내용은 scinstall(1M) 설명서 페이지를 참조하십시오.

  7. Sun Cluster 소프트웨어를 노드에 다시 설치하고 구성합니다.

    설치 작업 목록 및 작업 수행 순서는 표 2–1을 참조하십시오.

ProcedureSUNWscrdt 패키지 제거 방법

클러스터의 각 노드에서 이 절차를 수행하십시오.

시작하기 전에

이 절차를 수행하기 전에 RSMRDT 드라이버를 사용 중인 응용 프로그램이 없는지 확인합니다.

단계
  1. SUNWscrdt 패키지를 설치 제거할 노드에서 수퍼유저가 됩니다.

  2. SUNWscrdt 패키지를 제거합니다.


    # pkgrm SUNWscrdt
    

ProcedureRSMRDT 드라이버를 수동으로 언로드하는 방법

SUNWscrdt 패키지 제거 방법을 마친 후 드라이버가 메모리에 로드된 상태이면 이 절차를 수행하여 드라이버를 수동으로 언로드합니다.

단계
  1. adb 유틸리티를 시작합니다.


    # adb -kw
    
  2. 커널 변수 clifrsmrdt_modunload_ok1로 설정합니다.


    physmem NNNN 
    clifrsmrdt_modunload_ok/W 1
    
  3. Control-D를 눌러 adb 유틸리티를 종료합니다.

  4. clif_rsmrdtrsmrdt 모듈 ID를 찾습니다.


    # modinfo | grep rdt
    
  5. clif_rsmrdt 모듈을 언로드합니다.

    rsmrdt 모듈을 언로드하기 전에 clif_rsmrdt 모듈을 언로드해야 합니다.


    # modunload -i clif_rsmrdt_id
    
    clif_rsmrdt_id

    언로드되는 모듈의 숫자 아이디를 지정합니다.

  6. rsmrdt 모듈을 언로드합니다.


    # modunload -i rsmrdt_id
    
    rsmrdt_id

    언로드되는 모듈의 숫자 아이디를 지정합니다.

  7. 모듈이 성공적으로 언로드되었는지 확인합니다.


    # modinfo | grep rdt
    

예 2–5 RSMRDT 드라이버 언로드

다음 예는 RSMRDT 드라이버를 수동으로 언로드한 후의 콘솔 출력입니다.


# adb -kw
physmem fc54
clifrsmrdt_modunload_ok/W 1
clifrsmrdt_modunload_ok: 0x0 = 0x1
^D
# modinfo | grep rsm
 88 f064a5cb 974 - 1 rsmops (RSMOPS module 1.1)
 93 f08e07d4 b95 - 1 clif_rsmrdt (CLUSTER-RSMRDT Interface module)
 94 f0d3d000 13db0 194 1 rsmrdt (Reliable Datagram Transport dri)
# modunload -i 93
# modunload -i 94
# modinfo | grep rsm
 88 f064a5cb 974 - 1 rsmops (RSMOPS module 1.1)
#

일반 오류

modunload 명령이 실패하는 경우 응용 프로그램이 드라이버를 사용 중일 수 있습니다. modunload를 다시 실행하기 전에 응용 프로그램을 종료합니다.