Sun Custer 3.0 5/02 추가 정보

4장 설치

이 단원에서는 Sun Cluster 3.0 5/02 업데이트 릴리스에 새로 추가된 설치 정보에 대하여 설명합니다. 이 내용은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 대한 추가 정보입니다. 데이터 서비스 설치에 대한 새로운 내용은 제 5 장을 참조하십시오.

이 단원에서 설명하는 새로운 정보는 다음과 같은 내용입니다.

Solaris 운영 환경 계획

다음 내용은 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.

시스템 디스크 파티션(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

Solaris 9의 경우에는 Solaris Volume Manager 소프트웨어에서 사용할 수 있도록 디스크 끝에 있는 슬라이스(슬라이스 7)에 볼륨 관리자용 공간 20MB 파티션을 만드십시오.

글로벌 장치 및 클러스터 파일 시스템 계획

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.

클러스터 파일 시스템에 대한 마운트 정보(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

Solstice DiskSuite 소프트웨어에 대한 참고 사항(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 수정되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

소프트웨어 설치

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.

관리 콘솔에 CCP(Cluster Control Panel) 소프트웨어를 설치하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

CD-ROM 경로 - 설명에 나오는 모든 CD-ROM 경로를 /cdrom/suncluster_3_0_u3로 변경합니다. 이 변경 사항은 Solaris 8 및 Solaris 9 Sun Cluster 3.0 5/02 CD-ROM에 모두 적용됩니다.

Solaris 소프트웨어를 설치하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

scinstall(1M)의 사용자 정의 JumpStartTM 설치 방법을 사용하여 소프트웨어를 설치하는 경우가 아니면 이 작업을 수행하여 클러스터의 각 노드에 Solaris 운영 환경을 설치하십시오.


주 -

노드에 이미 Solaris 운영 환경이 설치되어 있어도 이 절차에서 설명하는 대로 Solaris 소프트웨어를 다시 설치해야 Sun Cluster 소프트웨어를 성공적으로 설치할 수 있습니다.


  1. Solaris 소프트웨어를 설치하기 전에 하드웨어 설치가 완료되고 제대로 연결되었는지 확인하십시오.

    자세한 내용은 Sun Cluster 3.0 12/01 Hardware Guide와 서버 및 기억 장치 문서를 참조하십시오.

  2. 클러스터 구성 계획이 완료되었는지 확인하십시오.

    요구 사항과 방법은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "클러스터 소프트웨어 설치를 준비하는 방법"을 참조하십시오.

  3. Sun Cluster 3.0 릴리스 정보에서 완성된 "로컬 파일 시스템 레이아웃 워크시트"를 준비하십시오.

  4. 이름 지정 서비스를 사용하고 있습니까?

    • 아니면 단계 5로 이동하십시오. 로컬 호스트 이름 정보는 단계 16에서 설정합니다.

    • 그러면 클러스터 서비스에 액세스하기 위해 클라이언트에서 사용하는 이름 지정 서비스(예: NIS, NIS 또는 DNS)에 모든 공용 호스트 이름과 논리 주소에 대한 주소 대 이름 매핑을 추가하십시오. 계획 방법은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "IP 주소"를 참조하십시오. Solaris 이름 지정 서비스 사용에 대한 내용은 Solaris 시스템 관리 문서를 참조하십시오.

  5. 클러스터 관리 콘솔을 사용할 경우에는 클러스터의 각 노드에 대한 콘솔 화면을 표시하십시오.

    관리 콘솔에 CCP(Cluster Control Panel)가 설치되고 구성되어 있으면 cconsole(1M) 유틸리티를 사용하여 각 콘솔 화면을 표시할 수 있습니다. 또한 CCP에서는 마스터 창을 열어 입력한 내용을 모든 개별 콘솔 창으로 동시에 전송할 수 있습니다.

    CCP를 사용하지 않을 경우에는 각 노드의 콘솔에 개별적으로 연결하십시오.


    정보 -

    각 노드에서 동시에 Solaris 운영 환경을 설치하는 방법으로 시간을 절약할 수 있습니다.


  6. 클러스터의 각 노드에서 local-mac-address 변수가 정확하게 false로 설정되었는지 확인하십시오.

    Sun Cluster 소프트웨어를 사용할 경우에는 local-mac-address 변수를 true로 설정할 수 없습니다.

    1. local-mac-address 변수의 값을 표시하십시오.

      • 노드에 이미 Solaris 소프트웨어가 설치되어 있으면 수퍼유저 권한으로 다음 명령을 실행하십시오.


         # /usr/sbin/eeprom local-mac-address?
        

      • 노드에 아직 Solaris 소프트웨어가 설치되지 않았으면 ok 프롬프트에서 다음 명령을 실행하십시오.


        ok printenv local-mac-address?
        

    2. 명령을 실행할 때 각 노드에서 local-mac-address?=false 설정이 반환됩니까?

      • 그러면 변수가 정확하게 설정된 것입니다. 단계 7로 이동하십시오.

      • 아니면 false로 설정되지 않은 노드에서 변수 설정을 변경하십시오.

        • 노드에 이미 Solaris 소프트웨어가 설치되어 있으면 수퍼유저 권한으로 다음 명령을 실행하십시오.


           # /usr/sbin/eeprom local-mac-address?=false
          

        • 노드에 아직 Solaris 소프트웨어가 설치되지 않았으면 ok 프롬프트에서 다음 명령을 실행하십시오.


          ok setenv local-mac-address? false
          

    3. 단계 a을 반복하여 단계 b에서 변경한 사항을 확인하십시오.

      다음에 시스템을 다시 부트하면 새로운 설정이 적용됩니다.

  7. Solaris 설치 설명서의 지시에 따라 Solaris 운영 환경을 설치하십시오.


    주 -

    클러스터의 모든 노드에 동일한 Solaris 운영 환경 버전을 설치해야 합니다.


    Solaris 운영 환경을 설치할 때 일반적으로 사용하는 방법을 사용하여 클러스터 환경에 설치할 새 노드에 소프트웨어를 설치할 수 있습니다. 이러한 일반적인 방법에는 Solaris 대화식 설치 프로그램, Solaris JumpStart, Solaris Web Start 등이 있습니다.

    Solaris 소프트웨어를 설치할 때 다음 작업을 수행하십시오.

    1. 최소 요구 사항으로 End User System Support 소프트웨어 그룹을 설치해야 합니다.

      • RSMAPI(Remote Shared Memory Application Programming Interface)를 사용하려고 하거나 상호 연결 전송을 위해 PCI-SCI 어댑터를 사용하려는 경우에 필요한 RSMAPI 소프트웨어 패키지(SUNWrsm, SUNWrsmx, SUNWrsmoSUNWrsmox)는 높은 레벨의 소프트웨어 그룹에 포함됩니다. End User System Support 소프트웨어 그룹을 설치할 경우에는 단계 12에서 Solaris CD-ROM을 사용하여 직접 SUNWrsm* 패키지를 설치해야 합니다.

      • SunPlex Manager를 사용하려는 경우에 필요한 Apache 소프트웨어 패키지(SUNWapchrSUNWapchu)는 높은 레벨의 소프트웨어 그룹에 포함되어 있습니다. End User System Support 소프트웨어 그룹을 설치할 경우에는 단계 13에서 Solaris CD-ROM을 사용하여 직접 SUNWapch* 패키지를 설치해야 합니다.

      Solaris 소프트웨어의 추가 요구 사항은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "Solaris 소프트웨어 그룹 참고 사항"을 참조하십시오.

    2. Manual Layout을 선택하여 파일 시스템을 설정하십시오.

      • global-devices 하위 시스템에 사용할 100MB 이상의 파일 시스템을 만드십시오. SunPlex Manager를 사용하여 Sun Cluster 소프트웨어를 설치할 경우에는 마운트 포인트 /globaldevices를 사용하여 파일 시스템을 만들어야 합니다. 이 마운트 포인트가 scinstall에서 사용하는 기본값입니다.


        주 -

        Sun Cluster 소프트웨어를 성공적으로 설치하려면 global-devices 파일 시스템이 필요합니다.


      • SunPlex Manager를 사용하여 Solstice DiskSuite 소프트웨어를 설치하거나(Solaris 8), Solaris Volume Manager 소프트웨어를 구성하거나(Solaris 9), Sun Cluster 소프트웨어에 추가로 NFS용 Sun Cluster HA 또는 Apache용 Sun Cluster HA를 설치하려면 슬라이스 7에 마운트 포인트 /sds를 사용하여 파일 시스템을 만드십시오. Solstice DiskSuite의 경우에는 10MB 이상의 슬라이스를 만드십시오. Solaris Volume Manager의 경우에는 20MB 이상의 슬라이스를 만드십시오. 아니면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "시스템 디스크 파티션" 단락의 설명에 따라 볼륨 관리자 소프트웨어를 지원하기 위해 필요한 파일 시스템 파티션을 만드십시오.

    3. 자동으로 다시 부트하도록 선택하십시오.


      주 -

      Solaris 소프트웨어가 설치되고 노드가 다시 부트된 후에 프롬프트가 표시됩니다.


    4. 관리를 쉽게 하려면 각 노드에서 동일한 루트 암호를 설정하십시오.

    5. 자동 절전 종료 기능을 사용할 것인지 묻는 메시지가 나오면 no로 답하십시오.

      Sun Cluster 구성에서는 자동 종료 기능을 사용하면 안됩니다. 자세한 내용은 pmconfig(1M) 및 power.conf(4) 설명서 페이지를 참조하십시오.


    주 -

    기본적으로 Solaris 소프트웨어를 설치하는 동안에는 Solaris 인터페이스 그룹 기능을 사용할 수 없습니다. Sun Cluster 구성에서는 인터페이스 그룹이 지원되지 않기 때문에 활성화하면 안됩니다. Solaris 인터페이스 그룹에 대한 자세한 내용은 ifconfig(1M) 설명서 페이지를 참조하십시오.


  8. 기존 클러스터에 새 노드를 설치하십니까?

    • 그러면 단계 9로 이동하십시오.

    • 아니면 단계 12로 이동하십시오.

  9. 새 노드를 클러스터의 인증된 노드 목록에 추가했습니까?

    • 그러면 단계 10으로 이동하십시오.

    • 아니면 작동하는 다른 클러스터 노드에서 scsetup(1M) 명령을 실행하여 인증된 클러스터 노드 목록에 새 노드의 이름을 추가하십시오. 자세한 절차는 Sun Cluster 3.0 12/01 시스템 관리 안내서에 있는 "인증된 노드 목록에 클러스터 노드를 추가하는 방법"을 참조하십시오.

  10. 새 노드에서 클러스터의 각 파일 시스템에 대한 마운트 포인트를 만드십시오.

    1. 클러스터에서 작동하는 다른 노드에서 모든 클러스터 파일 시스템의 이름을 표시하십시오.


      % mount | grep global | egrep -v node@ | awk `{print $1}'
      

    2. 새 노드에서 클러스터의 각 파일 시스템에 대한 마운트 포인트를 만드십시오.


      % mkdir -p mountpoint
      

      예를 들어, mount 명령에서 파일 시스템 이름 /global/dg-schost-1이 반환되었으면 클러스터에 추가하려는 새 노드에서 mkdir -p /global/dg-schost-1 명령을 실행하십시오.

  11. 클러스터에 있는 노드 중에 VxVM(VERITAS Volume Manager)이 설치된 노드가 있습니까?

    • 그러면 VxVM이 설치된 노드에서 동일한 vxio 번호를 사용하고 VxVM이 설치되지 않은 각 노드에서 사용할 vxio 번호가 있어야 합니다.


      # grep vxio /etc/name_to_major
      vxio NNN
      

      VXVM이 설치되지 않은 노드에서 이미 vxio 번호를 사용하고 있으면 다른 번호를 사용하도록 /etc/name_to_major 항목을 변경하여 해당 노드의 번호를 비우십시오.

    • 아니면 단계 12로 이동하십시오.

  12. RSMAPI(Remote Shared Memory Application Programming Interface)를 사용하려고 하거나 상호 연결 전송을 위해 PCI-SCI 어댑터를 사용하십니까?

    • 그런 경우에 End User System Support 소프트웨어 그룹을 설치했으면 Solaris CD-ROM에서 SUNWrsm* 패키지를 설치하십시오.


      # pkgadd -d . SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox
      

    • 그렇지 않거나 높은 레벨의 소프트웨어 그룹을 설치했으면 단계 13으로 이동하십시오.

  13. SunPlex Manager를 사용하시겠습니까?

    • 그런 경우에 End User System Support 소프트웨어 그룹을 설치했으면 Solaris CD-ROM에서 SUNWapch* 패키지를 설치하십시오.


      # pkgadd -d . SUNWapchr SUNWapchu
      

    • 그렇지 않거나 높은 레벨의 소프트웨어 그룹을 설치했으면 단계 14로 이동하십시오.

    SunPlex Manager를 설치하려면 먼저 Apache 소프트웨어 패키지가 설치되어 있어야 합니다.

  14. Solaris 소프트웨어 패치가 있으면 설치하십시오.

    패치 위치와 설치 방법은 Sun Cluster 3.0 5/02 릴리스 정보를 참조하십시오. 필요하면 /etc/release 파일에서 노드에 설치된 Solaris 소프트웨어의 정확한 버전을 확인하십시오.

  15. 하드웨어 관련 패치가 있으면 설치하고 하드웨어 패치에 필요한 펌웨어가 포함되어 있으면 다운로드하십시오.

    패치 위치와 설치 방법은 Sun Cluster 3.0 5/02 릴리스 정보를 참조하십시오.

  16. 클러스터에서 사용하는 모든 공용 호스트 이름과 논리 주소로 각 노드의 /etc/inet/hosts 파일을 업데이트하십시오.

    이름 지정 서비스 사용 여부와 관계 없이 이 단계를 수행하십시오.

  17. 동적 재구성을 사용하시겠습니까?


    주 -

    클러스터 구성에서 동적 재구성을 사용하려면 Sun Cluster 소프트웨어에서 동적 재구성을 사용할 수 있도록 서버에서 지원해야 합니다.


    • 그러면 각 노드에서 /etc/system 파일에 다음 항목을 추가하십시오.


      set kernel_cage_enable=1

      다음에 시스템을 다시 부트하면 이 항목이 적용됩니다. Sun Cluster 구성에서 동적 재구성 작업을 수행하는 절차는 Sun Cluster 3.0 12/01 시스템 관리 안내서를 참조하십시오. 동적 재구성에 대한 자세한 내용은 서버 문서를 참조하십시오.

    • 아니면 단계 18로 이동하십시오.

  18. 클러스터 노드에 Sun Cluster 소프트웨어를 설치하십시오.

첫 번째 클러스터 노드에 Sun Cluster 소프트웨어를 설치하는 방법(scinstall) (5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

단계 1 다음 단계 - 단계 1 다음에 새로운 단계 2로 다음 단계를 수행하십시오. 원래 단계 2가 단계 3이 됩니다.

    SunPlex Manager를 사용하시겠습니까?

    • 그러면 노드에 Apache 소프트웨어 패키지를 설치해야 합니다. Solaris End User System Support 소프트웨어 그룹을 설치했으면 Solaris CD-ROM에서 SUNWapch* 패키지를 설치하십시오.


      # pkgadd -d . SUNWapchr SUNWapchu
      

      높은 레벨의 Solaris 소프트웨어 그룹을 설치했으면 Apache 소프트웨어 패키지가 자동으로 설치됩니다.

    • 아니면 단계 3으로 이동하십시오.

다른 추가 클러스터 노드에 Sun Cluster 소프트웨어를 설치하는 방법(scinstall) (5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

단계 2 다음 단계 - 단계 2 다음에 새로운 단계 3으로 다음 단계를 수행하십시오. 원래 단계 3이 단계 4가 됩니다.

    SunPlex Manager를 사용하시겠습니까?

    • 그러면 노드에 Apache 소프트웨어 패키지를 설치해야 합니다. Solaris End User System Support 소프트웨어 그룹을 설치했으면 Solaris CD-ROM에서 SUNWapch* 패키지를 설치하십시오.


      # pkgadd -d . SUNWapchr SUNWapchu
      

      높은 레벨의 Solaris 소프트웨어 그룹을 설치했으면 Apache 소프트웨어 패키지가 자동으로 설치됩니다.

    • 아니면 단계 4로 이동하십시오.

SunPlex Manager를 사용하여 Sun Cluster 소프트웨어 설치하기(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

Solaris Volume Manager - Solaris 9의 경우에는 Solaris 소프트웨어를 설치할 때 Solaris Volume Manager 소프트웨어가 이미 설치되었습니다. SunPlex Manager를 사용하면 메타 세트 및 연결된 메타 장치를 세 개까지 구성하고 각각에 대한 클러스터 파일 시스템을 만들어 마운트할 수 있습니다.

SunPlex Manager를 사용하여 Sun Cluster HA for NFS 데이터 서비스나 Sun Cluster HA for Apache 확장 가능 데이터 서비스를 설치하려면 SunPlex Manager를 사용하여 Solaris Volume Manager 미러 디스크 세트도 구성해야 합니다.

SunPlex Manager가 Solaris Volume Manager를 지원하려면 /sds 파티션이 20MB 이상이어야 합니다.

메타 세트 이름 - SunPlex Manager가 만드는 메타 세트 이름 세 개 중 두 개의 이름이 변경되었습니다.

다음 표는 노드에 연결된 공유 디스크 수에 따라 SunPlex Manager에서 만드는 클러스터 파일 시스템 마운트 포인트와 각 메타 세트 이름 목록입니다.

표 4-1 SunPlex Manager에 의해 설치되는 메타 세트

공유 디스크 

메타 세트 이름 

클러스터 파일 시스템 마운트 포인트 

목적 

첫 번째 공유 디스크 쌍 

mirror-1

/global/mirror-1

Sun Cluster HA for NFS나 Sun Cluster HA for Apache 확장 가능 데이터 서비스 또는 두 가지 모두 

두 번째 공유 디스크 쌍 

mirror-2

/global/mirror-2

사용하지 않음 

세 번째 공유 디스크 쌍 

mirror-3

/global/mirror-3

사용하지 않음 

SunPlex Manager 소프트웨어를 설치하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

단계 3 - Solaris 9 Software CD-ROM에서 Apache 소프트웨어 패키지를 설치하려면 /cdrom/cdrom0/Solaris_9/Product 디렉토리로 이동하십시오.

Solaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart) (5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

이 절차에서는 scinstall(1M) 사용자 정의 JumpStart 설치 방법을 설정하고 사용하는 방법을 설명합니다. 이 방법을 사용하면 한 번의 작업으로 모든 클러스터 노드에 Solaris 및 Sun Cluster 소프트웨어를 설치하고 클러스터를 구성합니다. 이 절차를 사용하여 기존 클러스터에 새 노드를 추가할 수도 있습니다.

  1. Solaris 소프트웨어를 설치하기 전에 하드웨어 설치가 완료되고 제대로 연결되었는지 확인하십시오.

    자세한 하드웨어 설정 방법은 Sun Cluster 3.0 12/01 Hardware Guide와 서버 및 기억 장치 문서를 참조하십시오.

  2. 클러스터 구성 계획이 완료되었는지 확인하십시오.

    요구 사항과 방법은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "클러스터 소프트웨어를 설치하기 위한 준비 방법"을 참조하십시오.

  3. 다음 정보를 준비하십시오.

    • 각 클러스터 노드의 이더넷 주소

    • 다음과 같이 Sun Cluster 3.0 5/02 릴리스 정보에 있는 완성된 구성 계획 워크시트.

      • "로컬 파일 시스템 레이아웃 워크시트"

      • "클러스터 및 노드 이름 워크시트"

      • "클러스터 상호 연결 워크시트"

    계획 방법은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "Solaris 운영 환경 계획" 및 "Sun Cluster 환경 계획"을 참조하십시오.

  4. 이름 지정 서비스를 사용하고 있습니까?

    • 아니면 단계 5로 이동하십시오. 단계 31에서 필요한 호스트 이름 정보를 설정하게 됩니다.

    • 그러면 클러스터 서비스에 액세스하기 위해 클라이언트에서 사용하는 이름 지정 서비스(예: NIS, NIS+ 또는 DNS)에 모든 공용 호스트 이름과 논리 주소에 대한 주소 대 이름 매핑과 JumpStart 서버의 IP 주소 및 호스트 이름을 추가하십시오. 계획 방법은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "IP 주소"를 참조하십시오. Solaris 이름 지정 서비스 사용에 대한 내용은 Solaris 시스템 관리 문서를 참조하십시오.

  5. 기존 클러스터에 새 노드를 설치하십니까?

    • 그러면 작동하는 다른 클러스터 노드에서 scsetup(1M) 명령을 실행하여 인증된 클러스터 노드 목록에 새 노드의 이름을 추가하십시오. 자세한 절차는 Sun Cluster 3.0 12/01 시스템 관리 안내서에 있는 "인증된 노드 목록에 클러스터 노드를 추가하는 방법"을 참조하십시오.

    • 아니면 단계 6으로 이동하십시오.

  6. 수퍼유저 권한으로 Solaris 운영 환경 설치에 필요한 JumpStart 설치 서버를 설정하십시오.

    JumpStart 설치 서버를 설정하는 방법은 setup_install_server(1M) 및 add_install_client(1M) 설명서 페이지와 Solaris Advanced Installation Guide를 참조하십시오.

    설치 서버를 설정할 때 다음 요구 사항이 충족되었는지 확인하십시오.

    • 설치 서버가 클러스터 노드와 동일한 서브넷에 있지만 설치 서버 자체가 클러스터 노드는 아닙니다.

    • 설치 서버가 Sun Cluster 소프트웨어에 필요한 Solaris 운영 환경 릴리스를 설치해야 합니다.

    • JumpStart를 사용하여 Sun Cluster를 설치할 수 있도록 사용자 정의 JumpStart 디렉토리가 있어야 합니다. jumpstart-dir 디렉토리에는 check(1M) 유틸리티의 사본이 포함되어 있어야 하고 이 디렉토리를 JumpStart 설치 서버가 읽을 수 있도록 NFS로 내보내야 합니다.

    • 새 클러스터 노드 각각이 사용자 정의 JumpStart 설치 클라이언트로 구성되어 Sun Cluster 설치를 위해 설정된 사용자 정의 JumpStart 디렉토리를 사용합니다.

  7. JumpStart 설치 서버에 Sun Cluster 3.0 5/02 CD-ROM 사본이 있는 디렉토리가 없으면 만드십시오.

    다음 예에서 /export/suncluster 디렉토리는 이러한 목적을 위해 만드는 디렉토리입니다.


    # mkdir -m 755 /export/suncluster
    

  8. Sun Cluster CD-ROM을 JumpStart 설치 서버에 복사하십시오.

    1. Sun Cluster 3.0 5/02 CD-ROM을 JumpStart 설치 서버의 CD-ROM 드라이브에 넣으십시오.

      볼륨 관리 데몬 vold(1M)가 실행되고 CD-ROM 장치를 관리하도록 구성되어 있으면 이 데몬이 자동으로 CD-ROM을 /cdrom/suncluster_3_0_u3 디렉토리에 마운트합니다.

    2. /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools 디렉토리로 이동하십시오.


      # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
      

    3. CD-ROM을 JumpStart 설치 서버의 새 디렉토리에 복사하십시오.

      scinstall 명령을 실행하면 CD-ROM 파일을 복사할 때 설치 디렉토리를 새로 만듭니다. 이 예에서는 /export/suncluster/sc30을 설치 디렉토리 이름으로 사용합니다.


      # ./scinstall -a /export/suncluster/sc30
      

    4. CD-ROM을 빼십시오.


      # cd /
      # eject cdrom
      

    5. JumpStart 설치 서버에서 읽을 수 있도록 JumpStart 설치 서버의 Sun Cluster 3.0 5/02 CD-ROM 이미지가 NFS로 내보내졌는지 확인하십시오.

      자동 파일 공유에 대한 자세한 내용은 NFS Administration Guideshare(1M) 및 dfstab(4) 설명서 페이지를 참조하십시오.

  9. 기존 클러스터에 새 노드를 설치하십니까?

    • 그러면 단계 10으로 이동하십시오.

    • 아니면 단계 11로 이동하십시오.

  10. 노드를 클러스터의 인증된 노드 목록에 추가했습니까?

    • 그러면 단계 11로 이동하십시오.

    • 아니면 기존 클러스터 노드에서 scsetup(1M) 명령을 실행하여 인증된 클러스터 노드 목록에 새 노드의 이름을 추가하십시오. 자세한 절차는 Sun Cluster 3.0 12/01 시스템 관리 안내서에 있는 "인증된 노드 목록에 클러스터 노드를 추가하는 방법"을 참조하십시오.

  11. JumpStart 설치 서버에서 scinstall(1M) 유틸리티를 시작하십시오.

    이 예에서는 앞에서 만든 /export/suncluster/sc30을 설치 디렉토리로 사용합니다.


    # cd /export/suncluster/sc30/SunCluster_3.0/Tools
    # ./scinstall
    

    이 설명에 따라 대화식 scinstall 유틸리티를 사용하십시오.

    • 대화식 scinstall 유틸리티에서는 사용자가 먼저 입력할 수 있습니다. 따라서 바로 다음 메뉴 화면이 나타나지 않을 경우에 Return 키를 두 번 이상 누르지 마십시오.

    • 다른 지시가 없을 경우에는 Control-D를 눌러 관련 질문의 시작 부분이나 Main Menu로 돌아갈 수 있습니다. Sun Cluster 소프트웨어가 설치된 후에 Control-D를 눌러 세션을 중단하지 않으면 scinstall 유틸리티가 해당 패키지 설치를 취소할 것인지 묻는 메시지를 표시합니다.

    • 세션에서 응답한 결과는 저장되었다가 다음에 이 메뉴 옵션을 실행할 때 기본값으로 사용됩니다. 기본 응답이 프롬프트 끝에 각괄호([ ])로 표시됩니다.

  12. Main Menu에서 3(이 설치 서버에서 JumpStart할 클러스터 구성)을 입력하십시오.

    이 옵션은 사용자 정의 JumpStart 완료 옵션을 구성하는 데 사용됩니다. JumpStart는 이 완료 스크립트를 사용하여 Sun Cluster 소프트웨어를 설치합니다.


     *** Main Menu ***
     
        Please select from one of the following (*) options:
     
            1) Establish a new cluster using this machine as the first node
            2) Add this machine as a node in an established cluster
          * 3) Configure a cluster to be JumpStarted from this install server
            4) Add support for new data services to this cluster node
            5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
     
        Option:  3
     
     *** Custom JumpStart ***
    ...
        Do you want to continue (yes/no) [yes]? 


    주 -

    옵션 3 앞에 별표가 없으면 JumpStart 설정이 완료되지 않았거나 오류가 발생하여 옵션을 사용할 수 없는 것입니다. scinstall 유틸리티를 종료하고 단계 6부터 단계 8까지 반복하여 JumpStart 설정을 수정한 다음 scinstall 유틸리티를 다시 시작하십시오.


  13. JumpStart 디렉토리 이름을 지정하십시오.


    >>> Custom JumpStart Directory <<<
    ....
        What is your JumpStart directory name?  jumpstart-dir
    

  14. 클러스터의 이름을 지정하십시오.


    >>> Cluster Name <<<
    ...
        What is the name of the cluster you want to establish?  clustername
    

  15. 클러스터 노드의 이름을 지정하십시오.


    >>> Cluster Nodes <<<
    ...
        Please list the names of all cluster nodes planned for the initial
        cluster configuration. You must enter at least two nodes. List one
        node name per line. When finished, type Control-D:
     
        Node name:  node1
        Node name:  node2
        Node name (Ctrl-D to finish): <Control-D>
     
        This is the complete list of nodes:
    ... 
        Is it correct (yes/no) [yes]? 

  16. DES(Data Encryption Standard) 인증을 사용할 것인지 지정하십시오.

    기본적으로 Sun Cluster 소프트웨어에서는 노드가 개별 상호 연결에 물리적으로 연결되고 단계 15에서 노드 이름이 지정된 경우에만 노드가 클러스터에 연결할 수 있습니다. 그러나 개별 상호 연결이 아직 완전하게 구성되지 않았기 때문에 실제로는 노드가 공용 네트워크를 통해 스폰서 노드와 통신을 합니다. DES 인증은 클러스터 구성을 위해 스폰서 노드에 연결하는 노드를 스폰서 노드가 더욱 안정적으로 인증할 수 있도록 하여 설치할 때 높은 수준의 보안을 제공합니다.

    추가 보안을 위해 DES 인증을 사용하도록 선택하는 경우에는 노드가 클러스터에 결합되기 전에 필요한 모든 암호화 키를 구성해야 합니다. 자세한 내용은 keyserv(1M) 및 publickey(4) 설명서 페이지를 참조하십시오.


    >>> Authenticating Requests to Add Nodes <<<
    ...
        Do you need to use DES authentication (yes/no) [no]? 

  17. 개인용 네트워크 주소와 네트마스크를 지정하십시오.


    >>> Network Address for the Cluster Transport <<<
    ...
        Is it okay to accept the default network address (yes/no) [yes]? 
        Is it okay to accept the default netmask (yes/no) [yes]? 


    주 -

    클러스터가 구성된 후에는 개인용 네트워크 주소를 변경할 수 없습니다.


  18. 클러스터에서 전송 연결 장치를 사용할 것인지 지정하십시오.

    • 2-노드 클러스터인 경우에는 전송 연결 장치를 사용할 것인지 지정하십시오.


      >>> Point-to-Point Cables <<<
       ...
          Does this two-node cluster use transport junctions (yes/no) [yes]? 


      정보 -

      노드가 서로 직접 연결되는지 여부와 관계 없이 클러스터에서 전송 연결 장치를 사용하도록 지정할 수 있습니다. 클러스터가 전송 연결 장치를 사용하도록 지정하면 나중에 더 쉽게 새 노드를 클러스터에 추가할 수 있습니다.


    • 클러스터에 노드가 3개 이상이면 전송 연결 장치를 사용해야 합니다. Return 키를 눌러 다음 화면으로 진행하십시오.


      >>> Point-to-Point Cables <<<
       ...
          Since this is not a two-node cluster, you will be asked to configure
          two transport junctions.
          
      Hit ENTER to continue: 

  19. 클러스터에서 전송 연결 장치를 사용합니까?

    • 그러면 전송 연결 장치의 이름을 지정하십시오. 기본 이름 switchN을 사용할 수도 있고 원하는 이름을 만들 수도 있습니다.


      >>> Cluster Transport Junctions <<<
       ...
          What is the name of the first junction in the cluster [switch1]? 
          What is the name of the second junction in the cluster [switch2]? 

    • 아니면 단계 20으로 이동하십시오.

  20. 첫 번째 노드의 첫 번째 클러스터 상호 연결 전송 어댑터를 지정하십시오.


    >>> Cluster Transport Adapters and Cables <<<
    ...
     For node "node1",
        What is the name of the first cluster transport adapter?  adapter
    

  21. 첫 번째 어댑터의 연결 종단점을 지정하십시오.

    • 클러스터에서 전송 연결 장치를 사용하지 않으면 이 어댑터가 연결되는 두 번째 노드의 어댑터 이름을 지정하십시오.


      ...
          Name of adapter on "node2" to which "adapter" is connected? adapter
      

    • 클러스터에서 전송 연결 장치를 사용할 경우에는 첫 번째 전송 연결 장치의 이름과 포트를 지정하십시오.


      ...
       For node "node1",
          Name of the junction to which "adapter" is connected? switch
      ...
       For node "node1",
          Use the default port name for the "adapter" connection (yes/no) [yes]? 


      주 -

      구성에서 SCI 어댑터를 사용하는 경우에는 어댑터 연결(포트 이름)을 묻는 화면에서 기본값을 그대로 사용하지 마십시오. 기본 이름 대신 노드가 물리적으로 연결된 돌핀 스위치에서 포트 이름(0, 1, 2 또는 3)을 찾아 입력하십시오. 다음은 메시지가 나왔을 때 기본 포트 이름 대신 돌핀 스위치 포트 이름 0을 지정하는 예입니다.


      ...
          Use the default port name for the "adapter" connection (yes/no) [yes]?  no
          What is the name of the port you want to use?  0
      


  22. 첫 번째 노드의 두 번째 클러스터 상호 연결 전송 어댑터를 지정하십시오.


    ...
     For node "node1",
        What is the name of the second cluster transport adapter?  adapter
    

  23. 두 번째 어댑터의 연결 종단점을 지정하십시오.

    • 클러스터에서 전송 연결 장치를 사용하지 않으면 이 어댑터가 연결되는 두 번째 노드의 어댑터 이름을 지정하십시오.


      ...
          Name of adapter on "node2" to which "adapter" is connected? adapter
      

    • 클러스터에서 전송 연결 장치를 사용할 경우에는 두 번째 전송 연결 장치의 이름과 포트를 지정하십시오.


      ...
       For node "node1",
          Name of the junction to which "adapter" is connected? switch
      ...
       For node "node1",
          Use the default port name for the "adapter" connection (yes/no) [yes]? 


      주 -

      구성에서 SCI 어댑터를 사용하는 경우에는 어댑터 연결(포트 이름)을 묻는 화면에서 기본값을 그대로 사용하지 마십시오. 기본 이름 대신 노드가 물리적으로 연결된 돌핀 스위치에서 포트 이름(0, 1, 2 또는 3)을 찾아 입력하십시오. 다음은 메시지가 나왔을 때 기본 포트 이름을 취소하고 돌핀 스위치 포트 이름 0을 지정하는 예입니다.


      ...
          Use the default port name for the "adapter" connection (yes/no) [yes]?  no
          What is the name of the port you want to use?  0
      


  24. 클러스터에서 전송 연결 장치를 사용합니까?

    • 그러면 추가 클러스터 노드 각각에 대하여 단계 20부터 단계 23까지 반복하십시오.

    • 아니면 단계 25로 이동하십시오.

  25. 각 클러스터 노드의 글로벌 장치 파일 시스템 이름을 지정하십시오.


    >>> Global Devices File System <<<
    ...
        The default is to use /globaldevices.
     
     For node "node1",
        Is it okay to use this default (yes/no) [yes]? 
     
     For node "node2",
        Is it okay to use this default (yes/no) [yes]? 

  26. 생성되는 scinstall 명령을 실행하거나 취소하십시오.

    입력한 후에 scinstall 명령이 표시되고 실행할 것인지 묻는 메시지가 나옵니다.


    >>> Confirmation <<<
     
        Your responses indicate the following options to scinstall:
    -----------------------------------------
     For node "node1",
          scinstall -c jumpstart-dir -h node1  \
    ...
        Are these the options you want to use (yes/no) [yes]? 
    -----------------------------------------
     For node "node2",
          scinstall -c jumpstart-dir -h node2  \
    ...
        Are these the options you want to use (yes/no) [yes]? 
    -----------------------------------------
        Do you want to continue with JumpStart set up (yes/no) [yes]? 

    생성되는 명령을 실행하지 않도록 취소하면 scinstall 유틸리티가 Main Menu로 돌아갑니다. 그러면 메뉴 옵션 3을 다시 실행하고 다른 응답을 입력할 수 있습니다. 이전 응답이 기본값으로 표시됩니다.

  27. 필요하면 scinstall 명령에 의해 생성되는 class 파일이나 프로파일을 조정하십시오.

    scinstall 명령을 실행하면 jumpstart-dir/autoscinstall.d/3.0 디렉토리에 다음과 같은 autoscinstall.class 기본 class 파일을 만듭니다.


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750 swap
    filesys         rootdisk.s3 100  /globaldevices
    filesys         rootdisk.s7 10
    cluster         SUNWCuser       add
    package         SUNWman         add

    기본 class 파일은 Solaris 소프트웨어의 End User System Support 소프트웨어 그룹(SUNWCuser)을 설치합니다. 구성에 Solaris 소프트웨어에 대한 추가 요구 사항이 있으면 요구 사항에 맞게 class 파일을 변경하십시오. 자세한 내용은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "Solaris 소프트웨어 그룹 참고 사항"을 참조하십시오.

    다음 중 한 가지 방법으로 프로파일을 변경할 수 있습니다.

    • autoscinstall.class 파일을 직접 편집합니다. 이 변경 사항은 이 사용자 정의 JumpStart 디렉토리를 사용하는 모든 클러스터의 모든 노드에 적용됩니다.

    • 다른 프로파일을 나타내도록 rules 파일을 업데이트한 다음 check 유틸리티를 실행하여 rules 파일을 유효화합니다.

    Solaris 운영 환경 설치 프로파일이 Sun Cluster 파일 시스템의 최소 할당 요구 사항을 충족시키기만 하면 다른 제한 없이 설치 프로파일을 변경할 수 있습니다. Sun Cluster 3.0 소프트웨어를 지원하기 위한 파티션 분할 방법과 요구 사항은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "시스템 디스크 파티션"을 참조하십시오. JumpStart 프로파일에 대한 자세한 내용은 Solaris 8 Advanced Installation Guide 또는 Solaris 9 Advanced Installation Guide를 참조하십시오.

  28. RSMAPI(Remote Shared Memory Application Programming Interface)를 사용하려고 하거나 상호 연결 전송을 위해 PCI-SCI 어댑터를 사용하십니까?

    • 그런 경우에 End User System Support 소프트웨어 그룹을 설치했으면 단계 27의 설명에 따라 다음 항목을 기본 class 파일에 추가하십시오.


      package         SUNWrsm         add
      package         SUNWrsmx        add
      package         SUNWrsmo        add
      package         SUNWrsmox       add

      또한 RSMAPI 및 PCI-SCI 어댑터를 지원하기 위해 Sun Cluster 패키지를 설치하려면 단계 33에서 설치 후 완료 스크립트를 만들거나 수정해야 합니다.

      End User System Support보다 상위 소프트웨어 그룹을 설치하면 Solaris 소프트웨어에서 SUNWrsm* 패키지가 설치되기 때문에 class 파일에 이 패키지를 추가할 필요가 없습니다.

    • 아니면 단계 29로 이동하십시오.

  29. SunPlex Manager를 사용하시겠습니까?

    • 그런 경우에 End User System Support 소프트웨어 그룹을 설치했으면 단계 27의 설명에 따라 다음 항목을 기본 class 파일에 추가하십시오.


      package         SUNWapchr       add
      package         SUNWapchu       add

      End User System Support보다 상위 소프트웨어 그룹을 설치하면 Solaris 소프트웨어에서 SUNWrsm* 패키지가 설치되기 때문에 class 파일에 이 패키지를 추가할 필요가 없습니다.

    • 아니면 단계 30으로 이동하십시오.

  30. Solaris 패치 디렉토리를 설정하십시오.

    1. JumpStart 설치 서버에 jumpstart-dir/autoscinstall.d/nodes/node/patches 디렉토리를 만드십시오.

      클러스터의 각 노드에 대하여 디렉토리를 하나씩 만드십시오. 여기서 node는 클러스터 노드의 이름입니다. 대신 이 이름 지정 규칙을 사용하여 공유 패치 디렉토리에 대한 기호 링크를 만들 수도 있습니다.


      # mkdir jumpstart-dir/autoscinstall.d/nodes/node/patches
      

    2. 만든 각 디렉토리에 Solaris 패치 사본을 복사하십시오.

      또한 Solaris 소프트웨어가 설치된 후에 설치해야 하는 하드웨어 관련 패치 사본도 각 디렉토리에 넣으십시오.

  31. 필요한 호스트 이름 정보를 각 노드에 로컬로 저장하기 위한 파일을 설정하십시오.

    1. JumpStart 설치 서버에서 jumpstart-dir/autoscinstall.d/nodes/node/archive/etc/inet/hosts라는 파일을 만드십시오.

      각 노드에 대하여 파일을 하나씩 만드십시오. 여기서 node는 클러스터 노드의 이름입니다. 대신 이름 지정 규칙을 사용하여 공유 hosts 파일에 대한 기호 링크를 만들 수도 있습니다.

    2. 각 파일에 다음 항목을 추가하십시오.

      • Sun Cluster CD-ROM 이미지가 있는 NFS 서버의 IP 주소와 호스트 이름. 이것은 JumpStart 설치 서버가 될 수도 있고 다른 시스템이 될 수도 있습니다.

      • 각 클러스터 노드의 IP 주소 및 호스트 이름.

  32. RSMAPI(Remote Shared Memory Application Programming Interface)를 사용하려고 하거나 상호 연결 전송을 위해 PCI-SCI 어댑터를 사용하십니까?

    • 그러면 단계 33의 설명에 따라 다음 추가 패키지를 설치하기 위한 설치 후 완료 스크립트를 설정하십시오. 다음 표에 있는 순서대로 Sun Cluster 3.0 5/02 CD-ROM의 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages 디렉토리에서 필요한 패키지를 설치하십시오.

      표 4-2 RSMAPI 및 PCI-SCI 어댑터를 지원하기 위해 필요한 Sun Cluster 3.0 패키지

      기능 

      추가로 설치할 Sun Cluster 3.0 패키지  

      RSMAPI 

      SUNWscrif

      PCI-SCI 어댑터 

      SUNWsci SUNWscid SUNWscidx

    • 그렇지 않고 사용자의 설치 후 완료 스크립트를 추가하려면 단계 33으로 이동하십시오. 아니면 단계 34로 이동하십시오.

  33. (옵션) 사용자 자신의 설치 후 완료 스크립트를 추가하십시오.


    주 -

    RSMAPI(Remote Shared Memory Application Programming Interface)를 사용하려고 하거나 상호 연결 전송을 위해 PCI-SCI 어댑터를 사용하는 경우에는 Sun Cluster SUNWscrif 소프트웨어 패키지를 설치하도록 완료 스크립트를 수정해야 합니다. 이 패키지는 scinstall에 의해 자동으로 설치되지 않습니다.


    scinstall 명령에 의해 설치되는 표준 완료 스크립트 다음에 실행되도록 사용자의 완료 스크립트를 추가할 수 있습니다. JumpStart 완료 스크립트를 만드는 방법은 Solaris 8 Advanced Installation Guide 또는 Solaris 9 Advanced Installation Guide를 참조하십시오.

    1. 완료 스크립트 이름을 finish로 지정하십시오.

    2. 클러스터의 각 노드에 대하여 jumpstart-dir/autoscinstall.d/nodes/node 디렉토리에 완료 스크립트를 복사하십시오.

      대신 이 이름 지정 규칙을 사용하여 공유 완료 스크립트에 대한 기호 링크를 만들 수도 있습니다.

  34. 관리 콘솔을 사용하면 클러스터의 각 노드에 대한 콘솔 화면을 표시하십시오.

    cconsole(1M)이 관리 콘솔에 설치되고 구성되었으면 이것을 사용하여 개별 콘솔 화면을 표시할 수 있습니다. 그렇지 않으면 개별적으로 각 노드의 콘솔에 연결해야 합니다.

  35. 각 노드 콘솔의 ok PROM 프롬프트에서 boot net - install 명령을 입력하여 각 노드에 대한 네트워크 JumpStart 설치를 시작하십시오.


    ok boot net - install
    


    주 -

    이 명령에서 대시(-) 앞뒤에 공백이 있어야 합니다.


    Sun Cluster를 설치할 때 화면에 출력되는 내용은 /var/cluster/logs/install/scinstall.log.pid 파일에 기록됩니다. 여기서 pidscinstall 인스턴스의 프로세스 ID 번호입니다.


    주 -

    사용자가 /etc/inet/ntp.conf 파일을 설치하지 않았으면 scinstall 명령이 기본 ntp.conf 파일을 설치합니다. 기본 파일은 8개 노드를 기준으로 설정되어 있기 때문에 부트할 때 xntpd(1M) 데몬이 이 기준 중 일부와 관련된 오류 메시지를 표시할 수도 있습니다. 이 메시지는 무시해도 됩니다. 정상적인 다른 클러스터 조건에서 이 메시지가 나타나지 않도록 하는 방법은 "NTP(Network Time Protocol)를 업데이트하는 방법(5/02)"을 참조하십시오.


    설치가 성공적으로 완료되면 각 노드가 새 클러스터 노드로 완전히 설치됩니다.


    주 -

    기본적으로 Solaris 소프트웨어를 설치하는 동안에는 Solaris 인터페이스 그룹 기능을 사용할 수 없습니다. Sun Cluster 구성에서는 인터페이스 그룹이 지원되지 않기 때문에 사용하면 안됩니다. Solaris 인터페이스 그룹에 대한 자세한 내용은 ifconfig(1M) 설명서 페이지를 참조하십시오.


  36. 기존 클러스터에 새 노드를 설치하십니까?

    • 아니면 단계 37로 이동하십시오.

    • 그러면 새 노드에서 모든 기존 클러스터 파일 시스템에 대한 마운트 포인트를 만드십시오.

    1. 클러스터에서 작동하는 다른 노드에서 모든 클러스터 파일 시스템의 이름을 표시하십시오.


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      

    2. 클러스터에 추가하는 노드에서 클러스터의 각 파일 시스템에 대한 마운트 포인트를 만드십시오.


      % mkdir -p mountpoint
      

      예를 들어, mount 명령에서 반환되는 파일 시스템 이름이 /global/dg-schost-1이면 클러스터에 추가되는 노드에서 mkdir -p /global/dg-schost-1 명령을 실행하십시오.


      주 -

      단계 39에서 클러스터를 다시 부트하고 나면 마운트 포인트가 작동합니다.


    3. 클러스터에 있는 노드 중에 VxVM(VERITAS Volume Manager)이 설치된 노드가 있습니까?

      • 그러면 VxVM이 설치된 노드에서 동일한 vxio 번호를 사용하고 VxVM이 설치되지 않은 각 노드에서 사용할 vxio 번호가 있어야 합니다.


        # grep vxio /etc/name_to_major
        vxio NNN
        

        VXVM이 설치되지 않은 노드에서 이미 vxio 번호를 사용하고 있으면 다른 번호를 사용하도록 /etc/name_to_major 항목을 변경하여 해당 노드의 번호를 비우십시오.

      • 아니면 단계 37로 이동하십시오.

  37. Sun Cluster 소프트웨어 패치가 있으면 설치하십시오.

    패치 위치와 설치 방법은 Sun Cluster 3.0 5/02 릴리스 정보를 참조하십시오.

  38. 동적 재구성을 사용하시겠습니까?


    주 -

    클러스터 구성에서 동적 재구성을 사용하려면 Sun Cluster 소프트웨어에서 동적 재구성을 사용할 수 있도록 서버에서 지원해야 합니다.


    • 그러면 각 노드에서 /etc/system 파일에 다음 항목을 추가하십시오.


      set kernel_cage_enable=1

      다음에 시스템을 다시 부트하면 이 항목이 적용됩니다. Sun Cluster 구성에서 동적 재구성 작업을 수행하는 절차는 Sun Cluster 3.0 12/01 시스템 관리 안내서를 참조하십시오. 동적 재구성에 대한 자세한 내용은 서버 문서를 참조하십시오.

    • 아니면 단계 39로 이동하십시오.

  39. 기존 클러스터에 새 노드를 추가했거나 전체 클러스터를 다시 부트해야 하는 Sun Cluster 소프트웨어 패치를 설치했거나 아니면 두 가지 작업을 모두 했습니까?

    • 그렇지 않은 경우에 설치한 패치를 위해 노드를 다시 부트해야 하거나 다른 변경 사항을 적용하기 위해 다시 부트해야 하면 각 노드를 다시 부트하십시오.

    • 그러면 다음 단계의 설명에 따라 재구성을 위해 다시 부트하십시오.

    1. 하나의 노드에서 클러스터를 종료하십시오.


      # scshutdown
      


      주 -

      클러스터가 종료될 때까지 첫 번째로 설치된 클러스터 노드를 다시 부트하지 마십시오.


    2. 클러스터의 각 노드를 다시 부트하십시오.


      ok boot
      

    클러스터 설치 모드가 비활성화되기 전에는 클러스터를 구성한 첫 번째 설치 노드만 정족수 투표를 갖습니다. 구성된 클러스터가 설치 모드 상태일 때, 첫 번째 설치된 노드가 다시 부트되기 전에 클러스터가 종료되지 않으면 남은 클러스터 노드가 정족수를 받을 수 없기 때문에 전체 클러스터가 종료됩니다. 클러스터 노드는 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "설치 후 설정을 수행하는 방법"의 절차에서 처음으로 scsetup(1M) 명령을 실행할 때까지 설치 모드 상태를 유지합니다.

  40. 이름 서비스 검색 순서를 구성하십시오.

    Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "이름 서비스 스위치를 구성하는 방법"으로 이동하십시오.

루트 환경을 설정하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

VERITAS Volume Manager의 경우에는 다음 경로가 포함되도록 MANPATH 변수를 설정하십시오.

Sun Cluster 소프트웨어를 제거하여 설치 문제를 해결하는 방법(5/02)

다음과 같은 기능이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 추가되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

설치된 노드를 클러스터에 연결할 수 없거나 전송 어댑터와 같은 구성 정보를 수정해야 할 경우에 이 절차를 수행하십시오.


주 -

노드가 이미 클러스터에 연결되어 더 이상 설치 모드 상태가 아닌 경우에는(Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "설치 후 설정을 수행하는 방법"의 단계 11 참조) 이 절차를 수행하지 마십시오. 대신 "클러스터 노드에서 Sun Cluster 소프트웨어를 제거하는 방법(5/02)"으로 이동하십시오.


  1. 노드를 다시 설치해 보십시오.

    일부 설치 실패 문제는 노드에 Sun Cluster 소프트웨어를 다시 설치하면 간단하게 해결할 수 있습니다. 노드에 다시 설치한 후에도 실패하면 단계 2로 이동하여 Sun Cluster 소프트웨어를 노드에서 제거하십시오.

  2. 제거할 노드 이외의 작동 클러스터 구성원에서 수퍼유저가 되십시오.

  3. 작동하는 클러스터 구성원에서 제거할 노드를 클러스터의 노드 인증 목록에 추가하십시오.


    # /usr/cluster/bin/scconf -a -T node=nodename
    

    -a

    추가합니다

    -T

    인증 옵션을 지정합니다

    node=nodename

    인증 목록에 추가할 노드 이름을 지정합니다

    아니면 scsetup(1M) 유틸리티를 사용할 수 있습니다. 자세한 절차는 Sun Cluster 3.0 12/01 시스템 관리 안내서에 있는 "인증된 노드 목록에 클러스터 노드를 추가하는 방법"을 참조하십시오.

  4. 설치 제거할 노드에서 수퍼유저가 되십시오.

  5. 비클러스터 모드로 노드를 다시 부트하십시오.


    # shutdown -g0 -y -i0
    ok boot -x
    

  6. 노드를 제거하십시오.


    # cd /
    # /usr/cluster/bin/scinstall -r
    

    자세한 내용은 scinstall(1M) 설명서 페이지를 참조하십시오.

  7. Sun Cluster 소프트웨어를 노드에 다시 설치하십시오.

    모든 설치 작업과 순서 목록은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 표 2-1을 참조하십시오.

클러스터 구성

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.

클러스터 파일 시스템을 추가하는 방법(5/02)

단계 2, 단계 4단계 8이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 다음과 같이 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

추가하는 각 클러스터 파일 시스템에 대해 이 절차를 수행하십시오.


Caution - Caution -

파일 시스템을 만들면 디스크의 데이터가 모두 삭제됩니다. 정확한 디스크 장치 이름을 지정해야 합니다. 잘못된 장치 이름을 지정하면 지우려고 하지 않은 데이터가 삭제됩니다.


SunPlex Manager를 사용하여 데이터 서비스를 설치한 경우에 클러스터 파일 시스템을 만들 충분한 공유 디스크가 있었으면 이미 하나 이상의 클러스터 파일 시스템이 있습니다.

  1. 볼륨 관리자 소프트웨어를 설치하고 구성해야 합니다.

    볼륨 관리자 설치 절차는 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성"을 참조하십시오.

  2. VxFS(VERITAS File System) 소프트웨어를 설치하시겠습니까?

    • 아니면 단계 3으로 이동하십시오.

    • 그러면 다음 단계를 수행하십시오.

    1. VxFS 설치 문서의 절차에 따라 클러스터의 각 노드에 VxFS 소프트웨어를 설치하십시오.

    2. 각 노드의 /etc/system 파일에서 다음 항목에 대한 설정 값을 0x4000에서 0x6000으로 변경하십시오.


      set rpcmod:svc_default_stksize=0x6000

      Sun Cluster 소프트웨어를 실행하려면 기본 스택 크기를 0x6000 이상으로 설정해야 합니다. VxFS를 설치하면 이 설정이 0x4000으로 변경되기 때문에 VxFS를 설치한 후에 다시 0x6000으로 직접 변경해야 합니다.

  3. 클러스터의 노드에서 수퍼유저가 되십시오.


    정보 -

    더 빠르게 파일 시스템을 만들려면 파일 시스템을 만들 대상 글로벌 장치의 현재 1차 노드에서 수퍼유저가 되십시오.


  4. 파일 시스템을 만드십시오.

    • VxFS 파일 시스템의 경우에는 VxFS 문서에 있는 절차를 참조하십시오.

    • UFS 파일 시스템의 경우에는 newfs(1M) 명령을 사용하십시오.


      # newfs raw-disk-device
      

    다음 표는 raw-disk-device 인수에 사용되는 이름의 예입니다. 이름 지정 규약은 볼륨 관리자마다 다릅니다.

    표 4-3 원시 디스크 장치 이름의 예

    볼륨 관리자 

    디스크 장치 이름의 예 

    설명 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 디스크 세트에 있는 원시 디스크 장치 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 디스크 그룹에 있는 원시 디스크 장치 vol01

    없음 

    /dev/global/rdsk/d1s3

    원시 디스크 장치 d1s3

  5. 클러스터의 각 노드에서 클러스터 파일 시스템에 대한 마운트 포인트 디렉토리를 만드십시오.

    클러스터 파일 시스템이 액세스되지 않는 각 노드에도 마운트 포인트가 필요합니다.


    정보 -

    관리 작업을 쉽게 하려면 /global/device-group 디렉토리에 마운트 포인트를 만드십시오. 이 위치를 사용하면 로컬 파일 시스템에서 글로벌로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    장치를 포함하는 장치 그룹의 이름에 해당하는 디렉토리 이름

    mountpoint

    클러스터 파일 시스템을 마운트할 디렉토리의 이름

  6. 클러스터의 각 노드에서 /etc/vfstab 파일에 마운트 포인트에 대한 항목을 추가하십시오.

    1. 다음과 같은 필수 마운트 옵션을 사용하십시오.

      모든 클러스터 파일 시스템에 로그 기록이 필요합니다.

      • Solaris UFS 로그 기록 - global,logging 마운트 옵션을 사용합니다. UFS 마운트 옵션에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.


        주 -

        UFS 클러스터 파일 시스템에는 syncdir 마운트 옵션을 지정할 필요가 없습니다. syncdir 옵션을 지정하면 파일 시스템이 write() 시스템 호출에 대하여 POSIX와 호환되도록 작동합니다. 즉 write() 명령이 성공하면 디스크에 공간이 있는 것으로 판단할 수 있습니다. syncdir 옵션을 지정하지 않으면 UFS 파일 시스템에서 보는 것처럼 작동합니다. syncdir 옵션을 지정하지 않으면 데이터를 파일에 추가하는 경우처럼 디스크 블록을 할당하는 쓰기 성능이 크게 향상됩니다. 그러나 syncdir 옵션을 지정하지 않으면 파일을 닫을 때까지 공간 부족 상태(ENOSPC)를 발견하지 못할 수 있습니다. 페일오버 이후에 아주 짧은 시간 동안에만 파일을 닫을 때 ENOSPC 상태를 볼 수 있습니다. syncdir(및 POSIX 호환 작동)을 사용하면 파일을 닫기 전에 공간 부족 상태가 발견됩니다.


      • Solstice DiskSuite 트랜스 메타 장치 - logging 마운트 옵션을 사용하지 않고 global 마운트 옵션을 사용합니다. 트랜스 메타 장치 설정 방법은 Solstice DiskSuite 문서를 참조하십시오.

      • VxFS 로그 기록 - global, log 마운트 옵션을 사용합니다. VxFS 마운트 옵션에 대한 자세한 내용은 mount_vxfs(1M) 설명서 페이지를 참조하십시오.

    2. 클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.

    3. 각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.

    4. 각 노드의 /etc/vfstab 파일에 있는 장치 항목 순서가 동일한지 확인하십시오.

    5. 파일 시스템의 부트 순서 의존성을 확인하십시오.

      예를 들어, phys-schost-1/global/oracle의 디스크 장치 d0을 마운트하고 phys-schost-2/global/oracle/logs의 디스크 장치 d1을 마운트한다고 가정합니다. 이러한 구성에서는 phys-schost-1이 부트되어 /global/oracle을 마운트한 후에만 phys-schost-2가 부트하여 /global/oracle/logs를 마운트할 수 있습니다.

    자세한 내용은 vfstab(4) 설명서 페이지를 참조하십시오.

  7. 클러스터의 노드에 마운트 포인트가 있는지 그리고 /etc/vfstab 파일 항목이 클러스터의 모든 노드에 대해 올바른지 확인하십시오.


    # sccheck
    

    오류가 발생하지 않으면 아무 것도 반환되지 않습니다.

  8. 클러스터의 임의의 노드에서 클러스터 파일 시스템을 마운트하십시오.


    # mount /global/device-group/mountpoint
    


    주 -

    VxFS(VERITAS File System)의 경우에는 현재 device-group의 마스터 노드에서 파일 시스템을 마운트해야 파일 시스템이 성공적으로 마운트됩니다. 또한, VxFS 파일 시스템 마운트를 해제할 때도 현재 device-group의 마스터 노드에서 파일 시스템 마운트를 해제해야 성공적으로 해제됩니다.


  9. 클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되었는지 확인하십시오.

    df(1M) 또는 mount(1M) 명령을 사용하여 마운트된 파일 시스템을 표시할 수 있습니다.

    Sun Cluster 환경에서 VxFS 클러스터 파일 시스템을 관리하려면 VxFS 클러스터 파일 시스템이 마운트된 1차 노드에서만 관리 명령을 실행하십시오.

  10. 클러스터 노드가 둘 이상의 공용 서브넷에 연결되어 있습니까?

    • 그러면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "추가 공용 네트워크 어댑터를 구성하는 방법"으로 이동하여 공용 네트워크 어댑터를 추가로 구성하십시오.

    • 아니면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "PNM(Public Network Management)을 구성하는 방법"으로 이동하여 PNM을 구성하고 NAFO 그룹을 설정하십시오.

예: 클러스터 파일 시스템 만들기

다음은 Solstice DiskSuite 메타 장치 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 만드는 예입니다.


# newfs /dev/md/oracle/rdsk/d1
...
 
(각 노드에서)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(저장하고 종료)
 
(한 노드에서)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000

NTP(Network Time Protocol)를 업데이트하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

Sun Cluster 소프트웨어를 설치한 후에 NTP 구성 파일을 만들거나 변경하려면 이 작업을 수행하십시오. 기존의 클러스터에 노드를 추가하는 경우와 클러스터 노드의 개인용 호스트 이름을 변경하는 경우에도 NTP 구성 파일을 변경해야 합니다.


주 -

클러스터에서 NTP를 구성할 때나 동기화 기능을 수행할 때는 기본적으로 모든 클러스터 노드가 동일한 시간으로 동기화되어 있어야 합니다. 노드 사이의 시간 동기화 다음으로 중요한 요구 사항은 각 노드 시간의 정확성입니다. 동기화에 대한 이러한 기본 요구 사항이 충족되면 사용자가 필요한 대로 NTP를 구성할 수 있습니다. 클러스터 시간에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오. Sun Cluster 구성을 위해 NTP를 구성하는 방법은 /etc/inet/ntp.cluster 템플릿을 참조하십시오.


  1. Sun Cluster 소프트웨어를 설치하기 전에 자신의 /etc/inet/ntp.conf 파일을 설치했습니까?

    • 그러면 ntp.conf 파일을 변경하지 않아도 됩니다. 단계 8로 이동하십시오.

    • 아니면 단계 2로 이동하십시오.

  2. 클러스터 노드에서 수퍼유저가 되십시오.

  3. 클러스터 노드에 설치할 자신의 /etc/inet/ntp.conf 파일이 있습니까?

    • 그러면 클러스터의 각 노드에 /etc/inet/ntp.conf 파일을 복사한 다음 단계 6으로 이동하십시오.


      주 -

      모든 클러스터 노드가 동일한 시간으로 동기화되어야 합니다.


    • 아니면 단계 4로 이동하여 /etc/inet/ntp.conf.cluster 파일을 수정하십시오. Sun Cluster를 설치할 때 /etc/inet/ntp.conf 파일을 찾을 수 없으면 Sun Cluster 소프트웨어가 이 파일을 NTP 구성 파일로 만듭니다. ntp.conf.cluster 파일의 이름을 ntp.conf로 변경하지 마십시오.

  4. 클러스터의 한 노드에서 /etc/inet/ntp.conf.cluster 파일에 있는 개인용 호스트 이름을 수정하십시오.

    이 노드에 /etc/inet/ntp.conf.cluster 파일이 없을 경우에는 이전에 설치한 Sun Cluster 소프트웨어의 /etc/inet/ntp.conf 파일을 사용할 수 있습니다. 그러면 이전 소프트웨어의 ntp.conf 파일을 다음과 같이 수정하십시오.

    1. 각 클러스터 노드의 개인용 호스트 이름에 대한 항목이 있는지 확인하십시오.

    2. 사용하지 않는 개인용 호스트 이름은 제거하십시오.

      존재하지 않는 개인용 호스트 이름이 ntp.conf.cluster 파일에 포함되어 있으면, 노드 부트 중에 노드가 해당 개인용 호스트 이름에 연결을 시도할 때 오류 메시지가 나타납니다.

    3. 노드의 개인용 호스트 이름을 변경했으면 NTP 구성 파일에 새로운 개인용 호스트 이름이 포함되어야 합니다.

    4. NTP 요구 사항을 충족시키기 위해 필요하면 다른 항목을 수정하십시오.

  5. NTP 구성 파일을 클러스터의 모든 노드에 복사하십시오.

    모든 클러스터 노드에서 ntp.conf.cluster 파일의 내용이 동일해야 합니다.

  6. 각 노드에서 NTP 데몬을 중지시키십시오.

    각 노드에서 중지 명령이 성공적으로 완료될 때까지 기다렸다가 단계 7로 이동하십시오.


    # /etc/init.d/xntpd stop
    

  7. 각 노드에서 NTP 데몬을 다시 시작하십시오.

    • ntp.conf.cluster 파일을 사용할 경우에는 다음 명령을 실행하십시오.


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 시작 스크립트를 실행하면 먼저 /etc/inet/ntp.conf 파일을 찾습니다. 이 파일이 있으면 NTP 데몬을 시작하지 않고 바로 스크립트가 종료됩니다. ntp.conf 파일은 없고 ntp.conf.cluster 파일이 있으면 ntp.conf.cluster 파일을 NTP 구성 파일로 사용하여 NTP 데몬이 시작됩니다.

    • ntp.conf 파일을 사용할 경우에는 다음 명령을 실행하십시오.


      # /etc/init.d/xntpd start
      

  8. Sun Management Center를 사용하여 자원 그룹을 구성하거나 클러스터를 모니터하시겠습니까?

    • 그러면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "Sun Management Center를 위한 Sun Cluster 모듈 설치"로 이동하십시오.

    • 아니면 다른 회사 응용 프로그램을 설치하고 자원 유형을 등록하고 자원 그룹을 설정하고 데이터 서비스를 구성하십시오.자세한 내용은 응용프로그램 소프트웨어에 포함된 문서와 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide를 참조하십시오.

Sun Management Center를 시작하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

단계 2 다음 단계 - 단계 2 다음에 새로운 단계 3으로 다음 단계를 수행하십시오. 원래 단계 3이 새로운 단계 4가 됩니다.

    Sun Management Center 에이전트 시스템(클러스터 노드)에서 scsymon_srv 데몬이 실행되는지 확인하십시오.


    # ps -ef | grep scsymon_srv
    

    scsymon_srv 데몬을 실행하지 않는 클러스터 노드가 있으면 해당 노드에서 데몬을 시작하십시오.


    # /usr/cluster/lib/scsymon/scsymon_srv
    

Sun Cluster 2.2에서 Sun Cluster 3.0 Update 2 소프트웨어로 업그레이드

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.

클러스터 소프트웨어 패키지를 업그레이드하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

CD-ROM 경로 - 설명에 나오는 프레임워크 CD-ROM 경로를 모두 /cdrom/suncluster_3_0_u3으로 변경합니다. 이 변경 사항은 Sun Cluster 3.0 5/02 CD-ROM에 적용됩니다.

클러스터 소프트웨어 업그레이드를 마치는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

CD-ROM 경로 - 설명에 나오는 데이터 서비스 CD-ROM 경로를 모두 /cdrom/scdataservices_3_0_u3으로 변경합니다. 이 변경 사항은 Sun Cluster 3.0 Agents 5/02 CD-ROM에 적용됩니다.

Solstice DiskSuite 소프트웨어 설치 및 구성

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.


주 -

Solaris 9 운영 환경에 설치된 Sun Cluster 3.0 5/02 릴리스의 경우에 Solaris 9에 대하여 특별히 지정된 다른 내용이 없으면 Solstice DiskSuite 소프트웨어에 대한 정보와 절차가 Solaris Volume Manager 소프트웨어에도 적용됩니다.


메타 장치 이름과 디스크 세트 수를 설정하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

메타 장치 이름 최대값 - 단계 1과 단계 2가 다음과 같이 변경되었습니다. 각 Solstice DiskSuite(Solaris 8) 디스크 세트에 사용할 수 있는 메타 장치 이름 수의 정확한 최대값은 1024개입니다. Solaris Volume Manager(Solaris 9)의 경우에는 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서의 설명대로 각 디스크 세트에 최대 8192개까지 메타 장치 이름을 사용할 수 있습니다.

  1. 클러스터의 디스크 세트에 사용할 메타 장치 이름 최대값을 계산하십시오.

    디스크 세트마다 1024개까지 메타 장치 이름을 사용할 수 있습니다. 계산된 이 값을 나중에 nmd 필드에 입력합니다.

    1. 각 디스크 세트에 필요한 메타 장치 이름의 개수를 계산하십시오.

      로컬 메타 장치를 사용하는 경우에는 각 로컬 메타 장치 이름이 전체 클러스터에서 고유하고 클러스터에 있는 다른 DID(장치 ID)와 동일한 이름을 사용하지 않아야 합니다.


      정보 -

      DID 이름에만 사용할 번호 범위와 로컬 메타 장치 이름에만 사용할 각 노드 범위를 선택하십시오. 예를 들어, DID는 d1부터 d100까지의 이름을 사용하고 노드 1의 로컬 메타 장치는 d100부터 d199까지의 이름을 사용하고 노드 2의 로컬 메타 장치는 d200부터 d299까지의 이름을 사용할 수 있습니다.


    2. 디스크 세트에 사용할 메타 장치 이름의 최대 개수를 결정하십시오.

      메타 장치 이름의 개수는 실제 개수를 기반으로 하지 않고 메타 장치 이름 을 기반으로 설정합니다. 예를 들어, 메타 장치 이름의 범위가 d950부터 d1000까지이면 Solstice DiskSuite 소프트웨어에 50개가 아닌 1000개의 이름이 필요합니다.

  2. 클러스터에서 예상되는 총 디스크 세트 수를 계산한 다음 개인용 디스크 관리를 위해 하나를 추가하십시오.

    개인용 디스크 관리를 위한 디스크를 제외하고 최대 31개의 디스크 세트를 클러스터에 사용할 수 있습니다. 디스크 세트 수의 기본값은 4개입니다. 계산된 이 값을 나중에 md_nsets 필드에 입력합니다.

디스크 세트를 만드는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

만들 각 디스크 세트에 대하여 이 절차를 수행하십시오.


주 -

SunPlex Manager를 사용하여 Solstice DiskSuite를 설치했으면 디스크 세트 세 개 중 하나가 이미 있을 수도 있습니다. SunPlex Manager에서 만드는 메타 세트에 대한 자세한 내용은 "SunPlex Manager를 사용하여 Sun Cluster 소프트웨어 설치하기(5/02)"를 참조하십시오.


  1. 클러스터에 디스크 세트를 네 개 이상 만드시겠습니까?

    • 그러면 단계 2로 이동하여 클러스터에 디스크 세트를 네 개 이상 만들기 위한 준비를 하십시오. 처음 디스크 세트를 설치하든지 완전히 구성된 클러스터에 디스크 세트를 추가하든지 관계없이 이 준비를 하십시오.

    • 아니면 단계 6으로 이동하십시오.

  2. md_nsets 변수의 값이 클러스터에 만들 전체 디스크 세트 수를 수용할 수 있을 만큼 크게 설정되어야 합니다.

    1. 클러스터의 노드에서 /kernel/drv/md.conf 파일에 있는 md_nsets 변수의 값을 확인하십시오.

    2. 클러스터에 있는 전체 디스크 세트 수가 기존의 md_nsets 값에서 1을 뺀 값보다 크면 각 노드에서 md_nsets의 값을 원하는 값으로 크게 설정하십시오.

      디스크 세트 수의 최대값은 md_nsets의 값보다 하나 작은 값까지 사용할 수 있습니다. md_nsets 변수에 설정할 수 있는 최대값은 32입니다.

    3. 클러스터의 각 노드에서 /kernel/drv/md.conf 파일이 동일한지 확인하십시오.


      Caution - Caution -

      이 설명을 따르지 않으면 심각한 Solstice DiskSuite 오류가 발생하여 데이터를 잃을 수 있습니다.


    4. 하나의 노드에서 클러스터를 종료하십시오.


      # scshutdown -g0 -y
      

    5. 클러스터의 각 노드를 다시 부트하십시오.


      ok> boot
      

  3. 클러스터의 각 노드에서 devfsadm(1M) 명령을 실행하십시오.

    클러스터의 모든 노드에서 동시에 이 명령을 실행할 수 있습니다.

  4. 클러스터의 한 노드에서 scgdevs(1M) 명령을 실행하십시오.

  5. 디스크 세트를 만들기 전에 각 노드에서 scgdevs 명령이 완료되었는지 확인하십시오.

    scgdevs 명령이 한 노드에서 실행될 경우에도 이 명령은 모든 노드에 있는 동일한 명령을 원격으로 호출합니다. scgdevs 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행하십시오.


    % ps -ef | grep scgdevs
    

  6. 만들려는 디스크 세트가 다음 요구 사항 중 한 가지를 충족시켜야 합니다.

    • 정확하게 두 개의 디스크 문자열로 구성되어 있으면 디스크 세트가 정확히 두 개의 노드에 연결되어 정확히 두 개의 mediator 호스트를 사용해야 하고, 이 두 개의 호스트가 디스크 세트에 사용하는 호스트와 동일해야 합니다. mediator 설정 방법은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "Mediator 개요"를 참조하십시오.

    • 세 개 이상의 디스크 문자열로 구성된 경우에는 임의의 두 디스크 문자열 S1과 S2에 대한 총 디스크 수가 세 번째 문자열 S3의 디스크 수보다 많아야 합니다. 요구 사항을 공식으로 표현하면 개수(S1) + 개수(S2)> 개수(S3)가 됩니다.

  7. root는 그룹 14의 구성원이어야 합니다.


    # vi /etc/group
    ...
    sysadmin::14:root
    ...

  8. 로컬 메타 장치 상태 데이터베이스 복제가 있어야 합니다.

    자세한 내용은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "메타 장치 상태 데이터베이스 복제를 만드는 방법"을 참조하십시오.

  9. 디스크 세트를 마스터할 클러스터 노드에서 수퍼유저가 되십시오.

  10. 디스크 세트를 만드십시오.

    이 명령을 사용하면 디스크 세트가 Sun Cluster 디스크 장치 그룹으로 등록됩니다.


    # metaset -s setname -a -h node1 node2
    
    -s setname

    디스크 세트 이름을 지정합니다

    -a

    디스크 세트를 추가하거나 만듭니다

    -h node1

    디스크 세트를 마스터할 1차 노드의 이름을 지정합니다

    node2

    디스크 세트를 마스터할 2차 노드의 이름을 지정합니다

  11. 새 디스크 세트의 상태를 확인하십시오.


    # metaset -s setname
    

  12. 디스크 세트에 드라이브를 추가하십시오.

    Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "디스크 세트에 드라이브 추가"로 이동하십시오.

예: 디스크 세트 만들기

다음 명령을 실행하면 1차로 할당될 수 있는 노드 phys-schost-1phys-schost-2를 사용하여 두 개의 디스크 세트 dg-schost-1dg-schost-2를 만듭니다.


# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2
# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2

VxVM 소프트웨어 설치 및 구성

다음과 같은 내용이 이번 업데이트 릴리스와 이후의 모든 업데이트에 적용됩니다.

VERITAS Volume Manager 소프트웨어를 설치하고 루트 디스크를 캡슐화하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

이 절차에서는 scvxinstall(1M) 명령을 사용하여 한 번의 작업으로 VxVM 소프트웨어를 설치하고 루트 디스크를 캡슐화합니다.


주 -

루트가 아닌 로컬 디스크에 rootdg 디스크 그룹을 만들려면 "VERITAS Volume Manager 소프트웨어만 설치하는 방법(5/02)"으로 이동하십시오.


VxVM을 설치할 각 노드에 대하여 이 절차를 수행하십시오. 클러스터의 모든 노드에 VxVM(VERITAS Volume Manager)을 설치할 수도 있고, VxVM으로 관리할 기억 장치에 물리적으로 연결된 노드에만 설치할 수도 있습니다.

  1. 클러스터가 다음 요구사항을 충족시켜야 합니다.

    • 클러스터의 모든 노드가 클러스터 모드로 실행되어야 합니다.

    • 설치하는 노드의 루트 디스크에 두 개의 빈(할당되지 않은) 파티션이 있어야 합니다.

  2. VxVM을 설치할 노드에서 수퍼유저가 되십시오.

  3. 클러스터의 모든 노드를 클러스터 노드 인증 목록에 추가하십시오.

    1. scsetup(1M) 유틸리티를 실행하십시오.


      # scsetup
      

      Main Menu가 표시됩니다.

    2. New Nodes Menu에 액세스하려면 Main Menu에서 6을 입력하십시오.

    3. 노드를 인증된 노드 목록에 추가하려면 New Nodes Menu에서 3을 입력하십시오.

    4. 추가하는 위치의 시스템 이름을 지정하십시오.

      화면의 지시에 따라 노드의 이름을 클러스터에 추가하십시오. 추가할 노드의 이름을 묻는 메시지가 표시될 것입니다.

    5. 작업이 성공적으로 수행되었는지 확인하십시오.

      작업이 오류 없이 완료되면 scsetup 유틸리티가 Command completed successfully 메시지를 표시합니다.

    6. 모든 클러스터 노드가 노드 인증 목록에 추가될 때까지 클러스터의 각 노드에 대하여 단계 c부터 단계 e까지 반복하십시오.

    7. scsetup 유틸리티를 종료하십시오.

  4. VxVM CD-ROM을 노드의 CD-ROM 드라이브에 넣으십시오.

  5. 대화식 모드로 scvxinstall을 시작하십시오.

    scvxinstall 명령을 중단하려면 언제든지 Control-C를 누르십시오.


    # scvxinstall
    

    자세한 내용은 scvxinstall(1M) 설명서 페이지를 참조하십시오.

  6. 루트를 캡슐화할 것인지 묻는 메시지가 나타나면 yes를 입력하십시오.


    Do you want Volume Manager to encapsulate root [no]? y
    

  7. VxVM CD-ROM 위치를 묻는 메시지가 나타나면 지정하십시오.

    • 필요한 VxVM CD-ROM을 찾으면 찾은 위치가 메시지 뒤에 각괄호로 표시됩니다. 기본 위치를 그대로 지정하려면 Enter 키를 누르십시오.


      Where is the volume manager cdrom [default]?

    • VxVM CD-ROM을 찾을 수 없으면 기본 위치 없이 메시지가 표시됩니다. CD-ROM 또는 CD-ROM 이미지의 위치를 입력하십시오.


      Where is the volume manager cdrom?

  8. VxVM 사용권 키를 묻는 메시지가 나오면 입력하십시오.


    Please enter license key:  license
    

    scvxinstall 명령을 실행하면 자동으로 다음 작업을 수행합니다.

    • DMP(Dynamic Multipathing)를 비활성화합니다


      주 -

      scvxinstall 유틸리티를 사용하면 설치 프로세스를 시작할 때 DMP(Dynamic Multipathing)가 비활성화되지만 VRTSvxvm 패키지가 설치될 때 VxVM 버전 3.1.1 이상 버전에 의해 자동으로 DMP가 다시 활성화됩니다. VxVM 이전 버전은 DMP를 비활성화하고 실행해야 합니다.


    • VRTSvxvm, VRTSvmdevVRTSvmman 패키지를 설치하고, VxVM 3.2 이상 버전을 설치하는 경우에는 VRTSlic 패키지를 설치합니다

    • 전체 클러스터의 vxio 드라이버 기본 번호를 선택합니다

    • 루트 디스크를 캡슐화하여 rootdg 디스크 그룹을 만듭니다

    • /etc/vfstab 파일에서 /global/.devices 항목을 업데이트합니다

    자세한 내용은 scvxinstall(1M) 설명서 페이지를 참조하십시오.


    주 -

    설치 중에 자동으로 두 번 다시 부트됩니다. 설치 작업이 완료되고 메시지가 표시될 때 Control-C를 누르지 않으면 scvxinstall 명령이 자동으로 노드를 다시 부트합니다. Control-C를 눌러 두 번째로 다시 부트되는 것을 중지시키면 나중에 직접 노드를 다시 부트해야 VxVM 설치가 완료됩니다.


  9. VxVM 클러스터 기능을 활성화하려면 vxlicense 명령을 실행하여 클러스터 기능에 대한 사용권 키를 입력하십시오.

    vxlicense 명령에 대한 자세한 내용은 VxVM 문서를 참조하십시오.

  10. (옵션) VxVM GUI를 설치하십시오.


    # pkgadd VRTSvmsa
    

    VxVM GUI에 대한 자세한 내용은 VxVM 문서를 참조하십시오.

  11. CD-ROM을 빼십시오.

  12. VxVM 패치가 있으면 설치하십시오.

    패치 위치와 설치 방법은 Sun Cluster 3.0 5/02 릴리스 정보를 참조하십시오.

  13. (옵션) VxVM 설명서 페이지를 클러스터 노드에 저장하지 않으려면 설명서 페이지 패키지를 제거하십시오.


    # pkgrm VRTSvmman
    

  14. VxVM을 다른 노드에 설치하시겠습니까?

  15. VxVM을 설치하지 않을 노드가 있습니까?


    주 -

    VxVM 클러스터 기능을 활성화하려면 클러스터의 모든 노드에 VxVM을 설치해야 합니다.


    • 그러면 단계 16으로 이동하십시오.

    • 아니면 단계 17로 이동하십시오.

  16. VxVM이 아닌 각 노드에서 /etc/name_to_major 파일을 수정하십시오.

    1. VxVM이 설치된 노드에서 vxio 기본 번호 설정을 확인하십시오.


      # grep vxio /etc/name_to_major
      

    2. VxVM을 설치하지 않을 노드에서 수퍼유저가 되십시오.

    3. /etc/name_to_major 파일을 편집하여 vxio 기본 번호를 단계 a에서 확인한 NNN으로 설정하는 항목을 추가하십시오.


      # vi /etc/name_to_major
      vxio NNN
      

    4. vxio 항목을 초기화하십시오.


      # drvconfig -b -i vxio -m NNN
      

    5. VxVM을 설치하지 않을 다른 모든 노드에 대하여 단계 b부터 단계 d까지 반복하십시오.

      완료되면 클러스터의 각 노드에 있는 /etc/name_to_major 파일에 동일한 vxio 항목이 있어야 합니다.

  17. 새 시스템이 클러스터에 추가되지 않도록 하십시오.

    1. scsetup(1M) 유틸리티를 실행하십시오.


      # scsetup
      

      Main Menu가 표시됩니다.

    2. New Nodes Menu에 액세스하려면 Main Menu에서 6을 입력하십시오.

    3. New Nodes Menu에서 1을 입력하십시오.

      scsetup 프롬프트를 따르십시오. 이 옵션을 입력하면 다른 위치에서 공용 네트워크를 통해 클러스터에 추가하려는 새 시스템의 요청을 모두 무시합니다.

    4. scsetup 유틸리티를 종료하십시오.

  18. 캡슐화된 루트 디스크를 이중화하시겠습니까?

    • 그러면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "캡슐화된 루트 디스크를 이중화하는 방법"으로 이동하십시오.

    • 아니면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "디스크 그룹을 만들어 등록하는 방법"으로 이동하십시오.


주 -

나중에 루트 디스크 캡슐화를 해제해야 할 경우에는 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "루트 디스크 캡슐화를 해제하는 방법"의 절차를 참조하십시오.


VERITAS Volume Manager 소프트웨어만 설치하는 방법(5/02)

다음과 같은 사항이 Sun Cluster 3.0 5/02 업데이트 릴리스에서 변경되어 Sun Cluster 3.0 소프트웨어의 이번 업데이트와 이후의 모든 업데이트에 적용됩니다.

이 절차에서는 scvxinstall 명령을 사용하여 VxVM(VERITAS Volume Manager) 소프트웨어만 설치합니다.


주 -

루트 디스크를 캡슐화하여 rootdg 디스크 그룹을 만들려면 이 절차를 사용하지 마십시오. 대신 "VERITAS Volume Manager 소프트웨어를 설치하고 루트 디스크를 캡슐화하는 방법(5/02)"으로 이동하여 한 번의 작업으로 VxVM 소프트웨어를 설치하고 루트 디스크를 캡슐화하십시오.


VxVM을 설치할 각 노드에 대하여 이 절차를 수행하십시오. 클러스터의 모든 노드에 VxVM을 설치할 수도 있고, VxVM으로 관리할 기억 장치에 물리적으로 연결된 노드에만 설치할 수도 있습니다.

  1. 클러스터의 모든 노드가 클러스터 모드로 실행되어야 합니다.

  2. VxVM을 설치할 클러스터 노드에서 수퍼유저가 되십시오.

  3. 클러스터의 모든 노드를 클러스터 노드 인증 목록에 추가하십시오.

    1. scsetup(1M) 유틸리티를 실행하십시오.


      # scsetup
      

      Main Menu가 표시됩니다.

    2. New Nodes Menu에 액세스하려면 Main Menu에서 6을 입력하십시오.

    3. 노드를 인증된 노드 목록에 추가하려면 New Nodes Menu에서 3을 입력하십시오.

    4. 추가하는 위치의 시스템 이름을 지정하십시오.

      화면의 지시에 따라 노드의 이름을 클러스터에 추가하십시오. 추가할 노드의 이름을 묻는 메시지가 표시될 것입니다.

    5. 작업이 성공적으로 수행되었는지 확인하십시오.

      작업이 오류 없이 완료되면 scsetup 유틸리티가 Command completed successfully 메시지를 표시합니다.

    6. 모든 클러스터 노드가 노드 인증 목록에 추가될 때까지 클러스터의 각 노드에 대하여 단계 c부터 단계 e까지 반복하십시오.

    7. scsetup 유틸리티를 종료하십시오.

  4. VxVM CD-ROM을 노드의 CD-ROM 드라이브에 넣으십시오.

  5. 대화식 설치 모드로 scvxinstall을 시작하십시오.


    # scvxinstall -i
    

    scvxinstall 명령을 실행하면 자동으로 다음 작업을 수행합니다.

    • DMP(Dynamic Multipathing)를 비활성화합니다


      주 -

      scvxinstall 유틸리티를 사용하면 설치 프로세스를 시작할 때 DMP(Dynamic Multipathing)가 비활성화되지만 VRTSvxvm 패키지가 설치될 때 VxVM 버전 3.1.1 이상 버전에 의해 자동으로 DMP가 다시 활성화됩니다. VxVM 이전 버전은 DMP를 비활성화하고 실행해야 합니다.


    • VRTSvxvm, VRTSvmdevVRTSvmman 패키지를 설치하고, VxVM 3.2 이상 버전을 설치하는 경우에는 VRTSlic 패키지를 설치합니다

    • 전체 클러스터의 vxio 드라이버 기본 번호를 선택합니다

    자세한 내용은 scvxinstall(1M) 설명서 페이지를 참조하십시오.

  6. (옵션) VxVM GUI를 설치하십시오.


    # pkgadd VRTSvmsa
    

    VxVM GUI에 대한 자세한 내용은 VxVM 문서를 참조하십시오.

  7. CD-ROM을 빼십시오.

  8. VxVM 패치가 있으면 설치하십시오.

    패치 위치와 설치 방법은 Sun Cluster 3.0 5/02 릴리스 정보를 참조하십시오.

  9. (옵션) VxVM 설명서 페이지를 클러스터 노드에 저장하지 않으려면 설명서 페이지 패키지를 제거하십시오.


    # pkgrm VRTSvmman
    

  10. VxVM을 다른 노드에 설치하시겠습니까?

  11. VxVM을 설치하지 않을 노드가 있습니까?


    주 -

    VxVM 클러스터 기능을 활성화하려면 클러스터의 모든 노드에 VxVM을 설치해야 합니다.


    • 그러면 단계 12로 이동하십시오.

    • 아니면 단계 13으로 이동하십시오.

  12. VxVM이 아닌 각 노드에서 /etc/name_to_major 파일을 수정하십시오.

    1. VxVM이 설치된 노드에서 vxio 기본 번호 설정을 확인하십시오.


      # grep vxio /etc/name_to_major
      

    2. VxVM을 설치하지 않을 노드에서 수퍼유저가 되십시오.

    3. /etc/name_to_major 파일을 편집하여 vxio 기본 번호를 단계 a에서 확인한 NNN으로 설정하는 항목을 추가하십시오.


      # vi /etc/name_to_major
      vxio NNN
      

    4. vxio 항목을 초기화하십시오.


      # drvconfig -b -i vxio -m NNN
      

    5. VxVM을 설치하지 않을 다른 모든 노드에 대하여 단계 a부터 단계 c까지 반복하십시오.

      완료되면 클러스터의 각 노드에 있는 /etc/name_to_major 파일에 동일한 vxio 항목이 있어야 합니다.

  13. 새 시스템이 클러스터에 추가되지 않도록 하십시오.

    1. scsetup(1M) 유틸리티를 실행하십시오.


      # scsetup
      

      Main Menu가 표시됩니다.

    2. New Nodes Menu에 액세스하려면 Main Menu에서 6을 입력하십시오.

    3. New Nodes Menu에서 1을 입력하십시오.

      scsetup 프롬프트를 따르십시오. 이 옵션을 입력하면 다른 위치에서 공용 네트워크를 통해 클러스터에 추가하려는 새 시스템의 요청을 모두 무시합니다.

    4. scsetup 유틸리티를 종료하십시오.

  14. rootdg 디스크 그룹을 만드십시오.

    Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "루트가 아닌 디스크에 rootdg 디스크 그룹을 만드는 방법"으로 이동하십시오.