Sun Cluster 3.0 5/02 릴리스 정보

1장 Sun Cluster 3.0 5/02 릴리스 정보

이 문서에서는 SunTM Cluster 3.0 5/02 소프트웨어에 대하여 다음과 같은 내용을 설명합니다.

이 문서의 부록에는 Sun Cluster 3.0 5/02 소프트웨어와 데이터 서비스 설치를 계획할 때 사용하는 설치 계획 워크시트 및 예가 포함되어 있습니다.

새로운 기능

다음 표에는 Sun Cluster 문서를 업데이트해야 하는 새로운 기능이 있습니다. 두 번째 열이 업데이트된 문서 내용을 나타냅니다. 지원되는 전체 하드웨어 및 소프트웨어 목록은 Sun 영업 담당자에게 문의하십시오.

표 1-1 새로운 기능

기능 

문서 업데이트 

HAStoragePlus 

Sun Custer 3.0 5/02 추가 정보에는 HAStoragePlus 자원 유형을 지원하기 위한 Sun Cluster 3.0 12/01 Data Services Installation and Configuration GuideSun Cluster 3.0 12/01 Data Services Developer's Guide에 대한 업데이트 내용이 포함되어 있습니다. HAStoragePlus 자원 유형을 사용하면 Sun Cluster 환경에서 로컬 파일 시스템의 가용성을 높일 수 있습니다. Sun Cluster 3.0 5/02 Error Messages Guide에서는 새로운 HAStoragePlus 오류 메시지에 대하여 설명합니다.

RGOffload(Prioritized Service Management) 

Sun Custer 3.0 5/02 추가 정보에는 RGOffload 자원 유형을 지원하기 위한 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide의 새로운 절차와 업데이트 내용이 포함되어 있습니다. RGOffload를 사용하면 클러스터가 중요한 데이터 서비스를 위해 중요하지 않은 서비스가 포함된 자원 그룹을 자동으로 오프로드하여 노드의 자원을 비울 수 있습니다. Sun Cluster 3.0 5/02 Error Messages Guide에서는 새로운 RGOffload 오류 메시지에 대하여 설명합니다.

추가 데이터 서비스를 위한 Sun Cluster 보안 강화 지원 

Sun Cluster 보안 강화 문서는 http://www.sun.com/security/blueprints에 있습니다. 이 URL에서 Architecture라는 제목을 찾아 아래로 내려가면 Sun Cluster 보안 강화에 대한 기사를 찾을 수 있습니다. 자세한 내용은 "Sun Cluster 보안 강화"를 참조하십시오.

SunPlex Agent Builder의 향상된 기능 

Sun Custer 3.0 5/02 추가 정보에는 SunPlex Agent Builder를 사용하여 사전에 컴파일된 단일 데이터 서비스, GDS(generic data service)를 구성할 수 있도록 지원하기 위한 Sun Cluster 3.0 12/01 Data Services Developer's Guide에 대한 업데이트 내용이 포함되어 있습니다.

Sun Cluster 소프트웨어 제거 

Sun Custer 3.0 5/02 추가 정보에는 새로운 클러스터 소프트웨어 제거 절차와 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서Sun Cluster 3.0 12/01 시스템 관리 안내서에 있는 관련 절차에 대한 업데이트 내용이 포함되어 있습니다. scinstall(1M) 명령에 새로운 -r 옵션을 사용하면 노드에서 Sun Cluster 소프트웨어가 제거됩니다.

Sun Cluster 3.0 소프트웨어의 이전 릴리스에서 Sun Cluster 3.0 5/02 소프트웨어로 업그레이드 

Sun Cluster 3.0 소프트웨어의 이전 릴리스에서 업그레이드하려면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "Sun Cluster 3.0 소프트웨어 업데이트 릴리스로 업그레이드하기"의 절차를 사용하십시오. Solaris 8 업그레이드 방법에 대한 변경 사항은 "Sun Cluster 3.0 소프트웨어 업데이트 릴리스로 업그레이드 "를 참조하십시오.

새로운 기능에 대한 정보

이 단락에서는 새로운 기능에 대하여 구체적으로 설명합니다.

Sun Cluster 보안 강화

Sun Cluster 보안 강화는 Sun BluePrintsTM 프로그램에서 권장하는 Solaris 운영 환경 강화 기술을 사용하여 클러스터에 필요한 기본 보안 강화 기능을 구현합니다. Solaris Security Toolkit은 자동으로 Sun Cluster 보안 강화를 구현합니다.

Sun Cluster 보안 강화 문서는 http://www.sun.com/security/blueprints에 있습니다. 이 URL에서 Architecture라는 제목을 찾아 아래로 내려가면 "Securing the Sun Cluster 3.0 Software"라는 기사를 찾을 수 있습니다. 이 문서에서는 Solaris 8 환경에 설치된 Sun Cluster 3.0에 대한 보안 방법을 설명합니다. 이 설명에는 Solaris Security Toolkit 사용 방법과 Sun 보안 전문가가 권장하는 다른 전문적인 보안 기술에 대한 내용이 포함되어 있습니다.

Sun Cluster 보안 강화는 Solaris 8 환경에서 아래 표에 있는 모든 Sun Cluster 3.0 5/02 데이터 서비스를 지원합니다.


주 -

Sun Cluster 보안 강화는 Solaris 8에서만 모든 Sun Cluster 3.0 5/02 데이터 서비스를 지원합니다. Solaris 9에서는 Sun Cluster 3.0 5/02 릴리스에 보안 강화 기능을 사용할 수 없습니다.


표 1-2 Sun Cluster 보안 강화 기능이 지원되는 데이터 서비스

데이터 서비스 에이전트 

응용프로그램 버전: 페일오버 

응용프로그램 버전: 확장 가능 

iPlanet Messaging Server용 Sun Cluster HA 

6.0 

4.1 

iPlanet Web Server용 Sun Cluster HA 

6.0 

4.1 

Apache용 Sun Cluster HA 

1.3.9 

1.3.9 

SAP용 Sun Cluster HA 

4.6D(32비트 및 64비트) 

4.6D(32비트 및 64비트) 

iPlanet Directory Server용 Sun Cluster HA 

4.12 

없음 

NetBackup용 Sun Cluster HA 

3.4  

없음 

Oracle용 Sun Cluster HA 

8.1.7 및 9i(32비트 및 64비트) 

없음 

Sybase ASE용 Sun Cluster HA 

12.0(32비트) 

없음 

Oracle Parallel Server/Real Application Clusters용 Sun Cluster Support 

8.1.7 및 9i(32비트 및 64비트) 

없음 

DNS용 Sun Cluster HA 

OS에 따라 다름 

없음 

NFS용 Sun Cluster HA 

OS에 따라 다름 

없음 

지원되는 제품

이 단락에서는 Sun Cluster 3.0 5/02 소프트웨어를 위해 지원되는 소프트웨어와 메모리 요구 사항에 대하여 설명합니다.

이후에 지원되지 않는 기능

PNM(Public Network Management)은 다음 Sun Cluster 릴리스에서 지원되지 않는 기능입니다. 대신 Solaris IP Multipathing이 Sun Cluster의 네트워크 어댑터 모니터링 및 페일오버 기능을 수행합니다.

PNM(Public Network Management)

네트워크 인터페이스 카드 모니터링 및 페일오버를 구성하고 관리하는 데 PNM을 사용해야 합니다. 그러나 PNM 데몬과 PNM 관리 명령에 대한 사용자 인터페이스는 더 이상 사용할 필요가 없기 때문에 다음 Sun Cluster 릴리스에서는 이 기능이 없어집니다. 이 인터페이스를 사용하는 도구는 개발하지 마십시오. 다음 인터페이스는 현재 릴리스에서는 공식적으로 지원되지만 다음 Sun Cluster 릴리스에서는 없어지거나 변경될 것으로 예상됩니다.

다음 Sun Cluster 릴리스에서 IP Multipathing 기능으로 전환될 경우를 대비하여 다음과 같은 문제를 고려해야 합니다.

Sun Cluster AnswerBooks 설치

Sun Cluster 3.0 5/02 사용 설명서는 AnswerBook2 documentation server를 통해 온라인으로 AnswerBook2TM 형식을 사용할 수 있습니다. Sun Cluster 3.0 5/02 AnswerBook2 문서 세트는 다음과 같이 구성되어 있습니다.


주 -

Sun Custer 3.0 5/02 추가 정보에는 Sun Cluster 3.0 12/01 문서 세트에 추가된 사항과 변경 사항이 포함되어 있습니다. Sun Cluster 3.0 5/02 Collection에도 포함된 Sun Cluster 3.0 12/01 설명서 및 Sun Cluster 3.0 12/01 Data Services Collection과 함께 이 추가 정보를 사용하십시오.


또한 docs.sun.comSM 웹 사이트에서는 Sun Cluster 문서를 액세스할 수 있습니다. 다음 주소에서 docs.sun.com 아카이브를 살펴보고 특정 서적 제목이나 주제에 대해 검색할 수 있습니다.

http://docs.sun.com

AnswerBook2 Documentation Server 설정


주 -

Solaris 9 문서 CD-ROM에는 AnswerBook2 documentation server 소프트웨어가 포함되어 있지 않습니다. Sun Cluster 3.0 5/02 소프트웨어의 Solaris 9 버전을 사용하는데 AnswerBook2 서버 소프트웨어가 아직 없으면 http://www.sun.com/software/ab2 페이지를 참조하여 AnswerBook2 소프트웨어, 설치 설명서 및 릴리스 정보를 다운로드하십시오. 아니면 Sun Cluster 3.0 5/02 CD-ROM으로 제공되는 PDF 버전 문서를 사용하십시오. 자세한 내용은 "PDF 파일"을 참조하십시오.


Solaris 8 운영 환경 릴리스에는 AnswerBook2 documentation server 소프트웨어가 포함되어 있습니다. Solaris 운영 환경 CD-ROM과 별도로 Solaris 8 documentation CD-ROM에도 documentation server 소프트웨어가 포함되어 있습니다. AnswerBook2 documentation server를 설치하려면 Solaris 8 documentation CD-ROM이 필요합니다.

사이트에 AnswerBook2 documentation server를 설치했으면 동일한 서버를 통해 Sun Cluster AnswerBooks를 사용할 수 있습니다. 설치하지 않았으면 사이트에 있는 시스템에 documentation server를 설치하십시오. 클러스터에서 documentation server에 대한 관리 인터페이스로 관리 콘솔을 사용하는 것이 좋습니다. 클러스터 노드를 AnswerBook2 documentation server로 사용하지 마십시오.

AnswerBook2 documentation server를 설치하기 위한 정보가 필요하면 서버에 Solaris documentation CD-ROM을 로드한 다음 README 파일을 참조하십시오.

Sun Cluster AnswerBooks 보기

documentation server를 설치하는 서버의 파일 시스템에 Sun Cluster AnswerBook2 문서를 설치하십시오. Sun Cluster AnswerBooks에는 기존 AnswerBook 라이브러리에 자동으로 문서를 추가하는 설치 후 스크립트가 포함되어 있습니다.

AnswerBook2 서버를 설치하려면 다음 요구 사항을 참고하십시오.

Sun Cluster AnswerBooks 설치 방법

Sun Cluster 3.0 5/02 Collection 및 Sun Cluster 3.0 12/01 Data Services Collection에 대한 Sun Cluster AnswerBook 패키지를 설치하려면 이 절차를 사용하십시오.

  1. AnswerBook2 documentation server가 설치된 서버에서 수퍼유저가 되어야 합니다.

  2. 전에 Sun Cluster AnswerBooks를 설치했으면 이전 패키지를 제거하십시오.

    Sun Cluster AnswerBooks를 설치하지 않았으면 이 단계를 생략하십시오.


    # pkgrm SUNWscfab SUNWscdab
    

  3. documentation server에 연결된 CD-ROM 드라이브에 Sun Cluster 3.0 5/02 CD-ROM 또는 Sun Cluster 3.0 Agents 5/02 CD-ROM을 넣으십시오.

    볼륨 관리 데몬 vold(1M)가 CD-ROM을 자동으로 마운트합니다.

  4. CD-ROM에서 Sun Cluster AnswerBook 패키지가 있는 디렉토리로 이동하십시오.

    AnswerBook 패키지는 다음 위치에 있습니다.

    • Sun Cluster 3.0 5/02 CD-ROM

      /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages

    • Sun Cluster 3.0 Agents 5/02 CD-ROM

      /cdrom/scdataservices_3_0_u3/components/SunCluster_Data_Service_Answer_Book_3.0/Packages

  5. pkgadd(1) 명령을 사용하여 패키지를 설치하십시오.


    # pkgadd -d 
    

  6. 설치할 Sun Cluster 3.0 5/02 Collection(SUNWscfab) 및 Sun Cluster 3.0 12/01 Data Services Collection(SUNWscdab) 패키지를 선택하십시오.

  7. pkgadd 설치 옵션 메뉴에서 heavy를 선택하여 전체 패키지를 시스템에 추가하고 AnswerBook2 카탈로그를 업데이트하십시오.

    Sun Cluster 3.0 5/02 Collection(SUNWscfab) 또는 Sun Cluster 3.0 12/01 Data Services Collection(SUNWscdab)을 선택하십시오.

각 CD-ROM의 문서 모음 패키지에는 documentation server의 데이터베이스에 문서 모음을 추가하고 서버를 다시 시작하는 설치 후 스크립트가 포함되어 있습니다. 이제 documentation server에서 Sun Cluster AnswerBooks를 볼 수 있습니다.

PDF 파일

Sun Cluster CD-ROM에는 Sun Cluster 문서 세트에 있는 책이 PDF 파일로 포함되어 있습니다.

Sun Cluster AnswerBooks와 마찬가지로 7개의 PDF 파일이 Sun Cluster CD-ROM에 있고 1개의 PDF 파일이 Sun Cluster Agents CD-ROM에 있습니다. PDF 파일 이름은 책 이름의 약어를 사용합니다(표 1-4 참조).

PDF 파일은 다음 위치에 있습니다.

표 1-4 PDF 약어와 책 제목 매핑

CD-ROM 

PDF 약어 

책 제목 

Sun Cluster 3.0 5/02 CD-ROM 

CLUSTSUPP

Sun Custer 3.0 5/02 추가 정보

CLUSTINSTALL

Sun Cluster 3.0 12/01 소프트웨어 설치 안내서

CLUSTNETHW

Sun Cluster 3.0 12/01 Hardware Guide

CLUSTAPIPG

Sun Cluster 3.0 12/01 Data Services Developer's Guide

CLUSTSYSADMIN

Sun Cluster 3.0 12/01 시스템 관리 안내서

CLUSTCONCEPTS

Sun Cluster 3.0 12/01 개념

CLUSTERRMSG

Sun Cluster 3.0 5/02 Error Messages Guide

Sun Cluster 3.0 Agents 5/02 CD-ROM 

CLUSTDATASVC

Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide

제한 사항

다음과 같은 제한 사항이 Sun Cluster 3.0 5/02 릴리스에 적용됩니다.

서비스 및 응용프로그램 제한 사항

하드웨어 제한 사항

볼륨 관리자 제한 사항

클러스터 파일 시스템 제한 사항

VxFS 제한 사항

NAFO(Network Adapter Failover) 제한 사항

데이터 서비스 제한 사항

이 단락에서는 특정 데이터 서비스에 대한 제한 사항을 설명합니다. 모든 데이터 서비스에 적용되는 제한 사항은 없습니다.


주 -

이후의 Sun Cluster 릴리스 정보에는 특정 데이터 서비스에 작용되는 데이터 서비스 제한 사항이 포함되지 않습니다. 그러나 모든 데이터 서비스에 적용되는 데이터 서비스 제한 사항은 Sun Cluster 릴리스 정보에서 설명합니다.


특정 데이터 서비스에 적용되는 추가 데이터 서비스 제한 사항은 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide를 참조하십시오.

Oracle용 Sun Cluster HA

Sun Cluster 및 NetBackup 제한 사항

NetBackup용 Sun Cluster HA 제한 사항

NFS용 Sun Cluster 3.0 HA 제한 사항

지침

다음과 같은 지침이 Sun Cluster 3.0 5/02 릴리스에 적용됩니다.

데이터 서비스 초과 시간 지침

다음 지침은 버그 4499573에서 보고된 문제를 해결하기 위한 설명입니다. 관련 기능이 정상 작동하는 것으로 확인되었습니다. 따라서 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide에 다음 지침을 반영해야 합니다.

클러스터에서 많은 수의 디스크로 구성되고 I/O가 집중되는 데이터 서비스를 사용할 때 디스크 장애가 발생하면 I/O 하위 시스템 내에서 재시도 작업이 수행되기 때문에 응용프로그램이 지연될 수 있습니다. I/O 하위 시스템이 재시도하여 디스크 장애를 복구하는 데 몇 분 정도 시간이 걸릴 수도 있습니다. 이러한 지연이 발생하면 디스크가 복구되었다고 해도 Sun Cluster가 응용프로그램을 다른 노드로 페일오버합니다. 이러한 인스턴스 중에 페일오버되지 않도록 하려면 데이터 서비스의 기본 프로브 시간 초과 값을 증가시키십시오. 데이터 서비스 종료 시간을 늘리기 위해 도움이 필요하거나 자세한 정보가 필요하면 지술 지원 엔지니어에게 문의하십시오.

데이터 서비스 설치 지침

Solaris 및 Sun Cluster 설치를 시작하기 전에 모든 데이터 서비스에 대한 요구 사항을 확인하십시오. 이 요구 사항을 확인하지 않으면 설치 프로세스를 잘못 수행하여 Solaris 및 Sun Cluster 소프트웨어를 완전히 다시 설치해야 할 수도 있습니다.

예를 들어, Oracle Parallel Server/Real Application Clusters의 Oracle Parallel Fail Safe/Real Application Clusters Guard 옵션에는 클러스터에서 사용하는 호스트 이름/노드 이름에 대한 특별한 요구 사항이 있습니다. Sun Cluster 소프트웨어를 설치한 후에는 호스트 이름을 변경할 수 없기 때문에 Sun Cluster 소프트웨어를 설치하기 전에 이러한 요구 사항을 충족시켜야 합니다. 호스트 이름/노드 이름에 대한 특별한 요구 사항은 Oracle Parallel Fail Safe/Real Application Clusters Guard 문서를 참조하십시오.

패치 및 필요한 펌웨어 레벨

이 단락에서는 Sun Cluster 구성에 적용되는 패치에 대하여 설명합니다.

PatchPro

Sun Cluster 소프트웨어에서 Sun의 패치 관리 솔루션인 PatchPro를 처음으로 채택하였습니다. 이 새로운 도구를 사용하면 Sun Cluster 소프트웨어를 설치하거나 유지 관리하기 위해 필요한 패치를 쉽게 선택하여 다운로드할 수 있습니다. PatchPro는 패치를 쉽게 설치할 수 있도록 Sun Cluster에 Interactive Mode 도구를 제공하고 최신 패치 세트로 구성을 유지할 수 있도록 Expert Mode 도구를 제공합니다. Expert Mode는 가용성이 높은 보안 패치뿐 아니라 최신 패치를 모두 받으려는 사용자에게 특히 유용합니다.


주 -

Sun Cluster 제품에 필요한 패치를 보고 다운로드하려면 등록된 SunSolveSM 계정이 있어야 합니다. 등록된 계정이 없으면 Sun 서비스 담당자 또는 영업 엔지니어에게 문의하거나 SunSolve Online 웹 사이트를 통해 등록하십시오.


Sun Cluster 소프트웨어를 위한 PatchPro 도구에 액세스하려면 http://www.sun.com/PatchPro/ 페이지로 이동하여 "Sun Cluster"를 클릭한 다음 Interactive Mode나 Expert Mode를 선택하십시오. PatchPro 도구의 지시에 따라 클러스터 구성 정보를 입력하고 패치를 다운로드하십시오.

SunSolve Online

SunSolve OnlineSM 웹 사이트에서 언제든지 Sun 제품의 패치, 소프트웨어 및 펌웨어에 대한 최신 정보를 액세스할 수 있습니다. 지원되는 최신 소프트웨어, 펌웨어 및 패치 버전에 대한 도표를 보려면 http://sunsolve.sun.com에 있는 SunSolve Online 사이트에 액세스하십시오.


주 -

Sun Cluster 제품에 필요한 패치를 보고 다운로드하려면 등록된 SunSolve 계정이 있어야 합니다. 등록된 계정이 없으면 Sun 서비스 담당자 또는 영업 엔지니어에게 문의하거나 SunSolve Online 웹 사이트를 통해 등록하십시오.


SunSolve EarlyNotifierSM 서비스를 사용하면 Sun Cluster 3.0 패치 정보를 찾을 수 있습니다. EarlyNotifier 정보를 보려면 SunSolve에 로그인하여 첫 페이지 맨 위에서 Simple Search를 선택하십시오. Simple Search 페이지에서 EarlyNotifier 상자를 클릭하고 검색 기준 상자에 Sun Cluster 3.0을 입력하십시오. 그러면 Sun Cluster 3.0 소프트웨어를 검색한 EarlyNotifier 페이지가 열립니다.

Sun Cluster 3.0 소프트웨어를 설치하고 클러스터 구성 요소(Solaris 운영 체제, Sun Cluster 소프트웨어, 볼륨 관리자나 데이터 서비스 소프트웨어 또는 디스크 하드웨어)에 패치를 적용하기 전에 EarlyNotifier 정보와 패치에 대한 README 파일을 확인하십시오. 클러스터가 제대로 작동하려면 모든 클러스터 노드에 동일한 레벨의 패치가 있어야 합니다.

특정 패치 절차와 패치 관리 방법은 Sun Cluster 3.0 12/01 시스템 관리 안내서를 참조하십시오.

mod_ssl 사용권 조항

mod_ssl에 대한 사용권 조항, 권한 및 저작권 내용을 보려면 Sun Cluster 3.0 5/02 CD-ROM에 있는 Sun Cluster 3.0 README 파일을 참조하십시오.

Sun Management Center 소프트웨어 업그레이드

이 단락에서는 Sun Cluster 3.0 5/02 구성에서 Sun Management Center 2.1.1을 Sun Management Center 3.0 소프트웨어로 업그레이드하는 방법을 설명합니다.

Sun Management Center 소프트웨어를 업그레이드하는 방법

Sun Cluster 3.0 5/02 구성에서 Sun Management Center 2.1.1을 Sun Management Center 3.0 소프트웨어로 업그레이드하려면 이 절차를 수행하십시오.

  1. 다음 항목을 준비하십시오.

    • Sun Cluster 3.0 5/02 CD-ROM 또는 CD-ROM 이미지의 경로. Sun Management Center 소프트웨어를 업그레이드한 후에 CD-ROM을 사용하여 Sun Cluster 모듈 패키지를 다시 설치하게 됩니다.

    • Sun Management Center 3.0 문서.

    • Sun Management Center 3.0 패치 및 Sun Cluster 모듈 패치(있을 경우). 패치 위치와 설치 방법은 "패치 및 필요한 펌웨어 레벨"을 참조하십시오.

  2. Sun Management Center 프로세스를 모두 중지시키십시오.

    1. Sun Management Center 콘솔이 실행되고 있으면 콘솔을 종료하십시오.

      콘솔 창의 메뉴에서 File 메뉴를 선택한 다음 Exit를 선택하십시오.

    2. 각 Sun Management Center 에이전트 시스템(클러스터 노드)에서 Sun Management Center 에이전트 프로세스를 중지시키십시오.


      # /opt/SUNWsymon/sbin/es-stop -a
      

    3. Sun Management Center 서버 시스템에서 Sun Management Center 서버 프로세스를 중지시키십시오.


      # /opt/SUNWsymon/sbin/es-stop -S
      

  3. 수퍼유저 권한으로 표 1-5에 표시된 위치에서 Sun Cluster 모듈 패키지를 제거하십시오.

    모든 위치에서 Sun Cluster 모듈 패키지를 모두 제거해야 합니다. 이것을 제거하지 않으면 패키지 의존성 문제 때문에 Sun Management Center 소프트웨어가 업그레이드되지 않을 수 있습니다. Sun Management Center 소프트웨어를 업그레이드한 후에 단계 5에서 이 패키지를 다시 설치해야 합니다.


    # pkgrm module-package
    

    표 1-5 Sun Cluster 모듈 패키지 제거 위치

    위치 

    제거할 패키지 

    각 클러스터 노드 

    SUNWscsam, SUNWscsal

    Sun Management Center 콘솔 시스템 

    SUNWscscn

    Sun Management Center 서버 시스템 

    SUNWscssv

    Sun Management Center 도움말 서버 시스템 

    SUNWscshl

  4. Sun Management Center 3.0 소프트웨어로 업그레이드하십시오.

    Sun Management Center 3.0 문서에 있는 업그레이드 절차를 따르십시오.

  5. 수퍼유저 권한으로 표 1-6에 표시된 위치에 Sun Cluster 모듈 패키지를 다시 설치하십시오.

    Sun Management Center 3.0 소프트웨어의 경우에는 도움말 서버 시스템뿐 아니라 콘솔 시스템에도 도움말 서버 패키지 SUNWscshl을 설치합니다.


    # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
    # pkgadd module-package
    

    표 1-6 Sun Cluster 모듈 패키지 설치 위치

    위치 

    설치할 패키지 

    각 클러스터 노드 

    SUNWscsam, SUNWscsal

    Sun Management Center 콘솔 시스템 

    SUNWscscn, SUNWscshl

    Sun Management Center 서버 시스템 

    SUNWscssv

    Sun Management Center 도움말 서버 시스템 

    SUNWscshl

  6. 클러스터의 각 노드에 Sun Management Center 패치와 Sun Cluster 모듈 패치를 모두 적용하십시오.

  7. 포함된 모든 시스템에서 Sun Management Center 에이전트, 서버 및 콘솔 프로세스를 다시 시작하십시오.

    Sun Cluster 3.0 12/01 소프트웨어 설치 안내서의 "Sun Management Center를 시작하는 방법"에 있는 절차를 사용하십시오.

  8. Sun Cluster 모듈을 로드하십시오.

    Sun Cluster 3.0 12/01 소프트웨어 설치 안내서의 "Sun Management Center 모듈을 로드하는 방법"에 있는 절차를 사용하십시오.

    전에 Sun Cluster 모듈을 로드했으면 모듈을 언로드한 다음 다시 로드하여 서버에 캐시된 알림 정의를 모두 삭제하십시오. 모듈을 언로드하려면 콘솔의 Details 창에서 Module>Unload Module을 선택하십시오.

Sun Cluster 모듈 자원 및 자원 그룹 생성 마법사

이 단락에서는 Sun Management Center의 Sun Cluster 3.0 모듈에 대하여 문서화되지 않은 정보를 설명합니다. Sun Management Center 3.0 업그레이드에 대한 자세한 내용은 "Sun Management Center 소프트웨어 업그레이드"를 참조하십시오.

Sun Cluster 모듈 콘솔에서 자원 및 자원 그룹의 상태를 만들거나 변경하고 자원 및 자원 그룹을 삭제할 수 있습니다. Sun Cluster Details 창을 열고 계층(트리) 또는 토폴로지 화면에서 옵션을 선택하면 이러한 기능을 액세스할 수 있습니다.

팝업 메뉴 및 관련 테이블

Resource Group Status 테이블 및 Resource Group Properties 테이블에서 액세스:

  • Bring Online [온라인 전환]

  • Take Offline [오프라인 전환]

  • Delete Selected Resource Group [선택한 자원 그룹 삭제]

  • Create New Resource Group [새 자원 그룹 만들기]

  • Create New Resource [새 자원 만들기]

Resource Status 테이블 및 Resource Configuration 테이블에서 액세스:

  • Enable [활성화]

  • Disable [비활성화]

  • Delete Resource [자원 삭제]

  • Create New Resource Group [새 자원 그룹 만들기]

  • Create New Resource [새 자원 만들기]

트리 화면에서 생성 마법사에 액세스하는 방법

자원이나 자원 그룹을 만드는 마법사에 액세스하려면 다음 단계를 수행하십시오.

  1. 계층(트리) 또는 토폴로지 화면에서 Operating System>Sun Cluster를 더블클릭하십시오.

  2. Resource Groups 항목이나 Resource Groups 하위 트리 내의 항목을 마우스 오른쪽 버튼으로 클릭하십시오.

  3. 팝업 메뉴에서 "Create New Resource Group" 또는 "Create New Resource" 메뉴를 선택하십시오.

자원 및 자원 그룹을 만드는 방법

자원 및 자원 그룹 테이블에서 팝업 메뉴를 통해 액세스할 수 있는 생성 마법사를 사용하려면 다음 절차를 수행하십시오.

  1. 자원 테이블 또는 자원 그룹 테이블을 표시하십시오.

  2. 테이블에서 제목 행을 제외한 셀 항목으로 이동하십시오.

  3. 마우스 오른쪽 버튼을 클릭하십시오.

  4. 팝업 메뉴에서 원하는 작업을 선택하십시오.

자원 및 자원 그룹을 삭제하거나 변경하는 방법

자원의 상태를 변경하거나 자원 또는 자원 그룹을 삭제하려면 다음 단계를 수행하십시오. 자원 및 자원 그룹 테이블에서 팝업 메뉴를 사용하면 자원을 활성화 또는 비활성화하거나 자원 그룹을 온라인 또는 오프라인으로 전환할 수 있습니다.

  1. 자원 또는 자원 그룹 테이블을 표시하십시오.

  2. 변경할 항목을 선택하십시오.

    • 항목을 삭제하려면 삭제할 자원이나 자원 그룹을 선택하십시오.

    • 항목의 상태를 변경하려면 변경할 자원이나 자원 그룹의 행에서 상태 셀을 선택하십시오.

  3. 마우스 오른쪽 버튼을 클릭하십시오.

  4. 팝업 메뉴에서 다음 중 한 가지 작업을 선택하여 수행하십시오.

    • Bring Online [온라인 전환]

    • Take Offline [오프라인 전환]

    • Enable [활성화]

    • Disable [비활성화]

    • Delete Selected Resource Group [선택한 자원 그룹 삭제]

    • Delete Resource [자원 삭제]


주 -

자원이나 자원 그룹의 상태를 삭제하거나 편집하면 Sun Cluster 모듈이 Probe Viewer 창을 실행합니다. Sun Cluster 모듈이 사용자가 선택한 작업을 성공적으로 수행하면 Probe Viewer 창에 Probe command returned no data라는 메시지가 표시됩니다. 작업이 성공적으로 완료되지 않으면 창에 오류 메시지가 표시됩니다.


Sun Management Center에 대한 자세한 내용은 Sun Management Center 문서 및 온라인 도움말을 참조하십시오.

알려진 문제점

다음에 나오는 알려진 문제점은 Sun Cluster 3.0 5/02 릴리스의 작동에 영향을 줍니다. 최신 정보는 http://docs.sun.com에서 온라인으로 Sun Cluster 3.0 5/02 Release Notes Supplement를 참조하십시오.

버그 ID 4490386

문제점 요약: 클러스터에서 Sun Enterprise 10000 서버를 사용할 때 일정한 I/O 카드 구성을 사용하면 서버가 중지됩니다.

조치: 클러스터에서는 Sun Enterprise 10000 서버의 SBus I/O 슬롯 0에 UDWIS I/O 카드를 설치하지 마십시오.

버그 ID 4501655

문제점 요약: 잠글 장치가 /dev/global/rdsk/d4s0과 같은 글로벌 장치일 때 다른 노드에 대한 레코드 잠금이 작동하지 않습니다.

특정 노드에 대하여 백그라운드로 프로그램을 여러 번 실행하면 레코드 잠금이 제대로 작동하는 것 같습니다. 첫 번째 프로그램 사본이 장치의 일부를 잠그면 다른 프로그램 사본은 장치 잠금이 해제될 때까지 block waiting 상태가 됩니다. 그러나 프로그램이 다른 노드에서 실행되면 실제로는 장치 잠금이 해제될 때까지 block waiting 상태가 되어야 하지만 프로그램이 다시 장치를 잠글 수 있습니다.

조치: 해결 방법은 없습니다.

버그 ID 4504311

문제점 요약: Sun Cluster 구성이 Solaris 8 10/01 소프트웨어로 업그레이드되면(Sun Cluster 3.0 12/01 업그레이드를 위해 필요) Apache의 시작 및 중단 스크립트가 복원됩니다. Apache 데이터 서비스(Apache용 Sun Cluster HA)가 이미 클러스터에 있고 기본 구성(/etc/apache/httpd.conf 파일은 있고 /etc/rc3.d/S50apache 파일은 없는)으로 구성되어 있으면 Apache 응용프로그램이 Apache용 Sun Cluster HA 데이터 서비스를 사용하지 않고 자체적으로 시작됩니다. 그러면 Apache가 이미 실행되고 있기 때문에 데이터 서비스가 시작되지 않습니다.

조치: 각 노드에 대하여 다음을 수행하십시오.

  1. 업그레이드할 노드를 종료하기 전에 다음 링크가 이미 있는지 확인하십시오. 있으면 파일 이름에 대문자 K나 S가 포함되어 있는지 확인하십시오.


    /etc/rc0.d/K16apache
    /etc/rc1.d/K16apache
    /etc/rc2.d/K16apache
    /etc/rc3.d/S50apache
    /etc/rcS.d/K16apache

    이러한 링크가 이미 있고 파일 이름에 대문자 K나 S가 포함되어 있으면 다른 조치가 필요없습니다. 그렇지 않은 경우에는 노드를 Solaris 8 10/01 소프트웨어로 업그레이드한 후에 다음 단계의 작업을 수행하십시오.

  2. 노드를 Solaris 8 10/01 소프트웨어로 업그레이드하고 나서 노드를 다시 부트하기 전에 소문자 k나 s로 파일 이름을 변경하여 복원된 Apache 링크를 따로 보관하십시오.


    # mv /a/etc/rc0.d/K16apache /a/etc/rc0.d/k16apache
    # mv /a/etc/rc1.d/K16apache /a/etc/rc1.d/k16apache
    # mv /a/etc/rc2.d/K16apache /a/etc/rc2.d/k16apache
    # mv /a/etc/rc3.d/S50apache /a/etc/rc3.d/s50apache
    # mv /a/etc/rcS.d/K16apache /a/etc/rcS.d/k16apache
    

버그 ID 4511699

문제점 요약: NFS용 Sun Cluster HA를 사용하려면 /etc/nsswitch.conf 파일의 hosts 참조 항목에 files [SUCCESS=return]이 필요하고 모든 클러스터 노드의 /etc/inet/hosts 파일에 모든 클러스터 개인 IP 주소가 있어야 합니다.

그렇지 않으면 공용 네트워크 장애가 발생할 경우에 NFS용 Sun Cluster HA가 제대로 페일오버할 수 없습니다.

조치: 클러스터의 각 노드에서 다음 단계를 수행하십시오.

  1. 로컬로 이름을 인식하는 데 성공할 경우에 즉시 성공을 반환하고 NIS나 DNS에 확인하지 않도록 /etc/nsswitch.conf 파일에서 hosts 항목을 수정하십시오.


    hosts: cluster files [SUCCESS=return] nis dns

  2. 모든 클러스터 개인 IP 주소에 대한 항목을 /etc/inet/hosts 파일에 추가하십시오.

/etc/nsswitch.conf/etc/inet/hosts 파일에서 물리적인 개인 인터페이스에 대하여 확인된 IP 주소만 추가하면 됩니다. 논리 IP 주소는 이미 클러스터 nsswitch 라이브러리를 통해 확인할 수 있습니다.

물리적인 개인 IP 주소를 표시하려면 클러스터 노드에서 다음 명령을 실행하십시오.


% grep ip_address /etc/cluster/ccr/infrastructure

이 목록의 각 IP 주소에 도메인의 다른 호스트 이름과 충돌하지 않는 고유한 호스트 이름이 할당되어야 합니다.


주 -

Sun Cluster 소프트웨어를 사용하려면 모든 클러스터 노드의 /etc/inet/hosts에 HA IP 주소(LogicalHostname/SharedAddresses)가 있어야 하고 filesnis 또는 dns 전에 표시되어야 합니다. 이 버그 때문에 필요한 추가 요구 사항은 [SUCCESS=return]files 다음에 표시하고 /etc/inet/hosts 파일에 모든 클러스터 개인 IP 주소를 표시하는 것입니다.


버그 ID 4526883

문제점 요약: 가끔 qfe 어댑터에서 끝나는 개인 상호 연결 전송 경로가 나타나지 않습니다.

조치: 다음 단계를 수행하십시오.

  1. 결함이 발생한 어댑터를 확인하십시오.

    Scstat -W 명령을 실행하면 해당 어댑터를 경로 종단점 중 하나로 사용하는 모든 전송 경로가 "faulted" 또는 "waiting" 상태로 표시됩니다.

  2. scsetup(1M) 명령을 사용하여 해당 어댑터에 연결된 모든 케이블을 클러스터 구성에서 제거하십시오.

  3. 다시 scsetup 명령을 사용하여 해당 어댑터를 클러스터 구성에서 제거하십시오.

  4. 어댑터와 케이블을 다시 클러스터 구성에 추가하십시오.

  5. 이 단계로 문제가 해결되고 경로가 다시 표시되는지 확인하십시오.

케이블과 어댑터를 제거했다가 다시 추가해도 작동하지 않으면 절차를 몇 번 반복하십시오. 그래도 해결되지 않으면 문제의 어댑터가 있는 노드를 다시 부트하십시오. 노드를 다시 부트하면 문제가 해결되는 경우가 있습니다. 노드를 다시 부트하기 전에 남은 클러스터에 노드를 다시 부트하는 데 필요한 정족수 개수가 충분한지 확인하십시오.

버그 ID 4620185

문제점 요약: rpc.pmfd 데몬이 signal을 처리한 후에 결과로 새 프로세스를 분기시키는 프로세스를 모니터할 경우에 pmfadm -k tag signal 명령을 실행하면 무한 루프가 실행될 수 있습니다. 새로 분기된 프로세스(이전 프로세스를 중지시킬 때마다 하나씩 추가)가 추가되고 pmfadm(1M)이 태그의 프로세스에 포함된 모든 프로세스를 중지시킬 경우에 이러한 문제가 발생할 수 있습니다.


주 -

pmfadm -s tag signal 명령을 사용하면 이 버그가 발생하지 않습니다.


조치: pmfadm -k 명령 대신 pmfadm -s tag signal 명령을 사용하십시오. pmfadm 명령에 -s 옵션을 사용하면 -k 옵션을 사용할 때와 같은 분기 문제가 발생하지 않습니다.

버그 ID 4629536

문제점 요약: forcedirectio 마운트 옵션과 mmap(2) 함수를 동시에 사용하면 데이터가 손상되고 시스템이 멈출 수 있습니다.

조치: 다음 제한 사항을 참조하십시오.

directio를 사용해야 할 경우에는 directio 옵션을 사용하여 전체 파일 시스템을 마운트하십시오.

버그 ID 4634409

문제점 요약: 서로 다른 마운트 포인트에 동일한 장치를 마운트하면 대부분의 경우에 시스템이 이 오류를 발견하여 두 번째 마운트에 실패합니다. 그러나 드믄 경우지만 일부 조건에서는 시스템이 이 오류를 발견하지 못하여 두 가지 마운트에 모두 성공할 수도 있습니다. 다음 네 가지 조건이 모두 충족되는 경우에 이러한 상황이 발생합니다.

조치: 시스템 관리자가 클러스터에 파일 시스템을 마운트할 때 주의해야 합니다.

버그 ID 4638586

문제점 요약: scconf(1M) 명령을 실행해도 VxVM 디스크 그룹을 다시 하위 그룹으로 만들지 못하고 device is already in use in another device group이라는 오류 메시지가 표시됩니다.

조치: 다음 단계를 수행하여 디스크 그룹에 새 하위 번호를 할당하십시오.

  1. 이미 사용하는 하위 번호를 확인하십시오.

    다음 출력에서 기본 번호와 함께 사용하고 있는 하위 번호를 확인하십시오.


    % ls -l /dev/vx/rdsk/*/*
     
    crw-------   1 root     root     210,107000 Mar 11 18:18 /dev/vx/rdsk/fix/vol-01
    crw-------   1 root     root     210,88000 Mar 15 16:31 /dev/vx/rdsk/iidg/vol-01
    crw-------   1 root     root     210,88001 Mar 15 16:32 /dev/vx/rdsk/iidg/vol-02
    crw-------   1 root     root     210,88002 Mar 15 16:33 /dev/vx/rdsk/iidg/vol-03
    crw-------   1 root     root     210,88003 Mar 15 16:49 /dev/vx/rdsk/iidg/vol-04
    crw-------   1 root     root     210,13000 Mar 18 16:09 /dev/vx/rdsk/sndrdg/vol-01
    crw-------   1 root     root     210,13001 Mar 18 16:08 /dev/vx/rdsk/sndrdg/vol-02

  2. 사용하지 않는 다른 1000의 배수를 새 디스크 그룹의 기본 하위 번호로 선택하십시오.

  3. 사용하지 않는 하위 번호를 오류가 발생한 디스크 그룹에 할당하십시오.

    vxdg 명령의 하위 지정 옵션을 사용하십시오.

  4. 실패한 scconf 명령을 다시 실행하십시오.

버그 ID 4644289

문제점 요약: Solaris 9에서 공용 네트워크 장애가 발생할 경우에 외부 이름 서비스를 사용할 수 없으면 Oracle용 Sun Cluster HA 데이터 서비스의 중지 메소드가 시간 초과될 수 있습니다. Oracle용 Sun Cluster HA 데이터 서비스는 su(1M) 사용자 명령을 사용하여 데이터베이스를 시작하고 중지시킵니다.

조치: oracle_server 또는 oracle_listener 자원의 1차가 될 수 있는 각 노드에서 /etc/nsswitch.conf 파일을 수정하여 passwd, group, publickeyproject 데이터베이스에 대한 다음 항목을 포함시키십시오.


passwd:       files
group:        files
publickey:    files
project:      files

이렇게 수정하면 su(1M) 명령이 NIS/NIS+ 이름 서비스를 참조하지 않고 네트워크 장애가 발생할 경우에 정확하게 데이터 서비스가 시작되고 중지됩니다.

버그 ID 4648767

문제점 요약: sendfile(3EXT)을 사용하면 노드가 정지됩니다.

조치: sendfile을 사용하지 않는 방법 외에는 이 문제를 해결할 방법이 없습니다.

버그 ID 4651392

문제점 요약: Solaris 9에서 종료되는 클러스터 노드가 중지되고 다음과 같은 메시지가 표시될 수 있습니다.


CMM: Shutdown timer expired. Halting

조치: 이 문제를 해결할 방법은 없습니다. 노드가 중지되어도 다른 추가 영향은 없기 때문에 비교적 나쁜 영향이 없는 것으로 처리할 수 있습니다.

버그 ID 4653151

문제점 요약: FilesystemMountPoints 확장 등록 정보에 지정된 파일 시스템 마운트 포인트의 순서가 /etc/vfstab 파일에 지정된 순서와 동일하지 않을 경우에 HAStoragePlus 자원을 만들 수 없습니다.

조치: FilesystemMountPoints 확장 등록 정보에 지정된 마운트 포인트 목록이 /etc/vfstab 파일에 지정된 순서와 일치하게 만드십시오. 예를 들어, /etc/vfstab 파일에 파일 시스템 항목이 /a, /b, /c 순서로 지정되어 있으면, FilesystemMountPoints 순서가 "/a,/b,/c", "/a,/b" 또는 "/a,/c" 순서는 가능하지만 "/a,/c,/b" 순서는 안됩니다.

버그 ID 4653788

문제점 요약: Failover_enabled 확장 등록 정보가 FALSE로 설정되면 이 설정 때문에 자원 모니터가 자원 그룹 페일오버를 시작하지 못하는 것 같습니다.

그러나 모니터가 자원을 다시 시작하고 START 또는 STOP 메소드가 실패하거나 시간 초과되면 Failover_enabled의 설정에 관계없이 모니터가 취소를 시도합니다.

조치: 이 버그를 해결할 방법은 없습니다.

버그 ID 4655194

문제점 요약: 장치 그룹 스위치오버 명령(scswitch?-D device-group)이 실행되면 로컬로 마운트된 VxFS에 있는 Solstice DiskSuite 소프트 파티션 기반의 장치 그룹이 오류를 트리거할 수 있습니다.

Solstice DiskSuite는 내부적으로 미러 재동기화 작업을 수행하는데 이 작업에는 많은 시간이 걸릴 수 있습니다. 미러를 재동기화하면 중복 수준이 떨어집니다. VxFS는 이 연결에서 오류를 보고하여 결함 모니터/응용프로그램 IO 장애를 발생시키므로 응용프로그램이 다시 시작됩니다.

조치: HAStoragePlus를 사용하여 구성된 Solstice DiskSuite 장치 그룹의 경우에는 직접 장치 그룹을 스위치오버하지 마십시오. 대신 자원 그룹을 스위치오버하십시오. 그러면 오류 없이 장치가 스위치오버됩니다.

아니면 VxVM 디스크 그룹에 로컬로 마운트된 VxFS 파일 시스템을 구성하십시오.

버그 ID 4656367

문제점 요약: 일부 오류 메시지가 Sun Cluster 3.0 5/02 CD-ROM에 포함되지 않았습니다.

조치: 이 오류 메시지에 대한 설명은 "새 오류 메시지"에 있습니다.

버그 ID 4656391

문제점 요약: 1차가 아닌(2차) 노드에서 Sun Cluster에 있는 파일 시스템에 대하여 fsck(1M) 명령을 실행하면 글로벌 Solstice DiskSuite/VxVM 장치 그룹에 장애가 발생합니다. 이전 Solaris 릴리스에서도 이런 오류가 있었을 가능성이 있지만 이 버그는 Solaris 9에서 발견되었습니다.

조치: 1차 노드에서만 fsck 명령을 실행하십시오.

버그 ID 4656531

문제점 요약: 여러 개의 리스너 자원이 동일한 리스너 이름을 사용하여 리스너를 시작하도록 구성되어 있으면 Oracle용 Sun Cluster HA 리스너 자원이 정확하게 작동하지 않습니다.

조치: 클러스터에서 실행하는 여러 리스너에 동일한 리스너 이름을 사용하지 마십시오.

버그 ID 4657088

문제점 요약: Sun Cluster 3.0에서 VxVM 디스크 그룹으로부터 플렉스 연결을 끊으면 클러스터 노드가 중지되고 다음과 같은 중지 문자열이 표시될 수 있습니다.


  panic[cpu2]/thread=30002901460: BAD TRAP: type=31 rp=2a101b1d200 addr=40  
  mmu_fsr=0 occurred in module "vxfs" due to a NULL pointer dereference

조치: 플렉스 연결을 끊기 전에 해당 파일 시스템의 마운트를 해제하십시오.

버그 ID 4657833

문제점 요약: 자원 그룹 등록 정보 auto_start_on_new_clusterfalse로 설정된 경우에는 페일오버가 실행되지 않습니다.

조치: 전체 클러스터가 다시 부트될 때마다 auto_start_on_new_cluster 등록 정보가 false로 설정된 자원 그룹에 대하여 auto_start_on_new_cluster 등록 정보를 true로 설정하고 auto_start_on_new_cluster 등록 정보를 다시 false로 설정하십시오.


# scrgadm -c -g rgname -y auto_start_on_new_cluster=true
# scrgadm -c -g rgname -y auto_start_on_new_cluster=false

버그 ID 4659042

문제점 요약: 글로벌로 마운트된 VxFS 파일 시스템의 경우에 /etc/mnttab 파일 시스템이 글로벌 옵션을 표시하지 않을 수 있습니다.

조치: 클러스터의 모든 노드에서 지정된 파일 시스템에 대한 /etc/mnttab 항목이 발견되면 파일 시스템이 글로벌로 마운트된 것입니다.

버그 ID 4659091

문제점 요약: 글로벌로 마운트된 파일 시스템을 다시 마운트하면 /etc/mnttab가 업데이트되지 않습니다.

조치: 해결 방법은 없습니다.

버그 ID 4660479

문제점 요약: HAStoragePlus에서 NFS용 Sun Cluster HA를 사용할 경우에는 페일오버 및 스위치오버 중에 블로킹 잠금이 복구되지 않습니다. 따라서 lockd가 NFS용 Sun Cluster HA에 의해 다시 시작되지 않고 nfs_postnet_stop 메소드에 실패하여 클러스터 노드가 중지됩니다.

조치: NFS용 Sun Cluster HA를 HAStoragePlus에서 사용하지 마십시오. 클러스터 파일 시스템에는 이러한 문제가 발생하지 않습니다. 따라서 클러스터 파일 시스템에 NFS용 Sun Cluster HA를 구성하면 문제를 해결할 수 있습니다.

버그 ID 4660521

문제점 요약: 노드에서 HTTP 서버가 중단되면 해당 노드에 PID 파일이 남습니다. 다음에 HTTP 서버를 다시 시작하면 PID 파일이 있는지 그리고 이 PID에 해당하는 프로세스가 이미 실행되고 있는지 확인합니다(kill -0). PID는 재사용되기 때문에 최근 HTTP 서버 PID와 동일한 PID를 사용하는 다른 프로세스가 있을 수 있습니다. 그러면 HTTP 서버를 시작할 수 없습니다.

조치: 다음과 같은 오류로 인해 HTTP 서버가 시작되지 않으면 해당 HTTP 서버에 대한 PID 파일을 직접 제거하여 정상적으로 다시 시작하십시오.


Mar 27 17:47:58 ppups4 uxwdog[939]: could not log PID to PidLog 
/app/iws/https-schost-5.example.com/logs/pid, server already 
running (No such file or directory)

버그 ID 4662264

문제점 요약: Sun Cluster 소프트웨어에서 VxFS와 같은 VERITAS 제품을 사용할 때 중지되지 않게 하려면 기본 스레드 스택 크기를 증가시켜야 합니다.

조치: /etc/system 파일에 다음 행을 추가하여 스택 크기를 증가시키십시오.


set lwp_default_stksize=0x6000
set svc_default_stksize 0x8000

NFS 작동을 위해 svc_default_stksize 항목이 필요합니다.

VERITAS 패키지를 설치한 후에 VERITAS 제품이 비슷한 내용을 /etc/system 파일에 추가하지 않았는지 확인하십시오. 그러면 더 큰 값을 사용하는 내용이어야 합니다.

버그 ID 4663876

문제점 요약: 정렬된 노드 목록에 있는 3 노드 이상 장치 그룹에서 제거되는 노드가 정렬된 목록에 있는 마지막 노드가 아니면 scconf 명령의 결과에 노드 목록에 대한 일부 정보가 표시됩니다.

조치:

버그 ID 4664510

문제점 요약: Sun StorEdge T3 Array 중 하나의 전원을 끄고 scshutdown 명령을 실행한 다음에 두 노드를 다시 부트하면 클러스터가 작동하지 않는 상태가 됩니다.

조치: 복제의 반이 손실되었으면 다음 단계를 수행하십시오.

  1. 클러스터가 클러스터 모드인지 확인하십시오.

  2. 강제로 디스크 세트를 가져오십시오.


    # metaset -s set-name -f -C take
    

  3. 손실된 복제를 삭제하십시오.


    # metadb -s set-name -fd /dev/did/dsk/dNsX
    

  4. 디스크 세트 사용을 해제하십시오.


    # metaset -s set-name -C release
    

    이제 파일 시스템을 마운트하여 사용할 수 있습니다. 그러나 복제의 중복은 복원되지 않았습니다. 복제의 나머지 절반이 손실되면 미러를 정상 상태로 복원할 수 없습니다.

  5. 위의 복구 절차를 실행한 후에 데이터베이스를 다시 만드십시오.

문서의 알려진 문제

이 단락에서는 문서, 온라인 도움말 또는 설명서 페이지와 단계의 오류나 누락 및 이러한 문제를 보완하는 단계를 설명합니다.

SunPlex Manager 온라인 도움말 수정

SunPlex Manager의 온라인 도움말에 잘못된 내용이 있습니다. 이 내용은 Oracle 데이터 서비스 설치 절차에 나옵니다. 다음과 같이 수정해야 합니다.

잘못된 내용:

Note: If no entries exist for the shmsys and semsys variables in the /etc/system file when SunPlex Manager packages are installed, default values for these variables are automatically put in the /etc/system file. The system must then be rebooted. Check Oracle installation documentation to verify that these values are appropriate for your database.

정확한 내용:

Note: If no entries exist for the shmsys and semsys variables in the /etc/system file when you install the Oracle data service, default values for these variables can be automatically put in the /etc/system file. The system must then be rebooted. Check Oracle installation documentation to verify that these values are appropriate for your database.

Oracle용 Sun Cluster HA 패키지

Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide의 "Oracle용 Sun Cluster HA 패키지 설치" 소개 단락에서는 64비트 Oracle에서 Oracle용 Sun Cluster HA를 실행하는 클러스터 사용자에게 필요한 추가 패키지에 대하여 설명하지 않습니다. 다음 단락에서는 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide에 있는 "Oracle용 Sun Cluster HA 패키지 설치" 소개 단락의 내용을 수정합니다.

Oracle용 Sun Cluster HA 패키지 설치

사용자의 구성에 따라 scinstall(1M) 유틸리티를 사용하여 다음 패키지 중 한 가지 또는 두 가지를 클러스터에 설치하십시오. 대화식이 아닌 scinstall을 사용하여 모든 데이터 서비스 패키지를 설치할 경우에는 -s 옵션을 사용하지 마십시오.


주 -

SUNWscorSUNWscorx를 위한 사전 준비 패키지입니다.


처음에 Sun Cluster를 설치할 때 SUNWscor 데이터 서비스 패키지를 설치했으면 "Oracle용 Sun Cluster HA 등록 및 구성"(30페이지)으로 이동하십시오. 설치하지 않았으면 다음 절차를 사용하여 SUNWscorSUNWscorx 패키지를 설치하십시오.

VERITAS Volume Manager에서 간단한 루트 디스크 그룹

Sun Cluster 소프트웨어의 VERITAS Volume Manager에서는 간단한 루트 디스크 그룹을 디스크 유형으로 사용할 수 없습니다. 따라서 Sun Cluster 3.0 12/01 시스템 관리 안내서에 있는 "캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)"의 절차를 수행하려면 루트 디스크 그룹(rootdg)이 루트 디스크의 단일 슬라이스에 있는지 확인하는 단계 9를 빼야 합니다. 단계 1부터 단계 8까지 완료하고 단계 9를 생략하고 단계 10부터 절차의 끝까지 진행하면 됩니다.

Sun Cluster 3.0 소프트웨어 업데이트 릴리스로 업그레이드

다음 내용은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "Sun Cluster 3.0 소프트웨어 업데이트 릴리스로 업그레이드하는 방법"의 단계 8에 대한 수정 사항입니다.

    (옵션)

    (옵션) Solaris 8 소프트웨어를 업그레이드하십시오.

    1. /etc/vfstab 파일의 모든 글로벌 장치 항목에 잠깐 동안 주석 표시를 하십시오.

      이것은 Solaris를 업그레이드할 때 글로벌 장치를 마운트하지 않도록 하기 위한 것입니다.

    2. 업그레이드할 노드를 종료하십시오.


      # shutdown -y -g0
      ok

    3. 업그레이드할 Solaris 8 Maintenance Update 버전에 대한 설명은 설치 안내서를 참조하십시오.


      주 -

      노드를 다시 부트할 것인지 묻는 메시지가 나오면 다시 부트하지 마십시오.


    4. 단계 a에서 주석 표시를 한 /a/etc/vfstab 파일의 모든 글로벌 장치 항목에서 주석 표시를 제거하십시오.

    5. Solaris 소프트웨어 패치와 하드웨어 관련 패치를 설치하고, 하드웨어 패치에 필요한 펌웨어가 포함되어 있으면 다운로드하십시오.

      패치를 설치하고 다시 부트해야 하는 경우에는 단계 f의 설명에 따라 비클러스터 모드로 노드를 다시 부트하십시오.

    6. 비클러스터 모드로 노드를 다시 부트하십시오.

      명령에 점선 두 개(--)와 이중 따옴표(")를 포함하십시오.


      # reboot -- "-x"
      

Sun Cluster 2.2에서 Sun Cluster 3.0 소프트웨어로 업그레이드

다음 업그레이드 절차에는 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서가 발표된 후에 변경된 사항과 수정 사항이 포함되어 있습니다.

Sun Cluster 2.2에서 Sun Cluster 3.0 5/02 소프트웨어로 업그레이드하려면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 절차 대신 다음 절차를 수행하십시오.

클러스터 소프트웨어 패키지를 업그레이드하는 방법

  1. 클러스터 노드에서 수퍼유저가 되십시오.

  2. CD-ROM에서 설치할 경우에는 노드의 CD-ROM 드라이브에 Sun Cluster 3.0 5/02 CD-ROM을 넣으십시오.

    볼륨 데몬 vold(1M)가 실행되고 CD-ROM 장치를 관리하도록 구성되어 있으면 이 데몬이 자동으로 CD-ROM을 /cdrom/suncluster_3_0_u3 디렉토리에 마운트합니다.

  3. /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages 디렉토리로 이동하십시오.


    # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
    

  4. 사용하는 볼륨 관리자가 Solstice DiskSuite이면 각 노드에 최신 Solstice DiskSuite mediator 패키지(SUNWmdm)를 설치하십시오.

    1. SUNWmdm 패키지를 추가하십시오.


      # pkgadd -d . SUNWmdm
      

    2. 노드를 다시 부트하십시오.


      # shutdown -g0 -y -i6
      

    3. 다른 노드에서 반복하십시오.

  5. mediator를 다시 구성하십시오.

    1. mediator 호스트를 추가할 대상 디스크 세트에 대한 소유권이 있는 노드를 확인하십시오.


      # metaset -s setname
      
      -s setname

      디스크 세트 이름을 지정합니다

    2. 소유권이 있는 노드가 없으면 디스크 세트에 대한 소유권을 받으십시오.


      # metaset -s setname -t
      
      -t

      디스크 세트에 대한 소유권을 받습니다

    3. mediator를 다시 만드십시오.


      # metaset -s setname -a -m mediator-host-list
      
      -a

      디스크 세트에 추가합니다

      -m mediator-host-list

      디스크 세트의 mediator 호스트로 추가할 노드의 이름을 지정합니다.

    4. 각 디스크 세트에 대하여 반복하십시오.

  6. 각 노드에서 rpc.pfmd 데몬을 종료하십시오.


    # /etc/init.d/initpmf stop
    

  7. 첫 번째 노드를 Sun Cluster 3.0 5/02 소프트웨어로 업그레이드하십시오.

    이 절차에서는 이 노드가 첫 번째 설치 노드입니다.

    1. 업그레이드할 첫 번째 노드에서 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools 디렉토리로 이동하십시오.


      # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
      

    2. 클러스터 소프트웨어 프레임워크를 업그레이드하십시오.


      # ./scinstall -u begin -F
      
      -F

      클러스터에 설치되는 첫 번째 노드임을 지정합니다

      자세한 내용은 scinstall(1M) 설명서 페이지를 참조하십시오.

    3. Sun Cluster 패치가 있으면 첫 번째 노드에 설치하십시오.

      패치 위치와 설치 방법은 Sun Cluster 3.0 5/02 릴리스 정보를 참조하십시오.

    4. 노드를 다시 부트하십시오.


      # shutdown -g0 -y -i6
      

      첫 번째 노드가 클러스터 모드로 다시 부트되면 클러스터가 구성됩니다.

  8. 두 번째 노드를 Sun Cluster 3.0 5/02 소프트웨어로 업그레이드하십시오.

    1. 두 번째 노드에서 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools 디렉토리로 이동하십시오.


      # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
      

    2. 클러스터 소프트웨어 프레임워크를 업그레이드하십시오.


      # ./scinstall -u begin -N node1
      
      -N node1

      클러스터에 설치할 두 번째 노드의 이름을 지정하는 것이 아니고, 설치된 첫 번째 노드의 이름을 지정합니다

      자세한 내용은 scinstall(1M) 설명서 페이지를 참조하십시오.

    3. Sun Cluster 패치가 있으면 두 번째 노드에 설치하십시오.

      패치 위치와 설치 방법은 Sun Cluster 3.0 5/02 릴리스 정보를 참조하십시오.

    4. 노드를 다시 부트하십시오.


      # shutdown -g0 -y -i6
      

  9. 두 노드가 모두 다시 부트되면 두 노드에서 두 노드가 모두 클러스터 구성원인지 확인하십시오.


    -- Cluster Nodes --
                       Node name      Status
                       ---------      ------
      Cluster node:    phys-schost-1  Online
      Cluster node:    phys-schost-2  Online

    클러스터 상태 표시에 대한 자세한 내용은 scstat(1M) 설명서 페이지를 참조하십시오.

  10. 정족수 장치가 될 공유 디스크를 선택하십시오.

    두 노드가 모두 공유하는 디스크를 정족수 장치로 사용할 수 있습니다. 두 노드에서 scdidadm(1M) 명령을 사용하여 공유 디스크의 DID(장치 ID) 이름을 확인하십시오. 이 장치 이름은 단계 5에서 scinstall 명령에 -q globaldev=DIDname 옵션을 사용하여 지정합니다.


    # scdidadm -L
    

  11. 공유 정족수 장치를 구성하십시오.

    1. scsetup(1M) 유틸리티를 시작하십시오.


      # scsetup
      

      Initial Cluster Setup 화면이 표시됩니다.

      정족수 설정 프로세스가 중단되거나 성공적으로 완료되지 않으면 scsetup을 다시 실행하십시오.

    2. Do you want to add any quorum disks? 프롬프트에서 공유 정족수 장치를 구성하십시오.

      2-노드 클러스터는 공유 정족수 장치가 구성될 때까지 설치 모드 상태를 유지합니다. scsetup 유틸리티가 정족수 장치를 구성하면 Command completed successfully 메시지가 표시됩니다.

    3. Is it okay to reset "installmode"? 프롬프트에서 Yes라고 응답하십시오.

      scsetup 유틸리티가 클러스터에 대한 정족수 구성과 투표 수를 설정하면 Cluster initialization is complete라는 메시지가 표시되고 유틸리티가 Main Menu로 돌아갑니다.

    4. scsetup 유틸리티를 종료하십시오.

  12. 한 노드에서 장치 및 노드 정족수 구성을 확인하십시오.

    이 명령을 실행하기 위해 수퍼유저가 될 필요는 없습니다.


    % scstat -q
    

  13. 한 노드에서 클러스터 설치 모드가 비활성화되었는지 확인하십시오.

    이 명령을 실행하기 위해 수퍼유저가 될 필요는 없습니다.


    % scconf -p | grep "Cluster install mode:"
    Cluster install mode:                                  disabled

  14. 디렉토리 경로를 업데이트하십시오.

    Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "루트 환경을 업데이트하는 방법"으로 이동하십시오.

예: Sun Cluster 2.2에서 Sun Cluster 3.0 5/02 소프트웨어로 업그레이드 - 시작 프로세스

다음은 2-노드 클러스터에서 Sun Cluster 2.2를 Sun Cluster 3.0 5/02 소프트웨어로 업그레이드하는 시작 프로세스의 예입니다. 클러스터 노드 이름은 첫 번째 설치되는 노드가 phys-schost-1이고, phys-schost-1이 구성한 클러스터에 연결하는 노드가 phys-schost-2입니다. 볼륨 관리자는 Solstice DiskSuite이고 두 노드 모두 디스크 세트 schost-1에 대한 mediator 호스트로 사용됩니다.


(각 노드에 최신 Solstice DiskSuite mediator 패키지 설치)
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
# pkgadd -d . SUNWmdm
 
(mediator 복원)
# metaset -s schost-1 -t
# metaset -s schost-1 -a -m phys-schost-1 phys-schost-2
 
(rpc.pmfd 데몬 종료)
# /etc/init.d/initpmf stop
 
(첫 번째 노드에서 업그레이드를 시작하고 다시 부트)
phys-schost-1# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
phys-schost-1# ./scinstall -u begin -F
phys-schost-1# shutdown -g0 -y -i6
 
(두 번째 노드에서 업그레이드를 시작하고 다시 부트)
phys-schost-2# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
phys-schost-2# ./scinstall -u begin -N phys-schost-1
phys-schost-2# shutdown -g0 -y -i6
 
(클러스터 구성원 확인)
# scstat
 
(공유 디스크를 선택하고 정족수 장치로 구성)
# scdidadm -L
# scsetup
Quorum>Add a quorum disk 선택
 
(정족수 장치가 구성되었는지 확인)
# scstat -q
 
(클러스터가 더 이상 설치 모드가 아닌지 확인)
% scconf -p | grep "Cluster install mode:"
Cluster install mode:                                  disabled

클러스터 소프트웨어 업그레이드를 완료하는 방법

이 절차에서는 "클러스터 소프트웨어 패키지를 업그레이드하는 방법"에서 시작된 scinstall(1M) 업그레이드 프로세스를 완료합니다. 클러스터의 각 노드에서 다음 단계를 수행하십시오.

  1. 클러스터의 각 노드에서 수퍼유저가 되십시오.

  2. 사용하는 볼륨 관리자가 VxVM입니까?

    • 아니면 단계 3으로 이동하십시오.

    • 그러면 VxVM 및 VxVM 패치를 설치하고 새 설치에 필요한 루트 디스크 그룹(rootdg)을 만드십시오.

      • VxVM을 설치하고 루트 디스크를 캡슐화하려면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "VERITAS Volume Manager 소프트웨어를 설치하고 루트 디스크를 캡슐화하는 방법"의 절차를 수행하십시오. 루트 디스크를 이중화하려면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "캡슐화된 루트 디스크를 이중화하는 방법"의 절차를 수행하십시오.

      • 루트가 아닌 로컬 디스크에 VxVM을 설치하고 rootdg 디스크 그룹을 만들려면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "VERITAS Volume Manager 소프트웨어만 설치하는 방법" 및 "루트가 아닌 디스크에 rootdg 디스크 그룹을 만드는 방법"의 절차를 수행하십시오.

  3. NFS용 Sun Cluster HA를 업그레이드하십니까?

    그러면 단계 4로 이동하십시오.

    아니면 단계 5로 이동하십시오.

  4. Sun Cluster 3.0 소프트웨어 업그레이드를 완료하고 NFS용 Sun Cluster HA 구성을 변환하십시오.

    NFS용 Sun Cluster HA를 업그레이드하는 경우가 아니면 대신 단계 5를 수행하십시오.

    1. Sun Cluster 3.0 Agents 5/02 CD-ROM을 노드의 CD-ROM 드라이브에 넣으십시오.

      이 단계에서는 볼륨 데몬 vold(1M)가 실행되고 있고 CD-ROM 장치를 관리하도록 구성되어 있다고 가정합니다.

    2. 해당 노드에서 클러스터 소프트웨어 업그레이드를 완료하십시오.


      # scinstall -u finish -q globaldev=DIDname \
      -d /cdrom/scdataservices_3_0_u3 -s nfs
      
      -q globaldev=DIDname

      정족수 장치의 장치 ID(DID) 이름을 지정합니다

      -d /cdrom/scdataservices_3_0_u3

      CD-ROM 이미지의 디렉토리 위치를 지정합니다

      -s nfs

      구성할 NFS용 Sun Cluster HA 데이터 서비스를 지정합니다


      주 -

      다음과 유사한 오류 메시지가 표시될 수 있습니다. 이 오류 메시지는 무시해도 됩니다.


      ** Installing Sun Cluster - Highly Available NFS Server **
      Skipping "SUNWscnfs" - already installed


    3. CD-ROM을 빼십시오.

    4. 다른 노드에서 단계 a부터 단계 c까지 반복하십시오.

      두 노드에서 모두 완료되면 클러스터 설치 모드가 비활성화되고 모든 정족수 투표가 할당됩니다.

    5. 단계 6으로 이동하십시오.

  5. 각 노드에서 Sun Cluster 3.0 소프트웨어 업그레이드를 마치십시오.

    NFS용 Sun Cluster HA를 업그레이드하는 경우에는 대신 단계 4를 수행하십시오.


    # scinstall -u finish -q globaldev=DIDname
    
    -q globaldev=DIDname

    정족수 장치의 장치 ID(DID) 이름을 지정합니다

  6. NFS용 Sun Cluster HA 이외의 데이터 서비스를 업그레이드하는 경우에는 새 설치에 필요한 해당 데이터 서비스의 자원을 구성하십시오.

    절차는 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide를 참조하십시오.

  7. 볼륨 관리자가 Solstice DiskSuite이면 두 노드에서 기존 디스크 장치 그룹을 온라인으로 전환하십시오.


    # scswitch -z -D disk-device-group -h node
    
    -z

    전환을 수행합니다

    -D disk-device-group

    디스크 장치 그룹의 이름을 지정합니다. Solstice DiskSuite 소프트웨어의 경우에는 디스크 세트 이름과 동일합니다

    -h node

    디스크 장치 그룹의 1차 노드로 작동하는 클러스터 노드의 이름을 지정합니다.

  8. 두 노드에서 기존 데이터 서비스 자원 그룹을 온라인으로 전환하십시오.

    이 때 Sun Cluster 2.2 논리 호스트가 Sun Cluster 3.0 5/02 자원 그룹으로 변환되고 논리 호스트의 이름 뒤에 -lh가 추가됩니다. 예를 들어, 논리 호스트 이름이 lhost-1이면 lhost-1-lh라는 자원 그룹으로 업그레이드됩니다. 다음 명령에 변환된 이 자원 그룹 이름을 사용하십시오.


    # scswitch -z -g resource-group -h node
    
    -g resource-group

    온라인으로 전환할 자원 그룹 이름을 지정합니다.

    scrgadm -p 명령을 사용하면 클러스터에 있는 모든 자원 유형과 자원 그룹 목록을 표시할 수 있습니다. scrgadm -pv 명령을 사용하면 이 목록이 자세하게 표시됩니다.

  9. Sun Management Center를 사용하여 Sun Cluster 구성을 모니터하는 경우에는 Sun Cluster용 Sun Management Center 모듈을 설치하십시오.

    1. 최신 버전 Sun Management Center를 사용해야 합니다.

      설치 또는 업그레이드 절차는 Sun Management Center 설명서를 참조하십시오.

    2. Sun Cluster 모듈 패키지를 설치하려면 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "Sun Cluster 모니터링을 위한 설치 요구 사항"의 지침과 절차를 따르십시오.

  10. 모든 노드가 클러스터에 연결되었는지 확인하십시오.

    Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에 있는 "클러스터 구성원을 확인하는 방법"으로 이동하십시오.

예: Sun Cluster 2.2에서 Sun Cluster 3.0 5/02 소프트웨어로 업그레이드 - 종료 프로세스

다음은 2-노드 클러스터에서 Sun Cluster 2.2를 Sun Cluster 3.0 5/02 소프트웨어로 업그레이드하는 종료 프로세스의 예입니다. 클러스터 노드 이름은 phys-schost-1phys-schost-2이고, 장치 그룹 이름은 dg-schost-1과 dg-schost-2이고, 데이터 서비스 자원 그룹 이름은 lh-schost-1lh-schost-2입니다. scinstall 명령을 실행하면 자동으로 NFS용 Sun Cluster HA 구성을 변환합니다.


(각 노드에서 업그레이드 완료)
phys-schost-1# scinstall -u finish -q globaldev=d1 \
-d /cdrom/scdataservices_3_0_u3 -s nfs
phys-schost-2# scinstall -u finish -q globaldev=d1 \
-d /cdrom/scdataservices_3_0_u3 -s nfs
 
(각 노드의 장치 그룹과 데이터 서비스 자원 그룹을 온라인으로 전환)
phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 
phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2

노드 유지 보수 상태 해제

Sun Cluster 3.0 12/01 시스템 관리 안내서에 있는 "노드를 유지 보수 상태에서 해제하는 방법"의 절차가 2 노드 클러스터에는 적용되지 않습니다. 다음 릴리스에서는 2 노드 클러스터에 맞는 절차가 포함될 것입니다.

설명서 페이지

scgdevs(1M) 설명서 페이지

다음 단락에서는 scgdevs 명령의 기능에 대하여 설명합니다. 이 정보는 현재 scgdevs(1M) 설명서 페이지에 포함되어 있지 않습니다.

새로운 정보:

로컬 노드에서 scgdevs(1M) 명령을 실행하면 원격 노드에 대하여 비동기로 작업을 수행합니다. 따라서 로컬 노드에서 명령이 완료되었어도 전체 클러스터에서 작업이 완료된 것은 아닙니다.

SUNW.sap_ci(5) 설명서 페이지

SUNW.sap_as(5) 설명서 페이지

rg_properties(5) 설명서 페이지

새로운 다음 자원 그룹 등록 정보를 rg_properties(5) 설명서 페이지에 추가해야 합니다.

Auto_start_on_new_cluster

이 등록 정보는 새 클러스터가 구성될 때 Resource Group Manager가 자동으로 자원 그룹을 시작할 것인지를 제어합니다.

기본값은 TRUE입니다. TRUE로 설정되면 클러스터의 모든 노드가 동시에 다시 부트될 때 Resource Group Manager가 자원 그룹을 자동으로 시작하여 Desired_primaries를 만듭니다. FALSE로 설정되면 클러스터가 다시 부트될 때 자원 그룹이 자동으로 다시 시작되지 않습니다.

범주: 선택 사항 기본값: True 조정 가능: 언제든지

새 오류 메시지

다음 오류 메시지는 Sun Cluster 3.0 5/02 CD-ROM에 포함되지 않았습니다.


360600:Oracle UDLM package wrong instruction set architecture.

설명:

현재 설치되는 Oracle UDLM 패키지에는 현재 노드가 부트되는 모드에 대하여 잘못된 설명 아키텍처가 포함되어 있습니다(예: Oracle UDLM is 64-bit (sparc9) and the node is currently boot in 32-bit mode (sparc)).

해결책:

Oracle로부터 올바른 시스템 설명 아키텍처가 포함된 Oracle UDLM 패키지를 받아서 설치하거나 현재 Oracle UDLM 버전과 호환되는 설명 아키텍처에서 노드를 부트하십시오.


800320:Fencing %s from shared disk devices.

설명:

클러스터 노드 사이에 공유하는 디스크에서 비구성원 노드를 배제하기 위하여 예약이 수행되었습니다.

해결책:

없음.


558777:Enabling failfast on all shared disk devices.

설명:

예약 페일패스트가 설정됩니다. 따라서 이 디스크 그룹을 공유하는 노드가 다른 노드에 의해 배제되면 작동이 중지됩니다.

해결책:

없음.


309875:Error encountered enabling failfast.

설명:

다른 노드가 공유하는 디스크에 예약 페일패스트를 활성화할 때 오류가 발생했습니다.

해결책:

이 오류는 내부 오류입니다. 모든 노드에서 /var/adm/messages, /var/cluster/ucmm/ucmm_reconf.log/var/cluster/ucmm/dlm*/logs/*의 내용을 저장하고 Sun 서비스 담당 부서에 문의하십시오.