Sun Cluster 3.0 릴리스 정보

1장 Sun Cluster 3.0 릴리스 정보

이 문서에서는 SunTM Cluster 3.0 소프트웨어 릴리스에 대한 다음 정보를 제공합니다.

이 문서의 부록에는 Sun Cluster 3.0 소프트웨어와 데이터 서비스 설치를 계획할 때 사용할 설치 계획 워크시트 및 예가 포함됩니다. 또한 Sun Cluster 3.0 AnswerBooksTM에는 이들 워크시트가 포함됩니다.

새 기능

이 릴리스에는 다음과 같은 새 기능이 포함됩니다.

지원되는 제품

이 절에서는 Sun Cluster 3.0에 지원되는 소프트웨어와 메모리 요구사항을 설명합니다.

Sun Cluster AnswerBooks 설치

Sun Cluster 3.0 사용자 문서는 AnswerBook2 documentation server를 이용하여 AnswerBook2 형식으로 사용할 수 있습니다. Sun Cluster 3.0 AnswerBook2 문서 세트는 다음과 같이 구성됩니다.

AnswerBook2 Documentation Server 설정

Solaris 운영 환경 릴리스에는 AnswerBook2 documentation server 소프트웨어가 포함됩니다. Solaris 운영 환경 CD-ROM과는 별도로, Solaris 문서 CD-ROM에는 documentation server 소프트웨어가 포함됩니다. AnswerBook2 documentation server를 설치하려면 Solaris documentation CD-ROM이 필요합니다.

사이트에 AnswerBook2 documentation server가 설치된 경우, Sun Cluster 3.0 AnswerBooks에 대해 동일한 서버를 사용할 수 있습니다. AnswerBook2 documentation server가 설치되지 않은 경우, 사이트의 시스템에 documentation server를 설치하십시오. documentation server를 사용하려면 클러스터에 대해 관리 인터페이스로 사용하는 관리 콘솔을 선택하시는 것이 좋습니다. 클러스터 노드를 AnswerBook2 documentation server로 사용하지 마십시오.

AnswerBook2 documentation server 설치에 대한 모든 정보는 서버에 Solaris documentation CD-ROM을 로드한 후, README 파일을 보십시오.

Sun Cluster AnswerBooks 보기

다음 프로시저를 사용하여 AnswerBook2 documentation server에서 Sun Cluster 3.0 AnswerBooks를 보십시오. documentation server를 설치하는 동일한 서버의 파일 시스템에 Sun Cluster AnswerBook2 문서를 설치하십시오. Sun Cluster 3.0 AnswerBooks에는 기존 AnswerBook 라이브러리에 문서를 자동으로 추가하는 사후 설치 스크립트가 포함됩니다.

이 프로시저를 사용하려면, 다음 사항이 필요합니다.

Sun Cluster AnswerBooks 설치 방법

이 프로시저를 사용하여 Sun Cluster 3.0 Collection 및 Sun Cluster 3.0 Data Services Collection에 대한 Sun Cluster AnswerBook 패키지를 설치하십시오.

  1. AnswerBook2 documentation server가 설치된 서버의 수퍼유저가 되십시오.

  2. 사전에 Sun Cluster AnswerBooks를 설치한 경우, 이전 패키지를 제거하십시오.

    Sun Cluster AnswerBooks를 설치하지 않은 경우, 이 단계를 무시하십시오.


    # pkgrm SUNWscfab SUNWscdab
    
  3. Sun Cluster CD-ROM 또는 Sun Cluster Data Services CD-ROM을 documentation server에 접속된 CD-ROM 드라이브에 삽입하십시오.

    Volume Management 디먼인 vold(1M)는 CD-ROM을 자동으로 마운트해야 합니다.

  4. 설치할 Sun Cluster AnswerBook 패키지가 들어 있는 CD-ROM의 위치로 디렉토리를 변경하십시오.

    다음 디렉토리에는 Sun Cluster CD-ROM에 대한 패키지가 들어 있습니다. suncluster_3_0/SunCluster_3.0/Packages.

    다음 디렉토리에는 Sun Cluster Data Services CD-ROM에 대한 패키지가 들어 있습니다. scdataservices_3_0/components/SunCluster_Data_Service_Answer_Book_3.0/Packages.

  5. pkgadd(1) 명령을 사용하여 패키지를 설치하십시오.


    # pkgadd -d .
    
  6. 설치할 패키지를 선택하십시오.

    Sun Cluster 3.0 Collection(SUNWscfab) 및 Sun Cluster 3.0 Data Services Collection(SUNWscdab)을 선택하십시오.

  7. pkgadd 설치 옵션 메뉴에서, heavy를 선택하여 시스템에 완전한 패키지를 추가한 후 AnswerBook2 catalog를 갱신하십시오.

    Sun Cluster 3.0 Collection(SUNWscfab) 또는 Sun Cluster 3.0 Data Services Collection(SUNWscdab)을 선택하십시오.

각 CD-ROM에 포함된 문서 콜렉션 패키지에는 문서 서버의 데이터베이스에 콜렉션을 추가한 후 서버를 재시작하는 사후 설치 스크립트가 포함됩니다. 이제 documentation server를 사용하여 Sun Cluster AnswerBooks를 볼 수 있습니다.

PDF 파일 보기

Sun Cluster CD-ROM에는 Sun Cluster 문서 세트의 각 서적이 PDF 파일로 포함되어 있습니다.

Sun Cluster CD-ROM의 다음 디렉토리에는 PDF 파일이 들어 있습니다. ./suncluster_3_0/SunCluster_3.0/Docs/locale/C/PDF.

Data Services CD-ROM의 다음 디렉토리에는 PDF 파일이 들어 있습니다. ./scdataservices_3_0/components/SunCluster_Data_Service_Answer_Book_3.0/Docs/locale/C/PDF.

Sun Cluster AnswerBooks가 전달되는 방법과 유사하게, 여섯 개의 PDF 파일이 Sun Cluster CD-ROM에 전달된 후, 하나의 PDF 파일이 Data Services CD-ROM에 전달됩니다. 각 PDF 파일은 파일에 들어 있는 서적의 약어로 이름붙여집니다.

표 1-2, "서적 제목과 PDF 약어 맵핑"에서는 서적 제목에 대한 PDF 파일 이름 약어의 맵핑을 보여줍니다.

표 1-2 서적 제목과 PDF 약어 맵핑

CD-ROM 

PDF 약어 

서적 제목 

Sun Cluster 

CLUSTINSTALL

Sun Cluster 3.0 Installation Guide

CLUSTNETHW

Sun Cluster 3.0 Hardware Guide

CLUSTAPIPG

Sun Cluster 3.0 Data Services Developers' Guide

CLUSTSYSADMIN

Sun Cluster 3.0 System Administration Guide

CLUSTCONCEPTS

Sun Cluster 3.0 Concepts

CLUSTERRMSG

Sun Cluster 3.0 Error Messages Manual

Data Services 

CLUSTDATASVC

Sun Cluster 3.0 Data Services Installation and Configuration Guide

Sun Cluster 3.0 제한사항

다음 제한사항은 Sun Cluster 3.0 릴리스에 적용됩니다.

지원되는 Solaris 릴리스 및 패치 정보

Sun Cluster 3.0에 대한 필수 패치 및 Solaris 운영 환경에 제공된 버전의 목록에 대해서는 http://sunsolve.sun.com의 SunSolve 웹 페이지에 액세스하십시오. EarlyNotifier 콜렉션 및 검색 기준 "Sun Cluster 3.0."을 지정하여 단순 검색 수행으로 Sun Cluster 페이지를 찾으십시오.

Sun Cluster 3.0을 설치하기 전에, 그리고 패치를 클러스터 구성요소(Solaris 운영 환경, Sun Cluster, 볼륨 관리자 또는 디스크 펌웨어)에 적용하기 전에 EarlyNotifier 정보를 검토하십시오. 모든 클러스터 멤버 노드는 적절한 클러스터 조작을 위해 동일한 패치 레벨에 있어야 합니다.

패치 관리에 대한 특정 패치 프로시저 및 팁은 Sun Cluster 3.0 System Administration Guide을 참조하십시오.

시스템 관리 및 프로시저 갱신

이 절에서는 클러스터를 관리하는 데 사용되는 프로시저에 대한 변경 및 갱신사항을 설명합니다.

syncdir 옵션 변경사항

베타 릴리스에서, /etc/vfstab에서 클러스터 파일 시스템을 추가할 때 syncdir 옵션 지정이 필요했었습니다. GA 릴리스에서는 이 스펙이 필요하지 않습니다. 이 변경에 대한 자세한 정보는 Sun Cluster 3.0 Installation Guide 또는 Sun Cluster 3.0 Concepts 문서를 참조하십시오.

전용 호스트 이름

데이터 서비스를 구성하여 시작한 후 전용 호스트 이름을 변경하기 위해 scsetup 유틸리티를 사용하지 마십시오. scsetup 유틸리티를 사용하여 전용 호스트 이름을 변경할 수도 있지만, 미리 Sun 서비스 담당자에게 문의한 후 시도하여야 합니다.

알려진 문제점

다음에 나오는 알려진 문제점은 Sun Cluster 3.0 GA 릴리스의 조작에 영향을 줍니다. 알려진 문제점에 대한 최신 정보는 http://docs.sun.com에 있는 온라인 릴리스 정보를 통해 액세스할 수 있습니다.

버그 ID 4314698

문제점 요약: Solstice Disksuite 소프트웨어 설치 후, scgdevs(1M) 명령은 Solstice Disksuite 디바이스 링크가 글로벌 이름 공간에 나타나도록 실행되어야 합니다.

조치: scgdevs 명령을 수동으로 실행하여 Solstice Disksuite 디바이스 노드가 작성되도록 하십시오.

버그 ID 4346123

문제점 요약: 여러 번 실패한 후 클러스터 노드를 부팅하면, 클러스터 파일 시스템은 /etc/vfstab 항목에서 자동으로 마운트하는데 실패할 수 있고 부팅 프로세스는 관리 셸에 노드를 위치시킵니다. 디바이스에서 fsck 명령을 실행하면 다음 오류가 발생할 수 있습니다.


# fsck -y /dev/global/rdsk/d1s7
** /dev/global/rdsk/d1s7
Can't roll the log for /dev/global/rdsk/d1s7

조치: 이 문제는 글로벌 디바이스가 오래된 클러스터 파일 시스템 마운트와 연관될 때 발생할 수 있습니다. 다음 명령을 실행한 후, 파일 시스템이 오래된 마운트를 확인하기 위해 오류 상태로 표시되는지 확인하십시오.


# /usr/bin/df -k

글로벌 디바이스가 오래된 클러스터 파일 시스템 마운트와 연관되어 있는 경우, 글로벌 디바이스를 마운트 취소하십시오. 파일 시스템의 사용자가 클러스터 노드 중 한 곳에 있는 경우, 마운트 취소할 수 없다는 것에 유의하십시오. 각 노드에서 다음 명령을 실행하여 파일 시스템에 대한 현재 사용자를 식별하십시오.


# /usr/sbin/fuser -c mountpoint

또한, share(1M) 명령을 실행하여 파일 시스템이 모든 클러스터 노드에서 공유된 NFS가 아닌지 확인하십시오.

버그 ID 4358349

문제점 요약: SharedAddress 자원이 들어 있는 자원 그룹에서 Sun Cluster HA for NFS 자원을 작성하지 마십시오. Sun Cluster 소프트웨어는 해당 데이터 서비스와 함께 SharedAddress 자원을 사용하도록 지원하지 않습니다.

조치: 원하는 논리 호스트 이름 자원을 failover 자원 그룹에 추가하십시오.

이 단계를 사용하여 LogicalHostname 자원을 설정해야 합니다. Sun Cluster HA for NFS에서 사용된 호스트 이름은 SharedAddress 자원이 될 수 없습니다.


# scrgadm -a -L -g resource-group-name -l hostname,...
-a -L -g resource-group-name

논리 호스트 이름 자원을 위치시킬 failover 자원 그룹을 지정합니다.

-l hostname,...

추가될 네트워크 자원(논리 호스트 이름)을 지정합니다.

버그 ID 4358629

문제점 요약: Sun Cluster 2.2에서 Sun Cluster 3.0 소프트웨어로 업그레이드하면 Sun Cluster 2.2 소프트웨어에 대해 작성된 논리 호스트가 호스트 이름이 아닌 IP 주소 번호를 사용할 경우 실패할 수 있습니다.

조치: 이 문제를 해결할 두 가지 방법은 다음과 같습니다.

버그 ID 4359321

문제점 요약: scinstall 유틸리티를 사용하면 글로벌 디바이스 파일 시스템에 대해 /global 디렉토리를 지정할 수 있습니다. 그러나 글로벌 디바이스 파일 시스템의 마운트 지점이 /global/.devices/node@nodeid이므로, 이 스펙이 사용 가능되어져서는 안됩니다.

조치: 글로벌 디바이스 파일 시스템에 대한 올바른 이름을 사용하여 노드를 재설치하십시오.

권장되는 것은 아니지만, /etc/vfstab 파일의 항목을 수정하고, 클러스터를 다시 시동한 후 scgdevs 명령을 실행할 수도 있습니다. 각 /etc/vfstab 파일에 있는 각 /global/.devices/node@nodeid 항목에 글로벌 마운트 옵션이 설정되어 있는지 확인하십시오.

버그 ID 4362435

문제점 요약: Sun Cluster 3.0 모듈이 Sun Management Center 2.1 콘솔에 로드된 후 Resource Type Definition->Properties Table에 액세스 할 때, 테이블이 두 페이지 이상일 경우 테이블은 로드되지 않습니다.

조치: scrgadm -pvv 명령을 실행하여 모든 자원 유형 등록 정보를 보십시오.

버그 ID 4362925

문제점 요약:


nodeA# scshutdown -g0 -y
scshutdown: Unmount of /dev/md/sc/dsk/d30 failed: Device busy.
scshutdown: Could not unmount all PxFS filesystems.

Networker 패키지는 번들로 되어 있고 Oracle을 설치하는 동안 설치되었습니다. 따라서, nsrmmd 디먼이 실행되어 /global/oracle 디렉토리로 마운트되는데, 이는 모든 클러스터 파일 시스템에 대한 마운트 취소를 방지합니다.


nodeA# umount /global/oracle
umount: global/oracle busy
nodeA# fuser -c /global/oracle
/global/oracle: nodeA# umount /global/oracle
umount: global/oracle busy
nodeA# fuser -c /global/oracle
/global/oracle: 335co 317co 302co 273co 272co
nodeA# ps -ef|grep 335
 root 335 273 0 17:17:41 ?       0:00 /usr/sbin/nsrmmd -n 1
 root 448 397 0 17:19:37 console 0:00 grep 335

이 문제는 시스템 종료가 프로세스 nsrmmd가 계속 참조되고 있는 클러스터 파일 시스템을 마운트 취소하려 할 때 Sun Cluster 시스템 종료 동안에 발생합니다.

조치: 마운트 취소될 수 없는 클러스터 파일 시스템을 계속 사용하는 모든 프로세스의 목록을 설정하려면 각 노드에서 fuser(1M) 명령을 실행하십시오. 실패한 scshutdown(1M) 명령이 먼저 실행되었기 때문에 어떠한 Resource Group Manager 자원도 재시작되지 않았음을 확인하십시오. kill -9 명령을 사용하여 현재의 모든 프로세스를 강제종료하십시오. 이 강제종료 목록에는 Resource Group Manager의 제어를 받는 프로세스가 포함되어서는 안됩니다. 모든 해당 프로세스가 종료된 후, scshutdown 명령을 재실행하십시오. 그러면 시스템 종료는 성공적인 완료로 실행되어야 합니다.

버그 ID 4365310

문제점 요약: 자원 상태가 STOP_FAILED인 경우, 자원에 대한 STOP_FAILED 플래그를 수동으로 지워야 합니다. 지워진 플래그를 갖도록 여러 자원을 지정했지만 자원 중 하나가 STOP_FAILED 상태에 있지 않은 경우, 기능은 나열된 다른 자원에 대한 STOP_FAILED 플래그를 지우지 않고 재빨리 리턴됩니다.

이 경우 오류 메시지가 표시되지 않지만, 다른 자원에 대한 플래그는 지워지지 않습니다. STOP_FAILED 상태가 명령에 나열된 모든 자원에 대해 지워지지 않는 동안 실패가 발생했음을 지시하지 않아 부족한 오류 메시지로 혼동이 일어납니다.

조치: 이 문제를 방지하려면, STOP_FAILED 상태에 있는 각 자원에 대해 별도로 STOP_FAILED 플래그를 지우십시오.


# scswitch -c -f STOP_FAILED -j stopfailres -h phys-schost-1

버그 ID 4365700

문제점 요약: 다음 예에서, 여러 자원은 하나의 명령으로 동일한 자원 그룹으로부터 사용 불가능하게 됩니다.


# scswitch -n -j r1,r2,r3

첫번째 자원이 STOP_FAILED 상태로 이동하면, 나머지 자원은 사용 안함 상태로 될 수 있지만 계속 온라인 상태로 있습니다. 이 온라인 상태는 Resource Group Manager 디먼의 올바르지 않은 내부 상태를 나타내며 이로 인해 Resource Group Manager 디먼이 혼동된 상태로 있을 수 있습니다.

조치: 자원을 사용 불가능하게 할 때, 항상 scswitch(1M) 명령당 하나의 자원만 사용 불가능하게 하십시오.

버그 ID 4365729

문제점 요약: 다음 명령을 사용하여 디바이스 그룹을 관리 모드로 두려는 시도는 파일 시스템이 지정된 디바이스 그룹에 마운트되는 경우 실패합니다.


# scswitch -m -D device-group

조치: 디바이스 그룹의 모든 파일 시스템을 마운트 취소하여 관리 모드로 두십시오. 디바이스 그룹은 디바이스를 사용 중인 사용자가 해당 디바이스 그룹에 없음을 의미하는 해당 디바이스 그룹에 있는 디바이스가 사용되지 않고 모든 종속 파일 시스템이 마운트 취소되는 경우에만 관리 모드로 놓여질 수 있습니다.

버그 ID 4366840

문제점 요약: 노드 중 하나가 중지되어 있는 동안 케이블과 연관된 어댑터 또는 접합이 클러스터에서 제거되면 해당 노드는 부팅이 되어 클러스터와 재결합하려 시도할 때 혼동을 일으킵니다.

조치: 노드가 중지되어 있는 동안 이 버그가 수정될 때까지 케이블, 어댑터 또는 접합을 클러스터에서 제거하지 마십시오. 이 혼동이 발생하면, 노드를 다시 시동하십시오. 그러면 노드는 혼동을 일으키지 않고 클러스터와 결합할 수 있습니다.

버그 ID 4366886

문제점 요약: Heavy 시스템 로드는 디바이스 그룹을 온라인으로 가져오게 되어 간섭현상이 일어날 수 있습니다. 이 문제는 VxVM(VERITAS Volume Manager)이 디스크 그룹을 가져오기 위해 미러 동기화와 같은 몇 가지 작업을 수행해야 하기 때문에 발생합니다. heavy 로드에서, 이 작업은 다른 시스템 작업이 중요한 시스템 자원을 사용하고 있기 때문에 시기 적절한 방식으로 완료되지 못하도록 할 수 있습니다. 노드가 부팅될 때 대개 디바이스 그룹이 자동으로 온라인으로 되기 때문에(예를 들어, 파일 시스템이 자동으로 마운트되도록 설정되어 있는 경우), 해당 온라인 hang은 부팅하는 동안 hang으로 표시됩니다.

조치: 시스템 로드를 줄이거나 vxconfigd 디먼의 우선순위를 높이십시오.

버그 ID 4368034

문제점 요약: 원격 프로시저 호출이 진행 중인 동안 Resource Group Manager 디먼이 중지되거나 노드가 중지되는 경우, 다음 중 하나와 같은 오류 메시지가 시스템 콘솔에 인쇄될 수 있습니다.


COMM_FAILURE SystemException: COMM_FAILURE major 3 minor 0 Error 0 completed NO

INV_OBJREF SystemException: INV_OBJREF major 4 minor 9 Bad file number completed NO

이 메시지는 고객 소비용이 아니라 디버깅 용도를 위한 것입니다. Resource Group Manager 디먼이 이미 이 예외에 대해 보다 명료한 syslog 메시지를 쓰기 때문에, 디버깅 printf는 불필요합니다.

조치: 이 콘솔 메시지를 무시하십시오. 노드 중지에 대한 syslog 메시지를 찾아보십시오. 일반적으로, Resource Group Manager 디먼은 해당 이벤트로부터 자동으로 회복됩니다.

버그 ID 4369228

문제점 요약: Oracle이 제공하는 dbassist 유틸리티로는 하드웨어 RAID 디바이스에서 직접적으로 Oracle Parallel Server 데이터베이스를 작성할 수 없습니다.

조치: Oracle Server Manager 라인 모드인 svrgmrl을 사용하여 Sun Cluster 3.0 소프트웨어에 Oracle Parallel Server를 작성하십시오.

버그 ID 4369565

문제점 요약: nfs_upgrade 스크립트는 등멱원(idempotent)이 아닙니다. 스크립트를 두 번 실행할 수 없습니다.

조치: 스크립트를 두 번 실행해야 할 경우, 스크립트를 두 번째에 실행하기 전에 첫번째 시도에서 작성된 NFS 자원과 NFS 자원 유형을 제거하십시오.

버그 ID 4369668

문제점 요약: 시스템 관리자가 관리되는 자원 그룹의 Nodelist 등록 정보를 편집할 때, Resource Group Manager는 노드 목록에 추가된 모든 노드의 등록 정보 Init_nodes=RG_PRIMARIES를 갖는 자원 그룹에 있는 모든 자원에서 INIT 메소드를 실행해야 합니다. Resource Group Manager는 노드 목록에서 삭제된 노드의 해당 자원에서 FINI 메소드를 실행해야 합니다. 유사하게, 자원 유형에 대한 Installed_nodes 등록 정보가 편집되면, Resource Group Manager는 등록 정보 Init_nodes=RT_installed_nodes를 갖고 있고 관리되는 자원 그룹에 있는 해당 유형에 대한 모든 자원에서 INIT 또는 FINI 메소드를 실행해야 합니다.

현재, Resource Group Manager는 이 갱신이 수행될 때 INIT 또는 FINI 메소드를 실행하지 않습니다. 따라서, 자원은 적절히 초기화될 수 없거나 이 노드에서 정리되지 않을 수 있습니다.

조치: scswitch 명령을 사용하여, 관리 취소한 후 영향을 받은 자원 그룹을 다시 관리하십시오. 좀 불편하지만, 이 프로세스는 관리자가 자원 그룹을 오프 라인으로 가져오도록 요구합니다. 또는 해당 프로시저가 그룹 내에서 일어나는 자원 유형에 대해 자세히 설명되는 경우 관리자는 해당 INIT 또는 FINI 조치를 수동으로 실행할 수 있습니다(자원 그룹을 관리 취소하지 않은 상태임).

이 조치는 그룹에 있는 자원 중 아무도 INIT 또는 FINI 메소드를 갖지 않는 경우 불필요합니다. INITFINI 메소드를 사용하는 Sun이 제공하는 유일한 자원 유형은 다음과 같습니다.

고객이나 협력업체가 구현하는 자원 유형은 INIT 또는 FINI 메소드를 사용할 수도 있습니다. 그런 경우, 이 조치는 해당 자원 유형이 들어 있는 자원 그룹에서 필수적입니다.


주 -

모든 확장가능 서비스는 해당 메소드가 자원 유형에 대해 명시적으로 선언되지 않더라도 함축적으로 INITFINI 메소드를 사용합니다.


버그 ID 4370760

문제점 요약: 먼저 디바이스 그룹이 오프 라인이 아닌 경우 메타 세트에서 마지막 호스트를 제거할 수 없습니다.

조치: 메타 세트에서 마지막 호스트를 제거하려면, 먼저 디바이스 그룹을 오프 라인으로 만드십시오. 마지막 호스트를 제거하려면, 제거될 호스트에서 다음 두 개의 명령을 수퍼유저로 실행하십시오.


# /usr/cluster/bin/scswitch -m -D disksetname
# metaset -s disksetname -d -h hostname

버그 ID 4371236

문제점 요약: 일부 ge 전환은 ge 디바이스 매개변수 중 일부가 기본 값이 아닌 값으로 설정되도록 요구합니다. Sun GigabitEthernet/P 2.0 Adapter Installation and User's Guide의 제 3 장에서는 ge 디바이스 매개변수를 변경하는 프로시저를 설명합니다. Sun Cluster 3.0 소프트웨어를 실행하는 노드에서 사용될 프로시저는 안내서에서 설명하는 프로시저보다는 조금 복잡합니다. 특히, 차이점은 /etc/path_to_inst 파일의 디바이스 경로 이름이 ge.conf 파일에서 사용하기 위해 상위 이름을 얻는 데 사용되는 방법에 있습니다.

조치: Sun GigabitEthernet/P 2.0 Adapter Installation and User's Guide의 제 3 장에서는 /kernel/drv/ge.conf 파일의 항목을 통해 ge 디바이스 매개변수 값을 변경하는 프로시저를 설명합니다. /etc/path_to_inst 목록(ge.conf 항목에서 사용될)에서 상위 이름을 판별하는 프로시저는 24 페이지의 "ge.conf 파일을 사용하여 드라이버 매개변수 설정"에 나와 있습니다. 예를 들어 다음 /etc/path_to_inst 행에서, /pci@4,4000이 될 ge2의 상위 이름을 판별할 수 있습니다.


"/pci@4,4000/network@4" 2 "ge"

클러스터 노드에서, 해당 접두어를 상위 이름으로 사용하기 전에 /etc/path_to_inst의 디바이스 경로에서 /node@nodeid 접두어를 삭제해야 합니다. 예를 들어 클러스터 노드에서, 해당 /etc/path_to_inst 항목은 다음 항목으로 될 수 있습니다.


"/node@1/pci@4,4000/network@4" 2 "ge"

ge.conf에서 사용할 ge2의 상위 이름은 계속 /pci@4,4000입니다.

버그 ID 4372369

문제점 요약: nfs_upgrade 스크립트는 두 개 이상의 논리 호스트가 Sun Cluster 2.2 소프트웨어로 구성되는 경우 작업할 수 없습니다.

조치: 현재 조치가 없습니다. 이 문제가 발생하면, Sun 서비스 제공업체에 문의하여 패치를 받으십시오.

버그 ID 4373498

문제점 요약: LDAP 관리 서버는 호스트 이름을 대소문자를 구분하여 처리합니다. 따라서 LDAP 관리 서버에서 작업하는 동안, LDAP 구성할 때 지정한 모든 호스트 이름은 클러스터 노드에서 사용 중인 이름 서비스의 LDAP 스펙과 대소문자가 일치해야 합니다. 이 대소문자 일치는 DNS 도메인 이름이 LDAP를 구성할 때의 호스트 이름 스펙과도 정확히 일치해야 하기 때문에 DNS가 사용 중인 이름 서비스인 경우 특히 중요합니다.

조치: LDAP에 주어진 시스템에 대해 완전히 규정된 도메인 이름의 대소문자가 해결 프로그램이 리턴한 도메인 이름의 대소문자와 일치하는지 확인하십시오.

버그 ID 4373911

문제점 요약: 다음을 수행할 경우:

HA-NFS 장애 모니터는 다음 경고 메시지를 표시할 수 있습니다.


clnt_tp_create_timed of program statd failed:RPC:Program not registered

조치: 조치가 필요하지 않습니다. 경고 메시지를 무시해도 무방합니다.

버그 ID 4374194

문제점 요약: Sun Management Center 에이전트는 Sun StorEdge A5000이 있는 UltraTM 2 워크스테이션에서 예상치 못하게 종료될 수 있습니다. 문제는 Sun Management Center 에이전트가 Config Reader와 함께 설정될 때와 Config-Reader4udt 모듈이 /var/opt/SUNWsymon/cfg/base-modules-d.dat 파일에 추가될 때 발생합니다. Sun Management Center 에이전트는 시작 할 때 이 파일을 읽은 후 나열된 모든 모듈을 로드하려 합니다. 에이전트는 Config-Reader4udt 모듈을 로드하려는 동안 결함을 세그먼트화할 수 있습니다.

조치: 이 문제를 방지하려면, 다음 중 하나를 수행하십시오.

버그 ID 4374648

문제점 요약: scinstall 매뉴얼 페이지에는 현재 Sun Cluster HA for Oracle 데이터 서비스를 Sun Cluster 2.2에서 Sun Cluster 3.0 소프트웨어로 자동 업그레이드하기 위해 -s oracle을 사용하는 예가 있습니다. 이 옵션은 현재 지원되지 않습니다.

조치: Oracle 데이터 서비스를 위해 Sun Cluster 2.2에서 Sun Cluster 3.0 소프트웨어로 업그레이드하려고 -s oracle 옵션을 사용하지 마십시오. 대신 매뉴얼 업그레이드 프로시저, "Sun Cluster HA for Oracle을 Sun Cluster 2.2에서 Sun Cluster 3.0 소프트웨어로 업그레이드"를 사용하십시오.

버그 ID 4376171

문제점 요약: FC-AL SBus 카드(FC100/S) 및 Sun Quad FastEthernetTM 2.0(SQFE/S)을 동일한 SBus에 위치시키면 QFE 카드에 예상치 못한 재설정이 발생할 수 있습니다.

조치: 클러스터 노드를 FC-AL SBus 카드(FC100/S) 및 Sun Quad FastEthernet 2.0(SQFE/S)와 함께 동일한 SBus에 구성하지 마십시오.

버그 ID 4377303

문제점 요약: 새로 작성된 Sun StorEdge A3500 LUNs는 모든 노드에 항상 형식화되어 나타나지 않습니다.

조치: 새 LUNs를 볼 수 없는 노드에서 /etc/raid/bin/hot_add 명령을 실행하십시오.

버그 ID 4378553

문제점 요약: 자원 그룹의 Nodelist 등록 정보는 가장 선호되는 노드가 먼저 나열되는 상태로 자원 그룹을 제어할 수 있는 노드의 정렬된 목록입니다. Resource Group Manager는 사용할 수 있는 가장 선호되는 노드의 자원 그룹을 항상 호스트해야 합니다. 그러나 관리자가 클러스터를 다시 시동할 때(모든 노드가 즉시 다시 시동될 때), 관리 자원 그룹은 가장 선호되는 노드가 아닌 노드에서 제어되어 종료될 수 있습니다. 이 문제는 전체 클러스터를 다시 시동할 때에만 발생합니다.

조치: 클러스터를 다시 시동한 후, scswitch 명령을 사용하여 자원 그룹을 원하는 노드로 전환하십시오. Nodelist 환경설정 순서는 클러스터가 가동 중인 한 해당 지점에서 전방으로 자동으로 시행됩니다.

확장가능 서비스 Sticky 로드 밸런스 정책

현재, sticky 로드 밸런스 정책을 사용하는 확장가능 데이터 서비스를 실행할 경우 문제가 발생할 수 있습니다. 서비스가 특정 노드와 관련된 확립 stickiness에서 실행된 후 나중에 동일한 서비스의 다른 인스턴스를 서로 다른 노드에서 시작하는 경우 문제가 발생합니다. 동일한 서비스에 대한 다른 인스턴스를 시작하면 첫번째 인스턴스가 stickiness를 손실할 수 있습니다.

두 번째 인스턴스가 시작될 때 sticky 알고리즘이 리턴하는 결과는 첫번째 인스턴스가 stickiness를 손실하는지를 판별합니다. 알고리즘은 이 경우에 sticky 관계를 변경해서는 안되지만, 때때로 알고리즘은 sticky 관계를 변경합니다.

sticky 로드 밸런스 정책에 대한 자세한 내용은 Sun Cluster 3.0 Concepts를 참조하십시오.

Sun Cluster HA for Oracle을 Sun Cluster 2.2에서 Sun Cluster 3.0 소프트웨어로 업그레이드

scinstall 업그레이드 프로시저를 사용하여 Sun Cluster 프레임워크를 업그레이드하는 동안 이 프로시저를 수행하십시오.

조건 및 제한사항

Sun Cluster HA for Oracle을 Sun Cluster 2.2에서 Sun Cluster 3.0 소프트웨어로 업그레이드할 때 다음 조건 및 제한사항이 적용됩니다.

Sun Cluster HA for Oracle 구성 파일 저장 방법

다음 프로시저를 사용하여 Sun Cluster 2.2 구성으로부터 구성 파일을 저장하십시오.

  1. 각 노드에서 업그레이드-시작 단계(scinstall -F begin)를 완료할 때까지 scinstall 프레임워크-업그레이드 프로시저를 따르십시오.

  2. 각 노드에서 다음 명령을 수퍼유저로서 실행하십시오. 이 명령으로 /var/opt/oracle 디렉토리에 모든 파일에 대한 버전을 저장하게 됩니다.

    이 정보가 손실되지 않게 하려면, /var/opt/oracle 디렉토리에서 찾은 구조를 외부 디바이스로 백업하십시오.


    # cp -r /var/opt/oracle /var/cluster/logs/install/preserve/2.2/SUNWscor
    
  3. 프레임워크 업그레이드에 대한 종료 부분을 완료하십시오(scinstall -u finish).


    주 -

    -s oracle 옵션을 사용할 때 scinstall -u finish 명령을 사용하지 마십시오. 이 옵션은 Sun Cluster HA for Oracle에 대해 자동화 업그레이드를 시도하지만, 자동화 업그레이드는 실패하게 됩니다. 자동화 업그레이드는 NFS에 대해서만 지원됩니다.


프레임워크 업그레이드를 완료한 후, Sun Cluster 3.0 환경을 설정하십시오. 다음 절 "Sun Cluster 3.0 환경 설정"에서는 이 프로시저를 설명합니다.

Sun Cluster 3.0 환경 설정

다음 단계를 수행하여 Sun Cluster 3.0 환경을 설정하십시오.

  1. 한 노드에서, 다음 명령을 실행하여 다음 사항을 확인하십시오.

    • 프레임워크 업그레이드가 각 Sun Cluster 2.2 논리 호스트와 일치하는 Sun Cluster 3.0 자원 그룹을 올바르게 설정했는지.

    • 호스트 이름 네트워크 자원이 자원 그룹에 있고 온라인 상태로 있는지.


    # scstat -g
    
  2. 한 노드에서, 다음 명령을 실행하여 Sun Cluster 2.2의 Oracle 데이터베이스(및 대개 Oracle binaries)를 보유한 VERITAS 디스크 그룹이나 Solstice DiskSuite 디스크 세트가 Sun Cluster 3.0 디스크 디바이스 그룹으로 올바르게 맵핑되는지 확인하십시오.


    # scstat -D
    
  3. 한 노드에서, 다음 명령을 실행하여 각 Oracle 인스턴스에 대한 필수 파일 시스템이 마운트되는지 확인하십시오.


    # mount
    
  4. 한 노드에서, 다음 명령을 실행하여 /var/opt 디렉토리 아래의 Oracle 구성 파일에 대해 저장된 버전을 복원하십시오.

    프로시저에서 이전에 /var/opt/oracle 디렉토리에 파일을 저장한 후 파일이 변경되지 않은 경우, 이 단계를 건너뛸 수 있습니다.


    # cp -r /var/cluster/logs/install/preserve/2.2/SUNWscor/oracle /var/opt
    # chown -R oracle:dba /var/opt/oracle
    

Sun Cluster 3.0 아래에 Sun Cluster HA for Oracle 구성

다음 프로시저를 사용하여 Sun Cluster 3.0 HA for Oracle을 구성하십시오.


주 -

단계 1을 한 번만 수행하십시오.


  1. 한 노드에서, 다음 명령을 사용하여 Oracle 서버와 리스너 자원 유형을 등록하십시오.


    # scrgadm -a -t SUNW.oracle_server
    # scrgadm -a -t SUNW.oracle_listener
    

    /var/opt/oracle/oratab 파일에 나열된 각 Sun Cluster 2.2 HA for Oracle 인스턴스에 대해 단계 2에서 단계 5를 실행하십시오.

  2. oratab 파일에서 ORACLE_HOME 변수의 값을 판별하십시오.

    예를 들어, oratab 파일이 다음 정보를 표시한다고 가정하십시오.


    ora32:/oracle/816_32:N

    이 정보는 ORACLE_SID ora32 인스턴스에 대한 ORACLE_HOME 변수가 값 /oracle/816_32임을 지시합니다.

  3. 각 Oracle 인스턴스에 대해 ccd.database 파일에서 매개변수 값을 검색하십시오.

    이 매개변수는 scrgadm에 대한 Sun Cluster 3.0 매개변수로 맵핑됩니다. Sun Cluster 3.0 아래에 Sun Cluster HA for Oracle을 구성할 때 이 매개변수를 사용하게 됩니다.


    # grep ^HAORACLE: /var/cluster/logs/install/preserve/2.2/SUNWcluster/conf/ccd.database
    

    ccd.database 파일의 각 Oracle 인스턴스는 다음 형식을 사용합니다.


    HAORACLE:on:ora32:boots-1:60:10:120:300:scott/tiger:/oracle/816_32/dbs/initora32.ora:ORA_LIST
    .

    이 매개변수는 다음 Sun Cluster 3.0 형식으로 맵핑됩니다.


    HAORACLE:STATE:ORACLE_SID:LOGICAL_HOSTNAME_IP_Resource:THOROUGH_PROBE_INTERVAL:
        CONNECT_CYCLE:PROBE_TIMEOUT:RETRY_INTERVAL:CONNECT_STRING:PARAMETER_FILE:LISTENER_NAME

    자원 그룹 이름 RG_NAME${LOGICAL_HOSTNAME_IP_Resource}-lh가 됩니다. -lh가 Sun Cluster 3.0에 있는 자원 그룹 이름에 자동으로 첨부된다는 것에 유의하십시오.

  4. $PARAMETER_FILE 변수에서 background_dump_dest 값을 찾은 후, 다음 값에 ALERT_LOG_FILE 변수를 설정하십시오.


    $background_dump_dest/alert_$ORACLE_SID.log

    예를 들어 ORACLE_SID=ora32의 경우, $PARAMETER_FILE 파일에서 background_dump_dest가 다음 값이라고 가정하십시오.


    /oracle/816_32/admin/ora32/bdump

    이 예에서, ALERT_LOG_FILE은 다음 값으로 갱신되어야 합니다.


    /oracle/816_32/admin/ora32/bdump/alert_ora32.log
    

  5. 한 노드에서, 다음 명령을 실행하여 Oracle 자원을 작성한 후, 이를 온라인으로 가져오십시오.


    # scrgadm -a -t SUNW.oracle_server -g $RG_NAME -j $ORACLE_SID-serv \ 
    
      -x Oracle_sid=$ORACLE_SID -x Oracle_home=$ORACLE_HOME \ 
    
      -y Thorough_probe_interval=$THOROUGH_PROBE_INTERVAL \ 
    
      -x Connect_cycle=$CONNECT_CYCLE -x Probe_timeout=$PROBE_TIMEOUT \ 
    
      -y Retry_interval=$RETRY_INTERVAL -x Connect_string=$CONNECT_STRING \ 
    
      -x Parameter_file=$PARAMETER_FILE -x Alert_log_file=$ALERT_LOG_FILE
    # scrgadm -a -j $ORACLE_SID-list -t SUNW.oracle_listener -g $RG_name \ 
    
      -x Oracle_home=$ORACLE_HOME -x Listener_name=$LISTENER_NAME
    # scswitch -e -j $ORACLE_SID-serv
    # scswitch -e -j $ORACLE_SID-list
    # scswitch -e -M -j $ORACLE_SID-serv
    # scswitch -e -M -j $ORACLE_SID-list
    

    예를 들어 단계 2, 단계 3단계 4에 설명된 Oracle 인스턴스를 사용하여, 사용자는 다음 명령을 실행하게 됩니다.


    # scrgadm -a -t SUNW.oracle_server -g boots-1-lh -j ora32-serv \ 
    
      -x Oracle_sid=ora32 -x Oracle_home=/oracle/816_32 \ 
    
      -y Thorough_probe_interval=60 \ 
    
      -x Connect_cycle=10 -x Probe_timeout=120 \ 
    
      -y Retry_interval=300 -x Connect_string=scott/tiger \ 
    
      -x Parameter_file=/oracle/816_32/dbs/initora32.ora \ 
    
      -x Alert_log_file=/oracle/816_32/admin/ora32/bdump/alert_ora32.log
    # scrgadm -a -j ora32-list -t SUNW.oracle_listener -g boots-1-lh \  
    
      -x Oracle_home=/oracle/816_32 -x Listener_name=ORA_LIST
    # scswitch -e -j ora32-serv
    # scswitch -e -j ora32-list
    # scswitch -e -M -j ora32-serv
    # scswitch -e -M -j ora32-list
    

업그레이드 확인

업그레이드가 성공적으로 완료되었는지 확인하려면, 다음 단계를 수행하십시오.

  1. 다음 명령을 사용하여 Oracle 자원이 온라인 상태인지 확인하십시오.


    # scstat -g
    
    .

  2. 다음 명령을 사용하여 자원 그룹을 전환할 수 있는지 확인하십시오.


    # scswitch -z -g resource-group -h node
    

알려진 문서 문제점

이 절에서는 발생할 수 있는 문서 오류와 문제점을 수정하는 단계를 설명합니다.

설치 안내서

Sun Cluster 3.0 Installation Guide에는 다음 문서 오류가 있습니다.

하드웨어 안내서

Sun Cluster 3.0 Hardware Guide에서, 다음 프로시저가 올바르지 않거나 존재하지 않습니다.

새 어댑터로 디스크 케이블 이동 방법

다음 프로시저를 사용하여 노드 내의 새 어댑터로 디스크 케이블을 이동시키십시오.

  1. 영향을 받은 디스크에 대한 모든 I/O를 정지시키십시오.

  2. 이전 어댑터로부터 케이블을 뽑으십시오.

  3. 이동으로 영향을 받은 모든 드라이브를 구성 해제하려면 로컬 노드에서 cfgadm(1M) 명령을 실행하십시오.

    또는, 다음 명령을 사용하여 노드를 다시 시동하십시오.


    # reboot -- -r
    
  4. Solaris 디바이스 링크를 정리하려면 로컬 노드에서 devfsadm -C 명령을 실행하십시오.

  5. DID 디바이스 경로를 정리하려면 로컬 노드에서 scdidadm -C 명령을 실행하십시오.

  6. 새 어댑터로 케이블을 연결하십시오.

  7. 새 위치에서 드라이브를 구성하려면 로컬 노드에서 cfgadm 명령을 실행하십시오.

    또는, 다음 명령을 사용하여 노드를 다시 시동하십시오.


    # reboot -- -r
    
  8. scgdevs 명령을 실행하여 새 DID 디바이스 경로를 추가하십시오.

한 노드에서 다른 노드로 디스크 케이블 이동 방법

다음 프로시저를 사용하여 한 노드에서 다른 노드로 디스크 케이블을 이동시키십시오.

  1. 제거하려는 경로에 대한 모든 참조사항을 모든 볼륨 관리자와 데이터 서비스 구성에서 삭제하십시오.

  2. 영향을 받은 디스크에 대한 모든 I/O를 정지시키십시오.

  3. 이전 노드로부터 케이블을 뽑으십시오.

  4. 이동으로 영향을 받은 모든 드라이브를 구성 해제하려면 이전 노드에서 cfgadm 명령을 실행하십시오.

    또는, 다음 명령을 사용하여 노드를 다시 시동하십시오.


    # reboot -- -r
    
  5. Solaris 디바이스 링크를 정리하려면 이전 노드에서 devfsadm -C 명령을 실행하십시오.

  6. DID 디바이스 경로를 정리하려면 이전 노드에서 scdidadm -C 명령을 실행하십시오.

  7. 새 노드로 케이블을 연결하십시오.

  8. 새 위치에서 드라이브를 구성하려면 새 노드에서 cfgadm 명령을 실행하십시오.

    또는, 다음 명령을 사용하여 노드를 다시 시동하십시오.


    # reboot -- -r
    
  9. 새 노드에서 devfsadm 명령을 실행하여 새 Solaris 디바이스 링크를 작성하십시오.

  10. 새 노드에서 scgdevs 명령을 실행하여 새 DID 디바이스 경로를 추가하십시오.

  11. 필수 볼륨 관리자와 데이터 서비스 구성에 새 노드에 있는 경로를 추가하십시오.

    데이터 서비스를 구성할 때, 노드 페일오버 환경설정이 새 구성을 반영하도록 설정되었는지 확인하십시오.

적절한 디바이스 구성을 반영하도록 클러스터 소프트웨어를 갱신하는 방법

앞의 프로시저를 올바르게 따르지 않은 경우, 오류는 다음에 scdidadm -r 명령이나 scgdevs 명령을 실행할 때 로그될 수 있습니다. 적절한 디바이스 구성을 반영하도록 클러스터 소프트웨어를 갱신하려면, 다음 단계를 수행하십시오.

  1. 케이블 구성이 원하는 대로 되었는지 확인하십시오. 케이블이 이전 노드로부터 분리되었는지 확인하십시오.

  2. 이전 노드가 필수 볼륨 관리자나 데이터 서비스 구성으로부터 제거되었는지 확인하십시오.

  3. 이동으로 영향을 받은 모든 드라이브를 구성 해제하려면 이전 노드에서 cfgadm 명령을 실행하십시오.

    또는, 다음 명령을 사용하여 노드를 다시 시동하십시오.


    # reboot -- -r
    
  4. 케이블을 제거한 노드에서 devfsadm -C 명령을 실행하십시오.

  5. 케이블을 제거한 노드에서 scdidadm -C 명령을 실행하십시오.

  6. 새 위치에서 드라이브를 구성하려면 새 노드에서 cfgadm 명령을 실행하십시오.

    또는, 다음 명령을 사용하여 노드를 다시 시동하십시오.


    # reboot -- -r
    
  7. 새 노드에서 scgdevs 명령을 실행하여 새 DID 디바이스 경로를 추가하십시오.

  8. 새 노드에서 scdidadm -R device 명령을 실행하여 SCSI 예약이 올바른 상태인지 확인하십시오.

Data Services Developers' Guide

Sun Cluster 3.0 Data Services Developers' Guide의 부록 B에 있는 샘플 코드에는 두 개의 알려진 문제점이 있습니다.

Concepts Guide

Sun Cluster 3.0 Concepts에 대해서는 다음과 같은 점을 유의해야 합니다.

응용프로그램 트래픽을 위한 클러스터 상호연결 사용법

클러스터에는 클러스터 상호연결을 형성하는 노드간 여러 네트워크 연결이 있어야 합니다. 클러스터 소프트웨어는 고가용성 및 성능 향상 둘 모두를 위해 다중 상호연결을 사용합니다. 내부 트래픽(예를 들어, 파일 시스템 데이터 또는 확장가능 서비스 데이터)의 경우, 메시지는 사용 가능한 모든 상호연결을 통해 라운드 로빈 방식으로 스트립됩니다.

클러스터 상호연결은 노드사이의 고가용 통신을 위해 응용프로그램에도 사용 가능합니다. 예를 들어, 분산 응용프로그램에는 통신을 필요로 하는 다른 노드에서 실행하는 구성요소가 있을 수 있습니다. 공용 상호연결이 아닌 클러스터 상호연결을 사용하여, 이 연결은 각 링크에 대한 실패로부터 안전합니다.

노드간 통신을 위해 클러스터 상호연결을 사용하려면, 응용프로그램은 클러스터가 설치되었을 때 구성된 개인용 호스트 이름을 사용해야 합니다. 예를 들어, 노드 1의 개인용 호스트 이름이 clusternode1-priv인 경우, 해당 이름을 사용하여 클러스터 상호연결을 통해 노드 1로 통신하십시오. 이 이름을 사용하여 열린 TCP 소켓은 클러스터 상호연결을 통해 라우트되며 네트워크 실패의 경우 투명하게 다시 라우트될 수 있습니다.

개인용 호스트 이름이 설치하는 동안 구성될 수 있기 때문에, 클러스터 상호연결은 해당 시간에 선택된 이름을 사용할 수 있다는 것에 유의하십시오. 실제 이름은 scha_privatelink_hostname_node 인수를 사용하여 scha_cluster_get(3HA)에서 얻을 수 있습니다.

클러스터 상호연결에 대한 응용프로그램 레벨 사용의 경우, 단일 상호연결은 각 노드 쌍 간에 사용됩니다. 예를 들어, 세 개의 노드에서 실행하고 클러스터 상호연결을 통해 통신하는 응용프로그램을 고려하십시오. 노드 1과 2 사이의 통신이 인터페이스 hme0에서 일어날 수 있는 반면, 노드 1과 3 사이의 통신은 인터페이스 qfe1에서 일어날 수 있습니다. 즉, 두 노드간 응용프로그램 통신이 단일 상호연결로 제한되는 반면, 내부 클러스터 통신은 모든 상호연결을 통해 스트립됩니다.

응용프로그램이 내부 클러스터 트래픽과 상호연결을 공유하므로, 응용프로그램에 사용 가능한 대역폭은 다른 클러스터 트래픽에 사용되는 대역폭에 따라 다릅니다. 실패할 경우, 내부 트래픽이 나머지 상호연결을 통해 라운드 로빈될 수 있는 반면, 실패한 상호연결의 응용프로그램 연결은 작업하는 상호연결로 전환될 수 있습니다.

두 가지 유형의 주소가 클러스터 상호연결을 지원하고, 개인용 호스트 이름의 gethostbyname(3N)은 정상적으로 두 개의 IP 주소를 리턴합니다. 첫번째 주소는 논리 pairwise 주소라 하고, 두 번째 주소는 논리 pernode 주소라 합니다.

별도의 논리 pairwise 주소는 각 노드 쌍에 할당됩니다. 이 작은 논리 네트워크는 연결에 대한 페일오버를 지원합니다. 각 노드는 수정된 pernode 주소로도 할당됩니다. 즉, clusternode1-priv에 대한 논리 pairwise 주소가 각 노드마다 다른 반면, clusternode1-priv에 대한 논리 pernode 주소는 각 노드마다 동일합니다. 그러나 노드에는 노드 스스로에 대한 pairwise 주소가 없으므로, 노드 1에 있는 gethostbyname(clusternode1-priv)은 논리 pernode 주소만 리턴합니다.

클러스터 상호연결을 통해 연결을 승인하고 보안을 이유로 IP 주소를 확인하는 응용프로그램은 첫번째 IP 주소만이 아니라 gethostbyname에서 리턴되는 모든 IP 주소에 대해 확인해야 합니다.

어느 점에 있어서도 응용프로그램에서 일관된 IP 주소를 필요로 하는 경우, 모든 연결이 pernode 주소에서 왕래하는 것으로 나타날 수 있도록 응용프로그램을 구성하여 클라이언트와 서버 측 모두에 대한 pernode 주소로 바인드하십시오.

데이터 서비스 설치 및 구성 안내서

제 5 장, "Sun Cluster 3.0 Data Services Installation and Configuration Guide의 Sun Cluster HA for Apache 설치 및 구성"에서는 Apache 웹 사이트(http://www.apache.org)로부터 Apache Web Server를 설치하기 위한 프로시저를 설명합니다. 그러나 Solaris 8 운영 환경 CD-ROM에서 Apache Web Server를 설치할 수도 있습니다.

Apache 바이너리는 SUNWCapache 패키지 메타 클러스터를 형성하는 세 개의 패키지-SUNWapchr, SUNWapchuSUNWapchd-에 포함되어 있습니다. SUNWapchu를 설치하기 전에 SUNWapchr를 설치해야 합니다.

각 클러스터 노드의 로컬 파일 시스템이나 클러스터 파일 시스템에 웹 서버 바이너리를 위치시키십시오.

Solaris 8 CD-ROM으로부터 Apache 설치

이 프로시저에서는 Solaris 8 운영 환경 CD-ROM에 있는 Apache Web Server의 버전과 함께 Sun Cluster HA for Apache 데이터 서비스를 사용하는 데 필요한 단계를 자세히 설명합니다.

  1. 아직 설치되어 있지 않은 경우, Apache 패키지 SUNWapchr, SUNWapchuSUNWapchd를 설치하십시오.

    pkginfo(1)을 사용하여 패키지가 이미 설치되어 있는지 판별하십시오.


    # pkgadd -d Solaris 8 Product directory SUNWapchr SUNWapchu SUNWapchd
    ...
    Installing Apache Web Server (root) as SUNWapchr
    ...
    [ verifying class initd ]
    /etc/rc0.d/K16apache linked pathname
    /etc/rc1.d/K16apache linked pathname
    /etc/rc2.d/K16apache linked pathname
    /etc/rc3.d/S50apache linked pathname
    /etc/rcS.d/K16apache linked pathname
    ...
  2. SUNWapchr 패키지의 일부로서만 설치된 시작 및 정지 실행 제어 스크립트를 사용 불가능하게 하십시오.

    데이터 서비스가 구성된 후 Sun Cluster HA for Apache 데이터 서비스가 Apache 응용프로그램을 시작하고 정지하게 되기 때문에 이 스크립트를 사용 불가능하게 하는 것은 필수적입니다. 다음 단계를 수행하십시오.

    1. Apache 실행 제어 스크립트를 나열하십시오.

    2. Apache 실행 제어 스크립트의 이름을 바꾸십시오.

    3. 모든 Apache 관련 스크립트의 이름이 바뀌었는지 확인하십시오.


    주 -

    다음 예는 실행 제어 스크립트의 이름에 있는 첫번째 글자를 대문자에서 소문자로 변경합니다. 그러나 정상 관리 업무와 일관된 방식으로 스크립트의 이름을 바꿀 수 있습니다.



    # ls -1 /etc/rc?.d/*apache
    /etc/rc0.d/K16apache
    /etc/rc1.d/K16apache
    /etc/rc2.d/K16apache
    /etc/rc3.d/S50apache
    /etc/rcS.d/K16apache
    # mv /etc/rc0.d/K16apache  /etc/rc0.d/k16apache
    # mv /etc/rc1.d/K16apache  /etc/rc1.d/k16apache
    # mv /etc/rc2.d/K16apache  /etc/rc2.d/k16apache
    # mv /etc/rc3.d/S50apache  /etc/rc3.d/s50apache
    # mv /etc/rcS.d/K16apache  /etc/rcS.d/k16apache
    # ls -1 /etc/rc?.d/*apache
    /etc/rc0.d/k16apache
    /etc/rc1.d/k16apache
    /etc/rc2.d/k16apache
    /etc/rc3.d/s50apache
    /etc/rcS.d/k16apache

Man 페이지

Sun Cluster 3.0 소프트웨어와 함께 제공되는 각 데이터 서비스에 대한 새 man 페이지가 포함되어 있습니다. 데이터 서비스 man 페이지에는 SUNW.apache(5), SUNW.dns(5), SUNW.iws(5), SUNW.nfs(5), SUNW.nsldap(5), SUNW.oracle_listener(5), SUNW.oracle_server(5), SUNW.HAStorage(5) 및 scalable_service(5)가 포함되어 있습니다. 이 매뉴얼 페이지에서는 이 데이터 서비스가 사용하는 표준 및 확장자 등록 정보를 설명합니다.

Sun Management Center GUI에 대한 알려진 문제점

이 절에서는 Sun Management Center GUI의 Sun Cluster 3.0 모듈에 대한 알려진 문제점을 설명합니다.

특정 유형의 Ultra Server는 Sun Management Center에 의해 인식되지 않습니다

증상

문제점 확인/조치 시작

  1. Details Window를 닫으십시오.

  2. Sun Management Center Window에서, File->Console Messages를 선택하십시오.

  3. 인식하지 못하는 클러스터 노드를 표시하는 폴더 아이콘을 두 번 누르십시오.

  4. 콘솔 메시지 창에서 ...family definition file missing for...이라는 행을 찾으십시오.

조치

  1. Sun Management Center 서버에서, 계열 파일을 보유하는 디렉토리로 변경하십시오.


    # cd /opt/SUNWsymon/classes/base/console/cfg
    

  2. 가장 쉽게 사용 가능한 family-j.x 파일로 기호 링크를 작성하십시오.

    예를 들어, 누락 파일 행이 ...missing for sun4u-Sun-Ultra-450-family-j.x...로 읽혀지면, sun4u-Sun-Enterprise-450-family-j.x에서 sun4u-Sun-Ultra-450-family-j.x로 링크를 작성하십시오.


    # ln -s sun4u-Sun-Enterprise-450-family-j.x sun4u-Sun-Ultra-450-family-j.x
    
  3. 콘솔을 종료한 후, 다시 시작하십시오.

기호 링크에 대한 이름을 판별하기 위한 대체 메소드

  1. 인식하지 못하는 클러스터 노드를 두 번 눌러 Details Window을 가져오십시오.

  2. Info 탭을 누르십시오.

  3. Properties 테이블에서 Entity Family 항목을 검색하십시오.

    아마도 값이 잘리게 되므로, 값 필드에 마우스 포인터를 두십시오. 완전한 이름(예를 들어, sun4u-Sun-Ultra-450)이 도구 설명에 나타납니다.

  4. -family-j.x를 첨부하여 작성할 링크 이름을 판별하십시오.