이 장에서는 2-노드 Sun Cluster 2.2 구성을 Sun Cluster 3.0 Update 1(U1) 소프트웨어로 업그레이드하기 위한 단계별 절차를 제공합니다.
클러스터에 이미 Sun Cluster 3.0 소프트웨어가 이미 설치되어 있으면 이 절차를 수행하지 마십시오. 대신 Sun Cluster 3.0 클러스터를 U1 버전으로 갱신하십시오. 갱신 방법을 설명하는 SunCluster_3.0/Tools/Upgrade/README 파일은 Sun Cluster 3.0 7/01 CD-ROM에 있습니다.
Sun Cluster 3.0 구성 계획에 대한 개요 정보는 제 1 장의 내용을 참조하십시오. 이 장에 있는 관련된 절차의 상위 레벨 설명에 대해서는 "Sun Cluster 2.2에서 Sun Cluster 3.0 Update 1 소프트웨어로 업그레이드"를 참조하십시오.
2-노드 클러스터를 Sun Cluster 2.2에서 Sun Cluster 3.0 Update 1(U1)소프트웨어로 업그레이드하려면 다음 작업을 수행하십시오.
표 3-1 작업 맵: Sun Cluster 2.2에서 Sun Cluster 3.0 U1 소프트웨어로 업그레이드
작업 |
참고 항목 |
---|---|
업그레이드 조건 및 제한사항을 읽고, Sun Cluster 3.0 U1 소프트웨어를 지원하기 위한 루트 디스크 파티션 설계 | |
클러스터를 생산 모드 외부로 가져가십시오. VERITAS Volume Manager(VxVM)의 경우 공유 CCD도 비활성화 | |
클러스터가 VxVM를 사용할 경우, 디스크 그룹을 내보내고 VxVM 소프트웨어 패키지 제거. |
"Sun Cluster 2.2 구성에서 VERITAS Volume Manager 소프트웨어를 설치 제거하는 방법" |
필요하면 Solaris 8 운영 환경으로 업그레이드하고, 새 /globaldevices 파일 시스템을 추가하고, Sun Cluster 3.0 U1 소프트웨어를 지원하도록 파일 시스템 할당 변경 클러스터가 Solstice DiskSuite 소프트웨어를 사용할 경우, 조정자를 제거하고 Solstice DiskSuite 소프트웨어 업그레이드 | |
Sun Cluster 3.0 U1 프레임워크 소프트웨어로 업그레이드 클러스터가 Solstice DiskSuite소프트웨어를 사용할 경우, 조정자를 다시 작성 | |
PATH 및 MANPATH 갱신 | |
Sun Cluster 3.0 U1 데이터 서비스 소프트웨어로 업그레이드 필요할 경우 타사 응용프로그램 업그레이드 | |
정족수 장치를 할당하고, 클러스터 소프트웨어 업그레이드를 완료한 후, 장치 그룹 및 데이터 서비스를 시작하십시오. 클러스터가 VERITAS Volume Manager(VxVM)를 사용할 경우, VxVM 소프트웨어 패키지를 다시 설치하고 디스크 그룹을 가져와 등록 클러스터가 Solstice DiskSuite 소프트웨어를 사용할 경우, 조정자 복원 | |
모든 노드가 클러스터와 결합되었는지 확인 |
이 단원에서는 Sun Cluster 2.2에서 Sun Cluster 3.0 U1 소프트웨어로 업그레이드하기 위한 조건, 제한 및 계획 방법을 설명합니다.
Sun Cluster 2.2에서 Sun Cluster 3.0 U1 소프트웨어로 업그레이드하려면 다음과 같은 조건이 충족되어야 합니다.
클러스터에는 정확히 두 개의 노드가 있어야 하며 Sun Cluster 3.0 U1 소프트웨어를 위한 구성을 지원해야 합니다. 업그레이드는 세 개 이상의 노드가 있는 클러스터를 지원하지 않습니다.
이더넷 어댑터만 지원됩니다. 전송 어댑터의 전송 속도는 100 Mbit/sec 이상이어야 합니다.
모든 클러스터 하드웨어는 안정되고 적절하게 작동되어야 합니다.
모든 타사 응용프로그램도 적절하게 작동되어야 합니다.
클러스터는 Solaris 8 운영 환경에서 실행되거나 이 운영 환경에서 업그레이드되어야 합니다.
모든 Sun Cluster 소프트웨어, 프레임워크 및 데이터 서비스를 동시에 업그레이드해야 합니다.
Sun Cluster 3.0 U1 소프트웨어는 Sun Cluster 3.0 U1 소프트웨어를 Solstice HA 1.3, Sun Cluster 2.0 또는 Sun Cluster 2.1 소프트웨어에서 바로 업그레이드할 수 없습니다.
Sun Cluster 3.0 U1 소프트웨어는 업그레이드 동안 볼륨 관리자에서 다른 볼륨 관리자로의 변환을 지원하지 않습니다.
Sun Cluster 2.2에서 Sun Cluster 3.0 U1 소프트웨어로 업그레이드하고 노드에서 scinstall(1M) 명령을 시작하면 명령이 성공적으로 완료되지 않은 경우에도 업그레이드를 취소할 수 없습니다. 실패한 업그레이드를 다시 시작하려면, 먼저 Sun Cluster 2.2 소프트웨어를 노드에 다시 설치해야 합니다.
Sun Cluster 3.0 U1 소프트웨어를 지원하려면 현재 시스템 디스크 레이아웃을 변경해야 합니다. 새 파티션 설계 계획시 다음을 고려하십시오.
Global devices namespace - 각 노드에서, 최소한 100MB의 파일 시스템을 작성하고 마운트 지점을 /globaldevices로 설정해야 합니다. 이 파일 시스템은 업그레이드하는 동안 해당되는 글로벌 장치 이름 공간으로 변환됩니다. 이러한 목적을 위해 스왑 공간의 일부를 제거하거나 다른 노드와 공유하지 않는 외부 디스크를 사용할 수 있습니다.
Mirrored root - 루트 디스크가 이중화될 경우, 파티션을 수정하기 전에 이중화을 취소해야 합니다. 이중화은 업그레이드 절차가 실패할 경우, 원래 구성을 복구하는데 사용됩니다. 자세한 내용은 볼륨 관리자 문서를 참조하십시오.
Root (/) file system allocation - 구성을 Solaris 8 운영 환경으로 업그레이드해야 할 경우, 모든 Sun Cluster 노드에 있는 루트 디스크의 루트(/) 파티션을 늘려야 할 것입니다.
Sun Cluster 3.0 U1 소프트웨어를 지원하기 위한 디스크 공간 요구 조건은 14페이지의 "시스템 디스크 파티션"을 참조하십시오.
소프트웨어를 업그레이드하기 전에 클러스터를 생산 외부로 가져가십시오.
업그레이드하는 모든 소프트웨어 제품에 대한 CD-ROM, 문서, 패치를 사용할 수 있도록 준비하십시오.
Solaris 8 운영 환경
Solstice DiskSuite 소프트웨어 또는 VERITAS Volume Manager
Sun Cluster 3.0 U1 프레임워크
Sun Cluster 3.0 U1 데이터 서비스(에이전트)
타사 응용프로그램
Solstice DiskSuite 소프트웨어와 문서는 이제 Solaris 8 제품의 일부입니다.
이 절차에서는 사용자가 CD-ROM으로 설치했다고 가정합니다. 네트워크에서 설치할 경우, 각 소프트웨어 제품에 대한 CD-ROM 이미지가 네트워크에서 로드됩니다.
패치 위치와 설치 방법을 보려면 Sun Cluster 3.0 U1 릴리스 정보를 참조하십시오.
사용자에게 클러스터가 다운될 것임을 알리십시오.
클러스터 각 노드에서 수퍼유저가 되어야 합니다.
/var/adm/messages 로그에서 해결되지 않은 오류나 경고 메시지를 찾아보십시오.
문제점을 수정하십시오.
유지 보수 상태의 논리 호스트가 없음을 확인하십시오.
클러스터의 한 노드에 대하여 superuser가 되십시오.
hastat(1M) 명령을 사용하여 클러스터의 상태를 표시하십시오.
# hastat HIGH AVAILABILITY CONFIGURATION AND STATUS ------------------------------------------- ... LOGICAL HOSTS IN MAINTENANCE STATE |
화면에 NONE이 출력되면 유지되는 논리적 호스트가 없습니다. 단계 6로 이동하십시오.
논리 호스트가 유지 보수 상태에 있으면, haswitch(1M) 명령을 사용하여 스위치오버를 수행하십시오.
# haswitch hostname logical-hostname |
논리 호스트를 소유할 노드의 이름을 지정합니다.
논리 호스트의 이름을 지정합니다.
hastat 명령을 실행하여 스위치오버가 성공적으로 완료되었는지 확인하십시오.
각 논리 호스트 관리 파일 시스템의 크기가 10 MB 이상이어야 합니다.
# df -k /logical-hostname |
최소 10MB 요구 조건을 충족시키지 않는 논리 호스트 관리 파일 시스템은 Sun Cluster 3.0 U1으로 업그레이드한 후에 마운트할 수 없습니다. 논리 호스트 관리 파일 시스템이 10MB보다 작으면, 이 파일 시스템 증대를 위한 볼륨 관리자 문서 절차를 따르십시오.
시스템을 백업하십시오.
백업하기 전에 모든 사용자들이 시스템에서 로그오프했는지 확인하십시오.
(VxVM 의 경우만 적용) 공유 CCD(Cluster Configuration Database)를 비활성화하십시오.
양쪽 노드에서 공유 CCD 백업 사본을 만드십시오.
# ccdadm -c backup-filename |
자세한 내용은 ccdadm(1M) 설명서 페이지를 참조하십시오.
클러스터의 각 노드에서 공유 CCD를 제거하십시오.
# scconf clustername -S none |
각 노드에서 mount(1M) 명령을 실행하여 어느 노드에 ccdvol을 마운트할 것인지 결정하십시오.
ccdvol 항목은 다음과 유사합니다.
# mount ... /dev/vx/dsk/sc_dg/ccdvol /etc/opt/SUNWcluster/conf/ccdssa ufs suid,rw,largefiles,dev=27105b8 982479320 |
각 노드에서 cksum(1) 명령을 실행하여 두 노드에 있는 ccd.database 파일이 동일한지 확인하십시오.
# cksum ccd.database |
두 노드의 ccd.database 파일이 서로 다르면 단계 a에서 만든 공유 CCD 백업을 복원하십시오.
# ccdadm -r backup-filename |
ccdvol이 마운트된 노드에서 Sun Cluster 2.2 소프트웨어를 중지시키십시오.
# scadmin stopnode |
동일한 노드에서 ccdvol 마운트를 해제하십시오.
# umount /etc/opt/SUNWcluster/conf/ccdssa |
클러스터의 각 노드에서 Sun Cluster 2.2 소프트웨어를 정지하십시오.
# scadmin stopnode |
hastat 명령을 실행하여 클러스터에 노드가 없음을 확인하십시오.
클러스터가 VERITAS Volume Manager을 사용합니까?
그러면 "Sun Cluster 2.2 구성에서 VERITAS Volume Manager 소프트웨어를 설치 제거하는 방법"으로 이동하십시오.
아니면 "Solaris 운영 환경 업그레이드 방법"으로 이동하십시오.
클러스터가 VERITAS Volume Manager(VxVM)를 사용할 경우, VxVM 소프트웨어를 설치 제거하려면 각 노드에서 다음 절차를 수행하십시오. 모든 소프트웨어를 업그레이드하면 기존의 디스크 그룹은 유지되며 자동으로 다시 가져옵니다.
Sun Cluster 3.0 U1 소프트웨어로 업그레이드하려면, VxVM의 최신 버전이 설치되어 있어도 VxVM 소프트웨어를 제거한 후 다시 설치해야 합니다.
클러스터 노드에서 수퍼유저가 되어야 합니다.
VxVM을 설치 제거하십시오.
VxVM 문서의 절차를 따르십시오. 이 프로세스에는 다음과 같은 작업이 포함됩니다.
모든 VxVM 디스크 그룹을 내보내십시오. 보존될 데이터를 포함하는 디스크는 업그레이드 동안 다른 목적에 사용되지 않도록 하십시오.
루트 디스크가 캡슐화되어 있으면 이를 취소하십시오.
VxVM 시스템을 종료하십시오.
설치된 모든 VxVM 소프트웨어 패키지를 제거하십시오.
VxVM 장치 이름 공간을 제거하십시오.
# rm -rf /dev/vx |
Sun Cluster 3.0 U1 소프트웨어를 지원하도록 Solaris 운영 환경을 업그레이드하거나 준비하십시오.
"Solaris 운영 환경 업그레이드 방법"으로 이동하십시오.
Sun Cluster 3.0 U1 소프트웨어를 지원하도록 Solaris 운영 환경을 업그레이드하거나 준비하려면 클러스터 내의 각 노드에서 다음 절차를 수행하십시오.
클러스터 노드에 대하여 superuser가 되어야 합니다.
볼륨 관리자가 Solstice DiskSuite이고 사용자가 조정자를 사용 중이면, 조정자의 구성을 취소하십시오.
다음 명령을 실행하여 mediator 데이터 문제가 없는지 확인하십시오.
# medstat -s setname |
디스크 세트 이름을 지정합니다
Status 필드의 값이 Bad이면 "잘못된 mediator 데이터를 복구하는 방법"의 다음 절차를 사용하여 영향을 받은 mediator 호스트를 복구하십시오.
자세한 내용은 medstat(1M) 설명서 페이지를 참조하십시오.
모든 조정자를 나열하십시오.
이 정보를 사용하여 mediator를 제거할 디스크 세트에 대한 소유권을 갖는 노드를 결정하십시오.
# metaset -s setname |
"클러스터 소프트웨어 패키지 업그레이드 방법" 절차 동안 조정자를 복원하기 위해 이 정보를 저장하십시오.
소유권을 갖는 노드가 없으면 디스크 세트에 대한 소유권을 받으십시오.
# metaset -s setname -t |
디스크 세트에 대한 소유권을 받습니다
모든 mediator 구성을 해제하십시오.
# metaset -s setname -d -m mediator-host-list |
디스크 세트 이름을 지정합니다
디스크 세트에서 삭제합니다
제거할 노드 이름을 디스크 세트의 mediator 호스트로 지정합니다
metaset 명령에 사용하는 mediator 관련 옵션에 대한 자세한 내용은 mediator(7) 설명서 페이지를 참조하십시오.
mediator 소프트웨어를 제거하십시오.
# pkgrm SUNWmdm |
구성에서 현재 Solaris 8 소프트웨어가 실행되고 있습니까?
아니면 단계 4로 이동하십시오.
그러면
파일 시스템을 100 MB 이상 크기로 만들고 마운트 포인트를 /globaldevices로 설정하십시오.
/globaldevices 파일 시스템이 있어야 Sun Cluster 3.0 U1 소프트웨어를 설치할 수 있습니다.
Sun Cluster 3.0 U1 소프트웨어를 지원하기 위해 필요하면 다른 파티션에 공간을 다시 할당하십시오.
방법은 "시스템 디스크 파티션"을 참조하십시오.
단계 6으로 이동하십시오.
Solaris 8 소프트웨어로 업그레이드하기 위해 사용할 절차를 결정하십시오.
볼륨 관리자 |
사용할 절차 |
참고 항목 |
---|---|---|
Solstice DiskSuite |
Solaris 및 Solstice DiskSuite 소프트웨어 업그레이드 |
Solstice DiskSuite 설치 설명서 |
VxVM |
표준 Solaris 소프트웨어 설치 수행 |
Solaris 8 설치 설명서 |
단계 4에서 선택한 절차에 따라 Solaris 8 소프트웨어로 업그레이드하십시오.
설치 시 루트 디스크 파티션 설계를 다음과 같이 변경하십시오.
파일 시스템을 100 MB 이상 크기로 만들고 마운트 포인트를 /globaldevices로 설정하십시오. /globaldevices 파일 시스템이 있어야 Sun Cluster 3.0 U1 소프트웨어를 설치할 수 있습니다.
Sun Cluster 3.0 U1 소프트웨어를 지원하기 위해 필요하면 다른 파티션에 공간을 다시 할당하십시오.
분할 방법은 "시스템 디스크 파티션"을 참조하십시오.
Solaris 인터페이스 그룹 기능은 기본적으로 Solaris 소프트웨어 설치 동안 사용할 수 없습니다. 인터페이스 그룹은 Sun Cluster 구성에서 지원되지 않으므로 사용할 수 없습니다. Solaris 인터페이스 그룹에 대한 자세한 정보는 ifconfig(1M) 설명서 페이지를 참조하십시오.
모든 Solaris 소프트웨어 패치를 설치하십시오.
패치 위치와 설치 방법을 보려면 Sun Cluster 3.0 U1 릴리스 정보를 참조하십시오.
모든 하드웨어 관련 패치를 설치하십시오.
패치 위치와 설치 방법을 보려면 Sun Cluster 3.0 U1 릴리스 정보를 참조하십시오.
Solstice DiskSuite 소프트웨어의 경우, Solstice DiskSuite 소프트웨어 패치를 설치하십시오.
패치 위치와 설치 방법을 보려면 Sun Cluster 3.0 U1 릴리스 정보를 참조하십시오.
Sun Cluster 3.0 U1 소프트웨어로 업그레이드하십시오.
"클러스터 소프트웨어 패키지 업그레이드 방법"으로 이동하십시오.
다음 예에서는 Solaris 8 소프트웨어로 업그레이드하기 전에 Solstice DiskSuite 디스크 세트 schost-1에서 mediator 호스트 phys-schost-1의 구성을 해제합니다.
(Check mediator status) # medstat -s schost-1 (모든 mediator 표시) # metaset -s schost-1 (mediator 구성 해제) # metaset -s schost-1 -d -m phys-schost-1 (mediator 소프트웨어 제거) # pkgrm SUNWmdm (소프트웨어 업그레이드 시작) |
각 노드에서 이 절차를 수행하십시오. Sun Cluster 3.0 3.0 7/01 CD-ROM 사본 두 개를 사용하여 두 노드에서 동시에 이 절차를 수행할 수 있습니다.
scinstall(1M) 업그레이드 명령은 -u begin 옵션과 -u finish 옵션 두 단계 프로세스로 구성됩니다. 이 절차에서는 begin 옵션을 실행합니다. finish 옵션은 "클러스터 소프트웨어 업그레이드 완료 방법"에서 실행됩니다.
클러스터 노드에서 수퍼유저가 되어야 합니다.
볼륨 관리자가 Solstice DiskSuite이면, 최신 Solstice DiskSuite 조정자 패키지(SUNWmdm)를 각 노드에 설치하십시오.
CD-ROM에서 설치하는 경우에는 Sun Cluster 3.0 7/01 CD-ROM을 노드의 CD-ROM 드라이브에 넣으십시오.
볼륨 디먼 vold(1M)가 실행중이고 CD-ROM 장치를 관리하도록 구성되어 있으면, 자동으로 CD-ROM을 /cdrom/suncluster_3_0u1 디렉토리에 마운트합니다.
/cdrom/suncluster_3_0u1/SunCluster_3.0/Packages 디렉토리로 이동하십시오.
# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages |
SUNWmdm 패키지를 추가하십시오.
# pkgadd -d . SUNWmdm |
노드를 다시 부트하십시오.
# shutdown -g0 -y -i6 |
다른 노드에서 반복하십시오.
조정자를 다시 구성하십시오.
mediator 호스트를 추가할 디스크 세트에 대한 소유권이 있는 노드를 결정하십시오.
# metaset -s setname |
디스크 세트 이름을 지정합니다
소유권을 갖는 노드가 없으면 디스크 세트에 대한 소유권을 받으십시오.
# metaset -s setname -t |
디스크 세트에 대한 소유권을 받습니다
mediator를 다시 만듭니다.
# metaset -s setname -a -m mediator-host-list |
디스크 세트에 추가합니다
디스크 세트의 조정자 호스트로 추가할 노드의 이름을 지정합니다.
각 디스크 세트마다 반복하십시오.
Sun Cluster 3.0 U1 소프트웨어로 업그레이드하십시오.
한 노드에서 /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools 디렉토리로 이동하십시오.
# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools |
클러스터 소프트웨어 프레임워크를 업그레이드하십시오.
업그레이드할 노드 |
사용할 명령 |
---|---|
첫 번째 노드 |
./scinstall -u begin -F |
두 번째 노드 |
./scinstall -u begin -N node1 |
클러스터에 첫 번째로 설치된 노드임을 지정합니다
업그레이드될 두 번째 노드의 이름이 아니라, 업그레이드될 클러스터의 첫 번째 노드 이름을 지정합니다.
자세한 내용은 scinstall(1M) 설명서 페이지를 참조하십시오.
노드를 다시 부트하십시오.
# shutdown -g0 -y -i6 |
첫 번째 노드가 클러스터 모드로 다시 시동되면, 그 노드는 클러스터를 설정합니다. 두번째 노드는 고유 프로세스를 완료하고 클러스터를 조인하기 전에 클러스터를 설정해야 할 경우 대기합니다.
다른 클러스터 노드에서도 반복하십시오.
각 노드에서, 모든 Sun Cluster 패치를 설치하십시오
패치 위치와 설치 방법을 보려면 Sun Cluster 3.0 U1 릴리스 정보를 참조하십시오.
디렉토리 경로를 갱신하십시오.
"루트 환경을 갱신하는 방법"으로 이동하십시오.
다음 예는 Sun Cluster 2.2에서 Sun Cluster 3.0 U1 소프트웨어로 업그레이드하는 시작 프로세스입니다. 클러스터 노드 이름은 첫 번째로 설치된 노드 phys-schost-1과 phys-schost-1이 설치된 클러스터를 결합하는 phys-schost-2입니다. 볼륨 관리자는 Solstice DiskSuite이고 두 노드가 디스크 세트 schost-1에 대한 mediator 호스트로 사용됩니다.
(각 노드에 최신 Solstice DiskSuite mediator 패키지 설치) # cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages # pkgadd -d . SUNWmdm (mediator 복원) # metaset -s schost-1 -t # metaset -s schost-1 -a -m phys-schost-1 phys-schost-2 (첫 번째 노드에서 업그레이드 시작) phys-schost-1# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools phys-schost-1# ./scinstall -u begin -F (두 번째 노드에서 업그레이드 시작) phys-schost-0,91kg cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools phys-schost-0,91kg ./scinstall -u begin -N phys-schost-1 (각 노드를 다시 부트) # shutdown -g0 -y -i6 |
클러스터의 각 노드에서 이 작업을 수행하십시오.
Sun Cluster 구성에서 터미널로 출력하기 전에 여러 가지 셸에 대한 사용자 초기화 파일로 대화식 셸에서 실행되는지 확인해야 합니다. 안되면 데이터 서비스에 예상하지 않은 작동이나 장애가 발생할 수 있습니다. 사용자의 작업 환경을 사용자 정의하는 방법은 Solaris 시스템 관리 설명서를 참조하십시오.
클러스터 노드에서 수퍼유저가 되어야 합니다.
.cshrc 파일에서 PATH 및 MANPATH 항목을 수정하십시오.
/usr/sbin 및 /usr/cluster/bin이 포함되도록 PATH를 설정하십시오.
VERITAS Volume Manager의 경우, 또한 /etc/vx/bin을 포함하도록 PATH를 설정하십시오. VRTSvmsa 패키지를 설치했으면 /opt/VRTSvmsa/bin을 PATH에 추가하십시오.
/usr/cluster/man이 포함되도록 MANPATH를 설정하십시오. 볼륨 관리자 고유 경로도 포함시키십시오.
Solstice DiskSuite 소프트웨어의 경우에는 /usr/share/man이 포함되도록 MANPATH를 설정하십시오.
VERITAS Volume Manager의 경우에는 /opt/VRTSvxvm/man이 포함되도록 MANPATH를 설정하십시오. VRTSvmsa 패키지를 설치했으면 /opt/VRTSvmsa/man을 MANPATH에 추가하십시오.
(옵션) 관리를 쉽게 하려면, 각 노드에서 동일한 루트 암호를 설정하십시오.
환경 변경사항을 활성화하려면 새로운 셸을 시작하십시오.
Sun Cluster 3.0 U1 데이터 서비스 소프트웨어로 업그레이드하십시오.
"데이터 서비스 소프트웨어 패키지 업그레이드 방법"으로 이동하십시오.
각 클러스터 노드에서 이 절차를 수행하십시오.
클러스터의 한 노드에 대하여 superuser가 되십시오.
응용프로그램을 업그레이드하고 필요한 응용프로그램 패치를 적용하십시오.
설치 지시사항에 대해서는 응용프로그램 문서를 참조하십시오.
응용프로그램이 공유 디스크에 저장되어 있으면, 응용프로그램을 업그레이드하기 전에 관련된 디스크 그룹을 마스터하고 수동으로 관련 파일 시스템을 마운트해야 합니다.
데이터 서비스를 추가하십시오.
Sun Cluster 3.0 Agents 7/01 CD-ROM을 노드의 CD-ROM 드라이브에 넣으십시오.
scinstall(1M) 유틸리티를 입력하십시오.
# scinstall |
대화식 scinstall 유틸리티를 사용할 때 다음 지침을 따르십시오.
대화식 scinstall은 우선 입력할 수 있게 합니다. 그러므로 다음 메뉴 화면이 바로 나타나지 않으면 Return을 두 번 이상 누르지 마십시오.
달리 명시되지 않으면, Control-D를 누르면 일련의 관련된 질문들의 시작이나 기본 메뉴로 돌아갑니다.
데이터 서비스를 추가하려면 4(새 데이터 서비스에 대한 지원을 이 클러스터 노드에 추가)를 입력하십시오.
데이터 서비스를 추가하려면 프롬프트를 따르십시오.
CD-ROM을 꺼내십시오.
Sun Cluster 데이터베이스 서비스 패치를 설치하십시오.
패치 위치와 설치 방법을 보려면 Sun Cluster 3.0 U1 릴리스 정보를 참조하십시오.
Sun Cluster 3.0 소프트웨어로 업그레이드될 두 번째 노드를 종료하십시오.
phys-schost-2# shutdown -g0 -y -i0 |
첫 번째로 설치된 노드가 다시 부트될 때까지 두 번째 노드를 종료해 두십시오.
첫 번째로 설치된 클러스터 노드를 다시 부트하십시오.
두 번째 노드가 첫번째 노드를 다시 시동하기 전에 종료되었는지 확인하십시오. 종료되지 않았으면 정족수가 할당되지 않았기 때문에 두 번째 노드가 중단됩니다.
phys-schost-1# shutdown -g0 -y -i6 |
첫 번째 노드의 부팅이 완료되면 두 번째 노드를 부트하십시오.
ok boot |
두 노드가 다시 부트되면 두 노드가 각각 클러스터 구성원인지 확인하십시오.
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
클러스터 상태 표시에 대한 자세한 정보는 scstat(1M) man 페이지를 참조하십시오.
정족수 장치를 할당하고 업그레이드를 마치십시오.
"클러스터 소프트웨어 업그레이드 완료 방법"으로 이동하십시오.
이 절차는 "클러스터 소프트웨어 패키지 업그레이드 방법"에서 시작된 scinstall(1M) 업그레이드를 완료합니다. 클러스터의 각 노드에서 다음 단계를 수행하십시오.
클러스터 각 노드에서 수퍼유저가 되어야 합니다.
정족수 장치가 될 공유 디스크를 선택하십시오.
두 노드 모두에서 공유하는 디스크를 정족수 장치로 사용할 수 있습니다. 두 노드 중 하나에서 scdidadm(1M) 명령을 사용하여 공유 디스크의 장치 ID(DID) 이름을 판별하십시오. 단계 5에서 -q globaldev=DIDname 옵션을 scinstall 명령에 사용하여 이 장치 이름을 지정합니다.
# scdidadm -L |
볼륨 관리자가 VxVM이면, 클러스터의 각 노드에 VxVM 소프트웨어와 패치를 다시 설치하고 구성하십시오.
"VxVM 소프트웨어 설치 및 구성"의 절차를 따르십시오.
첫 번째로 설치한 노드를 다시 부트해야 하면 먼저 scshutdown(1M) 명령을 사용하여 클러스터를 종료한 다음 다시 부트하십시오. 클러스터가 종료되기 전에는 첫 번째로 설치한 클러스터 노드를 다시 부트하지 마십시오.
클러스터 설치 모드가 비활성화될 때까지 클러스터를 구성한 첫 번째 설치 노드만 정족수를 갖습니다. 아직 설치 모드에 있는 형성된 클러스터에서, 첫 번째 설치 노드가 다시 시동되기 전에 클러스터가 시스템 종료되지 않으면, 나머지 클러스터 노드는 정족수를 확보할 수 없고 전체 클러스터가 시스템 종료됩니다.
첫 번째 설치 노드를 결정하려면 scconf -p 명령을 사용하여 정족수 할당을 보십시오. 정족수가 있는 노드만 첫 번째 설치 노드입니다.
단계 7을 수행하고 나면 정족수가 할당되고 이러한 재부트 제한이 더 이상 적용되지 않습니다.
Sun Cluster 3.0 Agents 7/01 CD-ROM을 노드의 CD-ROM 드라이브에 넣으십시오.
이 단계에서는 볼륨 디먼 vold(1M)가 실행중이고 CD-ROM 장치 관리를 위해 구성되어 있는 것으로 가정합니다.
해당 노드에서 클러스터 소프트웨어 업그레이드를 완료하십시오.
# scinstall -u finish -q globaldev=DIDname \ -d /cdrom/scdataservices_3_0 -s srvc[,srvc] |
정족수 장치의 장치 ID(DID) 이름을 지정합니다
CD-ROM 이미지의 디렉토리 위치를 지정합니다
구성할 데이터 서비스 이름을 지정합니다
다음과 유사한 오류 메시지가 생성될 수 있습니다. 이 메시지는 무시해도 됩니다.
** Installing Sun Cluster - Highly Available NFS Server ** Skipping "SUNWscnfs" - already installed |
CD-ROM을 꺼내십시오.
다른 노드에 대하여 단계 4부터 단계 6까지 반복하십시오.
두 노드 모두에서 완료되면, 클러스터 설치 모드가 비활성화되고 모든 정족수가 할당됩니다.
볼륨 관리자가 Solstice DiskSuite이면 두 노드에서 기존 디스크 장치 그룹을 온라인으로 변경하십시오.
# scswitch -z -D disk-device-group -h node |
스위치를 수행합니다
Solstice DiskSuite 소프트웨어에 대해 디스크 세트 이름과 동일한 디스크 장치 그룹 이름을 지정합니다.
디스크 장치 그룹의 1차 노드로서 서비스를 제공하는 클러스터 노드의 이름을 지정합니다.
어느 노드에서라도, 사전에 존재하는 데이터 서비스 자원 그룹을 온라인화하십시오.
그러면 Sun Cluster 2.2 논리 호스트가 Sun Cluster 3.0 U1 자원 그룹으로 변환되고, -lh 접두어를 사용하여 논리 호스트의 이름이 추가됩니다. 예를 들어, 이름이 lhost-1인 논리 호스트가 이름이 lhost-1-lh인 자원 그룹으로 업그레이드됩니다. 이렇게 변환된 자원 그룹 이름을 다음 명령에 사용하십시오.
# scswitch -z -g resource-group -h node |
온라인화할 자원 그룹 이름을 지정합니다.
scrgadm -p 명령을 사용하여 클러스터의 모든 자원 유형 및 자원 그룹 목록을 표시할 수 있습니다. scrgadm -pv 명령을 실행하면 이 목록이 더 자세하게 표시됩니다.
Sun Management Center를 사용하여 Sun Cluster 구성을 모니터할 경우, Sun Management Center용 Sun Cluster 모듈을 설치하십시오.
Sun Management Center 최신 버전을 사용해야 합니다.
설치 및 업그레이드 절차는 Sun Management Center 문서를 참조하십시오.
"Sun Cluster 모니터링을 위한 설치 요구 조건"의 설명과 절차에 따라 Sun Cluster 모듈 패키지를 설치하십시오.
모든 노드가 클러스터와 결합되었는지 확인하십시오.
"클러스터 멤버쉽 확인 방법"으로 이동하십시오.
다음 예는 Sun Cluster 2.2에서 Sun Cluster 3.0 U1 소프트웨어로 업그레이드하는 종료 프로세스입니다. 클러스터 노드 이름은 phys-schost-1 및 phys-schost-2이고 장치 그룹 이름은 dg-schost-1 및 dg-schost-2이고, 데이터 서비스 자원 그룹 이름은 lh-schost-1 및 lh-schost-2입니다.
(공유 정족수 장치의 DID 결정) phys-schost-1# scdidadm -L (각 노드에서 업그레이드 마침) phys-schost-1# scinstall -u finish -q globaldev=d1 \ -d /cdrom/suncluster_3_0u1 -s nfs phys-schost-2# scinstall -u finish -q globaldev=d1 \ -d /cdrom/suncluster_3_0u1 -s nfs (각 노드의 장치 그룹과 데이터 서비스 자원 그룹을 온라인으로 변경) phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2 |
모든 노드가 클러스터를 조인하였는지 확인하려면, 이 절차를 수행하십시오.
클러스터의 노드에 대해 수퍼유저가 되십시오.
클러스터 상태를 표시하십시오.
클러스터 노드가 온라인 상태이고, 정족수 장치, 장치 그룹 및 데이터 서비스 자원 그룹이 구성되어 있고 온라인 상태인지 확인하십시오.
# scstat |
클러스터 상태 표시에 대한 자세한 정보는 scstat(1M) man 페이지를 참조하십시오.
각 노드에서, 시스템이 확인하는 모든 장치들의 목록을 표시하여 클러스터 노드에 대한 연결을 확인하십시오.
각 노드에 대한 출력이 동일해야 합니다.
# scdidadm -L |
클러스터 업그레이드가 완료되었습니다. 이제, 클러스터를 생산으로 반환할 수 있습니다.