이 장에서는 Sun Cluster 관리 도구를 사용하는 절차 및 클러스터를 관리하기 위한 다음 정보에 대해 설명합니다.
Sun Cluster의 고가용성 환경을 통해 사용자는 중요한 응용 프로그램을 이용할 수 있습니다. 시스템 관리자의 임무는 Sun Cluster가 안정적으로 작동하도록 하는 것입니다.
관리 작업을 시작하기 전에 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서와 Sun Cluster Concepts Guide for Solaris OS에 설명된 계획 정보를 숙지하십시오. Sun Cluster 관리는 다음 설명서에서 설명하는 작업으로 구성됩니다.
보통 매일 정기적으로 클러스터를 관리하고 유지 보수하기 위해 사용하는 표준 작업. 이 작업은 이 안내서에서 설명합니다.
설치, 구성 및 등록 정보 변경과 같은 데이터 서비스 작업. 이 작업은 Sun Cluster Data Services Planning and Administration Guide for Solaris OS에서 설명합니다.
저장소나 네트워크 하드웨어를 추가하거나 복구하는 것 같은 서비스 작업. 이 작업은 Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS에서 설명합니다.
대부분의 경우, 클러스터가 운영 중인 동안에도 Sun Cluster 관리 작업을 수행할 수 있습니다. 클러스터 외부 노드가 필요하거나 노드가 종료되는 경우에도 나머지 노드가 클러스터 운영을 계속하는 동안 관리 작업을 수행할 수 있습니다. Solaris 10의 경우, 따로 명시되지 않은 경우에도 Sun Cluster 관리 작업은 전역 영역에서 수행해야 합니다. 전체 클러스터를 종료해야 하는 경우에는 정상 업무 시간 이후에 시스템에 미치는 영향이 가장 적은 시간으로 종료 시간을 계획하십시오. 클러스터나 클러스터 노드를 종료할 경우에는 사용자에게 미리 알리십시오.
Solaris 10 SMF(Service Management Facility) 관리 인터페이스를 사용하여 다음의 Sun Cluster 서비스를 활성화하거나 비활성화하지 마십시오.
Sun Cluster 서비스 |
FMRI |
pnm |
svc:/system/cluster/pnm:default |
cl_event |
svc:/system/cluster/cl_event:default |
cl_eventlog |
svc:/system/cluster/cl_eventlog:default |
rpc_pmf |
svc:/system/cluster/rpc_pmf:default |
rpc_fed |
svc:/system/cluster/rpc_fed:default |
rgm |
svc:/system/cluster/rgm:default |
scdpm |
svc:/system/cluster/scdpm:default |
cl_ccra |
svc:/system/cluster/cl_ccra:default |
scsymon_srv |
svc:/system/cluster/scsymon_srv:default |
spm |
svc:/system/cluster/spm:default |
cl_svc_cluster_milestone |
svc:/system/cluster/cl_svc_cluster_milestone:default |
cl_svc_enable |
svc:/system/cluster/cl_svc_enable:default |
network-multipathing |
svc:/system/cluster/network-multipathing |
Sun Cluster에서는 그래픽 사용자 인터페이스(GUI)나 명령줄을 사용하여 관리 작업을 수행할 수 있습니다. 다음 절에서는 GUI 및 명령줄 도구에 대하여 개략적으로 설명합니다.
Sun Cluster에서는 클러스터에서 다양한 관리 작업을 수행하기 위해 사용할 수 있는 그래픽 사용자 인터페이스(GUI) 도구를 지원합니다. 이 GUI 도구는 Sun Cluster Manager이지만, SPARC 기반 시스템에서 Sun Cluster를 사용할 경우에는 Sun Management Center입니다. Sun Cluster Manager 및 Sun Management Center 구성 절차에 대한 자세한 내용은 12 장, GUI를 사용한 Sun Cluster 관리을 참조하십시오. Sun Cluster Manager를 사용하는 방법은 GUI의 온라인 도움말을 참조하십시오.
clsetup(1CL) 유틸리티를 통해 대부분의 Sun Cluster 관리 작업을 대화식으로 수행할 수 있습니다. 가능한 경우, 본 안내서의 관리 절차에서 clsetup 유틸리티를 사용합니다.
clsetup 유틸리티를 사용하여 다음과 같은 기본 메뉴 항목을 관리할 수 있습니다.
쿼럼
자원 그룹
데이터 서비스
클러스터 상호 연결
장치 그룹 및 볼륨
개인 호스트 이름
새 노드
다른 클러스터 작업
Sun Cluster를 관리하는데 사용하는 기타 명령은 다음 목록에 제공됩니다. 자세한 내용은 매뉴얼 페이지를 참조하십시오.
클러스터에 대한 원격 콘솔 액세스를 시작합니다.
IP Network Multipathing 그룹에서 한 어댑터에서 다른 어댑터로 IP 주소를 전환합니다.
노드를 추가하기 위한 Sun Cluster 액세스 정책을 관리합니다.
Sun Cluster 장치를 관리합니다.
Sun Cluster 장치 그룹을 관리합니다.
Sun Cluster 상호 연결을 관리합니다.
Sun Cluster용 NAS 장치로의 액세스를 관리합니다.
Sun Cluster 노드를 관리합니다.
Sun Cluster 쿼럼을 관리합니다.
논리 호스트 이름용 Sun Cluster 자원을 관리합니다.
Sun Cluster 데이터 서비스용 자원을 관리합니다.
Sun Cluster 데이터 서비스용 자원을 관리합니다.
Sun Cluster 데이터 서비스용 자원을 관리합니다.
공유 주소용 Sun Cluster 자원을 관리합니다.
Sun Cluster를 대화식으로 구성합니다.
Sun Cluster SNMP 호스트를 관리합니다.
Sun Cluster SNMP MIB를 관리합니다.
Sun Cluster SNMP 사용자를 관리합니다.
시스템 자원 모니터링을 구성합니다.
Sun Cluster의 전역 구성 및 전역 상태를 관리합니다.
Sun Cluster 노드에서 VERITAS Volume Manager(VxVM)를 초기화하고 루트 디스크 캡슐화를 선택적으로 수행합니다.
이러한 명령 외에도 Sun Cluster의 볼륨 관리자 부분을 관리하는 명령을 사용할 수 있습니다. 사용하는 명령은 클러스터에서 Solstice DiskSuiteTM, VERITAS Volume Manager 또는 Solaris Volume ManagerTM 중 어떤 볼륨 관리자를 사용하느냐에 따라 달라집니다.
이 절에서는 클러스터를 관리하기 위한 준비 작업에 대하여 설명합니다.
Sun Cluster를 구성하는 규모에 따라 사이트에 맞는 하드웨어 구성을 문서화하십시오. 클러스터를 변경하거나 업그레이드 할 때 관리 작업을 줄이려면 하드웨어 문서를 참조하십시오. 여러 클러스터 구성 요소 사이의 케이블 및 연결에 이름표를 붙이면 더 쉽게 관리할 수 있습니다.
서비스 담당자가 클러스터에 대한 서비스를 제공할 때 소요 시간을 줄일 수 있도록 클러스터의 초기 구성과 이후의 변경 사항에 대한 기록을 유지하십시오.
전용 워크스테이션 또는 관리 콘솔처럼 관리 네트워크를 통해 연결된 워크스테이션 중 하나를 사용하여 사용 중인 클러스터를 관리할 수 있습니다. 일반적으로 관리 콘솔에 CCP (Cluster Control Panel) 및 GUI 도구를 설치하여 실행합니다. CCP에 대한 자세한 내용은 원격으로 Cluster에 로그인하는 방법을 참조하십시오. Sun Management Center 및 Sun Cluster Manager GUI 도구용 CCP 모듈 설치에 대한 설명은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서를 참조하십시오.
관리 콘솔은 클러스터 노드가 아닙니다. 관리 콘솔은 공용 네트워크 또는 네트워크 기반 단말기 집중 장치를 통해 클러스터 노드에 원격 액세스하는 데 사용됩니다.
SPARC 클러스터에 Sun EnterpriseTM 10000 서버가 구성되어 있으면 관리 콘솔로부터 SSP(System Service Processor)에 로그인해야 합니다. netcon 명령을 사용하여 연결하십시오. netcon이 Sun Enterprise 10000 도메인과 연결하는 기본적인 방법은 네트워크 인터페이스를 통하는 것입니다. 네트워크에 액세스할 수 없으면 -f 옵션을 설정하여 “독점” 모드로 netcon 명령을 사용할 수 있습니다. 정상적인 netcon 세션 중에 ~*를 전송할 수도 있습니다. 이전 솔루션에는 네트워크에 도달할 수 없는 경우에 직렬 인터페이스로 전환하는 옵션이 있습니다.
Sun Cluster에는 전용 관리 콘솔이 필요 없지만 콘솔을 사용하면 다음과 같은 이점이 있습니다.
동일한 시스템에서 콘솔과 관리 도구를 그룹화하여 중앙에서 클러스터를 관리할 수 있습니다.
엔터프라이즈 서비스 또는 서비스 제공업체에서 더욱 신속하게 문제를 해결할 수 있습니다.
정기적으로 클러스터를 백업하십시오. Sun Cluster가 저장소 장치에 데이터 사본을 미러하여 능률적인 환경을 제공하지만 이것으로 정기적인 백업을 대신할 수는 없습니다. Sun Cluster는 장애가 여러 번 발생한 후에도 작동할 수 있지만 사용자나 프로그램 오류 또는 심각한 장애로부터 보호할 수는 없습니다. 따라서 치명적인 데이터 손실로부터 보호할 백업 절차가 있어야 합니다.
백업할 때 다음 정보를 포함해야 합니다.
모든 파일 시스템 분할 영역
DBMS 데이터 서비스를 실행하고 있는 경우에는 모든 데이터베이스 데이터
모든 클러스터 디스크에 대한 디스크 분할 영역 정보
Solstice DiskSuite/Solaris Volume Manager를 볼륨 관리자로 사용하는 경우에는 md.tab 파일
표 1–1은 클러스터 관리를 위한 시작 위치를 제공합니다.
표 1–1 Sun Cluster 3.2 관리 도구
작업 |
도구 |
지침 |
---|---|---|
클러스터에 원격 로그인 |
ccp 명령을 사용하여 CCP (Cluster Control Panel)를 실행하십시오. 그런 다음 cconsolecrlogin, cssh 또는 ctelnet 아이콘 중 하나를 선택하십시오. | |
대화식으로 클러스터 구성 |
clsetup(1CL) 유틸리티를 시작합니다. | |
Sun Cluster 릴리스 번호 및 버전 정보 표시 |
show-rev --v -node 하위 명령 및 옵션과 함께 clnode(1CL) 명령을 사용합니다. | |
설치된 자원, 자원 그룹 및 자원 유형 표시 |
다음 명령을 사용하여 자원 정보를 표시합니다. | |
그래픽으로 클러스터 구성 요소 모니터 |
Sun Cluster Manager를 사용하십시오. |
온라인 도움말 참조 |
그래픽으로 일부 클러스터 구성 요소 관리 |
Sun Cluster Manager 또는 Sun Management Center용 Sun Cluster 모듈(SPARC 기반 시스템의 Sun Cluster 에서만 제공)을 사용합니다. |
Sun Cluster Manager에 대한 자세한 내용은 온라인 도움말 참조 Sun Management Center에 대한 자세한 내용은 Sun Management Center 문서 참조 |
클러스터 구성 요소의 상태 확인 |
cluster(1CL) 명령과 함께 status 하위 명령을 사용하십시오. | |
공용 네트워크에서 IP 네트워크 다중 경로 그룹의 상태 확인 |
clnode(1CL) status 명령과 함께 -m 옵션을 사용하십시오. | |
클러스터 구성을 보십시오. |
cluster(1CL) 명령과 함께 show 하위 명령을 사용하십시오. | |
전역 마운트 지점 확인 |
sccheck(1M) 명령을 사용하십시오. | |
Sun Cluster 명령 로그의 내용 보기 |
/var/cluster/logs/commandlog 파일을 검사하십시오. | |
Sun Cluster 시스템 메시지 보기 |
/var/adm/messages 파일을 검사하십시오. |
System Administration Guide: Advanced Administration의 Viewing System Messages |
Solstice DiskSuite의 상태 모니터 |
metastat 명령을 사용하십시오. |
Solaris Volume Manager 설명서 |
Solaris 9 또는 Solaris 10을 실행하는 경우에 Solaris Volume Manager의 상태 모니터 |
metastat 명령을 사용하십시오. |
CCP(Cluster Control Panel)는 cconsole, crlogin, cssh 및 ctelnet 도구에 대한 실행 패드를 제공합니다. 모든 도구가 지정된 노드 세트에 대하여 여러 개의 창 연결을 시작합니다. 여러 창 연결은 지정된 각 노드에 대한 호스트 창과 하나의 공용 창으로 구성됩니다. 공용 창에 입력한 내용은 클러스터의 모든 노드에서 동시에 명령을 실행할 수 있도록 각 호스트 창에 전달됩니다.
명령줄에서 cconsole, crlogin, cssh 또는 ctelnet 세션을 시작할 수도 있습니다.
기본적으로 cconsole 유틸리티는 노드 콘솔에 대해 telnet 연결을 사용합니다. 콘솔에 Secure Shell 연결을 설정하려면 cconsole 창의 옵션 메뉴에서 SSH 사용 확인란을 활성화합니다. 또는, ccp or cconsole 명령을 실행할 때 -s 옵션을 지정합니다.
자세한 내용은 ccp(1M) 및 cconsole(1M) 매뉴얼 페이지를 참조하십시오.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
CCP를 시작하기 전에 다음 사전 조건이 충족되었는지 확인합니다.
관리 콘솔에 SUNWccon 패키지가 설치되어 있어야 합니다.
관리 콘솔의 PATH 변수에 Sun Cluster 도구 디렉토리, /opt/SUNWcluster/bin 및 /usr/cluster/bin이 포함되어야 합니다. $CLUSTER_HOME 환경 변수를 설정하여 다른 위치를 도구 디렉토리로 지정할 수 있습니다.
터미널 콘센트레이터를 사용하는 경우에는 clusters 파일, serialports 파일 및 nsswitch.conf 파일을 구성하십시오. 이 파일은 /etc 파일 또는 NIS/ NIS+ 데이터베이스가 될 수 있습니다. 자세한 내용은 clusters(4) 및 serialports(4) 매뉴얼 페이지를 참조하십시오.
Sun Enterprise 10000 server 플랫폼의 경우, SSP(System Service Processor)에 로그인하십시오.
관리 콘솔에서 CCP 실행 패드를 시작합니다.
# ccp clustername |
CCP 실행 패드가 표시됩니다.
클러스터와 원격 세션을 시작하려면 CCP 실행 패드에서 cconsole, crlogin, cssh 또는 ctelnet 아이콘을 클릭합니다.
이 절차를 수행하여 클러스터 노드의 콘솔에 대한 Secure Shell 연결을 설정하십시오.
터미널 집중 장치를 사용하는 경우에는 clusters 파일, serialports 파일 및 nsswitch.conf 파일을 구성하십시오. 이 파일은 /etc 파일 또는 NIS/ NIS+ 데이터베이스가 될 수 있습니다.
serialports 파일에 포트 번호를 사용하여 각 콘솔 액세스 장치에 대한 보안 연결에 사용하십시오. Secure Shell 연결을 위한 기본 포트 번호는 22입니다.
자세한 내용은 clusters(4) 및 serialports(4) 매뉴얼 페이지를 참조하십시오.
관리 콘솔에서 수퍼유저로 전환합니다.
보안 모드에서 cconsole 유틸리티를 시작합니다.
# cconsole -s [-l username] [-p ssh-port] |
보안 쉘 연결을 활성화합니다.
원격 연결을 위한 사용자 이름을 지정합니다. -l 옵션을 지정하지 않으면 cconsole 유틸리티를 시작한 사용자 이름이 사용됩니다.
사용할 Secure Shell 포트 번호를 지정합니다. -p 옵션을 지정하지 않으면 보안 연결에 기본 포트 번호 22가 사용됩니다.
clsetup(1CL) 유틸리티를 사용하면 클러스터에 대하여 쿼럼, 자원 그룹, 클러스터 전송, 개인 호스트 이름, 장치 그룹 및 새 노드 옵션을 대화식으로 구성할 수 있습니다.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
임의의 클러스터의 노드에서 수퍼유저로 전환합니다.
clsetup 유틸리티를 시작합니다.
# clsetup |
주 메뉴가 표시됩니다.
메뉴에서 구성을 선택합니다. 화면의 지시에 따라 작업을 완료하십시오.
자세한 내용은 clsetup 온라인 도움말을 참조하십시오.
이 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
다음 예는 패치 110648-05에 관한 정보를 표시합니다.
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
이 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
Sun Cluster 릴리스 및 패키지 버전 정보를 다음과 같이 표시합니다.
% clnode show-rev -v -node |
이 명령은 모든 Sun Cluster 패키지의 Sun Cluster 릴리스 번호와 버전 문자열을 표시합니다.
다음은 클러스터의 릴리스 정보 및 모든 패키지의 버전 정보를 표시하는 예입니다.
% clnode show-rev 3.2 % clnode show-rev -v Sun Cluster 3.2 for Solaris 9 sparc SUNWscr: 3.2.0,REV=2006.02.17.18.11 SUNWscu: 3.2.0,REV=2006.02.17.18.11 SUNWsczu: 3.2.0,REV=2006.02.17.18.11 SUNWscsck: 3.2.0,REV=2006.02.17.18.11 SUNWscnm: 3.2.0,REV=2006.02.17.18.11 SUNWscdev: 3.2.0,REV=2006.02.17.18.11 SUNWscgds: 3.2.0,REV=2006.02.17.18.11 SUNWscman: 3.2.0,REV=2005.10.18.08.42 SUNWscsal: 3.2.0,REV=2006.02.17.18.11 SUNWscsam: 3.2.0,REV=2006.02.17.18.11 SUNWscvm: 3.2.0,REV=2006.02.17.18.11 SUNWmdm: 3.2.0,REV=2006.02.17.18.11 SUNWscmasa: 3.2.0,REV=2006.02.17.18.11 SUNWscmautil: 3.2.0,REV=2006.02.17.18.11 SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11 SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11 SUNWscva: 3.2.0,REV=2006.02.17.18.11 SUNWscspm: 3.2.0,REV=2006.02.17.18.11 SUNWscspmu: 3.2.0,REV=2006.02.17.18.11 SUNWscspmr: 3.2.0,REV=2006.02.17.18.11 SUNWscderby: 3.2.0,REV=2006.02.17.18.11 SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11 SUNWscrsm: 3.2.0,REV=2006.02.17.18.11 SUNWcsc: 3.2.0,REV=2006.02.21.10.16 SUNWcscspm: 3.2.0,REV=2006.02.21.10.16 SUNWcscspmu: 3.2.0,REV=2006.02.21.10.16 SUNWdsc: 3.2.0,REV=2006.02.21.10.09 SUNWdscspm: 3.2.0,REV=2006.02.21.10.09 SUNWdscspmu: 3.2.0,REV=2006.02.21.10.09 SUNWesc: 3.2.0,REV=2006.02.21.10.11 SUNWescspm: 3.2.0,REV=2006.02.21.10.11 SUNWescspmu: 3.2.0,REV=2006.02.21.10.11 SUNWfsc: 3.2.0,REV=2006.02.21.10.06 SUNWfscspm: 3.2.0,REV=2006.02.21.10.06 SUNWfscspmu: 3.2.0,REV=2006.02.21.10.06 SUNWhsc: 3.2.0,REV=2006.02.21.10.20 SUNWhscspm: 3.2.0,REV=2006.02.21.10.20 SUNWhscspmu: 3.2.0,REV=2006.02.21.10.20 SUNWjsc: 3.2.0,REV=2006.02.21.10.22 SUNWjscman: 3.2.0,REV=2006.02.21.10.22 SUNWjscspm: 3.2.0,REV=2006.02.21.10.22 SUNWjscspmu: 3.2.0,REV=2006.02.21.10.22 SUNWksc: 3.2.0,REV=2006.02.21.10.14 SUNWkscspm: 3.2.0,REV=2006.02.21.10.14 SUNWkscspmu: 3.2.0,REV=2006.02.21.10.14 |
Sun Cluster Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 12 장, GUI를 사용한 Sun Cluster 관리를 참조하거나 Sun Cluster Manager 온라인 도움말을 참조하십시오.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
수퍼유저가 아닌 사용자로 하위 명령을 사용하기 위해서는 solaris.cluster.read RBAC 권한이 필요합니다.
클러스터에 구성된 자원 유형, 자원 그룹 및 자원을 표시하십시오.
% cluster show -t resource,resourcetype,resourcegroup |
개인 자원, 자원 그룹 및 자원 유형에 대한 정보에 대해 show 하위 명령과 다음 명령 중 하나와 함께 사용합니다.
resource
resource group
resourcetype
다음은 클러스터 schost에 구성된 자원 유형(RT Name), 자원 그룹(RG Name) 및 자원(RS Name)을 표시하는 예입니다.
% cluster show resource,resourcetype,resourcegroup === Registered Resource Types === Resource Type: SUNW.qfs RT_description: SAM-QFS Agent on SunCluster RT_version: 3.1 API_version: 3 RT_basedir: /opt/SUNWsamfs/sc/bin Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: <NULL> RT_system: False === Resource Groups and Resources === Resource Group: qfs-rg RG_description: <NULL> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-2 phys-schost-1 --- Resources for Group qfs-rg --- Resource: qfs-res Type: SUNW.qfs Type_version: 3.1 Group: qfs-rg R_description: Resource_project_name: default Enabled{phys-schost-2}: True Enabled{phys-schost-1}: True Monitored{phys-schost-2}: True Monitored{phys-schost-1}: True |
Sun Cluster Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 Sun Cluster Manager 온라인 도움말을 참조하십시오.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
수퍼유저가 아닌 사용자로 status 하위 명령을 사용하기 위해서는 solaris.cluster.read RBAC 권한이 필요합니다.
다음은 클러스터 cluster(1CL) status를 실행하여 반환된 클러스터 구성 요소에 대한 상태 정보의 예입니다.
% cluster status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online === Cluster Transport Paths === Endpoint1 Endpoint2 Status --------- --------- ------ phys-schost-1:qfe1 phys-schost-4:qfe1 Path online phys-schost-1:hme1 phys-schost-4:hme1 Path online === Cluster Quorum === --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 3 3 4 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 1 1 Online phys-schost-2 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d2s2 1 1 Online /dev/did/rdsk/d8s2 0 1 Offline === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ schost-2 phys-schost-2 - Degraded --- Spare, Inactive, and In Transition Nodes --- Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes ----------------- ----------- -------------- -------------------- schost-2 - - - === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ test-rg phys-schost-1 No Offline phys-schost-2 No Online test-rg phys-schost-1 No Offline phys-schost-2 No Error--stop failed test-rg phys-schost-1 No Online phys-schost-2 No Online === Cluster Resources === Resource Name Node Name Status Message ------------- --------- ------ ------- test_1 phys-schost-1 Offline Offline phys-schost-2 Online Online test_1 phys-schost-1 Offline Offline phys-schost-2 Stop failed Faulted test_1 phys-schost-1 Online Online phys-schost-2 Online Online Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d2 phys-schost-1 Ok /dev/did/rdsk/d3 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d4 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d6 phys-schost-2 Ok |
Sun Cluster Manager GUI를 사용하여 이 절차를 수행할 수도 있습니다. 자세한 내용은 Sun Cluster Manager 온라인 도움말을 참조하십시오.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
IP Network Multipathing 그룹의 상태를 확인하려면 clnode(1CL) 명령과 status 하위 명령을 함께 사용하십시오.
수퍼유저가 아닌 사용자로 하위 명령을 사용하기 위해서는 solaris.cluster.read RBAC 권한이 필요합니다.
다음은 clnode status 명령을 실행했을 때 반환되는 클러스터 구성 요소에 대한 상태 정보의 예입니다.
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online |
Sun Cluster Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 Sun Cluster Manager 온라인 도움말을 참조하십시오.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
수퍼유저가 아닌 사용자로 status 하위 명령을 사용하기 위해서는 solaris.cluster.read RBAC 권한이 필요합니다.
클러스터 구성을 보십시오.
% cluster show |
cluster 명령을 사용하여 자세한 정보를 표시하려면 여러 가지 옵션을 사용하십시오. 자세한 내용은 cluster(1CL) 메뉴얼 페이지를 참조하십시오.
다음은 클러스터 구성을 표시한 예입니다.
% cluster show |
=== Cluster === Cluster Name: cluster-1 installmode: disabled heartbeat_timeout: 10000 heartbeat_quantum: 1000 private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 global_fencing: Unknown Node List: phys-schost-1 Node Zones: phys_schost-2:za === Host Access Control === Cluster name: clustser-1 Allowed hosts: phys-schost-1, phys-schost-2:za Authentication Protocol: sys === Cluster Nodes === Node Name: phys-schost-1 Node ID: 1 Type: cluster Enabled: yes privatehostname: clusternode1-priv reboot_on_path_failure: disabled globalzoneshares: 3 defaultpsetmin: 1 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000001 Transport Adapter List: qfe3, hme0 --- Transport Adapters for phys-schost-1 --- Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.1 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.129 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-1 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-1 --- --- SNMP User Configuration on phys-schost-1 --- SNMP User Name: foo Authentication Protocol: MD5 Default User: No Node Name: phys-schost-2:za Node ID: 2 Type: cluster Enabled: yes privatehostname: clusternode2-priv reboot_on_path_failure: disabled globalzoneshares: 1 defaultpsetmin: 2 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000002 Transport Adapter List: hme0, qfe3 --- Transport Adapters for phys-schost-2 --- Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.130 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.2 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-2 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-2 --- --- SNMP User Configuration on phys-schost-2 --- === Transport Cables === Transport Cable: phys-schost-1:qfe3,switch2@1 Cable Endpoint1: phys-schost-1:qfe3 Cable Endpoint2: switch2@1 Cable State: Enabled Transport Cable: phys-schost-1:hme0,switch1@1 Cable Endpoint1: phys-schost-1:hme0 Cable Endpoint2: switch1@1 Cable State: Enabled Transport Cable: phys-schost-2:hme0,switch1@2 Cable Endpoint1: phys-schost-2:hme0 Cable Endpoint2: switch1@2 Cable State: Enabled Transport Cable: phys-schost-2:qfe3,switch2@2 Cable Endpoint1: phys-schost-2:qfe3 Cable Endpoint2: switch2@2 Cable State: Enabled === Transport Switches === Transport Switch: switch2 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled Transport Switch: switch1 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled === Quorum Devices === Quorum Device Name: d3 Enabled: yes Votes: 1 Global Name: /dev/did/rdsk/d3s2 Type: scsi Access Mode: scsi2 Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Device Name: qs1 Enabled: yes Votes: 1 Global Name: qs1 Type: quorum_server Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Server Host: 10.11.114.83 Port: 9000 === Device Groups === Device Group Name: testdg3 Type: SVM failback: no Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset name: testdg3 === Registered Resource Types === Resource Type: SUNW.LogicalHostname:2 RT_description: Logical Hostname Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hafoip Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.SharedAddress:2 RT_description: HA Shared Address Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hascip Single_instance: False Proxy: False Init_nodes: <Unknown> Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.HAStoragePlus:4 RT_description: HA Storage Plus RT_version: 4 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscu RT_system: False Resource Type: SUNW.haderby RT_description: haderby server for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/haderby Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscderby RT_system: False Resource Type: SUNW.sctelemetry RT_description: sctelemetry service for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry Single_instance: True Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWsctelemetry RT_system: False === Resource Groups and Resources === Resource Group: HA_RG RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group HA_RG --- Resource: HA_R Type: SUNW.HAStoragePlus:4 Type_version: 4 Group: HA_RG R_description: Resource_project_name: SCSLM_HA_RG Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-db-rg RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-db-rg --- Resource: cl-db-rs Type: SUNW.haderby Type_version: 1 Group: cl-db-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-tlmtry-rg RG_description: <Null> RG_mode: Scalable RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-tlmtry-rg --- Resource: cl-tlmtry-rs Type: SUNW.sctelemetry Type_version: 1 Group: cl-tlmtry-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True === DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d4 Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d5 Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d6 Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0 Replication: none default_fencing: global === NAS Devices === Nas Device: nas_filer1 Type: netapp User ID: root Nas Device: nas2 Type: netapp User ID: llai |
sccheck(1M) 명령을 실행하면 클러스터가 제대로 기능을 수행하는 데 필요한 기본 구성을 확인하는 일련의 검사가 수행됩니다. 모든 검사가 성공하면 sccheck는 쉘 프롬프트로 돌아갑니다. 검사가 실패하면 sccheck는 지정된 출력 디렉토리 또는 기본 출력 디렉토리에 보고서를 생성합니다. 둘 이상의 노드에 대해 sccheck를 실행한 경우 sccheck에서 각 노드에 대한 보고서와 복수 노드 검사에 대한 보고서를 생성합니다.
sccheck 명령은 데이터 수집 및 분석의두 단계로 실행됩니다. 시스템 구성에 따라 데이터 수집은 시간이 많이 걸릴 수 있습니다. 상세 정보 표시 모드에서 sccheck 명령을 -v1 플래그와 함께 실행하여 진행 메시지를 출력할 수 있습니다. 또한, -v2 플래그를 사용하여 상세 정보 표시 모드에서 sccheck 명령을 실행하면 보다 자세한 진행 메시지를 데이터 수집 동안 출력합니다.
장치, 볼륨 관리 구성 요소 또는 Sun Cluster 구성을 변경할 수 있는 관리 절차를 수행한 후에는 sccheck 명령을 실행하십시오.
다음 예에서는 모든 검사를 통과한 phys-schost-1 및 phys-schost-2 노드에 대해 세부 정보 표시 모드로 실행되는 sccheck를 보여줍니다.
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
다음 예에서는 /global/phys-schost-1 마운트 지점이 누락된 suncluster 클러스터의 phys-schost-2 노드를 보여줍니다. /var/cluster/sccheck/myReports/ 출력 디렉토리에 보고서가 생성됩니다.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) 명령은 클러스터 파일 시스템 및 해당 전역 마운트 지점의 구성 오류에 대한 /etc/vfstab 파일을 검사하는 항목으로 구성되어 있습니다.
장치 또는 볼륨 관리 구성 요소에 영향을 주는 클러스터 구성을 변경한 후에 sccheck를 실행하십시오.
다음 예에서는 /global/schost-1 마운트 지점이 누락된 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. /var/cluster/sccheck/myReports/ 출력 디렉토리로 보고서를 보냅니다.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |
/var/cluster/logs/commandlog ASCII 텍스트 파일에는 클러스터에서 실행되는 Sun Cluster 명령이 기록되어 있습니다. 명령의 기록은 클러스터를 설정할 때 자동으로 시작되어 클러스터를 종료할 때 끝납니다. 명령은 클러스터 모드에서 켜지고 부트된 모든 노드에 로그온됩니다.
이 파일에 로그인 되지 않은 명령에는 클러스터의 구성 및 현재 상태를 표시하는 명령이 포함되어 있습니다.
파일에 로그인된 명령에는 클러스터의 현재 상태를 구성하는 명령이 포함되어 있습니다.
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
scconf
scdidadm
scdpm
scgdevs
scrgadm
scsetup
scshutdown
scswitch
commandlog 파일의 기록에서 다음 요소가 나타납니다.
요일 및 시간 표시 방식
명령이 실행된 호스트 이름
명령의 프로세스 ID
명령을 실행한 사용자의 로그인 이름
모든 옵션 및 피연산자를 포함하여 사용자가 실행한 명령
명령 옵션은 commandlog 파일에서 따옴표로 표시되어 쉽게 지정할 수 있어 쉘에서 복사, 붙여넣기 및 실행이 용이합니다.
실행된 명령의 종료 상태
명령이 알 수 없는 결과로 비정상적으로 종료된 경우, Sun Cluster는 commandlog 파일에서 종료 상태로 나타나지 않습니다.
기본적으로 commandlog 파일은 일주일에 한 번씩 저장됩니다. commandlog 파일에 대한 저장 정책을 변경하려면, 클러스터의 각 노드에서 crontab 명령을 사용하십시오. 자세한 내용은 crontab(1) 매뉴얼 페이지를 참조하십시오.
Sun Cluster는 어떤 정해진 시간에서도 8개 이하의 사전 저장된 commandlog 파일을 각 클러스터 노드에 유지합니다. 현재 주간의 commandlog 파일 이름은 commandlog입니다. 가장 최근 주간의 파일 이름은 commandlog.0 입니다. 가장 오래된 주간의 파일 이름은 commandlog.7입니다.
현재 주간의 commandlog 파일 항목을 한 번에 한 화면씩 봅니다.
# more /var/cluster/logs/commandlog |
다음은 more 명령에 의해 나타난 commandlog 파일의 내용을 보여주는 예입니다.
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0 |