탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
시스템 관리 설명서: Oracle Solaris Containers-리소스 관리 및 Oracle Solaris 영역 Oracle Solaris 10 1/13 Information Library (한국어) |
8. FSS(Fair Share Scheduler)(개요)
9. FSS(Fair Share Scheduler) 관리(작업)
10. 리소스 상한값 지원 데몬을 사용한 물리적 메모리 제어(개요)
rcapadm을 사용하여 리소스 상한값 지원 데몬 관리
15. Solaris Management Console의 리소스 제어 기능
19. 비전역 영역 설치, 정지, 복제 및 제거 정보(개요)
20. 비전역 영역 설치, 부트, 정지, 제거 및 복제(작업)
24. Oracle Solaris 10 9/10: 물리적 Oracle Solaris 시스템을 영역으로 마이그레이션(작업)
25. 영역이 설치된 Oracle Solaris 시스템의 패키지 및 패치 정보(개요)
26. 영역이 설치된 Oracle Solaris 시스템에서 패키지 및 패치 추가 및 제거(작업)
29. 비전역 영역이 설치된 Oracle Solaris 10 시스템 업그레이드
30. 그 밖의 기타 Oracle Solaris 영역 문제 해결
34. lx 브랜드 영역 설치, 부트, 정지, 복제 및 제거 정보(개요)
35. lx 브랜드 영역 설치, 부트, 정지, 제거 및 복제(작업)
rcapstat를 사용하여 리소스 상한값 통계를 보고합니다. rcapstat를 사용하여 리소스 사용률 모니터링에서 rcapstat 명령을 사용하여 보고서를 생성하는 방법에 대해 설명합니다. 이 절에서는 보고서의 열 제목에 대해서도 설명합니다. rcapstat(1) 매뉴얼 페이지에도 이 내용이 포함되어 있습니다.
다음 세부절에서는 예제를 사용하여 특정 목적의 보고서를 생성하는 방법에 대해 설명합니다.
이 예에서는 두 사용자와 연관된 두 프로젝트에 대해 상한값이 정의되어 있습니다. user1은 상한값이 50메가바이트이고, user2는 상한값이 10메가바이트입니다.
다음 명령은 5초 샘플링 간격으로 5개의 보고서를 생성합니다.
user1machine% rcapstat 5 5 id project nproc vm rss cap at avgat pg avgpg 112270 user1 24 123M 35M 50M 50M 0K 3312K 0K 78194 user2 1 2368K 1856K 10M 0K 0K 0K 0K id project nproc vm rss cap at avgat pg avgpg 112270 user1 24 123M 35M 50M 0K 0K 0K 0K 78194 user2 1 2368K 1856K 10M 0K 0K 0K 0K id project nproc vm rss cap at avgat pg avgpg 112270 user1 24 123M 35M 50M 0K 0K 0K 0K 78194 user2 1 2368K 1928K 10M 0K 0K 0K 0K id project nproc vm rss cap at avgat pg avgpg 112270 user1 24 123M 35M 50M 0K 0K 0K 0K 78194 user2 1 2368K 1928K 10M 0K 0K 0K 0K id project nproc vm rss cap at avgat pg avgpg 112270 user1 24 123M 35M 50M 0K 0K 0K 0K 78194 user2 1 2368K 1928K 10M 0K 0K 0K 0K
출력의 처음 세 개 행이 첫번째 보고서를 구성하며, 여기에는 두 프로젝트에 대한 상한값과 프로젝트 정보 및 rcapd가 시작된 이후의 페이징 통계가 포함됩니다. at 및 pg 열은 user1의 경우 0보다 큰 수이고 user2의 경우 0입니다. 이것은 데몬의 내역 중 일정 시점에 user1은 해당 상한값은 초과했지만 user2는 초과하지 않았음을 나타냅니다.
이후 보고서에는 중요한 작업이 표시되지 않습니다.
다음 예는 해당 RSS 상한값을 초과하는 RSS가 있는 user1 프로젝트를 보여 줍니다.
다음 명령은 5초 샘플링 간격으로 5개의 보고서를 생성합니다.
user1machine% rcapstat 5 5
id project nproc vm rss cap at avgat pg avgpg 376565 user1 3 6249M 6144M 6144M 690M 220M 5528K 2764K 376565 user1 3 6249M 6144M 6144M 0M 131M 4912K 1637K 376565 user1 3 6249M 6171M 6144M 27M 147M 6048K 2016K 376565 user1 3 6249M 6146M 6144M 4872M 174M 4368K 1456K 376565 user1 3 6249M 6156M 6144M 12M 161M 3376K 1125K
user1 프로젝트에는 물리적 메모리를 활발히 사용하는 세 개의 프로세스가 있습니다. pg 열의 양수 값은 rcapd가 프로젝트 프로세스의 물리적 메모리 사용률을 낮춰 상한값을 맞추기 위해 지속적으로 메모리를 페이징 아웃하고 있다는 것을 나타냅니다. 그러나 rcapd는 RSS를 상한값 아래로 유지하는 데 성공하지 못합니다. 이것은 이러한 감소를 보이지 않는 다양한 rss 값으로 표시됩니다. 메모리가 페이징 아웃되는 즉시 작업 부하는 이를 다시 사용하고 RSS 카운트가 백업됩니다. 이것은 프로젝트의 모든 상주 메모리가 활발히 사용되고 있으며 작업 세트 크기(WSS)가 상한값보다 크다는 것을 의미합니다. 따라서 rcapd가 상한값을 맞추기 위해 작업 세트의 일부를 페이징 아웃해야 합니다. 이러한 상황에서는 다음 중 하나가 발생하기 전까지는 시스템에서 페이지 폴트 비율이 계속 높고 연관된 I/O가 많습니다.
WSS가 작아집니다.
상한값이 증가됩니다.
응용 프로그램의 메모리 액세스 패턴이 변경됩니다.
이러한 상황에서 샘플 간격을 줄이면 rcapd에서 좀 더 자주 작업 부하를 샘플링하고 상한값을 적용하게 되어 RSS 값과 상한값 간의 차이가 줄어들 수 있습니다.
주 - 새 페이지를 만들어야 하거나 시스템이 스왑 장치에서 페이지를 복사해 와야 하는 경우 페이지 폴트가 발생합니다.
다음 예는 이전 예의 연속으로 샘플 프로젝트를 사용합니다.
이전 예에서는 user1 프로젝트가 해당 상한값에서 허용하는 것보다 많은 물리적 메모리를 사용하고 있다는 것을 보여 주었습니다. 이 예에서는 프로젝트 작업 부하에 필요한 메모리 용량을 보여 줍니다.
user1machine% rcapstat 5 5 id project nproc vm rss cap at avgat pg avgpg 376565 user1 3 6249M 6144M 6144M 690M 0K 689M 0K 376565 user1 3 6249M 6144M 6144M 0K 0K 0K 0K 376565 user1 3 6249M 6171M 6144M 27M 0K 27M 0K 376565 user1 3 6249M 6146M 6144M 4872K 0K 4816K 0K 376565 user1 3 6249M 6156M 6144M 12M 0K 12M 0K 376565 user1 3 6249M 6150M 6144M 5848K 0K 5816K 0K 376565 user1 3 6249M 6155M 6144M 11M 0K 11M 0K 376565 user1 3 6249M 6150M 10G 32K 0K 32K 0K 376565 user1 3 6249M 6214M 10G 0K 0K 0K 0K 376565 user1 3 6249M 6247M 10G 0K 0K 0K 0K 376565 user1 3 6249M 6247M 10G 0K 0K 0K 0K 376565 user1 3 6249M 6247M 10G 0K 0K 0K 0K 376565 user1 3 6249M 6247M 10G 0K 0K 0K 0K 376565 user1 3 6249M 6247M 10G 0K 0K 0K 0K 376565 user1 3 6249M 6247M 10G 0K 0K 0K 0K
주기의 중간에 user1 프로젝트의 상한값이 6기가바이트에서 10기가바이트로 증가되었습니다. 이러한 증가로 상한값 적용이 중지되고 RSS(Resident Set Size)가 커질 수 있어 크기가 다른 프로세스나 시스템의 메모리 용량에 따라서만 제한됩니다. rss 열은 프로젝트 WSS(작업 세트 크기)(이 예에는 6247M)를 반영하여 안정될 수 있습니다. 이것은 프로젝트의 프로세스에서 지속적으로 페이지 폴트를 발생시키지 않고 작업할 수 있는 최소 상한값입니다.
user1의 상한값이 6기가바이트이지만 5초 샘플 간격마다 rcapd가 작업 부하 메모리의 일부를 페이징 아웃하므로 RSS가 감소하고 I/O가 증가합니다. 페이징 아웃이 완료된 직후 해당 페이지가 필요한 작업 부하에서 다시 페이지를 들여와 실행을 계속합니다. 이러한 주기는 상한값이 10기가바이트로 증가될 때까지, 대략 이 예의 약 중간까지 반복됩니다. 그러면 RSS가 6.1기가바이트에서 안정됩니다. 이제 작업 부하의 RSS가 상한값 아래이므로 더 이상 페이징이 발생하지 않습니다. 페이징과 연관된 I/O도 역시 중지됩니다. 따라서 관찰되는 시점에 프로젝트에서 진행 중인 작업을 수행하려면 6.1기가바이트가 필요합니다.
vmstat(1M) 및 iostat(1M) 매뉴얼 페이지도 참조하십시오.
rcapstat의 -g 옵션을 사용하여 다음을 보고할 수 있습니다.
시스템에 설치된 물리적 메모리에 대한 백분율로 표시한 현재의 물리적 메모리 사용률
rcapadm에 의해 설정된 시스템 메모리 상한값 적용 임계치
-g 옵션을 사용하면 보고서 끝에 각 간격에 대한 메모리 사용률 및 상한값 적용 행이 인쇄됩니다.
# rcapstat -g id project nproc vm rss cap at avgat pg avgpg 376565 rcap 0 0K 0K 10G 0K 0K 0K 0K physical memory utilization: 55% cap enforcement threshold: 0% id project nproc vm rss cap at avgat pg avgpg 376565 rcap 0 0K 0K 10G 0K 0K 0K 0K physical memory utilization: 55% cap enforcement threshold: 0%